CN115668037A - 显示装置和显示方法 - Google Patents

显示装置和显示方法 Download PDF

Info

Publication number
CN115668037A
CN115668037A CN202180036511.7A CN202180036511A CN115668037A CN 115668037 A CN115668037 A CN 115668037A CN 202180036511 A CN202180036511 A CN 202180036511A CN 115668037 A CN115668037 A CN 115668037A
Authority
CN
China
Prior art keywords
eyeball
display device
light
display
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180036511.7A
Other languages
English (en)
Inventor
今村铁平
小川涼
岩崎正则
小俣贵宣
阿久津克之
清水至
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115668037A publication Critical patent/CN115668037A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/32Holograms used as optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • G02B2027/0116Head-up displays characterised by optical features comprising device for genereting colour display comprising devices for correcting chromatic aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供一种显示装置,其使得能够进一步提高根据用户眼球特征来控制视频呈现的性能。提供一种显示装置,其包括光源;处理器,所述处理器对眼球的特征分布进行处理;监视部,所述监视部对所述眼球的状态进行监视;匹配部,所述匹配部将所述眼球的特征分布与所述眼球的状态进行匹配;以及照射器,所述照射器将从所述光源发射的视频显示光照射到视网膜上的指定位置。

Description

显示装置和显示方法
技术领域
本技术涉及显示装置和显示方法。
背景技术
近年来,以例如将图像重叠在诸如现实风景等外界场景上的状态来显示图像的技术引起了关注。这种技术也称为增强现实(AR)。头戴式显示器是使用这种技术的产品的一个示例。头戴式显示器通过佩戴在用户的头部上来使用。在用于使用头戴式显示器显示视频(图像)的方法中,除了例如来自外界的光之外,来自头戴式显示器的光也到达用户的眼睛,这使得用户能够识别为如同由来自该显示器的光构成的视频重叠在外界图像上一样。
例如,专利文献1提出了一种图像显示装置,该图像显示装置可以检测从光源照射的光在视网膜上的照射位置,并且可以调整视网膜上的照射位置。
引文列表
专利文献
专利文献1:WO2012/169064
发明内容
发明要解决的问题
然而,专利文献1中提出的技术可能无法进一步提高根据用户的眼球特征控制视频呈现的性能。
因此,本技术是鉴于上述情况而制定的,本技术的主要目的是提供一种显示装置和显示方法,该显示装置和方法能够进一步提高根据用户的眼球特征控制视频呈现的性能。
用于解决问题的手段
为了实现上述目的,发明人进行了深入的研究。因此,本发明人在进一步提高根据用户眼球特征控制视频呈现的性能方面取得了令人惊讶的成功,并完成了本技术。
换句话说,作为第一方面,本技术提供了一种显示装置,包括:
光源;
处理器,所述处理器对眼球的特征分布进行处理;
监视部,所述监视部对所述眼球的状态进行监视;
匹配部,所述匹配部将所述眼球的特征分布与所述眼球的状态进行匹配;以及
照射器,所述照射器将从所述光源发射的视频显示光照射到视网膜上的指定位置。
根据本技术的第一方面的显示装置还可以包括
获取部,所述获取部获取所述眼球的所述特征分布。
在这种情况下,所述获取部可以包括从由眼底照相机、OCT、折射仪和检测由于IR扫描而返回的光的光检测装置组成的组中选择的至少一个。
在根据本技术的第一方面的显示装置中,
所述监视部可以使用角膜反射或眼底反射来监视所述眼球的状态。
根据本技术的第一方面的显示装置还可以包括
跟随器,所述跟随器可以使所述视频显示光跟随所述眼球的运动。
在这种情况下,所述跟随器可以包括从由组合器、中继系统驱动部、镜驱动部和相位差面板组成的组中选择的至少一个。
在根据本技术的第一方面的显示装置中,
可以基于所述眼球的所述特征分布来定义坐标系,以及
在这种情况下,所述匹配部可以通过使用所述坐标系,将所述眼球的所述特征分布与要向其呈现视频的所述眼球的状态进行匹配。
所述坐标系可以基于从由右眼的第一中央凹、右眼的第一盲点、左眼的第二中央凹和左眼的第二盲点组成的组中选择的至少两个来定义。
在根据本技术的第一方面的显示装置中,
所述光源可以是激光源。
根据本技术的第一方面的显示装置还可以包括
扫描型反射镜,以及
所述扫描型反射镜可以将所述视频显示光照射到所述视网膜上。
在根据本技术的第一方面的显示装置中,
所述照射器还包括布置在眼睛前面的构件,以及
所述构件是透明构件。
在这种情况下,所述构件可以是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面第一光学元件,或者是反射指定光且透射除该指定光以外的光的第二光学元件。
根据本技术的第一方面的显示装置还可以包括波长色散补偿构件。
在这种情况下,所述波长色散补偿构件可以是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面的第一光学元件。
此外,作为第二方面,本技术提供了一种显示方法,包括
对眼球的特征分布进行处理;
对所述眼球的状态进行监视;
将所述眼球的所述特征分布与所述眼球的状态进行匹配;以及
将从光源发射的视频显示光照射到视网膜上的指定位置。
根据本技术的第二方面的显示方法还可以包括
获取所述眼球的所述特征分布。
本技术可以进一步提高根据用户的眼球特征控制视频呈现的性能。注意,这里描述的效果不一定是限制性的,并且可以提供本公开中描述的任何效果。
附图说明
[图1]图1是示出使用应用了本技术的显示装置显示视频的流程的示例的图。
[图2]图2是用于描述在右眼眼球向左或向右旋转时中央凹和盲点的位置变化的图。
[图3]图3是用于描述将眼底图与要呈现视频的眼球的状态进行匹配的结果的图。
[图4]图4是用于描述将插值眼底图与要呈现视频的眼球的状态进行匹配的结果的图。
[图5]图5是示出使用应用了本技术的显示装置显示视频的流程的另一示例的图。
[图6]图6是用于描述可以正常看到事物的状态、事物出现变形的状态(变视症)以及中心部分出现黑暗的状态(中央暗点)的图。
[图7]图7是用于描述对眼球变形进行校正的图。
[图8]图8是用于描述对眼球斑纹进行校正的图。
[图9]图9是示出应用了本技术的显示装置的配置示例的俯视图。
[图10]图10是示出应用了本技术的显示装置的配置示例的正视图。
[图11]图11是示出应用了本技术的第一实施方式的显示装置的配置示例的框图。
[图12]图12是示出应用了本技术的第二实施方式的显示装置的配置示例的框图。
[图13]图13是示出布置在眼睛前面并且包括在应用了本技术的显示装置中的构件的示例的图。
[图14]图14是示出布置在眼睛前面并且包括在应用了本技术的显示装置中的构件的另一示例的图。
具体实施方式
下面将描述用于实施本技术的优选实施方式。下面描述的实施方式是本技术的代表性实施方式的示例,并且本技术的范围不被解释为限于这些实施方式。注意,在参考附图的描述中,相似或等效的元件或构件由相似的附图标记表示,以省略重复的描述。
请注意,说明的顺序如下。
1.本技术的概述
2.第一实施方式(显示装置的第一示例)
3.第二实施方式(显示装置的第二示例)
4.第三实施方式(显示方法的第一示例)
5.第四实施方式(显示方法的第二示例)
<1.本技术的概述>
首先,对本技术进行概述。本技术涉及显示装置和显示方法。
根据本技术,获取眼球的特征分布(形状和光学特征),并且将分布上定义的坐标与眼睛感知结果进行匹配。这使得可以根据在视网膜上的指定位置处的眼球的特征分布来显示视频。
首先,描述本技术以外的其他技术的示例。
作为其他技术的第一示例,存在与平面显示器面板扩展型眼镜相关的技术的示例。在该技术的第一示例中,焦平面是固定的。因此,视网膜上的受刺激部位可能不会被精确指定。此外,作为其他技术的第二示例,存在与使用激光将图像直接投影到视网膜上相关的技术的示例。在该技术的第二示例中,当使用半反射镜时,透视性能会降低,这可能导致不适合将注意力吸引到外界的物体上。此外,当使用全息光学元件(HOE)时,视角变得更窄并且发生波长色散,这可能导致在刺激的呈现范围和的准确性方面存在困难。此外,作为其他技术的第三示例,存在与位置调整(跟随)相关的技术的示例。在该技术的第三示例中,可以使用图案匹配(这里,图案是指例如血液等的视网膜图案)来执行位置调整。因此,参考数据很大,这可能导致繁重的处理。
本技术是鉴于上述情况而开发的。
本技术可以进一步提高根据用户的眼球特征控制视频呈现的性能。此外,本技术还可以进一步提高根据用户眼球的运动(眼球运动)控制视频呈现的性能。
具体而言,在本技术中,获取关于眼球的特征分布的信息,定义坐标系,并在坐标系中定义所显示的视频和显示位置。因此,与使用图案图时相比,这能够使数据量更小。此外,基于关于眼球运动的信息(诸如关于眼球旋转的信息)来控制所显示的视频(所呈现的视频)和显示位置(呈现位置)。因此,与使用图案匹配时相比,这能够使处理强度更低。例如,坐标系是基于从由右眼中央凹(右眼中央凹可称为第一中央凹)、右眼盲点(右眼盲点可称为第二盲点)、左眼第二中央凹(左眼中央凹可被称为第二中央凹)、以及左眼第二盲点(左眼盲点可称为第二盲点)组成的组中选择的至少两个来定义的。
此外,在本技术中,优选的是,由于使用激光源,因此可以呈现特定波长的刺激。此外,优选的是,由于布置在眼睛前面的构件是透视构件,因此可以注视外界的对象并呈现无意识提供的刺激。此外,优选的是,由于使用波长色散补偿构件,因此可以补偿波长色散,因此可以精确地刺激视网膜上的指定点(任何点)。
布置在眼睛前面的构件的示例包括第一光学元件和第二光学元件,第一光学元件包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面,所述第二光学元件是反射指定光并且透射除所述指定光以外的光的光学元件。包括元表面的第一光学元件例如可以在第一光学元件的表面上具有以窄间隔周期性地布置有电介质或金属的结构,并且可以偏转频带的光。
第二光学元件的示例包括半反射镜(其光透射率优选为50%或更高)、仅反射特定波长(光源的波长)并透射该特定波长以外的波长的带通滤波器、以及反射特定偏振光的偏振分束器。
波长色散补偿构件的示例包括第一光学元件,该第一光学元件包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面。如上所述,包括作为波长色散补偿构件的元表面的第一光学元件例如也在第一光学元件的表面上具有以窄间隔周期性地布置有电介质或金属的结构,并且可以偏转特定频带的光。
下面将参考附图详细描述用于实施本技术的优选实施方式。下面描述的实施方式是本技术的代表性实施方式的示例,并且本技术的范围不被解释为限于这些实施方式。
<2.第一实施方式(显示装置的第一示例)>
根据本技术的第一实施方式(显示装置的第一示例)的显示装置是如下显示装置,其包括光源、对眼球的特征分布进行处理的处理器、对眼球的状态进行监视的监视部、将眼球的特征分布与该眼球的状态进行匹配的匹配部、以及将从光源发射的视频显示光照射到视网膜上的指定位置的照射器。根据本技术的第一实施方式的显示装置还可以包括跟随器。根据本技术的第一实施方式的显示装置可以应用于例如眼镜显示器和头戴式显示器等。
对眼球的特征分布进行处理的处理器对关于眼球的特征分布的信息进行处理,例如从外部装置(例如,眼底照相机、OCT、检测由于IR扫描而返回的光的光检测装置或折射仪等)获得的关于眼球的特征分布的信息。监视部例如使用角膜反射或眼底反射来监视眼球的状态,并且可以获取光轴。匹配部获取视轴与光轴的偏差(视线校准,GazeCalibration),并且可以生成反映偏移量的图。照射器可以根据激光源、视频显示(投影仪)和眼球特征分布来调制光,可以根据外部光来调整光量,并且可以执行包括变形校正的控制。跟随器可以使得所显示的视频跟随由于眼睛跟踪而引起的眼球运动,其中操纵光线以基于关于眼球旋转的信息来改变所照射的视频和照射位置。
首先,参考图1描述使用根据本技术的第一实施方式的显示装置来显示视频的流程的示例。
在图1所示的步骤S101至S103中创建眼底图。更详细地说,在步骤S101中使用例如眼底照相机拍摄从正面观看眼球时的眼底照片,在步骤S102中使用例如眼底照相机拍摄向左、向右、向上或向下旋转眼球时的眼底照片,在步骤S103中检测在步骤S101和S102中拍摄的各个眼底照片中的中央凹和盲点的位置。
参考图2对步骤S101至S103进行具体描述。图2是用于描述右眼眼球向左或向右旋转时中央凹和盲点的位置变化的图。在图2中,图2中的A-2示出在步骤S101中从正面观看时的右眼的眼底照片,图2中的B-2是示意性地示出从正面观看时的右眼的眼球20的俯视图。在图2中,图2中的A-1示出在步骤S102中当眼球20向左旋转时的右眼的眼底照片,而图2中的B-1是示意性地示出当眼球向左旋转时的右眼的眼球20的俯视图。在图2中,图2中的A-3示出在步骤S102中当眼球20向右旋转时的右眼的眼底照片,而图2中的B-3是示意性地示出当眼球向右旋转时的右眼的眼球20的俯视图。
当比较图2中的A-1和A-2时,图2中的A-1所示的中央凹30-1相对于图2中的A-2所示的中央凹30-2向左方向的位置移动。同样地,图2中的A-1所示的盲点31-1相对于图2中的A-2所示的盲点31-2向左方向的位置移动。
注意,图2中的A-2所示的中央凹30-2和盲点31-2之间的位置关系(中央凹30-2和盲点31-2之间的距离)与图2中的A-1所示的中央凹30-1和盲点31-1之间的位置关系(中央凹30-1与盲点31-1之间的距离)基本上彼此相同。
当比较图2中的A-3和A-2时,图2中的A-3所示的中央凹30-3相对于图2中的A-2所示的中央凹30-2向右方向的位置移动。同样地,图2中的A-3所示的盲点31-3相对于图2中的A-2所示的盲点31-2向右方向的位置移动。
注意,图2中的A-2所示的中央凹30-2和盲点31-2之间的位置关系(中央凹30-2和盲点31-2之间的距离)与图2中的A-3所示的中央凹30-3和盲点31-3(中央凹30-3和盲点31-4之间的距离)基本上彼此相同。
在图1所示的步骤S104和S105中,将眼睛感知(眼睛跟踪)的结果与眼底图进行匹配。更详细地,在步骤S104中,使用根据本技术的第一实施方式的显示装置进行视线校准(Gaze Calibration),并且在步骤S105中计算显示系统的光轴中心与中央凹的偏差。
参考图3对步骤S104至S105进行具体描述。图3是用于描述将眼底图与要呈现视频的眼球的状态进行匹配的结果的图。如图3中的A所示,光轴(光学矢量,Optical Vector)1与视轴(视线矢量,Gaze Vector)2之间偏离角度θ。光轴1是穿过瞳孔10中心的角膜法线,视轴2是连接节点(晶状体的中央后表面)和中央凹30的轴。
如图3中的B所示,在构成视频显示范围(视角)50的第一象限51(例如其中X轴为正方向,且Y轴为正方向的区域)、第二象限52(例如,其中X轴为负方向,且Y轴为正方向的区域)、第三象限53(例如,其中X轴为负方向,且Y轴为负方向的区域)、以及第四象限54(例如,其中X轴为正方向,且Y轴为负方向的区域)中,盲点31在第一象限51和第四象限54中延伸存在。
图1所示的步骤S106至S108在视频呈现状态下执行。更详细地,在步骤S106中执行视线跟踪(Gaze Tracking)。例如,在步骤S206中,跟踪眼球的运动,检测瞳孔位置,并计算期望点的视角。使红外光与用于图像投影的光轴重合,并且检测眼底反射(盲点位置处的反射率与中央凹位置处的反射率不同)。在步骤S107中,生成插值眼底图。插值眼底图通过在眼球的向左旋转、向右旋转、向上旋转和向下旋转之间进行插值来生成。例如,使用眼底图估计当与在步骤S101至S103中生成的眼底图所使用的眼球的向左旋转、向右旋转、向上旋转和向下旋转的级别相比较小级别的眼球的向左旋转、向右旋转、向上旋转和向下旋转时的中央凹和盲点的位置,以生成插值眼底图。注意,可以使用关于特定眼球的位置信息或视角偏差的信息来生成插值眼底图。然后,在步骤S108中生成视频。在生成视频之后,例如将生成的视频的信号发送到视频显示部,其例如包括光源(诸如激光源)、反射镜、扫描型反射镜(诸如MEMS反射镜)、中继系统驱动部(投影光学系统)和布置在眼睛前面的透视构件(诸如全息光学元件(在一些情况下,下文中称为HOE))。全息光学元件的示例包括反射型或透射型体积全息图和反射型或透射型浮雕全息图(也称为表面浮雕全息图)。
参考图4对步骤S106至S108进行具体描述。图4是用于描述将插值眼底图与要呈现视频的眼球的状态进行匹配的结果(修正结果)的图。
如图4所示,在构成视频显示范围(视角)50的第一象限51(例如其中X轴为正方向,且Y轴为正方向的区域)、第二象限52(例如,其中X轴为负方向,且Y轴为正方向的区域)、第三象限53(例如,其中X轴为负方向,且Y轴为负方向的区域)、以及第四象限54(例如,其中X轴为正方向,且Y轴为负方向的区域)中,盲点31在靠近第四象限54的第一象限54内存在。
如图1中的参考数字P1所示,重复执行步骤S106至S108,直到生成所需或指定的视频。可以同时执行步骤S106(视线跟踪)和步骤S107(插值眼底图的生成)。
参考图5描述使用根据本技术的第一实施方式的显示装置显示视频的流程的另一示例。
在图5所示的步骤S201中生成眼底图。在步骤S201中生成的眼底图的生成方法与上文已描述的在图1所示的步骤S101至S103中生成的眼底图的生成方法类似。因此,此处省略详细描述。
在图5所示的步骤S202中,获取眼球特征。使用例如光学相干断层扫描(OCT,Optical Coherence Tomography)、折射仪(客观性折射测量,Objective Refractometry)或检测由于IR扫描而返回的光的光检测装置,来获取眼球特征。通过使用OCT,可以捕获视网膜的横截面的图像。通过使用折射仪,可以获得诸如像差等光学特征(诸如关于眼球变形的数据),并且可以测量例如眼睛的屈光度数、角膜的曲率等。通过使用检测由于IR扫描而返回的光的光检测装置,可以测量诸如眼底的形状。通过获取眼球特征,例如可以确定用户的眼睛是否受到年龄相关性黄斑变性病的影响。年龄相关性黄斑变性是一种由于年龄变化或光损伤等导致视网膜的中央部分的黄斑而难以看清事物的疾病。例如,如图6所示,正常的眼睛可以正常看到事物(图6中的A),而视网膜由于年龄相关性黄斑变性(变视症)而变形,并且事物看起来变形,例如变形60B(图6中的B),或者由于年龄相关性黄斑变性(变视症)导致视力变弱,并且中心部分看起来较暗,例如,中心暗点60C(图6中的C)。
在图5所示的步骤S203中,将眼睛感知(眼睛跟踪)结果与眼底图进行匹配。在步骤S203中执行的匹配方法与上文已描述的在图1所示的S104和S105中执行的匹配方法相似。因此,此处省略了详细描述。
图5所示的步骤S204至S208在视频呈现状态下执行。更详细地,在步骤S204中进行视线跟踪(Gaze Tracking)。例如,在步骤S204中,跟踪眼球的运动,检测瞳孔位置,并计算期望点的视角。使红外光与用于图像投影的光轴重合,并且检测眼底反射(盲点位置处的反射率和中央凹位置处的反射率不同)。在步骤S205中,生成插值眼底图。插值眼底图通过在眼球的向左旋转、向右旋转、向上旋转和向下旋转之间进行插值来生成。例如,使用眼底图估计当与在步骤S201中生成的眼底图所使用的眼球的向左旋转、向右旋转、向上旋转和向下旋转的级别相比较小级别的眼球的向左旋转、向右旋转、向上旋转和向下旋转时的中央凹和盲点的位置,以生成插值眼底图。注意,可以使用关于特定眼球的位置信息或关于视角偏差的信息来生成插值眼底图。
接下来,在步骤S206中重建用于校正眼球变形的校正表。参考图7对步骤S206进行具体描述。图7中的A示出要呈现的视频(图像)。图7中的B示出受眼球变形影响的视频(图像)。图7中的C示出通过使用用于校正眼球变形的校正表执行校正而获得的输出视频(生成的视频)。
在步骤S207中对眼球斑纹(ムラ)进行校正。参考图8对步骤S207进行具体描述。图8中的A示出要呈现的视频(图像)。图8中的B示出受眼球斑纹影响的视频(图像)。图8中的C示出通过使用眼球斑纹校正执行校正而获得的输出视频(生成的视频)。
然后,在步骤S208中生成视频。在生成视频之后,例如将生成的视频的信号发送到视频显示部,其例如包括光源(诸如激光源)、反射镜、扫描型反射镜(诸如MEMS反射镜)、中继系统驱动部(投影光学系统)和透视构件(诸如全息光学元件(在一些情况下,下文中称为HOE))。全息光学元件的示例包括反射型或透射型体积全息图和反射型或透射型浮雕全息图(也称为表面浮雕全息图)。
如图5中参考数字P5所示,重复执行步骤S204至S208,直到生成所需或指定的视频。可以同时执行步骤S204(视线跟踪)和步骤S205(插值眼底图的生成)。
参考图9和图10描述根据本技术的第一实施方式的显示装置的配置示例。图9是佩戴在用户头部的根据本技术的显示装置的俯视图。图10是佩戴在用户头部的根据本技术的显示装置的前视图。图9所示的显示装置包括视频显示部(也称为图像显示部)、检测显示装置相对于头部的位置变化的传感器(在本说明书中,检测显示装置相对于头部的位置变化的传感器也称为“位移传感器”或“传感器”)、监视部、投射位置调整机构、控制器和存储器。以下将对这些结构元件进行描述。
(视频显示部)
如图9所示,显示装置100具有眼镜形状,并且被配置为将视频显示光(在某些情况下称为图像显示光)投射到每个眼睛上。换句话说,显示装置100包括将视频显示光投射到左眼上的视频显示部和将视频显示光投射到右眼上的视频显示部。将视频显示光投影到左眼上的视频显示部包括光源部101L、投影光学系统102L和用作照射器的全息光学元件(以下也称为HOE)103L。尽管图中未示出,显示装置100可以包括作为跟随器的组合器,并且组合器可以在结构上包括诸如全息光学元件103L和半反射镜等。投影光学系统102L可以包括作为跟随器的中继系统驱动部(未示出)。尽管图中未示出,可以在光源部101L和投影光学系统102L之间或者在投影光学系统101L和全息光学元件103L之间布置作为跟随器的镜驱动部和相位差面板。
光源部101L发射视频显示光。作为用于发射该视频显示光的构造,光源部101L可以包括例如激光源120L、反射镜121L和扫描反射镜122L。从激光源120L发射的激光被反射镜121L反射,然后到达扫描反射镜122L。扫描反射镜122L对该激光进行二维扫描。扫描反射镜122L例如可以是MEMS反射镜。扫描反射镜122L可以快速地移动该激光的方向,以在视网膜上形成图像。
投影光学系统102L调整该视频显示光的方向,使得该视频显示光到达HOE 103L中的期望区域和/或位置。例如,投影光学系统102L将由扫描反射镜122L扫描的视频显示光形成为平行光。
HOE 103L对该视频显示光进行衍射,以将该视频显示光聚光在用户瞳孔附近的位置,从而照射到视网膜上。HOE 103L例如可以是反射型衍射元件。HOE 103L可以具有以下光学特性:对于该视频显示光的波长范围内的光用作透镜,并且使得该波长范围外的波长的光透射通过HOE 103L。该光学特性使得用户能够识别经由HOE 103L的例如视线方向前方的风景,并且识别由该视频显示光构成的图像。换句话说,由该视频显示光构成的图像可以重叠在外界的风景上。HOE 103L的示例包括全息透镜,优选为包括膜形状的全息透镜,并且更优选为包括膜形状的透明全息透镜。膜形状的全息透镜例如可以通过粘贴到玻璃等上来使用。可以通过本技术领域中的现有方法为全息透镜提供期望的光学特性。此外,HOE 103L例如可以是体积全息图或表面浮雕全息图。此外,可以使用市售的全息透镜作为全息透镜,或者可以使用本技术领域中的现有方法来制造全息透镜。
如上所述,光源部101L、投影光学系统102L和HOE 103L使视频显示光到达用户的左眼。
显示装置100包括作为眼镜形状的一部分的镜腿部109L和镜框部108L。光源部101L和投影光学系统102L布置在镜腿部109L中。HOE 103L被保持在镜框部108L中。更具体地,经由作为照射器的投射位置调整机构105L-2将内侧镜框部106L保持在镜框部108L中,并且经由作为照射器的投射位置调整机构105L-1将HOE 103L保持在内侧镜框部106L中。
将视频显示光投射到用户右眼上的视频显示部包括光源部101R、投影光学系统102R和作为照射器的HOE 103R。尽管图中未示出,显示装置100可以包括作为跟随器的组合器,并且组合器可以在结构上包括诸如HOE 103R和半反射镜等。投影光学系统102R可以包括作为跟随器的中继系统驱动部(未示出)。尽管图中未示出,可以在光源部101R和投影光学系统102R之间或者在投影光学系统101R和HOE 103R之间布置作为跟随器的镜驱动部和相位差面板。
关于光源部101L、投影光学系统102L和HOE 103L的描述,同样适用于光源部101R、投影光学体系102R和HOE 101R。
与用于左眼的视频显示部的情况一样,光源部101R和投影光学系统102R布置在镜腿部109R中。HOE 103R被保持在镜框部108R中。更具体地,内侧镜框部106R经由作为照射器的投射位置调整机构105R-2保持在镜框部108R中,并且HOE 103R经由作为照射器的投射位置调整机构105R-1保持在内侧镜框部106R中。
显示装置100的镜框部108L和108R经由鼻桥部110彼此连接。鼻桥部110是当用户佩戴显示装置100时横跨用户鼻子的部分。此外,显示装置100的镜框部108L和108R两者都连接到头带部111。头带部111是当用户佩戴显示装置100时与用户的头顶部接触的部分,如图10所示。
图9所示的光源部101L包括一个激光源120L。然而,包括在光源部101L中的激光源的数量可以是两个或更多个,并且例如可以是从两个到五个。多个激光源中的激光源可以输出波长彼此不同的激光。同样地,光源部101R包括一个激光源120R。然而,包括在光源部101R中的激光源的数量可以是两个或更多个,并且例如可以是从两个到五个。多个激光源中的激光源可以输出波长彼此不同的激光。通过使用激光源120L和激光源120R,可以呈现特定波长的刺激。
尽管图中未示出,显示装置100可进一步包括波长色散补偿构件。波长色散补偿构件的示例包括第一光学元件,该第一光学元件包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面。波长色散补偿构件可以布置在反射镜121L和/或121R的周边,例如布置在反射镜121R和扫描反射镜122L之间,和/或布置在反射镜121R和扫描镜122R之间。将波长色散补偿构件应用于显示装置100使得波长色散得到补偿,并且因此使得可以精确地刺激视网膜上的(指定点)任何点。
(传感器)
显示装置100进一步包括检测显示装置100相对于用户头部的位置变化的传感器104L、104R、104C和104T。由这些传感器检测到的位置变化例如可以是位置变化的方向和/或位置变化的量。注意,在本说明书中,传感器104L、104R、104C和104T可以统称为传感器104。
传感器104L和104R检测显示装置100相对于用户头部的水平方向上的位置变化,传感器104C检测显示装置100相对于用户头部的前后方向上的位置变化,并且传感器104T检测显示装置100相对于用户头部的上下方向上的位置变化。这使得可以三维地掌握佩戴偏移。
(监视部(视线检测装置))
显示装置100包括检测用户的视线的监视部107L和107R。在本说明书中,监视部107L和107R可以统称为监视部107。监视部107可以使用角膜反射或眼底反射来监视所述眼球的状态。显示装置100通过包括该监视部,可以将呈现给用户的图像的位置调整至更合适的位置。例如,当由显示装置100呈现的图像重叠在外界图像上时,通过检测用户的视线,可以在更合适的位置处显示该图像。换言之,包括监视部107有利于AR信息的呈现。监视部例如可以是视线检测装置。
监视部107例如可以是成像型监视部或光电二极管型监视部。下文将更详细地描述该监视部。
监视部107L检测用户左眼的视线。监视部107L可以设置在例如镜框部108L中的任何位置,并且只要监视部107L可以检测左眼的视线,监视部107L可以设置在其他部件(例如内侧镜框部106L等)中的任意位置。
监视部107L例如可以是光电二极管型监视部。光电二极管型监视部可以包括例如光源和光电二极管的组合。所述光源被配置为将光照射到左眼上。所述光源优选为红外光照明光源。由此,可以防止由用户进行的外界图像的识别和视频显示光的识别受到影响。所述光电二极管可以被配置为检测从所述光源发射的光(具体地,红外光)被眼球反射后的光。例如,所述光电二极管能够检测从眼球的黑色部分(瞳孔)反射的光量与从眼球的白色部分(巩膜)反射的光量之间的差异。例如,所述光电二极管型监视部可以基于由所述光电二极管检测的眼球的黑色部分的面积比例和眼球的白色部分的面积比例,来检测视线。
光电二极管型监视部即使在显示装置发生佩戴偏移时,也无法检测出该佩戴偏移。因此,当显示装置发生了佩戴偏移时,由该监视部执行的视线检测的精度可能会降低。如上所述,本技术的显示装置包括检测显示装置相对于头部的位置变化的传感器,并且由此能够检测到佩戴偏移。基于由该传感器检测到的佩戴偏移来校正视线,由此能够提高由监视部执行的视线检测的精度。本技术的显示装置可以以例如3mm或更小的精度检测视线,特别是以2mm或更小的精度,更特别是以1mm或更小的精度。具有这种精度的视线检测对于通过麦克斯韦(Maxwellian)式观看进行的图像呈现特别有利。
替代地,监视部107L可以是成像型监视部。成像型监视部可以包括例如光源和成像设备的组合。与光电二极管型监视部的情况一样,所述光源被配置为将光照射到左眼上。光源优选为红外光照明光源。例如,所述成像设备可以构造为能够获得由来自所述光源的光被眼球(具体地,角膜)反射而获得的反射图像(所谓的浦肯野(Purkinje)图像)、以及可以从中获取瞳孔的重心的图像。所述成像设备例如可以是红外成像设备。例如,所述成像型监视部可以基于所述浦肯野图像和所述图像来估计眼球的光轴。监视部可以将该估计的光轴转换成视轴以检测视线。
当在基于所述浦肯野图像和所述图像检测视线时所述光源和眼球之间的位置关系是固定的时,浦肯野成像的位置将是固定的。佩戴偏移导致该位置关系的偏移,并由此导致能够形成浦肯野图像的位置的变化。而且,该视线检测容易受到例如眨眼、或者头发或睫毛等的影响。此外,在所述视线检测中,通常执行校准以校正个人差异,并且当显示装置发生佩戴偏移时,需要再次执行校准。如上所述,本技术的显示装置包括检测显示装置相对于头部的位置变化的传感器,并且由此能够检测到佩戴偏移。因此,例如预先提供(例如,通过存储在存储器等中)与佩戴偏移量相对应的校正值,并且响应于发生了佩戴偏移,使用该校正值执行校正。这使得能够准确地检测视线。而且,佩戴偏移的检测不容易受到例如眨眼、或者头发或睫毛的影响。此外,通过基于检测到的佩戴偏移执行校正,还可以减少执行校准的次数。
(投射位置调整机构)
包括在显示装置100中的照射器还可以包括对从显示装置100发射的视频显示光的投射位置进行调整的投射位置调整机构105L-1和105L-2、以及105R-1和105R-2,注意,在本说明书中,这四个投射位置调整机构可以统称为投射位置调整机构105。例如,投射位置调整机构105可以被配置为追随视线来调整视频显示光的投射位置。投射位置调整机构105使得可以根据佩戴偏移来调整视频显示光的投射位置。
而且,投射位置调整机构105可以根据眼球的旋转运动或视线的移动来调整视频显示光的投射位置。例如,显示装置100通过包括投射位置调整机构105,可以将呈现给用户的图像的位置调整至更合适的位置。例如,当由显示装置100呈现的图像重叠在外界图像上时,通过检测用户的视线,可以在更合适的位置处显示该图像。换言之,包括监视部107有利于AR信息的呈现。此外,通过该投射位置调整机构,还可以调整在通过麦克斯韦(Maxwellian)式观看进行的图像呈现中视频显示光被聚光的位置。
投射位置调整机构105L-1和105L-2对投射到左眼上的视频显示光的投射位置进行调整。投射位置调整机构105L-1调整内侧镜框部106L和镜框部108L在z轴方向上的位置关系。例如,投射位置调整机构105L-1相对于镜框部108L在z轴方向上移动内侧镜框部106L。由此,可调整HOE 103L在z轴方向上的位置。投射位置调整机构105L-2对HOE103L和内侧镜框部106L在x轴方向上的位置关系进行调整。例如,投射位置调整机构105L-2相对于内侧镜框部106L在x轴方向上移动HOE 103L。由此,可调整HOE 103L在x轴方向上的位置。
用于驱动由投射位置调整机构105L-1对内侧镜框部106L和镜框部108L在z轴方向上的位置关系的调整的驱动元件,例如可以是压电元件、致动器或双金属,但不限于此。同样地,用于驱动由投射位置调整机构105L-2对HOE 103L和内侧镜框部106L在x轴方向上的位置关系的调整的驱动元件,例如也可以是压电元件、致动器或双金属,但不限于此。
例如,投射位置调整机构105L-1可以基于由四个传感器104L、104R、104C和104T中的一个、两个、三个或全部检测到的显示装置100的位置变化,来调整内侧镜框部106L和镜框部108L在z轴方向上的位置关系。此外,投射位置调整机构105L-1可以基于该位置变化和由监视部107L检测到的视线,来调整所述位置关系。例如,投射位置调整机构105L-2可以基于由四个传感器104L、104R、104C和104T中的一个、两个、三个或全部检测到的显示装置100的位置变化,来调整HOE 103L和内侧镜框部106L在x轴方向上的位置关系。此外,投射位置调整机构105L-2可以基于该位置变化和由监视部107L检测到的视线,来调整所述位置关系。
投射位置调整机构105R-1和105R-2调整投射到右眼上的视频显示光的投射位置。该调整可以与由投射位置调整机构105L-1和105L-2进行的调整类似地进行。
(控制器和存储器)
显示装置100包括控制器112。如图11所示,图11是示出显示装置100的主要结构元件的框图,控制器112包括图像控制器181、投射位置控制器182、视线校正部183、处理器191和匹配部192。此外,如上所述,图11所示的显示装置100包括光源部101、传感器104、作为照射器的投射位置调整机构105、监视部(视线检测机构)107、以及包括布置在眼睛前面的透视构件(诸如反射型或透射型体积全息图或反射型或透射型浮雕全息图等)的照射器201和跟随器202。注意,显示装置100不一定要包括跟随器202。存储器184可以包括在显示设备100中,或者可以包括在除了显示设备100之外的外部装置中。
上面已经描述了布置在眼睛前面并且包括在显示装置100的照射器201中的构件,将进一步更详细地描述在图13和14中使用该构件的示例。
图13是示出第二光学元件300的图,第二光学元件300是布置在眼睛前面的构件的示例,其反射指定的光,并且透射指定的光以外的光。图14是示出第二光学元件400的图,第二光学元件400是布置在眼睛前面的构件的另一示例,其反射指定的光,并且透射指定的光以外的光
图13中所示的装置包括第二光学元件300、液晶面板301和特殊液晶透镜302。第二光学元件300包括偏振分束器(PBS),在第二光学部件(偏振分束)300中布置有λ/4板,尽管图中未示出。图13中所示的装置不一定必须包括特殊液晶透镜302,并且作为替代,图13中所示的装置可以包括在液晶面板301和第二光学元件300之间的透镜。
如图13所示,来自液晶面板310的偏振光束(视频显示光)L31被第二光学元件300中的区域H31反射,并且透射通过特殊液晶透镜302中的区域T31-1和T31-2,到达用户的眼睛310(瞳孔310-1)。来自液晶面板301的偏振光束(视频显示光)L32被第二光学元件300(偏振分束器)中的区域H32反射,并且透射通过特殊液晶透镜302中的区域T32-1和T32-2,以到达用户的眼睛310(瞳孔310-1)。用户识别由从液晶面板301发射的光(视频显示光(偏振光束L31和L32))组成的虚拟视频(图像)V13。然后,来自外界的光L310和L320透射通过第二光学元件300(偏振分束器),并且透射通过特殊液晶透镜302,以到达用户的眼睛310(瞳孔310-1)。并且透射通过特殊液晶透镜302以到达用户的眼睛310(瞳孔310-1)。用户识别由来自外界的光L310和L320组成的真实视频(图像)R13。换言之,用户识别为(看起来)如同虚拟视频(图像)V13重叠在真实视频(视频)R13上一样。
图14示出第二光学元件400、有机发光二极管(OLED)面板(有机EL)401和透镜402。第二光学元件400是非球面半反射镜,并且包括第一反射镜构件400-1和第二反射镜构件400-2。例如,第二光学元件400可以包括组合的半反射镜400-1和半反射镜4002,或者可以包括组合的偏振分束器(PBS)400-1和半反射镜400-2。当第二光学元件400包括组合的偏振分束器(PBS)400-1和半反射镜400-2时,λ/4板可以布置在半反射镜4002中。当第一反射镜构件400-1和第二反射镜构件400-2是半反射镜时,或者当第一镜元件400-1和第二镜元件400-2都是半反射镜时,光透射率优选为50%或更高。
如图14所示,来自有机发光二极管(OLED)面板(有机EL)401的光线(视频显示光)L41被包括在第二光学元件400中的第一反射镜构件400-1中的区域H41-1反射,随后被包括在第二光学元件400中的第二反射镜构件400-2中的区域H41-2反射,透射通过第一反射镜构件400-1中的区域T41,以到达用户的眼睛410(瞳孔410-1)。来自OLED面板401的光线(视频显示光)L42被包括在第二光学元件400中的第一反射镜构件400-1中的区域H42-1反射,随后被包括在第二光学元件400中的第二反射镜构件400-2中的区域H42-2反射,透射通过第一反射镜构件400-1中的区域T42,以到达用户的眼睛410(瞳孔410-1)。来自OLED面板401的光线(视频显示光)L43被包括在第二光学元件400中的第一反射镜构件400-1中的区域H43-1反射,随后被包括在第二光学元件400中的第二反射镜构件400-2中的区域H43-2反射,透射通过第一反射镜构件400-1中的区域T43,以到达用户的眼睛410(瞳孔410-1)。用户识别由从OLED面板401发射的光(视频显示光(光线L41、L42和L43))组成的虚拟视频(图像)。然后,尽管图中未示出,来自外界的光透射通过第二光学元件400,以到达用户的眼睛410(瞳孔410-1)。用户识别由来自外界的光组成的真实视频(图像)。用户识别为如同虚拟视频(图像)重叠在真实视频(图像)上一样。
注意,上文参考图13和14描述的与布置在眼睛前面并且包括在照射器201中的构件的两个示例相关的内容,也可以应用于后面描述的作为根据本技术第二实施方式的显示装置100-1。
下面对控制器112进行描述。
图像控制器181控制由视频显示部执行的视频显示光的投射。例如,图像控制器181驱动光源部101L和101R,特别是,图像控制器180驱动包括在这些光源部中的激光源和扫描反射镜,并使光源部输出视频显示光。例如,图像控制器181可以获取存储在存储器184中的图像数据,并且可以基于该图像数据,使光源部101L和101R输出视频显示光。图像控制器181可以基于由传感器104检测到的显示装置100相对于用户头部的位置变化,来校正该图像数据。图像控制器181可基于校正后的图像数据,使光源部101L和101R输出视频显示光。换句话说,显示装置100可以基于由检测显示装置相对于用户头部的位置变化的传感器所检测到的位置变化,来校正图像。
投射位置控制器182控制投射位置调整机构105L-1、105L-2、105R-1和105R-2,由此能够控制视频显示光的投射位置。例如,投射位置控制器182可以基于由监视部107L和107R检测到的视线,驱动投射位置调整机构105L-1、105L-2、105R-1和105R-2中的一个、两个、三个或四个,以调整视频显示光的投射位置。例如,可以调整视频显示光的投射位置,以跟随该视线。投射位置控制器182可以基于由稍后将描述的视线校正部183执行校正后的视线,驱动投射位置调整机构105L-1、105L-2、105R-1和105R-2中的一个、两个、三个或四个,以调整视频显示光的投射位置。例如,可以调整视频显示光的投射位置,以跟随该校正后的视线。投射位置控制器182可以基于由传感器104L、104R、104C和104T中的一个、两个、三个或四个传感器检测到的与显示装置100相对于用户头部的位置变化相关的数据(以下也称为“位移数据”),驱动投射位置调整机构105L-1、105L-2、105R-1和105R-2中的一个、两个、三个或四个,以调整视频显示光的投射位置。
例如,投射位置控制器182可以基于所述位移数据和校正系数,计算由各个投射位置调整机构执行的位置调整量。投射位置控制器182可以驱动各个投射位置调整机构,以使得按照计算出的位置调整量来改变位置关系。例如,投射位置控制器182可以从预先存储在存储器184中的校正表获取校正系数,并且可以使用该校正系数来计算所述位置调整量。例如,该校正表可以包括多个校正系数,并且投射位置控制器182可以根据位移数据,从该多个校正系数中选择指定的校正系数。此外,例如,可以为每个投射位置调整机构设置校正表。该校正表可以预先包括在显示装置100中,或者可以响应于用户使用显示装置100而更新。通过选择或更新校正表或校正系数,能够提高投射位置控制的精度。为了计算所述位置调整量,投射位置控制器182可以使用由监视部检测到的视线或由视线校正部183执行校正后的视线。
视线校正部183基于所述位移数据,校正由监视部107L和107R检测到的视线。由此,视线校正部183能够在考虑到佩戴偏移的情况下识别视线,从而提高检测视线的精度。该补正可以相对于眼球的光轴来执行,可以相对于眼球的视轴来执行,或者可以相对于除光轴和视轴以外的参考轴来执行。视线校正部183也可以从例如预先存储在存储器184中的校正表中获取校正系数,并且可以使用该校正系数来进行所述视线校正。例如,该校正表可以包括多个校正系数,并且视线校正部183可以根据位移数据,从该多个校正系数中选择指定的校正系数。该校正表可以预先包括在显示装置100中,或者可以响应于用户使用头戴式显示装置100而更新。校正表或校正系数的选择或更新使得可以提高校正视线的精度。
显示装置100还可以包括存储器184。存储器184中可以存储与视频显示部所投射的视频显示光相关的数据、用于由投射位置控制器122控制投射位置的校正表、以及用于由视线校正部123校正视线的校正表。
处理器191执行关于眼球的特征分布的信息的处理。眼球的特征分布例如使用眼底照相机来获取,或者使用OCT、折射仪或检测由于IR扫描而返回的光的光检测装置来获取。眼球的特征分布可以从形状特征(例如眼球的大小和形状、黄斑的大小和形状(例如凹陷形状)、盲点的大小和形状(例如凹陷形状)、视网膜的横截面形状(例如,凹凸形状)、本质特征(例如,中央凹的位置、盲点的位置、病变部位等的特征,等等)、光学特征(例如,眼球内的折射、像差,等等)来获取。处理器191可以基于眼球的所述特征分布来定义坐标系。注意,可以不由处理器191基于眼球的所述特征分布来定义坐标系,而是可以在控制器112中独立于处理器191设置例如定义坐标系的定义部。基于从由右眼的第一中央凹、右眼的第一盲点、左眼的第二中央凹和左眼的第二盲点组成的组中选择的至少两个,来定义坐标系。由于使用坐标系定义所显示的视频和显示位置,因此与使用模式图时相比,可以使数据量更小。此外,可以在处理器191中基于关于眼球旋转的信息来控制所显示的视频和显示位置。与使用模式匹配时相比,这种情形可以降低处理强度。
匹配部192将眼球的特征分布与眼球的状态进行匹配。例如,匹配部192通过使用上述坐标系,将眼球的特征分布与要向其呈现视频的眼球(要向其呈现视频的眼球可以被称为关注眼)的状态进行匹配。匹配部192获取视轴与光轴的偏差(视线校准),并且可以生成反映偏移量的图。
上面已经描述了根据本技术的第一实施方式(显示装置的第一示例)的显示装置。除非特别存在技术上的矛盾,否则该描述的内容可以应用于后面将描述的根据本技术的第二实施方式(显示装置的第二示例)的显示装置、根据本技术第三实施方式(显示方法的第一示例)的显示方法、以及根据本技术的第四实施方式(显示方法的第二示例)的显示方法。
<3.第二实施方式(显示装置的第二示例)>
根据本技术的第二实施方式(显示装置的第二示例)的显示装置是如下的显示装置,其包括光源、对眼球的特征分布进行处理的处理器、对眼球的状态进行监视的监视部、将眼球的特征分布与该眼球的状态进行匹配的匹配部、以及将从光源发射的视频显示光照射到视网膜上的指定位置的照射器,并且进一步包括获取眼球的特征分布的获取部。换句话说,根据本技术的第二实施方式的显示装置是通过将获取眼球的特征分布的获取部添加到根据本技术的第一实施方式的显示装置而获得的显示装置。根据本技术的第二实施方式的显示装置可以进一步包括跟随器。根据本技术的第二实施方式的显示装置例如可以应用于眼镜显示器和头戴式显示器。
对眼球的特征分布进行处理的处理器对从例如获取部(诸如眼底照相机、OCT、检测由于IR扫描而返回的光的光检测设备或折射仪,等等)获得的关于眼球的特征分布的信息进行处理。监视部使用例如角膜反射或眼底反射来监视眼球的状态,并且可以获取光轴。匹配部获取视轴与光轴的偏差(视线校准),并且可以生成反映偏移量的图。照射器可以根据激光源、视频显示(投影仪)和眼球特征分布来调制光,可以根据外部光来调整光量,并且可以执行包括变形校正的控制。跟随器可以使得所显示的视频跟随由于眼睛跟踪而引起的眼睛运动,其中操纵光线以基于关于眼球旋转的信息来以改变所照射的视频和照射位置。
参考图12描述根据本技术的第二实施方式的显示装置的配置示例。
图12是示出根据本技术的第二实施方式的显示装置(显示装置100-1)的主要结构元件的框图。
显示装置100-1包括光源部101、传感器104、作为照射器的投射位置调整机构105、监视部(视线检测机构)107、以及包括布置在眼睛前面的透视构件(诸如反射型或透射型体积全息图或反射型或透射型浮雕全息图等)的照射器201、跟随器202、获取部301和控制器112。注意,显示装置100-1不一定要包括跟随器202。
控制器112包括图像控制器181、投射位置控制器182、视线校正部183、处理器191和匹配部192。
图像控制器181控制由视频显示部执行的视频显示光的投射。例如,图像控制器181驱动光源部101L和101R,特别是,图像控制器180驱动包括在光源部中的激光源和扫描反射镜,并使光源部输出视频显示光。例如,图像控制器181可以获取存储在存储器184中的图像数据,并且可以基于该图像数据,使光源部101L和101R输出视频显示光。图像控制器181可以基于由传感器104检测到的显示装置100相对于用户头部的位置变化,来校正该图像数据。图像控制器181可以基于校正后的图像数据,使光源部101L和101R输出视频显示光。换句话说,显示装置100可以基于由检测显示装置相对于用户头部的位置变化的传感器所检测到的位置变化,来校正图像。
投射位置控制器182控制投射位置调整机构105L-1、105L-2、105R-1和105R-2,从而能够控制视频显示光的投射位置。例如,投射位置控制器182可以基于由监视部107L和107R检测到的视线,驱动投射位置调整机构105L-1、105L-2、105R-1和105R-2中的一个、两个、三个或四个,以调整视频显示光的投射位置。例如,可以调整视频显示光的投射位置,以跟随该视线。投射位置控制器182可以基于由稍后将描述的视线校正部183执行校正后的视线,驱动投射位置调整机构105L-1、105L-2、105R-1和105R-2中的一个、两个、三个或四个,以调整视频显示光的投射位置。例如,可以调整视频显示光的投射位置,以跟随校正后的视线。投射位置控制器182可以基于由传感器104L、104R、104C和104T中的一个、两个、三个或四个传感器检测到的与显示装置100相对于头部的位置变化相关的数据(以下也称为“位移数据”),驱动投射位置调整机构105L-1、105L-2、105R-1和105R-2中的一个、两个、三个或四个,以调整视频显示光的投射位置。
例如,投射位置控制器182可以基于所述位移数据和校正系数来计算由各个投射位置调整机构执行的位置调整量。投射位置控制器182可以驱动各个投射位置调整机构,以使得按照计算出的位置调整量来改变位置关系。例如,投射位置控制器182可以从预先存储在存储器184中的校正表来获取校正系数,并且可以使用该校正系数来计算所述位置调整量。例如,该校正表可以包括多个校正系数,并且投射位置控制器182可以根据位移数据从该多个校正系数中选择指定的校正系数。此外,例如,可以为每个投射位置调整机构设置校正表。该校正表可以预先包括在显示装置100中,或者可以响应于用户使用显示装置100而更新。通过选择或更新校正表或校正系数,能够提高投射位置的控制精度。为了计算所述位置调整量,投射位置控制器182可以使用由监视部检测到的视线或由视线校正部183执行校正后的视线。
视线校正部183基于位移数据,校正由监视部107L和107R检测到的视线。由此,视线校正部183能够在考虑到佩戴偏移的情况下识别视线,从而提高检测视线的精度。可以该校正可以相对于眼球的光轴执行,可以相对于眼球的视轴来执行,或者可以相对于除光轴和视轴以外的参考轴来执行。视线校正部183也可以从例如预先存储在存储器184中的校正表中获取校正系数,并且可以使用该校正系数来进行所述视线校正。例如,该校正表可以包括多个校正系数,并且视线校正部183可以根据位移数据,从该多个校正系数中选择指定的校正系数。该校正表可以预先包括在显示装置100中,或者可以响应于用户使用头戴式显示装置100而更新。校正表或校正系数的选择或更新使得可以提高校正视线的精度。
显示装置100还可以包括存储器184。存储器184中可以存储与视频显示部所投射的视频显示光相关的数据、用于由投射位置控制器122控制投射位置的校正表、以及用于由视线校正部分123校正视线的校正表。
处理器191执行关于眼球的特征分布的信息的处理。例如,眼球的特征分布可以从获取部301获取。例如,眼球的特征分布使用包括获取部301的眼底照相机来获取,或者使用包括获取部301的OCT、折射仪或检测由于IR扫描而返回的光的光检测装置来获取。眼球的特征分布可以从形状特征(例如眼球的大小和形状、黄斑的大小和形状(例如凹陷形状)、盲点的大小和形状(例如凹陷形状)、视网膜的横截面形状(例如,凹凸形状)、本质特征(例如,中央凹的位置、盲点的位置、病变部位等的特征,等等)、光学特征(例如,眼球内的折射、像差,等等)来获。处理器191可以基于眼球的特征分布来定义坐标系。注意,可以不由处理器191基于眼球的所述特征分布来定义坐标系,而是可以在控制器112中独立于处理器191设置例如定义坐标系的定义部。基于从由右眼的第一中央凹、右眼的第一盲点、左眼的第二中央凹和左眼的第二盲点组成的组中选择的至少两个,来定义坐标系。由于使用坐标系定义所显示的视频和显示位置,因此与使用模式图时相比,可以使数据量更小。此外,可以在处理器191中基于关于眼球旋转的信息来控制所显示的视频和显示位置。与使用模式匹配时相比,这种情形可以降低处理强度。
匹配部192对眼球的特征分布和眼球的状态进行匹配。例如,匹配部192通过使用上述坐标系,将眼球的特征分布与要向其呈现视频的眼球(要向其呈现视频的眼球可以被称为关注眼)的状态进行匹配。匹配部192获取视轴与光轴的偏差(视线校准),并且可以生成反映偏移量的地图。
<4.第三实施方式(显示方法的第一示例)>
根据本技术的第三实施方式(显示方法的第一示例)的显示方法是如下显示方法,其包括对眼球的特征分布进行处理,对眼球的状态进行监视,将眼球的特征分布与该眼球的状态进行匹配,以及将从光源发射的视频显示光照射到视网膜上的指定位置。
根据本技术的第三实施方式(显示方法的第一示例)的显示方法可以使用根据本技术的第一实施方式(显示装置的第一示例)的显示装置(例如,显示装置100)来执行。
此外,上述的参考图1和图5描述的内容可以应用于根据本技术的第三实施方式(显示方法的第一示例)的显示方法的流程。注意,图1所示的步骤S101(拍摄从正面观看眼球时的眼底照片)、步骤S102(拍摄向左、向右、向上或向下旋转眼球时的眼底图片)和步骤S103(检测各个眼底照片中的中央凹和盲点的位置);以及图5所示的步骤S201(生成眼底图)和步骤S202(获取眼球特征),可以使用除了根据本技术的第一实施方式(显示装置的第一示例)的显示装置(例如显示装置100)之外的外部装置(例如,眼底照相机、OCT或折射仪等)来执行。
<5.第四实施方式(显示方法的第二示例)>
根据本技术的第四实施方式(显示方法的第二示例)的显示方法是如下显示方法,其包括对眼球的特征分布进行处理,对眼球的状态进行监视,将眼球的特征分布与该眼球的状态进行匹配,以及将从光源发射的视频显示光照射到视网膜上的指定位置,并且进一步包括获取眼球的特征分布。换句话说,根据本技术的第四实施方式的显示方法是通过将获取眼球的特征分布添加到根据本技术第三实施方式的显示方法而获得的显示方法。
根据本技术的第四实施方式(显示方法的第二示例)的显示方法可以使用根据本技术的第二实施方式(显示装置的第二示例)的显示装置(例如,显示装置100-1)来执行。
上述的参考图1和图5描述的内容可以应用于根据本技术的第四实施方式(显示方法的第二示例)的显示方法的流程。
注意,根据本技术的实施方式不限于上述实施方式,并且可以在不脱离本技术范围的情况下对其进行各种修改。
此外,本文描述的效果不是限制性的,只是说明性的,并且可以提供其他效果。
此外,本技术还可以采用以下配置。
(1)一种显示装置,包括:
光源;
处理器,所述处理器对眼球的特征分布进行处理;
监视部,所述监视部对所述眼球的状态进行监视;
匹配部,所述匹配部将所述眼球的特征分布与所述眼球的状态进行匹配;以及
照射器,所述照射器将从所述光源发射的视频显示光照射到视网膜上的指定位置。
(2)根据(1)所述的显示装置,还包括:
获取部,所述获取部获取所述眼球的所述特征分布。
(3)根据(2)所述的显示装置,其中
所述获取部包括从由眼底照相机、OCT、折射仪和检测由于IR扫描而返回的光的光检测装置组成的组中选择的至少一个。
(4)根据(1)至(3)中任一项所述的显示装置,其中
所述监视部使用角膜反射或眼底反射来监视所述眼球的状态。
(5)根据(1)至(4)中任一项所述的显示装置,还包括
跟随器,所述跟随器使所述视频显示光跟随所述眼球的运动。
(6)根据(5)所述的显示装置,其中
所述跟随器包括从由组合器、中继系统驱动部、镜驱动部和相位差面板组成的组中选择的至少一个。
(7)根据(1)至(6)中任一项所述的显示装置,其中
基于所述眼球的所述特征分布来定义坐标系,以及
所述匹配部通过使用所述坐标系,将所述眼球的所述特征分布与要向其呈现视频的所述眼球的状态进行匹配。
(8)根据(7)所述的显示装置,其中
基于从由右眼的第一中央凹、右眼的第一盲点、左眼的第二中央凹和左眼的第二盲点组成的组中选择的至少两个来定义所述坐标系。
(9)根据(1)至(8)中任一项所述的显示装置,其中
所述光源是激光源。
(10)根据(1)至(9)中任一项所述的显示装置,还包括
扫描型反射镜,其中
所述扫描型反射镜将所述视频显示光照射到所述视网膜上。
(11)根据(1)至(10)中任一项所述的显示装置,其中
所述照射器还包括布置在眼睛前面的构件,以及
所述构件是透明构件。
(12)根据(11)所述的显示装置,其中
所述构件是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面第一光学元件,或者是反射指定光且透射除该指定光以外的光的第二光学元件。
(13)根据(1)至(12)中任一项所述的显示装置,还包括
波长色散补偿构件。
(14)根据(13)所述的显示装置,其中
所述波长色散补偿构件是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面的第一光学元件。
(15)一种显示方法,包括:
对眼球的特征分布进行处理;
对所述眼球的状态进行监视;
将所述眼球的所述特征分布与所述眼球的状态进行匹配;以及
将从光源发射的视频显示光照射到视网膜上的指定位置。
(16)根据(15)所述的显示方法,还包括:
获取所述眼球的所述特征分布。
(17)根据(16)所述的显示方法,其中
所述获取眼球的特征分布包括使用从由眼底照相机、OCT、折射仪和检测由于IR扫描而返回的光的光检测装置组成的组中选择的至少一个来获取眼球的特征分布。
(18)根据(15)至(17)中任一项所述的显示方法,其中
监视眼球的状态包括使用角膜反射或眼底反射来监视所述眼球的状态。
(19)根据(15)至(18)中任一项所述的显示方法,还包括:
使视频显示光跟随眼球的运动。
(20)根据(19)所述的显示方法,其中
所述使视频显示光跟随眼球的运动包括使用从由组合器、中继系统驱动部、镜驱动部和相位差面板组成的组中选择的至少一个来使视频显示光追随眼球的运动。
(21)根据(15)至(20)中任一项所述的显示方法,还包括:
基于所述眼球的所述特征分布来定义坐标系,其中
将眼球的特征分布与眼球的状态进行匹配包括通过使用坐标系,将所述眼球的所述特征分布与要向其呈现视频的所述眼球的状态进行匹配。
(22)根据(21)所述的显示方法,其中
基于从由右眼第一中央凹、右眼第一盲点、左眼第二中央凹和左眼第二盲点组成的组中选择的至少两个来定义所述坐标系。
(23)根据(15)至(22)中任一项所述的显示方法,其中
所述光源是激光源。
(24)根据(15)至(23)中任一项所述的显示方法,其中
包括使用扫描型反射镜将所述视频显示光照射到所述视网膜上。
(25)根据(15)至(24)中任一项所述的显示方法,还包括:
设置透明构件;以及
将所述透视构件布置在眼睛前面。
(26)根据(25)所述的显示方法,其中
所述构件是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面第一光学元件,或者是反射指定光且透射除该指定光以外的光的第二光学元件。
(27)根据(15)至(26)中任一项所述的显示方法,还包括:
提供波长色散补偿构件。
(28)根据(27)所述的显示方法,其中
波长色散补偿构件是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面的第一光学元件。
参考标记列表
1 光轴(光学矢量)
2 视轴(注视向量)
10 瞳孔
20 眼球
30 中央凹
31 盲点
100、100-1 显示装置
101 光源部
104 传感器
105 投射位置调整机构
107 监视部(视线检测装置)
112 控制器
181 图像控制器
182 投射位置控制器
183 视线校正部
191 处理器
192 匹配部
201 照射器
201 跟随器
301 获取部

Claims (16)

1.一种显示装置,包括:
光源;
处理器,所述处理器对眼球的特征分布进行处理;
监视部,所述监视部对所述眼球的状态进行监视;
匹配部,所述匹配部将所述眼球的特征分布与所述眼球的状态进行匹配;以及
照射器,所述照射器将从所述光源发射的视频显示光照射到视网膜上的指定位置。
2.根据权利要求1所述的显示装置,还包括:
获取部,所述获取部获取所述眼球的所述特征分布。
3.根据权利要求2所述的显示装置,其中
所述获取部包括从由眼底照相机、OCT、折射仪和检测由于IR扫描而返回的光的光检测装置组成的组中选择的至少一个。
4.根据权利要求1所述的显示装置,其中
所述监视部使用角膜反射或眼底反射来监视所述眼球的状态。
5.根据权利要求1所述的显示装置,还包括:
跟随器,所述跟随器使所述视频显示光跟随所述眼球的运动。
6.根据权利要求5所述的显示装置,其中
所述跟随器包括从由组合器、中继系统驱动部、镜驱动部和相位差面板组成的组中选择的至少一个。
7.根据权利要求1所述的显示装置,其中
基于所述眼球的所述特征分布来定义坐标系,以及
所述匹配部通过使用所述坐标系,将所述眼球的所述特征分布与要向其呈现视频的所述眼球的状态进行匹配。
8.根据权利要求7所述的显示装置,其中
基于从由右眼的第一中央凹、右眼的第一盲点、左眼的第二中央凹和左眼的第二盲点组成的组中选择的至少两个来定义所述坐标系。
9.根据权利要求1所述的显示装置,其中
所述光源是激光源。
10.根据权利要求1所述的显示装置,还包括:
扫描型反射镜,其中
所述扫描型反射镜将所述视频显示光照射到所述视网膜上。
11.根据权利要求1所述的显示装置,其中
所述照射器还包括布置在眼睛前面的构件,以及
所述构件是透明构件。
12.根据权利要求11所述的显示装置,其中
所述构件是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面第一光学元件,或者是反射指定光且透射除该指定光以外的光的第二光学元件。
13.根据权利要求1所述的显示装置,还包括:
波长色散补偿构件。
14.根据权利要求13所述的显示装置,其中
所述波长色散补偿构件是包括反射型或透射型体积全息图、反射型或透射型浮雕全息图、或元表面的第一光学元件。
15.一种显示方法,包括:
对眼球的特征分布进行处理;
对所述眼球的状态进行监视;
将所述眼球的所述特征分布与所述眼球的状态进行匹配;以及
将从光源发射的视频显示光照射到视网膜上的指定位置。
16.根据权利要求15所述的显示方法,进一步包括
获取所述眼球的所述特征分布。
CN202180036511.7A 2020-05-27 2021-04-19 显示装置和显示方法 Pending CN115668037A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020092553 2020-05-27
JP2020-092553 2020-05-27
PCT/JP2021/015895 WO2021241073A1 (ja) 2020-05-27 2021-04-19 表示装置及び表示方法

Publications (1)

Publication Number Publication Date
CN115668037A true CN115668037A (zh) 2023-01-31

Family

ID=78744352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180036511.7A Pending CN115668037A (zh) 2020-05-27 2021-04-19 显示装置和显示方法

Country Status (6)

Country Link
US (1) US11940630B2 (zh)
JP (1) JPWO2021241073A1 (zh)
KR (1) KR20230015353A (zh)
CN (1) CN115668037A (zh)
DE (1) DE112021002930T5 (zh)
WO (1) WO2021241073A1 (zh)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5950233B2 (ja) 2010-10-01 2016-07-13 パナソニックIpマネジメント株式会社 シースルーディスプレイ装置及びシースルーディスプレイ装置を搭載した車両
JP5794608B2 (ja) 2010-12-24 2015-10-14 Necエナジーデバイス株式会社 放電制御装置、放電制御方法およびプログラム
JP4926300B1 (ja) 2011-06-10 2012-05-09 パイオニア株式会社 画像表示装置、画像表示方法及び画像表示プログラム
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
EP2958074A1 (en) 2014-06-17 2015-12-23 Thomson Licensing A method and a display device with pixel repartition optimization
JP6444666B2 (ja) 2014-09-08 2018-12-26 株式会社トプコン 眼科撮影装置および眼科情報処理装置
IL242895B (en) 2015-12-03 2021-04-29 Eyeway Vision Ltd Image projection system
KR102062658B1 (ko) 2016-03-11 2020-01-06 페이스북 테크놀로지스, 엘엘씨 안구 모델을 생성하기 위한 각막의 구체 추적
US20170277257A1 (en) * 2016-03-23 2017-09-28 Jeffrey Ota Gaze-based sound selection
US10373592B2 (en) 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
CN111480107B (zh) * 2017-12-19 2022-04-29 阿科尼亚全息有限责任公司 具有色散补偿的光学系统
EP3540574B1 (en) 2018-03-15 2021-08-11 HTC Corporation Eye tracking method, electronic device, and non-transitory computer readable storage medium
US11157077B2 (en) 2018-04-16 2021-10-26 Google Llc Method and system for dual mode eye tracking on wearable heads-up display
JP7052577B2 (ja) 2018-06-07 2022-04-12 株式会社リコー 光学装置、映像表示装置、及び検眼装置
US20200150443A1 (en) * 2018-11-13 2020-05-14 Facebook Technologies, Llc Pupil steering: combiner actuation systems

Also Published As

Publication number Publication date
WO2021241073A1 (ja) 2021-12-02
DE112021002930T5 (de) 2023-03-09
US20230213766A1 (en) 2023-07-06
JPWO2021241073A1 (zh) 2021-12-02
US11940630B2 (en) 2024-03-26
KR20230015353A (ko) 2023-01-31

Similar Documents

Publication Publication Date Title
JP6994048B2 (ja) 視力矯正を行うヘッドマウント表示デバイス
US20180084232A1 (en) Optical See-Through Head Worn Display
US20170285343A1 (en) Head worn display with foveal and retinal display
US20140002587A1 (en) Wide field-of-view stereo vision platform with dynamic control of immersive or heads-up display operation
US20190212565A1 (en) Wearable display for stereoscopic viewing
US11675197B1 (en) System and method for automatic vision correction in near-to-eye displays
CN105828702A (zh) 用于校准头戴式眼睛跟踪装置的方法
WO2013082387A1 (en) Wide field-of-view 3d stereo vision platform with dynamic control of immersive or heads-up display operation
JP2016166931A (ja) 画像表示装置
KR20220054245A (ko) 안과 교정을 통합하는 광학적 투시(ost) 근안용 디스플레이(ned) 시스템
JP7275124B2 (ja) 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法
WO2021237115A1 (en) Augmented and virtual reality display systems with correlated in-coupling and out-coupling optical regions
WO2022254782A1 (ja) 視線検出装置、表示装置、視線検出システム、及び視線検出方法
CN115668037A (zh) 显示装置和显示方法
CN116322475A (zh) 视线检测设备、显示设备以及眼球感测方法
WO2021106502A1 (ja) 頭部装着型表示装置、画像表示システム、及び画像表示方法
CN113631987A (zh) 头戴式显示器
EP4279982A1 (en) Image display device and image display system
US20230350197A1 (en) Line-of-sight detection device and display device
KR101534843B1 (ko) 양안용 시각 모의 실험 장치
KR101534842B1 (ko) 양안용 시각 모의 실험 장치
WO2023157481A1 (ja) 表示装置及び表示システム
US20220203106A1 (en) Device for supplying energy to an active eye implant
CN116744839A (zh) 用于头戴式显示器的目镜成像组合件
WO2023023398A1 (en) Eyeglass devices and related methods

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination