WO2019041352A1 - 一种潘弄区测量方法、装置以及可穿戴显示设备 - Google Patents

一种潘弄区测量方法、装置以及可穿戴显示设备 Download PDF

Info

Publication number
WO2019041352A1
WO2019041352A1 PCT/CN2017/100413 CN2017100413W WO2019041352A1 WO 2019041352 A1 WO2019041352 A1 WO 2019041352A1 CN 2017100413 W CN2017100413 W CN 2017100413W WO 2019041352 A1 WO2019041352 A1 WO 2019041352A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
horizontal
screen
distance
pan
Prior art date
Application number
PCT/CN2017/100413
Other languages
English (en)
French (fr)
Inventor
崔华坤
王恺
廉士国
Original Assignee
深圳前海达闼云端智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳前海达闼云端智能科技有限公司 filed Critical 深圳前海达闼云端智能科技有限公司
Priority to PCT/CN2017/100413 priority Critical patent/WO2019041352A1/zh
Priority to CN201780002289.2A priority patent/CN108471939B/zh
Publication of WO2019041352A1 publication Critical patent/WO2019041352A1/zh
Priority to US16/809,194 priority patent/US11517195B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the object is treated as a double image; if the projection of the object does not completely fall on the corresponding point and does not exceed the range of the Pan-Range area, stereoscopic vision is produced. Therefore, it is very important to accurately determine the Pandora area to provide a comfortable stereoscopic image for a wearable display device.
  • the first display unit is configured to project a first parallax image of the spatial object to the left eye of the measured user
  • the second display unit is configured to project a second parallax image of the spatial object to the right eye of the tested user, the first The parallax image includes a first homologous point
  • the second parallax image includes a second homologous point
  • At least one processor and,
  • the embodiment of the present application further provides a non-transitory computer readable storage medium, where the computer-readable storage medium is stored, where the computer-executable instructions are used to cause a computer to execute the above The method described.
  • the embodiment of the present application further provides a computer program product, where the computer program product comprises a computer program stored on a non-transitory computer readable storage medium, the computer program comprising program instructions, when the program When the instructions are executed by a computer, the computer is caused to perform the method as described above.
  • FIG. 10 is a hardware framework diagram of a method for implementing a Pan-Range area provided by an embodiment of the present application.
  • a virtual reality device is a computer system that creates and experiences a virtual three-dimensional world. It simulates a three-dimensional virtual world that reflects changes and interactions of physical objects in real time, and provides users with an observation virtual world horizon and provides three-dimensional interactive operations through auxiliary sensors such as helmet-type displays and data gloves. Users can directly participate in and explore the changes and interactions of simulation objects in their virtual space environment.
  • Virtual reality technology is the crystallization of many high-tech technologies such as computer technology, sensing technology, human-machine interface technology and artificial intelligence technology. Its fidelity and real-time interactivity provide powerful support for system simulation technology, while being immersive, interactive and conceiving.
  • Augmented reality (AR) devices also need to include glasses that can see the real world. Through the glasses and the projected virtual three-dimensional images, you can see the real world while seeing the virtual three-dimensional world.
  • FIG. 6 in order to facilitate observation, the image planes of the left and right display screens are shifted back and forth by a certain distance, and actually the two image planes are in the same plane.
  • the dashed line in Figure 6 is the optical axis of two sets of monocular optical display systems.
  • Fig. 7 shows a phenomenon in which a spatial object in which the first homologous point A and the second homologous point B are fused is screened out.
  • is the horizontal physical size of a pixel on a two-dimensional display.
  • Step 103 Adjust a horizontal parallax amount between the first homologous point and the second homologous point until the measured user observes that the spatial object generates a ghost image;
  • the processor 610, the memory 620, and the communication component 650 may be connected by a bus or other means, as exemplified by a bus connection in FIG.

Abstract

一种潘弄区测量方法,包括以下步骤:向被测用户的左眼投射空间物体的第一视差图像,向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束,获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx;以及根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。

Description

一种潘弄区测量方法、装置以及可穿戴显示设备 技术领域
本申请涉及立体视觉测量技术领域,具体涉及一种潘弄区测量方法、装置以及可穿戴显示设备。
背景技术
随着网络技术以及机器视觉和图像识别技术的发展,智能可穿戴显示设备得到了越来越多的应用。比如沉浸式的虚拟现实设备,增强显示设备甚至移动终端也可以在配备可穿戴支架后可为用户提供身临其境的虚拟环境和内容。
双眼视觉产生的单一视象,并不一定要求光线刺激落在双眼两个网膜的绝对对应点上,只要光线刺激落在相应点周围一定的范围之内,就可以形成单象。在单眼视网膜相应点的周围能够形成单象的很小范围就称为潘弄区(Panum)。当物体的投影不落在潘弄区内时,便产生双象。当物体的投影完全落在两个视网膜的相应点上,在这种情况下物体被感知为平面。如果物体的投影超出了潘弄区范围时,则物体被看成双象;如果物体的投影既不完全落在相应点上,又不超出潘弄区范围时,则产生立体视觉。因此准确测定潘弄区为可穿戴显示设备提供舒适的立体图像具有十分重要的作用。
立体显示技术,如3D电影、虚拟现实(VR,Virtual Reality)、增强现实(AR,Augmented Reality)等,大多是基于双目视差原理来让人们感受到富有冲击力和沉浸感的三维立体显示。
当人们观看3D屏幕时,左右眼看到的一个物体上的点在屏幕上的位置可能并不重合,而是存在一定的水平距离,这两个不同的点成像到视网膜后,再经由大脑可融合为一个空间的点,这就是双目视差原理。屏幕上的两个点通常称之为同源点,这一对同源点的相对位置关系决定了在大脑融合的空间点是感觉在屏幕内远离观看者,还是在屏幕外,似乎近在咫尺。同源点的水平距离,又称为水平视差。其中,当左眼看到同源点中的左侧点,右眼看到同源点的右侧点,此时称之为正水平视差,大脑中融合的空间点在屏幕和观看者之外,感觉像是进入屏幕;当左眼看到同源点中的右侧点,右眼看到左侧点时,此时称之为负水平视差,大脑融合的空间点位于屏幕与观看者之间,感觉像是突出屏幕。水平视差是有一定范围限制的,若水平视差增大到一定程度或减小到一定程度,都会超过人眼的融合范围,经过大脑后无法再融合为一个完整的物体,而是产生重影,造成人眼的眩晕。,当水平视差趋近于零时,则景物间的相对深度感会很弱,立体效果也就不明显,沉浸感不突出,当水平视差为零时为普通二维显示。通常,这种正负水平视差的范围在医学上称之为潘弄区。
但是现有技术中,双目最佳立体视觉的潘弄区的测量并没有统一的标准,在同一测量方法前提下,被测用户在A设备测量的潘弄区数值,换B设备测量后数值差异很大,如何提供一种适用于不同设备,并且可准确测量潘弄区的方 法和设备成为亟待解决的问题。
因此,现有的潘弄区测量技术还有待于改进。
发明内容
本申请提供一种基于可穿戴显示设备的潘弄区测量方法、设备以及可穿戴显示设备,测量所得的潘弄区范围只与水平视差量有关,应用该方法可准确且标准地测量潘弄区范围,从而为眼科疾病检测与防治或者可穿戴显示设备的三维内容制作提供重要参数,从而为用户提供更舒适和充满沉浸感的三维视觉体验。
第一方面,本申请实施例提供了一种潘弄区测量方法,包括以下步骤:向被测用户的左眼投射空间物体的第一视差图像,向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束,获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx;以及根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
第二方面,本申请实施例提供了一种潘弄区测量装置,包括第一显示单元以及第二显示单元,还包括调整模块以及测量模块,
该第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,该第二显示单元用于向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;
该调整模块用于调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束;
该测量模块获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx,以及用于根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
第三方面,本申请实施例还提供了一种可穿戴显示设备,包括第一显示单元、第二显示单元以及交互端,还包括接收该交互端信号的调整模块以及测量模块,
该第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,该第二显示单元用于向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;
该调整模块在该交互端的控制下用于调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束;
该测量模块获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx,以及用于根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
第四方面,本申请实施例还提供了一种电子设备,包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器以及通信组件;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行时,通过通信组件建立数据通道,以使该至少一个处理器能够执行如上所述的方法。
第五方面,本申请实施例还提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如上所述的方法。
第六方面,本申请实施例还提供了一种计算机程序产品,其中,该计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行权利要求如上所述的方法。
本申请的有益效果在于,本申请实施例提供的潘弄区测量方法、装置以可穿戴显示设备,测量所得的潘弄区范围只与用户在交互端调整的水平视差量有关,针对不同的显示测量设备采用本申请的测量方法,潘弄区测量结果保持不变,从而实现准确且标准地测量潘弄区范围;本申请实施例通过可穿戴显示设备,比如虚拟现实装置或增强现实装置,利用虚拟现实装置或增强现实装置的两组光学系统和两个显示屏对左右眼进行独立成像测量,排除了左右眼干扰影响;并且本申请实施例通过动态控制第一显示单元以及第二显示单元显示中显示的空间物体同源点的水平视差量,比如距离,对于单个被测用户,可以通过此方法精确测量出对应的潘弄区范围。该潘弄区范围可以用于眼科疾病检测与防治;或者对于三维内容制作来说,可以针对若干被测人员进行统计测量,获取潘弄区的平均值,以提高三维内容制作的舒适性体验。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本申请实施例提供的潘弄区测量方法的框架图;
图2是本申请实施例提供的潘弄区测量装置的模块图;
图3是本申请实施例提供的潘弄区测量装置的第一显示单元和第二显示单元的显示内容示意图;
图4是本申请实施例提供的潘弄区测量装置的双目视差原理示意图;
图5是本申请实施例提供的潘弄区测量装置的立体显示空间单目物理模型图;
图6是本申请实施例提供的潘弄区测量装置的双目简化模型图;
图7是本申请实施例提供的潘弄区测量装置的双目视差模型图;
图8是本申请实施例提供的潘弄区测量方法的主要流程图;
图9是本申请实施例提供的潘弄区测量方法的调整流程图;以及
图10是本申请实施例提供的为实现潘弄区测量方法的硬件框架图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
请参考图1,本申请实施例提供的潘弄区测量装置包括可穿戴显示设备以及交互端70。在其中一实施例中,该可穿戴显示设备可以连接至交互云90。
该交互端70可以是可穿戴显示设备配置的交互操控终端,比如交互操作手柄或者交互操作手套等可穿戴交互设备。在另一实施例中,该交互端70也可以是设置在可穿戴显示头盔中的头部姿态获取装置,该头部姿态获取装置包括陀螺仪和加速度计来获得被测用户的头部旋转姿态参数。比如,当被测用户头部向左(右)旋转时,产生水平物理间距的缩小指令;当用户头部向右(左)旋转时,产生水平物理间距的放大指令。该头部姿态获取装置基于获取的被测用户的头部姿态参数,调整视差量参数。
该可穿戴显示设备可以是虚拟现实(Virtual Reality,VR)设备10。该可穿戴显示设备可以是增强现实(Augmented Reality,AR)设备30。该可穿戴显示设备可以是移动终端20。其中,每一种可穿戴显示设备均无线连接交互端70并同时连接至交互云90。该交互云90由若干云端服务器91-93组网而成。
虚拟现实设备是一种可创建和体验虚拟三维世界的计算机系统。它以仿真的方式给用户创造一个实时反映实体对象变化与相互作用的三维虚拟世界,并通过头盔式显示器、数据手套等辅助传感设备,提供用户一个观测虚拟世界视界以及提供三维交互操作,使用户可直接参与并探索仿真对象在所处虚拟空间环境中变化和交互。虚拟现实技术是计算机技术、传感技术、人机接口技术和人工智能技术等多种高新技术的结晶。其逼真性和实时交互性为系统仿真技术提供有力的支撑,并同时具有沉浸性、交互性和构想性。增强现实(AR)设备还需包括可以看到真实世界的眼镜,通过眼镜与投射的虚拟三维图像,实现看到虚拟三维世界的同时也能看到真实的世界。
本技术方案的可穿戴显示设备主要由如下各部分构成:高性能运算处理单元、三维显示单元以及交互端40。其中,三维显示单元包括两套独立的子显示单元,亦即第一显示单元和第二显示单元。两套子显示单元分别将两组独立的测试图像显示给左眼和右眼。高性能处理单元用于实时运算处理,该交互端70用于处理检测过程中被测用户的输入信息。
因此该可穿戴显示设备,其通过第一显示单元和第二显示单元展示给被测用户双目的图像均可以实现精细调整,为测试用户潘弄区提供了条件。
用户的潘弄区测量是用户认识自身眼睛立体视觉的重要参数,也是可穿戴显示设备提供舒适三维内容的基础。在单眼视网膜相应点的周围能够形成单象 的很小范围就称为潘弄区(Panum)。当物体的投影不落在潘弄区内时,便产生双象。当物体的投影完全落在两个视网膜的相应点上,在这种情况下物体被感知为平面。如果物体的投影超出了潘弄区范围时,则物体被看成双象;如果物体的投影既不完全落在相应点上,又不超出潘弄区范围时,则产生立体视觉。因此准确测定潘弄区为可穿戴显示设备提供舒适的立体图像具有十分重要的作用。
实施例1
本实施例涉及用于测量潘弄区的可穿戴显示设备60。
该可穿戴显示设备60通过在第一显示单元中显示可以精细调整的第一视差图像,在第二显示单元中显示可以精细调整的第二视差图像,被测用户戴上可穿戴式头盔,左右眼分别观察该第一视差图像和第二视差图像,并根据看到的立体图像清晰程度调整该第一视差图像和第二视差图像之间的水平物理间距,找到清晰转变为模糊的临界位置,最后根据测得的该第一视差图像和第二视差图像的水平物理间距推算出潘弄区范围。
请参考图2,该可穿戴显示设备60包括第一显示单元61、第二显示单元62,调整模块63、测量模块64、分析模块65以及连接模块66。
该第一显示单元61和第二显示单元62为可穿戴显示设备上的左右两套光学显示系统。每套光学显示系统对应于左右眼,每套光学显示系统包括显示屏和一套成像光学透镜。该成像光学透镜可以为球面透镜、非球面透镜、菲涅耳透镜、棱镜、自由曲面半反半透镜、波导光栅等,显示屏上的图像通过对应的成像光学透镜,将光线入射到相应的眼睛中,并在视网膜上成像。
该连接模块66无线连接由用户手动操作的交互端70。该交互端70采集被测用户的交互指令,并将交互指令无线发送至该连接模块66上。
请一并参考图3,为了测量潘弄区范围,通过可穿戴显示设备向被测用户的双眼投射两幅视差图像,该第一显示单元61加载第一视差图像81,该第二显示单元62投射第二视差图82像。其中,该第一视差图像81包括第一同源点A,该第二视差图像82包括第二同源点B。
该调整模块63调整该第一同源A点和第二同源点B的水平视差量,直至被测用户观察该显示物体产生重影时结束。
该测量模块64获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx。该测量模块64再根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
图3中该第一视差图像81和第二视差图像82分别表示左右眼通过可穿戴显示设备看到的2D显示屏的显示内容。图3中显示内容为空间物体,比如空间球体。其中A、B两点代表第一同源点A以及第二同源点B,两个圆代表一个空间物体,比如篮球,在左右显示屏上的视差图像。本申请实施例通过水平移动两个显示屏的图像,改变第一同源点A以及第二同源点B两点在二维显示屏的 像平面上的水平视差值。比如,将水平视差值从零开始往正视差调节,确定入屏视差量参数Δne入;然后,将水平视差值从零开始往负视差调节,获取出屏视差量参数Δne出,并据此确定潘弄区的范围,通过这种方式可以准确标准地测量出被测用户的潘弄区范围。该潘弄区范围可以用于眼科疾病检测与防治等。该潘弄区范围对于制作舒适度更好的三维内容来说具有重要的参考意义。
或者水平视差值的变化也可从一个很大的正值逐渐减小直至负值。或者单位时间内水平视差值的变化为动态调节。
在一实施例中,潘弄区测试装置,比如可穿戴显示设备,在测得用户的潘弄区范围后,存储至本地存储器。同时,该潘弄区测量装置,比如可穿戴显示设备,还包括分析模块65。该分析模块65根据被测用户的属性统计测量若干被测用户的潘弄区范围,获取同属性被测用户的潘弄区平均值。比如,该分析模块65将被测用户分为男性与女性,统计测量若干男性的潘弄区范围以及若干女性的潘弄区范围,获取男性与女性的潘弄区平均值。
在另一实施例中,潘弄区测试装置,比如可穿戴显示设备,在测得用户的潘弄区范围后,将其发送至交互云,比如云端服务器91。该实施例中,该云端服务器91还包括分析模块65。该分析模块65根据被测用户的属性统计测量若干被测用户的潘弄区范围,获取同属性被测用户的潘弄区平均值。比如,该分析模块65将被测用户分为老年人、中年人与儿童,统计测量若干老年人的潘弄区范围以及若干成年人的潘弄区范围,获取老年人、中年人与儿童的潘弄区平均值。基于以上根据被测用户的属性统计测量的潘弄区范围,获取不同被测用户属性的潘弄区平均值,为舒适的三维内容制作提供技术参考数据。
调整时,被测用户通过交互端70输入调整指令。
该调整模块63根据收到的调整指令将该水平视差量往正视差调整,同时该测量模块64获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin。同时,该调整模块63根据收到的调整指令也可将水平视差量往负视差调整,该测量模块64获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout。该测量模块64根据该入屏水平物理间距Δxin和出屏水平物理间距Δxout确定该潘弄区范围(μin,μout)。
以下具体介绍该潘弄区范围的推算过程。
本实施例,在图4给出双目视差原理示意图中,其中Δx为该第一同源A点和第二同源点B在屏幕上的水平物理间距,因为同源点的水平物理尺寸Δx仅与观看距离H有关,即当观看距离确定后,左右同源点的物理间距范围是确定的,与显示屏的分辨率、像素尺寸、视场角等均无关。
本申请实施例中选取立体视差角μin和μout作为潘弄区的评价参数。如图4所示,正视差角为μin=α-βin;负视差角:μout=βout-α。因此,μin和μout即为本申请中需要测量的两个数据,也就是μin和μout两个数据表征潘弄区范围。需要得说明的是,潘弄区范围为生理范畴,与生理结构有关,因人而不同,与显示方式、屏幕尺寸等没有直接关系。本实施例的潘弄区测量方法最大程度去除了设备对 测量数据的影响,更准确真实反映用户的立体视差角范围,亦即潘弄区范围。
图5所示为显示空间中单目成像物理模型图,本实施例的潘弄区测量装置,比如可穿戴显示设备配置左右两套光学显示系统。这两套单目光学显示系统的参数一致,且光轴平行,光轴间距等于人眼瞳距E。
其中,每一单目光学显示系统可以等效成一个理想薄透镜成像系统,二维显示屏为物平面,人眼透过透镜看到二维显示屏的放大的正立图像,如图5所示,根据几何关系可得:
Figure PCTCN2017100413-appb-000001
Figure PCTCN2017100413-appb-000002
Le=Meξe    (3)
Le'=Meξe'    (4)
其中,Te为物像放大率,Le为单个显示屏的水平物理尺寸,Le′为单个显示屏图像的水平物理尺寸,Se为物距,即显示屏距离透镜的距离,Se′为像距,通常像距为人眼的明视距离25厘米。ξe'为图像的像素物理尺寸,ξe为显示屏平面的像素物理尺寸,Me为显示屏中单个显示屏的水平分辨率,de为眼睛距离透镜中心的距离,αe为水平视场角。
由公式(2)和(4)可得显示屏像平面的像素尺寸ξe′为:
Figure PCTCN2017100413-appb-000003
如图6所示,为了便于观察,将左右显示屏的图像平面前后错移一定距离,实际上两个图像平面是处于同一平面内。图6中的虚线为两套单目光学显示系统的光轴。图7给出了当第一同源点A以及第二同源点B融合的空间物体出屏的现象。
根据图6和图7所示的几何关系,该潘弄区测量装置,比如可穿戴显示所示中左右显示屏的一对同源点,第一同源点A以及第二同源点B,在图像平面上的水平像素间距为:
Figure PCTCN2017100413-appb-000004
其中,Δne为当左右显示屏的图像完全重合时,第一同源点A以及第二同源点B的水平像素间距,亦即前述的视差量参数Δne。其中,该视差量参数Δne包括入屏视差量参数Δne入以及出屏视差量参数Δne出
当被测用户根据观测确定出现双像的临界位置时,测量模块64将上述获得 的入屏视差量参数Δne入以及出屏视差量参数Δne出,代入公式,可得左右显示屏的第一同源点A以及第二同源点B在可穿戴显示设备的图像平面上的水平物理间距Δx。该水平物理间距Δx包括入屏水平物理间距Δxin和出屏水平物理间距Δxout计算公式为:
Δx=Δneξe′+E    (7)
该入屏视差量参数Δne入以及出屏视差量参数Δne出,代入公式(7)即可计算出入屏水平物理间距Δxin和出屏水平物理间距Δxout
然后,根据如图4所示的几何关系,有如下公式成立:
1.对于视差为正的入屏情形:
Figure PCTCN2017100413-appb-000005
2.对于视差为负出屏情形:
Figure PCTCN2017100413-appb-000006
其中,E为人眼瞳距,通常取65厘米。H为观看距离,即人眼距离屏幕的距离,din为大脑融合物体的入屏距离,dout为其出屏距离。因,din、dout、βin、βout在公式迭代中抵消,在此不再赘述。
根据公式(8)和(9)可知,水平视差物理尺寸Δx(H)仅为观看距离H的函数。那么,第一同源点A以及第二同源点B水平视差的像素间距为:
Figure PCTCN2017100413-appb-000007
其中,ξ为二维显示屏上一个像素的水平物理尺寸。
实施例2
本实施例涉及潘弄区测量方法。
动态调整第一同源点A以及第二同源点B的水平像素间距,比如入屏视差量参数Δne入以及出屏视差量参数Δne出。通过交互端70调整时,比如通过手柄左 右方向键控制Δne的增加和减小,被测用户戴上可穿戴设备,确认出刚好没有重影的临界位置,并记录此时的视差量参数Δne,并据此计算出被测用户的潘弄区范围(μin,μout)。可穿戴显示设备的测量模块对所有视差量参数数据去掉最大值和最小值,取平均值
Figure PCTCN2017100413-appb-000008
然后,将
Figure PCTCN2017100413-appb-000009
带入到公式(5)(7)(8)(9),便可得到表征潘弄区范围的两个数据μin和μout。本实施例的潘弄区测量方法测量结果不依赖于设备,对于任意一套三维显示设备,可根据系统参数及本潘弄区测量方法计算出三维内容的视差量参数Δne。同时,根据本方法制作的三维内容在不造成晕眩的情况下最大保证用户对三维显示的沉浸感和冲击感。
请参考图8,从实现潘弄区测量来看,该方法主要包括以下步骤:
步骤101:向被测用户的左眼投射空间物体的第一视差图像,该第一视差图像包括第一同源点;
步骤102:向被测用户的右眼投射空间物体的第二视差图像,该第二视差图像包括第二同源点;
步骤103:调整该第一同源点和第二同源点之间的水平视差量,直至被测用户观察该空间物体产生重影时结束;
步骤104:获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx;以及
步骤105:根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
请参考图9,所示为潘弄区测量方法的调整流程图。该潘弄区测量方法还包括:
步骤201:第一同源点A以及第二同源点B在同一水平线上;
步骤202:调整该第一同源点A以及第二同源点B之间的水平视差量,直至被测用户观察该显示对象产生重影时结束;
步骤203:将该水平视差量往正视差调整,确定入屏水平物理间距;
步骤204:将该水平视差量往负视差调整,确定出屏水平物理间距;
步骤205:根据该入屏水平物理间距和出屏水平物理间距确定潘弄区范围;
步骤206:根据被测用户的属性统计测量同属性被测用户的潘弄区范围;
步骤207:获取该同属性被测用户的潘弄区平均值,同时,基于该潘弄区平均值制作三维显示内容。
该潘弄区测量方法获取视差量参数Δne的步骤包括:
将该水平视差量往正视差调整,获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;将该水平视差量往负视差调整,获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,根据该入屏水平物理间距Δxin和出屏水平物理间距Δxout确定该潘弄区范围(μin,μout)。
潘弄区测量装置由可穿戴显示设备60、交互端70、测量软件三部分组成;该测量软件包括调整模块63、测量模块64以及分析模块65。
具体测量过程介绍如下:
当被测用户戴上可穿戴显示设备时,测量模块64绘制出第一视差图像和第二视差图像,并分别显示在可穿戴显示设备的两个显示屏上。其中,该第一视差图像和第二视差图像显示的空间物体相同,该第一视差图像和第二视差图像显示的空间物体只存在水平方向的距离差异,即只存在水平视差,而不存在竖直方向的距离差异,即不存在垂直视差。
当被测用户通过交互端发出缩小视差量参数指令时,调整模块63将按照一定步长减小两张视差图像上空间物体的水平视差,使水平视差量往负视差方向调整;
当被测用户通过交互端发出增大视差量参数指令时,调整模块63将按照一定步长增大两张视差图像的空间物体的水平视差,使水平视差量往正视差方向调整;
当水平视差量从零视差往负视差方向变化时,用户会观察到空间物体的左右边缘从清晰状态慢慢产生重影,当从无重影向有重影转变时,此时对应的视差量参数Δne为出屏视差量参数Δne出;当水平视差量从零视差往正视差方向变化时,用户同样会观察到物体的左右边缘从清晰状态慢慢产生重影,当从无重影向有重影转变时,此时对应的视差量参数Δne为入屏视差量参数Δne入
该测量模块64将把上述获得的出屏视差量参数Δne出和入屏视差量参数Δne入分别代入下式,可得左右显示屏的第一同源点A以及第二同源点B在可穿戴显示设备图像平面上的水平物理间距Δx:
Δx=Δneξe′+E    (7)
其中,E为人眼瞳距,可穿戴显示设备的显示屏在像平面上的像素尺寸ξe′为:
Figure PCTCN2017100413-appb-000010
其中,Se′为像距,通常像距为人眼的明视距离25厘米,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角。
然后,将第一同源点A以及第二同源点B在可穿戴显示设备图像平面上的水平物理间距Δx代入到下式中,可得表征该用户双眼潘弄区范围的两个值μin和μout
Figure PCTCN2017100413-appb-000011
Figure PCTCN2017100413-appb-000012
综上所述,本申请实施例提供的潘弄区测量方法、装置以及可穿戴显示设备,测量所得的潘弄区范围只与用户在交互端调整的水平视差量有关,针对不同的显示测量设备采用本申请的测量方法,潘弄区测量结果保持不变,从而实现准确且标准地测量潘弄区范围;本申请实施例通过可穿戴显示设备,比如虚拟现实装置或增强现实装置,利用虚拟现实装置或增强现实装置的两组光学系统和两个显示屏对左右眼进行独立成像测量,排除了左右眼干扰影响;并且本申请实施例通过动态控制第一显示单元以及第二显示单元显示中显示的空间物体同源点的水平视差量,比如距离,对于单个被测用户,可以通过此方法精确测量出对应的潘弄区范围。该潘弄区范围可以用于眼科疾病检测与防治;或者对于三维内容制作来说,可以针对若干被测人员进行统计测量,获取潘弄区的平均值,以提高三维内容制作的舒适性体验。
实施例3
图10是本申请实施例提供的潘弄区测量方法的电子设备600的硬件结构示意图,如图10所示,该电子设备600包括:
一个或多个处理器610、存储器620以及通信组件650,图10中以一个处理器610为例,在虚拟现实可穿戴显示设备实施例或者增强显示可穿戴显示设备的实施例中还可以包括图像处理器(GPU)。该存储器620存储有可被该至少一个处理器610执行的指令,该指令被该至少一个处理器执行时,通过通信组件650建立数据通道,以使该至少一个处理器能够执行该潘弄区测量方法。
处理器610、存储器620以及通信组件650可以通过总线或者其他方式连接,图10中以通过总线连接为例。
存储器620作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的潘弄区测量方法对应的程序指令/模块(例如,附图2所示的第一显示单元61、第二显示单元62、调整模块63、测量模块64、分析模块65以及连接模块66)。处理器610通过运行存储在存储器620中的非易失性软件程序、指令以及模块,从而执行可穿戴显示设备的各种功能应用以及数据处理,即实现上述方法实施例中的潘弄区测量方法。
存储器620可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据可穿戴显示设备的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器620可选包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至机器人交互 电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器620中,当被所述一个或者多个处理器610执行时,执行上述任意方法实施例中的潘弄区测量方法,例如,执行以上描述的图8中的方法步骤101至步骤105,以及执行以上描述的图9中的方法步骤201至步骤207;实现附图2所示的第一显示单元61、第二显示单元62、调整模块63、测量模块64、分析模块65以及连接模块66等的功能。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如,执行以上描述的图8中的方法步骤101至步骤105,以及执行以上描述的图9中的方法步骤201至步骤207;实现附图2所示的第一显示单元61、第二显示单元62、调整模块63、测量模块64、分析模块65以及连接模块66等的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (20)

  1. 一种潘弄区测量方法,其特征在于,包括以下步骤:
    向被测用户的左眼投射空间物体的第一视差图像,向被测用户的右眼投射所述空间物体的第二视差图像,所述第一视差图像包括第一同源点,所述第二视差图像包括第二同源点;
    调整所述第一同源点和第二同源点的水平视差量,直至被测用户观察所述空间物体产生重影时结束,获取视差量参数Δne,根据所述视差量参数Δne计算所述第一同源点和第二同源点间的水平物理间距Δx;以及
    根据所述水平物理间距Δx计算所述被测用户的潘弄区范围(μin,μout)。
  2. 根据权利要求1所述的潘弄区测量方法,其特征在于,还包括:
    根据被测用户的属性统计测量同属性被测用户的潘弄区范围,获取所述同属性被测用户的潘弄区平均值;以及
    基于所述潘弄区平均值制作三维显示内容。
  3. 根据权利要求1所述的潘弄区测量方法,其特征在于,所述获取视差量参数Δne的步骤包括:
    将所述水平视差量往正视差调整,获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;将所述水平视差量往负视差调整,获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,根据所述入屏水平物理间距Δxin和出屏水平物理间距Δxout确定所述潘弄区范围(μin,μout)。
  4. 根据权利要求3所述的潘弄区测量方法,其特征在于,所述水平物理间距Δx包括所述入屏水平物理间距Δxin和出屏水平物理间距Δxout,计算为:
    Δx=Δneξe′+E  (7)
    其中,E为被测用户瞳距,ξe′为显示屏在像平面上的像素尺寸;
    Figure PCTCN2017100413-appb-100001
    其中,Se′为像距,通常像距为人眼的明视距离25厘米,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角。
    所述潘弄区范围(μin,μout)的临界值为:
    Figure PCTCN2017100413-appb-100002
    Figure PCTCN2017100413-appb-100003
    其中,E为被测用户瞳距,H为观看距离。
  5. 根据权利要求1-4任意一项所述的潘弄区测量方法,其特征在于,还包括:将所述潘弄区范围(μin,μout)发送至云端服务器。
  6. 一种潘弄区测量装置,包括第一显示单元以及第二显示单元,其特征在于,还包括调整模块以及测量模块,
    所述第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,所述第二显示单元用于向被测用户的右眼投射所述空间物体的第二视差图像,所述第一视差图像包括第一同源点,所述第二视差图像包括第二同源点;
    所述调整模块用于调整所述第一同源点和第二同源点的水平视差量,直至被测用户观察所述空间物体产生重影时结束;
    所述测量模块用于获取视差量参数Δne,根据所述视差量参数Δne计算所述第一同源点和第二同源点间的水平物理间距Δx,以及用于根据所述水平物理间距Δx计算所述被测用户的潘弄区范围(μin,μout)。
  7. 根据权利要求6所述的潘弄区测量装置,其特征在于,还包括:分析模块,所述分析模块用于根据被测用户的属性统计测量同属性被测用户的潘弄区范围,获取所述同属性被测用户的潘弄区平均值。
  8. 根据权利要求6所述的潘弄区测量装置,其特征在于,
    所述调整模块还用于将所述水平视差量往正视差调整,所述测量模块用于获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;所述调整模块用于将所述水平视差量往负视差调整,所述测量模块用于获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,所述测量模块还用于根据所述入屏水平物理间距Δxin和出屏水平物理间距Δxout确定所述潘弄区范围(μin,μout)。
  9. 根据权利要求8所述的潘弄区测量装置,其特征在于,所述水平物理间距Δx包括所述入屏水平物理间距Δxin和出屏水平物理间距Δxout,计算为:
    Δx=Δneξe′+E  (7)
    其中,E为被测用户瞳距,ξe′为显示屏在像平面上的像素尺寸;
    Figure PCTCN2017100413-appb-100004
    其中,Se′为像距,通常像距为人眼的明视距离25厘米,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角。
    所述潘弄区范围(μin,μout)的临界值为:
    Figure PCTCN2017100413-appb-100005
    Figure PCTCN2017100413-appb-100006
    其中,E为被测用户瞳距,H为观看距离。
  10. 根据权利要求6-9任意一项所述的潘弄区测量装置,其特征在于,还包括发送模块,所述发送模块用于将所述潘弄区范围(μin,μout)发送至云端服务器。
  11. 一种可穿戴显示设备,包括第一显示单元、第二显示单元以及交互端,其特征在于,还包括接收所述交互端信号的调整模块以及测量模块,
    所述第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,所述第二显示单元用于向被测用户的右眼投射所述空间物体的第二视差图像,所述第一视差图像包括第一同源点,所述第二视差图像包括第二同源点;
    所述调整模块在所述交互端的控制下用于调整所述第一同源点和第二同源点的水平视差量,直至被测用户观察所述空间物体产生重影时结束;
    所述测量模块用于获取视差量参数Δne,根据所述视差量参数Δne计算所述第一同源点和第二同源点间的水平物理间距Δx,以及用于根据所述水平物理间距Δx计算所述被测用户的潘弄区范围(μin,μout)。
  12. 根据权利要求11所述的可穿戴显示设备,其特征在于,还包括:分析模块,所述分析模块用于根据被测用户的属性统计测量同属性被测用户的潘弄区范围,获取所述同属性被测用户的潘弄区平均值。
  13. 根据权利要求11所述的可穿戴显示设备,其特征在于,
    所述调整模块还用于将所述水平视差量往正视差调整,所述测量模块用于获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;所述调整模块还用于将所述水平视差量往负视差调整,所述测量模块还用于获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,所述测量模块还用于根据所述入屏水平物理间距Δxin和出屏水平物理间距Δxout确定所述潘弄区范围(μin,μout)。
  14. 根据权利要求13所述的可穿戴显示设备,其特征在于,所述水平物理间距Δx包括所述入屏水平物理间距Δxin和出屏水平物理间距Δxout,计算为:
    Δx=Δneξe′+E  (7)
    其中,E为被测用户瞳距,ξe′为显示屏在像平面上的像素尺寸;
    Figure PCTCN2017100413-appb-100007
    其中,Se′为像距,通常像距为人眼的明视距离25厘米,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角;
    所述潘弄区范围(μin,μout)的临界值为:
    Figure PCTCN2017100413-appb-100008
    Figure PCTCN2017100413-appb-100009
    其中,E为被测用户瞳距,H为观看距离。
  15. 根据权利要求11-14任意一项所述的可穿戴显示设备,其特征在于,所述可穿戴设备连接至云端服务器,所述可穿戴设备包括发送模块,用于将所述潘弄区范围(μin,μout)发送所述至云端服务器。
  16. 根据权利要求15所述的可穿戴显示设备,其特征在于,所述交互端包括头部姿态获取装置,由所述头部姿态获取装置获取被测用户的头部姿态参数,用于调整所述视差量参数Δne
  17. 根据权利要求16所述的可穿戴显示设备,其特征在于,所述可穿戴设备为虚拟现实设备或者增强现实设备。
  18. 一种电子设备,其中,包括:
    至少一个处理器;以及,
    与所述至少一个处理器通信连接的存储器以及通信组件;其中,
    所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行时,通过通信组件建立数据通道,以使所述至少一个处理器能够执行权利要求1-5任一项所述的方法。
  19. 一种非易失性计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行权利要求1-5任一项所述的方法。
  20. 一种计算机程序产品,其中,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行权利要求1-5任一项所述的方法。
PCT/CN2017/100413 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备 WO2019041352A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/CN2017/100413 WO2019041352A1 (zh) 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备
CN201780002289.2A CN108471939B (zh) 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备
US16/809,194 US11517195B2 (en) 2017-09-04 2020-03-04 Panum's area measurement method, apparatus, and wearable display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/100413 WO2019041352A1 (zh) 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/809,194 Continuation US11517195B2 (en) 2017-09-04 2020-03-04 Panum's area measurement method, apparatus, and wearable display device

Publications (1)

Publication Number Publication Date
WO2019041352A1 true WO2019041352A1 (zh) 2019-03-07

Family

ID=63266970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/100413 WO2019041352A1 (zh) 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备

Country Status (3)

Country Link
US (1) US11517195B2 (zh)
CN (1) CN108471939B (zh)
WO (1) WO2019041352A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4039170A4 (en) * 2019-09-30 2023-10-04 Hoya Lens Thailand Ltd. BINOCULAR VISION FUNCTION MEASUREMENT METHOD, BINOCULAR VISION FUNCTION MEASUREMENT PROGRAM, GLASSES LENS DESIGN METHOD, GLASSES LENS MANUFACTURING METHOD, AND BINOCULAR VISION FUNCTION MEASUREMENT SYSTEM

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930550A (zh) * 2012-11-20 2013-02-13 天津理工大学 立体图像绘制时虚拟相机分离距离的确定方法
CN102932657A (zh) * 2011-08-08 2013-02-13 索尼公司 图像处理装置、图像处理方法和程序
CN103686133A (zh) * 2013-12-24 2014-03-26 友达光电股份有限公司 一种用于裸眼立体显示器的图像补偿装置及其方法
DE202014003135U1 (de) * 2014-04-11 2014-09-25 Ipro Gmbh Messung der zentralen Tiefe des individuellen Panumraums - Sehzeichen Darbietung für die subjektive Refraktion (Sehschärfenprüfung)
DE102015209484A1 (de) * 2015-05-22 2016-11-24 Deutsche Augenoptik AG Dynamisch stereoskope Sehzeichen

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7612795B2 (en) * 2006-05-12 2009-11-03 Anthony Italo Provitola Enhancement of visual perception III
DE102011054833A1 (de) * 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
US9285871B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Personal audio/visual system for providing an adaptable augmented reality environment
CN106683072B (zh) * 2015-11-09 2020-02-21 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102932657A (zh) * 2011-08-08 2013-02-13 索尼公司 图像处理装置、图像处理方法和程序
CN102930550A (zh) * 2012-11-20 2013-02-13 天津理工大学 立体图像绘制时虚拟相机分离距离的确定方法
CN103686133A (zh) * 2013-12-24 2014-03-26 友达光电股份有限公司 一种用于裸眼立体显示器的图像补偿装置及其方法
DE202014003135U1 (de) * 2014-04-11 2014-09-25 Ipro Gmbh Messung der zentralen Tiefe des individuellen Panumraums - Sehzeichen Darbietung für die subjektive Refraktion (Sehschärfenprüfung)
DE102015209484A1 (de) * 2015-05-22 2016-11-24 Deutsche Augenoptik AG Dynamisch stereoskope Sehzeichen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4039170A4 (en) * 2019-09-30 2023-10-04 Hoya Lens Thailand Ltd. BINOCULAR VISION FUNCTION MEASUREMENT METHOD, BINOCULAR VISION FUNCTION MEASUREMENT PROGRAM, GLASSES LENS DESIGN METHOD, GLASSES LENS MANUFACTURING METHOD, AND BINOCULAR VISION FUNCTION MEASUREMENT SYSTEM

Also Published As

Publication number Publication date
CN108471939B (zh) 2020-07-28
US20200260945A1 (en) 2020-08-20
US11517195B2 (en) 2022-12-06
CN108471939A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
JP7094266B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
WO2016115872A1 (zh) 双目ar头戴显示设备及其信息显示方法
EP3409013B1 (en) Viewing device adjustment based on eye accommodation in relation to a display
KR20160065036A (ko) 안구추적을 기반으로 한 상이한 거리 자동적응 홀로그램 디스플레이 방법 및장치
WO2015027599A1 (zh) 内容投射系统及内容投射方法
WO2019062056A1 (zh) 一种智能投影方法、系统及智能终端
US11439300B2 (en) Binocular brightness sensitivity measurement method based on wearable display device, device and mobile terminal
EP4091013A1 (en) Compensation for deformation in head mounted display systems
CN111007939B (zh) 一种基于深度感知的虚拟现实系统空间定位方法
CN107272200A (zh) 一种焦距控制设备、方法及vr眼镜
CN103517060A (zh) 一种终端设备的显示控制方法及装置
JP2022537817A (ja) 動的オクルージョンのための高速の手のメッシュ化
JP2023515205A (ja) 表示方法、装置、端末機器及びコンピュータプログラム
US20170104982A1 (en) Presentation of a virtual reality scene from a series of images
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
CN106708249B (zh) 交互方法、交互装置及用户设备
CN108471939B (zh) 一种潘弄区测量方法、装置以及可穿戴显示设备
CN106707511A (zh) 一种虚拟现实设备的调节方法、装置、存储介质及设备
CN108881892B (zh) 用于桌面式虚拟现实系统的防眩晕方法、系统
US20170302904A1 (en) Input/output device, input/output program, and input/output method
CN114859561B (zh) 一种可穿戴显示设备及其控制方法、存储介质
CN109031667B (zh) 一种虚拟现实眼镜图像显示区域横向边界定位方法
Sun et al. A possible predictor of visual discomfort of viewing stereoscopic 3d maps: the imbalance of disparity distributions
Elner et al. Phenomenal regression to the real object in physical and virtual worlds
JP7467748B1 (ja) 表示制御装置、表示システム及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17923248

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 16.09.2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17923248

Country of ref document: EP

Kind code of ref document: A1