CN108471939B - 一种潘弄区测量方法、装置以及可穿戴显示设备 - Google Patents

一种潘弄区测量方法、装置以及可穿戴显示设备 Download PDF

Info

Publication number
CN108471939B
CN108471939B CN201780002289.2A CN201780002289A CN108471939B CN 108471939 B CN108471939 B CN 108471939B CN 201780002289 A CN201780002289 A CN 201780002289A CN 108471939 B CN108471939 B CN 108471939B
Authority
CN
China
Prior art keywords
parallax
horizontal
screen
deltax
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780002289.2A
Other languages
English (en)
Other versions
CN108471939A (zh
Inventor
崔华坤
王恺
廉士国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cloudminds Shanghai Robotics Co Ltd
Original Assignee
Cloudminds Shenzhen Robotics Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cloudminds Shenzhen Robotics Systems Co Ltd filed Critical Cloudminds Shenzhen Robotics Systems Co Ltd
Publication of CN108471939A publication Critical patent/CN108471939A/zh
Application granted granted Critical
Publication of CN108471939B publication Critical patent/CN108471939B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

一种潘弄区测量方法,包括以下步骤:向被测用户的左眼投射空间物体的第一视差图像,向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束,获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx;以及根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。

Description

一种潘弄区测量方法、装置以及可穿戴显示设备
技术领域
本申请涉及立体视觉测量技术领域,具体涉及一种潘弄区测量方法、装置以及可穿戴显示设备。
背景技术
随着网络技术以及机器视觉和图像识别技术的发展,智能可穿戴显示设备得到了越来越多的应用。比如沉浸式的虚拟现实设备,增强显示设备甚至移动终端也可以在配备可穿戴支架后可为用户提供身临其境的虚拟环境和内容。
双眼视觉产生的单一视象,并不一定要求光线刺激落在双眼两个网膜的绝对对应点上,只要光线刺激落在相应点周围一定的范围之内,就可以形成单象。在单眼视网膜相应点的周围能够形成单象的很小范围就称为潘弄区(Panum)。当物体的投影不落在潘弄区内时,便产生双象。当物体的投影完全落在两个视网膜的相应点上,在这种情况下物体被感知为平面。如果物体的投影超出了潘弄区范围时,则物体被看成双象;如果物体的投影既不完全落在相应点上,又不超出潘弄区范围时,则产生立体视觉。因此准确测定潘弄区为可穿戴显示设备提供舒适的立体图像具有十分重要的作用。
立体显示技术,如3D电影、虚拟现实(VR,Virtual Reality)、增强现实(AR,Augmented Reality)等,大多是基于双目视差原理来让人们感受到富有冲击力和沉浸感的三维立体显示。
当人们观看3D屏幕时,左右眼看到的一个物体上的点在屏幕上的位置可能并不重合,而是存在一定的水平距离,这两个不同的点成像到视网膜后,再经由大脑可融合为一个空间的点,这就是双目视差原理。屏幕上的两个点通常称之为同源点,这一对同源点的相对位置关系决定了在大脑融合的空间点是感觉在屏幕内远离观看者,还是在屏幕外,似乎近在咫尺。同源点的水平距离,又称为水平视差。其中,当左眼看到同源点中的左侧点,右眼看到同源点的右侧点,此时称之为正水平视差,大脑中融合的空间点在屏幕和观看者之外,感觉像是进入屏幕;当左眼看到同源点中的右侧点,右眼看到左侧点时,此时称之为负水平视差,大脑融合的空间点位于屏幕与观看者之间,感觉像是突出屏幕。水平视差是有一定范围限制的,若水平视差增大到一定程度或减小到一定程度,都会超过人眼的融合范围,经过大脑后无法再融合为一个完整的物体,而是产生重影,造成人眼的眩晕。,当水平视差趋近于零时,则景物间的相对深度感会很弱,立体效果也就不明显,沉浸感不突出,当水平视差为零时为普通二维显示。通常,这种正负水平视差的范围在医学上称之为潘弄区。
但是现有技术中,双目最佳立体视觉的潘弄区的测量并没有统一的标准,在同一测量方法前提下,被测用户在A设备测量的潘弄区数值,换B设备测量后数值差异很大,如何提供一种适用于不同设备,并且可准确测量潘弄区的方法和设备成为亟待解决的问题。
因此,现有的潘弄区测量技术还有待于改进。
发明内容
本申请提供一种基于可穿戴显示设备的潘弄区测量方法、设备以及可穿戴显示设备,测量所得的潘弄区范围只与水平视差量有关,应用该方法可准确且标准地测量潘弄区范围,从而为眼科疾病检测与防治或者可穿戴显示设备的三维内容制作提供重要参数,从而为用户提供更舒适和充满沉浸感的三维视觉体验。
第一方面,本申请实施例提供了一种潘弄区测量方法,包括以下步骤:向被测用户的左眼投射空间物体的第一视差图像,向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束,获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx;以及根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
第二方面,本申请实施例提供了一种潘弄区测量装置,包括第一显示单元以及第二显示单元,还包括调整模块以及测量模块,
该第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,该第二显示单元用于向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;
该调整模块用于调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束;
该测量模块获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx,以及用于根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
第三方面,本申请实施例还提供了一种可穿戴显示设备,包括第一显示单元、第二显示单元以及交互端,还包括接收该交互端信号的调整模块以及测量模块,
该第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,该第二显示单元用于向被测用户的右眼投射该空间物体的第二视差图像,该第一视差图像包括第一同源点,该第二视差图像包括第二同源点;
该调整模块在该交互端的控制下用于调整该第一同源点和第二同源点的水平视差量,直至被测用户观察该空间物体产生重影时结束;
该测量模块获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx,以及用于根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
第四方面,本申请实施例还提供了一种电子设备,包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器以及通信组件;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行时,通过通信组件建立数据通道,以使该至少一个处理器能够执行如上所述的方法。
第五方面,本申请实施例还提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如上所述的方法。
第六方面,本申请实施例还提供了一种计算机程序产品,其中,该计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行如上所述的方法。
本申请的有益效果在于,本申请实施例提供的潘弄区测量方法、装置以可穿戴显示设备,测量所得的潘弄区范围只与用户在交互端调整的水平视差量有关,针对不同的显示测量设备采用本申请的测量方法,潘弄区测量结果保持不变,从而实现准确且标准地测量潘弄区范围;本申请实施例通过可穿戴显示设备,比如虚拟现实装置或增强现实装置,利用虚拟现实装置或增强现实装置的两组光学系统和两个显示屏对左右眼进行独立成像测量,排除了左右眼干扰影响;并且本申请实施例通过动态控制第一显示单元以及第二显示单元显示中显示的空间物体同源点的水平视差量,比如距离,对于单个被测用户,可以通过此方法精确测量出对应的潘弄区范围。该潘弄区范围可以用于眼科疾病检测与防治;或者对于三维内容制作来说,可以针对若干被测人员进行统计测量,获取潘弄区的平均值,以提高三维内容制作的舒适性体验。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本申请实施例提供的潘弄区测量方法的框架图;
图2是本申请实施例提供的潘弄区测量装置的模块图;
图3是本申请实施例提供的潘弄区测量装置的第一显示单元和第二显示单元的显示内容示意图;
图4是本申请实施例提供的潘弄区测量装置的双目视差原理示意图;
图5是本申请实施例提供的潘弄区测量装置的立体显示空间单目物理模型图;
图6是本申请实施例提供的潘弄区测量装置的双目简化模型图;
图7是本申请实施例提供的潘弄区测量装置的双目视差模型图;
图8是本申请实施例提供的潘弄区测量方法的主要流程图;
图9是本申请实施例提供的潘弄区测量方法的调整流程图;
图10是本申请实施例提供的为实现潘弄区测量方法的硬件框架图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
请参考图1,本申请实施例提供的潘弄区测量装置包括可穿戴显示设备以及交互端70。在其中一实施例中,该可穿戴显示设备可以连接至交互云90。
该交互端70可以是可穿戴显示设备配置的交互操控终端,比如交互操作手柄或者交互操作手套等可穿戴交互设备。在另一实施例中,该交互端70也可以是设置在可穿戴显示头盔中的头部姿态获取装置,该头部姿态获取装置包括陀螺仪和加速度计来获得被测用户的头部旋转姿态参数。比如,当被测用户头部向左(右)旋转时,产生水平物理间距的缩小指令;当用户头部向右(左)旋转时,产生水平物理间距的放大指令。该头部姿态获取装置基于获取的被测用户的头部姿态参数,调整视差量参数。
该可穿戴显示设备可以是虚拟现实(Virtual Reality,VR)设备10。该可穿戴显示设备可以是增强现实(Augmented Reality,AR)设备30。该可穿戴显示设备可以是移动终端20。其中,每一种可穿戴显示设备均无线连接交互端70并同时连接至交互云90。该交互云90由若干云端服务器91-93组网而成。
虚拟现实设备是一种可创建和体验虚拟三维世界的计算机系统。它以仿真的方式给用户创造一个实时反映实体对象变化与相互作用的三维虚拟世界,并通过头盔式显示器、数据手套等辅助传感设备,提供用户一个观测虚拟世界视界以及提供三维交互操作,使用户可直接参与并探索仿真对象在所处虚拟空间环境中变化和交互。虚拟现实技术是计算机技术、传感技术、人机接口技术和人工智能技术等多种高新技术的结晶。其逼真性和实时交互性为系统仿真技术提供有力的支撑,并同时具有沉浸性、交互性和构想性。增强现实(AR)设备还需包括可以看到真实世界的眼镜,通过眼镜与投射的虚拟三维图像,实现看到虚拟三维世界的同时也能看到真实的世界。
本技术方案的可穿戴显示设备主要由如下各部分构成:高性能运算处理单元、三维显示单元以及交互端40。其中,三维显示单元包括两套独立的子显示单元,亦即第一显示单元和第二显示单元。两套子显示单元分别将两组独立的测试图像显示给左眼和右眼。高性能处理单元用于实时运算处理,该交互端70用于处理检测过程中被测用户的输入信息。
因此该可穿戴显示设备,其通过第一显示单元和第二显示单元展示给被测用户双目的图像均可以实现精细调整,为测试用户潘弄区提供了条件。
用户的潘弄区测量是用户认识自身眼睛立体视觉的重要参数,也是可穿戴显示设备提供舒适三维内容的基础。在单眼视网膜相应点的周围能够形成单象的很小范围就称为潘弄区(Panum)。当物体的投影不落在潘弄区内时,便产生双象。当物体的投影完全落在两个视网膜的相应点上,在这种情况下物体被感知为平面。如果物体的投影超出了潘弄区范围时,则物体被看成双象;如果物体的投影既不完全落在相应点上,又不超出潘弄区范围时,则产生立体视觉。因此准确测定潘弄区为可穿戴显示设备提供舒适的立体图像具有十分重要的作用。
实施例1
本实施例涉及用于测量潘弄区的可穿戴显示设备60。
该可穿戴显示设备60通过在第一显示单元中显示可以精细调整的第一视差图像,在第二显示单元中显示可以精细调整的第二视差图像,被测用户戴上可穿戴式头盔,左右眼分别观察该第一视差图像和第二视差图像,并根据看到的立体图像清晰程度调整该第一视差图像和第二视差图像之间的水平物理间距,找到清晰转变为模糊的临界位置,最后根据测得的该第一视差图像和第二视差图像的水平物理间距推算出潘弄区范围。
请参考图2,该可穿戴显示设备60包括第一显示单元61、第二显示单元62,调整模块63、测量模块64、分析模块65以及连接模块66。
该第一显示单元61和第二显示单元62为可穿戴显示设备上的左右两套光学显示系统。每套光学显示系统对应于左右眼,每套光学显示系统包括显示屏和一套成像光学透镜。该成像光学透镜可以为球面透镜、非球面透镜、菲涅耳透镜、棱镜、自由曲面半反半透镜、波导光栅等,显示屏上的图像通过对应的成像光学透镜,将光线入射到相应的眼睛中,并在视网膜上成像。
该连接模块66无线连接由用户手动操作的交互端70。该交互端70采集被测用户的交互指令,并将交互指令无线发送至该连接模块66上。
请一并参考图3,为了测量潘弄区范围,通过可穿戴显示设备向被测用户的双眼投射两幅视差图像,该第一显示单元61加载第一视差图像81,该第二显示单元62投射第二视差图像82。其中,该第一视差图像81包括第一同源点A,该第二视差图像82包括第二同源点B。
该调整模块63调整该第一同源A点和第二同源点B的水平视差量,直至被测用户观察该显示物体产生重影时结束。
该测量模块64获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx。该测量模块64再根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
图3中该第一视差图像81和第二视差图像82分别表示左右眼通过可穿戴显示设备看到的2D显示屏的显示内容。图3中显示内容为空间物体,比如空间球体。其中A、B两点代表第一同源点A以及第二同源点B,两个圆代表一个空间物体,比如篮球,在左右显示屏上的视差图像。本申请实施例通过水平移动两个显示屏的图像,改变第一同源点A以及第二同源点B两点在二维显示屏的像平面上的水平视差值。比如,将水平视差值从零开始往正视差调节,确定入屏视差量参数Δne入;然后,将水平视差值从零开始往负视差调节,获取出屏视差量参数Δne出,并据此确定潘弄区的范围,通过这种方式可以准确标准地测量出被测用户的潘弄区范围。该潘弄区范围可以用于眼科疾病检测与防治等。该潘弄区范围对于制作舒适度更好的三维内容来说具有重要的参考意义。
或者水平视差值的变化也可从一个很大的正值逐渐减小直至负值。或者单位时间内水平视差值的变化为动态调节。
在一实施例中,潘弄区测试装置,比如可穿戴显示设备,在测得用户的潘弄区范围后,存储至本地存储器。同时,该潘弄区测量装置,比如可穿戴显示设备,还包括分析模块65。该分析模块65根据被测用户的属性统计测量若干被测用户的潘弄区范围,获取同属性被测用户的潘弄区平均值。比如,该分析模块65将被测用户分为男性与女性,统计测量若干男性的潘弄区范围以及若干女性的潘弄区范围,获取男性与女性的潘弄区平均值。
在另一实施例中,潘弄区测试装置,比如可穿戴显示设备,在测得用户的潘弄区范围后,将其发送至交互云,比如云端服务器91。该实施例中,该云端服务器91还包括分析模块65。该分析模块65根据被测用户的属性统计测量若干被测用户的潘弄区范围,获取同属性被测用户的潘弄区平均值。比如,该分析模块65将被测用户分为老年人、中年人与儿童,统计测量若干老年人的潘弄区范围以及若干成年人的潘弄区范围,获取老年人、中年人与儿童的潘弄区平均值。基于以上根据被测用户的属性统计测量的潘弄区范围,获取不同被测用户属性的潘弄区平均值,为舒适的三维内容制作提供技术参考数据。
调整时,被测用户通过交互端70输入调整指令。
该调整模块63根据收到的调整指令将该水平视差量往正视差调整,同时该测量模块64获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin。同时,该调整模块63根据收到的调整指令也可将水平视差量往负视差调整,该测量模块64获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout。该测量模块64根据该入屏水平物理间距Δxin和出屏水平物理间距Δxout确定该潘弄区范围(μin,μout)。
以下具体介绍该潘弄区范围的推算过程。
本实施例,在图4给出双目视差原理示意图中,其中Δx为该第一同源A点和第二同源点B在屏幕上的水平物理间距,因为同源点的水平物理尺寸Δx仅与观看距离H有关,即当观看距离确定后,左右同源点的物理间距范围是确定的,与显示屏的分辨率、像素尺寸、视场角等均无关。
本申请实施例中选取立体视差角μin和μout作为潘弄区的评价参数。如图4所示,正视差角为μin=α-βin;负视差角:μout=βout-α。因此,μin和μout即为本申请中需要测量的两个数据,也就是μin和μout两个数据表征潘弄区范围。需要得说明的是,潘弄区范围为生理范畴,与生理结构有关,因人而不同,与显示方式、屏幕尺寸等没有直接关系。本实施例的潘弄区测量方法最大程度去除了设备对测量数据的影响,更准确真实反映用户的立体视差角范围,亦即潘弄区范围。
图5所示为显示空间中单目成像物理模型图,本实施例的潘弄区测量装置,比如可穿戴显示设备配置左右两套光学显示系统。这两套单目光学显示系统的参数一致,且光轴平行,光轴间距等于人眼瞳距E。
其中,每一单目光学显示系统可以等效成一个理想薄透镜成像系统,二维显示屏为物平面,人眼透过透镜看到二维显示屏的放大的正立图像,如图5所示,根据几何关系可得:
Figure GDA0002482740090000091
Figure GDA0002482740090000092
Le=Meξe (3)
Le'=Meξe' (4)
其中,Te为物像放大率,Le为单个显示屏的水平物理尺寸,Le′为单个显示屏图像的水平物理尺寸,Se为物距,即显示屏距离透镜的距离,Se′为像距,通常像距为人眼的明视距离25厘米。ξe'为图像的像素物理尺寸,ξe为显示屏平面的像素物理尺寸,Me为显示屏中单个显示屏的水平分辨率,de为眼睛距离透镜中心的距离,αe为水平视场角。
由公式(2)和(4)可得显示屏像平面的像素尺寸ξe′为:
Figure GDA0002482740090000101
如图6所示,为了便于观察,将左右显示屏的图像平面前后错移一定距离,实际上两个图像平面是处于同一平面内。图6中的虚线为两套单目光学显示系统的光轴。图7给出了当第一同源点A以及第二同源点B融合的空间物体出屏的现象。
根据图6和图7所示的几何关系,该潘弄区测量装置,比如可穿戴显示所示中左右显示屏的一对同源点,第一同源点A以及第二同源点B,在图像平面上的水平像素间距为:
Figure GDA0002482740090000102
其中,Δne为当左右显示屏的图像完全重合时,第一同源点A以及第二同源点B的水平像素间距,亦即前述的视差量参数Δne。其中,该视差量参数Δne包括入屏视差量参数Δne入以及出屏视差量参数Δne出
当被测用户根据观测确定出现双像的临界位置时,测量模块64将上述获得的入屏视差量参数Δne入以及出屏视差量参数Δne出,代入公式,可得左右显示屏的第一同源点A以及第二同源点B在可穿戴显示设备的图像平面上的水平物理间距Δx。该水平物理间距Δx包括入屏水平物理间距Δxin和出屏水平物理间距Δxout计算公式为:
Δx=Δneξe′+E (7)
该入屏视差量参数Δne入以及出屏视差量参数Δne出,代入公式(7)即可计算出入屏水平物理间距Δxin和出屏水平物理间距Δxout
然后,根据如图4所示的几何关系,有如下公式成立:
1.对于视差为正的入屏情形:
Figure GDA0002482740090000103
2.对于视差为负出屏情形:
Figure GDA0002482740090000111
其中,E为人眼瞳距,通常取65厘米。H为观看距离,即人眼距离屏幕的距离,din为大脑融合物体的入屏距离,dout为其出屏距离。因,din、dout、βin、βout在公式迭代中抵消,在此不再赘述。
根据公式(8)和(9)可知,水平视差物理尺寸Δx(H)仅为观看距离H的函数。那么,第一同源点A以及第二同源点B水平视差的像素间距为:
Figure GDA0002482740090000112
其中,ξ为二维显示屏上一个像素的水平物理尺寸。
实施例2
本实施例涉及潘弄区测量方法。
动态调整第一同源点A以及第二同源点B的水平像素间距,比如入屏视差量参数Δne入以及出屏视差量参数Δne出。通过交互端70调整时,比如通过手柄左右方向键控制Δne的增加和减小,被测用户戴上可穿戴设备,确认出刚好没有重影的临界位置,并记录此时的视差量参数Δne,并据此计算出被测用户的潘弄区范围(μin,μout)。可穿戴显示设备的测量模块对所有视差量参数数据去掉最大值和最小值,取平均值
Figure GDA0002482740090000114
然后,将
Figure GDA0002482740090000113
带入到公式(5)(7)(8)(9),便可得到表征潘弄区范围的两个数据μin和μout。本实施例的潘弄区测量方法测量结果不依赖于设备,对于任意一套三维显示设备,可根据系统参数及本潘弄区测量方法计算出三维内容的视差量参数Δne。同时,根据本方法制作的三维内容在不造成晕眩的情况下最大保证用户对三维显示的沉浸感和冲击感。
请参考图8,从实现潘弄区测量来看,该方法主要包括以下步骤:
步骤101:向被测用户的左眼投射空间物体的第一视差图像,该第一视差图像包括第一同源点;
步骤102:向被测用户的右眼投射空间物体的第二视差图像,该第二视差图像包括第二同源点;
步骤103:调整该第一同源点和第二同源点之间的水平视差量,直至被测用户观察该空间物体产生重影时结束;
步骤104:获取视差量参数Δne,根据该视差量参数Δne计算该第一同源点和第二同源点间的水平物理间距Δx;以及
步骤105:根据该水平物理间距Δx计算该被测用户的潘弄区范围(μin,μout)。
请参考图9,所示为潘弄区测量方法的调整流程图。该潘弄区测量方法还包括:
步骤201:第一同源点A以及第二同源点B在同一水平线上;
步骤202:调整该第一同源点A以及第二同源点B之间的水平视差量,直至被测用户观察该显示对象产生重影时结束;
步骤203:将该水平视差量往正视差调整,确定入屏水平物理间距;
步骤204:将该水平视差量往负视差调整,确定出屏水平物理间距;
步骤205:根据该入屏水平物理间距和出屏水平物理间距确定潘弄区范围;
步骤206:根据被测用户的属性统计测量同属性被测用户的潘弄区范围;
步骤207:获取该同属性被测用户的潘弄区平均值,同时,基于该潘弄区平均值制作三维显示内容。
该潘弄区测量方法获取视差量参数Δne的步骤包括:
将该水平视差量往正视差调整,获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;将该水平视差量往负视差调整,获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,根据该入屏水平物理间距Δxin和出屏水平物理间距Δxout确定该潘弄区范围(μin,μout)。
潘弄区测量装置由可穿戴显示设备60、交互端70、测量软件三部分组成;该测量软件包括调整模块63、测量模块64以及分析模块65。
具体测量过程介绍如下:
当被测用户戴上可穿戴显示设备时,测量模块64绘制出第一视差图像和第二视差图像,并分别显示在可穿戴显示设备的两个显示屏上。其中,该第一视差图像和第二视差图像显示的空间物体相同,该第一视差图像和第二视差图像显示的空间物体只存在水平方向的距离差异,即只存在水平视差,而不存在竖直方向的距离差异,即不存在垂直视差。
当被测用户通过交互端发出缩小视差量参数指令时,调整模块63将按照一定步长减小两张视差图像上空间物体的水平视差,使水平视差量往负视差方向调整;
当被测用户通过交互端发出增大视差量参数指令时,调整模块63将按照一定步长增大两张视差图像的空间物体的水平视差,使水平视差量往正视差方向调整;
当水平视差量从零视差往负视差方向变化时,用户会观察到空间物体的左右边缘从清晰状态慢慢产生重影,当从无重影向有重影转变时,此时对应的视差量参数Δne为出屏视差量参数Δne出;当水平视差量从零视差往正视差方向变化时,用户同样会观察到物体的左右边缘从清晰状态慢慢产生重影,当从无重影向有重影转变时,此时对应的视差量参数Δne为入屏视差量参数Δne入
该测量模块64将把上述获得的出屏视差量参数Δne出和入屏视差量参数Δne入分别代入下式,可得左右显示屏的第一同源点A以及第二同源点B在可穿戴显示设备图像平面上的水平物理间距Δx:
Δx=Δneξe′+E (7)
其中,E为人眼瞳距,可穿戴显示设备的显示屏在像平面上的像素尺寸ξe′为:
Figure GDA0002482740090000131
其中,Se′为像距,通常像距为人眼的明视距离25厘米,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角。
然后,将第一同源点A以及第二同源点B在可穿戴显示设备图像平面上的水平物理间距Δx代入到下式中,可得表征该用户双眼潘弄区范围的两个值μin和μout
Figure GDA0002482740090000141
Figure GDA0002482740090000142
综上所述,本申请实施例提供的潘弄区测量方法、装置以及可穿戴显示设备,测量所得的潘弄区范围只与用户在交互端调整的水平视差量有关,针对不同的显示测量设备采用本申请的测量方法,潘弄区测量结果保持不变,从而实现准确且标准地测量潘弄区范围;本申请实施例通过可穿戴显示设备,比如虚拟现实装置或增强现实装置,利用虚拟现实装置或增强现实装置的两组光学系统和两个显示屏对左右眼进行独立成像测量,排除了左右眼干扰影响;并且本申请实施例通过动态控制第一显示单元以及第二显示单元显示中显示的空间物体同源点的水平视差量,比如距离,对于单个被测用户,可以通过此方法精确测量出对应的潘弄区范围。该潘弄区范围可以用于眼科疾病检测与防治;或者对于三维内容制作来说,可以针对若干被测人员进行统计测量,获取潘弄区的平均值,以提高三维内容制作的舒适性体验。
实施例3
图10是本申请实施例提供的潘弄区测量方法的电子设备600的硬件结构示意图,如图10所示,该电子设备600包括:
一个或多个处理器610、存储器620以及通信组件650,图10中以一个处理器610为例,在虚拟现实可穿戴显示设备实施例或者增强显示可穿戴显示设备的实施例中还可以包括图像处理器(GPU)。该存储器620存储有可被该至少一个处理器610执行的指令,该指令被该至少一个处理器执行时,通过通信组件650建立数据通道,以使该至少一个处理器能够执行该潘弄区测量方法。
处理器610、存储器620以及通信组件650可以通过总线或者其他方式连接,图10中以通过总线连接为例。
存储器620作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的潘弄区测量方法对应的程序指令/模块(例如,附图2所示的第一显示单元61、第二显示单元62、调整模块63、测量模块64、分析模块65以及连接模块66)。处理器610通过运行存储在存储器620中的非易失性软件程序、指令以及模块,从而执行可穿戴显示设备的各种功能应用以及数据处理,即实现上述方法实施例中的潘弄区测量方法。
存储器620可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据可穿戴显示设备的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器620可选包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至机器人交互电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器620中,当被所述一个或者多个处理器610执行时,执行上述任意方法实施例中的潘弄区测量方法,例如,执行以上描述的图8中的方法步骤101至步骤105,以及执行以上描述的图9中的方法步骤201至步骤207;实现附图2所示的第一显示单元61、第二显示单元62、调整模块63、测量模块64、分析模块65以及连接模块66等的功能。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如,执行以上描述的图8中的方法步骤101至步骤105,以及执行以上描述的图9中的方法步骤201至步骤207;实现附图2所示的第一显示单元61、第二显示单元62、调整模块63、测量模块64、分析模块65以及连接模块66等的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (13)

1.一种潘弄区测量方法,其特征在于,包括以下步骤:
向被测用户的左眼投射空间物体的第一视差图像,向被测用户的右眼投射所述空间物体的第二视差图像,所述第一视差图像包括第一同源点,所述第二视差图像包括第二同源点;
调整所述第一同源点和第二同源点的水平视差量,直至被测用户观察所述空间物体产生重影时结束,获取视差量参数Δne,根据所述视差量参数Δne计算所述第一同源点和第二同源点间的水平物理间距Δx;以及
根据所述水平物理间距Δx计算所述被测用户的潘弄区范围(μin,μout),其中μin为正视差角,μout为负视差角;
所述获取视差量参数Δne的步骤包括:
将所述水平视差量往正视差调整,获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;将所述水平视差量往负视差调整,获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,根据所述入屏水平物理间距Δxin和出屏水平物理间距Δxout确定所述潘弄区范围(μin,μout);
所述水平物理间距Δx包括所述入屏水平物理间距Δxin和出屏水平物理间距Δxout,计算为:
Δx=Δneξ′e+E (7)
其中,E为被测用户瞳距,ξ′e为显示屏在像平面上的像素尺寸;
Figure FDA0002504489320000011
其中,S′e为像距,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角;
所述潘弄区范围(μin,μout)的临界值为:
Figure FDA0002504489320000012
Figure FDA0002504489320000021
其中,E为被测用户瞳距,H为观看距离,βin为入屏视差角度,βout为出屏视差角度。
2.根据权利要求1所述的潘弄区测量方法,其特征在于,还包括:
根据被测用户的属性统计测量同属性被测用户的潘弄区范围,获取所述同属性被测用户的潘弄区平均值;以及
基于所述潘弄区平均值制作三维显示内容。
3.根据权利要求1或2所述的潘弄区测量方法,其特征在于,还包括:将所述潘弄区范围(μin,μout)发送至云端服务器。
4.一种潘弄区测量装置,包括第一显示单元以及第二显示单元,其特征在于,还包括调整模块以及测量模块,
所述第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,所述第二显示单元用于向被测用户的右眼投射所述空间物体的第二视差图像,所述第一视差图像包括第一同源点,所述第二视差图像包括第二同源点;
所述调整模块用于调整所述第一同源点和第二同源点的水平视差量,直至被测用户观察所述空间物体产生重影时结束;
所述测量模块用于获取视差量参数Δne,根据所述视差量参数Δne计算所述第一同源点和第二同源点间的水平物理间距Δx,以及用于根据所述水平物理间距Δx计算所述被测用户的潘弄区范围(μin,μout),其中μin为正视差角,μout为负视差角;
所述调整模块还用于将所述水平视差量往正视差调整,所述测量模块用于获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;所述调整模块用于将所述水平视差量往负视差调整,所述测量模块用于获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,所述测量模块还用于根据所述入屏水平物理间距Δxin和出屏水平物理间距Δxout确定所述潘弄区范围(μin,μout);
所述水平物理间距Δx包括所述入屏水平物理间距Δxin和出屏水平物理间距Δxout,计算为:
Δx=Δneξ′e+E (7)
其中,E为被测用户瞳距,ξ′e为显示屏在像平面上的像素尺寸;
Figure FDA0002504489320000031
其中,S′e为像距,为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角;
所述潘弄区范围(μin,μout)的临界值为:
Figure FDA0002504489320000032
Figure FDA0002504489320000033
其中,E为被测用户瞳距,H为观看距离,βin为入屏视差角度,βout为出屏视差角度。
5.根据权利要求4所述的潘弄区测量装置,其特征在于,还包括:分析模块,所述分析模块用于根据被测用户的属性统计测量同属性被测用户的潘弄区范围,获取所述同属性被测用户的潘弄区平均值。
6.根据权利要求4或5所述的潘弄区测量装置,其特征在于,还包括发送模块,所述发送模块用于将所述潘弄区范围(μin,μout)发送至云端服务器。
7.一种可穿戴显示设备,包括第一显示单元、第二显示单元以及交互端,其特征在于,还包括接收所述交互端信号的调整模块以及测量模块,
所述第一显示单元用于向被测用户的左眼投射空间物体的第一视差图像,所述第二显示单元用于向被测用户的右眼投射所述空间物体的第二视差图像,所述第一视差图像包括第一同源点,所述第二视差图像包括第二同源点;
所述调整模块在所述交互端的控制下用于调整所述第一同源点和第二同源点的水平视差量,直至被测用户观察所述空间物体产生重影时结束;
所述测量模块用于获取视差量参数Δne,根据所述视差量参数Δne计算所述第一同源点和第二同源点间的水平物理间距Δx,以及用于根据所述水平物理间距Δx计算所述被测用户的潘弄区范围(μin,μout),其中μin为正视差角,μout为负视差角;
所述调整模块还用于将所述水平视差量往正视差调整,所述测量模块用于获取入屏视差量参数Δne入,确定入屏水平物理间距Δxin;所述调整模块还用于将所述水平视差量往负视差调整,所述测量模块还用于获取出屏视差量参数Δne出,确定出屏水平物理间距Δxout,所述测量模块还用于根据所述入屏水平物理间距Δxin和出屏水平物理间距Δxout确定所述潘弄区范围(μin,μout);
所述水平物理间距Δx包括所述入屏水平物理间距Δxin和出屏水平物理间距Δxout,计算为:
Δx=Δneξ′e+E (7)
其中,E为被测用户瞳距,ξ′e为显示屏在像平面上的像素尺寸;
Figure FDA0002504489320000041
其中,S′e为像距,de为眼睛距离透镜中心的距离,Me为显示屏中单个显示屏的水平分辨率,αe为水平视场角;
所述潘弄区范围(μin,μout)的临界值为:
Figure FDA0002504489320000042
Figure FDA0002504489320000043
其中,E为被测用户瞳距,H为观看距离,βin为入屏视差角度,βout为出屏视差角度。
8.根据权利要求7所述的可穿戴显示设备,其特征在于,还包括:分析模块,所述分析模块用于根据被测用户的属性统计测量同属性被测用户的潘弄区范围,获取所述同属性被测用户的潘弄区平均值。
9.根据权利要求7或8所述的可穿戴显示设备,其特征在于,所述可穿戴显示设备连接至云端服务器,所述可穿戴显示设备包括发送模块,用于将所述潘弄区范围(μin,μout)发送所述至云端服务器。
10.根据权利要求9所述的可穿戴显示设备,其特征在于,所述交互端包括头部姿态获取装置,由所述头部姿态获取装置获取被测用户的头部姿态参数,用于调整所述视差量参数Δne
11.根据权利要求10所述的可穿戴显示设备,其特征在于,所述可穿戴显示设备为虚拟现实设备或者增强现实设备。
12.一种电子设备,其中,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器以及通信组件;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行时,通过通信组件建立数据通道,以使所述至少一个处理器能够执行权利要求1-3任一项所述的方法。
13.一种非易失性计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行权利要求1-3任一项所述的方法。
CN201780002289.2A 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备 Active CN108471939B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/100413 WO2019041352A1 (zh) 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备

Publications (2)

Publication Number Publication Date
CN108471939A CN108471939A (zh) 2018-08-31
CN108471939B true CN108471939B (zh) 2020-07-28

Family

ID=63266970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780002289.2A Active CN108471939B (zh) 2017-09-04 2017-09-04 一种潘弄区测量方法、装置以及可穿戴显示设备

Country Status (3)

Country Link
US (1) US11517195B2 (zh)
CN (1) CN108471939B (zh)
WO (1) WO2019041352A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7194842B2 (ja) * 2019-09-30 2022-12-22 ホヤ レンズ タイランド リミテッド 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930550A (zh) * 2012-11-20 2013-02-13 天津理工大学 立体图像绘制时虚拟相机分离距离的确定方法
DE102015209484A1 (de) * 2015-05-22 2016-11-24 Deutsche Augenoptik AG Dynamisch stereoskope Sehzeichen
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7612795B2 (en) * 2006-05-12 2009-11-03 Anthony Italo Provitola Enhancement of visual perception III
DE102011054833A1 (de) * 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
JP2013038602A (ja) * 2011-08-08 2013-02-21 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9285871B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Personal audio/visual system for providing an adaptable augmented reality environment
CN103686133A (zh) * 2013-12-24 2014-03-26 友达光电股份有限公司 一种用于裸眼立体显示器的图像补偿装置及其方法
DE202014003135U1 (de) * 2014-04-11 2014-09-25 Ipro Gmbh Messung der zentralen Tiefe des individuellen Panumraums - Sehzeichen Darbietung für die subjektive Refraktion (Sehschärfenprüfung)

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930550A (zh) * 2012-11-20 2013-02-13 天津理工大学 立体图像绘制时虚拟相机分离距离的确定方法
DE102015209484A1 (de) * 2015-05-22 2016-11-24 Deutsche Augenoptik AG Dynamisch stereoskope Sehzeichen
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统

Also Published As

Publication number Publication date
US20200260945A1 (en) 2020-08-20
CN108471939A (zh) 2018-08-31
US11517195B2 (en) 2022-12-06
WO2019041352A1 (zh) 2019-03-07

Similar Documents

Publication Publication Date Title
JP7094266B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
Hennessey et al. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions
US20170243334A1 (en) Method and System for Reconstructing Obstructed Face Portions for Virtual Reality Environment
CN111007939B (zh) 一种基于深度感知的虚拟现实系统空间定位方法
WO2016021034A1 (ja) 3次元上の注視点の位置特定アルゴリズム
KR20150121127A (ko) 양안 응시 이미징 방법 및 장치
CN103517060A (zh) 一种终端设备的显示控制方法及装置
CN113366491A (zh) 眼球追踪方法、装置及存储介质
WO2020024593A1 (zh) 一种图像处理方法及装置
US20220060680A1 (en) Head mounted display apparatus
JP2023515205A (ja) 表示方法、装置、端末機器及びコンピュータプログラム
CN106708249B (zh) 交互方法、交互装置及用户设备
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
CN108471939B (zh) 一种潘弄区测量方法、装置以及可穿戴显示设备
Wibirama et al. Design and implementation of gaze tracking headgear for Nvidia 3D Vision®
CN106707511A (zh) 一种虚拟现实设备的调节方法、装置、存储介质及设备
Tong et al. The impacts of lens and stereo camera separation on perceived slant in virtual reality head-mounted displays
CN117412020A (zh) 视差调整方法、装置、存储介质和计算设备
CN108881892B (zh) 用于桌面式虚拟现实系统的防眩晕方法、系统
CN109031667B (zh) 一种虚拟现实眼镜图像显示区域横向边界定位方法
US20170302904A1 (en) Input/output device, input/output program, and input/output method
Conti et al. Adjusting stereoscopic parameters by evaluating the point of regard in a virtual environment
Liu et al. Perceptual self-position estimation based on gaze tracking in virtual reality
Kato et al. 3D Gaze Characteristics in Mixed-Reality Environment
JP2010193409A (ja) 画像提示システム、画像処理装置、プログラムおよび画像提示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210126

Address after: 200000 second floor, building 2, no.1508, Kunyang Road, Minhang District, Shanghai

Patentee after: Dalu Robot Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Patentee before: Shenzhen Qianhaida Yunyun Intelligent Technology Co.,Ltd.

TR01 Transfer of patent right
CP03 Change of name, title or address

Address after: 201111 Building 8, No. 207, Zhongqing Road, Minhang District, Shanghai

Patentee after: Dayu robot Co.,Ltd.

Address before: 200000 second floor, building 2, no.1508, Kunyang Road, Minhang District, Shanghai

Patentee before: Dalu Robot Co.,Ltd.

CP03 Change of name, title or address