CN111596763B - 虚拟现实设备的控制方法及装置 - Google Patents
虚拟现实设备的控制方法及装置 Download PDFInfo
- Publication number
- CN111596763B CN111596763B CN202010414663.3A CN202010414663A CN111596763B CN 111596763 B CN111596763 B CN 111596763B CN 202010414663 A CN202010414663 A CN 202010414663A CN 111596763 B CN111596763 B CN 111596763B
- Authority
- CN
- China
- Prior art keywords
- lens
- distance
- virtual
- current user
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000004438 eyesight Effects 0.000 claims abstract description 54
- 230000008859 change Effects 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000004379 myopia Effects 0.000 claims description 15
- 208000001491 myopia Diseases 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100118004 Arabidopsis thaliana EBP1 gene Proteins 0.000 description 1
- 102100021334 Bcl-2-related protein A1 Human genes 0.000 description 1
- 101150052583 CALM1 gene Proteins 0.000 description 1
- 102100025580 Calmodulin-1 Human genes 0.000 description 1
- 101100459256 Cyprinus carpio myca gene Proteins 0.000 description 1
- 101000894929 Homo sapiens Bcl-2-related protein A1 Proteins 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 101150091339 cam-1 gene Proteins 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0081—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/08—Auxiliary lenses; Arrangements for varying focal length
- G02C7/088—Lens systems mounted to spectacles
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C11/00—Non-optical adjuncts; Attachment thereof
- G02C11/10—Electronic devices other than hearing aids
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开实施例提供的虚拟现实设备的控制方法及装置,包括:获取使用虚拟现实设备的当前用户的视力信息;根据当前用户的视力信息,调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距。
Description
技术领域
本公开涉及虚拟现实技术领域,特别涉及虚拟现实设备的控制方法及装置。
背景技术
随着虚拟现实(Virtual Reality,VR)技术的发展,出现了很多虚拟现实设备,使得人们可以通过虚拟现实设备体现虚拟场景。
发明内容
本公开实施例提供的虚拟现实设备的控制方法,包括:
获取使用所述虚拟现实设备的当前用户的视力信息;
根据所述当前用户的视力信息,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距。
可选地,在本公开实施例中,所述根据所述当前用户的视力信息,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距,具体包括:
根据所述当前用户的视力信息,确定所述透镜的成像平面相对所述当前用户的眼睛的像面移动量;
根据所述像面移动量,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离,并同时调节各所述虚拟相机的视场角以及相邻所述虚拟相机之间的间距。
可选地,在本公开实施例中,所述同时调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距,具体包括:
同步调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各所述虚拟相机的视场角以及相邻所述虚拟相机之间的间距,以使所述透镜与所述当前用户的眼睛之间的距离、各所述虚拟相机的视场角以及相邻所述虚拟相机之间的间距同时达到目标值。
可选地,在本公开实施例中,所述同步调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距,具体包括:
根据所述像面移动量,分别确定所述透镜相对所述当前用户的眼睛的透镜移动量、各所述虚拟相机的视场角的视场角变化量以及相邻所述虚拟相机之间的间距的距离变化量;
根据所述透镜移动量和透镜移动速率、各所述虚拟相机的视场角变化量和视场角变化速率、以及各所述虚拟相机在水平方向上的移动速率和所述距离变化量,同步控制所述透镜移动、各所述虚拟相机的视场角变化以及相邻所述虚拟相机反向移动。
可选地,在本公开实施例中,所述视场角变化速率vFOV满足公式:vFOV=6vLens;其中,vLens代表所述透镜移动速率。
可选地,在本公开实施例中,所述虚拟相机在水平方向上的移动速率vcamera满足公式:vcamera=0.02vLens;其中,vLens代表所述透镜移动速率。
可选地,在本公开实施例中,所述虚拟相机在调节后的视场角的目标值FOVa满足公式:FOVa=FOVP-6Δz;其中,FOVP代表所述虚拟相机在默认状态下的视场角,Δz代表所述像面移动量。
可选地,在本公开实施例中,相邻所述虚拟相机在调节后的间距的目标值Disa满足公式:Disa=DisP+0.02Δz;其中,DisP代表所述虚拟相机在默认状态下的间距,Δz代表所述像面移动量。
本公开实施例还提供了虚拟现实设备,包括:
虚拟现实设备本体;
处理器,被配置为:
获取使用所述虚拟现实设备的当前用户的视力信息;
根据所述当前用户的视力信息,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距。
本公开实施例还提供了计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现上述虚拟现实设备的控制方法的步骤。
附图说明
图1为本发明实施例提供的控制方法的流程图;
图2为本发明实施例提供的虚拟现实设备的局部结构示意图;
图3为本发明实施例提供的双目视差与物体深度之间的关系示意图;
图4a为本发明实施例提供的左侧虚拟相机在调节前拍摄的图像;
图4b为本发明实施例提供的左侧虚拟相机在调节后拍摄的图像;
图5a为本发明实施例提供的右侧虚拟相机在调节前拍摄的图像;
图5b为本发明实施例提供的右侧虚拟相机在调节后拍摄的图像;
图6a为本发明实施例提供的左右两个侧虚拟相机之间的间距为间距1时拍摄的图像;
图6b为本发明实施例提供的左右两个侧虚拟相机之间的间距为间距2时拍摄的图像;
图7a为本发明实施例提供的一些视野的示意图;
图7b为本发明实施例提供的另一些视野的示意图;
图7c为本发明实施例提供的又一些视野的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。并且在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外定义,本公开使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。
需要注意的是,附图中各图形的尺寸和形状不反映真实比例,目的只是示意说明本发明内容。并且自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。
虚拟现实设备通常是利用仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术、网络技术等多种技术集合的产品,是借助计算机及传感器技术创造的一种崭新的人机交互手段。虚拟现实设备利用运算模拟产生一个三维空间的虚拟世界,从而向用户提供视觉、听觉以及触觉等方面的感官模拟,使得用户如同身临其境一般,进而给用户带来全新的体验效果。
随着虚拟现实设备的应用越来越广泛,如何提高用户体验效果、增加虚拟现实设备的实用功能也是目前虚拟现实设备的发展方向之一。通常,为了适用于不同近视度数的用户,虚拟现实设备中普遍具有调节焦距的功能,该功能主要用于通过调节虚拟现实设备上的齿轮以调节透镜与显示屏之间的距离,从而让不同近视度数的用户都能看到清晰的显示画面。
然而,通过调节透镜与显示屏之间的距离,可以将透镜的虚像成像平面拉近到用户的明视距离之内,导致可见的视野内容变小,使得显示画面边缘的内容将会被牺牲掉。并且,成像平面的位置改变而视差不变导致双眼图像融合误差,视野中的物体可能出现模糊或无法对焦。因此,削弱用户的沉浸感和体验内容的丰富性,影响体验。
有鉴于此,本发明实施例提供的虚拟现实设备的控制方法,如图1所示,可以包括如下步骤:
S100、获取使用虚拟现实设备的当前用户的视力信息;
S200、根据当前用户的视力信息,调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距。
本发明实施例提供的虚拟现实设备的控制方法,可以获取到使用虚拟现实设备的当前用户的视力信息,从而可以根据当前用户的视力信息,调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距。这样可以使虚拟现实设备适合具有不同视力信息的人群。并且,通过调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、调节各虚拟相机的视场角以及调节相邻虚拟相机之间的间距,可以使VR体验中的像距、视差以及视场角相协调,从而可以解决像距降低时视场显示损失与无法对焦的问题,进而可以优化虚拟现实设备的当前用户的体验效果。
在具体实施时,在本发明实施例中,视力信息可以包括视力数据,例如,近视度数。这样可以通过获取虚拟现实设备的当前用户的视力数据,以根据该视力数据,虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距。从而可以使虚拟现实设备进一步适合不同程度近视的人群,使得近视人群不需佩戴原有的近视眼睛也可以清楚看到显示片上的内容,不影响使用,大大满足了使用者的需求。
在一些示例中,虚拟现实设备本体可以包括VR头盔、VR眼睛、运动座椅等。本公开对虚拟现实设备本体不做特殊限定。如图2所示,虚拟现实设备中具有透镜LS1和LS2,眼睛EY位于透镜LS1背离透镜LS2一侧,屏幕位于透镜LS2背离透镜LS1一侧。示例性地,透镜LS1和LS2作为一个透镜组,虚拟现实设备可以包括两个透镜组,这样可以使一个眼睛对应一个透镜组,从而可以调节虚拟现实设备中的透镜LS1与当前用户的每一个眼睛EY之间的距离,可以调节成像屏幕的位置。示例性地,透镜LS2可以是固定的。当然,透镜LS2也可以使可移动的,在此不作限定。
结合图2所示,可以采用步进电机控制透镜LS1到屏幕BP的距离BFL1来改变物距,从而改变像距,进而改变成像屏幕的位置。如图3所示,代表双目视差与物体深度之间的关系。从图3中可知,双目视差与物体深度的关系成反比。因此,距离成像平面越近的点,它在左右两个虚拟相机中的视差越大,距离成像平面越远的点,它在左右两个虚拟相机中的视差越小。
在一些示例中,虚拟现实设备设置有软件端的虚拟相机。该虚拟相机的主要作用是在虚拟场景下根据设定的渲染参数将视野中的画面进行取图,然后将获取到的画面渲染在屏幕上。示例性地,该虚拟相机具有多种可调节的渲染参数(如视场角参数、投影方式参数、剪裁平面参数、深度参数等)。并且,该虚拟相机还可以具有刚体属性,可以自由移动旋转,以放置在虚拟场景中的任何位置。进一步地,该虚拟相机的自带参数属性与位置属性均可通过脚本进行控制。在一些示例中,虚拟现实设备可以设置有两个虚拟相机。其中一个虚拟相机对应用户的一只眼睛,另一个虚拟相机对应用户的另一只眼睛。在实际应用中,虚拟相机的工作原理可以与相关技术中的基本相同,在此不作赘述。
通常情况下,人们有的近视有的不近视,这样使得虚拟现实设备需要适应大部分人的需求。在实际应用中,可以使虚拟现实设备具有默认状态下的参数,例如,虚拟现实设备中的透镜LS1与用户的眼睛EY之间的距离具有默认状态下的距离BLP,虚拟相机具有默认状态下的视场角FOVP,以及相邻的虚拟相机在默认状态下的间距DisP。该默认状态下的参数可以是根据不近视的用户或者近视度数较低(例如近视度数小于100度)的用户进行确定的。这样在获取到的当前用户的视力数据对应不近视用户或近视度数较低的用户时,不用额外进行调节,从而可以降低功耗。在实际应用中,默认状态下的参数可以根据实际应用需求进行设计确定,在此不作限定。
在具体实施时,在本发明实施例中,根据当前用户的视力信息,调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距,具体可以包括:
根据当前用户的视力信息,确定透镜的成像平面相对当前用户的眼睛的像面移动量;
根据像面移动量,调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离,并同时调节各虚拟相机的视场角以及相邻虚拟相机之间的间距。
示例性地,预先存储了多个不同视力信息与透镜的成像平面相对用户眼睛的像面移动量之间的关系表。例如,预先存储了N个视力信息:Y-1、Y-2、Y-3、……Y-N。每一个视力信息对应一个像面移动量,即视力信息Y-1对应像面移动量Δxz-1,视力信息Y-2对应像面移动量Δxz-2,视力信息Y-3对应像面移动量Δxz-3,视力信息Y-N对应像面移动量Δxz-N。在具体实施时,可以根据获取到的当前用户的视力信息,通过查询预先存储的关系表,可以确定出虚拟现实设备中的透镜的成像平面相对该当前用户的眼睛的像面移动量。需要说明的是,在视力信息为视力数据时,则预先存储了多个不同视力数据与透镜的成像平面相对用户眼睛的像面移动量之间的关系表。
在具体实施时,在本发明实施例中,同时调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距,具体可以包括:同步调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距,以使透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距同时达到目标值。这样在调节的过程中,可以提高调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距的相关性,从而可以降低图像出现误差的几率,增加图像的清晰度,进而可以更加符合用户的使用需求,提高了用户的体验感受。
在具体实施时,在本发明实施例中,同步调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距,具体可以包括:
根据像面移动量,分别确定透镜相对当前用户的眼睛的透镜移动量、各虚拟相机的视场角的视场角变化量以及相邻虚拟相机之间的间距的距离变化量;
根据透镜移动量和透镜移动速率、各虚拟相机的视场角变化量和视场角变化速率、以及各虚拟相机在水平方向上的移动速率和距离变化量,同步控制透镜移动、各虚拟相机的视场角变化以及相邻虚拟相机反向移动。
示例性地,可以根据像面移动量Δz,确定出透镜LS1相对当前用户的眼睛的透镜移动量Δls1,从而可以在默认状态下的距离BLP调节透镜移动量Δls1,即可得到透镜LS1与当前用户的眼睛EY之间在调节后的距离的目标值BLa,即BLa=BLP-Δls1。
示例性地,根据像面移动量Δz,可以确定出各虚拟相机的视场角的视场角变化量6Δz,从而可以基于虚拟相机在默认状态下的视场角FOVP,调节视场角变化量6Δz,即可得到虚拟相机在调节后的视场角的目标值FOVa,即FOVa满足公式:FOVa=FOVP-6Δz。
示例性地,根据像面移动量Δz,可以确定出相邻虚拟相机之间的间距的距离变化量0.02Δz,从而可以基于虚拟相机在默认状态下的间距DisP,调节距离变化量0.02Δz,即可得到相邻虚拟相机在调节后的间距的目标值Disa,即Disa满足公式:Disa=DisP+0.02Δz。
需要说明的是,根据当前用户的视力信息确定该当前用户对应像面移动量为预先存储的像面移动量Y-1、Y-2、Y-3、……Y-N中的一个时,可以将Δz设置为该确定出的预先存储的一个像面移动量的数值。例如,在根据当前用户的视力信息确定该当前用户对应像面移动量Δxz-2时,则可以将像面移动量Δz=Δxz-2。其余同理,在此不作赘述。
在一些示例中,可以根据透镜移动量,控制虚拟现实设备内的机械结构中的步进电机旋转,从而带动透镜移动。若步进电机旋转的角速度为ω0,带动齿轮转动的角速度为ω1,从而可以得到带动透镜移动的速率,即透镜移动速率为vLens。当然,在实际应用中,透镜移动速率vLens的具体数值可以根据实际应用的需求进行设计确定,在此不作限定。
在一些示例中,视场角变化速率vFOV可以满足公式:vFOV=6vLens;其中,vLens代表透镜移动速率。这样可以使视场角变化速率vFOV与透镜移动速率vLens相关,从而可以同步控制透镜移动以及各虚拟相机的视场角变化。
在一些示例中,虚拟相机在水平方向上的移动速率vcamera满足公式:vcamera=0.02vLens;其中,vLens代表透镜移动速率。这样可以使虚拟相机在水平方向上的移动速率vcamera与透镜移动速率vLens相关,从而可以同步控制透镜移动以及相邻虚拟相机反向移动。
在具体实施时,通过使视场角变化速率vFOV可以满足公式:vFOV=6vLens,以及使虚拟相机在水平方向上的移动速率vcamera满足公式:vcamera=0.02vLens,可以使各虚拟相机的视场角变化速率vFOV、虚拟相机在水平方向上的移动速率vcamera以及透镜移动速率vLens相关,从而可以同步协调控制透镜移动、各虚拟相机的视场角变化以及相邻虚拟相机反向移动。
下面结合具体实施例,对本发明实施例提供的虚拟现实设备的控制方法进行说明。其中,以视力信息为视力数据为例进行说明。
本发明实施例提供的虚拟现实设备的控制方法,可以包括如下步骤:
(1)通过视力信息获取装置对使用该虚拟现实设备的当前用户的眼睛进行测量,从而可以获取到使用该当前用户的眼睛的视力数据。
(2)根据该当前用户的视力数据,从预先存储的多个不同视力数据与透镜的成像平面相对用户眼睛的像面移动量之间的关系表中,找到该当前用户的视力数据对应的像面移动量,例如找到的该当前用户的视力数据对应的像面移动量为Δxz-2,那么Δz=Δxz-2。
(3)可以根据像面移动量Δz,确定出透镜LS1相对当前用户的眼睛的透镜移动量Δls1。
并且,根据像面移动量Δz,可以确定出各虚拟相机的视场角的视场角变化量6Δz。
以及,根据像面移动量Δz,可以确定出相邻虚拟相机之间的间距的距离变化量0.02Δz。
(4)可以根据透镜移动量,控制虚拟现实设备内的机械结构中的步进电机旋转,从而带动透镜移动。若步进电机旋转的角速度为ω0,带动齿轮转动的角速度为ω1,从而可以得到带动透镜移动的透镜移动速率为vLens。
并且,在透镜移动的同时,根据视场角变化速率vFOV(例如,vFOV=6vLens),线性改变两个虚拟相机的视场角。
以及,在透镜移动与视场角变化的同时,根据各虚拟相机在水平方向上的移动速率vcamera(即vcamera=0.02vLens),控制这两个虚拟相机反向移动,线性改变这两个虚拟相机之间的间距,从而可以使焦点落在成像平面上。
在透镜停止移动时,两个虚拟相机的视场角和这两个虚拟相机之间的间距也同时达到目标值。其中,虚拟相机在调节后的视场角的目标值FOVa=FOVP-6Δz。在调节后这两个虚拟相机之间的间距的目标值Disa=DisP+0.02Δz。
示例性地,在调节的过程中,视场角调节的变化量与虚拟相机移动变化量存在对应关系。例如,视场角每改变1°,虚拟相机的相对位置移动量对应为300mm。
并且,如图4a至图6b所示,图4a示出了左侧虚拟相机在调节前拍摄的图像,图4b示出了左侧虚拟相机在调节后拍摄的图像。图5a示出了右侧虚拟相机在调节前拍摄的图像,图5b示出了右侧虚拟相机在调节后拍摄的图像。图6a示出了左右两个侧虚拟相机之间的间距为间距1时拍摄的图像,图6b示出了左右两个侧虚拟相机之间的间距为间距2时拍摄的图像。FOV1代表左侧虚拟相机CAM1的视场角,FOV2代表右侧虚拟相机CAM2的视场角。结合图4a至图6b所示,可知通过调节两个虚拟相机的视场角和间距,可以改善视差不匹配和视场变小的问题。
并且,如图7a至图7c所示,图7a示出了两个虚拟相机之间的间距为8mm且每个虚拟相机的视场角均为60°时的视野。图7b示出了两个虚拟相机之间的间距为6mm且每个虚拟相机的视场角均为60°时的视野。图7c示出了两个虚拟相机之间的间距为8mm且每个虚拟相机的视场角均为75°时的视野。结合图7a至图7c所示,可知通过调节两个虚拟相机的视场角和间距,可以改视野,从而可以改善视差不匹配和视场变小的问题。
基于同一发明构思,本发明实施例还提供了虚拟现实设备,可以包括:虚拟现实设备本体以及处理器。其中,处理器,被配置为:获取使用虚拟现实设备的当前用户的视力信息;根据当前用户的视力信息,调节虚拟现实设备中的透镜与当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻虚拟相机之间的间距。
示例性地,处理器可以是与虚拟现实设备集成为一体的。对于该虚拟现实设备的其它必不可少的组成部分均为本领域的普通技术人员应该理解具有的,在此不做赘述,也不应作为对本公开的限制。
基于同一发明构思,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,并且该计算机程序被处理器执行时实现本发明实施例提供的上述虚拟现实设备的控制方法的步骤。具体地,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种虚拟现实设备的控制方法,其中,包括:
获取使用所述虚拟现实设备的当前用户的视力信息;
根据所述当前用户的视力信息,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距;
其中,根据所述当前用户的视力信息,调节各虚拟相机的视场角以及相邻所述虚拟相机之间的间距,包括:
根据所述当前用户的视力信息,确定所述透镜的成像平面相对所述当前用户的眼睛的像面移动量;根据所述像面移动量,分别确定各所述虚拟相机的视场角的视场角变化量以及相邻所述虚拟相机之间的间距的距离变化量;根据所述各所述虚拟相机的视场角变化量和视场角变化速率、以及各所述虚拟相机在水平方向上的移动速率和所述距离变化量,控制各虚拟相机的视场角以及相邻所述虚拟相机之间的间距;
其中,所述视场角变化速率vFOV满足公式:vFOV=6vLens;其中,vLens代表所述透镜移动速率。
2.如权利要求1所述的虚拟现实设备的控制方法,其中,所述根据所述当前用户的视力信息,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离,具体包括:
根据所述当前用户的视力信息,确定所述透镜的成像平面相对所述当前用户的眼睛的像面移动量;
根据所述像面移动量,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离。
3.如权利要求2所述的虚拟现实设备的控制方法,其中,所述根据所述像面移动量,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离,具体包括:
根据所述像面移动量,确定所述透镜相对所述当前用户的眼睛的透镜移动量;
根据所述透镜移动量和透镜移动速率,控制所述透镜移动。
4.如权利要求1所述的虚拟现实设备的控制方法,其中,所述虚拟相机在水平方向上的移动速率vcamera满足公式:vcamera=0.02vLens;其中,vLens代表所述透镜移动速率。
5.如权利要求1所述的虚拟现实设备的控制方法,其中,所述虚拟相机在调节后的视场角的目标值FOVa满足公式:FOVa=FOVP-6Δz;其中,FOVP代表所述虚拟相机在默认状态下的视场角,Δz代表所述像面移动量,所述默认状态下的视场角为根据不近视的用户或近视度数小于100度的用户进行确定的。
6.如权利要求1所述的虚拟现实设备的控制方法,其中,相邻所述虚拟相机在调节后的间距的目标值Disa满足公式:Disa=DisP+0.02Δz;其中,DisP代表所述虚拟相机在默认状态下的间距,Δz代表所述像面移动量;所述默认状态下的间距为根据不近视的用户或近视度数小于100度的用户进行确定的。
7.一种虚拟现实设备,其中,包括:
虚拟现实设备本体;
处理器,被配置为:
获取使用所述虚拟现实设备的当前用户的视力信息;
根据所述当前用户的视力信息,调节所述虚拟现实设备中的透镜与所述当前用户的眼睛之间的距离、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距;
其中,根据所述当前用户的视力信息,调节各虚拟相机的视场角以及相邻所述虚拟相机之间的间距,包括:
根据所述当前用户的视力信息,确定所述透镜的成像平面相对所述当前用户的眼睛的像面移动量;根据所述像面移动量,分别确定各所述虚拟相机的视场角的视场角变化量以及相邻所述虚拟相机之间的间距的距离变化量;根据所述各所述虚拟相机的视场角变化量和视场角变化速率、以及各所述虚拟相机在水平方向上的移动速率和所述距离变化量,同步控制所述透镜移动、各虚拟相机的视场角以及相邻所述虚拟相机之间的间距;
其中,所述视场角变化速率vFOV满足公式:vFOV=6vLens;其中,vLens代表所述透镜移动速率。
8.一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现权利要求1-6任一项所述的虚拟现实设备的控制方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010414663.3A CN111596763B (zh) | 2020-05-15 | 2020-05-15 | 虚拟现实设备的控制方法及装置 |
PCT/CN2021/085958 WO2021227714A1 (zh) | 2020-05-15 | 2021-04-08 | 虚拟现实设备的控制方法及装置 |
US17/761,520 US20220365594A1 (en) | 2020-05-15 | 2021-04-08 | Control method and apparatus for virtual reality device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010414663.3A CN111596763B (zh) | 2020-05-15 | 2020-05-15 | 虚拟现实设备的控制方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111596763A CN111596763A (zh) | 2020-08-28 |
CN111596763B true CN111596763B (zh) | 2023-12-26 |
Family
ID=72189732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010414663.3A Active CN111596763B (zh) | 2020-05-15 | 2020-05-15 | 虚拟现实设备的控制方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220365594A1 (zh) |
CN (1) | CN111596763B (zh) |
WO (1) | WO2021227714A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111596763B (zh) * | 2020-05-15 | 2023-12-26 | 京东方科技集团股份有限公司 | 虚拟现实设备的控制方法及装置 |
CN115413999A (zh) * | 2022-09-09 | 2022-12-02 | 天津新视光技术有限公司 | 一种视功能诊疗vr设备的控制方法、控制装置及vr设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN205903239U (zh) * | 2016-06-02 | 2017-01-25 | 北京伟世万联科技有限公司 | 基于虚拟现实的视力检查及训练装置 |
CN107167924A (zh) * | 2017-07-24 | 2017-09-15 | 京东方科技集团股份有限公司 | 一种虚拟现实设备和虚拟现实设备的透镜调节方法 |
CN107260505A (zh) * | 2017-02-14 | 2017-10-20 | 合肥中感微电子有限公司 | 视力保护方法、装置及具有视力保护功能的vr眼镜 |
CN109189215A (zh) * | 2018-08-16 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种虚拟内容显示方法、装置、vr设备及介质 |
CN109521871A (zh) * | 2018-10-22 | 2019-03-26 | 广州视景医疗软件有限公司 | 一种融合功能的训练方法、装置、设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9706910B1 (en) * | 2014-05-29 | 2017-07-18 | Vivid Vision, Inc. | Interactive system for vision assessment and correction |
CN109964167B (zh) * | 2016-10-28 | 2022-03-15 | 依视路国际公司 | 用于确定显示装置的使用者的眼睛参数的方法 |
US11099385B2 (en) * | 2016-12-30 | 2021-08-24 | Intel Corporation | Virtual reality (VR) system with nearsightedness optometry adjustment |
KR101968399B1 (ko) * | 2017-03-21 | 2019-04-12 | 엔에이치엔 주식회사 | 시력 보정을 위해 초점 거리를 조절하는 방법 및 시스템 |
CN109283997A (zh) * | 2017-07-20 | 2019-01-29 | 中兴通讯股份有限公司 | 显示方法、装置和系统 |
US10816807B2 (en) * | 2017-11-01 | 2020-10-27 | Vrgineers, Inc. | Interactive augmented or virtual reality devices |
CN111596763B (zh) * | 2020-05-15 | 2023-12-26 | 京东方科技集团股份有限公司 | 虚拟现实设备的控制方法及装置 |
-
2020
- 2020-05-15 CN CN202010414663.3A patent/CN111596763B/zh active Active
-
2021
- 2021-04-08 WO PCT/CN2021/085958 patent/WO2021227714A1/zh active Application Filing
- 2021-04-08 US US17/761,520 patent/US20220365594A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN205903239U (zh) * | 2016-06-02 | 2017-01-25 | 北京伟世万联科技有限公司 | 基于虚拟现实的视力检查及训练装置 |
CN107260505A (zh) * | 2017-02-14 | 2017-10-20 | 合肥中感微电子有限公司 | 视力保护方法、装置及具有视力保护功能的vr眼镜 |
CN107167924A (zh) * | 2017-07-24 | 2017-09-15 | 京东方科技集团股份有限公司 | 一种虚拟现实设备和虚拟现实设备的透镜调节方法 |
CN109189215A (zh) * | 2018-08-16 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种虚拟内容显示方法、装置、vr设备及介质 |
CN109521871A (zh) * | 2018-10-22 | 2019-03-26 | 广州视景医疗软件有限公司 | 一种融合功能的训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021227714A1 (zh) | 2021-11-18 |
US20220365594A1 (en) | 2022-11-17 |
CN111596763A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
EP3414742B1 (en) | Optimized object scanning using sensor fusion | |
CN101587386B (zh) | 光标处理方法、装置及系统 | |
CN105354820A (zh) | 调整虚拟现实图像的方法及装置 | |
TWI815812B (zh) | 用於產生影像之設備及方法 | |
CN108124509B (zh) | 图像显示方法、穿戴式智能设备及存储介质 | |
EP3593193A1 (en) | Varifocal aberration compensation for near-eye displays | |
CN111596763B (zh) | 虚拟现实设备的控制方法及装置 | |
CN111034192B (zh) | 用于生成图像的装置和方法 | |
CN106293561B (zh) | 显示控制方法和装置、显示设备 | |
WO2014008320A1 (en) | Systems and methods for capture and display of flex-focus panoramas | |
KR101818839B1 (ko) | 스테레오 삼차원 영상 콘텐츠 디스플레이 제작 및 재생 방법 | |
CN115868158A (zh) | 一种显示调节方法、装置、设备及介质 | |
CN108287609B (zh) | 用于ar眼镜的图像绘制方法 | |
RU2020126876A (ru) | Устройство и способ формирования изображений вида | |
EP3679453A1 (en) | A method of modifying an image on a computational device | |
CN109298793B (zh) | 一种屏幕位置调节方法及装置 | |
KR101873161B1 (ko) | 컨버전스 매칭을 이용한 개인용 3차원 영상 제공 방법 및 장치 | |
CN115202475A (zh) | 显示方法、装置、电子设备及计算机可读存储介质 | |
CN108881892B (zh) | 用于桌面式虚拟现实系统的防眩晕方法、系统 | |
CN110197524B (zh) | 立体显示方法、设备、装置和计算机可读存储介质 | |
JP6685241B2 (ja) | 立体視ビデオ生成 | |
TW202225783A (zh) | 裸視立體顯示器及其控制方法 | |
KR101893769B1 (ko) | 시청자의 시점 정보에 기초하여 3차원 객체 영상 모델을 생성하는 장치 및 방법 | |
CN111915741A (zh) | 一种基于三维重建的vr生成器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |