CN111857336A - 头戴式设备及其渲染方法、存储介质 - Google Patents
头戴式设备及其渲染方法、存储介质 Download PDFInfo
- Publication number
- CN111857336A CN111857336A CN202010660813.9A CN202010660813A CN111857336A CN 111857336 A CN111857336 A CN 111857336A CN 202010660813 A CN202010660813 A CN 202010660813A CN 111857336 A CN111857336 A CN 111857336A
- Authority
- CN
- China
- Prior art keywords
- eye
- information
- user
- head
- dominant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
Abstract
本申请公开了一种头戴式设备的渲染方法,该方法包括:获取当前使用头戴式设备的用户身份信息;根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。本申请还公开了一种头戴式设备和存储介质。本申请旨在根据用户的主视眼信息以及辅视眼信息配置资源渲染主视眼聚焦区域以及辅视眼聚焦区域,提高渲染的流畅性。
Description
技术领域
本申请涉及智能设备交互技术领域,尤其涉及一种头戴式设备及其渲染方法、存储介质。
背景技术
头戴显示设备,是一种可穿戴的虚拟显示产品。目前的头戴显示设备的技术原理大致分为虚拟现实(Virtual Reality)简称VR显示,增强现实(Augmented Reality)简称AR显示,混合现实(Mixed Reality)简称MR显示和扩展现实(Extended Reality)简称XR显示。
现有技术中对头戴式设备所显示区域的渲染方法主要采用统一、固定的资源分配方式进行渲染。在观看的过程中,用户的注视范围是有限的,这种对整个区域进行统一渲染的方式无疑会造成资源的浪费,也增加硬件资源的渲染负担,且在硬件资源渲染能力有限的情况下,会导致用户所观看显示区域的图像时出现模糊、卡顿的情况,降低用户的观看体验。
发明内容
本申请实施例通过提供一种头戴式设备的渲染方法、头戴式设备和存储介质,旨在解决目前对头戴式设备显示区域进行渲染时资源配置简单,在硬件资源有限的情况下,会导致用户在观看显示区域的图像时出现模糊、卡顿等问题。
为实现上述目的,本申请一方面提供一种头戴式设备的渲染的方法,所述图像渲染的方法包括以下步骤:
获取当前使用头戴式设备的用户身份信息;
根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;
根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;
采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
可选地,所述采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域的步骤,包括:
获取第一缺失比例以及第二缺失比例;
根据所述第一缺失比例以及所述第二缺失比例采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
可选地,所述根据所述第一缺失比例以及所述第二缺失比例采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域的步骤,包括:
根据所述第一缺失比例以及所述第二缺失比例,计算得到第一资源配置比例以及第二资源配置比例;
根据所述第一资源配置比例渲染所述主视眼聚焦区域,根据所述第二资源配置比例渲染所述辅视眼聚焦区域。
可选地,所述根据所述用户身份信息确定当前使用头戴式设备用户的主视眼信息以及辅视眼信息的步骤,包括:
判断数据库是否存在所述用户身份信息,所述数据库存储的数据信息包括若干预存用户身份信息及与所述预存用户身份信息关联的主视眼信息以及辅视眼信息;
若存在,则获取所述数据库中与所述用户身份信息对应的主视眼信息以及辅视眼信息;
若不存在,则向服务器发送获取所述用户身份信息对应的主视眼信息以及辅视眼信息的消息,根据返回的信息中确定所述用户的主视眼信息以及辅视眼信息。
可选地,所述根据返回的信息中确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
若返回的信息中存在主视眼信息以及辅视眼信息,则从返回的信息中确定所述用户的主视眼信息以及辅视眼信息;
若返回的信息中不存在主视眼信息及辅视眼信息,则执行主视眼以及辅视眼的测试操作,依据测试操作结果确定所述用户的主视眼信息以及辅视眼信息。
可选地,所述执行主视眼以及辅视眼的测试操作,依据测试操作结果确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
将用于执行所述测试操作的测试图像显示于所述头戴式设备的显示界面;
依次缩小所述测试图像直至所述用户看到所述测试图像的外边缘;
获取所述用户右眼观看所述测试图像相较于双眼观看所述测试图像的缺失比例,记为第一缺失比例,以及获取所述用户左眼观看所述测试图像相较于双眼观看所述测试图像的缺失比例,记为第二缺失比例;
根据所述第一缺失比例以及所述第二缺失比例确定当前用户的主视眼信息以及辅视眼信息。
可选地,所述根据所述第一缺失比例以及所述第二缺失比例确定当前用户的主视眼信息以及辅视眼信息的步骤,包括:
若所述第一缺失比例小于所述第二缺失比例,则确定所述当前用户的右眼为主视眼,左眼为辅视眼;
若所述第一缺失比例大于所述第二缺失比例,则确定所述当前用户的左眼为主视眼,右眼为辅视眼;
若所述第一缺失比例等于所述第二缺失比例,则确定所述当前用户的左眼和右眼都为主视眼。
可选地,所述获取当前使用头戴式设备的用户身份信息的步骤,包括:
获取所述用户的双眼虹膜图像;
将所述双眼虹膜图像与数据库中的虹膜图像进行匹配;
若匹配成功,则获取与所述虹膜图像关联的身份信息作为所述用户身份信息。
此外,为实现上述目的,本申请另一方面还提供一种头戴式设备,所述头戴式设备包括:
获取模块,获取当前使用头戴式设备的用户身份信息;
第一确定模块,根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;
第二确定模块,根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;
渲染模块,采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
此外,为实现上述目的,本申请另一方面还提供一种计算机可读存储介质,其上存储有图像渲染程序,所述图像渲染程序被处理器执行时实现如上所述中任一项所述的方法的步骤。
本申请提出了一种头戴式设备的渲染方法,该方法在用户使用头戴式设备时,自动检测用户的身份信息,通过获取该用户的身份信息来获取用户的主视眼信息以及辅视眼信息,进而确定用户在使用头戴式设备观看时主视眼聚焦区域以及辅视眼聚焦区域,安排不同的资源配置对该用户的主视眼聚焦区域以及辅视眼聚焦区域进行渲染。通过上述方式,硬件资源将合理地分配到需要重点渲染的区域,达到了提高渲染主视眼聚焦区域以及辅视眼聚焦区域的流畅性的效果,改善图像模糊、卡顿的情况,提高用户观看体验。
附图说明
图1为本申请实施例方案涉及的装置的结构示意图;
图2为本申请头戴式设备的渲染方法一实施例的流程示意图;
图3为本申请头戴式设备的渲染方法主视眼聚焦区域以及辅视眼聚焦区域的示意图;
图4为本申请头戴式设备的渲染方法另一实施例流程示意图;
图5为本申请头戴式设备的渲染方法的又一实施例的流程示意图;
图6为本申请头戴式设备的渲染方法另一实施例的流程示意图;
图7为本申请头戴式设备的渲染方法模块示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例的主要解决方案是:获取当前使用头戴式设备的用户身份信息;根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
由于现有技术在对头戴式设备显示区域进行渲染时,采用的硬件资源分配非常简单,使用这种固定的渲染方式对显示区域进行统一渲染不适合用户的用眼需求,且需要耗费大量的硬件资源;或者在硬件资源不足时,在渲染过程中可能会导致播放图像产生卡顿等现象,降低用户的观看体验感。
本申请提供上述的解决方案,旨在提高硬件设备在对显示区域进行渲染时资源分配的合理性。
本申请实施例提出了一种头戴式设备,该头戴式设备包括显示部、支撑部以及控制电路。所述显示部用于显示图像信息,支撑部用于用户在使用该设备时、能够支撑所述设备以将将所述显示部位于用户视力范围内,所述控制电路用于控制头戴式设备进行渲染等控制操作。
在本申请实施例中,如图1所示,图1是本申请实施例方案涉及的设备的硬件运行环境的终端结构示意图。
如图1所示,该终端可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
可选地,终端还可以包括摄像头、指纹识别器、声纹识别器、虹膜识别器等等。当然,所述终端还可配置陀螺仪、气压计、湿度计、温度传感器等其他传感器,在此不再赘述。
本领域技术人员可以理解,图1中示出的终端结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及头戴式设备的渲染程序。
本申请还提供一种头戴式设备的渲染方法。
参照图2,提出本申请头戴式设备的渲染方法的一实施例。在本实施中,所述头戴式设备的渲染方法包括:
步骤S10,获取当前使用头戴式设备的用户身份信息;
当头戴式设备开启时,控制启动头戴式设备的摄像头装置,采集用户的脸部信息,具体的可以通过拍摄照片的方式获取用户的脸部信息,将用户的脸部信息传送至头戴式设备的数据库区域,将所述用户脸部信息与数据库中存储的脸部信息进行对比,进而确定当前使用头戴式设备的用户身份信息。所述用户身份信息为唯一标识当前使用头戴式设备的用户身份的信息。
所述获取当前使用头戴式设备的用户身份信息的步骤,包括:
步骤S11,获取所述用户的双眼虹膜图像;
步骤S12,将所述双眼虹膜图像与数据库中的虹膜图像进行匹配;
步骤S13,若匹配成功,则获取与所述虹膜图像关联的用户身份信息作为所述当前使用头戴式设备的用户身份信息。
本申请一些实施例中,结合头戴式设备的用户佩戴特点可以通过采集用户的双眼虹膜图像进行获取。具体的,可将特定的虹膜获取摄像器位于头戴式设备的显示部一侧,当用户在使用头戴式设备时,则控制虹膜获取摄像器采集用户眼部图像,进而从眼部图像中提取虹膜信息,并将虹膜信息传递到数据库,将所述双眼虹膜图像与数据库中存储的虹膜图像进行匹配,在若匹配成功时,获取与所述虹膜图像关联的用户身份信息作为当前使用头戴式设备的用户身份信息。所述数据库中存储有用户身份信息、并且与所述用户身份信息对应存储的主视眼信息以及辅视眼信息等数据。
可以理解的是,本申请中获取当前使用头戴式设备的用户身份信息的方式还可以通过声纹识别、指纹识别等方式获取,不局限于以上所述的识别方式。
步骤S20,根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;
头戴式设备将获取到的用户身份信息发送至处理器,处理器将其与存储器上的数据库中已保存的用户身份信息进行对比,若数据库中存在用户身份信息与当前用户身份信息匹配,则获取与该身份信息对应存储的主视眼信息以及辅视眼信息。其中,所述主视眼信息以及辅视眼信息为根据用户的用眼习惯而确定。
步骤S30,根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;
当获取到用户的主视眼信息以及辅视眼信息,即可确定显示界面中用户的主视眼聚焦区域以及辅视眼聚焦区域。
在人眼内,视网膜中的感光细胞将入射的光线转换成由视神经传递到大脑的信号,其中视网膜中间是眼睛最锐利的视力中心,且也是大多数颜色的感知位置。由此,当光聚焦在视网膜中间时,其会产生色彩最鲜明的视觉。基于此,用户在使用头戴式设备时,可以将头戴式设备显示区域中落入用户视网膜中间的区域称为聚焦区域,即ROI(region ofinterest)区域,如图3所示。聚焦区域为用户观看的主要区域,应安排比例较大的硬件资源进行渲染,以保证聚焦区域能正常进行渲染工作。所述渲染包括对当前播放的图像颜色、分辨率、像素、光影效果、阴影效果的调整。
其中,头戴式设备显示区域落入用户主视眼的视网膜中间的区域称为主视眼聚焦区域;落入用户辅视眼的视网膜中间的区域称为辅视眼聚焦区域。
具体的,用户在使用头戴式设备观看电影等需要对图像进行渲染的播放信息时,聚焦区域会随着情节的改变而发生变化,对于这种情况可采用眼球追踪技术实时追踪用户视线的变化,及时获取主视眼聚焦区域以及辅视眼聚焦区域,对其分配足够的硬件资源,以达到及时渲染的目的,提高用户的体验感。
步骤S40,采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
头戴式设备的硬件资源计算新的像素并且在显示器上显示这些像素时,需要耗费大量的计算能力和时间。例如当显示器具有500万个像素时,若所显示的每一个像素都要进行渲染,则其在将显示区域进行渲染操作时,处理器等硬件资源会产生较大负担。所述资源配置为通过计算用户主视眼所观察到的测试图像相较于基于双眼观察到的测试图像的缺失比例以及辅视眼的所观察到的测试图像相较于双眼观察到的测试图像的缺失比例计算而得。
在本实施例中,通过获取用户信息,进而确定用户的主视眼信息以及辅视眼信息,再确定用户在观看图像时的主视眼聚焦区域以及辅视眼聚焦区域,根据计算得到对主视眼聚焦区域以及辅视眼聚焦区域进行正常渲染工作时所需要的硬件资源配置,能够根据用户的个人用眼习惯对聚焦区域进行正常的渲染,提高了头戴式设备对图像渲染区域渲染的准确度,且能根据主视眼聚焦区域以及辅视眼聚焦区域对硬件资源进行合理地分配,使渲染更流畅。
参照图4,图4为本申请的另一实施例,所述采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域的步骤,包括:
步骤S41,获取第一缺失比例以及第二缺失比例;
步骤S42,根据所述第一缺失比例以及所述第二缺失比例采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
所述第一缺失比例为用户使用右眼观看测试图像时相较于使用双眼观看测试图像的缺失比例,所述第二缺失比例为用户使用左眼观看测试图像相较于使用双眼观看图像的缺失比例。根据所述第一缺失比例以及第二缺失比例确定渲染头戴式设备的显示区域的主视眼聚焦区域以及辅视眼聚焦区域的资源配置。
其中,所述根据所述第一缺失比例以及所述第二缺失比例采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域的步骤,包括:
步骤S421,根据所述第一缺失比例以及所述第二缺失比例,计算得到第一资源配置比例以及第二资源配置比例;
步骤S422,根据所述第一资源配置比例渲染所述主视眼聚焦区域,根据所述第二资源配置比例渲染所述辅视眼聚焦区域。
在本实施例中通过获取用户身份信息后,进而得到与所述用户身份信息关联的主视眼信息以及辅视眼信息、第一缺失比例、第二缺失比例。其中,根据所述主视眼信息以及辅视眼信息确定用户在使用所述头戴式设备的主视眼聚焦区域以及辅视眼聚焦区域,根据所述第一缺失比例以及所述第二缺失比例得到主视眼聚焦区域的第一资源配置比例以及辅视眼聚焦区域的第二资源配置比例。
具体的,通过所述测试操作确定用户使用右眼观看所述测试图像的缺失比例相较于双眼观看所述测试图像的缺失比例为第一缺失比例;用户使用左眼观看所述测试图像的缺失比例相较于双眼观看所述测试图像的缺失比例为第二缺失比例。比较所述第一缺失比例以及所述第二缺失比例的大小,记主视眼的缺失比例(较小的缺失比例)为α、辅视眼的缺失比例(较大的缺失比例)为β。则在GPU资源配置为M时,第一资源配置比例(主视眼聚焦区域的资源配置比例)为:γ1=1–[(α(α/+β))],则主视眼聚焦区域的资源配置为M1,其计算公式为M1=γ1*M;第二资源配置比例(辅视眼聚焦区域资源配置比例)为:γ2=1–[(β(β/+β))],辅视眼聚焦区域的资源配置为M2,其计算公式为M2=γ2*M。
例如,当第一缺失比例为1/5,第二缺失比例为1/4时,可确定用户的主视眼为右眼,辅视眼为左眼,α为1/5,β为1/4,在分配GPU资源为M时,根据上述资源配置比例的计算公式可得知主视眼聚焦区域所需要的资源配置(第一资源配置)为5/9*M;辅视眼聚焦区域所需要的资源配置(第二资源配置)为4/9*M。根据所述资源配置分配硬件资源分别渲染主视眼聚焦区域以及辅视眼聚焦区域,以保证渲染区域在进行渲染时的流畅性,不影响用户观看。
参照图5,图5是本申请的又一实施例,所述根据所述用户身份信息确定当前使用头戴式设备用户的主视眼信息以及辅视眼信息的步骤,包括:
步骤S21,判断数据库是否存在所述用户身份信息,所述数据库存储的数据信息包括若干预存用户身份信息及与所述预存用户身份信息关联的主视眼信息以及辅视眼信息;
步骤S22,若存在,则获取所述数据库中与所述用户身份信息对应的主视眼信息以及辅视眼信息;
步骤S23,若不存在,则向服务器发送获取所述用户身份信息对应的主视眼信息以及辅视眼信息的消息,根据返回的信息中确定所述用户的主视眼信息以及辅视眼信息。
通过将当前使用头戴式设备的用户身份信息与数据库中预存的用户身份信息进行对比,判断头戴式设备本地数据库是否存在所述用户身份信息,若存在,则根据用户身份信息获取其对应的主视眼信息以及辅视眼信息,进而确定用户观看头戴式设备显示区域中的主视眼聚焦区域以及辅视眼聚焦区域,合理安排资源配置对主视眼聚焦区域和辅视眼聚焦区域进行渲染操作。所述主视眼聚焦区域以及辅视眼聚焦区域为当前头戴式设备所显示区域的一部分。
所述根据返回的信息中确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
步骤S231,若返回的信息中存在主视眼信息以及辅视眼信息,则从返回的信息中确定所述用户的主视眼信息以及辅视眼信息;
步骤S232,若返回的信息中不存在主视眼信息及辅视眼信息,则执行主视眼以及辅视眼的测试操作,依据测试操作结果确定所述用户的主视眼信息以及辅视眼信息。
当头戴式设备的数据库中不存在所述用户信息时,可以将当前使用头戴式设备的用户信息发送至服务器端,访问服务器端是否存在所述用户对应的用户身份信息。所述服务器端连接多个头戴式设备。用户可以将头戴式设备的数据存储至服务器端,以供当前使用的头戴式设备所存储的数据清空时或用户使用其它头戴式设备时,可以通过登录用户个人中心的方式访问头戴式设备的服务器(也可设置头戴式设备自动进行访问),下载对应的个人数据信息至头戴式设备。
在本实施例中,当头戴式设备本地数据库中不存在当前使用头戴式设备的用户身份信息时,可将获取的用户信息发送至服务器,查看是否存在所述用户身份信息,方便获取用户身份信息以及对应存储的主视眼信息和辅视眼信息。
参照图6,图6为本申请的另一实施例,所述执行主视眼以及辅视眼的测试操作,依据测试操作结果确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
步骤S2321,将用于执行所述测试操作的测试图像显示于所述头戴式设备的显示界面;
步骤S2322,依次缩小所述测试图像直至所述用户看到所述测试图像的外边缘;
步骤S2323,获取所述用户右眼观看所述测试图像相较于双眼观看所述测试图像的缺失比例,记为第一缺失比例,以及获取所述用户左眼观看所述测试图像相较于双眼观看所述测试图像的缺失比例,记为第二缺失比例;
步骤S2324,根据所述第一缺失比例以及所述第二缺失比例确定当前用户的主视眼信息以及辅视眼信息。
若头戴式设备连接的服务器端不存在当前使用头戴式设备的用户身份信息,则认为当前用户为第一次使用所述头戴式设备,需要对当前用户进行主视眼信息以及辅视眼信息的确定测试,其测试过程为,首先启动头戴式设备的摄像头或虹膜装置采集进行测试的用户身份信息,然后在所述头戴式设备的显示界面中插入用于测试操作的测试图像,依次缩小所述测试图像直至用户双眼同时看到所述测试图像外边缘,在此过程中可控制头戴式设备发出语音提示用户以确定是否停止缩小所述显示测试图像。若接收到用户的确认信息(可以通过语音识别的方式)则提示用户闭上左眼,通过语音的方式获取用户使用右眼观察所述图像相较于使用双眼观看测试图像时的缺失比例,记录为第一缺失比例;进一步地获取用户闭上右眼,使用左眼观察所述测试图像相较于使用双眼观看图像的缺失比例,记录为第二缺失比例,将所述缺失比例信息与用户身份信息对应存储。
所述测试图像可为在头戴式设备LCD屏幕中间加的一个品牌logo图像。首先打开四个外部摄像头采集外部的图像,并显示在头戴式设备的LCD屏幕上,然后在LCD屏幕中间加一个品牌logo图像,逐渐缩小LCD屏幕显示的区域,发送语音提示,提示用户保持双眼同时睁开。在LCD屏幕中只能看到logo图像,其它区域为黑色遮挡区时,语音提示用户睁开左眼并闭上右眼观察logo图像,然后睁开右眼并闭上左眼观察logo图像,分别记录用户使用右眼观看logo图像相较于使用双眼观看logo图像的缺失比例,称为第一缺失比例;使用左眼观看所述logo图像的缺失比例称为第二缺失比例。通过比较第一缺失比例与第二缺失比例之间的大小以准确地获取用户的主视眼信息以及辅视眼信息。
所述根据所述缺失比例确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
步骤S2325,若所述第一缺失比例小于所述第二缺失比例,则确定所述当前用户的右眼为主视眼,左眼为辅视眼;
步骤S2326,若所述第一缺失比例大于所述第二缺失比例,则确定所述当前用户的左眼为主视眼,右眼为辅视眼;
步骤S2327,若所述第一缺失比例等于所述第二缺失比例,则确定所述当前用户的左眼和右眼都为主视眼。
当接收到用户输入的第一缺失比例以及第二缺失比例的信息后,处理器通过比较,进而判断第一缺失比例和第二缺失比例的大小,当第一缺失比例小于所述第二缺失比例,确定用户的右眼为主视眼,左眼为辅视眼;当第一缺失比例大于所述第二缺失比例,确定用户的左眼为主视眼,右眼为辅视眼;当第一缺失比例等于所述第二缺失比例,确定用户的左右眼都为主视眼。
在本实施例中,通过确定当前使用头戴式设备的用户身份信息,并获取其主视眼信息以及辅视眼信息,进而根据所述主视眼信息以及所述辅视眼信息确定所述用户在使用头戴式设备时的主视眼聚焦区域以及辅视眼聚焦区域,进而分配资源进行渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。实现根据用户的用眼习惯渲染主视眼聚焦区域以及辅视眼聚焦区域。能够使渲染的区域符合用户的用眼需求,观看头戴式设备显示区域的图像更立体、清晰。
此外,本申请还提供了一种头戴式设备,所述头戴式设备包括:
获取模块,获取当前使用头戴式设备的用户身份信息;
第一确定模块,根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;
第二确定模块,根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;
渲染模块,采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
此外,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有头戴式设备的渲染程序,所述头戴式设备的渲染程序被处理器执行时实现上述所述的头戴式设备的渲染方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本申请可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本申请的可选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括可选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种头戴式设备的渲染方法,其特征在于,所述方法包括:
获取当前使用头戴式设备的用户身份信息;
根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;
根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;
采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
2.如权利要求1所述的头戴式设备的渲染方法,其特征在于,所述采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域的步骤,包括:
获取第一缺失比例以及第二缺失比例;
根据所述第一缺失比例以及所述第二缺失比例采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
3.如权利要求2中所述的头戴式设备的渲染方法,其特征在于,所述根据所述第一缺失比例以及所述第二缺失比例采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域的步骤,包括:
根据所述第一缺失比例以及所述第二缺失比例,计算得到第一资源配置比例以及第二资源配置比例;
根据所述第一资源配置比例渲染所述主视眼聚焦区域,根据所述第二资源配置比例渲染所述辅视眼聚焦区域。
4.如权利要求1所述的头戴式设备的渲染方法,其特征在于,所述根据所述用户身份信息确定当前使用头戴式设备用户的主视眼信息以及辅视眼信息的步骤,包括:
判断数据库是否存在所述用户身份信息,所述数据库存储的数据信息包括若干预存用户身份信息及与所述预存用户身份信息关联的主视眼信息以及辅视眼信息;
若存在,则获取所述数据库中与所述用户身份信息对应的主视眼信息以及辅视眼信息;
若不存在,则向服务器发送获取所述用户身份信息对应的主视眼信息以及辅视眼信息的消息,根据返回的信息中确定所述用户的主视眼信息以及辅视眼信息。
5.如权利要求4所述的头戴式设备的渲染方法,其特征在于,所述根据返回的信息中确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
若返回的信息中存在主视眼信息以及辅视眼信息,则从返回的信息中确定所述用户的主视眼信息以及辅视眼信息;
若返回的信息中不存在主视眼信息及辅视眼信息,则执行主视眼以及辅视眼的测试操作,依据测试操作结果确定所述用户的主视眼信息以及辅视眼信息。
6.如权利要求5所述的头戴式设备的渲染方法,其特征在于,所述执行主视眼以及辅视眼的测试操作,依据测试操作结果确定所述用户的主视眼信息以及辅视眼信息的步骤,包括:
将用于执行所述测试操作的测试图像显示于所述头戴式设备的显示界面;
依次缩小所述测试图像直至所述用户看到所述测试图像的外边缘;
获取所述用户右眼观看所述测试图像相较于双眼观看所述测试图像的缺失比例,记为第一缺失比例,以及获取所述用户左眼观看所述测试图像相较于双眼观看所述测试图像的缺失比例,记为第二缺失比例;
根据所述第一缺失比例以及所述第二缺失比例确定当前用户的主视眼信息以及辅视眼信息。
7.如权利要求6所述的头戴式设备的渲染方法,其特征在于,所述根据所述第一缺失比例以及所述第二缺失比例确定当前用户的主视眼信息以及辅视眼信息的步骤,包括:
若所述第一缺失比例小于所述第二缺失比例,则确定所述当前用户的右眼为主视眼,左眼为辅视眼;
若所述第一缺失比例大于所述第二缺失比例,则确定所述当前用户的左眼为主视眼,右眼为辅视眼;
若所述第一缺失比例等于所述第二缺失比例,则确定所述当前用户的左眼和右眼都为主视眼。
8.如权利要求1所述的头戴式设备的渲染方法,其特征在于,所述获取当前使用头戴式设备的用户身份信息的步骤,包括:
获取所述用户的双眼虹膜图像;
将所述双眼虹膜图像与数据库中的虹膜图像进行匹配;
若匹配成功,则获取与所述虹膜图像关联的用户身份信息作为所述当前使用头戴式设备的用户身份信息。
9.一种头戴式设备,其特征在于,所述头戴式设备包括:
获取模块,获取当前使用头戴式设备的用户身份信息;
第一确定模块,根据所述用户身份信息确定当前用户的主视眼信息以及辅视眼信息;
第二确定模块,根据所述当前用户的主视眼信息以及辅视眼信息确定所述用户的主视眼聚焦区域以及辅视眼聚焦区域;
渲染模块,采用不同的资源配置渲染所述主视眼聚焦区域以及所述辅视眼聚焦区域。
10.一种计算机可读存储介质,其特征在于,其上存储有图像渲染程序,所述图像渲染程序被处理器执行时实现权利要求1至8中任一项所述的头戴式设备的渲染方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010660813.9A CN111857336B (zh) | 2020-07-10 | 2020-07-10 | 头戴式设备及其渲染方法、存储介质 |
PCT/CN2020/123467 WO2022007247A1 (zh) | 2020-07-10 | 2020-10-24 | 头戴式设备及其渲染方法、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010660813.9A CN111857336B (zh) | 2020-07-10 | 2020-07-10 | 头戴式设备及其渲染方法、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111857336A true CN111857336A (zh) | 2020-10-30 |
CN111857336B CN111857336B (zh) | 2022-03-25 |
Family
ID=73153583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010660813.9A Active CN111857336B (zh) | 2020-07-10 | 2020-07-10 | 头戴式设备及其渲染方法、存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111857336B (zh) |
WO (1) | WO2022007247A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114578940A (zh) * | 2020-11-30 | 2022-06-03 | 华为技术有限公司 | 一种控制方法、装置和电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012082971A1 (en) * | 2010-12-16 | 2012-06-21 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
CN105026981A (zh) * | 2013-03-15 | 2015-11-04 | 高通股份有限公司 | 用于在头戴式显示器上显示图像的方法和设备 |
CN106537227A (zh) * | 2014-07-31 | 2017-03-22 | 精工爱普生株式会社 | 显示装置、用于显示装置的控制方法以及程序 |
CN107315470A (zh) * | 2017-05-25 | 2017-11-03 | 腾讯科技(深圳)有限公司 | 图形处理方法、处理器和虚拟现实系统 |
US20180081429A1 (en) * | 2016-09-16 | 2018-03-22 | Tomas G. Akenine-Moller | Virtual reality/augmented reality apparatus and method |
US20180335835A1 (en) * | 2017-05-18 | 2018-11-22 | Spy Eye, Llc | Gaze Calibration Via Motion Detection for Eye-mounted Displays |
CN109154725A (zh) * | 2016-08-12 | 2019-01-04 | 李晟准 | 用于老花眼的隐形眼镜 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150042553A1 (en) * | 2013-08-09 | 2015-02-12 | Nvidia Corporation | Dynamic gpu feature adjustment based on user-observed screen area |
CN207654139U (zh) * | 2017-05-16 | 2018-07-27 | 杨铭轲 | 检测、抑制单眼弃用的终端 |
CN109766011A (zh) * | 2019-01-16 | 2019-05-17 | 北京七鑫易维信息技术有限公司 | 一种图像渲染方法和装置 |
CN111314687B (zh) * | 2019-11-28 | 2021-06-25 | 歌尔光学科技有限公司 | 一种vr影像处理方法、装置、vr眼镜及可读存储介质 |
CN110830783B (zh) * | 2019-11-28 | 2021-06-01 | 歌尔光学科技有限公司 | 一种vr影像处理方法、装置、vr眼镜及可读存储介质 |
-
2020
- 2020-07-10 CN CN202010660813.9A patent/CN111857336B/zh active Active
- 2020-10-24 WO PCT/CN2020/123467 patent/WO2022007247A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012082971A1 (en) * | 2010-12-16 | 2012-06-21 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
CN105026981A (zh) * | 2013-03-15 | 2015-11-04 | 高通股份有限公司 | 用于在头戴式显示器上显示图像的方法和设备 |
CN106537227A (zh) * | 2014-07-31 | 2017-03-22 | 精工爱普生株式会社 | 显示装置、用于显示装置的控制方法以及程序 |
CN109154725A (zh) * | 2016-08-12 | 2019-01-04 | 李晟准 | 用于老花眼的隐形眼镜 |
US20180081429A1 (en) * | 2016-09-16 | 2018-03-22 | Tomas G. Akenine-Moller | Virtual reality/augmented reality apparatus and method |
US20180335835A1 (en) * | 2017-05-18 | 2018-11-22 | Spy Eye, Llc | Gaze Calibration Via Motion Detection for Eye-mounted Displays |
CN107315470A (zh) * | 2017-05-25 | 2017-11-03 | 腾讯科技(深圳)有限公司 | 图形处理方法、处理器和虚拟现实系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114578940A (zh) * | 2020-11-30 | 2022-06-03 | 华为技术有限公司 | 一种控制方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022007247A1 (zh) | 2022-01-13 |
CN111857336B (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9720238B2 (en) | Method and apparatus for a dynamic “region of interest” in a display system | |
CN103201787B (zh) | 信息显示装置 | |
CN104899489A (zh) | 信息处理装置、信息处理方法、眼镜终端和认证系统 | |
US11232602B2 (en) | Image processing method and computing device for augmented reality device, augmented reality system, augmented reality device as well as computer-readable storage medium | |
Lambooij et al. | The impact of video characteristics and subtitles on visual comfort of 3D TV | |
CN109901290B (zh) | 注视区域的确定方法、装置及可穿戴设备 | |
JP2012108379A (ja) | 情報表示システム、装置、方法及びプログラム | |
CN113467619A (zh) | 画面显示方法、装置和存储介质及电子设备 | |
Ahn et al. | Real-time adjustment of contrast saliency for improved information visibility in mobile augmented reality | |
Li et al. | Enhancing 3d applications using stereoscopic 3d and motion parallax | |
CN208013970U (zh) | 一种生物特征识别系统 | |
CN110852196B (zh) | 人脸识别信息展示方法及装置 | |
CN111857336B (zh) | 头戴式设备及其渲染方法、存储介质 | |
CN111127367A (zh) | 人脸图像处理的方法、装置及系统 | |
US11521297B2 (en) | Method and device for presenting AR information based on video communication technology | |
US9046921B2 (en) | Display apparatus and control method thereof | |
Albarelli et al. | On the interplay between data overlay and real-world context using see-through displays | |
CN106095375B (zh) | 显示控制方法和装置 | |
Barkowsky et al. | Is visual fatigue changing the perceived depth accuracy on an autostereoscopic display? | |
WO2018061299A1 (ja) | 情報処理装置および情報処理方法 | |
CN113938597B (zh) | 一种脸部识别方法、装置、计算机设备和存储介质 | |
CN113726981B (zh) | 图像数据处理方法、电子设备及存储介质 | |
CN115756285A (zh) | 屏幕显示亮度调整方法及装置、存储介质及电子设备 | |
CN109683707A (zh) | 一种使ar眼镜投影颜色自适应的方法及系统 | |
Hamilton-Fletcher et al. | Accuracy and Usability of Smartphone-Based Distance Estimation Approaches for Visual Assistive Technology Development |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |