CN115914603A - 图像渲染方法、头戴显示设备和可读存储介质 - Google Patents
图像渲染方法、头戴显示设备和可读存储介质 Download PDFInfo
- Publication number
- CN115914603A CN115914603A CN202211461816.5A CN202211461816A CN115914603A CN 115914603 A CN115914603 A CN 115914603A CN 202211461816 A CN202211461816 A CN 202211461816A CN 115914603 A CN115914603 A CN 115914603A
- Authority
- CN
- China
- Prior art keywords
- image
- predicted
- field environment
- user
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000012545 processing Methods 0.000 claims abstract description 44
- 230000033001 locomotion Effects 0.000 claims abstract description 31
- 210000005252 bulbus oculi Anatomy 0.000 claims description 97
- 210000003128 head Anatomy 0.000 claims description 66
- 230000000007 visual effect Effects 0.000 claims description 53
- 210000001508 eye Anatomy 0.000 claims description 48
- 238000013507 mapping Methods 0.000 claims description 26
- 210000001747 pupil Anatomy 0.000 claims description 26
- 230000004886 head movement Effects 0.000 claims description 21
- 230000009467 reduction Effects 0.000 claims description 8
- 238000003708 edge detection Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 21
- 208000002173 dizziness Diseases 0.000 abstract description 7
- 230000003190 augmentative effect Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 16
- 238000004590 computer program Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000002699 waste material Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000003183 myoelectrical effect Effects 0.000 description 4
- 208000012886 Vertigo Diseases 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 231100000889 vertigo Toxicity 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种图像渲染方法、头戴显示设备和可读存储介质,所述图像渲染方法包括:获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像;执行渲染线程以对预测视场环境图像进行渲染;若在下一时钟周期到达前的预设时间节点,预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像;显示所述过渡视场环境图像,直至预测视场环境图像渲染完成,显示渲染后的预测视场环境图像。本申请能降低对图像进行渲染的过程中易出现时间延迟而造成的眩晕感。
Description
技术领域
本申请涉及可穿戴设备技术领域,尤其涉及一种图像渲染方法、头戴显示设备和可读存储介质。
背景技术
扩展现实技术(XR,Extended Reality)作为一种新兴的技术,正在逐渐进入人们的视野,并且在各行各业中得到应用和普及。其中,扩展现实技术具体包含虚拟现实技术(VR,Virtual Reality)、增强现实技术(AR,Augmented Reality)、混合现实技术(MR,MixedReality)等。
随着扩展现实技术的发展,分辨率和刷新率进一步提升,意味着传输图像时,每帧输出的信号量就越大,对传输带宽的要求就越高,系统的渲染能力和系统端到显示端的传输能力受到很大挑战。目前,面对超高分辨率的扩展现实应用图像通过图像渲染技术,将渲染的虚拟图像刷新到显示设备,用户通过头戴显示设备体验到虚拟现实/增强现实的效果。由于渲染过程需要时间,就会造成实际和感知之间的时间延迟。例如,在渲染过程中,用户头部或用户佩戴的头戴设备可能会移动,导致用户头部的姿态信息与头戴设备输出的图像数据之间存在一定时间延迟,如果时间延迟过大,会造成眩晕感。
发明内容
本申请的主要目的在于提供一种图像渲染方法、头戴显示设备和可读存储介质,旨在解决扩展现实设备对图像进行渲染的过程中易出时间延迟,而造成眩晕感的技术问题。
为实现上述目的,本申请提供一种图像渲染方法,所述图像渲染方法应用于头戴显示设备,所述方法包括:
所述图像渲染方法应用于头戴显示设备,所述方法包括:
获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据所述头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像;
执行渲染线程以对所述预测视场环境图像进行渲染;
若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对所述当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像;
显示所述过渡视场环境图像,直至所述预测视场环境图像渲染完成,显示渲染后的预测视场环境图像。
可选地,所述执行渲染线程以对所述预测视场环境图像进行渲染的步骤之后,还包括:
若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像已渲染完成,则显示渲染后的预测视场环境图像。
可选地,所述执行渲染线程以对所述预测视场环境图像进行渲染的步骤包括:
根据所述头部运动姿态信息确定所述用户的意图观测视角,对所述预测视场环境图中所述意图观测视角内的图像以第一渲染分辨率进行渲染,将所述第一渲染分辨率进行渲染质量降低处理,得到第二渲染分辨率,并对所述预测视场环境图像中所述意图观测视角外的图像以第二渲染分辨率进行渲染。
可选地,所述根据所述头部运动姿态信息确定所述用户的意图观测视角的步骤包括:
根据所述头部运动姿态信息确定用户的头部转向趋势;
检测用户在所述预测视场环境图像的预测眼球观测点,根据所述预测眼球观测点和所述头部转向趋势,确定用户的意图观测视角。
可选地,所述根据所述预测眼球观测点和所述头部转向趋势,确定用户的意图观测视角的步骤包括:
根据所述预测眼球观测点确定预测注视方向;
从预设的观测视角映射表中,查询得到所述预测注视方向和所述头部转向趋势映射的观测视角,并将映射的观测视角,作为用户的意图观测视角。
可选地,所述检测用户在所述预测视场环境图像的预测眼球观测点的步骤包括:
采集用户的当前眼球图像,确定与所述当前眼球图像匹配度最高的眼球模型,将匹配度最高的眼球模型作为当前实际眼球模型;
从预设的眼球模型映射数据库中,查询得到所述当前实际眼球模型映射的眼球观测点,将映射的眼球观测点作为用户在所述预测视场环境图像的预测眼球观测点。
可选地,所述检测用户在所述预测视场环境图像的预测眼球观测点的步骤,还包括:
采集用户的当前眼球图像,对所述当前眼球图像进行灰度化处理;
根据灰度化处理后的当前眼球图像确定瞳孔区域图像,并将所述瞳孔区域图像进行二值化处理;
将二值化处理后的瞳孔区域图像进行边缘检测,检测得到瞳孔边缘点,并将所述瞳孔边缘点进行椭圆拟合,拟合得到当前瞳孔中心;
从预先标定的瞳孔中心映射数据表中,查询得到所述当前瞳孔中心映射的预测眼球观测点;
将映射的预测眼球观测点,作为用户在所述预测视场环境图像的预测眼球观测点。
可选地,所述根据所述头部运动姿态信息确定所述用户的意图观测视角的步骤之后还包括:
对所述预测视场环境图像中所述意图观测视角内的图像以第一区域背光亮度进行亮度显示控制;
将所述第一区域背光亮度进行亮度降低处理,得到第二区域背光亮度;
对所述预测视场环境图像中所述意图观测视角外的图像以第二区域背光亮度进行亮度显示控制。
本申请还提供一种头戴显示设备,所述头戴显示设备为实体设备,所述头戴显示设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述图像渲染方法的程序,所述图像渲染方法的程序被处理器执行时可实现如上述的图像渲染方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质为计算机可读存储介质,所述计算机可读存储介质上存储有实现图像渲染方法的程序,所述实现图像渲染方法的程序被处理器执行以实现如上述图像渲染方法的步骤。
本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的图像渲染方法的步骤。
本申请的技术方案是通过获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据该头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像,再执行渲染线程以对所述预测视场环境图像进行渲染,若在下一时钟周期到达前的预设时间节点,预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对所述当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像,显示该过渡视场环境图像,直至所述预测视场环境图像渲染完成,显示渲染后的预测视场环境图像,从而通过位置信息预测与异步时间扭曲技术地结合,虚拟出补偿帧(即过渡视场环境图像)并显示,可以使得图像帧帧率得以提高,可以减少从获取并渲染得到图像帧的这一过程的某个阶段的延迟,可以降低显示图象帧的延迟,有效防止由于当前帧未渲染完成出现画面抖动的现象,进而解决了扩展现实设备对图像进行渲染的过程中易出现时间延迟,而造成眩晕感的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请图像渲染方法第一实施例的流程示意图;
图2为本申请图像渲染方法第二实施例的流程示意图;
图3为本申请实施例中从当前视场环境图像至预测视场环境图像的示意图;
图4为本申请实施例执行异步时间扭曲处理机制的示意图;
图5为本申请一实施例中用户佩戴头戴显示设备的头部姿态信息的示意图;
图6为本申请一实施例中识别用户的意图观测视角的场景示意图;
图7为本申请一实施例中表示用户的预测注视方向的示意图;
图8为本申请实施例中头戴显示设备涉及的硬件运行环境的设备结构示意图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其它实施例,均属于本发明保护的范围。
在本实施例中,本申请的头戴显示设备可以是例如混合现实(Mixed Reality)—MR设备(例如MR眼镜或MR头盔)、增强现实(Augmented Reality)—AR设备(例如AR眼镜或AR头盔)、虚拟现实-(Virtual Reality)—VR设备(例如VR眼镜或VR头盔)、扩展现实(Extended Reality)—XR设备(例如XR眼镜或XR头盔)或其某种组合。
实施例一
目前,面对超高分辨率的扩展现实应用图像通过图像渲染技术,将渲染的虚拟图像刷新到显示设备,用户通过头戴显示设备体验到虚拟现实/增强现实的效果。由于渲染过程需要时间,就会造成实际和感知之间的时间延迟。例如,在渲染过程中,用户头部或用户佩戴的头戴设备可能会移动,导致用户头部的姿态信息与头戴设备输出的图像数据之间存在一定时间延迟。如果时间延迟过大,会造成眩晕感。
基于此,请参照图1,图1为本申请图像渲染方法第一实施例的流程示意图,在本实施例中,所述图像渲染方法应用于头戴显示设备,所述方法包括:
步骤S10,获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据所述头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像;
在本实施例中,头部运动姿态信息可包括头部的位移值和角度变化值,其中,该角度变化值可包括基于X轴进行旋转的俯仰角(pitch)、基于Y轴进行旋转偏航角(yaw),以及基于Z轴进行旋转的翻滚角(roll)的角度变化值,可参照图5。
在一实施例中,可通过头戴显示设备自身搭载的惯性传感器和/或摄像头来动态检测用户的头部运动姿态信息。在另一实施例中,可通过与头戴显示设备通信连接的其他设备实时将用户的头部运动姿态信息发送至头戴显示设备,完成对该头部运动姿态信息的动态检测。例如安装在头戴显示设备所应用的活动场所的摄像头对头戴显示设备(或者说用户的头部)进行追踪定位,得到用户的头部运动姿态信息,并将该头部运动姿态信息实时发送至头戴显示设备,从而使头戴显示设备实时获取动态检测的该头部运动姿态信息。
可知的是,用户对于不同的意图观测视角,往往会进行不同的头部运动姿态,例如用户向右转头,往往代表用户希望看到右侧的画面,用户向左转头,往往代表用户希望看到左侧的画面。
容易理解的是,在当前头部姿态下用户能看到的最大范围的XR内容图像(即当前视场环境图像)中,并不是所有区域的图像均是用户关注的区域,其存在用户眼睛关注的区域,以及用户眼睛没有关注的区域。容易理解的是,一般情况下,与头部运动姿态对应运动趋势所匹配的区域,往往代表是用户意图观测的区域(用户希望看到右侧的画面,往往会向右转头),与头部运动姿态对应运动趋势不匹配的区域,往往代表是用户非意图观测的区域,如果发现用户没有观看左侧,那么camera图像处理的:影像坏点修补、噪声消除,颜色插值这些工作没有意义,因此需要根据头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像,也即计算确定未来上屏的时候ATW将预测向右偏移多少△t,如图3所示。
因此本实施例通过检测用户的头部运动姿态信息,从而基于头部运动姿态信息,确定出当前视场环境图像中与头部运动姿态对应运动趋势所匹配的区域为眼睛关注的区域(即意图观测视角对应的区域),当前视场环境图像中与头部运动姿态对应运动趋势不匹配的区域为眼睛不关注的区域(即非意图观测视角对应的区域)。
步骤S20,执行渲染线程以对所述预测视场环境图像进行渲染;
步骤S30,若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对所述当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像;
需要说明的是,当前视场环境图像是指在当前头部姿态下,最近一次渲染完成的用户能看到的最大范围的XR内容图像。其中,该当前头部姿态可包括当前头部的空间位置和角度,其中,该角度可包括基于X轴进行旋转的俯仰角(pitch)、基于Y轴进行旋转的偏航角(yaw),以及基于Z轴进行旋转的翻滚角(roll),如图5所示。
步骤S40,显示所述过渡视场环境图像,直至所述预测视场环境图像渲染完成,显示渲染后的预测视场环境图像。
示例性地,所述步骤S20,执行渲染线程以对所述预测视场环境图像进行渲染的步骤之后,还包括:
步骤A10,若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像已渲染完成,则显示渲染后的预测视场环境图像。
在本实施例中,为了减小显示场景中渲染图像延迟,部分虚拟现实设备采用了时间扭曲(Timewarp,TW)技术。时间扭曲技术是一种对图像帧进行修正的技术,其基于渲染之后用户动作的改变,通过扭曲(或校正)渲染之后的场景数据来解决场景渲染延迟问题。由于在进行时间扭曲处理的时刻更接近显示时刻,则经过时间扭曲处理得到新的显示图像更接近于用户希望看到的图像。同时,由于时间扭曲技术仅是对二维图像进行处理,其类似于图像处理中的仿射变换,其不会带来过大的系统工作量开销。通常,时间扭曲处理和渲染处理都是在同一个线程中,导致了该线程的处理时间过长,影响了对于图像延迟问题的解决。
为此,本申请的实施例提出了一种改进的图像渲染方法,该图像渲染方法使用了异步时间扭曲(Asynchronous Timewarp,ATW),其利用异步时间扭曲技术对图像延迟问题进行了进一步的优化。具体地,异步时间扭曲技术可以进一步优化上述的时间扭曲技术,其将渲染和时间扭曲分别安排在两个不同的线程中,以使得渲染步骤和时间扭曲步骤可以异步执行,从而减少渲染和时间扭曲处理的整体运行时间。例如,在虚拟现实应用不能保持足够的帧率的时候,异步时间扭曲线程会根据当前的用户姿态,对之前的渲染后的场景数据再进行处理,以产生符合当前的用户姿态的帧画面(中间帧),从而减少画面的抖动,以更好地降低延迟。
需要说明的是,在理想情况下,渲染引擎发送内容显示给用户之前,使用的是预先测量的实时头部姿势信息(如方向信息和位置信息)。但是,在现实情况下,由于渲染过程需要时间,就会造成实际和感知之间的时间延迟,此时,用户所看到的画面就会发生抖动,也即设备无法同步渲染出与头部动作相应的画面,而当画面产生抖动时,人自然而然就会有眩晕感产生。而本实施例通过获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据该头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像,再执行渲染线程以对所述预测视场环境图像进行渲染,若在下一时钟周期到达前的预设时间节点,预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对所述当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像,显示该过渡视场环境图像,直至所述预测视场环境图像渲染完成,显示渲染后的预测视场环境图像,从而通过位置信息预测与异步时间扭曲技术地结合,虚拟出补偿帧(即过渡视场环境图像)并显示,可以使得图像帧帧率得以提高,可以减少从获取到渲染得到图像帧的这一过程的某个阶段的延迟,可以降低显示图象帧的延迟,有效防止由于当前帧未渲染完成出现画面抖动的现象,进而解决了扩展现实设备对图像进行渲染的过程中易出现时间延迟,而造成眩晕感的技术问题。
进一步,本申请还列举一实例,请参考图4,通常,智能头戴设备在渲染左眼图像和右眼图像时,在前T/2(T是指渲染周期)渲染左眼图像,然后对左眼图像进行异步时间扭曲,同时进行右眼图像渲染,也即,左眼图像的异步时间扭曲和右眼图像的渲染并行,以提高数据处理速度。而当前做法是固定在T/2对左眼图像进行异步时间扭曲,如果T/2时没有做完渲染就用上一帧来代替进行异步时间扭曲处理,如图4中①②所示。但是,如果左眼图像渲染时间超过T/2,则会被废弃,那么超过T/2渲染的左眼图像内容就被浪费了。基于此问题,可以通过多视图渲染功能(MultiView Rendering)对左右眼图像进行渲染,多视图渲染功能可以减少VR应用程序中的复制对象绘制调用的次数,从而允许GPU在一次绘制调用中将对象广播至左眼和右眼,这有助于减少GPU负载,从而减少丢帧数和优化渲染延迟。
进一步地,在一种可能的实施方式中,所述执行渲染线程以对所述预测视场环境图像进行渲染的步骤包括:
根据所述头部运动姿态信息确定所述用户的意图观测视角,对所述预测视场环境图中所述意图观测视角内的图像以第一渲染分辨率进行渲染,将所述第一渲染分辨率进行渲染质量降低处理,得到第二渲染分辨率,并对所述预测视场环境图像中所述意图观测视角外的图像以第二渲染分辨率进行渲染。
在本实施例中,该意图观测视角内的图像为用户观看的主要区域,应安排比例较大的渲染分辨率进行渲染,该渲染分辨率的调整参数包括但不限于对图像颜色、分辨率、像素、光影效果、阴影效果的调整。
其中,本实施例可以先渲染预测视场环境图像中所述意图观测视角内的图像,再渲染预测视场环境图像中意图观测视角外的图像,技术允许的情况下,也可以同时对这两个区域的图像进行渲染。
在研究用户对头戴显示设备中图像的观感体验时发现,对头戴显示设备内当前场景的图像进行渲染的流程通常包括:将渲染当前场景内的图像所需要的三角形、材质贴图等图像数据素材通过CPU(Central Processing Unit,中央处理器)搬移至GPU(GraphicsProcessing Unit,图形处理器),GPU通过渲染管线对图像数据素材进行渲染,得到初始图像,然后运用图像渲染后处理技术对初始图像进行着色等渲染,最后得到能够展示给用户的当前扩展现实场景下的图像。
现有的图像渲染技术,一般是用一个较高的渲染质量对整个目标屏幕显示的图像进行渲染,以满足用户的观看要求,然而,若用户在视场范围的眼睛主要关注区域只能覆盖屏幕的一部分区域,因此现有技术下眼睛主要关注区域外显示的图像也按较高的渲染质量渲染,造成渲染资源的浪费。
随着头戴显示设备的兴起,人们越来越多的使用VR/AR设备类产品,这类增强现实移动终端需要做大量的图像渲染计算,对功耗需求很大,非常影响设备续航,如果能够识别用户并未有效关注某一部分内容,可以降低该部分渲染。例如,如果发现用户没有关注显示屏幕的区域图像A,那么就可以降低对区域图像A的影像坏点修补、噪声消除和颜色插值等图像渲染参数的质量,甚至可以取消对区域图像A的这些渲染效果,从而实现降低该区域图像A的渲染分辨率,进而减少图像加工工作,达到降低功耗的作用。
因此,本实施例的技术方案是通过根据头部运动姿态信息确定用户的意图观测视角,对预测视场环境图中意图观测视角内的图像以第一渲染分辨率进行渲染,将第一渲染分辨率进行渲染质量降低处理,得到第二渲染分辨率,并对预测视场环境图像中意图观测视角外的图像以第二渲染分辨率进行渲染,这就使得眼睛关注的区域内,图像的渲染分辨率高,而眼睛没有关注(周边视野)的区域内,图像的渲染分辨率低,在不影响用户感受,或者在提高用户感受的前提下,节省对图像进行处理的运行资源,实现了对图像更加合理的渲染,避免眼睛注视区域外的图像的渲染质量较高导致的渲染资源的浪费,尽量减少图像渲染过程中存在的冗余渲染,进而降低了扩展现实设备对图像的渲染压力,在满足人眼观看需求的同时,降低高分辨率和高帧速率内容对扩展现实设备渲染能力的要求。
作为一种示例,请参照图2,所述根据所述头部运动姿态信息确定所述用户的意图观测视角的步骤包括:
步骤S51,根据所述头部运动姿态信息确定用户的头部转向趋势;
其中,该头部转向趋势是指头部向左转、向右转、向上转、向下转、向左上转、向左下转、向右上转或向右下转等的转向趋势。
步骤S52,检测用户在所述预测视场环境图像的预测眼球观测点,根据所述预测眼球观测点和所述头部转向趋势,确定用户的意图观测视角。
在本实施例中,可通过头戴显示设备搭载的眼部检测装置采集用户的眼部图像,基于该眼部图像中提取的眼部特征信息进行计算,获得用户眼睛在看向显示屏幕时的注视点的坐标,得到预测视场环境图像的眼球观测点。其中,该眼部检测装置可以为微机电系统(MicroElectro-Mechanical System,MEMS),MEMS中包括红外扫描反射镜、红外光源、红外接收器。当前,该眼部检测装置可以为在用户的眼部区域设置的电容传感器,利用眼球与电容传感器的电容极板之间的电容值来检测眼球运动,确定出用户的当前眼睛位置信息和眼球运动趋势,进而根据该当前眼睛位置信息眼球确定用户在预测视场环境图像的预测眼球观测点。另外,该眼部检测装置也可以是肌电流检测器,肌电流检测器与放置在用户的鼻梁、额头、耳朵和耳垂处的电极连接,利用电极采集这些部位的肌电流信号,通过检测的肌电流信号模式来检测眼球运动,确定出用户的当前眼睛位置信息和眼球运动趋势,进而根据该当前眼睛位置信息和眼球运动趋势确定用户在与预测视场环境图像的预测眼球观测点。
为了助于理解,列举一实例,例如用户向右转头,用户大概率希望看到右侧的画面,这时候配合注视点识别,也就再结合眼部检测装置识别的预测注视点(即预测眼球观测点)如果也位于右侧的画面(注视点处于显示中线右侧),这个时候往往代表用户希望看到右侧的画面,此时意图观测视角即为右侧画面对应包含的观测视角,如图6所示,其中,可以将画面最左侧1/a等分区域的画面降低渲染分辨率,来达到降低头戴显示设备的图像渲染负载/压力的目的。又例如用户向左转头,用户大概率希望看到左侧的画面,再结合眼部检测装置识别的注视点如果也在左侧的画面(注视点处于显示中线右侧),这个时候往往代表用户希望看到左侧的画面,此时意图观测视角即为左侧画面对应包含的观测视角,其中,可以将画面最右侧1/a等分区域的画面降低渲染分辨率,来达到降低头戴显示设备的图像渲染负载/压力的目的,其中,需要说明的是,a一般情况下大于2,例如a等于3或4。在一实例中,a等于4,也即,若用户向左转头,则将画面最右侧1/4等分区域的画面降低渲染分辨率。若用户向右转头,则将画面最左侧1/4等分区域的画面降低渲染分辨率。
本实施例通过根据头部运动姿态信息确定用户的头部转向趋势,然后检测用户在预测视场环境图像的预测眼球观测点,通过在头部转向趋势的基础上,结合该用户的预测眼球观测点,来确定用户的意图观测视角,从而提高了确定出意图观测视角的准确性。
进一步地,在一种可实施的方式中,所述根据所述预测眼球观测点和所述头部转向趋势,确定用户的意图观测视角的步骤包括:
步骤B10,根据所述预测眼球观测点确定预测注视方向;
在本实施例中,可以基于眼球追踪技术,获取用户的眼部图像,根据用户的眼部图像获取用户的瞳孔中心和光斑位置信息(光斑为头戴显示设备的屏幕在用户的眼角膜形成的反射亮点),根据用户的瞳孔中心和光斑位置信息确定用户的预测眼球观测点,然而根据该预测眼球观测点,确定用户在预测视场环境图像的预测注视方向,可参照图7。
步骤B20,从预设的观测视角映射表中,查询得到所述预测注视方向和所述头部转向趋势映射的观测视角,并将映射的观测视角,作为用户的意图观测视角。
在本实施例中,该观测视角映射表中存储有注视方向和头部转向趋势两个参量与观测视角之间一一映射的映射关系。
为了助于理解,作为一种示例,所述从预设的观测视角映射表中,查询得到所述预测注视方向和所述头部转向趋势映射的观测视角的步骤包括:
若所述头部转向趋势为向左转向,且所述预测注视方向为左向注视方向,则从预设的观测视角映射表中,查询得到所述预测注视区域和所述头部转向趋势映射的观测视角为左向观测视角;若所述头部转向趋势为向右转向,且所述预测注视方向为右向注视方向,则从预设的观测视角映射表中,查询得到映射的观测视角为右向观测视角;若所述头部转向趋势为向上转向,且所述预测注视方向为上向注视方向,则从预设的观测视角映射表中,查询得到映射的观测视角为上向观测视角;若所述头部转向趋势为向下转向,且所述预测注视方向为下向注视方向,则从预设的观测视角映射表中,查询得到映射的观测视角为下向观测视角。
当然,若所述头部转向趋势为向左上转向,且所述预测注视方向为左上向注视方向,则从预设的观测视角映射表中,查询得到所述预测注视区域和所述头部转向趋势映射的观测视角为左上方向对应的观测视角,还具有其他头部转向趋势,以及其他注视方向对应映射的观测视角,在此不再一一赘述。上述示出的示例,仅用于辅助理解本申请,并不构成对本申请观测视角映射表的限定。
应当理解的是,人眼对不同区域的图像的成像清晰度是不同的。在用户的可见范围内,对眼球主要关注的图像区域十分敏感,成像清晰,而对其他图像区域的成像较为模糊。该意图观测视角对应观测部分的图像是用户眼球主要关注的图像区域,而预测视场环境图像中其他部分对应的图像是用户眼球并不关注的其他图像区域。
本实施例通过根据所述预测眼球观测点确定预测注视方向,从预设的观测视角映射表中,查询得到所述预测注视方向和所述头部转向趋势映射的观测视角,并将映射的观测视角,作为用户的意图观测视角,从而进一步提高了确定出用户的意图观测视角的准确性。
在一种可能的实施方式中,所述检测用户在所述预测视场环境图像的预测眼球观测点的步骤包括:
步骤C10,采集用户的当前眼球图像,确定与所述当前眼球图像匹配度最高的眼球模型,将匹配度最高的眼球模型作为当前实际眼球模型;
在本实施例中,可通过对当前眼球图像进行基于预设图像识别算法的图像识别,从而识别出与当前眼球图像匹配度最高的眼球模型。该预设图像识别算法,本领域技术人员已有一定深入的研究,在此不再赘述。
步骤C20,从预设的眼球模型映射数据库中,查询得到所述当前实际眼球模型映射的眼球观测点,将映射的眼球观测点作为用户在所述预测视场环境图像的预测眼球观测点。
本领域技术人员可以理解的是,不同类型的眼球模型(例如眼球模型中出瞳距离、瞳孔形状、瞳孔区域位置和当前瞳孔光斑位置等信息的不同),往往对应不同的眼球观测点。
在本实施例中,该眼球模型映射数据库中存储有多个类型的眼球模型的信息,以及各眼球模型与眼球观测点之间一一映射的映射关系。
本实施例通过采集用户的当前眼球图像,确定与当前眼球图像匹配度最高的眼球模型,将匹配度最高的眼球模型作为当前实际眼球模型,并从预设的眼球模型映射数据库中,查询得到当前实际眼球模型映射的眼球观测点,从而准确得到用户在预测视场环境图像的预测眼球观测点。
在另一种可能的实施方式中,所述检测用户在所述预测视场环境图像的预测眼球观测点的步骤,还包括:
步骤D10,采集用户的当前眼球图像,对所述当前眼球图像进行灰度化处理;
在本实施例中,可通过头戴显示设备搭载的摄像头来采集用户的当前眼球图像。
步骤D20,根据灰度化处理后的当前眼球图像确定瞳孔区域图像,并将所述瞳孔区域图像进行二值化处理;
步骤D30,将二值化处理后的瞳孔区域图像进行边缘检测,检测得到瞳孔边缘点,并将所述瞳孔边缘点进行椭圆拟合,拟合得到当前瞳孔中心;
步骤D40,从预先标定的瞳孔中心映射数据表中,查询得到所述当前瞳孔中心映射的眼球观测点;
本领域技术人员可以理解的是,不同位置的瞳孔中心,往往对应不同的眼球观测点。需要说明的是,在该预先标定的瞳孔中心映射数据表中,存储有多个不同位置的瞳孔中心,以及各瞳孔中心与眼球观测点之间一一映射的映射关系。
步骤D50,将映射的眼球观测点,作为用户在所述预测视场环境图像的预测眼球观测点。
本实施例通过采集用户的当前眼球图像,对当前眼球图像进行灰度化处理,并根据灰度化处理后的当前眼球图像确定瞳孔区域图像,并将该瞳孔区域图像进行二值化处理,然后将二值化处理后的瞳孔区域图像进行边缘检测,检测得到瞳孔边缘点,并将所述瞳孔边缘点进行椭圆拟合,拟合得到当前瞳孔中心,再基于当前瞳孔中心从而可准确得到用户在预测视场环境图像的预测眼球观测点。
实施例二
基于本申请上述实施例,在本申请另一实施例中,与上述实施例一相同或相似的内容,可以参考上文介绍,后续不再赘述。在此基础上,所述根据所述头部运动姿态信息确定所述用户的意图观测视角的步骤之后还包括:
步骤E10,对所述预测视场环境图像中所述意图观测视角内的图像以第一区域背光亮度进行亮度显示控制;
步骤E20,将所述第一区域背光亮度进行亮度降低处理,得到第二区域背光亮度;
步骤E30,对所述预测视场环境图像中所述意图观测视角外的图像以第二区域背光亮度进行亮度显示控制。
现有的图像渲染技术,一般是用一个较高的区域背光亮度对整个目标屏幕显示的图像进行亮度显示控制,以满足用户的观看要求,然而,若用户在视场范围的眼睛主要关注区域只能覆盖屏幕的一部分区域,因此现有技术下眼睛主要关注区域外显示的图像也按较高的区域背光亮度,造成功耗的浪费。
因此,本实施例的技术方案是通过对预测视场环境图像中意图观测视角内的图像以第一区域背光亮度进行亮度显示控制,并将第一区域背光亮度进行亮度降低处理,得到第二区域背光亮度,再对预测视场环境图像中意图观测视角外的图像以第二区域背光亮度进行亮度显示控制,从而减少非注视区的亮度功耗的浪费,提高注视区图像的亮度和清晰度,使得眼睛关注的区域内,图像的背光亮度高,而眼睛没有关注(周边视野)的区域内,图像的背光亮度低,在不影响用户感受,或者在提高用户感受的前提下,节省显示能耗,实现了对图像更加合理的亮度显示控制,避免眼睛注视区域外的图像的显示亮度较高导致的能耗浪费。
实施例三
本发明实施例提供一种头戴显示设备,头戴显示设备包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述实施例一中的图像渲染方法。
下面参考图8,其示出了适于用来实现本公开实施例的头戴显示设备的结构示意图。本公开实施例中的头戴显示设备可以包括但不限于混合现实(Mixed Reality)—MR设备、增强现实(Augmented Reality)—AR设备、虚拟现实-(Virtual Reality)—VR设备、扩展现实(Extended Reality)—XR设备或其某种组合等等。图8示出的头戴显示设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,头戴显示设备可以包括处理装置1001(例如中央处理器、图形处理器等),其可以根据存储在只读存储器(ROM1002)中的程序或者从存储装置加载到随机访问存储器(RAM1004)中的程序而执行各种适当的动作和处理。在RAM1004中,还存储有AR眼镜操作所需的各种程序和数据。处理装置1001、ROM1002以及RAM1004通过总线1005彼此相连。输入/输出(I/O)接口也连接至总线1005。
通常,以下系统可以连接至I/O接口1006:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置1007;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1008;包括例如磁带、硬盘等的存储装置1003;以及通信装置1009。通信装置1009可以允许AR眼镜与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种系统的AR眼镜,但是应理解的是,并不要求实施或具备所有示出的系统。可以替代地实施或具备更多或更少的系统。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置从网络上被下载和安装,或者从存储装置1003被安装,或者从ROM1002被安装。在该计算机程序被处理装置1001执行时,执行本公开实施例的方法中限定的上述功能。
本发明提供的头戴显示设备,采用上述实施例一或实施例二中的图像渲染方法,能解决扩展现实设备对图像进行渲染的过程中易出现时间延迟,而造成眩晕感的技术问题。与现有技术相比,本发明实施例提供的头戴显示设备的有益效果与上述实施例一提供的图像渲染方法的有益效果相同,且该头戴显示设备中的其他技术特征与上一实施例方法公开的特征相同,在此不做赘述。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式的描述中,具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
实施例四
本发明实施例提供一种计算机可读存储介质,具有存储在其上的计算机可读程序指令,计算机可读程序指令用于执行上述实施例一中的图像渲染方法。
本发明实施例提供的计算机可读存储介质例如可以是U盘,但不限于电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、系统或者器件使用或者与其结合使用。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读存储介质可以是头戴显示设备中所包含的;也可以是单独存在,而未装配入头戴显示设备中。
上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被头戴显示设备执行时,使得头戴显示设备:获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据所述头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像;执行渲染线程以对所述预测视场环境图像进行渲染;若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对所述当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像;显示所述过渡视场环境图像,直至所述预测视场环境图像渲染完成,显示渲染后的预测视场环境图像。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该单元本身的限定。
本发明提供的计算机可读存储介质,存储有用于执行上述图像渲染方法的计算机可读程序指令,能解决扩展现实设备对图像进行渲染的过程中易出现时间延迟,而造成眩晕感的技术问题。与现有技术相比,本发明实施例提供的计算机可读存储介质的有益效果与上述实施例一或实施例二提供的图像渲染方法的有益效果相同,在此不做赘述。
实施例五
本发明实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的图像渲染方法的步骤。
本申请提供的计算机程序产品能解决扩展现实设备对图像进行渲染的过程中易出现时间延迟,而造成眩晕感的技术问题。与现有技术相比,本发明实施例提供的计算机程序产品的有益效果与上述实施例一或实施例二提供的图像渲染方法的有益效果相同,在此不做赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (10)
1.一种图像渲染方法,其特征在于,所述图像渲染方法应用于头戴显示设备,所述方法包括:
获取采集的当前视场环境图像,并动态检测用户的头部运动姿态信息,根据所述头部运动姿态信息预测用户在下一时钟周期的预测视场环境图像;
执行渲染线程以对所述预测视场环境图像进行渲染;
若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像未渲染完成,则执行异步时间扭曲线程以对所述当前视场环境图像进行方向扭曲处理,得到过渡视场环境图像;
显示所述过渡视场环境图像,直至所述预测视场环境图像渲染完成,显示渲染后的预测视场环境图像。
2.如权利要求1所述的图像渲染方法,其特征在于,所述执行渲染线程以对所述预测视场环境图像进行渲染的步骤之后,还包括:
若在下一时钟周期到达前的预设时间节点,所述预测视场环境图像已渲染完成,则显示渲染后的预测视场环境图像。
3.如权利要求1所述的图像渲染方法,其特征在于,所述执行渲染线程以对所述预测视场环境图像进行渲染的步骤包括:
根据所述头部运动姿态信息确定所述用户的意图观测视角,对所述预测视场环境图中所述意图观测视角内的图像以第一渲染分辨率进行渲染,将所述第一渲染分辨率进行渲染质量降低处理,得到第二渲染分辨率,并对所述预测视场环境图像中所述意图观测视角外的图像以第二渲染分辨率进行渲染。
4.如权利要求1所述的图像渲染方法,其特征在于,所述根据所述头部运动姿态信息确定所述用户的意图观测视角的步骤包括:
根据所述头部运动姿态信息确定用户的头部转向趋势;
检测用户在所述预测视场环境图像的预测眼球观测点,根据所述预测眼球观测点和所述头部转向趋势,确定用户的意图观测视角。
5.如权利要求4所述的图像渲染方法,其特征在于,所述根据所述预测眼球观测点和所述头部转向趋势,确定用户的意图观测视角的步骤包括:
根据所述预测眼球观测点确定预测注视方向;
从预设的观测视角映射表中,查询得到所述预测注视方向和所述头部转向趋势映射的观测视角,并将映射的观测视角,作为用户的意图观测视角。
6.如权利要求4所述的图像渲染方法,其特征在于,所述检测用户在所述预测视场环境图像的预测眼球观测点的步骤包括:
采集用户的当前眼球图像,确定与所述当前眼球图像匹配度最高的眼球模型,将匹配度最高的眼球模型作为当前实际眼球模型;
从预设的眼球模型映射数据库中,查询得到所述当前实际眼球模型映射的眼球观测点,将映射的眼球观测点作为用户在所述预测视场环境图像的预测眼球观测点。
7.如权利要求4所述的图像渲染方法,其特征在于,所述检测用户在所述预测视场环境图像的预测眼球观测点的步骤,还包括:
采集用户的当前眼球图像,对所述当前眼球图像进行灰度化处理;
根据灰度化处理后的当前眼球图像确定瞳孔区域图像,并将所述瞳孔区域图像进行二值化处理;
将二值化处理后的瞳孔区域图像进行边缘检测,检测得到瞳孔边缘点,并将所述瞳孔边缘点进行椭圆拟合,拟合得到当前瞳孔中心;
从预先标定的瞳孔中心映射数据表中,查询得到所述当前瞳孔中心映射的预测眼球观测点;
将映射的预测眼球观测点,作为用户在所述预测视场环境图像的预测眼球观测点。
8.如权利要求3至7中任一项所述的图像渲染方法,其特征在于,所述根据所述头部运动姿态信息确定所述用户的意图观测视角的步骤之后还包括:
对所述预测视场环境图像中所述意图观测视角内的图像以第一区域背光亮度进行亮度显示控制;
将所述第一区域背光亮度进行亮度降低处理,得到第二区域背光亮度;
对所述预测视场环境图像中所述意图观测视角外的图像以第二区域背光亮度进行亮度显示控制。
9.一种头戴显示设备,其特征在于,所述头戴显示设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8中任一项所述图像渲染方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质为计算机可读存储介质,所述计算机可读存储介质上存储有实现图像渲染方法的程序,所述实现图像渲染方法的程序被处理器执行以实现如权利要求1至8中任一项所述图像渲染方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211461816.5A CN115914603A (zh) | 2022-11-16 | 2022-11-16 | 图像渲染方法、头戴显示设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211461816.5A CN115914603A (zh) | 2022-11-16 | 2022-11-16 | 图像渲染方法、头戴显示设备和可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115914603A true CN115914603A (zh) | 2023-04-04 |
Family
ID=86484385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211461816.5A Pending CN115914603A (zh) | 2022-11-16 | 2022-11-16 | 图像渲染方法、头戴显示设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115914603A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117440142A (zh) * | 2023-10-31 | 2024-01-23 | 深圳市中诺智联科技有限公司 | 沉浸式多维运动感知方法、系统、终端与介质 |
-
2022
- 2022-11-16 CN CN202211461816.5A patent/CN115914603A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117440142A (zh) * | 2023-10-31 | 2024-01-23 | 深圳市中诺智联科技有限公司 | 沉浸式多维运动感知方法、系统、终端与介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11836289B2 (en) | Use of eye tracking to adjust region-of-interest (ROI) for compressing images for transmission | |
US10775886B2 (en) | Reducing rendering computation and power consumption by detecting saccades and blinks | |
US10739849B2 (en) | Selective peripheral vision filtering in a foveated rendering system | |
US10720128B2 (en) | Real-time user adaptive foveated rendering | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN106327584B (zh) | 一种用于虚拟现实设备的图像处理方法及装置 | |
CN109741289B (zh) | 一种图像融合方法和vr设备 | |
US20200241731A1 (en) | Virtual reality vr interface generation method and apparatus | |
WO2020003860A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN114026603B (zh) | 渲染计算机生成现实文本 | |
CN115713783A (zh) | 图像渲染方法、装置、头戴显示设备和可读存储介质 | |
US20220036779A1 (en) | Information processing apparatus, information processing method, and recording medium | |
US11443719B2 (en) | Information processing apparatus and information processing method | |
CN115914603A (zh) | 图像渲染方法、头戴显示设备和可读存储介质 | |
US11543655B1 (en) | Rendering for multi-focus display systems | |
CN115576637A (zh) | 截屏方法、系统、电子设备及可读存储介质 | |
CN115686219A (zh) | 图像渲染方法、头戴显示设备和可读存储介质 | |
CN115761089A (zh) | 图像渲染方法、装置、头戴显示设备和可读存储介质 | |
US20240031552A1 (en) | Head-mounted display and image displaying method | |
CN117730298A (zh) | 使用eog坐标的屏幕交互 | |
CN117132741A (zh) | 基于混合现实的控制方法、装置、电子设备和存储介质 | |
CN118365835A (zh) | 渲染图像的方法、装置、电子设备和存储介质 | |
CN115327782A (zh) | 显示控制方法、装置、头戴显示设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |