CN115877573A - 显示方法、头戴显示设备及存储介质 - Google Patents
显示方法、头戴显示设备及存储介质 Download PDFInfo
- Publication number
- CN115877573A CN115877573A CN202211493767.3A CN202211493767A CN115877573A CN 115877573 A CN115877573 A CN 115877573A CN 202211493767 A CN202211493767 A CN 202211493767A CN 115877573 A CN115877573 A CN 115877573A
- Authority
- CN
- China
- Prior art keywords
- scene image
- real scene
- determining
- image
- transmission area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种显示方法、头戴显示设备及存储介质,涉及头戴显示设备领域,方法应用于头戴显示设备,在采集到的真实场景图像上确定待传输的传输区域之后,根据传输区域对原始的真实场景图像进行裁剪,得到传输区域对应的目标真实场景图像,只对目标真实场景图像进行显示。从而基于传输区域对真实场景图像进行调整,通过减小头戴显示设备实现视频透视时的计算量、降低头戴显示设备的显示延迟,解决头戴显示设备实现视频透视时计算量大、延迟高的技术问题,进而提升头戴显示设备的VST视频透视显示效果,提升头戴显示设备用户的使用体验。
Description
技术领域
本发明涉及头戴显示设备领域,尤其涉及一种显示方法、头戴显示设备及计算机可读存储介质。
背景技术
头戴显示设备作为目前主流的交互工具,其VST(Vi deo See-Through,视频透视)的工作原理如下,用户戴上头戴显示设备后,头戴显示设备上的相机采集到真实场景图像,然后将相机采集得到的真实场景图像通过头戴显示设备的显示屏幕上展示以供用户观看。
但是目前头戴显示设备的视频透视需要通过额外相机采集外界环境信息,将外界环境信息进行传输后通过显示屏幕展示,严重的滞后性会导致用户体验很差。
发明内容
本发明的主要目的在于提供一种显示方法、头戴显示设备及计算机可读存储介质,旨在解决现有技术中头戴显示设备实现视频透视时延迟高的技术问题。
为实现上述目的,本发明提供一种显示方法,所述显示方法应用于头戴显示设备,所述显示方法包括:
在采集到的真实场景图像上确定待传输的传输区域;
在所述真实场景图像上确定所述传输区域对应的目标真实场景图像,将所述目标真实场景图像进行显示。
可选地,所述在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
获取用户的眼睛图像,并根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域。
可选地,所述根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
根据所述眼睛图像计算出用户的注视点坐标,基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域。
可选地,所述基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
确定人眼注视内容清晰时对应的预设角度范围;
根据所述注视点坐标和预设角度范围在采集到的真实场景图像上确定待传输的传输区域。
可选地,所述显示方法,还包括:
在虚拟场景图像确定所述传输区域对应的目标虚拟场景图像;
将所述目标虚拟场景图像和所述目标真实场景图像进行融合显示。
可选地,所述显示方法,还包括:
识别所述目标真实场景图像中的主要物体;
将所述主要物体进行显示,或者将所述目标虚拟场景图像和所述主要物体进行融合显示。
可选地所述显示方法,还包括:
在采集到的真实场景图像上确定所述传输区域对应的外围区域,并确定所述外围区域对应的外围场景图像;
将所述目标真实场景图像以及所述外围场景图像进行显示。
可选地,所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤之前,包括:
基于所述目标真实场景图像的第一分辨率确定所述外围场景图像的第二分辨率;
所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤,包括:
将所述第一分辨率的所述目标真实场景图像以及所述第二分辨率的所述外围场景图像进行显示;
其中,所述第一分辨率大于所述第二分辨率。
此外,为实现上述目的,本发明还提供一种头戴显示设备,所述头戴显示设备包括:采集真实场景图像的第一相机、采集用户的眼睛图像的第二相机、存储器、处理器、及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上任一项所述的显示方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的显示方法的步骤。
本发明实施例提出的一种显示方法、头戴显示设备及计算机可读存储介质,所述显示方法应用于头戴显示设备,所述显示方法包括:在采集到的真实场景图像上确定待传输的传输区域;在所述真实场景图像上确定所述传输区域对应的目标真实场景图像,将所述目标真实场景图像进行显示。
在采集到的真实场景图像上确定待传输的传输区域之后,根据传输区域对原始的真实场景图像进行裁剪,得到传输区域对应的目标真实场景图像,只对目标真实场景图像进行显示。
基于传输区域对真实场景图像进行调整,通过减小头戴显示设备实现视频透视时的计算量、降低头戴显示设备的显示延迟,解决头戴显示设备实现视频透视时计算量大、延迟高的技术问题,进而提升头戴显示设备的VST视频透视显示效果,提升头戴显示设备用户的使用体验。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的终端结构示意图;
图2为本发明显示方法一实施例的流程示意图;
图3为本发明显示方法一实施例的双目RGB相机示意图;
图4为本发明显示方法一实施例的传输区域示意图;
图5为本发明显示方法一实施例的应用示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的运行设备的结构示意图。
如图1所示,该运行设备可以包括:处理器1001,例如中央处理器(Centra lProcess i ng Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Disp l ay)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(Wi re less-Fide l ity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(Random AccessMemory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Vo l at i l e Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对运行设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及计算机程序。
在图1所示的运行设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明运行设备中的处理器1001、存储器1005可以设置在运行设备中,所述运行设备通过处理器1001调用存储器1005中存储的计算机程序,并执行以下操作:
在采集到的真实场景图像上确定待传输的传输区域;
在所述真实场景图像上确定所述传输区域对应的目标真实场景图像,将所述目标真实场景图像进行显示。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
获取用户的眼睛图像,并根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
根据所述眼睛图像计算出用户的注视点坐标,基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
确定人眼注视内容清晰时对应的预设角度范围;
根据所述注视点坐标和预设角度范围在采集到的真实场景图像上确定待传输的传输区域。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述显示方法,还包括:
在虚拟场景图像确定所述传输区域对应的目标虚拟场景图像;
将所述目标虚拟场景图像和所述目标真实场景图像进行融合显示。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述显示方法,还包括:
识别所述目标真实场景图像中的主要物体;
将所述主要物体进行显示,或者将所述目标虚拟场景图像和所述主要物体进行融合显示。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述显示方法,还包括:
在采集到的真实场景图像上确定所述传输区域对应的外围区域,并确定所述外围区域对应的外围场景图像;
将所述目标真实场景图像以及所述外围场景图像进行显示。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤之前,包括:
基于所述目标真实场景图像的第一分辨率确定所述外围场景图像的第二分辨率;
所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤,包括:
将所述第一分辨率的所述目标真实场景图像以及所述第二分辨率的所述外围场景图像进行显示;
其中,所述第一分辨率大于所述第二分辨率。
参照图2,本发明提供一种显示方法,所述显示方法应用于头戴显示设备;所述显示方法包括:
步骤S10,在采集到的真实场景图像上确定待传输的传输区域。
头戴显示设备采集真实场景图像的第一相机为相机(可以为单色相机或者RGB相机),头戴显示设备采集用户的眼睛图像的第二相机为Eyetracki ng(眼部追踪)相机。其中,真实场景图像是指头戴显示设备上的相机采集到的真实世界的场景图像,待传输的传输区域是指通过Eyetracki ng相机采集用户注视点具体坐标位置而确定的区域。
进一步的,在采集到的真实场景图像上确定待传输的传输区域的步骤,还包括:获取用户的语音信息,解析所述语音信息得到待传输的主要物体,基于所述主要物体在所述真实场景图像上匹配与所述主要物体相似度大于预设阈值的目标主体,对所述目标主体进行传输。从而除了通过用户注视点确定待传输的传输区域之外,还可以让用户主动在真实场景图像上确定待传输的传输区域,进而提高显示方法的适用性,给用户提供更多的实现显示的可选操作。
进一步的,在采集到的真实场景图像上确定待传输的传输区域的步骤之前,还包括:若通过双目相机采集真实场景图像,则基于所述双目相机之间的间隔距离和相机视场角对所述双目相机采集的图像进行拼接,将拼接得到的图像作为所述真实场景图像。如图3所示,因为双目相机所采集的图像会存在一定的视差,所以首先会结合双目相机之间的距离d和相机的FOV(Fi e l d of Vi ew,视场角)对采集的图像进行拼接融合,从而得到可以确定待传输的传输区域的真实场景图像。
可选地,在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:识别用户的第一手势动作,并根据所述第一手势动作确定用户在真实场景图像上待传输的传输区域。除了通过用户的语音信息确定真实场景图像上待传输的传输区域之外,还可以通过用户的第一手势动作确定待传输的传输区域。用户可以在经过预设划分方式划分之后的真实场景图像上通过第一手势动作选取其中的一个或多个子区域作为待传输的传输区域,也可以在未经过划分的真实场景图像上通过第一手势动作圈选出一个区域作为待传输的传输区域。在本实施例中,对第一手势动作的具体手势和动作不做限定。从而,充分利用头戴显示设备的显示能力,给用户提供除语音选取之外通过选中或者圈选方式确定待传输的传输区域。
步骤S20,在所述真实场景图像上确定所述传输区域对应的目标真实场景图像,将所述目标真实场景图像进行显示。
在确定了待传输的传输区域之后,就需要进一步对真实场景图像进行裁剪。其中,确定真实场景图像进行裁剪的裁剪调整操作的方式可以是语音、手势等方式,具体的裁剪调整操作的实现方式在本实施例中不做限定。从而根据传输区域对真实场景图像进行裁剪,得到最终调整后的目标真实场景图像,进一步将目标真实场景图像进行显示。
在本实施例中,在采集到的真实场景图像上确定待传输的传输区域;在所述真实场景图像上确定所述传输区域对应的目标真实场景图像,将所述目标真实场景图像进行显示。在采集到的真实场景图像上确定待传输的传输区域之后,根据传输区域对原始的真实场景图像进行裁剪,得到传输区域对应的目标真实场景图像,只对目标真实场景图像进行显示。基于传输区域对真实场景图像进行调整,通过减小头戴显示设备实现视频透视时的计算量、降低头戴显示设备的显示延迟,解决头戴显示设备实现视频透视时计算量大、延迟高的技术问题,进而提升头戴显示设备的VST视频透视显示效果,提升头戴显示设备用户的使用体验。
进一步的,在本发明显示方法的另一实施例中,所述在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:获取用户的眼睛图像,并根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域。
注视点追踪又称眼球追踪,是利用传感器如红外摄像机捕获、提取眼球特征信息,测量眼睛的运动情况从而估计视线方向或眼睛注视点位置。头戴显示设备采集用户的眼睛图像的第二相机为Eyetracki ng(眼部追踪)相机,通过头戴显示设备的第二相机采集获取得到用户的眼睛图像,从而可以根据眼睛图像确定用户在真实场景图像上待传输的传输区域。
可选地,所述根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:根据所述眼睛图像计算出用户的注视点坐标,基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域。
在通过头戴显示设备的第二相机采集获取得到用户的眼睛图像之后,根据眼睛图像计算出用户的注视点坐标,从而基于注视点坐标确定待传输的传输区域。在本实施例中,采用瞳孔角膜反射法确定注视点坐标:在头戴显示设备如VR/AR眼镜的注视点追踪系统中红外光源和eye-tracki ng摄像机的位置都是不变条件下,并且在眼球模型的结构基础上,利用闪烁点与光源位置计算得到角膜曲率中心。利用图像处理技术计算获得瞳孔中心,通过角膜曲率中心与瞳孔中心的连线求得眼球光轴,并利用光轴和视轴之间的夹角计算得到了真实的视线方向即视轴以及注视点坐标。
可选的,所述基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
确定人眼注视内容清晰时对应的预设角度范围;
根据所述注视点坐标和预设角度范围在采集到的真实场景图像上确定待传输的传输区域。
参照图4,人眼在视物的过程中,并不会注意到视野中的全部细节,只有中间视觉焦点附近是清晰的,任何超出了人眼注视区中心预设角度范围如5度以上的区域都会逐渐降低清晰度,超出了人眼注视区中心预设角度范围如5度以上的区域作为忽略区域。这是由于负责观察色彩和细节的视网膜上的视锥细胞的浓度不同,拥有高密度视锥细胞的区域叫中央凹与人眼视野中的注视点相对应。所以可以只传输人眼注视点附近的相机采集的外界环境图像,来减少头戴显示设备的计算量以降低视频透视的延迟时间。
在本实施例中,首先通过eye-tracki ng摄像头和红外补光灯I R-Led来采集用户眼睛图像,利用注视点追踪算法经过包括图像的灰度化、二值化和图像边缘检测等的图像预处理,然后分别进行瞳孔中心定位和角膜反射光斑中心定位,计算出用户的注视点坐标,以此得出用户的注视方向和具体的注视点坐标值。进而可以确定得到真实场景图像上待传输的传输区域。从而除了通过用户的语音信息确定真实场景图像上待传输的传输区域、以及通过选中或者圈选的方式确定待传输的传输区域之外,还可以仅需要根据用户的注意力关注的注视点即可确定用户在真实场景图像上待传输的传输区域,进一步做到无感智能的融合显示,提升头戴显示设备的显示效果和体验。
进一步的,在本发明显示方法的另一实施例中,所述显示方法,还包括:
在虚拟场景图像确定所述传输区域对应的目标虚拟场景图像;
将所述目标虚拟场景图像和所述目标真实场景图像进行融合显示。
在确定了待传输的传输区域之后,可以进一步对虚拟场景图像和真实场景图像进行裁剪,避免最终显示的虚拟场景图像和真实场景图像不一致、无法匹配。其中,确定对虚拟场景图像和真实场景图像进行裁剪的裁剪调整操作的方式可以是语音、手势等方式,具体的裁剪调整操作的实现方式在本实施例中不做限定。从而根据传输区域对虚拟场景图像和真实场景图像进行裁剪,得到最终调整后的目标虚拟场景图像和目标真实场景图像,进一步将目标虚拟场景图像和目标真实场景图像进行融合显示。
视频透视(VST)是指头戴显示设备如AR眼镜通过安装在眼镜上的微型摄像头采集真实场景的图像,AR眼镜再通过场景理解和分析将所要添加的信息和图像信号叠加在摄像机的视频信号上,同时将AR眼镜生成的虚拟场景与真实场景进行融合,最后通过AR眼镜显示屏幕呈现给用户。
可选的,所述显示方法,还包括:
识别所述目标真实场景图像中的主要物体;
将所述主要物体进行显示,或者将所述目标虚拟场景图像和所述主要物体进行融合显示。
除了对目标真实场景图像的整个区域进行融合显示之外,还可以只对目标真实场景图像中的主要物体进行精准的单独显示,或者只对目标真实场景图像中的主要物体进行精准的融合显示。进一步的,所述识别所述目标真实场景图像中的主要物体的步骤包括:识别所述目标真实场景图像中的各个待选物体,在所述待选物体中选择物体面积最大的待选物体作为所述主体物体,或者在所述待选物体中选择处于最上图层的待选物体作为所述主体物体,或者确定各个所述待选物体所处为前景或背景,将前景中的一个或者多个待选物体作为所述主体物体。同样的,在多个待选物体中确定得到所述主要物体也可以是通过语音、手势等操作实现,具体操作步骤与上述确定对虚拟场景图像和真实场景图像进行裁剪的裁剪调整操作的方式类似,在此不做赘述。
在所述目标真实场景图像中识别到主要物体,并将所述目标虚拟场景图像和所述主要物体进行融合显示,从而可以降低头戴显示设备进行融合显示时的数据量以及计算量,进一步降低头戴显示设备的功耗,提升头戴显示设备的处理效率,最终提升头戴显示设备的融合显示的效果以及用户的增强现实的体验。
进一步的,在本发明显示方法的另一实施例中,所述显示方法,还包括:
在采集到的真实场景图像上确定所述传输区域对应的外围区域,并确定所述外围区域对应的外围场景图像;
将所述目标真实场景图像以及所述外围场景图像进行显示。
参照图4,在确定了待传输的传输区域之后,在采集到的真实场景图像上确定传输区域对应的外围区域,其中,所述外围区域可以是所述传输区域的外围环形区域,或者上下左右四边等宽的矩形区域,外围区域的确定方式以及外围区域的区域大小、区域形状等在本实施例中不做限定。考虑到由于负责观察色彩和细节的视网膜上的视锥细胞的浓度不同导致的人眼在视物的过程中,并不会注意到视野中的全部细节,只有中间视觉焦点附近是清晰的,任何超出了人眼注视区中心预设角度范围如5度以上的区域都会逐渐降低清晰度,所以在本实施例中不仅仅只是传输清晰度最高、用户眼睛最能关注到的传输区域,还传输所述传输区域对应的外围区域,将外围区域作为逐渐降低清晰度的对应区域,最终,将目标真实场景图像以及外围场景图像进行显示,尽可能模拟并还原用户的真实观看体验。从而减轻用户在佩戴使用头戴显示设备时虚拟与现实之间的割裂感,为用户尽可能模拟人眼的观看体验、尽可能提供接近现实的观看感受。
进一步的,确定所述外围区域对应的外围场景图像的步骤,包括:对所述外围区域对应的真实场景图像进行模糊处理得到所述外围场景图像。从而可以更加简单高效的确认外围区域对应的外围场景图像,进一步减小头戴显示设备的计算步骤和数据。
进一步的,在采集到的真实场景图像上确定所述传输区域对应的外围区域,并确定所述外围区域对应的外围场景图像的步骤,包括:
基于所述传输区域的中心位置或者基于注视点坐标,将周围预设第一区域进行原图传输,将周围预设第二区域按照所述真实场景图像进行第一比例的模糊和压缩处理,将周围预设第三区域按照所述真实场景图像进行第二比例的模糊和压缩处理。其中,预设第一区域为最中心区域,预设第二区域为次中心区域,预设第三区域为最外围区域,第一比例大于第二比例;优选的,预设第一区域为占原图尺寸10%的区域,预设第二区域为预设第一区域外围占原图尺寸的30%的区域,预设第三区域为预设第二区域外围占原图尺寸的60%的区域,第一比例为模糊和压缩处理成原图清晰度的60%,第二比例为模糊和压缩处理成原图清晰度的20%。在本实施例中,对所述传输区域的周围区域的划分数量和划分规则不做限定,对不同区域进行模糊和压缩处理原图的比例不做限定。
可选的,所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤之前,包括:
基于所述目标真实场景图像的第一分辨率确定所述外围场景图像的第二分辨率;
所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤,包括:
将所述第一分辨率的所述目标真实场景图像以及所述第二分辨率的所述外围场景图像进行显示;
其中,所述第一分辨率大于所述第二分辨率。
在确定了传输区域对应的目标真实场景图像以及外围区域对应的外围场景图像之后、在将传输区域对应的目标真实场景图像以及外围场景图像进行融合显示的步骤之前,还需要确定目标真实场景图像和外围场景图像的清晰度,按照对应不同的清晰度对其进行显示。目标真实场景图像按照第一分辨率、外围场景图像按照不大于第一分辨率的第二分辨率进行融合显示。
进一步的,基于所述目标真实场景图像的第一分辨率确定所述外围场景图像的第二分辨率的步骤,包括:基于所述外围场景图像中的像素坐标和所述注视点坐标的距离,确定所述目标真实场景图像的第一分辨率对应的所述外围场景图像的第二分辨率。其中,距离与分辨率成正比,外围场景图像距离注视点越远,分辨率越小、越小于第一分辨率;外围场景图像距离注视点越近,分辨率越大、越接近第一分辨率。
进一步的,基于所述目标真实场景图像的第一分辨率确定所述外围场景图像的第二分辨率的步骤,包括:确定所述外围场景图像所处的划分层级,基于所述划分层级确定述目标真实场景图像的第一分辨率对应的所述外围场景图像的第二分辨率。预先对目标真实场景图像的外围区域进行划分,得到不同的距离层级并且不同距离层级预设有根据第一分辨率向外逐渐降低的分辨率,外围场景图像根据其所处的划分层级直接确定其第二分辨率。
其中,同样考虑到由于负责观察色彩和细节的视网膜上的视锥细胞的浓度不同导致的人眼在视物的过程中,并不会注意到视野中的全部细节,只有中间视觉焦点附近是清晰的,任何超出了人眼注视区中心预设角度范围如5度以上的区域都会逐渐降低清晰度,所以目标真实场景图像的第一分辨率的分辨率大于外围场景图像的第二分辨率。
参照图5,在本发明显示方法的另一实施例中,首先用户戴上VR/AR眼镜,在双目RGB相机、eye-tracki ng摄像头和I R-LED采集图像功能正常时,调用成熟的注视点跟踪算法计算出用户的注视点方向。具体的,利用eye-tracki ng摄像头和I R-LED采集清晰的眼睛图像,之后经过图像预处理包括图像的灰度化、图像滤波、二值化和图像边缘检测等,然后分别进行瞳孔中心定位和角膜反射光斑中心定位,计算出用户的注视点。然后将注视点位置信息传输给VST传输算法,算法根据注视点位置计算出待传输的传输区域(传输区域范围按照注视点远近递减,如图4所示),仅传输待传输的传输区域内的双目RGB相机所采集的外界环境图像,并仅融合展示传输区域对应的目标虚拟场景图像和目标真实场景图像,最终传输指定区域的RGB采集图像到VR/AR眼镜显示屏上。从而基于传输区域对真实场景图像和虚拟场景图像进行调整,通过减小头戴显示设备实现视频透视时的计算量、降低头戴显示设备的显示延迟,解决头戴显示设备实现视频透视时计算量大、延迟高的技术问题,进而提升头戴显示设备的VST视频透视显示效果,提升头戴显示设备用户的使用体验。
此外,本发明实施例还提供一种头戴显示设备,所述头戴显示设备包括:采集真实场景图像的第一相机、采集用户的眼睛图像的第二相机、存储器、处理器、及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上任一项所述的显示方法的步骤。
此外,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的显示方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种显示方法,其特征在于,所述显示方法应用于头戴显示设备,所述显示方法包括:
在采集到的真实场景图像上确定待传输的传输区域;
在所述真实场景图像上确定所述传输区域对应的目标真实场景图像,将所述目标真实场景图像进行显示。
2.如权利要求1所述的显示方法,其特征在于,所述在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
获取用户的眼睛图像,并根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域。
3.如权利要求2所述的显示方法,其特征在于,所述根据所述眼睛图像在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
根据所述眼睛图像计算出用户的注视点坐标,基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域。
4.如权利要求3所述的显示方法,其特征在于,所述基于所述注视点坐标在采集到的真实场景图像上确定待传输的传输区域的步骤,包括:
确定人眼注视内容清晰时对应的预设角度范围;
根据所述注视点坐标和预设角度范围在采集到的真实场景图像上确定待传输的传输区域。
5.如权利要求1所述的显示方法,其特征在于,所述显示方法,还包括:
在虚拟场景图像确定所述传输区域对应的目标虚拟场景图像;
将所述目标虚拟场景图像和所述目标真实场景图像进行融合显示。
6.如权利要求5所述的显示方法,其特征在于,所述显示方法,还包括:
识别所述目标真实场景图像中的主要物体;
将所述主要物体进行显示,或者将所述目标虚拟场景图像和所述主要物体进行融合显示。
7.如权利要求1所述的显示方法,其特征在于,所述显示方法,还包括:
在采集到的真实场景图像上确定所述传输区域对应的外围区域,并确定所述外围区域对应的外围场景图像;
将所述目标真实场景图像以及所述外围场景图像进行显示。
8.如权利要求7所述的显示方法,其特征在于,所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤之前,包括:
基于所述目标真实场景图像的第一分辨率确定所述外围场景图像的第二分辨率;
所述将所述目标真实场景图像以及所述外围场景图像进行显示的步骤,包括:
将所述第一分辨率的所述目标真实场景图像以及所述第二分辨率的所述外围场景图像进行显示;
其中,所述第一分辨率大于所述第二分辨率。
9.一种头戴显示设备,其特征在于,所述头戴显示设备包括:采集真实场景图像的第一相机、采集用户的眼睛图像的第二相机、存储器、处理器、及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的显示方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的显示方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211493767.3A CN115877573A (zh) | 2022-11-25 | 2022-11-25 | 显示方法、头戴显示设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211493767.3A CN115877573A (zh) | 2022-11-25 | 2022-11-25 | 显示方法、头戴显示设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115877573A true CN115877573A (zh) | 2023-03-31 |
Family
ID=85764117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211493767.3A Pending CN115877573A (zh) | 2022-11-25 | 2022-11-25 | 显示方法、头戴显示设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115877573A (zh) |
-
2022
- 2022-11-25 CN CN202211493767.3A patent/CN115877573A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108427503B (zh) | 人眼追踪方法及人眼追踪装置 | |
US9720238B2 (en) | Method and apparatus for a dynamic “region of interest” in a display system | |
US9911214B2 (en) | Display control method and display control apparatus | |
CN109901710B (zh) | 媒体文件的处理方法和装置、存储介质及终端 | |
RU2672502C1 (ru) | Устройство и способ для формирования изображения роговицы | |
CN106327584B (zh) | 一种用于虚拟现实设备的图像处理方法及装置 | |
CN109741289B (zh) | 一种图像融合方法和vr设备 | |
CN109901290B (zh) | 注视区域的确定方法、装置及可穿戴设备 | |
CN109283997A (zh) | 显示方法、装置和系统 | |
CN111880654A (zh) | 一种图像显示方法、装置、穿戴设备及存储介质 | |
CN113467619A (zh) | 画面显示方法、装置和存储介质及电子设备 | |
CN106851249A (zh) | 图像处理方法及显示设备 | |
CN109917908B (zh) | 一种ar眼镜的图像获取方法及系统 | |
CN115877573A (zh) | 显示方法、头戴显示设备及存储介质 | |
CN115103094A (zh) | 一种基于注视点的摄像头模组远视角调节方法及系统 | |
CN113132642A (zh) | 图像显示的方法及装置、电子设备 | |
US10083675B2 (en) | Display control method and display control apparatus | |
CN115883816A (zh) | 显示方法、装置、头戴显示设备及存储介质 | |
US20230244307A1 (en) | Visual assistance | |
CN115834858A (zh) | 显示方法、装置、头戴显示设备及存储介质 | |
WO2018083757A1 (ja) | 画像提供装置、画像提供方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 | |
RU2815753C1 (ru) | Способ и устройство отображения, оконечное устройство и носитель для хранения данных | |
CN115728950A (zh) | 显示方法、装置、头戴显示设备及存储介质 | |
CN111554223A (zh) | 显示设备的画面调节方法、显示设备及存储介质 | |
CN115908212A (zh) | 一种防眩晕方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |