CN117234281A - 数据处理方法、装置、电子设备、头戴设备及介质 - Google Patents

数据处理方法、装置、电子设备、头戴设备及介质 Download PDF

Info

Publication number
CN117234281A
CN117234281A CN202210641193.3A CN202210641193A CN117234281A CN 117234281 A CN117234281 A CN 117234281A CN 202210641193 A CN202210641193 A CN 202210641193A CN 117234281 A CN117234281 A CN 117234281A
Authority
CN
China
Prior art keywords
cameras
image
information
black
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210641193.3A
Other languages
English (en)
Inventor
吴涛
周宏伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202210641193.3A priority Critical patent/CN117234281A/zh
Publication of CN117234281A publication Critical patent/CN117234281A/zh
Pending legal-status Critical Current

Links

Abstract

本申请公开了一种数据处理方法、装置、电子设备、头戴设备及介质,方法适用于头戴设备,包括:通过多个第一相机获取第一黑白图像;通过目标相机获取与第一黑白图像对应的彩色图像;获取多个第一相机中的任一第一相机与目标相机之间的第一位置关系信息;根据第一黑白图像、彩色图像,以及第一位置关系信息确定对应的第一现实环境图像;获取第一黑白图像对应的虚拟现实画面信息;根据第一现实环境图像与虚拟现实画面信息确定头戴设备的显示内容;目标相机的视场范围不小于多个第一相机对应的多个视场范围的交集。本方案可结合设置于头戴设备的彩色相机对黑白环境图像进行处理,进而将虚拟场景信息与彩色现实场景信息结合展示,提高了用户体验。

Description

数据处理方法、装置、电子设备、头戴设备及介质
技术领域
本申请属于混合现实技术领域,尤其涉及一种数据处理方法、装置、电子设备、头戴设备及介质。
背景技术
虚拟现实技术VR囊括计算机、电子信息、仿真技术,其基本实现方式是计算机模拟虚拟环境从而给人以环境沉浸感;混合现实技术MR是虚拟现实技术的进一步发展,该技术通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一交互反馈的信息回路,以增强用户体验的真实感。目前主流的MR头戴式一体机在低光环境下为用户提供的显示内容的质量较差;并且通过在MR头戴式一体机上设置多个黑白相机采集环境图像以实现透视功能,用户体验较差。
发明内容
本申请实施例提供一种与现有技术不同的实现方案,以解决相关技术中,混合现实技术的画面显示方法用户体验较差的技术问题。
第一方面,本申请提供一种数据处理方法,适用于头戴设备,包括:
通过多个第一相机获取第一黑白图像;
通过目标相机获取与所述第一黑白图像对应的彩色图像;
获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
获取所述第一黑白图像对应的虚拟现实画面信息;
根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
第二方面,本申请提供一种头戴设备,包括:数据处理单元与壳体,所述壳体的外侧设置有多个第一相机与目标相机,所述壳体的外侧为用户佩戴所述头戴设备时朝向用户前方的一侧;
所述多个第一相机两两对称设置于所述壳体的中心轴两侧;
所述目标相机设置于所述中心轴上,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集;
所述数据处理单元,用于:通过多个第一相机获取第一黑白图像;通过目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容。
第三方面,本申请提供一种数据处理装置,其特征在于,适用于头戴设备,包括:
第一获取模块,用于通过多个第一相机获取第一黑白图像;
第二获取模块,用于通过目标相机获取与所述第一黑白图像对应的彩色图像;
第三获取模块,用于获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
第一确定模块,用于根据所述第一黑白图像、所述彩色图像,以及所述多第一位置关系信息确定对应的第一现实环境图像;
第四获取模块,用于获取所述第一黑白图像对应的虚拟现实画面信息;
第二确定模块,用于根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
第四方面,本申请提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行第一方面或第一方面各可能的实施方式中的任一方法。
第五方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面或第一方面各可能的实施方式中的任一方法。
第六方面,本申请实施例提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面或第一方面各可能的实施方式中的任一方法。
本申请通过通过多个第一相机获取第一黑白图像;通过目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集的方案,可结合设置于头戴设备的彩色相机对黑白环境图像进行处理,进而将虚拟场景信息与彩色现实场景信息结合展示,提高了用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本申请一实施例提供的头戴式一体机的外观示意图;
图2a为本申请一实施例提供的数据处理方法的流程示意图;
图2b为本申请一实施例提供的头戴设备侧的以其中心为原点的坐标系的示意图;
图2c为本申请一实施例提供的头戴设备侧的虚拟现实画面信息展示方法;
图3为本申请实施例提供的一种数据处理装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
本申请实施例的说明书、权利要求书及附图中的术语“第一”和“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请实施例的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,下面对本申请实施例中的部分用语进行解释说明,以便于本领域技术人员理解。
IMU:Inertial Measurement Unit,即惯性测量单元,用于测量物体三轴姿态角(或角速率)以及加速度。
6DoF:6degree of freedom,6自由度,物体在空间具有六个自由度,即沿x、y、z三个直角坐标轴方向的移动自由度与绕该三个坐标轴的转动自由度。
FOV:视场角,视场角在光学工程中又称视场,视场角的大小决定了光学仪器的视野范围,其与焦距的关系如下:h=f*tan\[Theta];像高=EFL*tan (半FOV);EFL为焦距;FOV为视场角。
头戴设备通过可见光摄像头,模拟人眼实时捕捉周围环境图像,通过计算机的立体视觉和图像渲染技术对周围环境图像进行分析后,通过头戴设备的显示器将相应的内容呈现给用户,使得用户可通过头戴设备的显示器实时查看外部环境,该功能为透视功能。
发明人通过研究发现:目前主流的头戴设备,如头戴式一体机普遍存在几个问题:
1)大都采用基于两个鱼眼追踪相机的内向外6DoF追踪方案,解决 VR/MR头戴式一体机相对现实三维空间的6DoF追踪信息,追踪视场较局限;
2)在低光环境下,自内向外的追踪效果较差;
3)通过在头戴式一体机上设置较多相机采集环境图像实现透视功能,成本较高;
4)无法提供用户的眼球追踪信息,无法做注视点渲染以减少渲染负载所带来的功耗问题;
5)无法提供用户的表情追踪信息,用户在虚拟场景中的沉浸感较低;
6)无法实现对裸手信息的识别追踪。
本方案提出了一些方案以及一体机以解决前述问题。
下面以具体的实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图1为本申请示例性实施例提供的头戴式一体机的外观示意图,其中,图1中的(b)为图1中的(a)的简化图,可选地,图1中的(a)与图1 中的(b)中的第二相机C1、第二相机C2、第一相机C3,以及第一相机C4 用于进行环境追踪,即采集环境图像,具体可以为黑白相机,目标相机C5 为彩色相机,第三相机C6、第三相机C7、第三相机C8、第三相机C9,以及第三相机C10用于获取用户的面部图像,具体可以为红外相机。另外, C1、C2、C3、C4还可用于采集用户手部图像,以使头戴设备确定用户的手势信息。
具体地,前述C1至C5可以设置于头戴设备的壳体的外侧用于获取外部环境图像,C6至C10设置于头戴设备的壳体的内侧,用于获取用户的面部图像。
进一步地,前述图1中的(a)与图1中的(b)中的a为补光装置,如红外激光二极管,设置于头戴设备的壳体的外侧,用于在低光环境下,对C1、 C2、C3、C4进行补光。
可选地,参见图1中的(b)所示,C1、C2、C6、C7可设置于壳体外侧的壳体外边框,其中,C1、C2设置于上边框,C6与C7设置于下边框,C3 可设置于右眼区域靠近内眼角区域处,C4可设置于左眼区域靠近内眼角区域处,C9可设置于左眼区域靠近外眼角区域处,C10可设置于右眼区域靠近外眼角区域处,C5、C8,以及补光装置a都可设置于头戴设备的中心轴上。其中,该中心轴与用户佩戴头戴设备时与地平面垂直的直线平行。
本实施例中的各成单元,如第一相机、第二相机、第三相机等单元涉及的数据,以及对应的数据处理方式可参见如下各方法实施例的描述。
图2a为本申请一示例性实施例提供的一种数据处理方法的流程示意图,该方法可适用于头戴设备,该方法至少包括以下步骤:
S201、通过多个第一相机获取第一黑白图像;
S202、通过目标相机获取与所述第一黑白图像对应的彩色图像;
S203、获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
S204、根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
S205、获取所述第一黑白图像对应的虚拟现实画面信息;
S206、根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
其中,所述第一黑白图像的个数可以为多个,第一相机与第一黑白图像一一对应。
具体地,前述头戴设备为头戴式一体机,所述第一相机与所述目标相机设置于所述头戴设备的壳体的外侧,所述壳体的外侧为用户佩戴所述头戴设备时朝向用户前方的一侧,所述多个第一相机两两对称设置于所述壳体的中心轴两侧,所述目标相机设置于所述中心轴上,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
具体地,多个第一相机对应的多个视场范围的交集为多个第一相机对应的多个视场范围重合的区域。
可选地,第一相机的个数为偶数,两两对称设置于壳体的中心轴两侧,彼此对称的两第一相机间的距离不大于第一预设距离。
可选地,彼此对称的两第一相机为一相机对,不同相机对中,相机之间的距离可以不同。
可选地,第一相机的个数为2。
针对前述中心轴,以头戴设备的中心为原点建立坐标系,该坐标系的x 轴为水平方向,y轴为上下方向(还可称竖直方向),z轴代表前后方向,具体可参见图2b所示,则前述中心轴与y轴平行(两者水平坐标相同)或重合。各第一相机距离中心轴的距离指水平距离;目标相机设置于中心轴上指目标相机的中心距离中心轴的水平距离为0。
需要说明的是,本申请描述的距离信息为无误差情况下的距离,即本申请的方案中的距离涵盖距离浮动预设范围的情况,例如,前述目标相机设置于中心轴上指目标相机的中心距离中心轴的水平距离为0,也可以指目标相机的中心距离中心轴的水平距离与0的差值小于预设范围值。
进一步地,与本申请中涉及到的距离都可允许有一定的误差范围。
进一步地,目标相机距离所述多个第一相机中各第一相机的竖直距离都满足小于第二预设距离。
可选地,图1中的(b)中的C3与C4为第一相机,C5为目标相机。
进一步地,前述彼此对称的两第一相机组成的相机对,其中一第一相机可以对应左眼,即拍的图像为左眼对应的环境图像,另一第一相机对应右眼,即拍的图像为右眼对应的环境图像。
第一相机与目标相机之间的第一位置关系信息可以为第一相机与目标相机分别对应的相机坐标系之间的坐标系转换信息,具体可存储于头戴设备自身。
进一步地,前述步骤S204中,根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像包括:
S2041、根据所述第一黑白图像确定对应的第一点云信息,所述第一点云信息为相对所述任一第一相机的相机坐标系的点云信息;
S2042、根据所述第一点云信息与所述第一位置关系信息确定与所述第一点云信息对应的,相对所述目标相机的第二点云信息;
S2043、利用所述第二点云信息、所述彩色图像,确定包含有色彩信息的第三点云信息;
S2044、基于所述第三点云信息确定所述第一现实环境图像。
具体地,第一点云信息为多个特征点对应的三维坐标信息的集合。
进一步地,关于前述步骤S2043,利用所述第二点云信息、所述彩色图像,确定包含有色彩信息的第三点云信息可具体包括:针对第二点云信息中的各特征点,将彩色图像中与特征点对应的像素的色彩信息作为该特征点对应的色彩信息,进而得到各特征点都对应有色彩信息的第三点云信息。
进一步地,色彩信息可包括R、G、B值信息。
进一步地,S2044中,基于所述第三点云信息确定所述第一现实环境图像包括:
S01、根据所述第三点云信息与第二位置关系信息,确定与所述第三点云信息对应的,相对世界坐标系的第四点云信息;
S02、利用所述第四点云信息与第三位置关系信息确定左眼彩色图像与右眼彩色图像;
S03、基于所述左眼彩色图像与所述右眼彩色图像确定所述第一现实环境图像。
其中,第二位置关系信息为目标相机的相机坐标系与世界坐标系之间的坐标系转换关系信息,第四点云信息包含有多个特征点对应的三维坐标系信息的集合,以及各三维坐标信息对应的色彩信息。
进一步地,第三位置关系信息可以为眼对应的相机坐标系与世界坐标系之间的关系,以及右眼对应的相机坐标系与世界坐标系之间的关系。
可选地,左眼对应的相机坐标系可以与前述彼此对称的两第一相机组成的相机对中的与左眼同侧的第一相机的相机坐标系重合,右眼对应的相机坐标系可以与前述彼此对称的两第一相机组成的相机对中的与右眼同侧的第一相机的相机坐标系重合。
进一步地,本申请的左右眼描述还可以理解为一只眼与另一只眼,本申请的方案不对眼睛的左右进行限定。
进一步地,前述S02中在利用所述第四点云信息与第三位置关系信息确定左眼彩色图像与右眼彩色图像,可将第四点云信息进行投影,确定出左眼对应的投影图像,以及右眼对应的投影图像,进一步根据左眼对应的彩色投影图像,以及右眼对应的彩色投影图像分别确定出左眼彩色图像与右眼彩色图像。
进一步地,第一现实环境图像则为基于左眼彩色图像与所述右眼彩色图像确定出的现实画面信息。
可选地,前述第一黑白图像包含左眼黑白图像与右眼黑白图像,可基于左眼黑白图像与右眼黑白图像的视差图确定第一点云信息。
可选地,也可具体基于左眼彩色图像与所述右眼彩色图像的视差图确定第一现实环境图像。
可选地,本申请中涉及到的坐标系之间的关系可以包括旋转参数和/或平移参数信息。
进一步地,前述步骤S205中第一黑白图像对应的虚拟现实画面信息指混合现实画面中,与第一现实环境图像共同展示的虚拟画面信息,具体可以为VR场景中的画面信息,其中,与第一现实环境图像共同展示的虚拟画面信息,为根据头戴设备的定位信息确定的虚拟画面信息,定位信息包括头戴设备的位姿信息;头戴设备确定出其定位信息后,可基于该定位信息确定定位信息对应的虚拟画面信息。
其中,头戴设备自身可存储有定位信息与虚拟画面信息的对应关系,头戴设备可具体基于该对应关系确定定位信息对应的虚拟画面信息,前述定位信息为在第一现实环境图像的展示时刻,确定出的头戴设备的定位信息。其中,第一现实环境图像的展示时刻与第一现实环境图像的采集时刻的间隔时长需小于预设时长,以保证第一现实环境图像为当前的环境图像。
基于此,所述方法还包括:
S1、通过第二相机获取第二黑白图像;
S2、根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;
S3、基于所述第二现实环境图像确定所述虚拟现实画面信息。
可选地,第二现实环境图像包括所述第一黑白图像与第二黑白图像,前述基于第二现实环境图像确定虚拟现实画面信息包括:基于所述第二现实环境图像确定所述定位信息,所述定位信息为头戴设备的位姿信息;基于所述定位信息确定所述虚拟现实画面信息。
进一步地,第二相机可以为多个,所述第二相机设置于所述壳体的外侧,第二相机的个数为偶数,两两对称设置于壳体的中心轴两侧,彼此对称的两第二相机间的距离不大于第三预设距离,第三预设距离可大于第一预设距离。
可选地,彼此对称的两第二相机为一相机对,不同相机对中,相机之间的距离可以不同。
可选地,第二相机的个数为2。
可选地,第二相机距离中心轴的距离大于同侧的第一相机距离中心轴的距离。
可选地,多个第二相机与多个第一相机的总视场范围满足第一预设视场范围,其中,总视场范围与各相机的自身视场范围,以及多个相机的安装位置,安装朝向相关,例如:多个第二相机与多个第一相机中的多个相机的放置位置还可符合预设规则,预设规则包括不同相机之间的距离,距离中心轴距离等等,对此,本申请不做限定。
可选地,第二相机位于同侧的第一相机的斜上方,即第二相机距离所述头戴设备中心的竖直距离(即纵坐标)大于同侧的第一相机距离所述头戴设备中心的竖直距离,且第二相机距离中心轴的距离大于同侧的第一相机距离中心轴的距离。
可选地,图1中的(b)中的C1与C2为第二相机。
进一步地,C1、C2、C3,以及C4采集图像的采集时刻一致,采集图像的帧率相同。
综上,多个第一相机除了用于定位还复用于确定第一现实环境图像,可进一步结合目标相机,通过计算机视觉技术和立体视觉处理技术,高精度还原物理环境空间的立体三维彩色信息,节省了成本。
进一步地,为了能实时高精度获取物理环境空间的立体信息,可以选择性对多个第一相机中的相机的规格参数进一步优化调整,通过选择高分辨率,高信噪比的追踪相机传感器,进一步提高环境立体捕捉精度。
进一步地,所述方法还包括:
当检测到所述多个第一相机与多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启补光装置;
所述补光装置设置于壳体的外侧,所述中心轴上,具体地,补光装置可以为发光二极管。所述补光装置开启后,所述补光装置与所述多个第一相机以及多个第二相机的工作频率同步。
进一步地,所述方法还包括:
通过第三相机获取用户的面部图像;
根据所述面部图像展示对应的用户形象。
具体地,根据所述面部图像展示对应的用户形象过程中,可对面部图像进行分析,确定用户当前的表情类型,进一步根据表情类型展示用户形象。其中,用户形象可展示于头戴设备的显示屏中,头戴设备还可将用户形象数据发送至服务器,由服务器进一步展示于其它用户的头戴设备的显示屏中,其中,其它用户为与当前用户处于同一虚拟场景中的用户。
可选地,还可通过对用户的面部信息进行实时检测和分析,获得用户脸部的特征数据,如用户的眼睛动作与用户唇部动作数据,进一步通过图形渲染技术,根据用户脸部的特征数据展示相应的用户形象。
进一步地,前述面部图像可由多个第三相机采集,多个第三相机设置于所述壳体的内侧,所述壳体的内侧为用户佩戴所述头戴设备时朝向用户后方的一侧;
多个第三相机部分两两对称设置于所述中心轴两侧,部分设置于所述中心轴上,第三相机可以为红外相机。
可选地,各第三相机可配备1个及多个红外激光二极管,以提高面部表情追踪的稳定性。其中,红外波长范围为850nm正负15nm范围或者940nm 正负15nm范围,即第三相机的透过的光的波长即为属于红外波长范围的波长,其他波长的光为第三相机的截止波长不可透过。
可选地,可参见图1中的(b)所示,C6、C7、C8、C9、C10可以为第三相机。
进一步地,前述多个第三相机的总视场范围可以大于第二预设视场范围,总视场范围与各相机的自身视场范围,以及多个相机的安装位置,安装朝向相关,例如:多个第三相机的放置位置还可符合预设规则,预设规则包括不同相机之间的距离,距离中心轴距离等等,对此,本申请不做限定。
进一步地,上述方法还包括:根据预设时间段的面部图像确定用户的眼动信息,进而确定用户的注视方向,便于进一步对用户注视的虚拟场景区域进行高分辨率渲染,其他区域进行低分辨率渲染,进而达到不降低用户体验的前提下优化头戴设备的渲染能力,降低系统的负载,节省资源。
进一步地,多个第一相机与多个第二相机中的各相机可内嵌于前述壳体,各相机的镜头波长可以透过可见光波长也可以透过上述850nm正负15nm或者940nm正负15nm的红外光。
进一步地,多个第一相机与多个第二相机中的各相机的FOV至少在150 以上,帧率在30Hz以上。
进一步地,多个第一相机与多个第二相机的拼接FOV在220°*160°以上,通过提高FOV,极大提高了头戴设备6DoF追踪的鲁棒性和精度。
可选地,多个第一相机为同一种规格参数的传感器型号,多个第二相机为同一种规格参数的传感器型号。
可选地,各第一相机与各第二相机的传感器型号都可以相同。
进一步地,图2c示出一种展示虚拟现实画面信息的具体方式的示意图;本申请实施例需要实时采集五路数据,包括C1、C2、C3、C4的环境图像数据,以及头戴设备内置的IMU传感器的数据。C1、C2、C3、C4的图像采集帧率为30HZ,IMU自身的采样帧率为1000Hz。可首先根据C1、C2、C3、 C4的每帧图像数据结合对应时刻的内置的IMU传感器的惯性导航数据,实时计算头戴设备在3D空间中的位姿信息,位姿信息具体可以为6DoF数据,然后进一步结合高帧率的对应时刻的IMU传感器的数据,将当前采集帧率 (30Hz)下的头戴设备在3D空间中的位姿信息,实时预测插帧至与IMU相同帧率(即1000Hz)下;最后,对预测插帧后得到的头戴设备在3D空间中的对应高帧率的位姿信息,经应用渲染后采用大于75Hz的帧率显示虚拟现实画面信息。其中,头戴设备为了让用户有一定的沉浸感和减少用户的眩晕感,显示帧率最少需要在75Hz,因此本申请实施例采用大于75Hz的帧率进行显示输出,可以保证用户的沉浸感并减少用户的眩晕感。
进一步地,前述多个第一相机中的至少部分相机与多个第二相机中的至少部分相机,还可用于采集用户的手部图像,识别用户的手势信息,进而根据手势信息实现与显示画面的交互。
进一步地,前述方法还可适用于其它设备,其它设备可通过多个第一相机获取第一黑白图像;通过目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
本申请通过通过多个第一相机获取第一黑白图像;通过目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集的方案,可结合设置于头戴设备的彩色相机对黑白环境图像进行处理,进而将虚拟场景信息与彩色现实场景信息结合展示,提高了用户体验。
以下结合具体场景对本方案进行进一步说明:
场景一
一种内-外的位置跟踪和环境跟踪的用户虚拟现实和混合现实的头戴式显示设备,通过按照一定规则约束在虚拟现实和混合现实的头戴式显示设备上放置4路环境追踪相机,对环境进行实时高精度定位和追踪,实时获取虚拟现实和混合现实头戴式一体机设备相对物理空间三维环境的位姿信息;同时在虚拟现实和混合现实头戴式显示设备的中心位置,即壳体中心,安装一高分辨率的RGB目标相机,同时实时复用2路环境追踪相机,高精度还原物理环境空间的立体信息,物理环境空间的立体信息通过相机之间的标定参数映射到RGB目标相机模型中,实时对空间环境进行追踪,使其用户在佩戴虚拟现实和混合现实头戴式显示设备可以透视物理三维空间。
场景二、发光二极管a负责给环境追踪相机C1,C2,C3,C4在低光照环境下补光,确保在低光照环境下环境追踪相机能稳定工作;可选地,用于补光的红外二极管的个数还可以为多个,本文使用的红外激光波段为850nm 或者940nm的红外波段,红外波长为850nm正负15nm范围或者940nm正负15nm范围空间。通过放置红外激光二极管,可提高在低光照环境下的自内-外的追踪稳定性,保证了追踪精度。
进一步地,本申请一示例性实施例还提供一种头戴设备,该头戴设备可包括:数据处理单元与壳体,所述壳体的外侧设置有多个第一相机与目标相机,所述壳体的外侧为用户佩戴所述头戴设备时朝向用户前方的一侧;
所述多个第一相机两两对称设置于所述壳体的中心轴两侧;
所述目标相机设置于所述中心轴上,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集;
所述数据处理单元,用于:通过多个第一相机获取第一黑白图像;通过目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容。
可选地,所述壳体的外侧还设置有多个第二相机,所述多个第二相机两两对称设置于所述壳体的中心轴两侧;
所述数据处理单元,还用于:通过所述多个第二相机获取第二黑白图像;根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;基于所述第二现实环境图像确定所述虚拟现实画面信息。
可选地,所述壳体的外侧还设置有补光装置,所述补光装置设置于所述中心轴上;
所述数据处理单元还用于:当检测到所述多个第一相机与所述多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启所述补光装置。
可选地,所述壳体的内侧设置有多个第三相机,所述壳体的内侧为用户佩戴所述头戴设备时朝向用户后方的一侧;
所述第多个第三相机部分两两对称设置于所述中心轴两侧,部分设置于所述中心轴上;
所述数据处理单元还用于:通过所述多个第三相机获取用户的面部图像;根据所述面部图像展示对应的用户形象。
本实施例的具体实施细节可参见前述内容,此处不再赘述。
图3为本申请一示例性实施例提供的一种数据处理装置的结构示意图,该装置可适用于头戴设备,包括:第一获取模块31、第二获取模块32、第三获取模块33,第一确定模块34,第四获取模块35,以及第二确定模块36;其中:
第一获取模块31,用于通过多个第一相机获取第一黑白图像;
第二获取模块32,用于通过目标相机获取与所述第一黑白图像对应的彩色图像;
第三获取模块33,用于获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
第一确定模块34,用于根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
第四获取模块35,用于获取所述第一黑白图像对应的虚拟现实画面信息;
第二确定模块36,用于根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
可选地,前述装置在用于根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像时,具体用于:
根据所述第一黑白图像确定对应的第一点云信息,所述第一点云信息为相对所述任一第一相机的相机坐标系的点云信息;
根据所述第一点云信息与所述第一位置关系信息确定与所述第一点云信息对应的,相对所述目标相机的第二点云信息;
利用所述第二点云信息、所述彩色图像,确定包含有色彩信息的第三点云信息;
基于所述第三点云信息确定所述第一现实环境图像。
可选地,前述装置在用于基于所述第三点云信息确定所述第一现实环境图像时,具体用于:
根据所述第三点云信息与第二位置关系信息,确定与所述第三点云信息对应的,相对世界坐标系的第四点云信息,所述第二位置关系信息为所述目标相机的相机坐标系与世界坐标系之间的坐标系转换关系信息;
利用所述第四点云信息与第三位置关系信息确定左眼彩色图像与右眼彩色图像,所述第三位置关系信息为眼对应的相机坐标系与世界坐标系之间的关系,以及右眼对应的相机坐标系与世界坐标系之间的关系;
基于所述左眼彩色图像与所述右眼彩色图像确定所述第一现实环境图像。
可选地,上述装置还用于:
通过第二相机获取第二黑白图像;
根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;
基于所述第二现实环境图像确定所述虚拟现实画面信息。
可选地,所述第二相机的个数为多个,所述装置还用于:
当检测到所述多个第一相机与多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启补光装置。
可选地,所述装置还用于:
通过第三相机获取用户的面部图像;
根据所述面部图像展示对应的用户形象。
应理解的是,装置实施例与方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,该装置可以执行上述方法实施例,并且该装置中的各个模块的前述和其它操作和/或功能分别为了上述方法实施例中的各个方法中的相应流程,为了简洁,在此不再赘述。
上文中结合附图从功能模块的角度描述了本申请实施例的装置。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本申请实施例中的方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本申请实施例公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法实施例中的步骤。
图4是本申请实施例提供的电子设备的示意性框图,该电子设备可包括:
存储器401和处理器402,该存储器401用于存储计算机程序,并将该程序代码传输给该处理器402。换言之,该处理器402可以从存储器401中调用并运行计算机程序,以实现本申请实施例中的方法。
例如,该处理器402可用于根据该计算机程序中的指令执行上述方法实施例。
在本申请的一些实施例中,该处理器402可以包括但不限于:
通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。
在本申请的一些实施例中,该存储器401包括但不限于:
易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM, PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM, DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(DoubleData Rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在本申请的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器401中,并由该处理器402执行,以完成本申请提供的方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在该电子设备中的执行过程。
如图4所示,该电子设备还可包括:
收发器403,该收发器403可连接至该处理器402或存储器401。
其中,处理器402可以控制该收发器403与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器403可以包括发射机和接收机。收发器403还可以进一步包括天线,天线的数量可以为一个或多个。
应当理解,该电子设备中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
本申请还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的方法。或者说,本申请实施例还提供一种包含指令的计算机程序产品,该指令被计算机执行时使得计算机执行上述方法实施例的方法。
当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如数字视频光盘(digital video disc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
根据本申请的一个或多个实施例,提供一种数据处理方法,适用于头戴设备,包括:
通过多个第一相机获取第一黑白图像;
通过目标相机获取与所述第一黑白图像对应的彩色图像;
获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
获取所述第一黑白图像对应的虚拟现实画面信息;
根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
根据本申请的一个或多个实施例,根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像包括:
根据所述第一黑白图像确定对应的第一点云信息,所述第一点云信息为相对所述任一第一相机的相机坐标系的点云信息;
根据所述第一点云信息与所述第一位置关系信息确定与所述第一点云信息对应的,相对所述目标相机的第二点云信息;
利用所述第二点云信息、所述彩色图像,确定包含有色彩信息的第三点云信息;
基于所述第三点云信息确定所述第一现实环境图像。
根据本申请的一个或多个实施例,基于所述第三点云信息确定所述第一现实环境图像包括:
根据所述第三点云信息与第二位置关系信息,确定与所述第三点云信息对应的,相对世界坐标系的第四点云信息,所述第二位置关系信息为所述目标相机的相机坐标系与世界坐标系之间的坐标系转换关系信息;
利用所述第四点云信息与第三位置关系信息确定左眼彩色图像与右眼彩色图像,所述第三位置关系信息为眼对应的相机坐标系与世界坐标系之间的关系,以及右眼对应的相机坐标系与世界坐标系之间的关系;
基于所述左眼彩色图像与所述右眼彩色图像确定所述第一现实环境图像。
根据本申请的一个或多个实施例,所述方法还包括:
通过第二相机获取第二黑白图像;
根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;
基于所述第二现实环境图像确定所述虚拟现实画面信息。
根据本申请的一个或多个实施例,所述第二相机的个数为多个,所述方法还包括:
当检测到所述多个第一相机与多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启补光装置。
根据本申请的一个或多个实施例,所述方法还包括:
通过第三相机获取用户的面部图像;
根据所述面部图像展示对应的用户形象。
根据本申请的一个或多个实施例,提供一种头戴设备,包括:数据处理单元与壳体,所述壳体的外侧设置有多个第一相机与目标相机,所述壳体的外侧为用户佩戴所述头戴设备时朝向用户前方的一侧;
所述多个第一相机两两对称设置于所述壳体的中心轴两侧;
所述目标相机设置于所述中心轴上,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集;
所述数据处理单元,用于:通过所述多个第一相机获取第一黑白图像;通过所述目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容。
根据本申请的一个或多个实施例,所述壳体的外侧还设置有多个第二相机,所述多个第二相机两两对称设置于所述壳体的中心轴两侧;
所述数据处理单元,还用于:通过所述多个第二相机获取第二黑白图像;根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;基于所述第二现实环境图像确定所述虚拟现实画面信息。
根据本申请的一个或多个实施例,所述壳体的外侧还设置有补光装置,所述补光装置设置于所述中心轴上;
所述数据处理单元还用于:当检测到所述多个第一相机与所述多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启所述补光装置。
根据本申请的一个或多个实施例,所述壳体的内侧设置有多个第三相机,所述壳体的内侧为用户佩戴所述头戴设备时朝向用户后方的一侧;
所述多个第三相机部分两两对称设置于所述中心轴两侧,部分设置于所述中心轴上;
所述数据处理单元还用于:通过所述多个第三相机获取用户的面部图像;根据所述面部图像展示对应的用户形象。
根据本申请的一个或多个实施例,提供一种数据处理装置,适用于头戴设备,包括:
第一获取模块,用于通过多个第一相机获取第一黑白图像;
第二获取模块,用于通过目标相机获取与所述第一黑白图像对应的彩色图像;
第三获取模块,用于获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
第一确定模块,用于根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
第四获取模块,用于获取所述第一黑白图像对应的虚拟现实画面信息;
第二确定模块,用于根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
根据本申请的一个或多个实施例,前述装置在用于根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像时,具体用于:
根据所述第一黑白图像确定对应的第一点云信息,所述第一点云信息为相对所述任一第一相机的相机坐标系的点云信息;
根据所述第一点云信息与所述第一位置关系信息确定与所述第一点云信息对应的,相对所述目标相机的第二点云信息;
利用所述第二点云信息、所述彩色图像,确定包含有色彩信息的第三点云信息;
基于所述第三点云信息确定所述第一现实环境图像。
根据本申请的一个或多个实施例,前述装置在用于基于所述第三点云信息确定所述第一现实环境图像时,具体用于:
根据所述第三点云信息与第二位置关系信息,确定与所述第三点云信息对应的,相对世界坐标系的第四点云信息,所述第二位置关系信息为所述目标相机的相机坐标系与世界坐标系之间的坐标系转换关系信息;
利用所述第四点云信息与第三位置关系信息确定左眼彩色图像与右眼彩色图像,所述第三位置关系信息为眼对应的相机坐标系与世界坐标系之间的关系,以及右眼对应的相机坐标系与世界坐标系之间的关系;
基于所述左眼彩色图像与所述右眼彩色图像确定所述第一现实环境图像。
根据本申请的一个或多个实施例,上述装置还用于:
通过第二相机获取第二黑白图像;
根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;
基于所述第二现实环境图像确定所述虚拟现实画面信息。
根据本申请的一个或多个实施例,所述第二相机的个数为多个,所述装置还用于:
当检测到所述多个第一相机与所述多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启补光装置。
根据本申请的一个或多个实施例,所述装置还用于:
通过第三相机获取用户的面部图像;
根据所述面部图像展示对应的用户形象。
根据本申请的一个或多个实施例,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行前述各方法。
根据本申请的一个或多个实施例,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述各方法。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以该权利要求的保护范围为准。

Claims (13)

1.一种数据处理方法,其特征在于,适用于头戴设备,包括:
通过多个第一相机获取第一黑白图像;
通过目标相机获取与所述第一黑白图像对应的彩色图像;
获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
获取所述第一黑白图像对应的虚拟现实画面信息;
根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
2.根据权利要求1所述的方法,其特征在于,根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像包括:
根据所述第一黑白图像确定对应的第一点云信息,所述第一点云信息为相对任一第一相机的相机坐标系的点云信息;
根据所述第一点云信息与所述第一位置关系信息确定与所述第一点云信息对应的,相对所述目标相机的第二点云信息;
利用所述第二点云信息、所述彩色图像,确定包含有色彩信息的第三点云信息;
基于所述第三点云信息确定所述第一现实环境图像。
3.根据权利要求2所述的方法,其特征在于,基于所述第三点云信息确定所述第一现实环境图像包括:
根据所述第三点云信息与第二位置关系信息,确定与所述第三点云信息对应的,相对世界坐标系的第四点云信息,所述第二位置关系信息为所述目标相机的相机坐标系与世界坐标系之间的坐标系转换关系信息;
利用所述第四点云信息与第三位置关系信息确定左眼彩色图像与右眼彩色图像,所述第三位置关系信息为眼对应的相机坐标系与世界坐标系之间的关系,以及右眼对应的相机坐标系与世界坐标系之间的关系;
基于所述左眼彩色图像与所述右眼彩色图像确定所述第一现实环境图像。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
通过第二相机获取第二黑白图像;
根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;
基于所述第二现实环境图像确定所述虚拟现实画面信息。
5.根据权利要求4所述的方法,其特征在于,所述第二相机的个数为多个,所述方法还包括:
当检测到所述多个第一相机与多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启补光装置。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
通过第三相机获取用户的面部图像;
根据所述面部图像展示对应的用户形象。
7.一种头戴设备,其特征在于,包括:数据处理单元与壳体,所述壳体的外侧设置有多个第一相机与目标相机,所述壳体的外侧为用户佩戴所述头戴设备时朝向用户前方的一侧;
所述多个第一相机两两对称设置于所述壳体的中心轴两侧;
所述目标相机设置于所述中心轴上,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集;
所述数据处理单元,用于:通过所述多个第一相机获取第一黑白图像;通过所述目标相机获取与所述第一黑白图像对应的彩色图像;获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;获取所述第一黑白图像对应的虚拟现实画面信息;根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容。
8.根据权利要求7所述的头戴设备,其特征在于,所述壳体的外侧还设置有多个第二相机,所述多个第二相机两两对称设置于所述壳体的中心轴两侧;
所述数据处理单元,还用于:通过所述多个第二相机获取第二黑白图像;根据所述第一黑白图像与所述第二黑白图像确定第二现实环境图像;基于所述第二现实环境图像确定所述虚拟现实画面信息。
9.根据权利要求8所述的头戴设备,其特征在于,所述壳体的外侧还设置有补光装置,所述补光装置设置于所述中心轴上;
所述数据处理单元还用于:当检测到所述多个第一相机与所述多个第二相机中任一个或多个相机的曝光参数数值小于预设阈值时,控制开启所述补光装置。
10.根据权利要求7所述的头戴设备,其特征在于,所述壳体的内侧设置有多个第三相机,所述壳体的内侧为用户佩戴所述头戴设备时朝向用户后方的一侧;
所述多个第三相机部分两两对称设置于所述中心轴两侧,部分设置于所述中心轴上;
所述数据处理单元还用于:通过所述多个第三相机获取用户的面部图像;根据所述面部图像展示对应的用户形象。
11.一种数据处理装置,其特征在于,适用于头戴设备,包括:
第一获取模块,用于通过多个第一相机获取第一黑白图像;
第二获取模块,用于通过目标相机获取与所述第一黑白图像对应的彩色图像;
第三获取模块,用于获取所述多个第一相机中的任一第一相机,与所述目标相机之间的第一位置关系信息;
第一确定模块,用于根据所述第一黑白图像、所述彩色图像,以及所述第一位置关系信息确定对应的第一现实环境图像;
第四获取模块,用于获取所述第一黑白图像对应的虚拟现实画面信息;
第二确定模块,用于根据所述第一现实环境图像与所述虚拟现实画面信息确定所述头戴设备的显示内容;
其中,所述目标相机的视场范围不小于所述多个第一相机对应的多个视场范围的交集。
12.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-6任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6任一项所述的方法。
CN202210641193.3A 2022-06-07 2022-06-07 数据处理方法、装置、电子设备、头戴设备及介质 Pending CN117234281A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210641193.3A CN117234281A (zh) 2022-06-07 2022-06-07 数据处理方法、装置、电子设备、头戴设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210641193.3A CN117234281A (zh) 2022-06-07 2022-06-07 数据处理方法、装置、电子设备、头戴设备及介质

Publications (1)

Publication Number Publication Date
CN117234281A true CN117234281A (zh) 2023-12-15

Family

ID=89089874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210641193.3A Pending CN117234281A (zh) 2022-06-07 2022-06-07 数据处理方法、装置、电子设备、头戴设备及介质

Country Status (1)

Country Link
CN (1) CN117234281A (zh)

Similar Documents

Publication Publication Date Title
US10643394B2 (en) Augmented reality
KR102417177B1 (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
CN108292489B (zh) 信息处理装置和图像生成方法
CN108780578B (zh) 增强现实系统和操作增强现实系统的方法
US20190208210A1 (en) Reprojecting Holographic Video to Enhance Streaming Bandwidth/Quality
US11178344B2 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
US10999412B2 (en) Sharing mediated reality content
JP2020537383A (ja) ヘッドマウントディスプレイ追跡システム
CN108535868B (zh) 头部佩戴型显示装置及其控制方法
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理系统及处理方法
JP2016510525A (ja) ニアアイ・ディスプレイのディスプレイ更新時間の低減
CN103517061B (zh) 一种终端设备的显示控制方法及装置
CN110998666B (zh) 信息处理装置、信息处理方法以及程序
CN106168855B (zh) 一种便携式mr眼镜、手机和mr眼镜系统
CN110895676B (zh) 动态对象跟踪
EP3333808A1 (en) Information processing device
KR20200073784A (ko) 가상 현실 서비스를 제공하는 서버, 단말 및 방법
KR102503337B1 (ko) 이미지 디스플레이 방법, 장치 및 시스템
CN111947650A (zh) 基于光学追踪与惯性追踪的融合定位系统及方法
JP6649010B2 (ja) 情報処理装置
US11521297B2 (en) Method and device for presenting AR information based on video communication technology
CN117234281A (zh) 数据处理方法、装置、电子设备、头戴设备及介质
CN117234282A (zh) 数据处理方法、装置、电子设备、头戴设备及介质
CN114742977A (zh) 一种基于ar技术的视频透视方法
CN114020150A (zh) 图像显示方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination