CN108830943B - 一种图像处理方法及虚拟现实设备 - Google Patents

一种图像处理方法及虚拟现实设备 Download PDF

Info

Publication number
CN108830943B
CN108830943B CN201810715695.XA CN201810715695A CN108830943B CN 108830943 B CN108830943 B CN 108830943B CN 201810715695 A CN201810715695 A CN 201810715695A CN 108830943 B CN108830943 B CN 108830943B
Authority
CN
China
Prior art keywords
binocular camera
virtual reality
live
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810715695.XA
Other languages
English (en)
Other versions
CN108830943A (zh
Inventor
张向军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Inc
Original Assignee
Goertek Optical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Optical Technology Co Ltd filed Critical Goertek Optical Technology Co Ltd
Priority to CN201810715695.XA priority Critical patent/CN108830943B/zh
Publication of CN108830943A publication Critical patent/CN108830943A/zh
Application granted granted Critical
Publication of CN108830943B publication Critical patent/CN108830943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Abstract

本申请实施例提供一种图像处理方法和虚拟现实设备,其中,方法包括响应于实景交互请求,获取虚拟现实设备的双目摄像头采集到的实景图像;根据双目摄像头位置与人眼位置之间的图像转换关系,对所述双目摄像头采集到的实景图像进行图像转换,其中,所述双目摄像头位置与人眼位置之间的图像转换关系是基于所述虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离确定的;将转换后的实景图像显示在所述虚拟现实设备的显示屏上,以供人眼获得与裸眼效果一致的实景图像。在本申请实施例中,当用户需要与实景进行交互时,无需摘下虚拟现实设备即可无障碍地进行实景交互,大大提高了实景交互的便利性。

Description

一种图像处理方法及虚拟现实设备
技术领域
本申请涉及虚拟现实技术领域,尤其涉及一种图像处理方法及虚拟现实设备。
背景技术
近年来,随着虚拟现实技术的发展,大量的虚拟现实设备投入市场,越来越多的用户开始尝试体验这种新的产品。
但是,由于现有的虚拟现实设备无法为用户提供实景图像,因此,当用户在使用虚拟现实设备的过程中需要喝杯水、拿取桌面上的物品或者需要与实景进行其它交互时,通常需要摘下虚拟现实设备,这种频繁地摘带使得用户与实景的交互过程非常的繁琐。
因此,如何在无需频繁摘带虚拟现实设备的情况下实现用户与实景的无障碍交互,成为了一个亟需解决的技术问题。
发明内容
本申请的多个方面提供一种图像处理方法及虚拟现实设备,以解决现有技术中用户通过虚拟现实设备与实景进行交互时需要频繁摘带虚拟现实设备的技术问题。
本申请实施例提供一种图像处理方法,包括:
响应于实景交互请求,获取虚拟现实设备的双目摄像头采集到的实景图像;
根据双目摄像头位置与人眼位置之间的图像转换关系,对所述双目摄像头采集到的实景图像进行图像转换,其中,所述双目摄像头位置与人眼位置之间的图像转换关系是基于所述虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离确定的;
将转换后的实景图像显示在所述虚拟现实设备的显示屏上,以供人眼获得与裸眼效果一致的实景图像。
本申请实施例还提供一种虚拟现实设备,包括:双目摄像头、显示屏和控制器;
所述控制器用于响应于实景交互请求,向所述双目摄像头发送图像获取请求,并获取所述双目摄像头采集到的实景图像;
根据双目摄像头位置与人眼位置之间的图像转换关系,对所述双目摄像头采集到的实景图像进行图像转换,其中,所述双目摄像头位置与人眼位置之间的图像转换关系是基于所述虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离确定的;将转换后的实景图像发送至所述显示屏;
双目摄像头用于根据控制器发送的图像获取请求采集实景图像,并将采集到的实景图像发送至控制器;
所述显示屏用于显示所述转换后的实景图像,以在人眼位置处获得真实的实景图像。
在本申请实施例中,通过在虚拟现实设备上设置双目摄像头来模拟双眼视觉,并通过对双目摄像头采集到的实景图像进行图像转换,可改善虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离所导致的成像误差,因此,在虚拟现实设备佩戴状态下,人眼可获得与裸眼效果一致的实景图像。这使得当用户需要与实景进行交互时,无需摘下虚拟现实设备即可无障碍地进行实景交互,大大提高了实景交互的便利性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请一实施例提供的一种图像处理方法;
图2a为双目摄像头的对称中心位于第一位置上时双目摄像头拍摄目标物体生成的图像;
图2b为双目摄像头的对称中心位于第二位置上时双目摄像头拍摄目标物体生成的图像;
图2c为图2a的图像根据双目摄像头位置与人眼位置之间的图像转换关系进行图像转化后获得的图像;
图3为本申请另一实施例提供的一种虚拟现实设备的结构示意图;
图4为本申请又一实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
现有技术中,在虚拟现实设备的使用过程中,当用户需要喝杯水、拿取桌面上的物品或者与实景进行其它交互时,通常需要摘下虚拟现实设备,这种频繁地摘带使得用户与实景的交互过程非常的繁琐。针对现有技术存在的上述问题,本申请实施例提供一种解决方案:通过虚拟现实设备上设置双目摄像头来模拟双眼视觉,通过对双目摄像头采集到的实景图像进行图像转换,可改善虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离所导致的成像误差,因此,在虚拟现实设备佩戴状态下,人眼可获得与裸眼效果一致的实景图像。这使得当用户需要与实景进行交互时,无需摘下虚拟现实设备即可无障碍地进行实景交互,大大提高了实景交互的便利性。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本申请一实施例提供的一种图像处理方法。如图1所示,该方法包括:
100、响应于实景交互请求,获取虚拟现实设备的双目摄像头采集到的实景图像;
101、根据双目摄像头位置与人眼位置之间的图像转换关系,对双目摄像头采集到的实景图像进行图像转换,其中,双目摄像头位置与人眼位置之间的图像转换关系是基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离确定的;
102、将转换后的实景图像显示在虚拟现实设备的显示屏上,以供人眼获得与裸眼效果一致的实景图像。
本实施例提供的方法可应用于虚拟现实设备,虚拟现实设备可以是虚拟现实头盔、虚拟现实眼镜等设备。本申请实施例可在现有的虚拟现实设备的前方增加双目摄像头,以实施本实施例提供的方法。
虚拟现实设备佩戴状态下,双目摄像头和人眼分别位于虚拟现实设备主体的前方和后方,双目摄像头中每个摄像头的中心可分别与人眼平视时的两条平视视线适配,其中,人眼平视是指眼球无转动角度,平视视线是指人眼平视时眼球与物体之间的连线。也即是,双目摄像头中的左摄像头的中心可与人眼平视时的左眼平视视线适配以及双目摄像头中的右摄像头的中心可与人眼平视时的右眼平视视线适配。此处,适配是指双目摄像头的每个摄像头的中心位于人眼平视时的两条平视视线上,或者与平时视线之间存在误差,但误差处于预设范围内。在用户头部转动过程中,人眼保持平视,虚拟现实设备与用户头部同步转动,从而可保证双目摄像头采集到的实景图像与裸眼效果的视角一致。本实施例中,可通过双目摄像头采集虚拟现实设备前方的立体的实景图像。例如,当用户想要拿起面前的桌面上的水杯时,可将该水杯作为目标物体,用户的头部转动使得人眼可平视该水杯,此时,双目摄像头与人眼的视角一致,因此,双目摄像头可采集到与裸眼效果的视角一致的实景图像,采集到的实景图像中包括用户想要拿起的水杯。
本实施例中,可通过实景交互请求触发双目摄像头启动图像采集工作,实景交互请求可由用户根据实际需求发起,例如,可在虚拟现实设备上增加物理按键,或者在虚拟场景画面上设置虚拟按键,当用户需要进行实景交互时,可通过触发物理按键或者虚拟按键来发出实景交互请求,当然,用户还可采用其它方式发出实景交互请求,本实施例对此不作限定。本实施例中,可响应于实景交互请求,获取双目摄像头采集虚拟现实设备前方的立体的实景图像,并据此进行后续的图像处理以使人眼获得与裸眼效果一致的实景图像。据此,可将虚拟现实设备的工作状态分为虚拟交互模式和实景交互模式,且可通过实景交互请求触发将虚拟现实设备的工作状态切换至实景交互模式,当虚拟现实设备处于实景交互模式时,可根据用户的操作对虚拟现实设备的显示屏上的虚拟画面进行关闭,以在显示屏上展示经过对双目摄像头采集到的实景图进行图像转换后的画面,从而使人眼获得与裸眼效果一致的实景图像;当用户需要回到虚拟场景中时,可通过触发物理按键或者虚拟按键的方式切换回虚拟交互模式,此时,显示屏上将不再展示经过对双目摄像头采集到的实景图进行图像转换后的画面,而是切换至虚拟画面,重新进入虚拟场景。
如前,双目摄像头和人眼分别位于虚拟现实设备主体的前方和后方,因此,在虚拟现实设备佩戴状态下,双目摄像头位置与人眼位置之间将存在一定的距离,这个距离将导致双目摄像头采集到的实景图像与人眼位置上裸眼应该获得的实景图像之间存在成像误差,这种成像误差将导致用户对实景中物体的尺寸和/或距离产生错误的感知,给实景交互带来障碍。为了改善成像误差问题,本实施例中,可根据双目摄像头位置与人眼位置之间的图像转换关系,对双目摄像头采集到的实景图像进行图像转换,将双目摄像头采集到的实景图像转换为与人眼位置上裸眼应该获得的实景图像效果一致的图像,从而可避免由于双目摄像头位置与人眼位置之间的距离导致的成像误差带来的实景交互障碍。双目摄像头位置与人眼位置之间的图像转换关系是基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离而确定的,确定双目摄像头位置与人眼位置之间的图像转换关系的方案将在后文中进行详述。
在对双目摄像头采集到的实景图像进行图像转换之后,可将转换后的实景图像显示在虚拟现实设备的显示屏上。这样,人眼从显示屏上获得的图像将是与人眼位置上的裸眼效果一致的实景图像,从而,可实现人眼对实景中物体的正确感知。
可选地,可将双目摄像头中的左摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的左部,以及将双目摄像头中的右摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的右部,人眼可从显示屏上获得左摄像头对应的转换后的实景图像以及右摄像头对应的转换后的实景图像,从而可将两个摄像头对应的转换后的实景图像叠加而获得立体图像,从而感知到裸眼效果。而且,这与现有技术中采用一个摄像头将实景图像简单地导入显示屏中显示相比,可提供双目视差感和实景的深度信息,避免用户产生眩晕感。
在本申请实施例中,通过在虚拟现实设备上设置双目摄像头来模拟双眼视觉,通过对双目摄像头采集到的实景图像进行图像转换,可改善虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离所导致的成像误差,因此,在虚拟现实设备佩戴状态下,人眼可获得与裸眼效果一致的实景图像。这使得当用户需要与实景进行交互时,无需摘下虚拟现实设备即可无障碍地进行实景交互,大大提高了实景交互的便利性。
在上述或下述实施例中,可基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离,预先确定双目摄像头位置与人眼位置之间的图像转换关系。本实施例中认为虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离是不变的。本实施例中,可基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离,在空间中标定第一位置和第二位置,第一位置和第二位置的距离等于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离。因此,可通过第一位置表征虚拟现实设备佩戴状态下的双目摄像头位置;通过第二位置表征虚拟现实设备佩戴状态下的人眼位置。
基于标定出的第一位置和第二位置,可将双目摄像头分别置于第一位置和第二位置上,并在两个位置上通过双目摄像头分别采集实景图像。实际应用中,可采用与虚拟现实设备上的双目摄像头相同结构的摄像头组件来实施图像采集工作,当然,也可直接将包含双目摄像头的虚拟现实设备分别摆放在指定位置来实现通过其上的双目摄像头在第一位置和第二位置上进行图像采集工作,本实施例对此不作限定。为避免双目摄像头中左、右摄像头之间的距离,以及人眼的左、右眼球之间的距离对图像采集造成影响,本实施例中,可通过第一位置表征虚拟现实设备佩戴状态下的双目摄像头的对称中心的位置;通过第二位置表征虚拟现实设备佩戴状态下的人眼的对称中心的位置。这样,针对空间中的同一目标物体,例如棋盘布,预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头在第一位置上拍摄到的图像,可用于表征虚拟现实设备佩戴状态下双目摄像头位于第一位置时所采集到的实景图像;同样,预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头在第二位置上拍摄到的图像,可用于表征虚拟现实设备佩戴状态下人眼位于第二位置时裸眼应该获得的实景图像。因此,预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的图像转换关系,将与虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的图像转换关系一致。
据此,可根据相机成像原理,计算双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像各自对应的摄像头外参;并根据摄像头外参,确定出双目摄像头位置与人眼位置之间的单应性关系矩阵作为双目摄像头位置与人眼位置之间的图像转换关系。
对于空间中的目标物体X来说,相机成像原理可表示为:
S=K*(RT)*X
其中,S表示拍摄生成的二维图像,K表示摄像头内参,(RT)表示摄像头外参,其中,R是旋转矩阵,T是平移矩阵,X表示目标物体所在的空间平面。
在预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中,可将双目摄像头在第一位置上的成像过程表示为:
S1=K*(RT)1*X;
可将双目摄像头在第二位置上的成像过程表示为:
S2=K*(RT)2*X;
则,双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的图像转换关系可表示为:
S2=S1((RT)2/(RT)1);
据此,双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的单应性关系矩阵可表示为:
H=(RT)2/(RT)1
其中,(RT)1和(RT)2分别表示双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体X生成的图像各自对应的摄像头外参。摄像头外参数可基于现有的相机标定手段获得,相机标定可采用传统相机标定法、主动视觉相机标定方法或相机自标定法等,本实施例对此不作限定。其中,相机标定过程中,为了描述目标物体在真实世界里的位置而引入了用户定义的三维世界的坐标系,即为世界坐标系;为了从相机的角度描述目标物体的位置而在相机上建立了相机坐标系;目标物体从世界坐标系转换到相机坐标系的过程,可以通过旋转和平移来实现,这个转换过程可用一个旋转矩阵和平移向量组合成的齐次坐标矩阵来表示,该齐次坐标矩阵即为摄像机外参,对应上文中的RT。因此,根据第一位置、第二位置、目标物体的位置以及双目摄像头拍摄获得的图像等已知条件,可根据相机成像原理,计算出双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像各自对应的摄像头外参。根据计算出的两个摄像头外参,即可确定出双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的单应性关系矩阵。
如上文,由于预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的图像转换关系,与虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的图像转换关系一致,因此,可将确定出双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的单应性关系矩阵作为双目摄像头位置与人眼位置之间的图像转换关系。
图2a为双目摄像头的对称中心位于第一位置上时双目摄像头拍摄目标物体生成的图像,图2b为双目摄像头的对称中心位于第二位置上时双目摄像头拍摄目标物体生成的图像,图2c为图2a的图像根据上述确定出的双目摄像头位置与人眼位置之间的图像转换关系进行图像转化后获得的图像,可见,图2b和图2c的图像非常接近,因此,上述确定出的双目摄像头位置与人眼位置之间的图像转换关系准确反映出了双目摄像头位置与人眼位置之间的图像的成像差别。
本实施例中,通过在空间中标定表征双目摄像头位置的第一位置和表征人眼位置的第二位置,并基于双目摄像头在第一位置和第二位置拍摄同一目标物体而获得的图像之间的图像转换关系,来确定出虚拟现实设备佩戴状态下双目摄像头位置与人眼位置之间的图像转换关系,进而,根据该图像转换关系,对虚拟现实设备佩戴状态下双目摄像头采集到的实景图像进行图像转换后,可获得虚拟现实设备佩戴状态下在人眼位置上裸眼应该获得的实景图像一致的图像。因此,基于本实施例中确定出的双目摄像头位置与人眼位置之间的图像转换关系,可有效改善由虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离导致的成像误差。
实景交互中,主要是手臂与实景中物体之间的交互,而且,当实景中的物体距离人眼超过100cm时,人眼几乎已经感知不到虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离导致的成像误差,因此,手臂的可触及距离是本申请的优化重点。
本实施例中,还可在空间中标定第三位置,第三位置、第一位置和第二位置位于同一直线上,第一位置位于第二位置和第三位置之间,且第三位置与第二位置的距离等于虚拟现实设备佩戴状态下手臂的可触及距离。如上文,第一位置可表征虚拟现实设备佩戴状态下双目摄像头的位置,第二位置可表征虚拟现实设备佩戴状态下的人眼位置,则,第三位置可表征虚拟现实设备佩戴状态下手臂可触及的位置。其中,手臂的可触及距离是指手臂与实景中物体进行交互时手部与人眼之间的距离,大约为50cm,当然,根据不同的使用场景,该距离可能具有不同的取值,本实施例对此不作具体限定。手臂可触及的位置则是指手臂与实景中物体进行交互时手部的位置,因此,虚拟现实设备佩戴状态下,手臂可触及的位置与人眼位置之间的距离即为手臂的可触及距离。
在预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中,将目标物体置于第三位置上,可模拟虚拟现实设备佩戴状态下手臂可触及的位置上的物体,因此,双目摄像头的对称中心位于第一位置和第二位置上时所拍摄到的位于第三位置处的目标物体的图像,可分别表征虚拟现实设备佩戴状态下双目摄像头针对手臂可触及的位置上的物体所采集到的实景图像,以及在人眼位置上裸眼观看手臂可触及的位置上的物体时所应获得的实景图像。而据此计算出的双目摄像头位置与人眼位置之间的图像转换关系,将在虚拟现实设备佩戴状态下手臂可触及的位置上获得最优的图像转换效果,也即是,基于据此确定出的双目摄像头位置与人眼位置之间的图像转换关系,在通过虚拟现实设备观看处于手臂可触及的位置上的物体时,可通过对双目摄像头采集到的实景图像,实现人眼获得与裸眼效果一致的实景图像。
当然,本实施例中的第三位置还根据不同的使用场景采用其它的标定方式,例如,第三位置与第二位置的距离等于虚拟现实设备佩戴状态下的半臂距离,本申请实施例对此不作限定。基于第三位置的不同标定方式,获得的双目摄像头位置与人眼位置之间的图像转换关系将存在差异,也即是,第三位置的标定方式将决定通过虚拟现实设备进行实景交互时可获得裸眼效果的交互区域范围。例如,当第三位置基于手臂的可触及距离标定时,实景交互时可在手臂的可触及距离以及该距离之外的区域范围获得裸眼效果;当第三位置基于半臂距离标定时,实景交互时可在半臂距离以及该距离之外的区域范围获得裸眼效果,而在该距离之内的区域范围可能仍存在成像误差。因此,可根据实际使用需求,确定第三位置的标定方式。
本实施例中,通过在空间中标定表征手臂可触及的位置的第三位置,并据此来确定出虚拟现实设备佩戴状态下双目摄像头位置与人眼位置之间的图像转换关系,保证了实景交互过程中用户可在手臂的可触及距离处获得裸眼效果,从而可实现无障碍的实景交互。
在上述或下述实施例中,在根据双目摄像头位置与人眼位置之间的图像转换关系,对双目摄像头采集到的实景图像进行图像转换之前,还可对双目摄像头采集到的实景图像执行以下一种或多种处理:
反畸变、色散处理、网格构建或三维场景贴图显示。
由于双目摄像头采集实景图像过程中存在的畸变、色散等问题,导致双目摄像头采集到的实景图像与真实的实景之间存在误差,因此,在进行图像转换之前,对双目摄像头采集到的实景图像进行以上一种或多种优化处理,可获得更佳的视觉效果。
图3为本申请另一实施例提供的虚拟现实设备的结构示意图。如图3所示,虚拟现实设备包括:双目摄像头10、显示屏20和控制器。
控制器用于响应于实景交互请求,向双目摄像头10发送图像获取请求,并获取双目摄像头10采集到的实景图像;
根据双目摄像头位置与人眼位置之间的图像转换关系,对双目摄像头采集到的实景图像进行图像转换,其中,双目摄像头位置与人眼位置之间的图像转换关系是基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离确定的;将转换后的实景图像发送至显示屏20;
双目摄像头10用于根据控制器发送的图像获取请求采集实景图像,并将采集到的实景图像发送至控制器;
显示屏20用于显示转换后的实景图像,以在人眼位置处获得真实的实景图像。
本实施例中,虚拟现实设备佩戴状态下,双目摄像头和人眼分别位于虚拟现实设备主体00的前方和后方,双目摄像头10中每个摄像头的中心可分别与人眼30平视时的两条平视视线适配,其中,人眼30平视是指眼球无转动角度,平视视线是指人眼30平视时眼球与物体之间的连线。也即是,双目摄像头10中的左摄像头的中心可与人眼30平视时的左眼平视视线适配以及双目摄像头10中的右摄像头的中心可与人眼30平视时的右眼平视视线适配。此处,适配是指双目摄像头10的每个摄像头的中心位于人眼30平视时的两条平视视线上,或者与平时视线之间存在误差,但误差处于预设范围内。在用户头部转动过程中,人眼30保持平视,虚拟现实设备与用户头部同步转动,从而可保证双目摄像头10采集到的实景图像与裸眼效果的视角一致。
本实施例中,控制器可监听实景交互请求,并在监听到实景交互请求时,控制双目摄像头10启动图像采集工作,以获取双目摄像头10采集到的实景图像。其中,实景交互请求可由用户根据实际需求发起,例如,可在虚拟现实设备上增加物理按键,或者在虚拟场景画面上设置虚拟按键,当用户需要进行实景交互时,可通过触发物理按键或者虚拟按键来发出实景交互请求,当然,用户还可采用其它方式发出实景交互请求,本实施例对此不作限定。本实施例中,控制器可响应于实景交互请求,获取双目摄像头10采集虚拟现实设备前方的立体的实景图像,并据此进行后续的图像处理以使人眼获得与裸眼效果一致的实景图像。据此,可将虚拟现实设备的工作状态分为虚拟交互模式和实景交互模式,且可通过实景交互请求触发将虚拟现实设备的工作状态切换至实景交互模式,当虚拟现实设备处于实景交互模式时,控制器可根据用户的操作对虚拟现实设备的显示屏20上的虚拟画面进行关闭,以在显示屏20上展示经过对双目摄像头采集到的实景图进行图像转换后的画面,从而使人眼获得与裸眼效果一致的实景图像;当用户需要回到虚拟场景中时,用户可通过触发物理按键或者虚拟按键的方式切换回虚拟交互模式,控制器可监听用户的操作行为,并控制显示屏20上的画面切换,此时,显示屏20上将不再展示经过对双目摄像头采集到的实景图进行图像转换后的画面,而是切换至虚拟画面,重新进入虚拟场景。
本实施例中,双目摄像头10用于采集虚拟现实设备前方的立体的实景图像。例如,当用户想要拿起面前的桌面上的水杯时,可将该水杯作为目标物体,用户的头部转动使得人可平视该水杯,此时,双目摄像头10与人眼30的视角一致,因此,双目摄像头10可采集到与裸眼效果的视角一致的实景图像,采集到的实景图像中包括用户想要拿起的水杯。
如前,双目摄像头10和人眼30分别位于虚拟现实设备主体00的前方和后方,因此,在虚拟现实设备佩戴状态下,双目摄像头位置与人眼位置之间将存在一定的距离,这个距离将导致双目摄像头10采集到的实景图像与人眼位置上裸眼应该获得的实景图像之间存在成像误差,这种成像误差将导致用户对实景中物体的尺寸和/或距离产生错误的感知,给实景交互带来障碍。为了改善成像误差问题,本实施例中,控制器可根据双目摄像头位置与人眼位置之间的图像转换关系,对双目摄像头10采集到的实景图像进行图像转换,将双目摄像头10采集到的实景图像转换为与人眼位置上裸眼应该获得的实景图像效果一致的图像,从而可避免由于双目摄像头位置与人眼位置之间的距离导致的成像误差带来的实景交互障碍。双目摄像头位置与人眼位置之间的图像转换关系是基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离而确定的,确定双目摄像头位置与人眼位置之间的图像转换关系的方案将在后文中进行详述。
在对双目摄像头10采集到的实景图像进行图像转换之后,控制器可将转换后的实景图像发送至虚拟现实设备的显示屏20上。这样,人眼30从显示屏20上获得的图像将是与人眼位置上的裸眼效果一致的实景图像,从而,可实现人眼30对实景中物体的正确感知。
可选地,显示器可将双目摄像头10中的左摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏20的左部,以及将双目摄像头10中的右摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏20的右部,人眼30可从显示屏20上获得左摄像头对应的转换后的实景图像以及右摄像头对应的转换后的实景图像,从而可将两个摄像头对应的转换后的实景图像叠加而获得立体图像,据此可感知到裸眼效果。而且,这与现有技术中采用一个摄像头将实景图像简单地导入显示屏20中显示相比,可提供双目视差感和实景的深度信息,避免用户产生眩晕感。
在本申请实施例中,通过在虚拟现实设备上设置双目摄像头来模拟双眼视觉,通过对双目摄像头采集到的实景图像进行图像转换,可改善虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离所导致的成像误差,因此,在虚拟现实设备佩戴状态下,人眼30可获得与裸眼效果一致的实景图像。这使得当用户需要与实景进行交互时,无需摘下虚拟现实设备即可无障碍地进行实景交互,大大提高了实景交互的便利性。
在上述或下述实施例中,控制器在对双目摄像头10采集到的实景图像进行图像转换之前,还用于:
在空间中标定第一位置和第二位置,第一位置和第二位置的距离等于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离;
分别获取双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像;
根据相机成像原理,计算双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像各自对应的摄像头外参;
根据摄像头外参,确定出双目摄像头位置与人眼位置之间的单应性关系矩阵作为双目摄像头位置与人眼位置之间的图像转换关系。
本实施例中,控制器可基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离,预先确定双目摄像头位置与人眼位置之间的图像转换关系。本实施例中认为虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离是不变的。本实施例中,可通过第一位置表征虚拟现实设备佩戴状态下的双目摄像头位置;通过第二位置表征虚拟现实设备佩戴状态下的人眼位置。
基于标定出的第一位置和第二位置,可将双目摄像头分别置于第一位置和第二位置上,并在两个位置上通过双目摄像头分别采集实景图像。实际应用中,可采用与虚拟现实设备上的双目摄像头10相同结构的摄像头组件来实施图像采集工作,当然,也可直接将虚拟现实设备分别摆放在指定位置来实现通过其上的双目摄像头10在第一位置和第二位置上进行图像采集工作,本实施例对此不作限定。为避免双目摄像头中左、右摄像头之间的距离,以及人眼30的左、右眼球之间的距离对图像采集造成影响,本实施例中,可通过第一位置表征虚拟现实设备佩戴状态下的双目摄像头的对称中心的位置;通过第二位置表征虚拟现实设备佩戴状态下的人眼的对称中心的位置。这样,针对空间中的同一目标物体,例如棋盘布,预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头在第一位置上拍摄到的图像,可用于表征虚拟现实设备佩戴状态下双目摄像头位于第一位置时所采集到的实景图像;同样,预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头在第二位置上拍摄到的图像,可用于表征虚拟现实设备佩戴状态下人眼位于第二位置时裸眼应该获得的实景图像。因此,预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的图像转换关系,将与虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的图像转换关系一致。
据此,可根据相机成像原理,计算双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像各自对应的摄像头外参;并根据摄像头外参,确定出双目摄像头位置与人眼位置之间的单应性关系矩阵作为双目摄像头位置与人眼位置之间的图像转换关系。
对于空间中的目标物体X来说,相机成像原理可表示为:
S=K*(RT)*X
其中,S表示拍摄生成的二维图像,K表示摄像头内参,(RT)表示摄像头外参,其中,R是旋转矩阵,T是平移矩阵,X表示目标物体所在的空间平面。
在预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中,可将双目摄像头在第一位置上的成像过程表示为:
S1=K*(RT)1*X;
可将双目摄像头在第二位置上的成像过程表示为:
S2=K*(RT)2*X;
则,双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的图像转换关系可表示为:
S2=S1((RT)2/(RT)1);
据此,双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的单应性关系矩阵可表示为:
H=(RT)2/(RT)1
其中,(RT)1和(RT)2分别表示双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体X生成的图像各自对应的摄像头外参。摄像头外参数可基于现有的相机标定手段获得,相机标定可采用传统相机标定法、主动视觉相机标定方法或相机自标定法等,本实施例对此不作限定。其中,相机标定过程中,为了描述目标物体在真实世界里的位置而引入了用户定义的三维世界的坐标系,即为世界坐标系;为了从相机的角度描述目标物体的位置而在相机上建立了相机坐标系;目标物体从世界坐标系转换到相机坐标系的过程,可以通过旋转和平移来实现,这个转换过程可用一个旋转矩阵和平移向量组合成的齐次坐标矩阵来表示,该齐次坐标矩阵即为摄像机外参,对应上文中的RT。因此,根据第一位置、第二位置、目标物体的位置以及双目摄像头拍摄获得的图像等已知条件,可根据相机成像原理,计算出双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像各自对应的摄像头外参。根据计算出的两个摄像头外参,即可确定出双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的单应性关系矩阵。
如上文,由于预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的图像转换关系,与虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的图像转换关系一致,因此,可将确定出双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄到的图像之间的单应性关系矩阵作为双目摄像头位置与人眼位置之间的图像转换关系。
本实施例中,通过在空间中标定表征双目摄像头位置的第一位置和表征人眼位置的第二位置,并基于双目摄像头在第一位置和第二位置拍摄同一目标物体而获得的图像之间的图像转换关系,来确定出虚拟现实设备佩戴状态下双目摄像头位置与人眼位置之间的图像转换关系,进而,根据该图像转换关系,对虚拟现实设备佩戴状态下双目摄像头采集到的实景图像进行图像转换后,可获得虚拟现实设备佩戴状态下在人眼位置上裸眼应该获得的实景图像一致的图像。因此,基于本实施例中确定出的双目摄像头位置与人眼位置之间的图像转换关系,可有效改善由虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离导致的成像误差。
实景交互中,主要是手臂与实景中物体之间的交互,而且,当实景中的物体距离人眼超过100cm时,人眼几乎已经感知不到虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离导致的成像误差,因此,手臂的可触及距离是本申请的优化重点。
本实施例中,控制器在分别获取双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像,用于:
在空间中标定第三位置,第三位置、第一位置和第二位置位于同一直线上,第一位置位于第二位置和第三位置之间,且第三位置与第二位置的距离等于虚拟现实设备佩戴状态下手臂的可触及距离;
分别获取双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄位于第三位置处的目标物体生成的图像。
如上文,第一位置可表征虚拟现实设备佩戴状态下双目摄像头的位置,第二位置可表征虚拟现实设备佩戴状态下的人眼位置,则,第三位置可表征虚拟现实设备佩戴状态下手臂可触及的位置。其中,手臂的可触及距离是指手臂与实景中物体进行交互时手部与人眼之间的距离,大约为50cm,当然,根据不同的使用场景,该距离可能具有不同的取值,本实施例对此不作具体限定。手臂可触及的位置则是指手臂与实景中物体进行交互时手部的位置,因此,虚拟现实设备佩戴状态下,手臂可触及的位置与人眼位置之间的距离即为手臂的可触及距离。
在预先确定双目摄像头位置与人眼位置之间的图像转换关系过程中,将目标物体置于第三位置上,可模拟虚拟现实设备佩戴状态下手臂可触及的位置上的物体,因此,双目摄像头的对称中心位于第一位置和第二位置上时所拍摄到的位于第三位置处的目标物体的图像,可分别表征虚拟现实设备佩戴状态下双目摄像头针对手臂可触及的位置上的物体所采集到的实景图像,以及在人眼位置上裸眼观看手臂可触及的位置上的物体时所应获得的实景图像。而据此计算出的双目摄像头位置与人眼位置之间的图像转换关系,将在虚拟现实设备佩戴状态下手臂可触及的位置上获得最优的图像转换效果,也即是,基于据此确定出的双目摄像头位置与人眼位置之间的图像转换关系,可在通过虚拟现实设备观察处于手臂可触及的位置上的物体时,可通过对双目摄像头采集到的实景图像,实现人眼获得与裸眼效果一致的实景图像。
当然,本实施例中的第三位置还根据不同的使用场景采用其它的标定方式,例如,第三位置与第二位置的距离等于虚拟现实设备佩戴状态下的半臂距离,本申请实施例对此不作限定。基于第三位置的不同标定方式,获得的双目摄像头位置与人眼位置之间的图像转换关系将存在差异,也即是,第三位置的标定方式将决定通过虚拟现实设备进行实景交互时可获得裸眼效果的交互区域范围。例如,当第三位置基于手臂的可触及距离标定时,实景交互时可在手臂的可触及距离以及该距离之外的区域范围获得裸眼效果;当第三位置基于半臂距离标定时,实景交互时可在半臂距离以及该距离之外的区域范围获得裸眼效果,而在该距离之内的区域范围可能仍存在成像误差。因此,可根据实际使用需求,确定第三位置的标定方式。
本实施例中,通过在空间中标定表征手臂可触及的位置的第三位置,并据此来确定出虚拟现实设备佩戴状态下双目摄像头位置与人眼位置之间的图像转换关系,保证了实景交互过程中用户可在手臂的可触及距离处获得裸眼效果,从而可实现无障碍的实景交互。
在上述或下述实施例中,控制器在对双目摄像头10采集到的实景图像进行图像转换之前,还用于:
对双目摄像头10采集到的实景图像执行以下一种或多种处理:
反畸变、色散处理、网格构建或三维场景贴图显示。
由于双目摄像头10采集实景图像过程中存在的畸变、色散等问题,导致双目摄像头10采集到的实景图像与真实的实景之间存在误差,因此,在进行图像转换之前,对双目摄像头10采集到的实景图像进行以上一种或多种优化处理,可获得更佳的视觉效果。
图4为本申请又一实施例提供的一种电子设备的结构示意图。如图4所示,该电子设备包括:存储器40和处理器41;
存储器40于存储计算机程序,并可被配置为存储其它各种数据以支持在服务器设备上的操作。这些数据的示例包括用于在服务器设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
存储器40由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
处理器41与存储器40耦合,用于执行存储器40中的计算机程序,以用于:
响应于实景交互请求,获取虚拟现实设备的双目摄像头采集到的实景图像;
根据双目摄像头位置与人眼位置之间的图像转换关系,对双目摄像头采集到的实景图像进行图像转换,其中,双目摄像头位置与人眼位置之间的图像转换关系是基于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离确定的;
将转换后的实景图像显示在虚拟现实设备的显示屏上,以供人眼获得与裸眼效果一致的实景图像。
在一可选实施例中,处理器41在对双目摄像头采集到的实景图像进行图像转换之前,还用于:
在空间中标定第一位置和第二位置,第一位置和第二位置的距离等于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离;
分别获取双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像;
根据相机成像原理,计算双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像各自对应的摄像头外参;
根据双目摄像头的对称中心位于第一位置和第二位置上时采集到的同一实景图像的成像外参,确定出双目摄像头位置与人眼位置之间的单应性关系矩阵作为双目摄像头位置与人眼位置之间的图像转换关系。
在一可选实施例中,处理器41在分别获取双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄同一目标物体生成的图像时,用于:
在空间中标定第三位置,第三位置、第一位置和第二位置位于同一直线上,且第三位置与第二位置的距离等于虚拟现实设备佩戴状态下手臂的可触及距离;
分别获取双目摄像头的对称中心位于第一位置和第二位置上时双目摄像头拍摄位于第三位置处的目标物体生成的图像。
在一可选实施例中,双目摄像头包括左摄像头和右摄像头;
处理器41在将转换后的实景图像显示在虚拟现实设备的显示屏上时,用于:
将左摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的左部,以及将右摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的右部。
在一可选实施例中,处理器41在对双目摄像头采集到的实景图像进行图像转换之前,还用于:
对双目摄像头采集到的实景图像执行以下一种或多种处理:
反畸变、色散处理、网格构建或三维场景贴图显示。
进一步,如图4所示,该电子设备还包括:通信组件43、显示器44、电源组件45等其它组件。图4中仅示意性给出部分组件,并不意味着控制设备只包括图4所示组件。
其中,通信组件42被配置为便于通信组件所在设备和其他设备之间有线或无线方式的通信。通信组件所在设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件42经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
其中,显示器43包括屏幕,其屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
其中,电源组件44,为电源组件所在设备的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源,及其他与为电源组件所在设备生成、管理和分配电力相关联的组件。
相应地,本申请实施例还提供一种存储有计算机程序的计算机可读存储介质,计算机程序被执行时能够实现上述方法实施例中可由电子设备执行的各步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (6)

1.一种图像处理方法,其特征在于,包括:
在空间中标定第一位置、第二位置和第三位置;所述第一位置、所述第二位置和所述第三位置位于同一直线上,所述第一位置位于所述第二位置和所述第三位置之间,所述第一位置和第二位置的距离等于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离,所述第三位置与所述第二位置的距离等于所述虚拟现实设备佩戴状态下手臂的可触及距离;
分别获取所述双目摄像头的对称中心位于所述第一位置和所述第二位置上时所述双目摄像头拍摄位于所述第三位置处的目标物体生成的图像;
根据相机成像原理,计算所述双目摄像头的对称中心位于所述第一位置和所述第二位置上时所述双目摄像头拍摄所述目标物体生成的图像各自对应的摄像头外参;
根据所述摄像头外参,确定出所述双目摄像头位置与人眼位置之间的单应性关系矩阵作为所述双目摄像头位置与所述人眼位置之间的图像转换关系;
响应于实景交互请求,获取所述虚拟现实设备的双目摄像头采集到的实景图像;
根据所述双目摄像头位置与人眼位置之间的图像转换关系,对所述双目摄像头采集到的实景图像进行图像转换;
将转换后的实景图像显示在所述虚拟现实设备的显示屏上,以供人眼获得与裸眼效果一致的实景图像。
2.根据权利要求1所述的方法,其特征在于,
所述将转换后的实景图像显示在虚拟现实设备的显示屏上,包括:
将所述双目摄像头中的左摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的左部,以及将所述双目摄像头中的右摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的右部。
3.根据权利要求1所述的方法,其特征在于,所述根据双目摄像头位置与人眼位置之间的图像转换关系,对所述双目摄像头采集到的实景图像进行图像转换之前,还包括:
对所述双目摄像头采集到的实景图像执行以下一种或多种处理:
反畸变、色散处理、网格构建或三维场景贴图显示。
4.一种虚拟现实设备,其特征在于,包括:双目摄像头、显示屏和控制器;
所述控制器用于在空间中标定第一位置、第二位置和第三位置;所述第一位置、所述第二位置和所述第三位置位于同一直线上,所述第一位置位于所述第二位置和所述第三位置之间,所述第一位置和第二位置的距离等于虚拟现实设备佩戴状态下的双目摄像头位置与人眼位置之间的距离,所述第三位置与所述第二位置的距离等于所述虚拟现实设备佩戴状态下手臂的可触及距离;
分别获取所述双目摄像头的对称中心位于所述第一位置和所述第二位置上时所述双目摄像头拍摄位于所述第三位置处的目标物体生成的图像;
根据相机成像原理,计算所述双目摄像头的对称中心位于所述第一位置和所述第二位置上时所述双目摄像头拍摄所述目标物体生成的图像各自对应的摄像头外参;
根据所述摄像头外参,确定出所述双目摄像头位置与人眼位置之间的单应性关系矩阵作为所述双目摄像头位置与所述人眼位置之间的图像转换关系;
响应于实景交互请求,向所述双目摄像头发送图像获取请求,并获取所述双目摄像头采集到的实景图像;
根据所述双目摄像头位置与人眼位置之间的图像转换关系,对所述双目摄像头采集到的实景图像进行图像转换;将转换后的实景图像发送至所述显示屏;
所述双目摄像头用于根据所述控制器发送的所述图像获取请求采集实景图像,并将采集到的实景图像发送至所述控制器;
所述显示屏用于显示所述转换后的实景图像,以在人眼位置处获得真实的实景图像。
5.根据权利要求4所述的虚拟现实设备,其特征在于,所述双目摄像头设置于虚拟现实设备主体的前方;
在虚拟现实设备佩戴状态下,所述双目摄像头中每个摄像头的中心与对应人眼平视时的平视视线相适配。
6.根据权利要求4所述的虚拟现实设备,其特征在于,所述双目摄像头包括左摄像头和右摄像头;
所述控制器在将转换后的实景图像显示在虚拟现实设备的显示屏上时,用于:
将左摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的左部,以及将右摄像头对应的转换后的实景图像显示在虚拟现实设备的显示屏的右部。
CN201810715695.XA 2018-06-29 2018-06-29 一种图像处理方法及虚拟现实设备 Active CN108830943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810715695.XA CN108830943B (zh) 2018-06-29 2018-06-29 一种图像处理方法及虚拟现实设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810715695.XA CN108830943B (zh) 2018-06-29 2018-06-29 一种图像处理方法及虚拟现实设备

Publications (2)

Publication Number Publication Date
CN108830943A CN108830943A (zh) 2018-11-16
CN108830943B true CN108830943B (zh) 2022-05-31

Family

ID=64134466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810715695.XA Active CN108830943B (zh) 2018-06-29 2018-06-29 一种图像处理方法及虚拟现实设备

Country Status (1)

Country Link
CN (1) CN108830943B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111202663B (zh) * 2019-12-31 2022-12-27 浙江工业大学 一种基于vr技术的视觉训练学习系统
CN111063225A (zh) * 2020-01-14 2020-04-24 深圳捷径观察科技有限公司 一种具有远程交互功能的vr教学系统及教学方法
CN111708432B (zh) * 2020-05-21 2023-08-25 青岛小鸟看看科技有限公司 安全区域确定方法、装置、头戴显示设备及存储介质
CN111951332B (zh) * 2020-07-20 2022-07-19 燕山大学 基于视线估计和双目深度估计的眼镜设计方法及其眼镜
CN112017300A (zh) * 2020-07-22 2020-12-01 青岛小鸟看看科技有限公司 混合现实图像的处理方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106131530A (zh) * 2016-08-26 2016-11-16 万象三维视觉科技(北京)有限公司 一种裸眼3d虚拟现实展示系统及其展示方法
CN107222689A (zh) * 2017-05-18 2017-09-29 歌尔科技有限公司 基于vr镜头的实景切换方法及装置
CN107302694A (zh) * 2017-05-22 2017-10-27 歌尔科技有限公司 通过虚拟现实设备呈现场景的方法、设备及虚拟现实设备
WO2018054267A1 (zh) * 2016-09-20 2018-03-29 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106131530A (zh) * 2016-08-26 2016-11-16 万象三维视觉科技(北京)有限公司 一种裸眼3d虚拟现实展示系统及其展示方法
WO2018054267A1 (zh) * 2016-09-20 2018-03-29 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置
CN107222689A (zh) * 2017-05-18 2017-09-29 歌尔科技有限公司 基于vr镜头的实景切换方法及装置
CN107302694A (zh) * 2017-05-22 2017-10-27 歌尔科技有限公司 通过虚拟现实设备呈现场景的方法、设备及虚拟现实设备

Also Published As

Publication number Publication date
CN108830943A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
CN108830943B (zh) 一种图像处理方法及虚拟现实设备
KR101741335B1 (ko) 안구추적을 기반으로 한 홀로그램 디스플레이 방법 및 홀로그램 디스플레이 장치
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
CN109901710B (zh) 媒体文件的处理方法和装置、存储介质及终端
CN107390863B (zh) 设备的控制方法及装置、电子设备、存储介质
CN114223195A (zh) 用于使用虚拟相机进行视频通信的系统和方法
RU2749643C1 (ru) Устанавливаемое на голове устройство отображения и выполняемый им способ
US11563886B2 (en) Automated eyewear device sharing system
US10867424B2 (en) Systems and methods for utilizing a device as a marker for augmented reality content
EP3521978B1 (en) Apparatus and method for tracking a focal point in a head mounted display system
KR20160094190A (ko) 시선 추적 장치 및 방법
EP3128413A1 (en) Sharing mediated reality content
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
US10607340B2 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
EP3683656A1 (en) Virtual reality (vr) interface generation method and apparatus
JP2018524684A (ja) 媒介現実
CN102508548A (zh) 一种电子信息设备的操作方法及系统
CN107885334B (zh) 一种信息处理方法和虚拟设备
CN111161396B (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
JP6649010B2 (ja) 情報処理装置
CN111857461B (zh) 图像显示方法、装置、电子设备及可读存储介质
JP6031016B2 (ja) 映像表示装置及び映像表示プログラム
JP2012083573A (ja) 立体映像処理装置及びその制御方法
CN110928399B (zh) 控制系统、方法及电子设备
CN117478931A (zh) 信息显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20201029

Address after: 261061 north of Yuqing East Street, east of Dongming Road, Weifang High tech Zone, Weifang City, Shandong Province (Room 502, Geer electronic office building)

Applicant after: GoerTek Optical Technology Co.,Ltd.

Address before: 266104 Laoshan Qingdao District North House Street investment service center room, Room 308, Shandong

Applicant before: GOERTEK TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
CB02 Change of applicant information

Address after: 261061 east of Dongming Road, north of Yuqing East Street, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building)

Applicant after: GoerTek Optical Technology Co.,Ltd.

Address before: 261061 east of Dongming Road, north of Yuqing East Street, Weifang High tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building)

Applicant before: GoerTek Optical Technology Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221122

Address after: 261031 No. 268 Dongfang Road, hi tech Industrial Development Zone, Shandong, Weifang

Patentee after: GOERTEK Inc.

Address before: 261061 east of Dongming Road, north of Yuqing East Street, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building)

Patentee before: GoerTek Optical Technology Co.,Ltd.

TR01 Transfer of patent right