CN107016704A - 一种基于增强现实的虚拟现实实现方法 - Google Patents

一种基于增强现实的虚拟现实实现方法 Download PDF

Info

Publication number
CN107016704A
CN107016704A CN201710174897.3A CN201710174897A CN107016704A CN 107016704 A CN107016704 A CN 107016704A CN 201710174897 A CN201710174897 A CN 201710174897A CN 107016704 A CN107016704 A CN 107016704A
Authority
CN
China
Prior art keywords
camera
rgb
depth
scene
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710174897.3A
Other languages
English (en)
Inventor
李宁
颜成钢
徐枫
朱尊杰
邵碧尧
麻辉文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Publication of CN107016704A publication Critical patent/CN107016704A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于增强现实的虚拟现实实现方法。本方法为:1)通过相机采集场景的深度图像序列和RGB序列;2)根据采集的深度图像序列、RGB序列生成该场景的RGBD四通道图像序列;3)根据该RGBD计算出两帧间相机的旋转矩阵与平移向量;从该场景的RGBD中识别出场景中的目标物体、平面结构及其在三维空间中的位置信息;将该RGBD转换为双目视图序列;4)将该双目视图呈现于该相机的屏幕上,根据场景中平面结构在三维空间中的位置信息在该场景中绘制该目标物体的虚拟三维模型并根据相机的旋转矩阵和平移向量对该虚拟三维模型进行变换,使之与所附着的平面结构呈现相对静止。本发明能够准确、快速算出需要呈现的图像。

Description

一种基于增强现实的虚拟现实实现方法
技术领域
本发明属于增强现实领域,具体涉及一种基于增强现实的虚拟现实实现方法。
背景技术
虚拟现实(Virtual Reality,以下简称VR)技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真,使用户沉浸到该环境中。
增强现实技术(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。这种技术1990 年提出。随着随身电子产品CPU运算能力的提升,预期增强现实的用途将会越来越广。
进入21世纪以来,虚拟现实技术已经有了较快的发展,在军事训练、医疗教育等领域逐渐获得应用。2014年以来,随着新一代的技术的到来,虚拟现实设备成本大幅度下降,重量、体积也大大降低。学术界和工业界都逐渐意识到,虚拟现实技术将对未来的发展产生重大的影响。在工业界,虚拟现实技术有望全面取代基于显示屏的电影和游戏产业。在学术界,虚拟现实技术作为未来重要的显示终端,将大大影响计算机图形学技术的发展。
在虚拟现实技术的基础上,将虚拟事件与现实世界无缝拼接,同时呈现在人类面前的技术称为增强现实技术。许多国际大公司都发现了其不可估量的市场潜力和价值,并投下重金打造自己的产品。例如,谷歌的google glass、微软的hololens等等。种种事件都表明增强现实技术充满了巨大的机遇。
目前增强现实技术中存在的三个主要难点:一是将现实场景与虚拟物体进行融合显示,需要新型的显示技术;二是由于要与现实场景融合,需要准确地对场景建立三维模型,以便在此基础上准确地显示虚拟物体,相对于彩色双目摄像头系统,本计算机视觉系统采用彩色与深度传感器融合的方式,能够更加准确的得到场景的三维模型信息以及各个像素对应的颜色信息,在进行三维场景测量时大大节约了计算代价以及增加了准确性,这需要强大的计算机视觉测量硬件能力的基础以及准确、快速的算法计算出需要呈现的图像;三是为了使增强现实技术走入人们的日常生活,需要进一步开发基于手势,动作,语音的自由交互技术。
发明内容
本发明的目的是针对现有技术的不足,结合了智能手机、虚拟现实头盔、深度摄像头以及彩色摄像头。提供一种基于增强现实的虚拟现实实现方法。
首先通过深度摄像头和彩色摄像头采集RGB-D(即彩色图像RGB与深度图像Depth信息融合后的四通道图像的简称),在生成RGB-D图像的过程中,需要执行三个必要的操作:1.采集深度图像、彩色图像。2.标定深度摄像头、彩色摄像头的摄像头内参、外参。3.对深度图像、彩色图像进行对齐,得到RGB-D图像数据,在此数据的基础上,本发明通过机器学习,识别出现实场景中的目标物体,便于获取物体的信息。并通过边缘检测和对角线判定等一系列方法识别场景中的平面结构,使系统可以基于平面结构在场景中生成目标物体的虚拟三维模型。接着,本发明将获取了虚拟信息的图像结合RGB-D数据,在智能手机上生成双目视图。之后,本发明通过虚拟现实头盔,就可以看到现实场景和虚拟物体。
具体按照以下步骤实施:
步骤一、相机标定配准。
首先对输入的场景的RGB与Depth图像序列进行预处理,以实现用棋盘格标定法对相机进行标定。转化矩阵如下:
其中s代表深度相机的缩放因子,u、v是彩色相机像平面的横坐标和纵坐标,A是彩色相机的内参矩阵,r1r2r3代表旋转向量,t是位移向量, X、Y是现实三维空间中横坐标和纵坐标。
深度相机和彩色相机的标定,使得两个相机获得的像素之间产生对应关系,相机标定之后无需对接下来获取到的每一帧图片进行配准处理,只要直接将相机获取的RGB与Depth图像序列输入相机标定过程中得到的配准模型便可获取RGB-D图像序列。
步骤二、相机定位。
2-1.利用ORB特征提取算法对RGB-D图像序列两帧间图片的特征点进行提取,并对得到的特征点进行特定描述,从而得到两帧间图片的特征点相似程度。
2-2.根据所描述的两帧之间特征点相似程度,实现相邻两帧图片的关键点匹配,再对匹配后的特征点进行检测,如果为误匹配,则删除不匹配的关键点,重新对相邻两帧图片的关键点进行匹配;如果匹配正确,则建立优化模型计算出相邻两帧图片间相机的空间位置变化,即相机的旋转矩阵 Ei与平移向量gi。优化模型如下:
其中,pi和qi分别是相邻两帧图像的特征点,都包含RGB-D信息,都是以三维矩阵形式进行存储,具体的大小视匹配所得的特征点对的数量而定;N为RGB-D四通道图像序列的总帧数。Ei是大小为3×3的旋转矩阵, gi是大小为3×1的平移向量。
所述的特定描述和相邻两帧图片的关键点匹配参考ORB特征提取算法:Rublee E,Rabaud V,Konolige K,et al.ORB:An efficient alternative to SIFT or SURF[C]//IEEE International Conference on Computer Vision,ICCV 2011,Barcelona,Spain,November.DBLP,2011:2564-2571.
步骤三、场景布局识别。
首先通过边缘检测和对角线判定等一系列方法对场景的RGB-D四通道图像序列进行处理,识别出场景中的地板、桌子、墙壁等平面结构并得到其在三维空间中的位置信息,对平面结构特征点的跟踪实现对平面结构在视频中的跟踪。为后期在场景中重建出虚拟物体奠定基础。并获取通过机器学习的方法识别出的场景中的物体信息,便于用户对未知物体信息的检索。
步骤四、双目视图生成阶段。
当已知实际环境的三维模型之后,能够将像素投影到3D空间(即实际环境三维模型的状态空间);估计人眼相机参数,将3D空间(即实际环境三维模型的状态空间)进行投影变换转换成双目视图。
步骤五、虚拟现实实现阶段。
该步骤结合其他步骤输出的结果实现虚拟三维模型呈现于现实场景中的效果。首先,通过步骤四,将相机采集到的RGB-D场景图像转换为双目视图,并将该双目视图呈现于手机屏幕上,然后将手机置于虚拟现实头盔中,达到直接佩戴虚拟现实头盔即可观看到现实场景的效果。随后,通过步骤三识别出场景中的地板、桌子、墙壁等平面结构并得到其所在三维空间中的位置信息,然后根据该位置信息将目标虚拟三维模型构建于该平面上;随着相机的移动,通过步骤二实时得到相机的旋转矩阵和平移向量,并将其作用于虚拟三维模型上,使之与所附着的平面结构呈现相对静止的状态,进而达到虚拟物体自然放置于平面上的效果。当此平面结构脱离视线时,虚拟三维模型也将在视野里消失。当再次识别到平面结构时,将会再次生成虚拟三维模型。
本发明方法具有的优点及有益结果为:
1、本发明的应用范围极广:在教育领域,本发明可应用于讲师上课,为学生展示模型,帮助讲师讲解,方便学生理解;在医疗领域,本发明可以为手术台周围旁观的实习医生提供帮助。在娱乐的角度上,本发明可以在此基础开发逼真的游戏。这项技术能弥补许多行业的缺点,应用广泛。在国外,实习医生通过佩戴3D眼镜来观摩手术,以此达到身处其境的效果;在影视领域,采用虚拟现实和增强现实技术的游戏、电影也越来越多,这为人们提供了一种全新的娱乐方式,增添了许多乐趣;在军事领域,本发明可以给军事训练带来更逼真的效果,甚至在实战中,可以模拟出敌方场景,用以战略部署;在建筑行业,本发明可以向客户展示实体效果,无需到实地参观便会有身临其境的感觉;在其他领域,本发明也可以向用户做远程真实展示,给人类带来极大的便利。可见,本发明具有宽广的应用范围;
2、本发明可以解决模型问题
在如今的教育中,许多模型因无法展示或者无法分解展示,使得老师对其难以讲解,也使学生难以理解。这对教育产生了极大的不便。而本发明的系统则可以通过增强现得方式展示模型,同时通过虚拟现实的方式使得用户能够“真实”地看到模型。
3、本发明可以推进医疗水平提高,
本发明可以帮助实习医生更方便、更清楚地观摩医生做手术,让实习医生能够尽快上岗。同时,该设备还可以在术后让医生再次逼真地看到实验场景,对手术操作进行讨论,从而提高医生的能力。
4、本发明可以增进人与人之间的交流
语音通话、视频聊天的出现让人们之间的沟通更加方便,缩短了人与人之间的距离。但是,这两样技术都难免让人感觉对方不在自己身边。而通过本发明的设备,可以让对方的身影实时地出现在自己面前。通过这种方式,可以促进亲友间的交流,让聊天更加温馨,满足对远方亲友的思念之情。
5、本发明可以提供新的纪念方式
大多数人通过拍摄照片或者视频来纪念某个瞬间或者事情,而现在本发明可以出去新的方式来回顾往事。本发明可以事先拍摄好含有RGB-D 信息的视频,然后通过该设备播放此段视频。这样子就能将视频内容逼真地投射到自己眼前,仿佛正在自己面前发生一样。
6、本发明可以军事上增加新的训练项目
培养一名优秀的士兵需要非常昂贵的成本。为了解决士兵一上战场就不知所措的情况,军队往往会进行多次的实战演习或者模拟战场。有时候会对资源造成浪费,对环境造成破坏,而且容易发生伤亡。但是通过本发明的设备,本发明可以适当模拟战争情景,例如有飞机从空中飞过,有导弹即将坠落,有敌军正在进攻等等,这样就可以训练士兵的反应能力、胆量,同时大大地节约了成本。
附图说明
图1是本发明的系统算法总体流程图;
图2是本发明的相机定位阶段流程图;
图3是本发明的场景平面识别阶段流程图;
图4是本发明的双目视图生成阶段流程图。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明提出的基于增强现实的虚拟现实实现方法,按照以下步骤实施。其中图1为整体流程图。
步骤一、相机标定配准。
将深度相机structure sensor与智能手机连接并将其固定于ipad之上,使其与智能手机自带彩色摄像头的相对位置保持不变,首先用棋盘格标定法获取相机的内外参数对相机进行校正,并对两种不同传感器获取到的 RGB与Depth图像进行预处理,通过一定的算法获取图片中物体的特征点,并通过如下方法对每一帧获取到的两种图片进行配准:
数学模型:
通过之前的内参标定工作,得到了深度相机和彩色相机的内参矩阵,彩色相机和深度相机的外参也可以通过世界坐标系(棋盘格)计算得出。
内参矩阵:
外参矩阵:
世界坐标系与相机坐标系的变换(齐次形式):
相机坐标系与像素坐标系的变换(深度相机齐次形式):
RGB-D对齐的目的是将深度图像中描述同一物体的像素放到彩色图像中的对应位置上。
通过以上几个式子,我们可以通过深度图像直接还原出世界坐标系下的三维点云。再通过投影变换将三维点云投影到彩色相机的像素坐标系内,就可以得到深度图像中某个像素与彩色图像中某个像素的对应关系。
1-1:对深度图中的一个像素点D(uD,vD)计算深度相机坐标系下的坐标。
其中:
1-2:还原该像素点D(uD,vD)的三维坐标(世界坐标系)。
1-3:通过该深度图像所对应的世界坐标系中的点坐标,计算彩色相机坐标系下的坐标。
1-4:将世界坐标系下的点坐标变换到彩色相机坐标系下的点坐标。
1-5:将彩色相机坐标系下的点投影变换到彩色图像的像素坐标系下。
1-6:将深度像素的值放到对应像素位置,完成对齐。
D‘(uRGB,vRGB)=D(uD,vD)
对第二到第四步进行简化计算。
由于已知了深度相机和彩色相机的外参矩阵W1、W2
W2to1=W1-W2
以此方法可以减少计算量,即不需要计算世界坐标系中的坐标。
待深度图片和彩色图片配准之后,将深度图片和彩色图片合成为一幅四通道图像序列,此时得到的是带深度信息的彩色图像即前文提到的 RGB-D图像序列。
步骤二、相机定位,参看图2。
2-1.利用ORB特征提取算法对RGB-D图像序列两帧间图片的特征点进行提取,并对得到的特征点进行特定描述,从而得到两帧间图片的特征点相似程度。
2-2.根据所描述的两帧之间特征点相似程度,实现相邻两帧图片的关键点匹配,再对匹配后的特征点进行检测,如果为误匹配,则删除不匹配的关键点,重新对相邻两帧图片的关键点进行匹配;如果匹配正确,则建立优化模型计算出相邻两帧图片间相机的空间位置变化,即相机的旋转矩阵 Ei与平移向量gi。优化模型如下:
其中,pi和qi分别是相邻两帧图像的特征点,都包含RGB-D信息,都是以三维矩阵形式进行存储,具体的大小视匹配所得的特征点对的数量而定;N为RGB-D四通道图像序列的总帧数。Ei是大小为3×3的旋转矩阵, gi是大小为3×1的平移向量。
所述的特定描述和相邻两帧图片的关键点匹配参考ORB特征提取算法:Rublee E,Rabaud V,Konolige K,et al.ORB:An efficient alternative to SIFT or SURF[C]//IEEE International Conference on Computer Vision,ICCV 2011,Barcelona,Spain,November.DBLP,2011:2564-2571.
由于本发明是针对实时虚拟现实实现技术,而场景会随使用者的空间位置变换而产生变换,本发明必须捕捉到相机的实时位置变化,即实现相机的实时定位,从而基于步骤三中识别到的场景平面根据场景变化在现实场景中建立出模型库中的物体模型,此时的模型库可以是官方给出,也可以是用户根据实际需求建立。实现本发明想要的虚拟现实。
步骤三、场景布局识别。
要想在真实场景中生成虚拟物体,还需要对真实场景中各部分的结构进行了解,例如本发明需要在场景中的墙壁上生成一幅画,那么首先需要明白哪个部分属于平面,哪些地方是面与面之间的交叉线,这就需要本发明完成场景平面识别阶段。
如图3,将步骤1中得到的RGBD图像序列输入到场景平面识别模块中,具体在场景平面识别模块中的操作如下:
首先,通过边缘检测和对角线判定等一系列方法对场景的RGB-D四通道图像序列进行处理,具体的:状态1是为了检测场景中的直线,这一状态用的是边缘检测方法,需要循环执行,直到识别并且判定出直线,状态 2是确定平面,通过对角线判定框定直线,接着判断获取到的平面的深度信息是否符合三维平面函数,如果符合,那么就认为识别出的是正确的平面,从而输出平面的边缘坐标,便于在片面上生成虚拟场景。
其次,通过边缘检测和对角线判定等一系列方法对场景中的地板、桌子、墙壁等平面结构进行识别,并通过特征点跟踪实现平面结构在视频中的跟踪。从而在场景中的平面之上建立即放置模型库中的物体模型。
步骤四、双目视图生成。
由于本发明是通过双眼观察物体,所以必须将图片转化为双目视图,使两眼看到的图片互不干扰,通过双目视差产生3D效果,从而模拟真实场景的效果。用相机模型模拟人眼,估计人眼相机参数,将图像转换成双目视图。
4-1.如图4所示,将步骤一中得到的RGB-D四通道图像序列转化成点云位置(X,Y,Z,R,G,B),分别与左眼投影矩阵和右眼投影矩阵相乘:
MLPROJ、MRPROJ分别表示左眼投影矩阵和右眼投影矩阵。
fNear、fFar、t、b分别表示视域四棱锥的前剪裁面、后剪裁面、顶部、底端的值,l、r代表视域四棱柱前剪裁面的左、右边的值,其下标L、R 则分别代表左眼和右眼。因为左右眼观测的视域四棱锥的t、b相同,所以可以共用一个值,而l、r不同,所以得用lL、lR、rL、rR分别表示。
4-2.分别得到左眼视图和右眼视图中顶点的坐标位置,并将其分别映射到屏幕左右半平面上即可得到双目视图序列。
步骤五、虚拟现实实现阶段。
本发明的最后一个阶段,此阶段是对前四个步骤输出结果的合成,其中步骤二、三、四在步骤一完成的基础之上同时进行,当之前的步骤都完成之后步骤五才可进行。
将双目视图图像序列呈现于手机屏幕,手机外接虚拟现实头盔,方便用户佩戴并根据自身的实际情况对焦距以及瞳距进行调整,此时用户从可以观察到实际场景中的三维模型,由于步骤三中实现了场景中平面结构的识别跟踪以及物体识别,用户可以通过增强现实技术在图像序列中的场景结构上生成想要呈现的虚拟三维模型。比如说用户想要了解某件物体置于实际场景中的效果,只需根据需求将此物体的虚拟模型投放到实际空间中即可得到一个直观的观测信息。并且能够基于机器学习的结果实时获取到场景中用户未知或需要了解的物体信息,便于对整个系统的功能做进一步扩展。根据步骤二即相机定位阶段得到的相机实时位置变化信息,使得呈现在用户眼前的场景可以根据实际情况做出实时调整,防止物体的虚拟模型出现失真以及位置不稳定的情况。从而实现基于增强现实的虚拟现实实现方法。

Claims (3)

1.一种基于增强现实的虚拟现实实现方法,其特征在于包括如下步骤:
步骤一、相机标定配准;
首先对输入的场景的RGB与Depth图像序列进行预处理,以实现用棋盘格标定法对相机进行标定;转化矩阵如下:
其中,s代表深度相机的缩放因子,u、v是彩色相机像平面的横坐标和纵坐标,A是彩色相机的内参矩阵,r1r2r3代表旋转向量,t是位移向量,X、Y是现实三维空间中横坐标和纵坐标;
深度相机和彩色相机的标定,使得两个相机获得的像素之间产生对应关系,相机标定之后无需对接下来获取到的每一帧图片进行配准处理,只要直接将相机获取的RGB与Depth图像序列输入相机标定过程中得到的配准模型便可获取RGB-D图像序列;
步骤二、相机定位;
2-1.利用ORB特征提取算法对RGB-D图像序列两帧间图片的特征点进行提取,并对得到的特征点进行特定描述,从而得到两帧间图片的特征点相似程度;
2-2.根据所描述的两帧之间特征点相似程度,实现相邻两帧图片的关键点匹配,再对匹配后的特征点进行检测,如果为误匹配,则删除不匹配的关键点,重新对相邻两帧图片的关键点进行匹配;如果匹配正确,则建立优化模型计算出相邻两帧图片间相机的空间位置变化,即相机的旋转矩阵Ei与平移向量gi;优化模型如下:
其中,pi和qi分别是相邻两帧图像的特征点,都包含RGB-D信息,都是以三维矩阵形式进行存储,具体的大小视匹配所得的特征点对的数量而定;N为RGB-D四通道图像序列的总帧数;Ei是大小为3×3的旋转矩阵,gi是大小为3×1的平移向量;
步骤三、场景布局识别;
首先通过边缘检测和对角线判定方法对场景的RGB-D四通道图像序列进行处理,识别出场景中的平面结构并得到其在三维空间中的位置信息,对平面结构特征点的跟踪实现对平面结构在视频中的跟踪;然后获取通过机器学习的方法识别出的场景中的物体信息,便于用户对未知物体信息的检索;
步骤四、双目视图生成阶段;
当已知实际环境的三维模型之后,能够将像素投影到3D空间;估计人眼相机参数,将3D空间进行投影变换转换成双目视图;
步骤五、虚拟现实实现阶段;
首先,通过步骤四,将相机采集到的RGB-D场景图像转换为双目视图,并将该双目视图呈现于手机屏幕上,然后将手机置于虚拟现实头盔中,达到直接佩戴虚拟现实头盔即可观看到现实场景的效果;
其次通过步骤三识别出场景中的平面结构并得到其所在三维空间中的位置信息;
然后根据该位置信息将目标虚拟三维模型构建于该平面上;
随着相机的移动,通过步骤二实时得到相机的旋转矩阵和平移向量,并将其作用于虚拟三维模型上,使之与所附着的平面结构呈现相对静止的状态,进而达到虚拟物体自然放置于平面上的效果;当此平面结构脱离视线时,虚拟三维模型也将在视野里消失;当再次识别到平面结构时,将会再次生成虚拟三维模型。
2.根据权利要求1所述的一种基于增强现实的虚拟现实实现方法,其特征在于步骤一所述的每一帧获取到的两种图片的配准方法如下:
符号说明:
D(uD,vD)表示深度图像,uD,vD为像素坐标;D‘(uRGB,vRGB)表示对齐到彩色相机后的深度图像;M1表示彩色相机内参矩阵;M2表示深度相机内参矩阵;W1表示彩色相机外参矩阵;W2表示深度相机外参矩阵;W2to1表示深度相机相对于彩色相机的外参矩阵;[XW YW ZW]表示世界坐标系;[XD YD ZD]表示深度相机坐标系;[XRGB YRGB ZRGB]表示彩色相机坐标系;
数学模型:
通过内参标定工作得到了深度相机和彩色相机的内参矩阵,彩色相机和深度相机的外参通过世界坐标系计算得出;
内参矩阵:
外参矩阵:
世界坐标系与相机坐标系的变换:
相机坐标系与像素坐标系的变换:
通过深度图像直接还原出世界坐标系下的三维点云,再通过投影变换将三维点云投影到彩色相机的像素坐标系内,从而得到深度图像中某个像素与彩色图像中某个像素的对应关系,具体操作如下:
1-1:对深度图中的一个像素点D(uD,vD)计算深度相机坐标系下的坐标;
其中:
1-2:还原该像素点D(uD,vD)的三维坐标;
1-3:通过该深度图像所对应的世界坐标系中的点坐标,计算彩色相机坐标系下的坐标;
1-4:将世界坐标系下的点坐标变换到彩色相机坐标系下的点坐标;
1-5:将彩色相机坐标系下的点投影变换到彩色图像的像素坐标系下;
1-6:将深度像素的值放到对应像素位置,完成对齐;
D‘(uRGB,vRGB)=D(uD,vD)
由于已知了深度相机和彩色相机的外参矩阵W1、W2
W2to1=W1-W2
待深度图片和彩色图片配准之后,将深度图片和彩色图片合成为一幅四通道图像序列,此时得到的是带深度信息的彩色图像即前文提到的RGB-D图像序列。
3.根据权利要求1所述的一种基于增强现实的虚拟现实实现方法,其特征在于步骤四的双目视图生成阶段的具体实现过程如下:
4-1.将步骤一中得到的RGB-D四通道图像序列转化成点云位置(X,Y,Z,R,G,B),分别与左眼投影矩阵和右眼投影矩阵相乘:
MLPROJ、MRPROJ分别表示左眼投影矩阵和右眼投影矩阵;
fNear、fFar、t、b分别表示视域四棱锥的前剪裁面、后剪裁面、顶部、底端的值,l、r代表视域四棱柱前剪裁面的左、右边的值,其下标L、R则分别代表左眼和右眼;因为左右眼观测的视域四棱锥的t、b相同,所以可以共用一个值,而l、r不同,所以得用lL、lR、rL、rR分别表示;
4-2.分别得到左眼视图和右眼视图中顶点的坐标位置,并将其分别映射到屏幕左右半平面上即可得到双目视图序列。
CN201710174897.3A 2017-03-09 2017-03-22 一种基于增强现实的虚拟现实实现方法 Pending CN107016704A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2017101377348 2017-03-09
CN201710137734 2017-03-09

Publications (1)

Publication Number Publication Date
CN107016704A true CN107016704A (zh) 2017-08-04

Family

ID=59440830

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710174897.3A Pending CN107016704A (zh) 2017-03-09 2017-03-22 一种基于增强现实的虚拟现实实现方法

Country Status (1)

Country Link
CN (1) CN107016704A (zh)

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107441706A (zh) * 2017-08-17 2017-12-08 安徽迪万科技有限公司 虚拟现实与倾斜摄影相结合的真实感游戏场景构建系统
CN107564089A (zh) * 2017-08-10 2018-01-09 腾讯科技(深圳)有限公司 三维图像处理方法、装置、存储介质和计算机设备
CN108012139A (zh) * 2017-12-01 2018-05-08 北京理工大学 应用于真实感近眼显示的图像生成方法和装置
CN108022306A (zh) * 2017-12-30 2018-05-11 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN108305327A (zh) * 2017-11-22 2018-07-20 北京居然设计家家居连锁集团有限公司 一种图像渲染方法
CN108320330A (zh) * 2018-01-23 2018-07-24 河北中科恒运软件科技股份有限公司 基于深度视频流的实时三维模型重建方法及系统
CN108389157A (zh) * 2018-01-11 2018-08-10 江苏四点灵机器人有限公司 一种三维全景图像快速拼接方法
CN108520204A (zh) * 2018-03-16 2018-09-11 西北大学 一种人脸识别方法
CN108805917A (zh) * 2018-05-25 2018-11-13 网易(杭州)网络有限公司 空间定位的方法、介质、装置和计算设备
CN108876900A (zh) * 2018-05-11 2018-11-23 重庆爱奇艺智能科技有限公司 一种与现实场景融合的虚拟目标投射方法和系统
CN108898661A (zh) * 2018-05-31 2018-11-27 深圳先进技术研究院 三维图像构建的方法、装置及具有存储功能的装置
CN108905208A (zh) * 2018-06-21 2018-11-30 珠海金山网络游戏科技有限公司 一种基于增强现实的电子游戏方法和装置
CN109242958A (zh) * 2018-08-29 2019-01-18 广景视睿科技(深圳)有限公司 一种三维建模的方法及其装置
CN109255801A (zh) * 2018-08-03 2019-01-22 百度在线网络技术(北京)有限公司 视频中三维物体边缘追踪的方法、装置、设备及存储介质
CN109410272A (zh) * 2018-08-13 2019-03-01 国网陕西省电力公司电力科学研究 一种变压器螺母识别与定位装置及方法
CN109658519A (zh) * 2018-12-28 2019-04-19 吉林大学 基于现实路况信息图像处理的车载多模式增强现实系统
CN109688347A (zh) * 2017-10-19 2019-04-26 阿里巴巴集团控股有限公司 多屏互动方法、装置及电子设备
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置
CN109801379A (zh) * 2019-01-21 2019-05-24 视辰信息科技(上海)有限公司 通用的增强现实眼镜及其标定方法
CN109816731A (zh) * 2017-11-21 2019-05-28 西安交通大学 一种rgb和深度信息精确配准的方法
CN109840949A (zh) * 2017-11-29 2019-06-04 深圳市掌网科技股份有限公司 基于光学定位的增强现实图像处理方法和装置
WO2019136588A1 (zh) * 2018-01-09 2019-07-18 深圳前海达闼云端智能科技有限公司 基于云端计算的标定方法、装置、电子设备和计算机程序产品
CN110148167A (zh) * 2019-04-17 2019-08-20 维沃移动通信有限公司 一种距离测量方法及终端设备
CN110211061A (zh) * 2019-05-20 2019-09-06 清华大学 基于神经网络的单深度相机深度图实时增强方法及装置
CN110460833A (zh) * 2019-07-19 2019-11-15 深圳市中视典数字科技有限公司 一种ar眼镜与智能手机互联方法及系统
CN110931121A (zh) * 2019-11-29 2020-03-27 重庆邮电大学 一种基于Hololens的远程手术指导装置及操作方法
CN111045425A (zh) * 2019-12-05 2020-04-21 中国北方车辆研究所 一种地面无人车辆的辅助遥操作驾驶方法
CN111044061A (zh) * 2018-10-12 2020-04-21 腾讯大地通途(北京)科技有限公司 一种导航方法、装置、设备及计算机可读存储介质
CN111158131A (zh) * 2019-12-31 2020-05-15 杭州电子科技大学 一种基于傅里叶叠层成像的led矩阵校正方法
CN111223053A (zh) * 2019-11-18 2020-06-02 北京邮电大学 基于深度图像的数据增强方法
CN111340598A (zh) * 2020-03-20 2020-06-26 北京爱笔科技有限公司 一种添加交互标签的方法及装置
CN111508058A (zh) * 2020-02-24 2020-08-07 当家移动绿色互联网技术集团有限公司 图像三维重建的方法、装置、存储介质及电子设备
CN111626803A (zh) * 2019-02-28 2020-09-04 北京京东尚科信息技术有限公司 一种物品虚拟化定制方法、装置以及其存储介质
CN111899350A (zh) * 2020-07-31 2020-11-06 北京市商汤科技开发有限公司 增强现实ar图像的呈现方法及装置、电子设备、存储介质
WO2020228643A1 (zh) * 2019-05-14 2020-11-19 Oppo广东移动通信有限公司 交互控制方法、装置、电子设备及存储介质
CN112354179A (zh) * 2020-11-23 2021-02-12 浙江浙大中控信息技术有限公司 一种三维地理信息内容的显示与交互方法
WO2021047396A1 (zh) * 2019-09-10 2021-03-18 腾讯科技(深圳)有限公司 图像处理方法及装置、电子设备和计算机可读存储介质
CN112735198A (zh) * 2020-12-31 2021-04-30 深兰科技(上海)有限公司 实验教学系统及方法
CN112927297A (zh) * 2021-02-20 2021-06-08 华南理工大学 一种基于yolo系列的目标检测和视觉定位方法
CN113117327A (zh) * 2021-04-12 2021-07-16 网易(杭州)网络有限公司 增强现实互动控制方法、装置、电子设备和存储介质
CN113673283A (zh) * 2020-05-14 2021-11-19 惟亚(上海)数字科技有限公司 一种基于增强现实的平滑跟踪方法
TWI830523B (zh) * 2022-12-05 2024-01-21 國立成功大學 具分散式與互動性之擴增實境遠端服務方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN102867057A (zh) * 2012-09-17 2013-01-09 北京航空航天大学 一种基于视觉定位的虚拟向导构建方法
CN103607584A (zh) * 2013-11-27 2014-02-26 浙江大学 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
CN104008571A (zh) * 2014-06-12 2014-08-27 深圳奥比中光科技有限公司 基于深度相机的人体模型获取方法及网络虚拟试衣系统
CN104463880A (zh) * 2014-12-12 2015-03-25 中国科学院自动化研究所 一种rgb-d图像获取方法
CN104715479A (zh) * 2015-03-06 2015-06-17 上海交通大学 基于增强虚拟的场景复现检测方法
CN105205858A (zh) * 2015-09-18 2015-12-30 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法
CN105224288A (zh) * 2014-06-27 2016-01-06 北京大学深圳研究生院 双目三维图形渲染方法及相关系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN102867057A (zh) * 2012-09-17 2013-01-09 北京航空航天大学 一种基于视觉定位的虚拟向导构建方法
CN103607584A (zh) * 2013-11-27 2014-02-26 浙江大学 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
CN104008571A (zh) * 2014-06-12 2014-08-27 深圳奥比中光科技有限公司 基于深度相机的人体模型获取方法及网络虚拟试衣系统
CN105224288A (zh) * 2014-06-27 2016-01-06 北京大学深圳研究生院 双目三维图形渲染方法及相关系统
CN104463880A (zh) * 2014-12-12 2015-03-25 中国科学院自动化研究所 一种rgb-d图像获取方法
CN104715479A (zh) * 2015-03-06 2015-06-17 上海交通大学 基于增强虚拟的场景复现检测方法
CN105205858A (zh) * 2015-09-18 2015-12-30 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHENGGANG YAN ET AL: "《A Highly Parallel Framework for HEVC Coding Unit Partitioning Tree Decision on Many-core Processors》", 《IEEE SIGNAL PROCESSING LETTERS》 *
ETHAN RUBLEE ET AL: "《ORB: an efficient alternative to SIFT or SURF》", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
刘毅: "《结合kinect的双目视觉场景三维重建》", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
琚旋: "《深度与彩色相机的联合标定及其在增强现实中的应用》", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
雷伟: "《基于深度摄像机的飞机座舱三维重建技术研究》", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 *

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564089A (zh) * 2017-08-10 2018-01-09 腾讯科技(深圳)有限公司 三维图像处理方法、装置、存储介质和计算机设备
CN107441706A (zh) * 2017-08-17 2017-12-08 安徽迪万科技有限公司 虚拟现实与倾斜摄影相结合的真实感游戏场景构建系统
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置
CN109688347A (zh) * 2017-10-19 2019-04-26 阿里巴巴集团控股有限公司 多屏互动方法、装置及电子设备
CN109816731A (zh) * 2017-11-21 2019-05-28 西安交通大学 一种rgb和深度信息精确配准的方法
CN109816731B (zh) * 2017-11-21 2021-08-27 西安交通大学 一种rgb和深度信息精确配准的方法
CN108305327A (zh) * 2017-11-22 2018-07-20 北京居然设计家家居连锁集团有限公司 一种图像渲染方法
CN109840949A (zh) * 2017-11-29 2019-06-04 深圳市掌网科技股份有限公司 基于光学定位的增强现实图像处理方法和装置
CN108012139A (zh) * 2017-12-01 2018-05-08 北京理工大学 应用于真实感近眼显示的图像生成方法和装置
CN108012139B (zh) * 2017-12-01 2019-11-29 北京理工大学 应用于真实感近眼显示的图像生成方法和装置
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN108022306A (zh) * 2017-12-30 2018-05-11 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
CN108022306B (zh) * 2017-12-30 2021-09-21 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
WO2019136588A1 (zh) * 2018-01-09 2019-07-18 深圳前海达闼云端智能科技有限公司 基于云端计算的标定方法、装置、电子设备和计算机程序产品
CN108389157A (zh) * 2018-01-11 2018-08-10 江苏四点灵机器人有限公司 一种三维全景图像快速拼接方法
CN108320330A (zh) * 2018-01-23 2018-07-24 河北中科恒运软件科技股份有限公司 基于深度视频流的实时三维模型重建方法及系统
CN108520204A (zh) * 2018-03-16 2018-09-11 西北大学 一种人脸识别方法
CN108876900A (zh) * 2018-05-11 2018-11-23 重庆爱奇艺智能科技有限公司 一种与现实场景融合的虚拟目标投射方法和系统
CN108805917B (zh) * 2018-05-25 2021-02-23 杭州易现先进科技有限公司 空间定位的方法、介质、装置和计算设备
CN108805917A (zh) * 2018-05-25 2018-11-13 网易(杭州)网络有限公司 空间定位的方法、介质、装置和计算设备
CN108898661A (zh) * 2018-05-31 2018-11-27 深圳先进技术研究院 三维图像构建的方法、装置及具有存储功能的装置
CN108905208A (zh) * 2018-06-21 2018-11-30 珠海金山网络游戏科技有限公司 一种基于增强现实的电子游戏方法和装置
CN109255801A (zh) * 2018-08-03 2019-01-22 百度在线网络技术(北京)有限公司 视频中三维物体边缘追踪的方法、装置、设备及存储介质
CN109410272B (zh) * 2018-08-13 2021-05-28 国网陕西省电力公司电力科学研究院 一种变压器螺母识别与定位装置及方法
CN109410272A (zh) * 2018-08-13 2019-03-01 国网陕西省电力公司电力科学研究 一种变压器螺母识别与定位装置及方法
CN109242958A (zh) * 2018-08-29 2019-01-18 广景视睿科技(深圳)有限公司 一种三维建模的方法及其装置
CN111044061A (zh) * 2018-10-12 2020-04-21 腾讯大地通途(北京)科技有限公司 一种导航方法、装置、设备及计算机可读存储介质
CN109658519A (zh) * 2018-12-28 2019-04-19 吉林大学 基于现实路况信息图像处理的车载多模式增强现实系统
CN109801379B (zh) * 2019-01-21 2023-02-17 视辰信息科技(上海)有限公司 通用的增强现实眼镜及其标定方法
CN109801379A (zh) * 2019-01-21 2019-05-24 视辰信息科技(上海)有限公司 通用的增强现实眼镜及其标定方法
US11978111B2 (en) 2019-02-28 2024-05-07 Beijing Jingdong Shangke Information Technology Co., Ltd. Object virtualization processing method and device, electronic device and storage medium
CN111626803A (zh) * 2019-02-28 2020-09-04 北京京东尚科信息技术有限公司 一种物品虚拟化定制方法、装置以及其存储介质
CN110148167A (zh) * 2019-04-17 2019-08-20 维沃移动通信有限公司 一种距离测量方法及终端设备
WO2020228643A1 (zh) * 2019-05-14 2020-11-19 Oppo广东移动通信有限公司 交互控制方法、装置、电子设备及存储介质
CN110211061A (zh) * 2019-05-20 2019-09-06 清华大学 基于神经网络的单深度相机深度图实时增强方法及装置
CN110460833A (zh) * 2019-07-19 2019-11-15 深圳市中视典数字科技有限公司 一种ar眼镜与智能手机互联方法及系统
US11538229B2 (en) 2019-09-10 2022-12-27 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, electronic device, and computer-readable storage medium
WO2021047396A1 (zh) * 2019-09-10 2021-03-18 腾讯科技(深圳)有限公司 图像处理方法及装置、电子设备和计算机可读存储介质
CN111223053A (zh) * 2019-11-18 2020-06-02 北京邮电大学 基于深度图像的数据增强方法
CN110931121A (zh) * 2019-11-29 2020-03-27 重庆邮电大学 一种基于Hololens的远程手术指导装置及操作方法
CN111045425A (zh) * 2019-12-05 2020-04-21 中国北方车辆研究所 一种地面无人车辆的辅助遥操作驾驶方法
CN111045425B (zh) * 2019-12-05 2023-04-28 中国北方车辆研究所 一种地面无人车辆的辅助遥操作驾驶方法
CN111158131A (zh) * 2019-12-31 2020-05-15 杭州电子科技大学 一种基于傅里叶叠层成像的led矩阵校正方法
CN111158131B (zh) * 2019-12-31 2021-09-28 杭州电子科技大学 一种基于傅里叶叠层成像的led矩阵校正方法
CN111508058A (zh) * 2020-02-24 2020-08-07 当家移动绿色互联网技术集团有限公司 图像三维重建的方法、装置、存储介质及电子设备
CN111340598B (zh) * 2020-03-20 2024-01-16 北京爱笔科技有限公司 一种添加交互标签的方法及装置
CN111340598A (zh) * 2020-03-20 2020-06-26 北京爱笔科技有限公司 一种添加交互标签的方法及装置
CN113673283A (zh) * 2020-05-14 2021-11-19 惟亚(上海)数字科技有限公司 一种基于增强现实的平滑跟踪方法
CN111899350A (zh) * 2020-07-31 2020-11-06 北京市商汤科技开发有限公司 增强现实ar图像的呈现方法及装置、电子设备、存储介质
CN112354179B (zh) * 2020-11-23 2023-09-05 浙江中控信息产业股份有限公司 一种三维地理信息内容的显示与交互方法
CN112354179A (zh) * 2020-11-23 2021-02-12 浙江浙大中控信息技术有限公司 一种三维地理信息内容的显示与交互方法
CN112735198A (zh) * 2020-12-31 2021-04-30 深兰科技(上海)有限公司 实验教学系统及方法
CN112927297A (zh) * 2021-02-20 2021-06-08 华南理工大学 一种基于yolo系列的目标检测和视觉定位方法
CN113117327A (zh) * 2021-04-12 2021-07-16 网易(杭州)网络有限公司 增强现实互动控制方法、装置、电子设备和存储介质
CN113117327B (zh) * 2021-04-12 2024-02-02 网易(杭州)网络有限公司 增强现实互动控制方法、装置、电子设备和存储介质
TWI830523B (zh) * 2022-12-05 2024-01-21 國立成功大學 具分散式與互動性之擴增實境遠端服務方法

Similar Documents

Publication Publication Date Title
CN107016704A (zh) 一种基于增强现实的虚拟现实实现方法
Vallino Interactive augmented reality
CN106101689B (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
CN104376552B (zh) 一种3d模型与二维图像的虚实配准方法
CN105631861B (zh) 结合高度图从无标记单目图像中恢复三维人体姿态的方法
CN105608746B (zh) 一种将现实进行虚拟实现的方法
KR101295471B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US20120162384A1 (en) Three-Dimensional Collaboration
CN105869167A (zh) 基于主被动融合的高分辨率深度图获取方法
CN107315470A (zh) 图形处理方法、处理器和虚拟现实系统
CN106710362A (zh) 使用虚拟现实设备进行的飞行训练方法
US20160148429A1 (en) Depth and Chroma Information Based Coalescence of Real World and Virtual World Images
CN103607584A (zh) 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
Oskiper et al. Augmented reality binoculars
CN109828658A (zh) 一种人机共融的远程态势智能感知系统
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN107256082B (zh) 一种基于网络一体化和双目视觉技术的投掷物弹道轨迹测算系统
CN111275731B (zh) 面向中学实验的投影式实物交互桌面系统和方法
CN105739106B (zh) 一种体感多视点大尺寸光场真三维显示装置及方法
CN107015655A (zh) 博物馆虚拟场景ar体验眼镜装置及其实现方法
CN108830944B (zh) 光学透视式三维近眼显示系统及显示方法
CN111569414A (zh) 虚拟飞行器的飞行展示方法、装置、电子设备及存储介质
Adithya et al. Augmented reality approach for paper map visualization
CN113941138A (zh) 一种ar交互控制系统、装置及应用
CN113470190A (zh) 场景显示方法及装置、设备、车辆、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Yan Chenggang

Inventor after: Li Ning

Inventor after: Xu Feng

Inventor after: Zhu Zunjie

Inventor after: Shao Biyao

Inventor after: Ma Huiwen

Inventor before: Li Ning

Inventor before: Yan Chenggang

Inventor before: Xu Feng

Inventor before: Zhu Zunjie

Inventor before: Shao Biyao

Inventor before: Ma Huiwen

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170804