CN104539925A - 基于深度信息的三维场景增强现实的方法及系统 - Google Patents
基于深度信息的三维场景增强现实的方法及系统 Download PDFInfo
- Publication number
- CN104539925A CN104539925A CN201410778799.7A CN201410778799A CN104539925A CN 104539925 A CN104539925 A CN 104539925A CN 201410778799 A CN201410778799 A CN 201410778799A CN 104539925 A CN104539925 A CN 104539925A
- Authority
- CN
- China
- Prior art keywords
- scene
- depth
- central server
- virtual scene
- present reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于深度信息的三维场景增强现实的方法及系统,其中方法包括:摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。通过本发明提供的基于深度信息的三维场景增强现实的方法及系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
Description
技术领域
本发明涉及计算机图像技术领域,尤其涉及一种基于深度信息的三维场景增强现实的方法及系统。
背景技术
增强现实是指将计算机生成虚拟物体、场景或者系统提示信息与真实场景进行叠加,实现对现实的“增强”。增强现实借助计算机图形技术和可视化技术生成现实环境中不存在的虚拟对象,并通过图像识别定位技术将虚拟对象准确“放置”在真实环境中,借助显示设备将虚拟对象与真实环境融为一体,并呈现给使用者一个真实的视觉感受。增强现实技术利用标识物建立虚拟三维空间,标识物在虚拟空间与现实空间之间起到连接的作用。根据标识物类别目前分为有标识增强现实技术和无标识增强现实技术两类。增强现实能够将虚拟场景与真实场景进行相互的融合,其强大的视觉冲击力正在获得广泛的关注。随着3D技术的突飞猛进,双目立体摄像机可以间接获得三维场景的深度信息,自由立体显示技术则无需用户佩戴任何的辅助设备,裸眼即可感知立体效果。
立体相机是指记录立体图像的数码相机,由两套相同规格的数码相机组成,两数码相机的调焦、变焦、感光等参数由一套控制电路实施控制。虚拟多视点是指将三维场景表达为“视频+深度”的数据格式,利用虚拟视点生成技术渲染出多个虚拟视点位置的图像,可为自由立体显示器提供同一场景的多视点图像和视频。
现有的二维虚拟现实系统,为了使虚拟空间具有同样的透视关系以及正确的遮挡关系,实现虚实空间的融合,需要从静态景物如道路、阶梯、障碍物等,动态景物如行人、车辆等提出约束条件,计算量较大,并且不够准确,同时摄像机视角与虚拟场景的视角的准确匹配需要对摄像机进行实时校准,因此其应用范围受限。
发明内容
针对现有技术中的缺陷,本发明提供一种基于深度信息的三维场景增强现实的方法及系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
第一方面,本发明提供了一种基于深度信息的三维场景增强现实的方法,包括:
摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;
所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;
所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。
进一步地,在所述摄像机采集当前现实场景步骤之前,还包括:
所述中央服务器获取所述预设的虚拟场景的俯仰角,并将所述预设的虚拟场景的俯仰角发送给所述摄像机;
所述摄像机根据所述预设的虚拟场景的俯仰角采集所述当前现实场景。
进一步地,所述中央服务器获取所述预设的虚拟场景的俯仰角,包括:
所述中央服务器根据所述预设的虚拟场景的深度图的消失线斜率,采用第一公式,确定所述虚拟场景的俯仰角;
所述预设的虚拟场景包括图像信息和深度信息;
其中,所述第一公式为:
k=cosθ
k为消失线斜率,θ为虚拟场景的俯仰角。
进一步地,所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景,包括:
所述中央服务器获取所述当前现实场景中的前景与背景相交点的深度变化率和所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率;
若所述当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率相同时,则所述中央服务器获取所述预设的虚拟场景的深度和所述当前现实场景的深度;
若所述预设的虚拟场景的深度与所述当前现实场景的深度相交等于零,则所述预设的虚拟场景遮挡所述当前现实场景或者所述当前现实场景遮挡所述预设的虚拟场景,进而确定融合的混合场景。
进一步地,所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景,包括:
若所述预设的虚拟场景的深度与所述当前现实场景的深度相交不等于零,则所述预设的虚拟场景与所述当前现实场景具有重叠;
所述中央服务器将所述预设的虚拟场景与所述当前现实场景具有重叠部分移除,则进而确定融合的混合场景。
进一步地,所述方法还包括:
若所述当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同时,则调整所述预设的现实场景的俯仰角。
所述摄像机根据所述调整预设的虚拟场景的俯仰角采集所述当前现实场景,使得当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率相同。
进一步地,所述方法还包括:
若所述预设的当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同时,则调整所述当前现实场景的尺寸,以使当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同。
进一步地,所述中央服务器将所述融合的混合场景发送给显示器,包括:
所述中央服务器根据所述融合的混合场景,确定多视点的图像序列;
所述中央服务器将所述多视点的图像序列发送给所述显示器。
第二方面,本发明提供一种基于深度信息的三维场景增强现实的系统,所述系统包括摄像机,中央服务器和显示器;
所述摄像机与所述中央服务器通信连接;
所述中央服务器与所述显示器通信连接。
由上述技术方案可知,通过本发明提供的基于深度信息的三维场景增强现实的方法及系统,其中,方法包括:摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。通过本发明提供的基于深度信息的三维场景增强现实的方法及系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法流程示意图;
图2为本发明实施例提供的另一种基于深度信息的三维场景增强现实的方法流程示意图;
图3为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法中当前现实场景摄像效果示意图;
图4为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法中遮挡与重叠关系的效果示意图;
图5为本发明实施例提供的一种基于深度信息的三维场景增强现实的系统结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他的实施例,都属于本发明保护的范围。
图1为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法流程示意图,如图1所示,本实施例的基于深度信息的三维场景增强现实的方法如下所述。
101、摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器。
应理解的是,摄像机采集当前现实场景,同时将采集到的当前现实场景发送给中央服务器。
这里的摄像机采用的是立体摄像机。立体摄像机为:摄像机可以为两个视点的立体相机,拍摄到的为两个视点图,深度图像由两个视点图进行匹配计算获到。摄像机的图像传感器(Charge Coupled Device,简称CCD)分辨率一般大于1920*1080。用普通摄像机和深度摄像机进行摄像也可以实现图像的采集。
102、所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景。
应理解的是,中央服务器接收摄像机发送的当前现实场景,同时根据中央服务器中预设的虚拟场景,进行增强现实,从而确定融合的混合场景。
103、所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。
应理解的是,中央服务器将确定的融合的混合场景发送给显示器,显示器接收中央服务器发送的融合的混合场景,并显示融合的混合场景。
通过本实施例提供的基于深度信息的三维场景增强现实的方法,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
图2为本发明实施例提供的另一种基于深度信息的三维场景增强现实的方法流程示意图,图3为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法中当前现实场景摄像效果示意图,图4为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法中遮挡与重叠关系的效果示意图,如图2至4所示,本实施例的基于深度信息的三维场景增强现实的方法如下所述。
201、所述中央服务器获取所述预设的虚拟场景的俯仰角,并将所述预设的虚拟场景的俯仰角发送给所述摄像机。
应理解的是,中央服务器获取预设的虚拟场景的俯仰角,同时将预设的虚拟场景的俯仰角发送给摄像机。
中央服务器根据预设的虚拟场景的深度图的消失线斜率,采用第一公式,确定虚拟场景的俯仰角。
消失线是指在透视现象中,物体的轮廓到消失点的连线,可以理解为虚拟场景中主要标志物的消失线,能够描述整幅图的视角。
具体的,第一公式为:k=cosθ
k为消失线斜率,θ为虚拟场景的俯仰角。
图3为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法中当前现实场景摄像效果示意图,显示虚拟场景的俯仰角与消失线斜率的关系。
202、所述摄像机根据所述预设的虚拟场景的俯仰角采集所述当前现实场景。
应理解的是,摄像机根据预设的虚拟场景的俯仰角采集当前现实场景。
可以理解的是,立体摄像机由两个镜头的双目立体摄像机拍摄当前场景,可以通过电机调节立体摄像机的俯仰角与预设的虚拟场景的俯仰角保持一致。
203、摄像机将所述当前现实场景发送给中央服务器。
应理解的是,摄像机将采集到的当前现实场景发送给中央服务器。这里的传输方式可以通过有线传输也可以通过无线传输,在这里并不限定传输的具体方式。
204、所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景。
应理解的是,中央服务器根据预设的虚拟场景和接收到的当前现实场景,确定融合的混合场景。
可以理解的是,所述中央服务器获取所述当前现实场景中的前景与背景相交点的深度变化率和所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率。
若所述当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率相同时,则所述中央服务器获取所述预设的虚拟场景的深度和所述当前现实场景的深度。
若所述预设的虚拟场景的深度与所述当前现实场景的深度相交等于零,则所述预设的虚拟场景遮挡所述当前现实场景或者所述当前现实场景遮挡所述预设的虚拟场景,进而确定融合的混合场景。
还可以理解的是,若所述预设的虚拟场景的深度与所述当前现实场景的深度相交不等于零,则所述预设的虚拟场景与所述当前现实场景具有重叠。
所述中央服务器将所述预设的虚拟场景与所述当前现实场景具有重叠部分移除,则进而确定融合的混合场景。
还可以理解的是,中央服务器首先是对虚拟场景的深度变化率和当前现实场景的深度变化率的几何一致性进行处理,在现实场景中,现实场景与背景交界处的深度变化率为kr,与虚拟场景融合之后,现实场景在合成场景交界处的深度变化率为km,kr与km的不一致会减弱真实感,表现为物体漂浮或陷入到背景之中。深度变化率kr可以通过电机调整相机的俯仰角以及调整图像A的尺寸使kr与km基本相等。
若所述当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同时,则调整所述预设的现实场景的俯仰角。
所述摄像机根据所述调整预设的虚拟场景的俯仰角采集所述当前现实场景,使得当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率相同。
若所述预设的当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同时,则调整所述当前现实场景的尺寸,以使当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同。
在虚拟场景的深度变化率和当前现实场景的深度变化率的几何一致时,获取当前现实场景的深度和虚拟场景的深度。
首先对采集到的现实场景下采样匹配,结合摄像机参数,得到低分辨率深度图,根据采集到的当前现实场景和生成的深度图分割提取出需要融合的前景,并对前景对应的深度值上采样提高精确度,计算前景边缘的深度变化率kr。虚拟场景的深度dv与真实场景的深度dr之间的对应关系如下:
dv=αdr
下标r代表真实场景(real),v代表虚拟场景(virtual),α为可调节参数值。通过α将两个场景的深度融合到一副图像中。深度值较大的区域,越靠近摄像机深度值越大,覆盖深度值较小的区域。由于混叠的存在融合后的场景不够真实,对遮挡混叠关系处理。两个场景中某一区域的深度区间分别表示为dv、dr,根据两区间是否相交判断混叠性,
若为遮挡,则不作处理;若是重叠,则将深度值较小的整个物体从背景中移除。图4为本发明实施例提供的一种基于深度信息的三维场景增强现实的方法中遮挡与重叠关系的效果示意图,如图4所示。
205、所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。
可以理解的是,中央服务器将所述融合的混合场景发送给显示器,使得显示器显示融合的混合场景。
还可以理解的是,中央服务器根据所述融合的混合场景,确定多视点的图像序列。
中央服务器将所述多视点的图像序列发送给所述显示器。
还可以理解的是,中央服务器处理得到融合的混合场景及对应融合虚拟场景的深度图,将融合的混合场景和对应融合的混合场景的深度图合成多视点图像序列,在裸眼3D显示器上进行显示,可以看到现实中的人、物在虚拟环境中自由运动,具有较强的真实感。
通过本实施例提供的基于深度信息的三维场景增强现实的方法,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
图5为本发明实施例提供的一种基于深度信息的三维场景增强现实的系统结构示意图,如图5所示,本实施例的基于深度信息的三维场景增强现实的系统如下所述。
基于深度信息的三维场景增强现实的系统,包括摄像机51,中央服务器52和显示器53。
摄像机51与中央服务器52通信连接,中央服务器52与显示器53通信连接。
摄像机CCD分辨率:1920x1080
深度摄像机分辨率:640x480
裸眼立体显示器分辨率:3840*2160
裸眼立体显示方式:柱镜光栅分光式
裸眼立体视点数:28
计算机:计算能力3.0以上的NVIDIA显卡,显存2G以上
通过本实施例提供的基于深度信息的三维场景增强现实的系统,能够有效的减低计算的复杂度,使得场景融合更加的真实,效果增强,应用范围广泛。
本领域普通技术人员可以理解:实现上述方法实施例的全部或者部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在计算机可读取的存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质中。
以上所述,仅为本发明的具体实施方式,但是,本发明的保护范围不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替代,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (9)
1.一种基于深度信息的三维场景增强现实的方法,其特征在于,包括:
摄像机采集当前现实场景,并将所述当前现实场景发送给中央服务器;
所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景;
所述中央服务器将所述融合的混合场景发送给显示器,以使所述显示器显示所述融合的混合场景。
2.根据权利要求1所述的基于深度信息的三维场景增强现实的方法,其特征在于,在所述摄像机采集当前现实场景步骤之前,还包括:
所述中央服务器获取所述预设的虚拟场景的俯仰角,并将所述预设的虚拟场景的俯仰角发送给所述摄像机;
所述摄像机根据所述预设的虚拟场景的俯仰角采集所述当前现实场景。
3.根据权利要求2所述的基于深度信息的三维场景增强现实的方法,其特征在于,所述中央服务器获取所述预设的虚拟场景的俯仰角,包括:
所述中央服务器根据所述预设的虚拟场景的深度图的消失线斜率,采用第一公式,确定所述虚拟场景的俯仰角;
所述预设的虚拟场景包括图像信息和深度信息;
其中,所述第一公式为:
k=cosθ
k为消失线斜率,θ为虚拟场景的俯仰角。
4.根据权利要求1所述的基于深度信息的三维场景增强现实的方法,其特征在于,所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景,包括:
所述中央服务器获取所述当前现实场景中的前景与背景相交点的深度变化率和所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率;
若所述当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率相同时,则所述中央服务器获取所述预设的虚拟场景的深度和所述当前现实场景的深度;
若所述预设的虚拟场景的深度与所述当前现实场景的深度相交等于零,则所述预设的虚拟场景遮挡所述当前现实场景或者所述当前现实场景遮挡所述预设的虚拟场景,进而确定融合的混合场景。
5.根据权利要求1所述的基于深度信息的三维场景增强现实的方法,其特征在于,所述中央服务器根据预设的虚拟场景和所述当前现实场景,确定融合的混合场景,包括:
若所述预设的虚拟场景的深度与所述当前现实场景的深度相交不等于零,则所述预设的虚拟场景与所述当前现实场景具有重叠;
所述中央服务器将所述预设的虚拟场景与所述当前现实场景具有重叠部分移除,则进而确定融合的混合场景。
6.根据权利要求4所述的基于深度信息的三维场景增强现实的方法,其特征在于,所述方法还包括:
若所述当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同时,则调整所述预设的现实场景的俯仰角。
所述摄像机根据所述调整预设的虚拟场景的俯仰角采集所述当前现实场景,使得当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率相同。
7.根据权利要求6所述的基于深度信息的三维场景增强现实的方法,其特征在于,所述方法还包括:
若所述预设的当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同时,则调整所述当前现实场景的尺寸,以使当前现实场景中的前景与背景相交点的深度变化率与所述虚拟场景中的背景与所述当前现实场景中的前景相交点的深度变化率不相同。
8.根据权利要求1所述的基于深度信息的三维场景增强现实的方法,其特征在于,所述中央服务器将所述融合的混合场景发送给显示器,包括:
所述中央服务器根据所述融合的混合场景,确定多视点的图像序列;
所述中央服务器将所述多视点的图像序列发送给所述显示器。
9.一种基于深度信息的三维场景增强现实的系统,其特征在于,所述系统包括摄像机,中央服务器和显示器;
所述摄像机与所述中央服务器通信连接;
所述中央服务器与所述显示器通信连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410778799.7A CN104539925B (zh) | 2014-12-15 | 2014-12-15 | 基于深度信息的三维场景增强现实的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410778799.7A CN104539925B (zh) | 2014-12-15 | 2014-12-15 | 基于深度信息的三维场景增强现实的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104539925A true CN104539925A (zh) | 2015-04-22 |
CN104539925B CN104539925B (zh) | 2016-10-05 |
Family
ID=52855384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410778799.7A Active CN104539925B (zh) | 2014-12-15 | 2014-12-15 | 基于深度信息的三维场景增强现实的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104539925B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105763865A (zh) * | 2016-02-26 | 2016-07-13 | 北京邮电大学 | 一种基于透明液晶的裸眼3d增强现实的方法及装置 |
CN106131536A (zh) * | 2016-08-15 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统及其展示方法 |
CN106303289A (zh) * | 2015-06-05 | 2017-01-04 | 福建凯米网络科技有限公司 | 一种将真实对象与虚拟场景融合显示的方法、装置及系统 |
WO2017016511A1 (zh) * | 2015-07-29 | 2017-02-02 | 努比亚技术有限公司 | 一种图像处理方法及装置、终端 |
CN106383587A (zh) * | 2016-10-26 | 2017-02-08 | 腾讯科技(深圳)有限公司 | 一种增强现实场景生成方法、装置及设备 |
CN107358609A (zh) * | 2016-04-29 | 2017-11-17 | 成都理想境界科技有限公司 | 一种用于增强现实的图像叠加方法及装置 |
CN107509043A (zh) * | 2017-09-11 | 2017-12-22 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN107707879A (zh) * | 2017-09-29 | 2018-02-16 | 广州云友网络科技有限公司 | 一种分布式场景目标识别的增强现实方法及系统 |
CN107850782A (zh) * | 2015-05-13 | 2018-03-27 | 脸谱公司 | 用反射率图表示增强深度图表示 |
CN108292439A (zh) * | 2015-11-30 | 2018-07-17 | 德尔福技术有限责任公司 | 用于校准安装至车辆的摄像机的取向的方法 |
CN108537889A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 增强现实模型的调整方法、装置、存储介质和电子设备 |
CN109274886A (zh) * | 2018-09-18 | 2019-01-25 | 成都泰盟软件有限公司 | 一种基于OpenVR的混合现实视频录制方法 |
US10319104B2 (en) | 2016-03-09 | 2019-06-11 | Boe Technology Group Co., Ltd. | Method and system for determining datum plane |
CN111698522A (zh) * | 2019-03-12 | 2020-09-22 | 北京竞技时代科技有限公司 | 一种基于混合现实的直播系统 |
CN112365516A (zh) * | 2020-11-11 | 2021-02-12 | 华中科技大学 | 一种增强现实中虚实遮挡处理方法 |
US11024092B2 (en) | 2017-02-01 | 2021-06-01 | Pcms Holdings, Inc. | System and method for augmented reality content delivery in pre-captured environments |
US11341681B2 (en) | 2018-02-28 | 2022-05-24 | Aptiv Technologies Limited | Method for calibrating the position and orientation of a camera relative to a calibration pattern |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629800A (zh) * | 2017-03-20 | 2018-10-09 | 北京三星通信技术研究有限公司 | 平面确定方法及增强现实显示信息的显示方法、相应装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103136793A (zh) * | 2011-12-02 | 2013-06-05 | 中国科学院沈阳自动化研究所 | 一种基于增强现实的实景融合方法及装置 |
CN103238338A (zh) * | 2010-12-03 | 2013-08-07 | 高通股份有限公司 | 3d人机接口的混合现实 |
US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
-
2014
- 2014-12-15 CN CN201410778799.7A patent/CN104539925B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103238338A (zh) * | 2010-12-03 | 2013-08-07 | 高通股份有限公司 | 3d人机接口的混合现实 |
CN103136793A (zh) * | 2011-12-02 | 2013-06-05 | 中国科学院沈阳自动化研究所 | 一种基于增强现实的实景融合方法及装置 |
US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107850782B (zh) * | 2015-05-13 | 2019-10-25 | 脸谱科技有限责任公司 | 用反射率图表示增强深度图表示 |
CN107850782A (zh) * | 2015-05-13 | 2018-03-27 | 脸谱公司 | 用反射率图表示增强深度图表示 |
CN106303289A (zh) * | 2015-06-05 | 2017-01-04 | 福建凯米网络科技有限公司 | 一种将真实对象与虚拟场景融合显示的方法、装置及系统 |
CN106303289B (zh) * | 2015-06-05 | 2020-09-04 | 福建凯米网络科技有限公司 | 一种将真实对象与虚拟场景融合显示的方法、装置及系统 |
WO2017016511A1 (zh) * | 2015-07-29 | 2017-02-02 | 努比亚技术有限公司 | 一种图像处理方法及装置、终端 |
CN108292439B (zh) * | 2015-11-30 | 2022-01-04 | 德尔福技术有限责任公司 | 校准安装至车辆的摄像机的取向的方法和存储介质 |
US11113843B2 (en) | 2015-11-30 | 2021-09-07 | Aptiv Technologies Limited | Method for calibrating the orientation of a camera mounted to a vehicle |
CN108292439A (zh) * | 2015-11-30 | 2018-07-17 | 德尔福技术有限责任公司 | 用于校准安装至车辆的摄像机的取向的方法 |
CN105763865A (zh) * | 2016-02-26 | 2016-07-13 | 北京邮电大学 | 一种基于透明液晶的裸眼3d增强现实的方法及装置 |
CN105763865B (zh) * | 2016-02-26 | 2017-10-27 | 北京邮电大学 | 一种基于透明液晶的裸眼3d增强现实的方法及装置 |
US10319104B2 (en) | 2016-03-09 | 2019-06-11 | Boe Technology Group Co., Ltd. | Method and system for determining datum plane |
CN107358609A (zh) * | 2016-04-29 | 2017-11-17 | 成都理想境界科技有限公司 | 一种用于增强现实的图像叠加方法及装置 |
CN107358609B (zh) * | 2016-04-29 | 2020-08-04 | 成都理想境界科技有限公司 | 一种用于增强现实的图像叠加方法及装置 |
CN106131536A (zh) * | 2016-08-15 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统及其展示方法 |
US11270419B2 (en) | 2016-10-26 | 2022-03-08 | Tencent Technology (Shenzhen) Company Limited | Augmented reality scenario generation method, apparatus, system, and device |
CN106383587A (zh) * | 2016-10-26 | 2017-02-08 | 腾讯科技(深圳)有限公司 | 一种增强现实场景生成方法、装置及设备 |
CN106383587B (zh) * | 2016-10-26 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 一种增强现实场景生成方法、装置及设备 |
US11024092B2 (en) | 2017-02-01 | 2021-06-01 | Pcms Holdings, Inc. | System and method for augmented reality content delivery in pre-captured environments |
CN107509043A (zh) * | 2017-09-11 | 2017-12-22 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN107707879A (zh) * | 2017-09-29 | 2018-02-16 | 广州云友网络科技有限公司 | 一种分布式场景目标识别的增强现实方法及系统 |
US11341681B2 (en) | 2018-02-28 | 2022-05-24 | Aptiv Technologies Limited | Method for calibrating the position and orientation of a camera relative to a calibration pattern |
US11663740B2 (en) | 2018-02-28 | 2023-05-30 | Aptiv Technologies Limited | Method for calibrating the position and orientation of a camera relative to a calibration pattern |
CN108537889A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 增强现实模型的调整方法、装置、存储介质和电子设备 |
CN109274886B (zh) * | 2018-09-18 | 2020-09-25 | 成都泰盟软件有限公司 | 一种基于OpenVR的混合现实视频录制方法 |
CN109274886A (zh) * | 2018-09-18 | 2019-01-25 | 成都泰盟软件有限公司 | 一种基于OpenVR的混合现实视频录制方法 |
CN111698522A (zh) * | 2019-03-12 | 2020-09-22 | 北京竞技时代科技有限公司 | 一种基于混合现实的直播系统 |
CN112365516A (zh) * | 2020-11-11 | 2021-02-12 | 华中科技大学 | 一种增强现实中虚实遮挡处理方法 |
CN112365516B (zh) * | 2020-11-11 | 2022-09-27 | 华中科技大学 | 一种增强现实中虚实遮挡处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104539925B (zh) | 2016-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104539925B (zh) | 基于深度信息的三维场景增强现实的方法及系统 | |
KR101818778B1 (ko) | 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법 | |
US10565722B1 (en) | Techniques for determining a three-dimensional representation of a surface of an object from a set of images | |
Bertel et al. | Megaparallax: Casual 360 panoramas with motion parallax | |
US20150235408A1 (en) | Parallax Depth Rendering | |
KR101188105B1 (ko) | 영상 정보를 이용한 증강 현실 제공 장치 및 방법 | |
US20140098100A1 (en) | Multiview synthesis and processing systems and methods | |
US9324184B2 (en) | Image three-dimensional (3D) modeling | |
KR20160140452A (ko) | 이미지 기반의 라이트 필드를 사용자의 디바이스 상에 표시하기 위한 방법 및 장치, 및 대응하는 컴퓨터 프로그램 제품 | |
CN101808251B (zh) | 立体图像对中遮挡信息的提取方法 | |
CN105530503A (zh) | 深度图建立方法与多镜头相机系统 | |
JP7184748B2 (ja) | 場面の積層深度データを生成するための方法 | |
CN101754042A (zh) | 图像重构方法和图像重构系统 | |
JP6128748B2 (ja) | 画像処理装置及び方法 | |
JP2004265396A (ja) | 映像生成システム及び映像生成方法 | |
Román et al. | Automatic Multiperspective Images. | |
Shimamura et al. | Construction of an immersive mixed environment using an omnidirectional stereo image sensor | |
Wang et al. | Disparity manipulation for stereo images and video | |
EP3639511B1 (en) | Method for displaying, on a 2d display device, a content derived from light field data | |
CN101686407A (zh) | 一种采样点信息的获取方法和装置 | |
CN104463958A (zh) | 基于视差图融合的三维超分辨率方法 | |
Louis et al. | Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping | |
KR101794709B1 (ko) | 임의 시점의 영상 생성 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
Rocha et al. | An overview of three-dimensional videos: 3D content creation, 3D representation and visualization | |
Diskin et al. | UAS exploitation by 3D reconstruction using monocular vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220126 Address after: 518129 2311, building 4, Tianan Yungu phase II, Bantian street, Longgang District, Shenzhen, Guangdong Patentee after: BANDU Technology (Shenzhen) Co.,Ltd. Address before: 100876 Beijing city Haidian District Xitucheng Road No. 10 Patentee before: Beijing University of Posts and Telecommunications |