CN103049929A - 基于联合优化的多摄像机动态场景3d重建方法 - Google Patents
基于联合优化的多摄像机动态场景3d重建方法 Download PDFInfo
- Publication number
- CN103049929A CN103049929A CN2012104752643A CN201210475264A CN103049929A CN 103049929 A CN103049929 A CN 103049929A CN 2012104752643 A CN2012104752643 A CN 2012104752643A CN 201210475264 A CN201210475264 A CN 201210475264A CN 103049929 A CN103049929 A CN 103049929A
- Authority
- CN
- China
- Prior art keywords
- prime
- depth
- pixel
- sigma
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
技术领域
本发明涉及的立体匹配和深度恢复方法,尤其涉及基于联合优化的多摄像机动态场景3D重建方法。
背景技术
视频的稠密深度恢复技术是计算机中层视觉领域的基础技术之一,其在3D建模、3D影像、增强现实和运动捕获等众多领域中有及其重要的应用。这些应用通常要求深度恢复结果具有很高精度和时空一致性。
视频的稠密深度恢复技术的难点在于:对于场景中的静态和动态物体,所恢复的深度值具有很高的精度和时空一致性。虽然目前对于静态场景的深度恢复技术已能够恢复具有较高精度的深度信息,但是自然界处处充满了运动的物体,对于视频场景中包含的动态物体来说,现有的深度恢复方法都很难达到较高的精度及时空域上的一致性。这些方法通常要求较多个固定放置的同步摄像机对场景进行捕获,在每个时刻对同步的多目视频帧利用多视图几何的方法进行立体匹配,从而恢复每个时刻的深度信息。而这种拍摄方法更多是被应用于实验室内动态场景的拍摄工作,实际拍摄过程中这种拍摄模式会有很多限制。另外现有的方法在时序上优化深度的过程中,通常利用光流寻找到不同时刻视频帧上对应像素点,然后将对应点的深度值或3D点位置进行线性或曲线拟合,从而估计出当前帧像素点的深度信息。这种时域上3D光顺化的方法只能使得时序上对应像素点的深度更为一致,并不能优化出真正准确的深度值;同时由于光流估计不鲁棒性的普遍存在,使得动态点的深度优化问题变得更为复杂难解。
现有的视频深度恢复方法主要分为两大类:
1.对于单目静态场景视频的时域一致性深度恢复
此类方法较为典型的是Zhang于09年提出的方法:G. Zhang, J. Jia, T.-T. Wong, and H. Bao. Consistent depth maps recovery from a video sequence. IEEE Transactions onPattern Analysis and Machine Intelligence, 31(6): 974–988, 2009.。此方法首先利用传统多视图几何的方法初始化每帧图像的深度,然后在时域上利用bundle optimization技术统计多个时刻的几何和颜色一致性来优化当前帧的深度。此方法对于静态场景能够恢复出高精度的深度图;对于包含动态物体的场景,此方法不能恢复动态物体的深度值。
2.对于多目动态场景视频的深度恢复
此类方法较为典型的是Zitnick的方法:C. L. Zitnick, S. B.Kang, M. Uyttendaele, S. Winder, and R. Szeliski. High-quality video view interpolation using a layered representation. ACM Transactions on Graphics, 23:600–608, August 2004.、Larsen的方法:E. S. Larsen, P. Mordohai, M. Pollefeys, and H. Fuchs. Temporally consistentreconstruction from multiple video streams using enhanced belief propagation. In ICCV, pages 1–8, 2007.以及Lei的方法:C. Lei, X. D. Chen, and Y. H. Yang. Anew multi-view spacetime-consistent depth recovery framework for free viewpoint video rendering. In ICCV, pages 1570–1577, 2009.。这些方法都利用同一时刻的多目同步视频帧恢复深度图,要求利用较多数目的固定放置的同步摄像机拍摄动态场景,不适合用于户外实际拍摄。Larsen和Lei的方法分别利用时空域上置信度传递(belief propagation)和时域3D光顺化的方法来优化深度值,使得这些方法不够鲁棒,不能处理光流估计产生严重错误的情况。
3.基于联合优化的多摄像机动态场景3D重建的方法的步骤1)使用了Tola提出的DAISY特征描述符:E. Tola, V. Lepetit, and P.Fua. Daisy: An efficient dense descriptor applied towide-baseline stereo. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(5):815–830, 2010.
发明内容
本发明的目的在于针对现有“动态场景深度恢复技术”的不足,提供一种基于联合优化的多摄像机动态场景3D重建方法。
基于联合优化的多摄像机动态场景3D重建的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图,并且对于遮挡区域出现的明显深度错误,利用同步帧之间的可见性图来加以处理以获得更为精确的初始深度;
2)利用步骤1)得到的初始化的深度图,每个像素点具有两套变量需要推断:一为像素点深度值,二为像素点静态/动态分类,对像素点给出不同数据项惩罚函数来统一地衡量,对于静态点,用Bundle Optimization算法其数据项惩罚值,对于动态点,引入时空一致性约束来计算其数据惩罚值,然后迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
其中表示在中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用将投影至上计算得到的;利用所得到的可视性图,对每个像素计算总体可视性,如果在t时刻所有其余视频帧中均不可见,则为0,否则为1;
累积最邻近的20帧序列在相邻时刻的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
其中N(t)表示t的相邻帧集合。
获得改进的深度图结果,利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c]的3D平面。分割区域内的深度利用以下方法重新计算:dx=ax+by+c。
所述的步骤2)为:
(2)如果某个像素点为静态,用集束优化算法来计算其对于候选深度di的数据项惩罚值,给定视频序列m′中的一个参考帧t′,依据深度di将像素点投影至,投影点记为,通过衡量和之间的颜色和几何一致性来计算的深度度量函数:
其中pc为颜色相似度,pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
其中pc为颜色相似度,pg为几何一致性,是通过计算对称投影误差得到的,其定义:
其中dg为对称投影误差。
(3)利用重新定义的数据惩罚项,迭代地优化方程从而在优化深度图的同时对像素点的静态/动态标记进行推断,每轮优化从第1帧开始,当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束;经迭代优化之后,所有静态和动态区域的深度图均有大幅度的改进。
本发明与现有技术相比具有有益效果
1)深度恢复和双层分割是紧密相结合的,因此我们的方法更为鲁棒并且不需要对于背景的先验知识。
2)双层分割的最终目的是为了更好地实现深度优化。某个像素点被分类为“静态”还是“动态”取决于哪种时空一致性约束能更好地模拟其运动。因此,我们的方法不需要精确的静态/动态分割,并且对于复杂场景所产生的错误分割信息会更具有鲁棒性,因而在3D立体影像、3D动画、增强现实和运动捕获等领域将会有很高的应用价值。
附图说明
图1是基于联合优化的多摄像机动态场景3D重建的方法流程图;
图2(a)是视频序列的一帧图像;
图2(b)是与图2(a)同步的一帧图像;
图2(c)是图2(a) 的初始化深度图;
图2(d)是利用图2(a)和图2(b)估计出的可视性图;
图2(e)是利用图2(d)进行遮挡区域深度处理的初始化深度图;
图2(f)是利用图2(e)进行平面拟合纠正的初始化深度图;
图3(a)是视频序列的一帧图像;
图3(b)是图3(a) 的初始化深度图;
图3(c)是图3(a) 的第一轮迭代优化后的深度和分割结果;
图3(d)是图3(a) 的第二轮迭代优化后的深度和分割结果;
图3(e)是图3(a)-(d)中方框区域的局部放大图;图3(f)是视频序列的一帧源图像;图3(g)是图3(f)的时空一致性深度优化结果;图3(h)利用(g)中的深度重建的三维表面模型,以及纹理映射的结果。
具体实施方式
基于联合优化的多摄像机动态场景3D重建的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图,并且对于遮挡区域出现的明显深度错误,利用同步帧之间的可见性图来加以处理以获得更为精确的初始深度;
2)利用步骤1)得到的初始化的深度图,每个像素点具有两套变量需要推断:一为像素点深度值,二为像素点静态/动态分类,对像素点给出不同数据项惩罚函数来统一地衡量,对于静态点,用Bundle Optimization算法其数据项惩罚值,对于动态点,引入时空一致性约束来计算其数据惩罚值,然后迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
其中表示在中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用将投影至上计算得到的;利用所得到的可视性图,对每个像素计算总体可视性,如果在t时刻所有其余视频帧中均不可见,则为0,否则为1;
累积最邻近的20帧序列在相邻时刻的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
其中N(t)表示t的相邻帧集合。
获得改进的深度图结果,利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c][a,b,c]的3D平面。分割区域内的深度利用以下方法重新计算:dx=ax+by+c。
所述的步骤2)为:
(2)如果某个像素点为静态,用集束优化算法来计算其对于候选深度di的数据项惩罚值,给定视频序列m′中的一个参考帧t′,依据深度di将像素点投影至,投影点记为,通过衡量和之间的颜色和几何一致性来计算的深度度量函数:
其中pc为颜色相似度,pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
如果像素点为动态,采用时空一致性约束来计算动态像素点的数据惩罚值,这个数据惩罚函数结合了所有序列最邻近的10个时刻的一致性约束,其定义如下:
其中pc为颜色相似度,pg为几何一致性,是通过计算对称投影误差得到的,其定义:
其中dg为对称投影误差。
(3)利用重新定义的数据惩罚项,迭代地优化方程从而在优化深度图的同时对像素点的静态/动态标记进行推断,每轮优化从第1帧开始,当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束;经迭代优化之后,所有静态和动态区域的深度图均有大幅度的改进。
实施例
本发明公开了一种基于联合优化的多摄像机动态场景3D重建的方法,能够对时空一致性深度恢复和静态/动态双层分割同时进行求解,亦不需要精确的静态/动态分割,方法鲁棒而且不需要对于背景的先验知识。此方法允许参与拍摄的多目摄像机自由独立地移动,并能够处理仅2~3个的摄像机拍摄的动态场景。如图1所示,此方法主要包括三个步骤:一、我们利用每个时刻t的跨越M个摄像机的同步视频帧来初始化t时刻的深度图;二、同时展开时空一致性深度优化以及静态/动态双层分割,我们迭代地执行2~3轮的时空一致性优化,从而最终实现高质量的动态3D重建。以下介绍每一步骤的实施细节。
对于多目视频,每个视频包含n帧图像:。表示第m个视频的t时刻的图像帧。表示第m个视频的t时刻的深度图。首先利用运动推断结构(structure from motion,简称SfM)的方法恢复每个视频m的每帧图像t的摄相机参数,其中K为摄像机内部参数,包括焦距、光心及镜像畸变等参数信息;R是摄像机的旋转参数;T是摄像机平移参数。
1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
其中平滑权重λ为0.008,深度差的截断值η为3;图2(c)展示了图2(a)的初始化深度图;
2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
其中表示在中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用将投影至上计算得到的;利用所得到的可视性图,对每个像素计算总体可视性,如果在t时刻所有其余视频帧中均不可见,则为0,否则为1;图2(d)展示了图2(a)的可视性图;
我们累积所有序列在相邻时刻(我们实验中取最邻近的20帧)的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
其中N(t)表示t的相邻帧集合。
这样我们就可以获得改进的深度图结果,如图2(e)所示;此外,为了更好处理无纹理特征的区域以及深度噪声,我们利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c][a,b,c]的3D平面。分割区域内的深度可以利用以下方法重新计算:dx=ax+by+c。经过平面拟合改进后得到的深度图如图2(f)所示;
2、同时展开时空一致性深度优化以及静态/动态双层分割,我们迭代地执行2~3轮的时空一致性优化,从而最终实现高质量的动态3D重建。
1)如图3(c)(d)和(g)所示,对于每个像素点,我们不仅估计其深度,而且还同时推断其为静态还是动态。因此,每个像素点具有两套变量需要推断:一为其深度值,二为其静态/动态分类(标记)(0为静态且1表示动态)。交替迭代地优化这两套变量值可能很容易陷入局部最小化。相反,我们将这两套变量结合为一个扩展标记表达形式,其定义如下:
每种标记清楚地代表着一个静态/动态标记s∈{0,1}以及一个候选深度值di的组合,其中i=1,2,…,k。根据这种组合表达形式,我们现在可以通过优化一个新的能量方程来为每帧图像估计一套联合标记图()。新的能量方程定义如下:
2)我们结合了两种不同的数据项惩罚函数来统一地衡量在静态/动态两种假设条件下的时域一致性。两种函数均用来衡量在多个摄像机及多个时域帧上的颜色和几何一致性。
如果某个像素点为静态,我们可以沿用Bundle Optimization(集束优化)算法来计算其对于候选深度di的数据项惩罚值。给定视频序列m′中的一个参考帧t′,我们可以依据深度di将像素点投影至。投影点记为。我们可以通过衡量和之间的颜色和几何一致性来计算的深度度量函数:
其中pc为颜色相似度。pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
然而,我们大部分实验数据仅包含2~3个摄像机。较少数目的同步帧会严重地降低Bundle Optimization的有效性。为解决此问题,我们引入时空一致性约束来计算动态像素点的数据惩罚值,我们的数据惩罚函数结合了所有序列多个相邻时刻(在我们实验中取最邻近的10个时刻)的一致性约束Lg,因此对于动态点的深度优化会更为鲁棒。
3)利用重新定义的数据惩罚项,我们迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。这里的平滑项在待优化的变量为新定义的扩展标记而不是深度值。由于新的候选标记数目较之前翻倍,我们通常在实验中仅使用70个深度层以适应BP算法的内存限制。深度层的扩展问题可以利用层次BP优化技术加以解决。在优化之时,我们保持其余帧的深度和分割信息不变。每轮优化从第1帧开始。当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束,迭代结果如图3(d)和(g)。迭代优化之后,所有静态和动态区域的深度图均有大幅度的改进。
Claims (3)
1.一种基于联合优化的多摄像机动态场景3D重建的方法,其特征在于它的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图,并且对于遮挡区域出现的明显深度错误,利用同步帧之间的可见性图来加以处理以获得更为精确的初始深度;
2)利用步骤1)得到的初始化的深度图,每个像素点具有两套变量需要推断:一为像素点深度值,二为像素点静态/动态分类,对像素点给出不同数据项惩罚函数来统一地衡量,对于静态点,用Bundle Optimization算法其数据项惩罚值,对于动态点,引入时空一致性约束来计算其数据惩罚值,然后迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。
2.根据权利要求1所述的基于联合优化的多摄像机动态场景3D重建方法,其特征在于所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
其中表示在中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用将投影至上计算得到的;利用所得到的可视性图,对每个像素计算总体可视性,如果在t时刻所有其余视频帧中均不可见,则为0,否则为1;
累积最邻近的20帧序列在相邻时刻的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
其中N(t)表示t的相邻帧集合。
获得改进的深度图结果,利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c][a,b,c]的3D平面。分割区域内的深度利用以下方法重新计算:dx=ax+by+c。
3.根据权利要求1所述的基于联合优化的多摄像机动态场景3D重建方法,其特征在于所述的步骤2)为:
(2)如果某个像素点为静态,用集束优化算法来计算其对于候选深度di的数据项惩罚值,给定视频序列m′中的一个参考帧t′,依据深度di将像素点投影至,投影点记为,通过衡量和之间的颜色和几何一致性来计算的深度度量函数:
其中pc为颜色相似度,pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
(3)利用重新定义的数据惩罚项,迭代地优化方程从而在优化深度图的同时对像素点的静态/动态标记进行推断,每轮优化从第1帧开始,当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束,一轮优化之后,所有静态和动态区域的深度图均有大幅度的改进。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012104752643A CN103049929A (zh) | 2012-11-20 | 2012-11-20 | 基于联合优化的多摄像机动态场景3d重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012104752643A CN103049929A (zh) | 2012-11-20 | 2012-11-20 | 基于联合优化的多摄像机动态场景3d重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103049929A true CN103049929A (zh) | 2013-04-17 |
Family
ID=48062557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012104752643A Pending CN103049929A (zh) | 2012-11-20 | 2012-11-20 | 基于联合优化的多摄像机动态场景3d重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103049929A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103528571A (zh) * | 2013-10-12 | 2014-01-22 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN104159099A (zh) * | 2014-08-29 | 2014-11-19 | 杭州道玄影视科技有限公司 | 一种3d立体影视制作中双目立体摄像机的设置方法 |
CN104616286A (zh) * | 2014-12-17 | 2015-05-13 | 浙江大学 | 快速的半自动多视图深度修复方法 |
CN108288277A (zh) * | 2018-01-17 | 2018-07-17 | 视缘(上海)智能科技有限公司 | 一种基于rap的三维场景重建方法 |
CN108604381A (zh) * | 2016-02-03 | 2018-09-28 | 三菱电机株式会社 | 用于将场景重建为三维(3d)模型的方法和系统 |
WO2019101061A1 (en) * | 2017-11-22 | 2019-05-31 | Huawei Technologies Co., Ltd. | Three-dimensional (3d) reconstructions of dynamic scenes using reconfigurable hybrid imaging system |
CN110349250A (zh) * | 2019-06-28 | 2019-10-18 | 浙江大学 | 一种基于rgbd相机的室内动态场景的三维重建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1946195A (zh) * | 2006-10-26 | 2007-04-11 | 上海交通大学 | 立体视觉系统的场景深度恢复和三维重建方法 |
US20090154794A1 (en) * | 2007-12-15 | 2009-06-18 | Electronics And Telecommunications Research Institute | Method and apparatus for reconstructing 3D shape model of object by using multi-view image information |
CN102609977A (zh) * | 2012-01-12 | 2012-07-25 | 浙江大学 | 基于深度融合和曲面演变的多视点三维重建方法 |
-
2012
- 2012-11-20 CN CN2012104752643A patent/CN103049929A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1946195A (zh) * | 2006-10-26 | 2007-04-11 | 上海交通大学 | 立体视觉系统的场景深度恢复和三维重建方法 |
US20090154794A1 (en) * | 2007-12-15 | 2009-06-18 | Electronics And Telecommunications Research Institute | Method and apparatus for reconstructing 3D shape model of object by using multi-view image information |
CN102609977A (zh) * | 2012-01-12 | 2012-07-25 | 浙江大学 | 基于深度融合和曲面演变的多视点三维重建方法 |
Non-Patent Citations (3)
Title |
---|
ENGIN TOLA ET AL.: "DAISY: An Efficient Dense Descriptor Applied to Wide-Baseline Stereo", 《PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 32, no. 5, 17 April 2010 (2010-04-17) * |
HANQING JIANG ET AL.: "3D Reconstruction of Dynamic Scenes with Multiple Handheld Cameras", 《12TH EUROPEAN CONFERENCE ON COMPUTER VISION》, 13 October 2012 (2012-10-13), pages 601 - 614 * |
PEDRO F. FELZENSZWALB ET AL.: "Efficient Belief Propagation for Early Vision", 《COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 2 July 2004 (2004-07-02) * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103528571A (zh) * | 2013-10-12 | 2014-01-22 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN103528571B (zh) * | 2013-10-12 | 2016-04-06 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN104159099A (zh) * | 2014-08-29 | 2014-11-19 | 杭州道玄影视科技有限公司 | 一种3d立体影视制作中双目立体摄像机的设置方法 |
CN104159099B (zh) * | 2014-08-29 | 2016-02-03 | 杭州道玄影视科技有限公司 | 一种3d立体影视制作中双目立体摄像机的设置方法 |
CN104616286A (zh) * | 2014-12-17 | 2015-05-13 | 浙江大学 | 快速的半自动多视图深度修复方法 |
CN104616286B (zh) * | 2014-12-17 | 2017-10-31 | 浙江大学 | 快速的半自动多视图深度修复方法 |
CN108604381A (zh) * | 2016-02-03 | 2018-09-28 | 三菱电机株式会社 | 用于将场景重建为三维(3d)模型的方法和系统 |
WO2019101061A1 (en) * | 2017-11-22 | 2019-05-31 | Huawei Technologies Co., Ltd. | Three-dimensional (3d) reconstructions of dynamic scenes using reconfigurable hybrid imaging system |
US10529086B2 (en) | 2017-11-22 | 2020-01-07 | Futurewei Technologies, Inc. | Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system |
CN108288277A (zh) * | 2018-01-17 | 2018-07-17 | 视缘(上海)智能科技有限公司 | 一种基于rap的三维场景重建方法 |
CN110349250A (zh) * | 2019-06-28 | 2019-10-18 | 浙江大学 | 一种基于rgbd相机的室内动态场景的三维重建方法 |
CN110349250B (zh) * | 2019-06-28 | 2020-12-22 | 浙江大学 | 一种基于rgbd相机的室内动态场景的三维重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111968129B (zh) | 具有语义感知的即时定位与地图构建系统及方法 | |
Zou et al. | Df-net: Unsupervised joint learning of depth and flow using cross-task consistency | |
CN103002309B (zh) | 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法 | |
De Aguiar et al. | Marker-less deformable mesh tracking for human shape and motion capture | |
Kolev et al. | Turning mobile phones into 3D scanners | |
CN103049929A (zh) | 基于联合优化的多摄像机动态场景3d重建方法 | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
Bhat et al. | Using photographs to enhance videos of a static scene | |
Wu et al. | Repetition-based dense single-view reconstruction | |
Zhang et al. | On 3D scene flow and structure estimation | |
Li et al. | Markerless shape and motion capture from multiview video sequences | |
EP2595116A1 (en) | Method for generating depth maps for converting moving 2d images to 3d | |
Tung et al. | Dynamic surface matching by geodesic mapping for 3d animation transfer | |
CN108876814B (zh) | 一种生成姿态流图像的方法 | |
Zhi et al. | Toward dynamic image mosaic generation with robustness to parallax | |
CN103400409A (zh) | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 | |
Tung et al. | Complete multi-view reconstruction of dynamic scenes from probabilistic fusion of narrow and wide baseline stereo | |
Tung et al. | Simultaneous super-resolution and 3D video using graph-cuts | |
CN104616286A (zh) | 快速的半自动多视图深度修复方法 | |
US11928778B2 (en) | Method for human body model reconstruction and reconstruction system | |
Zhang et al. | Simultaneous multi-body stereo and segmentation | |
Oswald et al. | A convex relaxation approach to space time multi-view 3d reconstruction | |
CN111105451B (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 | |
CN116468769A (zh) | 一种基于图像的深度信息估计方法 | |
Liu et al. | Disparity Estimation in Stereo Sequences using Scene Flow. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130417 |