CN103049929A - 基于联合优化的多摄像机动态场景3d重建方法 - Google Patents

基于联合优化的多摄像机动态场景3d重建方法 Download PDF

Info

Publication number
CN103049929A
CN103049929A CN2012104752643A CN201210475264A CN103049929A CN 103049929 A CN103049929 A CN 103049929A CN 2012104752643 A CN2012104752643 A CN 2012104752643A CN 201210475264 A CN201210475264 A CN 201210475264A CN 103049929 A CN103049929 A CN 103049929A
Authority
CN
China
Prior art keywords
prime
depth
pixel
sigma
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012104752643A
Other languages
English (en)
Inventor
章国锋
鲍虎军
姜翰青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2012104752643A priority Critical patent/CN103049929A/zh
Publication of CN103049929A publication Critical patent/CN103049929A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明公开了一种基于联合优化的多摄像机动态场景3D重建的方法。能够对时空一致态分割,方法鲁棒而且不需要对于背景的先验知识。此方法允许参与拍摄的多目摄性深度恢复和静态/动态双层分割同时进行求解,亦不需要精确的静态/动像机自由独立地移动,能处理仅个的摄像机拍摄的动态场景。步骤如下:利用每个时刻
Figure DEST_PATH_IMAGE003
的跨越个摄像机的同步视频帧
Figure DEST_PATH_IMAGE005
来初始化
Figure 682812DEST_PATH_IMAGE003
时刻的深度图
Figure 434867DEST_PATH_IMAGE006
;二、展开时空一致性深度优化及静态/动态双层分割,迭代地执行

Description

基于联合优化的多摄像机动态场景3D重建方法
技术领域
本发明涉及的立体匹配和深度恢复方法,尤其涉及基于联合优化的多摄像机动态场景3D重建方法。
背景技术
视频的稠密深度恢复技术是计算机中层视觉领域的基础技术之一,其在3D建模、3D影像、增强现实和运动捕获等众多领域中有及其重要的应用。这些应用通常要求深度恢复结果具有很高精度和时空一致性。
视频的稠密深度恢复技术的难点在于:对于场景中的静态和动态物体,所恢复的深度值具有很高的精度和时空一致性。虽然目前对于静态场景的深度恢复技术已能够恢复具有较高精度的深度信息,但是自然界处处充满了运动的物体,对于视频场景中包含的动态物体来说,现有的深度恢复方法都很难达到较高的精度及时空域上的一致性。这些方法通常要求较多个固定放置的同步摄像机对场景进行捕获,在每个时刻对同步的多目视频帧利用多视图几何的方法进行立体匹配,从而恢复每个时刻的深度信息。而这种拍摄方法更多是被应用于实验室内动态场景的拍摄工作,实际拍摄过程中这种拍摄模式会有很多限制。另外现有的方法在时序上优化深度的过程中,通常利用光流寻找到不同时刻视频帧上对应像素点,然后将对应点的深度值或3D点位置进行线性或曲线拟合,从而估计出当前帧像素点的深度信息。这种时域上3D光顺化的方法只能使得时序上对应像素点的深度更为一致,并不能优化出真正准确的深度值;同时由于光流估计不鲁棒性的普遍存在,使得动态点的深度优化问题变得更为复杂难解。
现有的视频深度恢复方法主要分为两大类:
1.对于单目静态场景视频的时域一致性深度恢复
此类方法较为典型的是Zhang于09年提出的方法:G. Zhang, J. Jia, T.-T. Wong, and H. Bao. Consistent depth maps recovery from a video sequence. IEEE Transactions onPattern Analysis and Machine Intelligence, 31(6): 974–988, 2009.。此方法首先利用传统多视图几何的方法初始化每帧图像的深度,然后在时域上利用bundle optimization技术统计多个时刻的几何和颜色一致性来优化当前帧的深度。此方法对于静态场景能够恢复出高精度的深度图;对于包含动态物体的场景,此方法不能恢复动态物体的深度值。
2.对于多目动态场景视频的深度恢复
此类方法较为典型的是Zitnick的方法:C. L. Zitnick, S. B.Kang, M. Uyttendaele, S. Winder, and R. Szeliski. High-quality video view interpolation using a layered representation. ACM Transactions on Graphics, 23:600–608, August 2004.、Larsen的方法:E. S. Larsen, P. Mordohai, M. Pollefeys, and H. Fuchs. Temporally consistentreconstruction from multiple video streams using enhanced belief propagation. In ICCV, pages 1–8, 2007.以及Lei的方法:C. Lei, X. D. Chen, and Y. H. Yang. Anew multi-view spacetime-consistent depth recovery framework for free viewpoint video rendering. In ICCV, pages 1570–1577, 2009.。这些方法都利用同一时刻的多目同步视频帧恢复深度图,要求利用较多数目的固定放置的同步摄像机拍摄动态场景,不适合用于户外实际拍摄。Larsen和Lei的方法分别利用时空域上置信度传递(belief propagation)和时域3D光顺化的方法来优化深度值,使得这些方法不够鲁棒,不能处理光流估计产生严重错误的情况。
3.基于联合优化的多摄像机动态场景3D重建的方法的步骤1)使用了Tola提出的DAISY特征描述符:E. Tola, V. Lepetit, and P.Fua. Daisy: An efficient dense descriptor applied towide-baseline stereo. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(5):815–830, 2010.
发明内容
本发明的目的在于针对现有“动态场景深度恢复技术”的不足,提供一种基于联合优化的多摄像机动态场景3D重建方法。
基于联合优化的多摄像机动态场景3D重建的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图,并且对于遮挡区域出现的明显深度错误,利用同步帧之间的可见性图来加以处理以获得更为精确的初始深度;
2)利用步骤1)得到的初始化的深度图,每个像素点具有两套变量需要推断:一为像素点深度值,二为像素点静态/动态分类,对像素点给出不同数据项惩罚函数来统一地衡量,对于静态点,用Bundle Optimization算法其数据项惩罚值,对于动态点,引入时空一致性约束来计算其数据惩罚值,然后迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
E D ( D m t ; I ^ ( t ) ) = E d ( D m t ; I ^ ( t ) ) + E s ( D m t )
其中
Figure GDA0000243155912
表示在t时刻的M个多目同步视频帧,
Figure GDA0000243155913
表示第m个视频的t时刻的图像帧,
Figure GDA0000243155914
表示第m个视频的t时刻的深度图;是数据项,表示
Figure GDA0000243155916
中像素点与根据
Figure GDA0000243155917
计算的
Figure GDA0000243155918
中其余图像帧投影点之间的DAISY特征相似度,其定义如下:
E d ( D m t ; I ^ ( t ) ) Σ x m t Σ m ′ ≠ m I d ( x m t , D m t ( x m t ) ; I m t , I m ′ t ) M - 1
其中
Figure GDA00002431559110
是用来估计对应像素的DAISY特征相似度的惩罚函数,
Figure GDA00002431559111
表示像素点的DAISY特征描述符,
Figure GDA00002431559114
利用
Figure GDA00002431559115
投影至
Figure GDA00002431559116
中的投影位置;是平滑项,表示相邻像素x、y之间的深度平滑程度,其定义如下:
E s ( D m t ) = λ Σ x Σ y ∈ N ( x ) min { | D m t ( x ) - D m t ( y ) | , η }
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
V m → m ′ t ( x m t ) = 1 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | ≤ δ d 0 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | > δ d
其中
Figure GDA00002431559120
表示
Figure GDA00002431559121
Figure GDA00002431559122
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,
Figure GDA00002431559123
是通过利用
Figure GDA00002431559124
Figure GDA00002431559125
投影至
Figure GDA00002431559126
上计算得到的;利用所得到的可视性图,对每个像素
Figure GDA00002431559127
计算总体可视性
Figure GDA00002431559128
,如果
Figure GDA00002431559129
在t时刻所有其余视频帧中均不可见,则为0,否则
Figure GDA00002431559131
为1;
(3)对于总体可见性为
Figure GDA00002431559132
的点,利用传统的对于时域相邻帧的颜色一致性约束来估计不可见像素点的深度值;
给定一个候选深度值di以及序列m′中的参考帧t′,基于
Figure GDA00002431559134
之间的颜色相似度定义以下深度一致性函数:
L c ( x m t , d i ; I m t , I m ′ t ) = p c ( x m t , x m ′ t ′ )
其中pc衡量对应像素点
Figure GDA00002431559137
的颜色相似度,定义如下:
p c ( x m t , x n ′ t ′ ) = σ σ c + | | I m t ( x m t ) - I m ′ t ′ ( x m ′ t ′ ) | | l
其中σc控制颜色差异的敏感度,像素点
Figure GDA00002431559139
Figure GDA00002431559140
根据候选深度di和摄相机参数投影至帧得到的对应点;
累积最邻近的20帧序列在相邻时刻的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
E d ( D m t ; I ^ ) = Σ x m t 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L c ( x m t , D m t ( x m t ) ; I m t , I m ′ t ′ ) M | N ( t ) | ,
其中N(t)表示t的相邻帧集合。
获得改进的深度图结果,利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c]的3D平面。分割区域内的深度利用以下方法重新计算:dx=ax+by+c。
所述的步骤2)为:
(1)每个像素点
Figure GDA00002431559143
具有两套变量需要推断:一为像素点深度值
Figure GDA00002431559145
,二为像素点
Figure GDA00002431559146
静态/动态分类
Figure GDA00002431559147
,0为静态且1表示动态,通过优化一个新的能量方程来为每帧图像
Figure GDA00002431559148
估计一套联合标记图。新的能量方程定义如下:
E L ( L m t ; I ^ , D ^ ) = E d ( L m t ; I ^ , D ^ ) + E s ( L m t ) .
对于
Figure GDA00002431559151
Figure GDA00002431559152
利用不同的数据项惩罚函数,分别记为
Figure GDA00002431559153
(2)如果某个像素点为静态,用集束优化算法来计算其对于候选深度di的数据项惩罚值,给定视频序列m′中的一个参考帧t′,依据深度di将像素点投影至
Figure GDA00002431559157
,投影点记为
Figure GDA00002431559158
,通过衡量
Figure GDA00002431559160
之间的颜色和几何一致性来计算
Figure GDA00002431559161
的深度度量函数:
L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) = p c ( x m t , x m ′ t ′ ) p v ( x m t , x m ′ t ′ ) ,
其中pc为颜色相似度,pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
p v ( x m t , x m ′ t ′ ) = σ w σ w + | | x m t - l m ′ → m t ′ → t ( x m ′ t ′ , D m ′ t ′ ( x m ′ t ′ ) ) | | l
Figure GDA00002431559164
为将
Figure GDA00002431559165
投影至所得到的投影点;
累积对于最邻近的20帧序列相邻时刻的深度度量值Ld,并利用以下公式计算静态像素点前提条件下的像素点
Figure GDA00002431559167
的数据惩罚值:
e d 0 ( x m t , d i ; I ^ , D ^ ) = 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) M | N ( t ) | .
如果像素点
Figure GDA00002431559169
为动态,采用时空一致性约束来计算动态像素点的数据惩罚值,这个数据惩罚函数结合了所有序列最邻近的10个时刻的一致性约束,其定义如下:
e d 1 ( x m t , d i , I ^ , D ^ ) = 1 - Σ t ′ ∈ N ( t ) Σ m ′ ≠ m L g ( x ^ m t ′ , x ^ m t ′ ; I m t ′ , I m ′ t ′ , D m t ′ , D m ′ t ′ ) ( M - 1 ) | N ( t ) | ,
其中
Figure GDA00002431559172
依据光流跟踪至t′时刻的对应点。Lg为动态点
Figure GDA00002431559173
的深度度量函数,是通过衡量
Figure GDA00002431559174
Figure GDA00002431559175
之间的颜色和几何一致性来计算的,其定义如下:
L g ( x ^ m t ′ , x ^ m t ′ ; I m t ′ , I m ′ t ′ , D m t ′ , D m ′ t ′ ) = p c ( x ^ m t ′ , x ^ m ′ t ′ ) p g ( x ^ m t ′ , x ^ m ′ t ′ ) ,
其中pc为颜色相似度,pg为几何一致性,是通过计算对称投影误差得到的,其定义:
p g ( x ^ m t ′ , x ^ m ′ t ′ ) = σ w σ w + d g ( x ^ m t ′ , x ^ m ′ t ′ ; D m t ′ , D m ′ t ′ ) ,
其中dg为对称投影误差。
利用
Figure GDA00002431559178
Figure GDA00002431559179
重新定义公式:
E d ( L m t , I ^ , D ^ ) = Σ x m t e d ( x m d , L m t , ( x m t ) ; I ^ , D ^ ) ,
Figure GDA00002431559181
Ld和Lg均为相同形式的颜色和几何一致性的乘积,
Figure GDA00002431559182
Figure GDA00002431559183
可以公平地竞争以推断出每个像素点的真实深度值;
(3)利用重新定义的数据惩罚项,迭代地优化方程从而在优化深度图的同时对像素点的静态/动态标记进行推断,每轮优化从第1帧开始,当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束;经迭代优化之后,所有静态和动态区域的深度图均有大幅度的改进。
本发明与现有技术相比具有有益效果
1)深度恢复和双层分割是紧密相结合的,因此我们的方法更为鲁棒并且不需要对于背景的先验知识。
2)双层分割的最终目的是为了更好地实现深度优化。某个像素点被分类为“静态”还是“动态”取决于哪种时空一致性约束能更好地模拟其运动。因此,我们的方法不需要精确的静态/动态分割,并且对于复杂场景所产生的错误分割信息会更具有鲁棒性,因而在3D立体影像、3D动画、增强现实和运动捕获等领域将会有很高的应用价值。
附图说明
图1是基于联合优化的多摄像机动态场景3D重建的方法流程图;
图2(a)是视频序列的一帧图像;
图2(b)是与图2(a)同步的一帧图像;
图2(c)是图2(a) 的初始化深度图;
图2(d)是利用图2(a)和图2(b)估计出的可视性图;
图2(e)是利用图2(d)进行遮挡区域深度处理的初始化深度图;
图2(f)是利用图2(e)进行平面拟合纠正的初始化深度图;
图3(a)是视频序列的一帧图像;
图3(b)是图3(a) 的初始化深度图;
图3(c)是图3(a) 的第一轮迭代优化后的深度和分割结果;
图3(d)是图3(a) 的第二轮迭代优化后的深度和分割结果;
图3(e)是图3(a)-(d)中方框区域的局部放大图;图3(f)是视频序列的一帧源图像;图3(g)是图3(f)的时空一致性深度优化结果;图3(h)利用(g)中的深度重建的三维表面模型,以及纹理映射的结果。
具体实施方式
基于联合优化的多摄像机动态场景3D重建的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图,并且对于遮挡区域出现的明显深度错误,利用同步帧之间的可见性图来加以处理以获得更为精确的初始深度;
2)利用步骤1)得到的初始化的深度图,每个像素点具有两套变量需要推断:一为像素点深度值,二为像素点静态/动态分类,对像素点给出不同数据项惩罚函数来统一地衡量,对于静态点,用Bundle Optimization算法其数据项惩罚值,对于动态点,引入时空一致性约束来计算其数据惩罚值,然后迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
E D ( D m t ; I ^ ( t ) ) = E d ( D m t ; I ^ ( t ) ) + E s ( D m t )
其中表示在t时刻的M个多目同步视频帧,
Figure GDA00002431559186
表示第m个视频的t时刻的图像帧,
Figure GDA00002431559187
表示第m个视频的t时刻的深度图;
Figure GDA00002431559188
是数据项,表示中像素点与根据
Figure GDA00002431559190
计算的中其余图像帧投影点之间的DAISY特征相似度,其定义如下:
E d ( D m t ; I ^ ( t ) ) Σ x m t Σ m ′ ≠ m I d ( x m t , D m t ( x m t ) ; I m t , I m ′ t ) M - 1
其中
Figure GDA00002431559193
是用来估计对应像素的DAISY特征相似度的惩罚函数,
Figure GDA00002431559194
表示像素点
Figure GDA00002431559195
的DAISY特征描述符,
Figure GDA00002431559196
Figure GDA00002431559197
利用
Figure GDA00002431559198
投影至
Figure GDA00002431559199
中的投影位置;
Figure GDA000024315591100
是平滑项,表示相邻像素x、y之间的深度平滑程度,其定义如下:
E s ( D m t ) = λ Σ x Σ y ∈ N ( x ) min { | D m t ( x ) - D m t ( y ) | , η }
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
V m → m ′ t ( x m t ) = 1 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | ≤ δ d 0 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | > δ d
其中
Figure GDA000024315591103
表示
Figure GDA000024315591104
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用
Figure GDA000024315591107
Figure GDA000024315591108
投影至
Figure GDA000024315591109
上计算得到的;利用所得到的可视性图,对每个像素
Figure GDA000024315591110
计算总体可视性
Figure GDA000024315591111
,如果
Figure GDA000024315591112
在t时刻所有其余视频帧中均不可见,则
Figure GDA000024315591113
为0,否则
Figure GDA000024315591114
为1;
(3)对于总体可见性为
Figure GDA000024315591115
的点,利用传统的对于时域相邻帧的颜色一致性约束来估计不可见像素点的深度值;
给定一个候选深度值di以及序列m′中的参考帧t′,基于
Figure GDA000024315591116
Figure GDA000024315591117
之间的颜色相似度定义以下深度一致性函数:
L c ( x m t , d i ; I m t , I m ′ t ) = p c ( x m t , x m ′ t ′ )
其中pc衡量对应像素点
Figure GDA000024315591119
Figure GDA000024315591120
的颜色相似度,定义如下:
p c ( x m t , x n ′ t ′ ) = σ σ c + | | I m t ( x m t ) - I m ′ t ′ ( x m ′ t ′ ) | | l
其中σc控制颜色差异的敏感度,像素点
Figure GDA000024315591122
Figure GDA000024315591123
根据候选深度di和摄相机参数投影至帧
Figure GDA000024315591124
得到的对应点;
累积最邻近的20帧序列在相邻时刻的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
E d ( D m t ; I ^ ) = Σ x m t 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L c ( x m t , D m t ( x m t ) ; I m t , I m ′ t ′ ) M | N ( t ) | ,
其中N(t)表示t的相邻帧集合。
获得改进的深度图结果,利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c][a,b,c]的3D平面。分割区域内的深度利用以下方法重新计算:dx=ax+by+c。
所述的步骤2)为:
(1)每个像素点
Figure GDA000024315591126
具有两套变量需要推断:一为像素点
Figure GDA000024315591127
深度值,二为像素点
Figure GDA000024315591129
静态/动态分类
Figure GDA000024315591130
,0为静态且1表示动态,通过优化一个新的能量方程来为每帧图像
Figure GDA000024315591131
估计一套联合标记图
Figure GDA000024315591132
。新的能量方程定义如下:
E L ( L m t ; I ^ , D ^ ) = E d ( L m t ; I ^ , D ^ ) + E s ( L m t ) .
对于
Figure GDA000024315591134
利用不同的数据项惩罚函数,分别记为
Figure GDA000024315591136
Figure GDA000024315591137
(2)如果某个像素点
Figure GDA000024315591138
为静态,用集束优化算法来计算其对于候选深度di的数据项惩罚值,给定视频序列m′中的一个参考帧t′,依据深度di将像素点投影至
Figure GDA000024315591140
,投影点记为
Figure GDA000024315591141
,通过衡量
Figure GDA000024315591142
Figure GDA000024315591143
之间的颜色和几何一致性来计算
Figure GDA000024315591144
的深度度量函数:
L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) = p c ( x m t , x m ′ t ′ ) p v ( x m t , x m ′ t ′ ) ,
其中pc为颜色相似度,pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
p v ( x m t , x m ′ t ′ ) = σ w σ w + | | x m t - l m ′ → m t ′ → t ( x m ′ t ′ , D m ′ t ′ ( x m ′ t ′ ) ) | | l
Figure GDA000024315591147
为将
Figure GDA000024315591148
投影至
Figure GDA000024315591149
所得到的投影点;
累积对于最邻近的20帧序列相邻时刻的深度度量值Ld,并利用以下公式计算静态像素点前提条件下的像素点
Figure GDA000024315591150
的数据惩罚值:
e d 0 ( x m t , d i ; I ^ , D ^ ) = 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) M | N ( t ) | .
如果像素点为动态,采用时空一致性约束来计算动态像素点的数据惩罚值,这个数据惩罚函数结合了所有序列最邻近的10个时刻的一致性约束,其定义如下:
e d 1 ( x m t , d i , I ^ , D ^ ) = 1 - Σ t ′ ∈ N ( t ) Σ m ′ ≠ m L g ( x ^ m t ′ , x ^ m t ′ ; I m t ′ , I m ′ t ′ , D m t ′ , D m ′ t ′ ) ( M - 1 ) | N ( t ) | ,
其中
Figure GDA000024315591154
Figure GDA000024315591155
依据光流跟踪至t′时刻的对应点。Lg为动态点
Figure GDA000024315591156
的深度度量函数,是通过衡量
Figure GDA000024315591157
之间的颜色和几何一致性来计算的,其定义如下:
L g ( x ^ m t ′ , x ^ m t ′ ; I m t ′ , I m ′ t ′ , D m t ′ , D m ′ t ′ ) = p c ( x ^ m t ′ , x ^ m ′ t ′ ) p g ( x ^ m t ′ , x ^ m ′ t ′ ) ,
其中pc为颜色相似度,pg为几何一致性,是通过计算对称投影误差得到的,其定义:
p g ( x ^ m t ′ , x ^ m ′ t ′ ) = σ w σ w + d g ( x ^ m t ′ , x ^ m ′ t ′ ; D m t ′ , D m ′ t ′ ) ,
其中dg为对称投影误差。
利用
Figure GDA000024315591161
Figure GDA000024315591162
重新定义公式:
E d ( L m t , I ^ , D ^ ) = Σ x m t e d ( x m d , L m t , ( x m t ) ; I ^ , D ^ ) ,
with e d ( x m t , l i s ; I ^ , D ^ ) = e d 0 ( x m t , d i ; I ^ , D ^ ) s = 0 e d 1 ( x m t , d i ; I ^ , D ^ ) s = 1
Ld和Lg均为相同形式的颜色和几何一致性的乘积,
Figure GDA000024315591165
可以公平地竞争以推断出每个像素点的真实深度值;
(3)利用重新定义的数据惩罚项,迭代地优化方程从而在优化深度图的同时对像素点的静态/动态标记进行推断,每轮优化从第1帧开始,当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束;经迭代优化之后,所有静态和动态区域的深度图均有大幅度的改进。
实施例
本发明公开了一种基于联合优化的多摄像机动态场景3D重建的方法,能够对时空一致性深度恢复和静态/动态双层分割同时进行求解,亦不需要精确的静态/动态分割,方法鲁棒而且不需要对于背景的先验知识。此方法允许参与拍摄的多目摄像机自由独立地移动,并能够处理仅2~3个的摄像机拍摄的动态场景。如图1所示,此方法主要包括三个步骤:一、我们利用每个时刻t的跨越M个摄像机的同步视频帧
Figure GDA000024315591167
来初始化t时刻的深度图
Figure GDA000024315591168
;二、同时展开时空一致性深度优化以及静态/动态双层分割,我们迭代地执行2~3轮的时空一致性优化,从而最终实现高质量的动态3D重建。以下介绍每一步骤的实施细节。
对于多目视频
Figure GDA000024315591169
,每个视频包含n帧图像:
Figure GDA000024315591170
Figure GDA000024315591171
表示第m个视频的t时刻的图像帧。表示第m个视频的t时刻的深度图。首先利用运动推断结构(structure from motion,简称SfM)的方法恢复每个视频m的每帧图像t的摄相机参数
Figure GDA000024315591173
,其中K为摄像机内部参数,包括焦距、光心及镜像畸变等参数信息;R是摄像机的旋转参数;T是摄像机平移参数。
1、对于图2(a)和(b)所示的两个同步视频序列,我们利用每个时刻t的跨越M个摄像机的同步视频帧来初始化t时刻的深度图
Figure GDA000024315591175
1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
E D ( D m t ; I ^ ( t ) ) = E d ( D m t ; I ^ ( t ) ) + E s ( D m t )
其中
Figure GDA000024315591177
表示在t时刻的M个多目同步视频帧,
Figure GDA000024315591178
表示第m个视频的t时刻的图像帧,
Figure GDA000024315591179
表示第m个视频的t时刻的深度图;是数据项,表示
Figure GDA000024315591181
中像素点与根据
Figure GDA000024315591182
计算的中其余图像帧投影点之间的DAISY特征相似度,其定义如下:
E d ( D m t ; I ^ ( t ) ) Σ x m t Σ m ′ ≠ m I d ( x m t , D m t ( x m t ) ; I m t , I m ′ t ) M - 1
其中
Figure GDA000024315591185
是用来估计对应像素DAISY特征相似度的惩罚函数,
Figure GDA000024315591186
表示像素点
Figure GDA000024315591187
的DAISY特征描述符,
Figure GDA000024315591188
Figure GDA000024315591189
利用
Figure GDA000024315591190
投影至
Figure GDA000024315591191
中的投影位置;
Figure GDA000024315591192
是平滑项,表示相邻像素x、y之间的深度平滑程度,其定义如下:
E s ( D m t ) = λ Σ x Σ y ∈ N ( x ) min { | D m t ( x ) - D m t ( y ) | , η }
其中平滑权重λ为0.008,深度差的截断值η为3;图2(c)展示了图2(a)的初始化深度图;
2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
V m → m ′ t ( x m t ) = 1 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | ≤ δ d 0 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | > δ d
其中表示
Figure GDA000024315591196
Figure GDA000024315591197
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用
Figure GDA000024315591200
投影至
Figure GDA000024315591201
上计算得到的;利用所得到的可视性图,对每个像素
Figure GDA000024315591202
计算总体可视性
Figure GDA000024315591203
,如果
Figure GDA000024315591204
在t时刻所有其余视频帧中均不可见,则
Figure GDA000024315591205
为0,否则
Figure GDA000024315591206
为1;图2(d)展示了图2(a)的可视性图;
对于那些总体可见性为
Figure GDA000024315591207
的点,我们利用传统的对于时域相邻帧的颜色一致性约束来估计不可见像素点的深度值;给定一个候选深度值d以及序列m′中的参考帧t′,我们基于
Figure GDA000024315591208
Figure GDA000024315591209
之间的颜色相似度定义以下深度一致性函数:
L c ( x m t , d i ; I m t , I m ′ t ) = p c ( x m t , x m ′ t ′ )
其中pc衡量对应像素点
Figure GDA000024315591211
Figure GDA000024315591212
的颜色相似度,定义如下:
p c ( x m t , x n ′ t ′ ) = σ σ c + | | I m t ( x m t ) - I m ′ t ′ ( x m ′ t ′ ) | | l
其中σc控制颜色差异的敏感度。像素点
Figure GDA000024315591214
Figure GDA000024315591215
根据候选深度di和摄相机参数投影至帧
Figure GDA000024315591216
得到的对应点。
我们累积所有序列在相邻时刻(我们实验中取最邻近的20帧)的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
E d ( D m t ; I ^ ) = Σ x m t 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L c ( x m t , D m t ( x m t ) ; I m t , I m ′ t ′ ) M | N ( t ) | ,
其中N(t)表示t的相邻帧集合。
这样我们就可以获得改进的深度图结果,如图2(e)所示;此外,为了更好处理无纹理特征的区域以及深度噪声,我们利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c][a,b,c]的3D平面。分割区域内的深度可以利用以下方法重新计算:dx=ax+by+c。经过平面拟合改进后得到的深度图如图2(f)所示;
2、同时展开时空一致性深度优化以及静态/动态双层分割,我们迭代地执行2~3轮的时空一致性优化,从而最终实现高质量的动态3D重建。
1)如图3(c)(d)和(g)所示,对于每个像素点,我们不仅估计其深度,而且还同时推断其为静态还是动态。因此,每个像素点
Figure GDA000024315591218
具有两套变量需要推断:一为其深度值,二为其静态/动态分类(标记)
Figure GDA000024315591220
(0为静态且1表示动态)。交替迭代地优化这两套变量值可能很容易陷入局部最小化。相反,我们将这两套变量结合为一个扩展标记表达形式,其定义如下:
Figure GDA000024315591221
每种标记
Figure GDA000024315591222
清楚地代表着一个静态/动态标记s∈{0,1}以及一个候选深度值di的组合,其中i=1,2,…,k。根据这种组合表达形式,我们现在可以通过优化一个新的能量方程来为每帧图像
Figure GDA000024315591223
估计一套联合标记图
Figure GDA000024315591224
)。新的能量方程定义如下:
E L ( L m t ; I ^ , D ^ ) = E d ( L m t ; I ^ , D ^ ) + E s ( L m t ) .
由于静态和动态像素点的时空一致性约束是不同的,我们对于
Figure GDA000024315591227
Figure GDA000024315591228
利用不同的数据项惩罚函数,我们将其分别记为
Figure GDA000024315591229
2)我们结合了两种不同的数据项惩罚函数来统一地衡量在静态/动态两种假设条件下的时域一致性。两种函数均用来衡量在多个摄像机及多个时域帧上的颜色和几何一致性。
如果某个像素点为静态,我们可以沿用Bundle Optimization(集束优化)算法来计算其对于候选深度di的数据项惩罚值。给定视频序列m′中的一个参考帧t′,我们可以依据深度di将像素点
Figure GDA000024315591232
投影至
Figure GDA000024315591233
。投影点记为
Figure GDA000024315591234
。我们可以通过衡量
Figure GDA000024315591236
之间的颜色和几何一致性来计算
Figure GDA000024315591237
的深度度量函数:
L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) = p c ( x m t , x m ′ t ′ ) p v ( x m t , x m ′ t ′ ) ,
其中pc为颜色相似度。pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
p v ( x m t , x m ′ t ′ ) = σ w σ w + | | x m t - l m ′ → m t ′ → t ( x m ′ t ′ , D m ′ t ′ ( x m ′ t ′ ) ) | | l
为将
Figure GDA000024315591241
投影至
Figure GDA000024315591242
所得到的投影点。
我们累积对于所有序列相邻时刻(最邻近的20帧)的深度度量值Ld,并利用以下公式计算静态像素点前提条件下的像素点
Figure GDA000024315591243
的数据惩罚值:
e d 0 ( x m t , d i ; I ^ , D ^ ) = 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) M | N ( t ) | .
如果像素点
Figure GDA000024315591245
为动态,数据惩罚值的计算则更为复杂。一种最直接的方法是同样利用Bundle Optimization方法,仅结合在t时刻多个同步视频帧来优化其深度。
然而,我们大部分实验数据仅包含2~3个摄像机。较少数目的同步帧会严重地降低Bundle Optimization的有效性。为解决此问题,我们引入时空一致性约束来计算动态像素点的数据惩罚值,我们的数据惩罚函数结合了所有序列多个相邻时刻(在我们实验中取最邻近的10个时刻)的一致性约束Lg,因此对于动态点的深度优化会更为鲁棒。
至此,我们可以利用以上定义的两种数据惩罚函数
Figure GDA000024315591246
Figure GDA000024315591247
重新定义公式:
E d ( L m t , I ^ , D ^ ) = Σ x m t e d ( x m d , L m t , ( x m t ) ; I ^ , D ^ ) ,
with e d ( x m t , l i s ; I ^ , D ^ ) = e d 0 ( x m t , d i ; I ^ , D ^ ) s = 0 e d 1 ( x m t , d i ; I ^ , D ^ ) s = 1
由于Ld和Lg均为相同形式的颜色和几何一致性的乘积,
Figure GDA000024315591250
Figure GDA000024315591251
可以公平地竞争以推断出每个像素点的真实深度值。
3)利用重新定义的数据惩罚项,我们迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。这里的平滑项在待优化的变量为新定义的扩展标记而不是深度值。由于新的候选标记数目较之前翻倍,我们通常在实验中仅使用70个深度层以适应BP算法的内存限制。深度层的扩展问题可以利用层次BP优化技术加以解决。在优化
Figure GDA000024315591252
之时,我们保持其余帧的深度和分割信息不变。每轮优化从第1帧开始。当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束,迭代结果如图3(d)和(g)。迭代优化之后,所有静态和动态区域的深度图均有大幅度的改进。
我们的方法结合了
Figure GDA000024315591253
Figure GDA000024315591254
,因而能够鲁棒地为静态和动态像素点推断真实准确的深度值。无论其被判断为静态还是动态点,均能够可靠地推断出其真实深度值。

Claims (3)

1.一种基于联合优化的多摄像机动态场景3D重建的方法,其特征在于它的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图,并且对于遮挡区域出现的明显深度错误,利用同步帧之间的可见性图来加以处理以获得更为精确的初始深度;
2)利用步骤1)得到的初始化的深度图,每个像素点具有两套变量需要推断:一为像素点深度值,二为像素点静态/动态分类,对像素点给出不同数据项惩罚函数来统一地衡量,对于静态点,用Bundle Optimization算法其数据项惩罚值,对于动态点,引入时空一致性约束来计算其数据惩罚值,然后迭代地优化方程,从而在优化深度图的同时对像素点的静态/动态标记进行推断。
2.根据权利要求1所述的基于联合优化的多摄像机动态场景3D重建方法,其特征在于所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
E D ( D m t ; I ^ ( t ) ) = E d ( D m t ; I ^ ( t ) ) + E s ( D m t )
其中表示在t时刻的M个多目同步视频帧,
Figure FDA0000243155903
表示第m个视频的t时刻的图像帧,
Figure FDA0000243155904
表示第m个视频的t时刻的深度图;
Figure FDA0000243155905
是数据项,表示
Figure FDA0000243155906
中像素点与根据
Figure FDA0000243155907
计算的
Figure FDA0000243155908
中其余图像帧投影点之间的DAISY特征相似度,其定义如下:
E d ( D m t ; I ^ ( t ) ) Σ x m t Σ m ′ ≠ m I d ( x m t , D m t ( x m t ) ; I m t , I m ′ t ) M - 1
其中
Figure FDA00002431559010
是用来估计对应像素的DAISY特征相似度的惩罚函数,
Figure FDA00002431559011
表示像素点
Figure FDA00002431559012
的DAISY特征描述符,
Figure FDA00002431559014
利用
Figure FDA00002431559015
投影至
Figure FDA00002431559016
中的投影位置;
Figure FDA00002431559017
是平滑项,表示相邻像素x、y之间的深度平滑程度,其定义如下:
E s ( D m t ) = λ Σ x Σ y ∈ N ( x ) min { | D m t ( x ) - D m t ( y ) | , η }
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的定义如下:
V m → m ′ t ( x m t ) = 1 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | ≤ δ d 0 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | > δ d
其中
Figure FDA00002431559020
表示
Figure FDA00002431559021
Figure FDA00002431559022
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,是通过利用
Figure FDA00002431559024
Figure FDA00002431559025
投影至上计算得到的;利用所得到的可视性图,对每个像素计算总体可视性
Figure FDA00002431559028
,如果在t时刻所有其余视频帧中均不可见,则
Figure FDA00002431559030
为0,否则
Figure FDA00002431559031
为1;
(3)对于总体可见性为
Figure FDA00002431559032
的点,利用传统的对于时域相邻帧的颜色一致性约束来估计不可见像素点的深度值;
给定一个候选深度值di以及序列m′中的参考帧t′,基于
Figure FDA00002431559033
Figure FDA00002431559034
之间的颜色相似度定义以下深度一致性函数:
L c ( x m t , d i ; I m t , I m ′ t ) = p c ( x m t , x m ′ t ′ )
其中pc衡量对应像素点
Figure FDA00002431559036
Figure FDA00002431559037
的颜色相似度,定义如下:
p c ( x m t , x n ′ t ′ ) = σ σ c + | | I m t ( x m t ) - I m ′ t ′ ( x m ′ t ′ ) | | l
其中σc控制颜色差异的敏感度,像素点
Figure FDA00002431559039
Figure FDA00002431559040
根据候选深度di和摄相机参数投影至帧
Figure FDA00002431559041
得到的对应点;
累积最邻近的20帧序列在相邻时刻的深度一致性,并利用以下公式计算总体可见的像素点的数据项:
E d ( D m t ; I ^ ) = Σ x m t 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L c ( x m t , D m t ( x m t ) ; I m t , I m ′ t ′ ) M | N ( t ) | ,
其中N(t)表示t的相邻帧集合。
获得改进的深度图结果,利用Mean-shift算法来分割每帧图像,并将每个分割区域利用计算得到的数据惩罚值拟合为一个参数为[a,b,c][a,b,c]的3D平面。分割区域内的深度利用以下方法重新计算:dx=ax+by+c。
3.根据权利要求1所述的基于联合优化的多摄像机动态场景3D重建方法,其特征在于所述的步骤2)为:
(1)每个像素点
Figure FDA00002431559043
具有两套变量需要推断:一为像素点
Figure FDA00002431559044
深度值
Figure FDA00002431559045
,二为像素点
Figure FDA00002431559046
静态/动态分类
Figure FDA00002431559047
,0为静态且1表示动态,通过优化一个新的能量方程来为每帧图像
Figure FDA00002431559048
估计一套联合标记图
Figure FDA00002431559049
。新的能量方程定义如下:
E L ( L m t ; I ^ , D ^ ) = E d ( L m t ; I ^ , D ^ ) + E s ( L m t ) .
对于
Figure FDA00002431559052
利用不同的数据项惩罚函数,分别记为
Figure FDA00002431559054
(2)如果某个像素点
Figure FDA00002431559055
为静态,用集束优化算法来计算其对于候选深度di的数据项惩罚值,给定视频序列m′中的一个参考帧t′,依据深度di将像素点
Figure FDA00002431559056
投影至
Figure FDA00002431559057
,投影点记为,通过衡量
Figure FDA00002431559059
Figure FDA00002431559060
之间的颜色和几何一致性来计算
Figure FDA00002431559061
的深度度量函数:
L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) = p c ( x m t , x m ′ t ′ ) p v ( x m t , x m ′ t ′ ) ,
其中pc为颜色相似度,pv为几何一致性,是通过计算反向投影误差而得到的,其定义如下:
p v ( x m t , x m ′ t ′ ) = σ w σ w + | | x m t - l m ′ → m t ′ → t ( x m ′ t ′ , D m ′ t ′ ( x m ′ t ′ ) ) | | l
为将投影至
Figure FDA00002431559066
所得到的投影点;
累积对于最邻近的20帧序列相邻时刻的深度度量值Ld,并利用以下公式计算静态像素点前提条件下的像素点
Figure FDA00002431559067
的数据惩罚值:
e d 0 ( x m t , d i ; I ^ , D ^ ) = 1 - Σ m ′ = 1 M Σ t ′ ∈ N ( t ) L d ( x m t , d i ; I m t , I m ′ t ′ , D m ′ t ′ ) M | N ( t ) | .
如果像素点
Figure FDA00002431559069
为动态,采用时空一致性约束来计算动态像素点的数据惩罚值,这个数据惩罚函数结合了所有序列最邻近的10个时刻的一致性约束Lg,重新定义公式:
E d ( L m t , I ^ , D ^ ) = Σ x m t e d ( x m d , L m t , ( x m t ) ; I ^ , D ^ ) ,
with e d ( x m t , l i s ; I ^ , D ^ ) = e d 0 ( x m t , d i ; I ^ , D ^ ) s = 0 e d 1 ( x m t , d i ; I ^ , D ^ ) s = 1
Ld和Lg均为相同形式的颜色和几何一致性的乘积,
Figure FDA00002431559072
Figure FDA00002431559073
可以公平地竞争以推断出每个像素点的真实深度值;
(3)利用重新定义的数据惩罚项,迭代地优化方程从而在优化深度图的同时对像素点的静态/动态标记进行推断,每轮优化从第1帧开始,当所有序列全部帧的深度图优化和静态/动态分割完成时,一轮迭代宣告结束,一轮优化之后,所有静态和动态区域的深度图均有大幅度的改进。
CN2012104752643A 2012-11-20 2012-11-20 基于联合优化的多摄像机动态场景3d重建方法 Pending CN103049929A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012104752643A CN103049929A (zh) 2012-11-20 2012-11-20 基于联合优化的多摄像机动态场景3d重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012104752643A CN103049929A (zh) 2012-11-20 2012-11-20 基于联合优化的多摄像机动态场景3d重建方法

Publications (1)

Publication Number Publication Date
CN103049929A true CN103049929A (zh) 2013-04-17

Family

ID=48062557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012104752643A Pending CN103049929A (zh) 2012-11-20 2012-11-20 基于联合优化的多摄像机动态场景3d重建方法

Country Status (1)

Country Link
CN (1) CN103049929A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103528571A (zh) * 2013-10-12 2014-01-22 上海新跃仪表厂 单目立体视觉相对位姿测量方法
CN104159099A (zh) * 2014-08-29 2014-11-19 杭州道玄影视科技有限公司 一种3d立体影视制作中双目立体摄像机的设置方法
CN104616286A (zh) * 2014-12-17 2015-05-13 浙江大学 快速的半自动多视图深度修复方法
CN108288277A (zh) * 2018-01-17 2018-07-17 视缘(上海)智能科技有限公司 一种基于rap的三维场景重建方法
CN108604381A (zh) * 2016-02-03 2018-09-28 三菱电机株式会社 用于将场景重建为三维(3d)模型的方法和系统
WO2019101061A1 (en) * 2017-11-22 2019-05-31 Huawei Technologies Co., Ltd. Three-dimensional (3d) reconstructions of dynamic scenes using reconfigurable hybrid imaging system
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1946195A (zh) * 2006-10-26 2007-04-11 上海交通大学 立体视觉系统的场景深度恢复和三维重建方法
US20090154794A1 (en) * 2007-12-15 2009-06-18 Electronics And Telecommunications Research Institute Method and apparatus for reconstructing 3D shape model of object by using multi-view image information
CN102609977A (zh) * 2012-01-12 2012-07-25 浙江大学 基于深度融合和曲面演变的多视点三维重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1946195A (zh) * 2006-10-26 2007-04-11 上海交通大学 立体视觉系统的场景深度恢复和三维重建方法
US20090154794A1 (en) * 2007-12-15 2009-06-18 Electronics And Telecommunications Research Institute Method and apparatus for reconstructing 3D shape model of object by using multi-view image information
CN102609977A (zh) * 2012-01-12 2012-07-25 浙江大学 基于深度融合和曲面演变的多视点三维重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ENGIN TOLA ET AL.: "DAISY: An Efficient Dense Descriptor Applied to Wide-Baseline Stereo", 《PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 32, no. 5, 17 April 2010 (2010-04-17) *
HANQING JIANG ET AL.: "3D Reconstruction of Dynamic Scenes with Multiple Handheld Cameras", 《12TH EUROPEAN CONFERENCE ON COMPUTER VISION》, 13 October 2012 (2012-10-13), pages 601 - 614 *
PEDRO F. FELZENSZWALB ET AL.: "Efficient Belief Propagation for Early Vision", 《COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 2 July 2004 (2004-07-02) *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103528571A (zh) * 2013-10-12 2014-01-22 上海新跃仪表厂 单目立体视觉相对位姿测量方法
CN103528571B (zh) * 2013-10-12 2016-04-06 上海新跃仪表厂 单目立体视觉相对位姿测量方法
CN104159099A (zh) * 2014-08-29 2014-11-19 杭州道玄影视科技有限公司 一种3d立体影视制作中双目立体摄像机的设置方法
CN104159099B (zh) * 2014-08-29 2016-02-03 杭州道玄影视科技有限公司 一种3d立体影视制作中双目立体摄像机的设置方法
CN104616286A (zh) * 2014-12-17 2015-05-13 浙江大学 快速的半自动多视图深度修复方法
CN104616286B (zh) * 2014-12-17 2017-10-31 浙江大学 快速的半自动多视图深度修复方法
CN108604381A (zh) * 2016-02-03 2018-09-28 三菱电机株式会社 用于将场景重建为三维(3d)模型的方法和系统
WO2019101061A1 (en) * 2017-11-22 2019-05-31 Huawei Technologies Co., Ltd. Three-dimensional (3d) reconstructions of dynamic scenes using reconfigurable hybrid imaging system
US10529086B2 (en) 2017-11-22 2020-01-07 Futurewei Technologies, Inc. Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system
CN108288277A (zh) * 2018-01-17 2018-07-17 视缘(上海)智能科技有限公司 一种基于rap的三维场景重建方法
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110349250B (zh) * 2019-06-28 2020-12-22 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法

Similar Documents

Publication Publication Date Title
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
Zou et al. Df-net: Unsupervised joint learning of depth and flow using cross-task consistency
CN103002309B (zh) 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法
De Aguiar et al. Marker-less deformable mesh tracking for human shape and motion capture
Kolev et al. Turning mobile phones into 3D scanners
CN103049929A (zh) 基于联合优化的多摄像机动态场景3d重建方法
Zhang et al. Semantic segmentation of urban scenes using dense depth maps
Bhat et al. Using photographs to enhance videos of a static scene
Wu et al. Repetition-based dense single-view reconstruction
Zhang et al. On 3D scene flow and structure estimation
Li et al. Markerless shape and motion capture from multiview video sequences
EP2595116A1 (en) Method for generating depth maps for converting moving 2d images to 3d
Tung et al. Dynamic surface matching by geodesic mapping for 3d animation transfer
CN108876814B (zh) 一种生成姿态流图像的方法
Zhi et al. Toward dynamic image mosaic generation with robustness to parallax
CN103400409A (zh) 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
Tung et al. Complete multi-view reconstruction of dynamic scenes from probabilistic fusion of narrow and wide baseline stereo
Tung et al. Simultaneous super-resolution and 3D video using graph-cuts
CN104616286A (zh) 快速的半自动多视图深度修复方法
US11928778B2 (en) Method for human body model reconstruction and reconstruction system
Zhang et al. Simultaneous multi-body stereo and segmentation
Oswald et al. A convex relaxation approach to space time multi-view 3d reconstruction
CN111105451B (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN116468769A (zh) 一种基于图像的深度信息估计方法
Liu et al. Disparity Estimation in Stereo Sequences using Scene Flow.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130417