CN103236082A - 面向捕获静止场景的二维视频的准三维重建方法 - Google Patents

面向捕获静止场景的二维视频的准三维重建方法 Download PDF

Info

Publication number
CN103236082A
CN103236082A CN2013101541645A CN201310154164A CN103236082A CN 103236082 A CN103236082 A CN 103236082A CN 2013101541645 A CN2013101541645 A CN 2013101541645A CN 201310154164 A CN201310154164 A CN 201310154164A CN 103236082 A CN103236082 A CN 103236082A
Authority
CN
China
Prior art keywords
pixel
disparity map
parallax
video
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101541645A
Other languages
English (en)
Other versions
CN103236082B (zh
Inventor
刘天亮
王亮
莫一鸣
朱秀昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201310154164.5A priority Critical patent/CN103236082B/zh
Publication of CN103236082A publication Critical patent/CN103236082A/zh
Application granted granted Critical
Publication of CN103236082B publication Critical patent/CN103236082B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种面向捕获静止场景的二维视频的准三维重建方法,属于计算机视觉的三维视频重建领域。本发明方法包括以下步骤:步骤A、对二维视频中的每一帧,提取双视点图像对;步骤B、分别对各双视点图像对进行极线校正;步骤C、采用基于全局优化的双目立体匹配方法对极线校正后的各双视点图像对分别求解全局最优视差图;步骤D、对全局最优视差图进行反校正,得到二维视频中各帧相应的视差图;步骤E、将步骤D得到的视差图依所对应的视频帧次序拼接为视差图序列,并对视差图序列进行优化;步骤F、结合所提取的各视频帧及其对应视差图,采用DIBR方法恢复虚拟视点图像,并将虚拟视点图像拼接为虚拟视点视频。本发明计算复杂度低,简单易行。

Description

面向捕获静止场景的二维视频的准三维重建方法
技术领域
本发明涉及一种面向捕获静止场景的二维视频的准三维重建方法,属于计算机视觉的三维视频重建领域。
背景技术
二维(2D)视频指普通摄像机拍摄的单路视频。三维(3D)视频指用立体摄像机拍摄的两路视频。二维视频的准三维化重建主要依据双目立体视觉原理。其任务是根据二维视频中隐含的场景深度信息,重建出另外一路虚拟视点视频,以模拟双目视物过程。相关的研究工作从上世纪90年代初开始逐渐增多,主要集中在视频深度信息恢复和虚拟视点视频生成两个方向。近两年,受3D电影和电视市场需求的驱动,视频三维化重建工作成为图像和视频处理领域的研究热点。
浙江大学计算机辅助设计与计算机图形国家重点实验室采用多视点立体(MVS,Multi-View Stereo)方法求解视频深度图序列。主要流程包括:采用基于运动的结构恢复(SFM,Structure from Motion)方法恢复摄像机内外参数,利用置信传播(BP,BeliefPropagation)等全局优化算法结合图像分割信息求解初始深度图序列,采用捆集调整方法优化深度图序列。该整体流程能得到较高质量视频深度图序列,但对SFM方法精度和图像分割精度都有较高要求。SFM过程中产生的误差使得BP全局优化算法传递具有较大误差的消息,这将导致深度图序列精度的降低。图像分割中的误差将使深度图序列中物体边缘处的深度值出现误差。此外,SFM、BP全局优化算法、图像分割以及捆集调整优化都要花费较多的计算时间,一方面会对三维视频重建的硬件设备提出较高要求,另外一方面也会对整个三维视频重建流程造成较大的计算时间开销。
立体匹配方法是MVS方法中只有两个视点图像的特殊情况,适用于双视点图像的视差恢复。为了满足立体匹配的极线(Epipolar Line)约束要求,可以提取视频序列中的关键帧进行极线校正,将两帧图像之间对应像素点校正到同一水平线上。通过立体匹配方法对校正后的图像对求解视差图,再对像素视差进行取倒数操作得到像素深度。目前立体匹配主要分为两大类方法:局部立体匹配和全局立体匹配。局部立体匹配对像素点逐一进行匹配,全局立体匹配借助全局能量最小化求解全局最优视差。相对于MVS方法,立体匹配方法不需要恢复摄像机参数,且优化过程需要较少的计算时间。奥地利维也纳科技大学的Bleyer等人提出了基于对象分类的全局立体匹配方法。该方法对图像中物体进行复杂的语义分析,确立每个图像块的空间隶属关系,据此构造全局立体匹配能量先验项以约束邻域像素平滑性,在图像遮挡区域恢复出优异的视差结果。此方法的缺点在于图像语义分析较为复杂且据此构造的全局能量函数较难进行优化。
极线校正可以为双目立体匹配算法提供校正后的双目立体图像对,因此成为重要的双目立体匹配预备步骤。经过极线校正后的图像对在水平方向上极线平行,对应像素点具有相同纵坐标。有摄像机标定情况下的极线校正称为欧式极线校正,这是极线校正中的理想情况,能得到高质量校正结果。欧式极线校正的缺点在于需要进行摄像机标定,这将带来较大的计算时间开销,且摄像机标定过程中产生的误差将影响极线校正结果的精度。无摄像机标定情况下的极线校正方法较多,多以欧式极线校正为目标,期望校正后的图像变形程度尽量接近欧式极线校正的理想状况。
基于深度图渲染(DIBR,Depth Image Based Rendering)的绘制技术发展得较为完善,是虚拟视点视频生成的常用方法。DIBR绘制技术主要包含三方面工作:深度图预处理,像素映射,空洞填补。加拿大通信研究中心Zhang等人提出非对称深度图滤波,降低了虚拟视点图像几何形变。深度图滤波方法较为简便且可以减小虚拟视点图像中遮挡区域的人工痕迹,但也使得深度图损失了部分边缘信息。
发明内容
本发明所要解决的技术问题在于克服现有技术不足,提供一种面向捕获静止场景的二维视频的准三维重建方法,避免了MVS的三维视频重建方法中所需的SFM、全局优化算法、图像分割以及捆集调整优化等计算复杂度较高的操作流程,更为简单且易于操作。
本发明的面向捕获静止场景的二维视频的准三维重建方法,包括以下步骤:
步骤A、对所述静止场景二维视频中的每一帧,提取与其间隔固定帧数的另一帧,构成一对双视点图像对;
步骤B、分别对各双视点图像对进行极线校正;
步骤C、采用基于全局优化的双目立体匹配方法对极线校正后的各双视点图像对分别求解全局最优视差图;
步骤D、根据所述极线校正得到的单应矩阵,对全局最优视差图进行反校正,得到所述静止场景二维视频中各帧相应的视差图;
步骤E、将步骤D得到的视差图依所对应的视频帧次序拼接为视差图序列,并对视差图序列进行优化;
步骤F、结合所提取的各视频帧及其对应视差图,采用DIBR方法恢复虚拟视点图像,并将虚拟视点图像拼接为虚拟视点视频。
作为本发明的一种优选方案,所述基于全局优化的双目立体匹配方法具体为:对于包含左图IL和右图IR的双视点图像对,当左图IL中像素点p视差为d时,用
Figure BDA000031146348000321
表示右图IR中与p对应的像素点;通过求解以下数学模型,从这两个视点图像中获得全局最优的稠密视差图D:
min E ( D ) = Σ p ∈ I e aggr ( p , p ‾ d ) + η · Σ ( p , q ) ∈ N L ( p , q ) · min ( | d p - d q | , T sm ) , 其中,η为正则化系数;为像素点p与
Figure BDA00003114634800033
的匹配代价,通过以下方法得到:
步骤1)按照下式确定像素点p与
Figure BDA00003114634800034
的初始匹配代价
Figure BDA00003114634800035
e ( p , p ‾ d ) = β · d WLD ( p , p ‾ d ) + ( 1 - β ) · d RGB ( p , p ‾ d )
d WLD ( p , p ‾ d ) = min { Σ c ∈ { R , G , B } | ξ L c ( p ) - ξ R c ( p ‾ d ) | , T WLD } ,
d RGB ( p , p ‾ d ) = min { Σ c ∈ { R , G , B } | I L c ( p ) - I R c ( p ‾ d ) | , T RGB }
式中,
Figure BDA00003114634800039
为像素点p与
Figure BDA000031146348000310
的韦伯描述符向量之间的差异,
Figure BDA000031146348000311
为像素点p与
Figure BDA000031146348000312
的RGB通道彩色描述符向量之间的差异,TWLD和TRGB分别为预设的阈值,β为范围在[0,1]之间的权重系数,
Figure BDA000031146348000313
分别为左图IL中的像素点p与右图IR中的像素点
Figure BDA000031146348000314
在RGB色彩通道c下的差分激励;分别为左图IL中的像素点p与右图IR中的像素点
Figure BDA000031146348000316
在RGB色彩通道c下的分量;
步骤2)按照下式将各像素点的初始匹配代价按导引滤波权重核进行权重化平均,实现匹配代价聚合:
e aggr ( p b , p ‾ b , d ) = Σ j W b , j ( p b , p j ) · e ( p j , p ‾ j , d ) ,
式中,
Figure BDA000031146348000318
是导引滤波输出,作为目标像素点pb的聚合代价;
Figure BDA000031146348000319
是像素pb在给定视差d时在右图IR中的对应像素点;
Figure BDA000031146348000320
表示像素点pb的邻域像素点pj在给定视差d时的初始匹配代价,作为导引滤波的输入;导引滤波权重核Wb,j(pb,pj)由下式得到:
W b , j ( p b , p j ) = 1 | w | 2 Σ k : ( b , j ) ∈ w k ( 1 + ( I b - μ k ) T ( Σ k + ϵU ) - 1 ( I j - μ k ) ) ,
其中,|w|为支撑窗口wk中的像素个数;k:(b,j)∈wk表示所有同时包含目标像素pb和邻域像素pj的支撑窗口,这些窗口用变量k表示;Ib和Ij是目标像素pb和邻域像素pj的3×1的RGB色彩向量;μk表示某个支撑窗口wk内所有像素RGB色彩向量的3×1均值向量;∑k表示某个支撑窗口wk内所有像素RGB色彩向量的3×3协方差矩阵;U是3×3单位矩阵;ε为加权力度控制参数;
dp和dq分别为目标像素p和某个邻域像素q的视差;Tsm为预设的视差差异截断阈值;L(p,q)为目标像素p和邻域像素q间的自适应相似性权重,根据下式得到:
L(p,q)=L(q,p)=exp(-D(p,q)/σ)
其中,σ为相似性测度的控制参数;D(p,q)表示原图像的最小生成树上的目标顶点p和其邻域中顶点q之间的距离,即它们连接路径上边的权重和,所述目标顶点的邻域为所述最小生成树上与目标顶点距离最小的K个邻近顶点;所述最小生成树通过以下方法得到:首先将原图像的像素点作为图结构的顶点,将相邻像素点间的梯度模作为图结构中顶点间边上的权重,得到稠密的图结构;然后,采用克鲁斯卡尔算法对稠密的图结构求解,得到原图像的最小生成树。
进一步地,采用QPBO-α-expansion算法求解所述数学模型,从双视点图像中获得全局最优的稠密视差图D,所述QPBO-α-expansion算法具体如下:首先通过局部立体匹配方法求解初始视差图Dinit,并根据视差值α生成常量视差图Dα;然后采用QPBO方法将初始视差图Dinit和常量视差图Dα进行融合,生成较优视差图Dnew;接着更新视差值α,得到新的常量视差图,并将该常量视差图与较优视差图Dnew再次融合,生成新的较优视差图,重复该过程直到视差值α遍历视差搜索空间,最终的较优视差图即为全局最优视差图。
上述技术方案中,极线校正可采用现有的欧式极线校正方法或者非欧式极线校正方法,优选地,所述极线校正使用准欧式极线校正方法,包括以下步骤:匹配双视点图像对之间SIFT特征点;设定单应矩阵形式和参数并建立极线方程;依据极线方程建立Sampson误差函数;采用LM算法最小化误差函数并求解单应矩阵参数;按照单应矩阵对原始视点图像进行单应变化。
优选地,步骤E中所述对视差图序列进行优化,包括帧内增强和帧间去抖动;所述帧内增强包括中值滤波去噪和借助最邻近像素填充的错误视差填补处理;所述帧间去抖动根据当前视差帧平均视差值与邻近视差帧平均视差值之间的比值调整当前视差帧的整体视差值。
相比现有技术,本发明具有以下有益效果:
本发明采用极线校正结合立体匹配的方法求解视频视差图序列,避免了借助MVS的三维视频重建方法中所需的SFM、BP、图像分割以及捆集调整优化等计算复杂度较高的操作流程,简化了视频视差图序列的求解过程。本发明所采用的准欧式极线校正方法无需摄像机标定,简单易操作,性能接近欧式极线校正;采用的立体匹配方法精度高,可以恢复出较高质量视差图;采用的DIBR技术简便且切实可行。本发明中方法对计算机硬件要求不高,整个重建流程所需计算时间较少,恢复的虚拟视点视频人工痕迹较少。
附图说明
图1(a)、图1(b)分别为极线校正前、后的对极几何。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明:
本发明的思路是采用极线校正结合立体匹配的方法求解视频视差图序列,避免了借助MVS的三维视频重建方法中所需的SFM、BP、图像分割以及捆集调整优化等计算复杂度较高的操作流程,简化了视频视差图序列的求解过程。本发明进一步采用了简单易操作的准欧式极线校正方法。作为本发明方法的一个优选实施例,首先对二维视频中的每一帧,提取与其间隔固定帧数的另一帧,模拟双视点图像;然后采用准欧式极线校正方法校正双视点图像;接着借助全局双目立体匹配方法求解视差图;再对视差图进行反校正并对视差图序列进行增强后处理;最后采用DIBR技术恢复虚拟视点视频。为了便于公众理解,下面对该优选实施例的技术方案进行详细描述。
1.双视点图像对的提取
本发明中的二维视频可由摄像机沿水平方向接近匀速移动拍摄静止场景得到,其中间隔一定间隔的两帧图像可以用于模拟双视点图像。对于静止场景二维视频中的每一帧图像,按照一定的帧间隔选取视频序列中的另外一帧与之组成双视点图像。帧间隔由摄像移动速度决定,以提取出的两幅图像可以模拟双视点图像为准。不同的视频序列需要设定不同的帧间隔,帧间隔具体数值由主观观测得到。
2.双视点图像的极线校正
极线校正是将如图1(a)所示的汇聚摄像机对极几何校正为图1(b)所示的平行摄像机对极几何。极线校正后左右图像平面相互平行,对应点xl、xr的极线lr和ll位于同一水平方向并且相互平行。
本发明采用准欧式极线校正方法对双视点图像进行校正,包含以下步骤:匹配双视点图像对之间SIFT特征点;设定单应矩阵形式和参数并建立极线方程;依据极线方程建立Sampson误差函数;采用LM算法最小化误差函数并求解单应矩阵参数;按照单应矩阵对原始视点图像进行单应变化,实现双视点图像的极线校正。
(1)双视点图像SIFT特征匹配
双视点图像SIFT特征匹配包含四个重要步骤:生成尺度空间,检测尺度空间极值点,描述符生成,匹配SIFT特征。
给定高斯卷积核G(x,y,σ)和不同的尺度σ,对图像I(x,y)进行卷积操作得到尺度空间L(x,y,σ):
L(x,y,σ)=G(x,y,σ)*I(x,y)    (1)
对尺度σ乘以不同的系数k得到不同的高斯卷积核G(x,y,kσ),根据不同高斯核生成尺度空间中的一组图像,相邻图像间尺度相差k倍。高斯差分核DoG(x,y,σ)可以得到图像中稳定的极值点:
DoG(x,y,σ)=G(x,y,kσ)-G(x,y,σ)    (2)
确定特征点后须要为特征点构造具体的描述符。以特征点为中心,选择特征点周围16×16的邻域,在邻域中统计梯度方向直方图,形成128维的矢量,作为特征点描述符。对于左图像中的一个SIFT特征点,右图像中与该特征点具有最小欧式距离的SIFT特征点被判定为与其匹配的SIFT特征点。
(2)基于RANSAC算法剔除SIFT误匹配
由于计算误差的影响,匹配后的SIFT特征点对中存在一些误差较大的匹配对。这些匹配对的误差相对于其他匹配对的误差大很多,称为宿外匹配特征点对。野匹配对后续单应矩阵参数计算的精度影响显著,故须要剔除宿外匹配。RANSAC算法是剔除此类宿外匹配的高效且通用的方法,该算法从人为匹配的SIFT特征点对样本集
Figure BDA00003114634800062
中剔除宿外匹配对,剩下正确匹配对,构成样本一致集,其中i=1,2,…,N,N为样本个数。
(3)单应矩阵分解与参数化
准欧式极线校正方法假定单应由无穷远平面引导,因此单应矩阵Hl和Hr分解为摄像机内参矩阵和旋转矩阵的乘积:
H l = K l R l K l - 1 ; H r = K r R r K r - 1 - - - ( 3 )
其中Kl和Kr分别表示左右摄像机的内参矩阵,Rl和Rr表示极线校正过程中摄像机绕中心进行旋转操作的旋转矩阵。
假定左右摄像机内参矩阵相等,统一表示为K。对于多数正常的拍摄情形,可以假定摄像机像素无扭曲,像素长宽相等,主点在图像平面中心,摄像机内参矩阵表示为:
K = f 0 w / 2 0 f h / 2 0 0 1 - - - ( 4 )
其中,f表示摄像机焦距,是未知量;w和h是图像的宽和高,是已知量。以像素为量纲的焦距f取值在[(1/3)(w+h),3(w+h)]区间内,用参数g表示f/( w+h),则g的取值范围在[1/3,3],确定参数g后即可确定摄像机内参矩阵K。
摄像机旋转矩阵Rl和Rr表示左右两个摄像机坐标系在极线校正过程中围绕各自的三个坐标轴进行的旋转操作。旋转过程可以依次分解为摄像机主轴绕Y轴、Z轴和X轴的旋转:
R l = R lx R lz R ly = 1 0 0 0 cos ( φ / 2 ) - sin ( φ / 2 ) 0 sin ( φ / 2 ) cos ( φ / 2 ) cos α l - sin α l 0 sin α l cos α l 0 0 0 1 cos β l 0 sin β l 0 1 0 - sin β l 0 cos β l       ( 5 )
R r = R rx R rz R ry = 1 0 0 0 cos ( - φ / 2 ) - sin ( - φ / 2 ) 0 sin ( - φ / 2 ) cos ( - φ / 2 ) cos α r - sin α r 0 sin α r cos α r 0 0 0 1 cos β r 0 sin β r 0 1 0 - sin β r 0 cos β r
(4)单应矩阵求解
用参数集P={αl、αr、βl、βr、φ、g}表示单应矩阵参数集合。符号xl、yl表示非齐次坐标下特征点xl的横坐标和纵坐标,xr、yr表示非齐次坐标下特征点xr的横坐标和纵坐标,则特征点对样本
Figure BDA00003114634800076
确定了IR4空间中的一个点X=(xl, yl,xr, yr)T。对于给定的基本矩阵F,满足对极方程
Figure BDA00003114634800077
的估计量
Figure BDA00003114634800078
确定了IR4空间中的点对极方程可以简写为
Figure BDA00003114634800082
其中符号
Figure BDA00003114634800083
表示IR4空间中的点
Figure BDA00003114634800084
关于对极方程的代价函数。给定点X,存在多个点偏移δ使得
Figure BDA00003114634800085
其中有一个点偏移δs具有最小的平方模值||δs||2,该平方模值||δs||2被定义为关于点X的Sampson误差:
| | δ s | | 2 = δ s T δ s = C ( X ) T ( C ′ ( X ) C ′ ( X ) T ) - 1 C ( X ) - - - ( 6 )
点偏移δs的模||δs||可以表示为参数集P的函数f(P),于是Sampson误差可以改写为:
||δs||2=(f(P))2    (7)
根据特征点对样本
Figure BDA00003114634800087
(i=1,2,…,T)求解单应矩阵参数集时,总的Sampson误差Es(P)定义为:
E s ( P ) = 1 2 Σ i = 1 T ( f i ( P ) ) 2 = 1 2 f ( P ) T f ( P ) - - - ( 8 )
其中,f(P)是T×1的函数矢量,第i个元素为fi(P)。通过LM算法对总误差Es进行最小化,求得最优参数集P*
(5)单应变换
借助LM算法求得最优参数集P*,进而确定参数αl、αr、βl、βr、φ、g的取值。这些参数被用于构造摄像机的内外参矩阵:K,Rl,Rr。再根据公式(3)确定对应极线校正前原始左右图像的单应矩阵Hl和Hr。最后依据单应矩阵,分别对原始左右图像进行单应变换,实现极线校正。若xrl和xrr表示极线校正后左右图像中像素的齐次坐标,则单应变换表示为:
xrl=Hlxl    (9)
xrr=Hrxr
3.基于全局优化的双目立体匹配
全局立体匹配从整体最优角度出发求解视差图。全局化方法的两个关键点是:第一,定义鲁棒高效的目标函数;第二,提供切实可行的计算方法优化目标函数以求解全局最优解。本发明所构造的全局能量函数由基于导引滤波的聚合代价表示能量似然项,由基于MST引导的平滑性代价表示能量先验项,有效提高了双目立体匹配的精度;并进一步采用QPBO-α-expansion算法(基于二次伪布尔优化的最优视差求解算法),以所构造的全局能量函数最小为目标,求解全局最优视差图。本发明的基于全局优化的双目立体匹配方法具体包括以下内容:
(1)全局能量函数
给定包含左图IL和右图IR的立体图像对,全局立体匹配的目标是从这两个视点图像中获得稠密视差图D。当左图IL中像素点p视差为d时,用
Figure BDA00003114634800091
表示右图IR中对应点。全局立体匹配的能量函数定义为:
E ( D ) = Σ p ∈ I V p ( d ) + Σ ( p , q ) ∈ N V s ( d p , d q ) - - - ( 10 )
其中似然项能量Vp(d)表示像素点p和之间的匹配代价,先验项能量Vs(dp,dq)表示视差图中相邻像素点p和q之间的视差平滑性代价。
(2)基于导引滤波聚合的似然项
本发明将局部立体匹配方法中的聚合代价引入全局能量似然项中。借助WLD描述符计算初始代价并基于线性滤波计算聚合代价,据此构造充分鲁棒的能量似然项。
根据韦伯定理稠密构造图像韦伯描述符,当前像素x在RGB色彩通道c下的差分激励表示为ξc(x),c∈{R,G,B},如下式所示:
ξ c ( x ) = arctan [ θ v 00 v 01 ] = arctan [ θ Σ i = 0 P - 1 ( x i - x x ) ] , c ∈ { R , G , B } - - - ( 11 )
连接RGB三个色彩通道的差分激励,形成韦伯描述符向量WLD(x)=(ξR(x),ξG(x),ξB(x))。
左图像中像素p和右图像中像素
Figure BDA000031146348000912
之间的初始匹配代价用两像素间WLD描述符和RGB通道色彩描述符的差异进行度量。采用绝对值和SAD(Sum of AbsoluteDifferences)度量准则,并对两种描述符差异分别设置阈值TWLD和TRGB,初始匹配代价
Figure BDA00003114634800095
表示如下:
e ( p , p ‾ d ) = β · d WLD ( p , p ‾ d ) + ( 1 - β ) · d RGB ( p , p ‾ d )
d WLD ( p , p ‾ d ) = min { Σ c ∈ { R , G , B } | ξ L c ( p ) - ξ R c ( p ‾ d ) | , T WLD } - - - ( 12 )
d RGB ( p , p ‾ d ) = min { Σ c ∈ { R , G , B } | I L c ( p ) - I R c ( p ‾ d ) | , T RGB }
式中,
Figure BDA00003114634800099
为像素点p与
Figure BDA000031146348000910
的韦伯描述符向量之间的差异,
Figure BDA000031146348000911
为像素点p与
Figure BDA00003114634800101
的RGB通道彩色描述符向量之间的差异,TWLD和TRGB分别为预设的阈值,β为范围在[0,1]之间的权重系数,
Figure BDA00003114634800102
分别为左图IL中的像素点p与右图IR中的像素点
Figure BDA00003114634800103
在RGB色彩通道c下的差分激励;
Figure BDA00003114634800104
分别为左图IL中的像素点p与右图IR中的像素点
Figure BDA00003114634800105
在RGB色彩通道c下的分量。
代价聚合过程将邻域像素的初始匹配代价权重化平均后作为中心目标像素的聚合代价,可以进一步消除噪声影响并减小匹配歧义。在支撑窗口wk中,给定视差d,窗口中各个像素在其初始匹配代价集中都存在一个对应于给定视差d的初始匹配代价。将这些初始匹配代价按导引滤波权重核进行权重化平均,实现匹配代价聚合:
e aggr ( p b , p ‾ b , d ) = Σ j W b , j ( p b , p j ) · e ( p j , p ‾ j , d ) - - - ( 13 )
其中
Figure BDA00003114634800107
是导引滤波输出,作为目标像素pb的聚合代价。
Figure BDA00003114634800108
是像素pb在给定视差d时在右图IR中的对应像素。
Figure BDA00003114634800109
表示邻域像素点pj在给定视差d时的初始匹配代价,作为导引滤波的输入。导引滤波权重核Wb,j(pb,pj)由导引图像IL的相关信息计算得到:
W b , j ( p b , p j ) = 1 | w | 2 Σ k : ( b , j ) ∈ w k ( 1 + ( I b - μ k ) T ( Σ k + ϵU ) - 1 ( I j - μ k ) ) - - - ( 14 )
其中|w|为支撑窗口wk中像素个数;k:(b,j)∈wk表示所有同时包含目标像素pb和邻域像素pj的支撑窗口,这些窗口用变量k表示;Ib和Ij是目标像素pb和邻域像素pj的3×1色彩向量;μk表示某个支撑窗口wk内所有像素色彩向量的3×1均值向量,∑k表示这些色彩向量的3×3协方差矩阵,U是3×3单位矩阵;参数ε控制导引滤波权重化平均的加权力度。
根据聚合代价
Figure BDA000031146348001011
公式(10)所示全局能量函数中的能量似然项Vp(d)表示为:
V p ( d ) = e aggr ( p , p ‾ d ) - - - ( 15 )
(3)最小生成树引导先验项
由最小生成树(MST,Minimum Spanning Tree)引导的邻域能够自动归类相似的像素点,符合人眼感知物体过程。
立体图像对中的一幅图像(例如左图IL)可以用无向图G=(V,E)表示。图像中的所有像素组成无向图G的顶点集V。假定每个像素与其上下左右四个相邻像素之间存在边,这些边组成无向图G的边集合E。给定特定边两端的像素s和r,借助两者色彩向量Is和Ir计算边的权重W(s,r):
W(s,r)=W(r,s)=|Is-Ir|    (16)
通过克鲁斯卡尔算法(Kruskal's algorithm)去除无向图G中权重较大的边,可以得到图G的MST。MST上两个顶点p和q之间的距离D(p,q)等于它们连接路径上边的权重和。
计算MST中与目标顶点距最小的K个邻域顶点,据此定义目标顶点的邻域。选取与其距离最小的有限个顶点作为邻域顶点。目标顶点与邻域顶点的相似性L(p,q)与它们之间的距离D(p,q)成反比:
L(p,q)=L(q,p)=exp(-D(p,q)/σ)    (17)
其中参数σ控制两顶点之间的相似性测度。
图像中像素与MST中顶点一一对应,与邻域顶点对应的像素被定义为目标像素的邻域像素。
给定目标像素p和某个邻域像素q,像素间自适应相似性权重L(p,q)由公式(17)表达,结合像素视差dp和dq,借助权重化线性截断模型表示MST引导能量先验Vs(dp,dq):
Vs(dp,dq)=L(p,q)·min(|dp-dq|,Tsm)    (18)
其中,视差差异截断阈值Tsm防止能量先验项过大,有助于能量先验项与能量似然项大小保持相同数量级,平衡两个能量项对全局能量的贡献。在视差搜索范围最大值dmax已知时,截断阈值Tsm一般等于dmax乘以一个经验比例常数λd(Tsmddmax)。
(4)基于二次伪布尔优化的最优视差求解
计算得到基于导引滤波聚合的似然项和MST引导先验项后,由公式(10)表示的全局能量函数具体展开为:
E ( D ) = Σ p ∈ I e aggr ( p , p ‾ d ) + η · Σ ( p , q ) ∈ N L ( p , q ) · min ( | d p - d q | , T sm ) - - - ( 19 )
其中正则化系数η调节两个能量项在总能量中的贡献。
本发明采用QPBO-α-expansion算法最小化公式(19)所示的全局能量函数。QPBO-α-expansion算法具体如下:首先通过局部立体匹配方法求解初始视差图Dinit,并根据视差值α生成常量视差图Dα;然后采用QPBO方法将初始视差图Dinit和常量视差图Dα进行融合,生成较优视差图Dnew;接着更新视差值α,得到新的常量视差图,并将该常量视差图与较优视差图Dnew再次融合,生成新的较优视差图,重复该过程直到视差值α遍历视差搜索空间,最终的较优视差图即为全局最优视差图。
4.视差图的反校正
由于立体匹配系统的输入图像是经过极线校正的左右图像对,这两幅图像相对原始视点图像有几何形变,因此求解出的视差图并不完全与原始视点图像对应。为了获取与原始视点图像对应的视差图,需要根据极线校正中单应矩阵的逆矩阵对立体匹配求得的视差图进行几何变换。该几何变换过程是公式(9)表示的单应变换过程的逆过程,表示如下:
x l ori = H l - 1 x rl ( 20 )
x r ori = H r - 1 x rr
其中
Figure BDA00003114634800124
Figure BDA00003114634800125
为反校正后左右视差图中像素的齐次坐标。反校正后的视差图与原始视点图像几何形状保持一致,对应像素点具有相同齐次坐标。
5.视差图序列的增强后处理
将视差图拼接为视差图序列。视差图序列的质量较大程度地决定了虚拟视点视频的质量,因此也影响了三维视频的主观效果。本发明的视差图序列增强处理主要包含帧内增强和帧间去抖动两方面的处理。帧内增强消除帧内噪声并填补空洞。帧间去抖动使得相邻视差图之间平滑变换。
(1)帧内增强
由于误匹配、低纹理区域和遮挡区域影响,恢复出的视差图含有噪点和错误的空洞区域。本发明采用中值滤波去除帧内噪声。本发明在处理空洞区域时,首先根据空洞具有较大灰度值的特性,设定灰度阈值Tillu,识别出空洞区域;然后采用最邻近像素填充方法对空洞进行填补。
(2)帧间去抖动
在提取双视点图像并进行立体匹配的过程中,相邻图像帧单独求解视差图,造成相邻视差图之间视差值出现差异,这些差异表现在视差图序列中即为帧间抖动。采用邻近视差图序列平均可以减缓帧间抖动。邻近视差图序列平均方法首先求解每帧视差图的平均视差值avgi(i=1,2,3,…,N),N是视差图序列总帧数;然后,将相邻的n帧视差图视为邻近视差图序列组,求解它们平均视差值的平均值AVG,即该组视差图的平均视差值;最后,对于某个特定视差图Di,按照视差调整公式进行整体调整:
Di=Di·(AVG/avgi)    (21)
邻近视差图序列组包含的帧数n由摄像机平移速度决定。摄像机移动速度越快,n取值越小。n的取值要保证形成的视差图序列组中图像具有较多共同场景,这样才能使得组内视差图调整为具有相同平均视差值的操作变得有意义。
6.面向三维内容的虚拟视点视频生成
二维视频的准三维化重建最终目标是恢复出人工痕迹少的虚拟视点视频。DIBR绘制是一类发展成熟的虚拟视点视频生成技术,该技术通过原始视点图像和视差图生成虚拟视点图像,其生成新图像的过程模拟了虚拟摄像机成像过程。DIBR绘制一般包含三方面的工作:视差图预处理,像素映射和空洞填补。本发明所采用的DIBR方法包括:首先对视差图进行低通滤波预处理,然后依据视差图对原始视点图像进行像素平移;接着利用最邻近像素填充方法对像素平移产生的空洞进行填补;最后对填补区域的像素进行均值滤波。
(1)视差图预处理
虚拟视点图像生成过程中,像素映射过程会在虚拟视点图像中造成空洞。对大面积的空洞区域进行修补难免会引入较明显的人工痕迹,给虚拟视点视频的主观质量带来负面影响。对视差图进行低通滤波,可以减小视差图中物体边缘处的视差差异。这有助于在像素映射过程中,减小虚拟视点图像中的空洞。
本发明采用高斯低通滤波对视差图进行预处理。给定w×w的滤波窗口,高斯滤波函数为:
g ( μ , σ ) = 1 2 π σ exp ( - μ 2 σ 2 ) , - w 2 ≤ μ ≤ w 2 - - - ( 22 )
其中,标准差σ与视差图低通滤波强度成正比。实际应用中,通常滤波窗口宽度w=3σ。记符号d(x,y)为视差图中目标像素p(x,y)的视差值,则高斯低通滤波后目标像素的视差值dg(x,y)表示为:
d g ( x , y ) = Σ v = - w / 2 w / 2 ( Σ μ=-w/2 w / 2 ( d ( x - μ , y - v ) g ( μ , σ ) ) g ( v , σ ) ) / Σ v = - w / 2 w / 2 ( Σ μ = - w / 2 w / 2 g ( μ , σ ) g ( v , σ ) ) - - - ( 23 )
标准差σ的最佳取值是使得虚拟视点图像空洞面积达到稳定状态的最小值。该最小值大约等于双视点摄像机基线距离的四分之一。
(2)像素映射
像素映射过程根据像素视差信息,将像素映射到虚拟摄像机成像平面。采用平行摄像机设置后,像素映射特指像素平移。像素点xr到像素点xl的映射通过像素在水平方向上的平移实现:
xl=xr+(0,Δd)T    (24)
其中,像素点xr水平方向上的视差Δd=xl-xr,该视差预先通过立体匹配求得。
(3)空洞填补
虚拟视点中的空洞区域可以根据像素映射情况确定。对于虚拟视点图像中像素点位置(i,j),若无像素平移到该位置,则设定该位置标记值mask(i,j)=1;若有像素平移到该位置,则设定其标记值mask(i,j)=0。虚拟视点图像中所有标记值mask(i,j)=1的像素组成了空洞区域。进行最邻近像素填充时,根据像素的标记值mask(i,j),优先查找到空洞像素左边水平方向上最近的非空洞像素,并将非空洞像素复制到空洞像素处。对于虚拟视点图像中图像左边缘处的空洞,在左边找不到非空洞像素时,转向右边查找到最近的非空洞像素,并进行像素复制。
为了进一步减小人工痕迹,本发明还对空洞填补区域的像素进行均值滤波。
恢复出与原始视点视频每帧图像对应的虚拟视点图像后,将虚拟视点图像拼接为虚拟视点视频。当原始视点视频和虚拟视点视频通过3D播放设备分别进入左右眼时,人脑产生三维立体感觉。

Claims (6)

1.一种面向捕获静止场景的二维视频的准三维重建方法,其特征在于,包括以下步骤:步骤A、对所述静止场景二维视频中的每一帧,提取与其间隔固定帧数的另一帧,构成一对双视点图像对;
步骤B、分别对各双视点图像对进行极线校正;
步骤C、采用基于全局优化的双目立体匹配方法对极线校正后的各双视点图像对分别求解全局最优视差图;
步骤D、根据所述极线校正得到的单应矩阵,对全局最优视差图进行反校正,得到所述静止场景二维视频中各帧相应的视差图;
步骤E、将步骤D得到的视差图依所对应的视频帧次序拼接为视差图序列,并对视差图序列进行优化;
步骤F、结合所提取的各视频帧及其对应视差图,采用DIBR方法恢复虚拟视点图像,并将虚拟视点图像拼接为虚拟视点视频。
2.如权利要求1所述面向捕获静止场景的二维视频的准三维重建方法,其特征在于,所述基于全局优化的双目立体匹配方法具体为:对于包含左图IL和右图IR的双视点图像对,当左图IL中像素点p视差为d时,用
Figure FDA000031146347000112
表示右图IR中与p对应的像素点;通过求解以下数学模型,从这两个视点图像中获得全局最优的稠密视差图D:
min E ( D ) = Σ p ∈ I e aggr ( p , p ‾ d ) + η · Σ ( p , q ) ∈ N L ( p , q ) · min ( | d p - d q | , T sm )
其中,η为正则化系数;
Figure FDA00003114634700011
为像素点p与
Figure FDA00003114634700012
的匹配代价,通过以下方法得到:
步骤1)按照下式确定像素点p与
Figure FDA00003114634700013
的初始匹配代价
Figure FDA00003114634700014
e ( p , p ‾ d ) = β · d WLD ( p , p ‾ d ) + ( 1 - β ) · d RGB ( p , p ‾ d )
d WLD ( p , p ‾ d ) = min { Σ c ∈ { R , G , B } | ξ L c ( p ) - ξ R c ( p ‾ d ) | , T WLD } ,
d RGB ( p , p ‾ d ) = min { Σ c ∈ { R , G , B } | I L c ( p ) - I R c ( p ‾ d ) | , T RGB }
式中,
Figure FDA00003114634700018
为像素点p与
Figure FDA00003114634700019
的韦伯描述符向量之间的差异,
Figure FDA000031146347000110
为像素点p与
Figure FDA000031146347000111
的RGB通道彩色描述符向量之间的差异,TWLD和TRGB分别为预设的阈值,β为范围在[0,1]之间的权重系数,
Figure FDA00003114634700021
分别为左图IL中的像素点p与右图IR中的像素点在RGB色彩通道c下的差分激励;
Figure FDA00003114634700023
分别为左图IL中的像素点p与右图IR中的像素点
Figure FDA00003114634700024
在RGB色彩通道c下的分量;
步骤2)按照下式将各像素点的初始匹配代价按导引滤波权重核进行权重化平均,实现匹配代价聚合:
e aggr ( p b , p ‾ b , d ) = Σ j W b , j ( p b , p j ) · e ( p j , p ‾ j , d ) ,
式中,
Figure FDA00003114634700026
是导引滤波输出,作为目标像素点pb的聚合代价;是像素pb在给定视差d时在右图IR中的对应像素点;
Figure FDA00003114634700028
表示像素点pb的邻域像素点pj在给定视差d时的初始匹配代价,作为导引滤波的输入;导引滤波权重核Wb,j(pb,pj)由下式得到:
W b , j ( p b , p j ) = 1 | w | 2 Σ k : ( b , j ) ∈ w k ( 1 + ( I b - μ k ) T ( Σ k + ϵU ) - 1 ( I j - μ k ) ) ,
其中,|w|为支撑窗口wk中的像素个数;k:(b,j)∈wk表示所有同时包含目标像素pb和邻域像素pj的支撑窗口,这些窗口用变量k表示;Ib和Ij是目标像素pb和邻域像素pj的3×1的RGB色彩向量;μk表示某个支撑窗口wk内所有像素RGB色彩向量的3×1均值向量;∑k表示某个支撑窗口wk内所有像素RGB色彩向量的3×3协方差矩阵;U是3×3单位矩阵;ε为加权力度控制参数;
dp和dq分别为目标像素p和某个邻域像素q的视差;Tsm为预设的视差差异截断阈值;L(p,q)为目标像素p和邻域像素q间的自适应相似性权重,根据下式得到:
L(p,q)=L(q,p)=exp(-D(p,q)/σ)
其中,σ为相似性测度的控制参数;D(p,q)表示原图像的最小生成树上的目标顶点p和其邻域中顶点q之间的距离,即它们连接路径上边的权重和,所述目标顶点的邻域为所述最小生成树上与目标顶点距离最小的K个邻近顶点;所述最小生成树通过以下方法得到:首先将原图像的像素点作为图结构的顶点,将相邻像素点间的梯度模作为图结构中顶点间边上的权重,得到稠密的图结构;然后,采用克鲁斯卡尔算法对稠密的图结构求解,得到原图像的最小生成树。
3.如权利要求2所述面向捕获静止场景的二维视频的准三维重建方法,其特征在于,采用QPBO-α-expansion算法求解所述数学模型,从双视点图像中获得全局最优的稠密视差图D,所述QPBO-α-expansion算法具体如下:首先通过局部立体匹配方法求解初始视差图Dinit,并根据视差值α生成常量视差图Dα;然后采用QPBO方法将初始视差图Dinit和常量视差图Dα进行融合,生成较优视差图Dnew;接着更新视差值α,得到新的常量视差图,并将该常量视差图与较优视差图Dnew再次融合,生成新的较优视差图,重复该过程直到视差值α遍历视差搜索空间,最终的较优视差图即为全局最优视差图。
4.如权利要求1所述面向捕获静止场景的二维视频的准三维重建方法,其特征在于,所述极线校正使用准欧式极线校正方法,包括以下步骤:匹配双视点图像对之间SIFT特征点;设定单应矩阵形式和参数并建立极线方程;依据极线方程建立Sampson误差函数;采用LM算法最小化误差函数并求解单应矩阵参数;按照单应矩阵对原始视点图像进行单应变化。
5.如权利要求1所述面向捕获静止场景的二维视频的准三维重建方法,其特征在于,步骤E中所述对视差图序列进行优化,包括帧内增强和帧间去抖动;所述帧内增强包括中值滤波去噪和借助最邻近像素填充的错误视差填补处理;所述帧间去抖动根据当前视差帧平均视差值与邻近视差帧平均视差值之间的比值调整当前视差帧的整体视差值。
6.如权利要求1所述面向捕获静止场景的二维视频的准三维重建方法,其特征在于,所述DIBR方法具体如下:首先对视差图进行低通滤波预处理,然后依据视差图对原始视点图像进行像素平移;接着利用最邻近像素填充方法对像素平移产生的空洞进行填补;最后对填补区域的像素进行均值滤波。
CN201310154164.5A 2013-04-27 2013-04-27 面向捕获静止场景的二维视频的准三维重建方法 Expired - Fee Related CN103236082B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310154164.5A CN103236082B (zh) 2013-04-27 2013-04-27 面向捕获静止场景的二维视频的准三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310154164.5A CN103236082B (zh) 2013-04-27 2013-04-27 面向捕获静止场景的二维视频的准三维重建方法

Publications (2)

Publication Number Publication Date
CN103236082A true CN103236082A (zh) 2013-08-07
CN103236082B CN103236082B (zh) 2015-12-02

Family

ID=48884121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310154164.5A Expired - Fee Related CN103236082B (zh) 2013-04-27 2013-04-27 面向捕获静止场景的二维视频的准三维重建方法

Country Status (1)

Country Link
CN (1) CN103236082B (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103776419A (zh) * 2014-01-24 2014-05-07 华南理工大学 一种提高测量范围的双目视觉测距方法
CN104243837A (zh) * 2014-08-28 2014-12-24 浙江大学 基于单次曝光视频重建的颤振探测和遥感图像恢复方法
CN104469086A (zh) * 2014-12-19 2015-03-25 北京奇艺世纪科技有限公司 一种视频去抖动方法及装置
CN104618710A (zh) * 2015-01-08 2015-05-13 左旺孟 基于增强光场显示的视觉缺陷校正系统
CN104966290A (zh) * 2015-06-12 2015-10-07 天津大学 一种基于sift描述子的自适应权重立体匹配方法
CN105761270A (zh) * 2016-03-15 2016-07-13 杭州电子科技大学 一种基于外极线距离变换的树型滤波立体匹配方法
CN105976421A (zh) * 2016-04-21 2016-09-28 浙江大学 一种渲染程序的在线优化方法
CN105989590A (zh) * 2015-02-09 2016-10-05 北京三星通信技术研究有限公司 立体匹配方法和装置
CN106713847A (zh) * 2016-11-28 2017-05-24 天津商企生产力促进有限公司 一种基于虚拟三维静态场景的机电一体化监控器
CN107221029A (zh) * 2017-04-07 2017-09-29 天津大学 一种三维图像重建方法
CN107590444A (zh) * 2017-08-23 2018-01-16 深圳市易成自动驾驶技术有限公司 静态障碍物的检测方法、装置及存储介质
CN108364345A (zh) * 2018-02-11 2018-08-03 陕西师范大学 基于像素标记和合成孔径成像的遮挡目标三维重建方法
CN108496127A (zh) * 2016-01-22 2018-09-04 高通股份有限公司 集中于对象的有效三维重构
CN108520537A (zh) * 2018-03-29 2018-09-11 电子科技大学 一种基于光度视差的双目深度获取方法
CN108769662A (zh) * 2018-07-03 2018-11-06 京东方科技集团股份有限公司 一种多视点裸眼3d图像空洞填补方法、装置及电子设备
CN108876836A (zh) * 2018-03-29 2018-11-23 北京旷视科技有限公司 一种深度估计方法、装置、系统及计算机可读存储介质
CN109729263A (zh) * 2018-12-07 2019-05-07 苏州中科广视文化科技有限公司 基于融合运动模型的视频除抖方法
WO2019084933A1 (zh) * 2017-11-03 2019-05-09 深圳市柔宇科技有限公司 图像消抖方法、装置、终端及计算机可读存储介质
CN110310317A (zh) * 2019-06-28 2019-10-08 西北工业大学 一种基于深度学习的单目视觉场景深度估计的方法
CN110334769A (zh) * 2019-07-09 2019-10-15 北京华捷艾米科技有限公司 目标识别方法及装置
CN110853151A (zh) * 2019-10-15 2020-02-28 西安理工大学 一种基于视频的三维立体点集恢复方法
CN111784753A (zh) * 2020-07-03 2020-10-16 江苏科技大学 自主水下机器人回收对接前景视场三维重建立体匹配方法
CN112116641A (zh) * 2020-09-11 2020-12-22 南京理工大学智能计算成像研究院有限公司 一种基于OpenCL的散斑图像匹配方法
CN112334760A (zh) * 2018-06-12 2021-02-05 杰艺科股份公司 用于在空间中的复杂表面上定位点的方法和设备
CN113160418A (zh) * 2021-05-10 2021-07-23 上海商汤智能科技有限公司 三维重建方法、装置和系统、介质及计算机设备
CN113686264A (zh) * 2021-08-02 2021-11-23 中国科学院长春光学精密机械与物理研究所 一种基于极线几何的三维测量方法及系统
CN113804166A (zh) * 2021-11-19 2021-12-17 西南交通大学 一种基于无人机视觉的落石运动参数数字化还原方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101277454A (zh) * 2008-04-28 2008-10-01 清华大学 一种基于双目摄像机的实时立体视频生成方法
CN101877796A (zh) * 2009-04-28 2010-11-03 青岛海信数字多媒体技术国家重点实验室有限公司 一种视差获取方法、装置和系统
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102034265A (zh) * 2010-11-24 2011-04-27 清华大学 一种三维视图获取方法
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101277454A (zh) * 2008-04-28 2008-10-01 清华大学 一种基于双目摄像机的实时立体视频生成方法
CN101877796A (zh) * 2009-04-28 2010-11-03 青岛海信数字多媒体技术国家重点实验室有限公司 一种视差获取方法、装置和系统
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102034265A (zh) * 2010-11-24 2011-04-27 清华大学 一种三维视图获取方法
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘天亮,罗立民: "一种基于分割的可变权值和视差估计的立体匹配算法", 《光学学报》, vol. 29, no. 4, 30 April 2009 (2009-04-30) *
刘天亮,霍智勇,朱秀昌,刘峰: "基于DAISY描述符和改进型权重核的快速局部立体匹配", 《南京邮电大学学报(自然科学版)》, vol. 32, no. 4, 31 August 2012 (2012-08-31) *
鞠芹,安平,张倩,吴妍菲,张兆杨: "基于多目立体匹配的深度获取方法", 《计算机工程》, vol. 36, no. 14, 31 July 2010 (2010-07-31) *

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103776419A (zh) * 2014-01-24 2014-05-07 华南理工大学 一种提高测量范围的双目视觉测距方法
CN103776419B (zh) * 2014-01-24 2016-01-06 华南理工大学 一种提高测量范围的双目视觉测距方法
CN104243837B (zh) * 2014-08-28 2017-06-16 浙江大学 基于单次曝光视频重建的颤振探测和遥感图像恢复方法
CN104243837A (zh) * 2014-08-28 2014-12-24 浙江大学 基于单次曝光视频重建的颤振探测和遥感图像恢复方法
CN104469086A (zh) * 2014-12-19 2015-03-25 北京奇艺世纪科技有限公司 一种视频去抖动方法及装置
CN104469086B (zh) * 2014-12-19 2017-06-20 北京奇艺世纪科技有限公司 一种视频去抖动方法及装置
CN104618710A (zh) * 2015-01-08 2015-05-13 左旺孟 基于增强光场显示的视觉缺陷校正系统
CN105989590A (zh) * 2015-02-09 2016-10-05 北京三星通信技术研究有限公司 立体匹配方法和装置
CN105989590B (zh) * 2015-02-09 2019-09-17 北京三星通信技术研究有限公司 立体匹配方法和装置
CN104966290A (zh) * 2015-06-12 2015-10-07 天津大学 一种基于sift描述子的自适应权重立体匹配方法
CN104966290B (zh) * 2015-06-12 2017-12-08 天津大学 一种基于sift描述子的自适应权重立体匹配方法
CN108496127A (zh) * 2016-01-22 2018-09-04 高通股份有限公司 集中于对象的有效三维重构
CN105761270A (zh) * 2016-03-15 2016-07-13 杭州电子科技大学 一种基于外极线距离变换的树型滤波立体匹配方法
CN105761270B (zh) * 2016-03-15 2018-11-27 杭州电子科技大学 一种基于外极线距离变换的树型滤波立体匹配方法
CN105976421A (zh) * 2016-04-21 2016-09-28 浙江大学 一种渲染程序的在线优化方法
CN105976421B (zh) * 2016-04-21 2018-06-19 浙江大学 一种渲染程序的在线优化方法
CN106713847A (zh) * 2016-11-28 2017-05-24 天津商企生产力促进有限公司 一种基于虚拟三维静态场景的机电一体化监控器
CN107221029A (zh) * 2017-04-07 2017-09-29 天津大学 一种三维图像重建方法
CN107590444A (zh) * 2017-08-23 2018-01-16 深圳市易成自动驾驶技术有限公司 静态障碍物的检测方法、装置及存储介质
CN107590444B (zh) * 2017-08-23 2020-05-22 深圳市易成自动驾驶技术有限公司 静态障碍物的检测方法、装置及存储介质
WO2019084933A1 (zh) * 2017-11-03 2019-05-09 深圳市柔宇科技有限公司 图像消抖方法、装置、终端及计算机可读存储介质
CN108364345A (zh) * 2018-02-11 2018-08-03 陕西师范大学 基于像素标记和合成孔径成像的遮挡目标三维重建方法
CN108364345B (zh) * 2018-02-11 2021-06-15 陕西师范大学 基于像素标记和合成孔径成像的遮挡目标三维重建方法
CN108520537A (zh) * 2018-03-29 2018-09-11 电子科技大学 一种基于光度视差的双目深度获取方法
CN108876836B (zh) * 2018-03-29 2021-08-27 北京旷视科技有限公司 一种深度估计方法、装置、系统及计算机可读存储介质
CN108876836A (zh) * 2018-03-29 2018-11-23 北京旷视科技有限公司 一种深度估计方法、装置、系统及计算机可读存储介质
CN108520537B (zh) * 2018-03-29 2020-02-18 电子科技大学 一种基于光度视差的双目深度获取方法
CN112334760A (zh) * 2018-06-12 2021-02-05 杰艺科股份公司 用于在空间中的复杂表面上定位点的方法和设备
CN108769662B (zh) * 2018-07-03 2020-01-07 京东方科技集团股份有限公司 一种多视点裸眼3d图像空洞填补方法、装置及电子设备
US11043152B2 (en) * 2018-07-03 2021-06-22 Boe Technology Group Co., Ltd. Method and apparatus for filling holes in naked-eye 3D multi-viewpoint image, and electronic device for performing the method
CN108769662A (zh) * 2018-07-03 2018-11-06 京东方科技集团股份有限公司 一种多视点裸眼3d图像空洞填补方法、装置及电子设备
CN109729263B (zh) * 2018-12-07 2021-02-23 苏州中科广视文化科技有限公司 基于融合运动模型的视频除抖方法
CN109729263A (zh) * 2018-12-07 2019-05-07 苏州中科广视文化科技有限公司 基于融合运动模型的视频除抖方法
CN110310317A (zh) * 2019-06-28 2019-10-08 西北工业大学 一种基于深度学习的单目视觉场景深度估计的方法
CN110334769A (zh) * 2019-07-09 2019-10-15 北京华捷艾米科技有限公司 目标识别方法及装置
CN110853151A (zh) * 2019-10-15 2020-02-28 西安理工大学 一种基于视频的三维立体点集恢复方法
CN110853151B (zh) * 2019-10-15 2024-02-09 西安理工大学 一种基于视频的三维立体点集恢复方法
CN111784753B (zh) * 2020-07-03 2023-12-05 江苏科技大学 自主水下机器人回收对接前景视场三维重建立体匹配方法
CN111784753A (zh) * 2020-07-03 2020-10-16 江苏科技大学 自主水下机器人回收对接前景视场三维重建立体匹配方法
CN112116641A (zh) * 2020-09-11 2020-12-22 南京理工大学智能计算成像研究院有限公司 一种基于OpenCL的散斑图像匹配方法
CN112116641B (zh) * 2020-09-11 2024-02-20 南京理工大学智能计算成像研究院有限公司 一种基于OpenCL的散斑图像匹配方法
CN113160418A (zh) * 2021-05-10 2021-07-23 上海商汤智能科技有限公司 三维重建方法、装置和系统、介质及计算机设备
CN113686264B (zh) * 2021-08-02 2022-08-02 中国科学院长春光学精密机械与物理研究所 一种基于极线几何的三维测量方法及系统
CN113686264A (zh) * 2021-08-02 2021-11-23 中国科学院长春光学精密机械与物理研究所 一种基于极线几何的三维测量方法及系统
CN113804166A (zh) * 2021-11-19 2021-12-17 西南交通大学 一种基于无人机视觉的落石运动参数数字化还原方法
CN113804166B (zh) * 2021-11-19 2022-02-08 西南交通大学 一种基于无人机视觉的落石运动参数数字化还原方法

Also Published As

Publication number Publication date
CN103236082B (zh) 2015-12-02

Similar Documents

Publication Publication Date Title
CN103236082B (zh) 面向捕获静止场景的二维视频的准三维重建方法
Im et al. Dpsnet: End-to-end deep plane sweep stereo
CN111988593B (zh) 一种基于深度残差优化的立体图像颜色校正方法及系统
CN110288712B (zh) 室内场景的稀疏多视角三维重建方法
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN104318576B (zh) 一种超像素级别的图像全局匹配方法
CN103702103B (zh) 基于双目相机的光栅立体印刷图像合成方法
CN112734822B (zh) 一种基于红外和可见光图像的立体匹配算法
CN106530336B (zh) 基于色彩信息和图割理论的立体匹配方法
CN106530333A (zh) 基于捆绑约束的分级优化立体匹配方法
CN103581650A (zh) 双目3d视频转多目3d视频的方法
CN108510529A (zh) 一种基于自适应权值的图割立体匹配方法
CN113538569A (zh) 一种弱纹理物体位姿估计方法和系统
Shivakumar et al. Real time dense depth estimation by fusing stereo with sparse depth measurements
CN116579962A (zh) 一种基于鱼眼相机的全景感知方法、装置、设备及介质
CN115482268A (zh) 一种基于散斑匹配网络的高精度三维形貌测量方法与系统
CN101945299B (zh) 一种基于拍摄设备阵列的动态场景深度恢复方法
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
Wang et al. Disparity manipulation for stereo images and video
Wu et al. Joint view synthesis and disparity refinement for stereo matching
CN107864374A (zh) 一种维持视差的双目视频稳像方法
CN113132706A (zh) 基于逆向映射的可控位置虚拟视点生成方法及装置
Doron et al. User directed multi-view-stereo
Jeong et al. Stereo matching with confidence-region decomposition and processing
Colombari et al. Continuous parallax adjustment for 3D-TV

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20130807

Assignee: Jiangsu Nanyou IOT Technology Park Ltd.

Assignor: Nanjing Post & Telecommunication Univ.

Contract record no.: 2016320000208

Denomination of invention: Quasi-three dimensional reconstruction method for acquiring two-dimensional videos of static scenes

Granted publication date: 20151202

License type: Common License

Record date: 20161110

LICC Enforcement, change and cancellation of record of contracts on the licence for exploitation of a patent or utility model
EC01 Cancellation of recordation of patent licensing contract

Assignee: Jiangsu Nanyou IOT Technology Park Ltd.

Assignor: Nanjing Post & Telecommunication Univ.

Contract record no.: 2016320000208

Date of cancellation: 20180116

EC01 Cancellation of recordation of patent licensing contract
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151202

Termination date: 20180427

CF01 Termination of patent right due to non-payment of annual fee