CN106056622B - 一种基于Kinect相机的多视点深度视频复原方法 - Google Patents
一种基于Kinect相机的多视点深度视频复原方法 Download PDFInfo
- Publication number
- CN106056622B CN106056622B CN201610680651.9A CN201610680651A CN106056622B CN 106056622 B CN106056622 B CN 106056622B CN 201610680651 A CN201610680651 A CN 201610680651A CN 106056622 B CN106056622 B CN 106056622B
- Authority
- CN
- China
- Prior art keywords
- depth
- pixel
- video
- formula
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 30
- 238000001914 filtration Methods 0.000 claims abstract description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000009795 derivation Methods 0.000 claims abstract description 8
- 238000009499 grossing Methods 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- 230000001105 regulatory effect Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 abstract description 6
- 238000011084 recovery Methods 0.000 abstract description 6
- 239000011159 matrix material Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种基于Kinect相机的多视点深度视频复原方法,属于图像处理和计算机视觉领域。搭建多视点Kinect相机成像系统进行多视点深度视频采集,建立深度计算重建模型,并构建高性能求解算法以获得高质量多视点深度视频。系统容易构建,用Kinect相机即可完成多视点深度视频的复原;程序简单,易于实现;利用采集到的彩色纹理图像、多视点图像、和视频帧间信息建立多视点深度视频计算重建模型,使得恢复结果更加精确;利用求导的方式推导出定点迭代滤波算法,避免了采用最小二乘求解大规模矩阵求逆的问题,算法运行速度快,迭代次数少。
Description
技术领域
本发明属于图像处理和计算机视觉领域,涉及采用多视点空域-时域信息对Kinect深度相机的深度图建模,并推导定点迭代滤波优化算法。具体涉及一种基于Kinect相机的多视点深度视频复原方法。
背景技术
现阶段,利用二维(2D)图像来表达场景已经不能满足人们的视觉要求,而具有“真实感”和“沉浸感”的三维电视技术(3DTV)已经成为新的发展方向。3DTV技术大多以多路不同视点的视频为输入,需要多视点视频的采集、处理、压缩、传输等一系列技术作为支撑。为获得舒适的视觉效果,不仅要求每一路视点的视频具有较高的空时分辨率,同时也要求视点的分布比较稠密。多摄像机系统采集与表示方式所需传输和存储的庞大数据量成3DTV系统推向应用的主要瓶颈。针对上述问题,目前国内外均采用双路视频加深度信息的表示方式,即除普通彩色视频之外还配以相应视点的深度图序列,从而可以由少数几个视点的视频通过虚拟视点绘制方法合成稠密的多视点视频。这种表示方式避免了多视点视频固有的庞大数据量的问题。所以,深度图的获取方式,以及得到的深度的完整性和准确性成为了3DTV技术的关键。目前,微软研发的第二代Kinect深度相机是市面上深度精度最高的设备。但是,它的深度成像质量还难以满足应用需求:Kinect深度相机的深度分辨率低于主流工业相机的空间分辨率,且在深度跳跃区域(例如物体的边缘与轮廓)产生很多空洞。这些深度成像的缺陷给实际应用带来了很大的障碍。
现有方法通常采用联合纹理深度滤波的方式来提高深度质量。该方法利用彩色纹理图和深度图的结构相关性进行空间滤波权重预测,并利用光流估计和图像块相似度匹配寻找时域帧间像素的匹配并计算出时域滤波权重,最后在低分辨率的深度视频上进行三维(空域+时域)滤波。此方法可以在保证深度恢复质量同时,消除了深度视频在时域的闪烁问题(Min,D.,Lu,J.,Do,M.:Depth video enhancement based on joint global modefiltering.IEEE TIP 21(3),2012,1176-1190);但是,局部的滤波方式没有利用图像的全局信息,使得系数预测变得困难,而且采用简单的光流和块匹配方法不能保证视频中运动区域的物体在深度边缘处维持锋利。一些研究人员利用自回归模型对深度图进行全局建模,采用非局部相关性进行系数预测,并利用最小二乘求解得到深度单帧图像复原结果(J.Yang,X.Ye,K.Li,C.Hou,and Y.Wang,“Color-guided depthrecovery from rgb-ddata using an adaptive autoregressive model.”IEEETIP,vol.23,no.8,pp.3443–3458,2014);但是,算法速度慢,对于多视点深度视频的复原并没有给出相应的解决方案。
发明内容
本发明旨在克服现有技术的不足,提供了一种基于Kinect相机的多视点深度视频复原方法,即搭建多视点Kinect相机成像系统进行多视点深度视频采集,建立深度计算重建模型,并构建高性能求解算法以获得高质量多视点深度视频。
本发明的具体技术方案为,一种基于Kinect相机的多视点深度视频复原方法,包括下列步骤:
1)标定每个Kinect相机的内部参数和外部参数;内部参数包括焦距、光心;外部参数包括旋转、平移;将多视点的低分辨率深度视频扭转到同一相机的彩色视角下,得到多视点的初始低质量深度视频;
2)构建数据项:以概率方式融合多视点的初始低质量深度视频的深度信息构建数据项;
3)构建平滑项:应用步骤1)中当前相机的高分辨率彩色视频,得到相邻帧间像素的时域对应关系,并计算帧内像素间的空域相似度,以概率方式融合初始低质量深度视频的时域和空域信息构建平滑项;
4)联合数据项和平滑项建立能量方程,应用定点迭代滤波算法进行求解,得到高质量多视点深度视频。
数据项的建立,具体包括以下步骤:
2-1)对于第i个Kinect相机Ki采集并扭转视角得到的初始低质量深度图计算每个像素p对应的融合权重公式如下:
式中,exp(·)为指数函数,d为相邻相机彩色摄像头光心间的距离,σ为指数函数的调控参数,取值范围为4.0~6.0;为像素p的深度值;
2-2)结合2-1)中得到的融合权重hi,以概率方式融合采集的初始低质量深度图建立数据项,公式如下:
式中,Edata(·)为数据项的能量函数,D为待求的当前深度帧,Dp为当前深度帧D在p点的像素值。
平滑项的建立,具体包括以下步骤:
3-1)利用彩色图像I,对其中的每一点像素p,采用LK光流算法粗略寻找相邻帧中的对应像素LK为Lucas-Kanade的字头缩写。
3-2)采用AKNN结构在像素周围邻域内寻找最优的匹配像素点pt,邻域大小为ω×ω;AKNN为Approximate K-Nearest Neighbors的字头缩写。匹配相似度的计算方式如下公式所示:
其中,Pp为以像素p为中心的图像块,为以像素pt为中心的图像块,q和qt分别为p和pt邻域N(p)和N(pt)中的像素,图像块大小和邻域大小均为ω1×ω1;Iq和为像素q和qt对应的彩色值。
3-3)利用求得的匹配相似度计算时域相似权重公式如下:
其中,N为归一化因子,σp为指数函数的调控参数。
3-4)利用当前帧的彩色图,采用非均值局部滤波的方式计算帧内像素间的相似度权重
3-5)结合3-3)和3-4)中得到的时域、空域权重和以概率方式融合视频相邻的深度帧信息构建平滑项,公式如下:
其中,Esmooth(·)为平滑项的能量函数,t为当前帧的相邻帧,为第t帧在像素qt上的深度值;N(pt)为像素pt的邻域,大小为ω2×ω2。
能量方程创建和定点迭代滤波算法的推导,具体包括以下步骤:
4-1)引入平衡因子λ将数据项和平滑项结合为如下能量方程:
其中min为求取能量方程的最小值。
4-2)对4-1)中的能量方程进行求导并置零来求得最优的深度值,方程如下:
其中,rt为像素pt邻域内的像素。为像素rt和pt间的空域权重、为像素rt和qt间的空域权重、为第t帧在像素rt上的深度值。
4-3)利用4-2)中求导的结果构建定点迭代滤波算法对当前的低质量深度帧进行滤波提高质量,并得到最终的高质量深度帧。算法流程如下:
其中,为迭代前的深度图初始化结果,为第k+1次迭代求得的结果,k+1为迭代的次数。算法在第k次的迭代结果的基础上滤波得到第k+1次结果。
本发明的有益效果是:
本发明构建了多路视频加深度信息为表示方式的3DTV原型系统;在此基础上,建立多视点深度视频计算重建模型,并应用定点迭代滤波算法求解模型,具有以下特点:
1、系统容易构建,用Kinect相机即可完成多视点深度视频的复原;
2、程序简单,易于实现;
3、利用采集到的彩色纹理图像、多视点图像、和视频帧间信息建立多视点深度视频计算重建模型,使得恢复结果更加精确;
4、利用求导的方式推导出定点迭代滤波算法,避免了采用最小二乘求解大规模矩阵求逆的问题,算法运行速度快,迭代次数少。
本发明充分的利用了彩色纹理、多视点和时域信息,使得深度视频恢复效果更精确;所提的方法具有很好的可扩展性,通过简单的加入更多地深度相机或采用更好帧率的相机来获得空域-时域分辨率更高的多视点深度视频。
附图说明(附图为灰度图)
图1是实际搭设的系统和采集的数据。图1中(a)双视点Kinect系统(b)左右视点采集的数据,包括低分辨率深度视频,高分辨率彩色视频和扭转视角后的初始低质量深度图。
图2是实际实施流程图。
图3是算法的收敛速度示意图。图3中(a)相邻两次迭代间平均绝对误差随着迭代次数增加的变化(b)初始深度帧(c)第二次迭代结果(d)第六次迭代结果。
图4是深度视频的修复结果对比。图4中(a)不同的彩色帧(b)本发明方法的结果(c)其他方法结果。
具体实施方式
本发明提出了一种基于Kinect相机的多视点深度视频复原方法,结合附图及实施例详细说明如下:
本发明以水平摆放的双视点Kinect相机为成像系统进行多视点深度视频采集,其中K1为左视点(主视点)相机,K2为右视点相机;每个Kinect中的彩色相机分辨率为1920×1080,深度相机分辨率为512×414,视频帧率均为30帧/每秒,如图1所示。在此基础上,建立深度计算重建模型,并设计高性能求解算法以获得高质量多视点深度视频。所述方法包括下列步骤;
1)系统标定及数据采集;
1-1)用OpenCV标定工具箱对相机进行标定,得到每个Kinect相机的包括焦距、光心的内部参数和包括旋转、平移的外部参数;
1-2)将Kinect相机分别连在两台电脑上,并用一个路由器控制进行数据同步采集。对于每一个相机,采集到的数据包括低分辨率的深度视频和不同视角的高分辨率彩色视频。
1-3)根据得到相机的内部、外部参数,将获取的左、右视点的低分辨率深度视频扭转到主视点K1彩色相机的视角,得到高分辨率网格下的深度散点构成的初始低质量深度视频;对于K1相机的低质量深度帧,利用已知的K1视点高分辨率彩色图、相邻帧深度信息、另一视点扭转后的深度信息对当前帧进行建模和优化;整个方法的实施流程如图2所示。
2)构建深度计算重建模型中的数据项:以概率方式融合主视点的初始低质量深度视频和另一视点扭转后的初始低质量深度视频构建数据项;
2-1)对于第i个Kinect相机Ki采集并扭转视角得到的初始深度图计算每个像素p对应的融合权重公式如下:,
其中,exp(·)为指数函数,d为俩相机彩色摄像头光心间的距离,σ为指数函数的调控参数,取值范围为4.0~6.0,以中间值为佳;为像素p的深度值。当时,相应的为零;当时,的取值和d成指数关系反比增长。
2-2)结合2-1)中得到的融合权重hi,以概率方式融合采集的初始深度图建立数据项,公式如下:
其中,Edata(·)为数据项的能量函数,D为待求的当前深度帧,Dp为当前深度帧D在p点的像素值。
3)构建深度计算重建模型中的平滑项:应用K1相机的高分辨率彩色视频,得到相邻帧间像素的时域对应关系,并计算帧内像素间的空域相似度,以概率方式融合初始低质量深度视频的时域和空域信息构建平滑项;
3-1)利用彩色图像I,对其中的每一点像素p,采用LK光流算法(B.D.Lucas,T.Kanade et al.,“An iterative image registration techniquewith an applicationto stereo vision.”in IJCAI,vol.81,1981,pp.674–679.)粗略寻找相邻帧中的对应像素LK为Lucas-Kanade的字头缩写。
3-2)采用AKNN结构(C.Liu and W.T.Freeman,“A high-quality videodenoising algorithmbased on reliable motion estimation,”inProc.ECCV.Springer,2010,pp.706–719)在像素周围邻域内寻找最优的匹配像素点pt,邻域大小为11×11,AKNN为Approximate K-Nearest Neighbors的字头缩写。匹配相似度的计算方式如下公式所示:
其中,Pp为以像素p为中心的图像块,为以像素pt为中心的图像块,q和qt分别为p和pt邻域N(p)和n(pt)中的像素,图像块大小和邻域大小均为为5×5。Iq和为像素q和qt对应的彩色值。
3-3)利用求得的匹配相似度计算时域相似权重公式如下:
其中,N为归一化因子,等于邻域权重之和。σp为指数函数的调控参数,取值为3.5。
3-4)利用当前帧的彩色图,采用非均值局部滤波的方式计算空域帧内像素间的相似度权重
3-5)结合3-3)和3-4)中得到的时域、空域权重和以概率方式融合视频相邻的深度帧信息构建平滑项,公式如下:
其中,Esmooth(·)为平滑项的能量函数,t为当前帧的相邻帧,为第t帧在像素qt上的深度值,N(pt)为像素pt的邻域,大小为9×9。
4)联合上述两项建立最终的能量方程,应用定点迭代滤波算法进行求解。
4-1)引入平衡因子λ将数据项和平滑项结合为如下能量方程:
其中min为求取能量方程的最小值。平衡因子λ取值为0.1。
4-2)对4-1)中的能量方程进行求导并置零,方程如下:
利用求导来求得最优的深度值结果:
其中,rt为像素pt邻域内的像素。为像素rt和pt间的空域权重、为像素rt和qt间的空域权重、为第t帧在像素rt上的深度值。
4-3)利用4-2)中求导的结果构建定点迭代滤波算法对当前的低质量深度帧进行滤波提高质量,并得到最终的高质量深度帧。算法流程如下:
其中,为迭代前的深度图初始化结果,为第k+1次迭代求得的结果,k+1为迭代的次数。算法在第k次的迭代结果的基础上滤波得到第k+1次结果。算法重复以上过程直至收敛得到最终结果。算法的收敛性和收敛结果如图3所示:算法在第六次迭代的时候已经收敛,深度恢复结果也为最佳,故实验中设置迭代次数k=6。
对深度视频中的每帧依次重复上述2)-4)步骤,直到恢复完毕整个深度视频。
本实施例对两组数据的最终恢复结果及与其他方法的比较如图4所示,其中(a)图为两组数据中挑选出来的不同彩色帧,(b)图为采用本发明方法得到的插值帧结果;(c)图为采用基于加权模式滤波方法(Min,D.,Lu,J.,Do,M.:Depth video enhancement basedon joint global mode filtering.IEEE TIP 21(3),2012,1176-1190)得到的恢复帧结果。
Claims (2)
1.一种基于Kinect相机的多视点深度视频复原方法,其特征在于,包括下列步骤:
1)标定每个Kinect相机的内部参数和外部参数;将多视点的低分辨率深度视频扭转到同一相机的彩色视角下,得到多视点的初始低质量深度视频;
2)构建数据项:以概率方式融合多视点的初始低质量深度视频的深度信息构建数据项;
3)构建平滑项:应用步骤1)中当前相机的高分辨率彩色视频,得到相邻帧间像素的时域对应关系,并计算帧内像素间的空域相似度,以概率方式融合初始低质量深度视频的时域和空域信息构建平滑项;
4)联合数据项和平滑项建立能量方程,应用定点迭代滤波算法进行求解,得到高质量多视点深度视频;
步骤2)中数据项的建立,具体包括以下步骤:
2-1)对于第i个Kinect相机Ki采集并扭转视角得到的初始低质量深度图计算每个像素p对应的融合权重公式如下:
式中,exp(·)为指数函数,d为相邻相机彩色摄像头光心间的距离,σ为指数函数的调控参数,取值范围为4.0~6.0;为像素p的深度值;
2-2)结合2-1)中得到的融合权重hi,以概率方式融合采集的初始低质量深度图建立数据项,公式如下:
式中,Edata(·)为数据项的能量函数,D为待求的当前深度帧,Dp为当前深度帧D在p点的像素值;
步骤3)中平滑项的建立,具体包括以下步骤:
3-1)利用彩色图像I,对其中的每一点像素p,采用Lucas-Kanade光流算法粗略寻找相邻帧中的对应像素
3-2)采用Approximate K-Nearest Neighbors结构在像素周围邻域内寻找最优的匹配像素点pt,邻域大小为ω×ω;匹配相似度的计算方式如下公式所示:
式中,Pp为以像素p为中心的图像块,为以像素pt为中心的图像块,q和qt分别为p和pt邻域Ν(p)和Ν(pt)中的像素,图像块大小和邻域大小均为ω1×ω1;Iq和为像素q和qt对应的彩色值;
3-3)利用求得的匹配相似度计算时域相似度权重公式如下:
式中,N为归一化因子,等于邻域权重之和;σp为指数函数的调控参数;
3-4)利用当前帧的彩色图,采用非均值局部滤波的方式计算空域相似度权重
3-5)结合3-3)和3-4)中得到的时域相似度权重空域相似度权重以概率方式融合视频相邻的深度帧信息构建平滑项,公式如下:
式中,Esmooth(·)为平滑项的能量函数,t为当前帧的相邻帧,为第t帧在像素qt上的深度值,Ν(pt)为像素pt的邻域,大小为ω2×ω2。
2.根据权利要求1所述的一种基于Kinect相机的多视点深度视频复原方法,其特征在于,步骤4)具体包括以下步骤:
4-1)引入平衡因子λ将数据项和平滑项结合为如下能量方程:
式中,min为求取能量方程的最小值;
4-2)对4-1)中的能量方程进行求导并置零,方程如下:
利用求导来求得最优的深度值结果:
式中,rt为像素pt邻域内的像素,为像素rt和pt间的空域权重、为像素rt和qt间的空域权重、为第t帧在像素rt上的深度值;
4-3)利用4-2)中求导的结果构建定点迭代滤波算法对当前的低质量深度帧进行滤波,得到高质量深度帧,算法流程如下:
其中,为迭代前的深度图初始化结果,为第k+1次迭代求得的结果,k+1为迭代的次数;算法在第k次的迭代结果的基础上滤波得到第k+1次结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610680651.9A CN106056622B (zh) | 2016-08-17 | 2016-08-17 | 一种基于Kinect相机的多视点深度视频复原方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610680651.9A CN106056622B (zh) | 2016-08-17 | 2016-08-17 | 一种基于Kinect相机的多视点深度视频复原方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106056622A CN106056622A (zh) | 2016-10-26 |
CN106056622B true CN106056622B (zh) | 2018-11-06 |
Family
ID=57194858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610680651.9A Expired - Fee Related CN106056622B (zh) | 2016-08-17 | 2016-08-17 | 一种基于Kinect相机的多视点深度视频复原方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106056622B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296706B (zh) * | 2016-08-17 | 2018-12-21 | 大连理工大学 | 一种联合全局建模和非局部滤波的深度计算重建方法 |
CN107103620B (zh) * | 2017-04-17 | 2020-01-07 | 北京航空航天大学 | 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法 |
CN108805841B (zh) * | 2018-06-12 | 2021-01-19 | 西安交通大学 | 一种基于彩色图引导的深度图恢复及视点合成优化方法 |
CN109087351B (zh) * | 2018-07-26 | 2021-04-16 | 北京邮电大学 | 基于深度信息对场景画面进行闭环检测的方法及装置 |
CN110070511B (zh) * | 2019-04-30 | 2022-01-28 | 北京市商汤科技开发有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN110689008A (zh) * | 2019-09-17 | 2020-01-14 | 大连理工大学 | 一种面向单目图像的基于三维重建的三维物体检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398933A (zh) * | 2008-10-17 | 2009-04-01 | 北京大学 | 一种从图像中恢复三维几何信息的方法 |
CN102074020A (zh) * | 2010-12-31 | 2011-05-25 | 浙江大学 | 对视频进行多体深度恢复和分割的方法 |
CN102663712A (zh) * | 2012-04-16 | 2012-09-12 | 天津大学 | 基于飞行时间tof相机的深度计算成像方法 |
CN103218771A (zh) * | 2013-03-07 | 2013-07-24 | 天津大学 | 基于自回归模型深度恢复的参数自适应选取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101918057B1 (ko) * | 2011-11-30 | 2019-01-30 | 삼성전자주식회사 | 이미지의 깊이 정보를 복원하는 방법 및 장치 |
-
2016
- 2016-08-17 CN CN201610680651.9A patent/CN106056622B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398933A (zh) * | 2008-10-17 | 2009-04-01 | 北京大学 | 一种从图像中恢复三维几何信息的方法 |
CN102074020A (zh) * | 2010-12-31 | 2011-05-25 | 浙江大学 | 对视频进行多体深度恢复和分割的方法 |
CN102663712A (zh) * | 2012-04-16 | 2012-09-12 | 天津大学 | 基于飞行时间tof相机的深度计算成像方法 |
CN103218771A (zh) * | 2013-03-07 | 2013-07-24 | 天津大学 | 基于自回归模型深度恢复的参数自适应选取方法 |
Non-Patent Citations (5)
Title |
---|
Color-Guided Depth Recovery From RGB-D Data Using an Adaptive Autoregressive Model;Jingyu Yang 等;《IMAGE PROCESSING》;20140831;第23卷(第8期);3443-3458 * |
Computational Multi-View Imaging with Kinect;Xinchen Ye 等;《BROADCASTING》;20140930;第60卷(第3期);540-554 * |
Depth Video Enhancement Based on Weighted Mode Filtering;Dongbo Min 等;《IMAGE PROCESSING》;20120331;第21卷(第3期);1176-1190 * |
采用多组单应约束和马尔可夫随机场的运动目标检测算法;崔智高 等;《计算机辅助设计与图形学学报》;20150430;第27卷(第4期);621-632 * |
面向行人移除的街景图像全局优化时空修补方法;张茂军 等;《计算机辅助设计与图形学学报》;20120229;第24卷(第2期);176-182 * |
Also Published As
Publication number | Publication date |
---|---|
CN106056622A (zh) | 2016-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106056622B (zh) | 一种基于Kinect相机的多视点深度视频复原方法 | |
Zou et al. | Df-net: Unsupervised joint learning of depth and flow using cross-task consistency | |
CN111968217B (zh) | 基于图片的smpl参数预测以及人体模型生成方法 | |
CN103247075B (zh) | 基于变分机制的室内环境三维重建方法 | |
CN102254348B (zh) | 一种基于自适应视差估计的虚拟视点绘制方法 | |
CN108932725B (zh) | 基于卷积神经网络的场景流估计方法 | |
CN101902657B (zh) | 一种基于深度图分层的虚拟多视点图像的生成方法 | |
CN109461180A (zh) | 一种基于深度学习的三维场景重建方法 | |
CN103702098B (zh) | 一种时空域联合约束的三视点立体视频深度提取方法 | |
CN110298916B (zh) | 一种基于合成深度数据的三维人体重建方法 | |
CN103236082A (zh) | 面向捕获静止场景的二维视频的准三维重建方法 | |
Cao et al. | Learning independent object motion from unlabelled stereoscopic videos | |
CN104240229A (zh) | 一种红外双目相机自适应极线校正方法 | |
CN110930500A (zh) | 一种基于单视角视频的动态头发建模方法 | |
CN110517309A (zh) | 一种基于卷积神经网络的单目深度信息获取方法 | |
CN111127522A (zh) | 基于单目相机的深度光流预测方法、装置、设备及介质 | |
CN114996814A (zh) | 一种基于深度学习与三维重建的家具设计系统 | |
CN112270701A (zh) | 基于分组距离网络的视差预测方法、系统及存储介质 | |
CN106296706B (zh) | 一种联合全局建模和非局部滤波的深度计算重建方法 | |
Bayramli et al. | Raft-msf: Self-supervised monocular scene flow using recurrent optimizer | |
CN113486928B (zh) | 一种基于有理多项式模型可微分张量表达的多视影像对齐方法 | |
CN113034681B (zh) | 空间平面关系约束的三维重建方法及装置 | |
Liu et al. | A dense light field reconstruction algorithm for four-dimensional optical flow constraint equation | |
CN111932670B (zh) | 基于单个rgbd相机的三维人体自画像重建方法及系统 | |
CN113132706A (zh) | 基于逆向映射的可控位置虚拟视点生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181106 |
|
CF01 | Termination of patent right due to non-payment of annual fee |