CN103136775A - 基于局部约束重建的kinect深度图空洞填充方法 - Google Patents
基于局部约束重建的kinect深度图空洞填充方法 Download PDFInfo
- Publication number
- CN103136775A CN103136775A CN2013100873639A CN201310087363A CN103136775A CN 103136775 A CN103136775 A CN 103136775A CN 2013100873639 A CN2013100873639 A CN 2013100873639A CN 201310087363 A CN201310087363 A CN 201310087363A CN 103136775 A CN103136775 A CN 103136775A
- Authority
- CN
- China
- Prior art keywords
- pixel
- empty
- piece
- depth map
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种基于局部约束重建的KINECT深度图空洞填充方法,包括步骤:以深度图中空洞像素为中心构建搜索窗,获取搜索窗内的所有非空洞像素;获取空洞像素和非空洞像素在纹理图中的对应位置像素;以各对应位置像素为中心分别构建块,空洞像素的对应位置像素所在的块作为中心块,非空洞像素的对应位置像素所在的块作为邻域块;基于局部约束重建准则构造代价函数,并获得邻域块用来表达中心块的最优权重向量;基于领域块的最优权重向量对搜索窗内的所有非空洞像素的像素值加权求和得到目标像素值,并将目标像素值作为该深度图中该空洞像素的像素值。本发明能更精确地填补深度图在边缘区域和平滑区域的空洞。
Description
技术领域
本发明涉及一种KINECT深度图空洞填充方法,尤其是涉及一种基于局部约束重建的KINECT深度图空洞填充方法及系统。
背景技术
目前,深度信息被广泛应用于基于深度的视点绘制、3D建模和姿势识别等领域。近来,微软发布的KINECT为实时获取深度信息提供了便利,KINECT不仅价格低廉而且还能同时采集场景的深度图和纹理图。然而,由于KINECT采集深度信息所用的结构光测量方法易受到遮挡、透明物体或纹理丰富的区域的影响,导致采集的深度图在对象的边缘或平坦的区域存在空洞,这些空洞严重影响了深度图的应用。因此,对深度图的空洞进行精确填充至关重要。
近年来,很多学者对KINECT深度图的空洞填充提出了不同的方法。Fu等[1]提出利用连续帧的帧间填充模式来恢复丢失的深度值,然后利用双边滤波算法对深度图进行去噪处理。然而,该算法导致深度图的边缘膨胀,并且一些小空洞依然存在。基于深度图和纹理图在结构上和空间上的相似性,有学者基于纹理图区域分割结果,利用迭代扩散的方法恢复丢失的深度信息,但是该方法易受到纹理图分割精度的限制。Miao等人[2]利用in-painting算法实现了空洞填充,该方法通过划分波动边缘区域对空洞进行填充,但是在对象边缘的空洞是利用波动边缘区域内深度值的均值进行填充的,深度值并不精确。为了增加非空洞像素权值计算的准确性,Camplani等人[3]基于联合双边滤波算法利用纹理图来计算非空洞像素的权值进行空洞填充,尽管该方法获得了一定的成效,但该方法在计算非空洞像素的权值时仅分别考虑了单个周围像素对中心像素的贡献,并未考虑所有周围像素对中心像素的整体贡献,致使计算的权值并不最优,影响了空洞填充的精确性。
文中涉及如下参考文献:
[1]Jingjing Fu,Shiqi Wang,Yan Lu,Shipeng Li and Wenjun Zeng,“Kinect-Like Depth Denoising”,in Proc.IEEE International Symposium on Circuits and Systems,pp.512-515,2012.
[2]Dan Miao,Jingjing Fu,Yan Lu,Shipeng Li and Chang Wen Chen,“Texture-assisted Kine ct DepthIn-painting”,in Proc.IEEE International Symposium on Circuits and Systems,pp.604-607,2012.
[3]Camplani,M.and Salgado,L,“Efficient spatio-temporal hole filling strategy for Kinect depth maps”,inProc.SPIE,2012.
发明内容
针对现有技术存在的问题,本发明提供了一种精确度更高的、基于局部约束重建的KINECT深度图空洞填充方法及系统。
为了解决上述技术问题,本发明采用如下的技术方案:
一种基于局部约束重建的KINECT深度图空洞填充方法,包括对深度图当前的空洞像素逐一执行以下步骤:
步骤1,以空洞像素为中心构建搜索窗,并获取搜索窗内的所有非空洞像素;
步骤2,获取搜索窗中心的空洞像素和搜索窗内的所有非空洞像素在纹理图中的对应位置像素,搜索窗中心的空洞像素在纹理图中的对应位置像素简称为空洞像素的对应位置像素,搜索窗内的非空洞像素在纹理图中的对应位置像素简称为非空洞像素的对应位置像素;
步骤3,以纹理图中的各对应位置像素为中心分别构建块,将空洞像素的对应位置像素所在的块作为中心块,将非空洞像素的对应位置像素所在的块作为邻域块;
步骤4,基于局部约束重建准则构造代价函数,根据所构建的代价函数获得所有邻域块用来表达中心块的最优权重向量,所获得的最优权重向量中的各元素对应各邻域块的最优权重;
步骤5,以邻域块的最优权重为位于邻域块中心的非空洞像素的权重,对搜索窗内的所有非空洞像素的像素值加权求和得到目标像素值,并将目标像素值作为深度图中该空洞像素的像素值。
步骤1具体为:
将深度值为0的像素定义为空洞像素,将深度图中位于坐标x位置的空洞像素记为d(x);以d(x)像素为中心,划定大小为L×L像素的方形搜索窗Sx,获得该方形搜索窗Sx区域内的所有深度值不为0的像素,即非空洞像素,记为d(yn),yn为非空洞像素的位置坐标,1≤n≤N,N为方形搜索窗Sx内非空洞像素的数量。本步骤中采用的搜索窗并不限于方形搜索窗,也可采用矩形搜索窗等,搜索窗大小根据实际情况自行设定。
步骤2具体为:
将纹理图中位于坐标x位置的像素I(x)作为深度图中的空洞像素d(x)的对应位置像素,将纹理图中位于坐标yn位置的像素I(yn)作为深度图中的非空洞像素d(yn)的对应位置像素,1≤n≤N,N为方形搜索窗Sx内非空洞像素的数量。
步骤3中具体为:
在纹理图中,将以像素I(x)为中心的K×K像素大小的块作为中心块,记为p(x);将以像素I(yn)为中心的K×K像素大小的块作为邻域块p(yn)。
步骤4中所述的基于局部约束重建准则构造的代价函数如下:
其中,
w*=[w*(1),w*(2),...w*(n),...,w*(N)]表示最优权重向量,w*(n)表示邻域块p(yn)所对应的最优权重,w(yn)表示邻域块p(yn)所对应的权重,1≤n≤N,N为搜索窗内非空洞像素的数量;
P(x)表示中心块p(x)内所有像素的像素值所组成的列向量;
P(yn)表示邻域块p(yn)内所有像素的像素值所组成的列向量;
τ为平衡因子,根据经验取值;
s(yn)为中心块p(x)与邻域块p(yn)的相似性。
s(yn)可采用公知技术进行计算,具体公式如下:
s(yn)=||P(x)-P(yn)||2
步骤5中采用如下公式获得目标像素值D(x)′,作为深度图中空洞像素的像素值:
其中,D(yn)为非空洞像素d(yn)的像素值。
本发明还提供了一种基于局部约束重建的KINECT深度图空洞填充系统,包括:
搜索模块,用来以空洞像素为中心构建搜索窗,并获取搜索窗内的所有非空洞像素;
获取对应位置像素模块,用来获取搜索窗中心的空洞像素和搜索窗内的所有非空洞像素在纹理图中的对应位置像素;
块构建模块,用来以纹理图中的各对应位置像素为中心分别构建块,将空洞像素的对应位置像素所在的块作为中心块,将非空洞像素的对应位置像素所在的块作为邻域块;
最优权重向量获取模块,用来基于局部约束重建准则构造代价函数,根据所构建的代价函数获得所有邻域块用来表达中心块的最优权重向量,所获得的最优权重向量中的各元素对应各邻域块的最优权重;
深度图空洞像素填充模块,用来以邻域块的最优权重为位于邻域块中心的非空洞像素的权重,对搜索窗内的所有非空洞像素的像素值加权求和得到目标像素值,并将目标像素值作为深度图中该空洞像素的像素值。
上述最优权重向量获取模块涉及的基于局部约束重建准则构造的代价函数如下:
其中,
w*=[w*(1),w*(2),...w*(n),...,w*(N)]表示最优权重向量,w*(n)表示邻域块p(yn)所对应的最优权重,w(yn)表示邻域块p(yn)所对应的权重,1≤n≤N,N为搜索窗内非空洞像素的数量;
P(x)表示中心块p(x)内所有像素的像素值所组成的列向量;
P(yn)表示邻域块p(yn)内所有像素的像素值所组成的列向量;
τ为平衡因子,根据经验取值;
s(yn)为中心块p(x)与邻域块p(yn)的相似性。
和现有技术相比,本发明具有如下优点:
1)本发明在纹理图中采用分块的方法来获取非空洞像素的权值,能有效避免纹理图中的纹理细节映射到深度图中。
2)本发明构造的代价函数能整体求取非空洞像素的权值,精确性更高。
3)本发明构造的代价函数中的局部约束项S(yn)能保证求取的非空洞像素权值的局部稀疏性,使得空洞填充后的深度图中图像的边缘轮廓更清晰。
附图说明
图1是本发明方法流程图;
图2是本发明具体实施例中利用KINECT采集的纹理图及初始深度图,其中,图(a)为采集的纹理图,图(b)为采集的初始深度图;
图3是本发明具体实施例中利用KINECT采集的另一组纹理图及初始深度图,其中,图(a)为采集的纹理图,图(b)为采集的初始深度图;
图4是对图2中原始深度图进行空洞填充后的整体效果,其中,图(a)为Miao的方法的深度图空洞填充效果图,图(b)为Camplani的方法的深度图空洞填充效果图,图(c)为本发明方法的深度图空洞填充效果图;
图5是对图3中原始深度图进行空洞填充后的整体效果图,其中,图(a)为Miao的方法的深度图空洞填充效果图,图(b)为Camplani的方法的深度图空洞填充效果图,图(c)为本发明方法的深度图空洞填充效果图;
图6~7是对图2中原始深度图进行进行空洞填充后的局部区域效果图,其中,图(a)为局部区域纹理图,图(b)为局部区域原始深度图,图(c)为Miao的方法的深度图空洞填充局部区域效果图,图(d)为Camplani的方法的深度图空洞填充局部区域效果图,图(e)为本发明方法的深度图空洞填充局部区域效果图;
图8~9是对图3中原始深度图进行进行空洞填充后的局部区域效果图,其中,图(a)为局部区域纹理图,图(b)为局部区域原始深度图,图(c)为Miao的方法的深度图空洞填充局部区域效果图,图(d)为Camplani的方法的深度图空洞填充局部区域效果图,图(e)为本发明方法的深度图空洞填充局部区域效果图。
具体实施方式
本发明利用纹理图和深度图在结构上的相似性,构造基于局部约束重建的代价函数来求取非空洞像素的权重来进行空洞填充,更精确地填补了深度图在边缘区域和平滑区域的空洞。
本具体实施例利用KINECT同时采集分辨率为480×640像素的场景的纹理图和深度图,见图2,利用纹理图来指导深度图的空洞填充。设置搜索窗Sx大小为21×21像素,中心块p(x)和邻域块p(yn)大小为5×5像素,平衡因子τ设置为0.9。
下面将以图为例,详细说明本发明方法的具体步骤,如下:
步骤1,以深度图中的当前空洞像素为中心构建搜索窗Sx,并获取搜索窗内的所有非空洞像素。
为便于实施参考,提供具体步骤如下:
1.1:将深度图中位于坐标x位置、深度值为0的像素记为空洞像素d(x);
1.2:以空洞像素d(x)为中心,划定大小为21×21像素的方形搜索窗Sx,获取该方形搜索窗Sx区域内所有深度值不为0的像素,即非空洞像素,记为d(yn),yn为非空洞像素的位置坐标,1≤n≤N,N为方形搜索窗Sx内非空洞像素的数量。
步骤2,获取空洞像素d(x)和所有非空洞像素d(yn)在纹理图中的对应位置像素,空洞像素d(x)在纹理图中的对应位置像素简称为空洞像素的对应位置像素,非空洞像素d(yn)在纹理图中的对应位置像素简称为非空洞像素的对应位置像素。
为便于实施参考,提供具体步骤如下:
将纹理图中位于坐标x位置的像素I(x)作为深度图中的空洞像素d(x)的对应位置像素,将纹理图中位于坐标yn位置的像素I(yn)作为深度图中的非空洞像素d(yn)的对应位置像素。
步骤3,以纹理图中的对应位置像素I(x)和I(yn)为中心构建块,将空洞像素的对应位置像素I(x)所在的块作为中心块,将非空洞像素的对应位置像素I(yn)所在的块作为邻域块。
为便于实施参考,提供具体步骤如下:
步骤3.1:将以空洞像素的对应位置像素I(x)为中心的5×5像素大小的块作为中心块,记为p(x);
步骤3.2:将以非空洞像素的对应位置像素I(yn)为中心的5×5像素大小的块作为邻域块p(yn)。
步骤4,基于局部约束重建准则构造代价函数,根据该代价函数获得邻域块用来表达中心块的最优权重向量,所获得的最优权重向量中的各元素对应各邻域块的最优权重。
基于局部约束重建准则所构造的代价函数构造如式(1)所示:
式(1)中:
w*=[w(y1),w(y2),…,w(yN)],为邻域块的最优权重向量;
w*(n)表示邻域块p(yn)所对应的最优权重,也就是位于邻域块p(yn)中心的非空洞像素的最优权重;
w(yn)表示邻域块p(yn)所对应的权重,1≤n≤N,N为搜索窗内非空洞像素的数量;
P(x)表示中心块p(x)内所有像素的像素值所组成的列向量;
P(yn)表示邻域块p(yn)内所有像素的像素值所组成的列向量;
τ为平衡因子,根据经验选取使图像效果最好的值;
s(yn)为中心块p(x)与邻域块p(yn)的相似性,s(yn)=||P(x)-P(yn)||2。
步骤5,将步骤4得到最优权重向量作为非空洞像素的权重向量,对方形搜索窗Sx内的所有非空洞像素的像素值加权求和得到目标像素值,并将目标像素值作为深度图中的该当前空洞像素的像素值。
为便于实施参考,提供具体步骤如下:
步骤5.1:根据式(1)获得邻域块的最优权重向量的解,如式(2)所示:
w*=(G+τM2)\1 (2)
其中,
G=(P(x)·ones(1,N)-dmatrix)T(P(x)·ones(1,N)-dmatrix),P(x)为中心块p(x)内所有像素的像素值所组成的列向量,ones(1,N)为1×N大小的元素全部为1的行向量,则,P(x)·ones(1,N)为N个P(x)列向量组成的矩阵;
dmatrix是N个列向量P(yn)构成的矩阵,1≤n≤N,列向量P(yn)为邻域块p(yn)内所有像素的像素值所组成的列向量;
“\”表示用1除以(G+τM2)的运算;
M为N×N的对角矩阵,M的第n行第n列元素Mnn=s(yn),1≤n≤N;
T表示矩阵的转置。
步骤5.2:采用式(3)对方形搜索窗Sx内的所有非空洞像素的像素值加权求和:
式(3)中,D(x)′为目标像素值;D(yn)为非空洞像素d(yn)的像素值。
对深度图中的每个空洞像素逐一执行上述步骤1~5,从而完成对深度图的空洞填充。
分别采用本发明方法、Miao的方法[3]、Camplani的方法[4]对图2中的深度图进行空洞填充,填充结果见图3~9,从图中可以看出,相比于其他方法,本发明能更好地填补深度图在边缘区域和平滑区域的空洞。
本文中所描述的具体实施例仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (4)
1.基于局部约束重建的KINECT深度图空洞填充方法,其特征在于,包括对深度图当前的空洞像素逐一执行以下步骤:
步骤1,以空洞像素为中心构建搜索窗,并获取搜索窗内的所有非空洞像素;
步骤2,获取搜索窗中心的空洞像素和搜索窗内的所有非空洞像素在纹理图中的对应位置像素,搜索窗中心的空洞像素在纹理图中的对应位置像素简称为空洞像素的对应位置像素,搜索窗内的非空洞像素在纹理图中的对应位置像素简称为非空洞像素的对应位置像素;
步骤3,以纹理图中的各对应位置像素为中心分别构建块,将空洞像素的对应位置像素所在的块作为中心块,将非空洞像素的对应位置像素所在的块作为邻域块;
步骤4,基于局部约束重建准则构造代价函数,根据所构建的代价函数获得所有邻域块用来表达中心块的最优权重向量,所获得的最优权重向量中的各元素对应各邻域块的最优权重;
步骤5,以邻域块的最优权重为位于邻域块中心的非空洞像素的权重,对搜索窗内的所有非空洞像素的像素值加权求和得到目标像素值,并将目标像素值作为深度图中该空洞像素的像素值。
2.如权利要求1所述的基于局部约束重建的KINECT深度图空洞填充方法,其特征在于:
所述的基于局部约束重建准则构造的代价函数如下:
其中,
w*=[w*(1),w*(2),...w*(n),...,w*(N)]表示最优权重向量,w*(n)表示邻域块p(yn)所对应的最优权重,w(yn)表示邻域块p(yn)所对应的权重,1≤n≤N,N为搜索窗内非空洞像素的数量;
P(x)表示中心块p(x)内所有像素的像素值所组成的列向量;
P(yn)表示邻域块p(yn)内所有像素的像素值所组成的列向量;
τ为平衡因子,根据经验取值;
s(yn)为中心块p(x)与邻域块p(yn)的相似性。
3.基于局部约束重建的KINECT深度图空洞填充系统,其特征在于,包括:
搜索模块,用来以空洞像素为中心构建搜索窗,并获取搜索窗内的所有非空洞像素;
获取对应位置像素模块,用来获取搜索窗中心的空洞像素和搜索窗内的所有非空洞像素在纹理图中的对应位置像素;
块构建模块,用来以纹理图中的各对应位置像素为中心分别构建块,将空洞像素的对应位置像素所在的块作为中心块,将非空洞像素的对应位置像素所在的块作为邻域块;
最优权重向量获取模块,用来基于局部约束重建准则构造代价函数,根据所构建的代价函数获得所有邻域块用来表达中心块的最优权重向量,所获得的最优权重向量中的各元素对应各邻域块的最优权重;
深度图空洞像素填充模块,用来以邻域块的最优权重为位于邻域块中心的非空洞像素的权重,对搜索窗内的所有非空洞像素的像素值加权求和得到目标像素值,并将目标像素值作为深度图中该空洞像素的像素值。
4.如权利要求3所述的基于局部约束重建的KINECT深度图空洞填充系统,其特征在于:
所述的最优权重向量获取模块涉及的基于局部约束重建准则构造的代价函数如下:
其中,
w*=[w*(1),w*(2),...w*(n),...,w*(N)]表示最优权重向量,w*(n)表示邻域块p(yn)所对应的最优权重,w(yn)表示邻域块p(yn)所对应的权重,1≤n≤N,N为搜索窗内非空洞像素的数量;
P(x)表示中心块p(x)内所有像素的像素值所组成的列向量;
P(yn)表示邻域块p(yn)内所有像素的像素值所组成的列向量;
τ为平衡因子,根据经验取值;
s(yn)为中心块p(x)与邻域块p(yn)的相似性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100873639A CN103136775A (zh) | 2013-03-19 | 2013-03-19 | 基于局部约束重建的kinect深度图空洞填充方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100873639A CN103136775A (zh) | 2013-03-19 | 2013-03-19 | 基于局部约束重建的kinect深度图空洞填充方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103136775A true CN103136775A (zh) | 2013-06-05 |
Family
ID=48496561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013100873639A Pending CN103136775A (zh) | 2013-03-19 | 2013-03-19 | 基于局部约束重建的kinect深度图空洞填充方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103136775A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310420A (zh) * | 2013-06-19 | 2013-09-18 | 武汉大学 | 基于纹理与几何相似性的彩色图像空洞修复方法及系统 |
CN103945206A (zh) * | 2014-04-22 | 2014-07-23 | 冠捷显示科技(厦门)有限公司 | 一种基于相似帧比较的立体图像合成系统 |
CN104780355A (zh) * | 2015-03-31 | 2015-07-15 | 浙江大学 | 一种视点合成中基于深度的空洞修复方法 |
CN104835164A (zh) * | 2015-05-11 | 2015-08-12 | 京东方科技集团股份有限公司 | 一种双目摄像头深度图像的处理方法及装置 |
CN105096311A (zh) * | 2014-07-01 | 2015-11-25 | 中国科学院科学传播研究中心 | 基于gpu的深度图修复和虚实场景结合技术 |
CN105574908A (zh) * | 2015-12-15 | 2016-05-11 | 中国地质大学(武汉) | 基于随机算子发生器的槽状交错层理花纹自动填充方法 |
CN105894503A (zh) * | 2016-03-30 | 2016-08-24 | 江苏大学 | 一种对Kinect植株彩色和深度检测图像的修复方法 |
CN106651871A (zh) * | 2016-11-18 | 2017-05-10 | 华东师范大学 | 一种深度图像空洞的自动填充方法 |
CN110992271A (zh) * | 2020-03-04 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、路径规划方法、装置、设备及存储介质 |
CN113935914A (zh) * | 2021-10-08 | 2022-01-14 | 北京的卢深视科技有限公司 | 深度图像修复方法、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271583A (zh) * | 2008-04-28 | 2008-09-24 | 清华大学 | 一种基于深度图的快速图像绘制方法 |
US20110032341A1 (en) * | 2009-08-04 | 2011-02-10 | Ignatov Artem Konstantinovich | Method and system to transform stereo content |
-
2013
- 2013-03-19 CN CN2013100873639A patent/CN103136775A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271583A (zh) * | 2008-04-28 | 2008-09-24 | 清华大学 | 一种基于深度图的快速图像绘制方法 |
US20110032341A1 (en) * | 2009-08-04 | 2011-02-10 | Ignatov Artem Konstantinovich | Method and system to transform stereo content |
Non-Patent Citations (3)
Title |
---|
JUNJUN JIANG.等: "《POSITION-PATCH BASED FACE HALLUCINATION VIA LOCALITY-CONSTRAINED REPRESENTATION》", 《ICME2012》, 31 December 2012 (2012-12-31) * |
KRISHNA RAO VIJAYANAGAR.等: "《Refinement Of Depth Maps Generated By Low-Cost Depth Sensors》", 《ISOCC 2012》, 31 December 2012 (2012-12-31) * |
MASSIMO CAMPLANI,LUIS SALGADO: "《Efficient Spatio-Temporal Hole Filling Strategy for Kinect Depth Maps》", 《THREE-DIMENSIONAL IMAGE PROCESSING (3DIP) AND APPLICATIONS II》, vol. 8290, 31 December 2012 (2012-12-31) * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310420A (zh) * | 2013-06-19 | 2013-09-18 | 武汉大学 | 基于纹理与几何相似性的彩色图像空洞修复方法及系统 |
CN103310420B (zh) * | 2013-06-19 | 2016-03-30 | 武汉大学 | 基于纹理与几何相似性的彩色图像空洞修复方法及系统 |
CN103945206A (zh) * | 2014-04-22 | 2014-07-23 | 冠捷显示科技(厦门)有限公司 | 一种基于相似帧比较的立体图像合成系统 |
CN105096311A (zh) * | 2014-07-01 | 2015-11-25 | 中国科学院科学传播研究中心 | 基于gpu的深度图修复和虚实场景结合技术 |
CN104780355B (zh) * | 2015-03-31 | 2017-01-04 | 浙江大学 | 一种视点合成中基于深度的空洞修复方法 |
CN104780355A (zh) * | 2015-03-31 | 2015-07-15 | 浙江大学 | 一种视点合成中基于深度的空洞修复方法 |
CN104835164A (zh) * | 2015-05-11 | 2015-08-12 | 京东方科技集团股份有限公司 | 一种双目摄像头深度图像的处理方法及装置 |
CN104835164B (zh) * | 2015-05-11 | 2017-07-28 | 京东方科技集团股份有限公司 | 一种双目摄像头深度图像的处理方法及装置 |
US9811921B2 (en) | 2015-05-11 | 2017-11-07 | Boe Technology Group Co., Ltd. | Apparatus and method for processing a depth image |
CN105574908A (zh) * | 2015-12-15 | 2016-05-11 | 中国地质大学(武汉) | 基于随机算子发生器的槽状交错层理花纹自动填充方法 |
CN105894503A (zh) * | 2016-03-30 | 2016-08-24 | 江苏大学 | 一种对Kinect植株彩色和深度检测图像的修复方法 |
CN105894503B (zh) * | 2016-03-30 | 2019-10-01 | 江苏大学 | 一种对Kinect植株彩色和深度检测图像的修复方法 |
CN106651871A (zh) * | 2016-11-18 | 2017-05-10 | 华东师范大学 | 一种深度图像空洞的自动填充方法 |
CN106651871B (zh) * | 2016-11-18 | 2019-12-17 | 华东师范大学 | 一种深度图像空洞的自动填充方法 |
CN110992271A (zh) * | 2020-03-04 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、路径规划方法、装置、设备及存储介质 |
CN110992271B (zh) * | 2020-03-04 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、路径规划方法、装置、设备及存储介质 |
CN113935914A (zh) * | 2021-10-08 | 2022-01-14 | 北京的卢深视科技有限公司 | 深度图像修复方法、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103136775A (zh) | 基于局部约束重建的kinect深度图空洞填充方法 | |
CA2826534C (en) | Backfilling points in a point cloud | |
CN108537871B (zh) | 信息处理设备和信息处理方法 | |
CN105654492A (zh) | 基于消费级摄像头的鲁棒实时三维重建方法 | |
EP2595116A1 (en) | Method for generating depth maps for converting moving 2d images to 3d | |
CN104574432B (zh) | 一种自动多视角人脸自拍图像的三维人脸重建方法及系统 | |
CN103455984A (zh) | 一种Kinect深度图像获取方法与装置 | |
CN104077808A (zh) | 一种用于计算机图形图像处理的、基于深度信息的实时三维人脸建模方法 | |
CN106341676B (zh) | 基于超像素的深度图像预处理和深度空洞填充方法 | |
CN105787932B (zh) | 基于分割交叉树的立体匹配方法 | |
CN103559737A (zh) | 一种对象全景建模方法 | |
CN103310420B (zh) | 基于纹理与几何相似性的彩色图像空洞修复方法及系统 | |
CN104517317A (zh) | 一种车载红外图像三维重建方法 | |
CN103325120A (zh) | 一种快速自适应支持权值双目视觉立体匹配方法 | |
Zha et al. | A real-time global stereo-matching on FPGA | |
CN105865462A (zh) | 带有深度增强视觉传感器的基于事件的三维slam方法 | |
CN109410266A (zh) | 基于四模Census变换和离散视差搜索的立体匹配算法 | |
CN103414853A (zh) | 支持多自由度运动的视频图像序列实时稳定装置与方法 | |
CN104715504A (zh) | 一种鲁棒的大场景稠密三维重建方法 | |
CN101702781A (zh) | 基于光流法的2d转3d方法 | |
CN106251395A (zh) | 一种三维模型快速重建方法及系统 | |
CN103458261A (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
Ibrahim et al. | Depth map artefacts reduction: A review | |
CN103384343A (zh) | 一种填补图像空洞的方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130605 |