CN111145094A - 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法 - Google Patents

一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法 Download PDF

Info

Publication number
CN111145094A
CN111145094A CN201911361920.5A CN201911361920A CN111145094A CN 111145094 A CN111145094 A CN 111145094A CN 201911361920 A CN201911361920 A CN 201911361920A CN 111145094 A CN111145094 A CN 111145094A
Authority
CN
China
Prior art keywords
pixel
depth
image
graph
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911361920.5A
Other languages
English (en)
Inventor
王瑾
孙龙华
朱青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201911361920.5A priority Critical patent/CN111145094A/zh
Publication of CN111145094A publication Critical patent/CN111145094A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明属于图像处理领域,尤其涉及一种表面法向引导与图拉普拉斯先验约束的深度图像超分辨率(SR)重建方法。用于有效改善现有技术在深度图像重建过程中存在的边界伪影的问题。本发明将三维场景中物体表面法向与物体到相机距离之间的几何关系做为深度图的重建约束,融合进深度图的重建模型中。在这个模型中,法向图提供空间几何约束,图拉普拉斯矩阵提供分段平滑约束,通过求解这个优化模型得到最优重建高分辨率深度图。

Description

一种基于表面法向引导与图拉普拉斯先验约束的深度图增强 方法
技术领域
本发明属于图像处理领域,尤其涉及一种表面法向引导与图拉普拉斯先验约束的深度图像超分辨率(SR)重建方法。
背景技术
受硬件和传感技术的限制,通过传感器捕获的深度图像,相比于同一场景由彩色相机捕获的彩色图像,通常具有分辨率低,含有噪声、空洞等缺点。令x和y分别表示潜在的高质量深度图和由传感器捕获的低质量深度图,我们可以认为低质量深度图是高质量深度图的退化版本,退化模型为:
y=Hx+n (1)
其中,H表示模糊和降采样矩阵,n表示噪声。由y重建x是一个不适定的逆问题,需要增加额外的先验信息和正则项使其更加适定。先验信息和正则项的选择在深度图重建过程中起到了至关重要的作用。传统的深度SR方法侧重于融合多个低分辨率(LR)深度图以获得高分辨率(HR)深度图像。Sebastian Schuon,Christian Theobalt,James Davis,andSebastian Thrun.2009.Lidarboost:Depth superresolution for tof 3d shapescanning.In 2009IEEE Conference on Computer Vision and PatternRecognition.IEEE,343–350.将用不同摄像机中心拍摄的多个低分辨率深度图结合到一个融合TOF传感器特性的优化框架中。AN Rajagopalan,Arnav Bhavsar,Frank Wallhoff,andGerhard Rigoll.2008.Resolution enhancement of pmd range maps.In Joint PatternRecognition Symposium.Springer,304–313.通过将原始高分辨率图像(HR)值域范围建模为马尔可夫随机场(MRF),提出了一种融合多个低分辨率深度图像的贝叶斯框架。这些方法都是基于场景是静态的假设。此外,David Ferstl,Christian Reinbacher,Rene Ranftl,Matthias Rüther,and Horst Bischof.2013.Image guided depth upsampling usinganisotropic total generalized variation.In Proceedings of the IEEEInternational Conferenceon Computer Vision.993–1000.提出了一种基于各向异性全广义变分(TGV)的深度上采样模型,将深度上采样定义为一个使用高阶正则化项的凸优化问题。Yu Li,Dongbo Min,Minh N Do,and Jiangbo Lu.2016.Fast guided globalinterpolation for depth and motion.In European Conference on ComputerVision.Springer,717–733.提出在具有交替指导的加权最小二乘上执行快速指导内插(FGI)方法。
另一个研究方向是融合捕获的彩色信息和深度信息进行深度图的重建。JaesikPark,Hyeongwoo Kim,Yu-Wing Tai,Michael S Brown,and In So Kweon.2014.High-quality depth map upsampling and completion for RGB-D cameras.IEEETransactions on Image Processing 23,12(2014),5559–5572.提出彩色引导深度SR方法通过利用深度图与其相关彩色图像之间的结构相关性来提高恢复深度的准确性,从而获得了很好的性能。Yan jie Li,Tian fan Xue,Li feng Sun,and Jian zhuangLiu.2012.Joint example-based depth map super-resolution.In 2012IEEEInternational Conference on Multimedia and Expo.IEEE,152–157.提出了一种基于联合实例的方法,将彩色图像作为获得更多重建细节的参考。Jingyu Yang,Xinchen Ye,KunLi,Chunping Hou,and Yao Wang.2014.Color-guided depth recovery from RGB-D datausing an adaptive autoregressive model.IEEE transactions on imageprocessing23,8(2014),3443–3458.提出了一种基于采用自回归(AR)模型,在彩色项中添加双边滤波来保持局部图像结构的形状信息。WeiLiu,XiaogangChen,JieYang,andQiangWu.2016.Robust color guided depth map restoration.IEEE Transactionson Image Processing 26,1(2016),315–327.提出一个采用一种鲁棒的惩罚函数,用于构建彩色平滑项引导深度图恢复的模型。Weisheng Dong,Guangming Shi,Xin Li,KefanPeng,Jinjian Wu,and Zhenhua Guo.2016.Color-guided depth recovery via jointlocal structural and nonlocal low-rank regularization.IEEE Transactions onMultimedia 19,2(2016),293–301.提出了一种深度恢复优化方案,以彩色图像引导下的AR模型、全变分(TV)模型和低秩模型(LN)为指导。这些方法取得了明显的效果,证明彩色图像在地图重建中具有有效的指导作用。特别是当上采样倍数较大时,彩色图像纹理对重建的指导作用要大于对LR深度的深度不连续结构。然而,彩色导引图和深度图之间的纹理不一致,仍然会导致沿边界的许多错误重建结果。为了解决这个问题,Xiaoyong Shen,ChaoZhou,Li Xu,and Jiaya Jia.2015.Mutual-structure for joint filtering.InProceedings of the IEEE International Conference on Computer Vision.3406–3414.提出了目标图像和参考图像中的共同结构共同信息的概念。然而,忽略了目标图像本身的统计先验,因此具有有限的恢复性能。
发明内容
本发明解决的问题是:克服现有RGB-D深度图重建方法存在的不足,能有效改善现有技术在深度图像重建过程中存在的边界伪影的现象。提供一种表面法向引导与图拉普拉斯先验约束的深度图像增强方法。
为实现上述目的,本发明采用如下的技术方案:
一种表面法向引导与图拉普拉斯先验约束的深度图增强方法,包括以下步骤:
步骤1、使用现有法向估计方法由彩图获得相应三维场景的表面法向图N;
步骤2、将低分辨率图像Y通过插值的方法初始化为X0,大小为目标分辨率大小;设置相关参数;
步骤3、对深度图X0由二维空间坐标系转换为三维空间坐标系;
步骤4、对于初始图像X0,按照从上到下、从左到右的方式依次重叠地提取图像块
Figure BDA0002337380380000031
的大小为m×m,m可取5,8,10等常见图像块大小,但不宜过大;
步骤5、对于每个图像块
Figure BDA0002337380380000032
计算法向-深度估计算子Ks
步骤6、对于每个图像块
Figure BDA0002337380380000033
计算图拉普拉斯矩阵Lr
步骤7、对于每个图像块
Figure BDA0002337380380000034
使用共轭梯度(CG)方法迭代求解以下最小化问题得到重建后的高分辨率(HR)图像块xi
Figure BDA0002337380380000041
步骤8、将有重叠区域的图像块放置到原图对应位置,重叠区域的像素值按照重叠次数取平均值,得到最终高分辨率(HR)图像X。
每个步骤的具体操作如下:
步骤一的具体操作:使用文献Yinda Zhang and Thomas Funkhouser.2018.Deepdepth completion of a single rgb-d image.In Proceedings of the IEEEConference on Computer Vision and Pattern Recognition.175–185.所提供的基于深度学习的法向估计方法由彩图获得相应三维场景的表面法向图N,其中像素点i的法向量表示为ni=[nix,niy,niz];
1.步骤二的具体操作:低分辨率的深度图使用Bicubic插值方法初始化为目标分辨率大小,设置相关参数:迭代次数K(可根据不同图像自行设定)以及模型相关参数包括:邻域控制参数(α≥0.95,β≤m(图像块的大小)),模型平衡参数λ>0,γ>0,η>0,权重控制参数(σi>0,i=1,...,4)。
步骤三的具体操作:通过如下小孔成像模型将深度图像素坐标(ui,vi)由2维坐标系转换到3维空间坐标系(xi,yi,zi),其中zi为3维场景物体到相机的深度值;
Figure BDA0002337380380000042
其中,cx,cy,fx,fy为相机内部参数,由相机获得。
步骤四及步骤五的具体操作:对图像按照从上到下、从左到右的方式依次重叠地提取图像块xi,xi的大小为m×m;对每一个图像块计算其法向-深度(NTD)估计算子,具体操作为:
(1)确定目标像素所在切平面Pi。对目标像素i,根据其3维空间坐标(xi,yi,zi)及其空间法向量[nix,niy,niz]可得到他所在的空间切平面为:
nix(x-xi)+niy(y-yi)+niz(z-zi)=0; (3)
(2)为每个目标像素寻找邻域像素,
Figure BDA0002337380380000043
其中,β控制沿x-y方向邻域大小,α排除空间不共面的点。
(3)由邻域内像素j对目标像素i的深度做估计。邻域像素j的深度值是正确的,由像素j对目标像素i的估计记为z'ji,
Figure BDA0002337380380000051
(5)对所有像素i的深度估计值进行加权平均作为像素i的深度值:
Figure BDA0002337380380000052
其中K是核函数,对邻域中像素j对目标像素i的估计值进行加权,
Figure BDA0002337380380000053
为归一化参数:
Figure BDA0002337380380000054
其中,
Figure BDA0002337380380000055
衡量像素i和像素j之间的几何距离,p∈{x,y,z}表示三维空间坐标的三个轴方向,nip表示像素i的法向ni分别在p∈{x,y,z}方向上的分量,
Figure BDA0002337380380000056
衡量像素i和像素j的空间共面程度。σ1,σ2控制权重对几何距离和共面距离的敏感度,该参数设置越大,表示权重对几何距离和共面距离的敏感程度越大。
(6)定义法向-深度(NTD)估计算子
令xi代表向量形式的低分辨率深度图像块,
Figure BDA0002337380380000057
代表向量形式的估计得到的高分辨率深度图像块。令
Figure BDA0002337380380000058
j∈Mi,则KQ是图像块xi的估计矩阵,KQ的第i行为向量形式的
Figure BDA0002337380380000059
j∈Mi,代表了像素i的邻域像素j对i的估计权重,则有
Figure BDA00023373803800000510
Figure BDA00023373803800000511
为归一化后的估计矩阵。
步骤六的具体操作:对于第i个图像块xi可被定义为一个加权无向图G(V,E,W)上的函数f,其中V是顶点集,E是边的集合,W是正定权重矩阵,W(i,j)=W(j,i)。W(i,j)是链接顶点Vi和Vj的边的权重。
1)定义度矩阵D(对角阵)
Figure BDA0002337380380000061
度矩阵D的第i个对角元素是权重矩阵W第i行所有元素之和。两顶点之间权重可由下式得到:
Figure BDA0002337380380000062
2)定义图拉普拉斯矩阵
L=D-W (11)
3)归一化图拉普拉斯矩阵
Lr=D-1/2LD-1/2 (12)
步骤七的具体操作:联合法向-深度(NTD)估计算子和图拉普拉斯先验(GLR)构造如下优化模型:
Figure BDA0002337380380000063
其中yi是低分辨率图像,xi是待求解的高分辨率图像,Ks是归一化的法相-深度(NTD)估计算子,Lr是归一化的图拉普拉斯矩阵。为了方便迭代运算,对上式进行改进:
Figure BDA0002337380380000064
每次迭代优化得到的
Figure BDA0002337380380000065
都将作为下一次迭代的
Figure BDA0002337380380000066
当达到预设迭代次数,迭代结束,得到的
Figure BDA0002337380380000067
即为待重建的xi,且上式可由共轭梯度(CG)进行求解。
有益效果
基于深度图像素深度与表面法向之间空间几何关系,本发明提出法向-深度(NTD)空间约束,同时,应用图信号重建中有效恢复分段平滑信号的图拉普拉斯正则辅助深度图的重建。结合两部分约束构建了深度图超分辨率重建模型。本发明有效的改善了现有技术在深度图像重建过程中存在的边界伪影的现象。
附图说明
图1表面法向几何约束与图拉普拉斯约束联合重建框架
图2三维场景表面法向与物体深度之间几何关系
图3本发明表面法向引导与图拉普拉斯约束的深度图增强方法8倍采样率下重建主观结果对比结果图;(a)由上至下分别为深度图、彩图、法向图(b)Groundtruth(c)ours(d)RCG(e)MSJF(f)LN(g)FGI(h)TGV;
具体实施方式
本发明提供一种表面法向引导与图拉普拉斯先验约束的深度图增强方法,将三维场景中物体表面法向与物体到相机距离之间的几何关系做为深度图的重建约束,融合进深度图的重建模型中。在这个模型中,法向图提供空间几何约束,图拉普拉斯矩阵提供分段平滑约束,通过求解这个优化模型得到最优重建高分辨率深度图。
问题描述:
y表示退化后的低分辨率深度图图像块,x是要重建的高分辨率深度图,通过低分辨率图像y恢复得到高分辨率图像x,是一个NP-hard问题。需要增加额外的先验信息和正则项使其更加适定。如何选择更有效的正则项使得重建误差更小是要解决的问题。
本发明的技术解决方案是:
通过物体表面法向与深度的几何先验信息和局部图拉普拉斯先验作为约束项构造一个优化模型,通过迭代求解该优化模型,得到误差更小的重建结果。为了能够更清楚地描述本发明的技术内容,下面结合具体实例来进一步的描述:
本发明的框架图如图1,具体实施过程分为两个阶段,约束条件准备阶段和联合约束重建阶段。本发明表面法向引导与图拉普拉斯先验约束的深度图增强方法包含两部分约束条件:1)法向-深度(NTD)估计算子构造的空间几何约束;2)图拉普拉斯矩阵构造的图拉普拉斯正则约束项(GLR)。
约束条件准备阶段:
一、法向-深度(NTD)估计算子的设计方法,包括以下步骤:
如图二所示,三维场景中物体到相机的距离(即深度图中像素深度)与物体表面的法向存在一定的几何关系。深度图中每个点的像素值表征该点到相机的距离,对应法向图中像素值表征该点所在空间切平面的法向量。在深度图平滑区域,相邻像素点的法向信息不会变化很大,而在深度不连续区域,每个像素点的法向信息将发生剧烈变化。由此,我们可以认为由相似法向量决定的空间切平面对像素的深度值起到空间约束作用。因此我们构造了如下法向-深度估计算子。
(1)坐标转换,通过如下小孔成像模型将深度图像素坐标(ui,vi)由2维坐标系转换到3维空间坐标系(xi,yi,zi),其中zi为3维场景物体到相机的深度值;
xi=(ui-cx)*zi/fx
yi=(vi-cy)*zi/fy
其中,cx,cy为主点坐标,fx,fy为x-y方向的焦距。
(2)确定目标像素所在切平面Pi。对目标像素i,根据其3维空间坐标极其空间法向量可得到他所在的空间切平面为:
nix(x-xi)+niy(y-yi)+niz(z-zi)=0;
(3)为每个目标像素寻找邻域内像素,
Figure BDA0002337380380000081
其中,β控制沿x-y方向邻域大小,α排除空间不共面的点。
(4)由邻域内像素j对目标像素i的深度做估计。假设邻域像素j的深度值是正确的,由像素j对目标像素i的估计记为z'ji,
Figure BDA0002337380380000082
对所有像素i的估计值进行加权平均作为像素i的深度值:
Figure BDA0002337380380000083
其中K是核函数,对邻域中各像素对目标像素的估计进行加权,Sk为归一化参数:
Figure BDA0002337380380000091
其中,
Figure BDA0002337380380000092
衡量像素i和像素j之间的几何距离,
Figure BDA0002337380380000093
衡量像素i和像素j的空间共面程度。σ1,σ2控制权重对几何距离和共面距离的敏感度。
(6)定义法向-深度(NTD)估计算子
令xi代表向量形式的低分辨率深度图像块,
Figure BDA0002337380380000094
代表向量形式的估计得到的高分辨率深度图像块。令
Figure BDA0002337380380000095
j∈Mi,则KQ是图像块xi的估计矩阵,KQ的第i行为向量形式的
Figure BDA0002337380380000096
j∈Mi,代表了像素i的邻域像素j对i的估计权重,则有
Figure BDA0002337380380000097
Figure BDA0002337380380000098
为归一化后的估计矩阵。
二、构造图拉普拉斯正则项(GLR),具体步骤为:
第i个图像块xi可被定义为一个加权无向图G(V,E,W)上的函数f,其中V是顶点集,E是边的集合,W是正定权重矩阵,W(i,j)=W(j,i)。W(i,j)是链接顶点Vi和Vj的边的权重。
1)定义度矩阵D
Figure BDA0002337380380000099
度矩阵D的第i个对角元素是权重矩阵W第i行所有元素之和。两顶点之间权重可由下式得到:
Figure BDA00023373803800000910
Figure BDA00023373803800000911
衡量顶点Vi和Vj之间的几何距离,
Figure BDA00023373803800000912
衡量两点的光度距离,σ3,σ4控制权重对几何距离和光度距离的敏感性。
2)定义图拉普拉斯矩阵
L=D-W
3)归一化图拉普拉斯矩阵
Lr=D-1/2LD-1/2
4)定义图拉普拉斯正则项
Figure BDA0002337380380000101
其中,
Figure BDA0002337380380000102
则当xi的相邻像素之间有相似像素值或两像素间边的权重W(i,j)足够小时,
Figure BDA0002337380380000103
就越小,通过最小化
Figure BDA0002337380380000104
能够起到沿局部结构平滑图像块xi的作用。
联合约束重建阶段
联合法向估计深度(NTD)算子和图拉普拉斯先验(GLR)构造如下优化模型:
Figure BDA0002337380380000105
其中yi是低分辨率图像,xi是高分辨率图像,Ks是归一化的法相估计深度(NTD)算子,Lr是归一化的图拉普拉斯矩阵,λ,γ,η是平衡参数。为了方便迭代运算,对上式进行改进:
Figure BDA0002337380380000106
每次迭代优化得到的
Figure BDA0002337380380000107
都将作为下一次迭代的
Figure BDA0002337380380000108
最终迭代结束后得到的
Figure BDA0002337380380000109
即为待重建的xi,且上式可由共轭梯度(CG)进行求解。算法:深度图超分辨率(SR)重建
输入:双三次插值得到的初始图像X0,法向图N
输出:重建高分辨率深度图X
初始化参数:K,α>0.95,β=m(图像块大小),λ>0,γ>0,σi>0,i=1,...,4;
步骤一:使用(2)式对深度图x0进行坐标系统转换
对每一个图像块进
Figure BDA00023373803800001010
行如下操作:
当迭代次数k<K次时,进入循环:
步骤二:用(6)(8)式计算当前图像块的法向深度估计(NTD)算子;
步骤三:用(11)(12)式计算当前图像块的图拉普拉斯矩阵;
步骤四:通过求解(14)式得到高分辨率图像块;
步骤五:将高分辨率图像块
Figure BDA0002337380380000111
赋值给
Figure BDA0002337380380000112
进行下一次迭代;
当k≥K,结束循环。
当遍历完所有图像块,通过结合所有重建的深度图像块得到高分辨率图。
实施例1:
基于上述法向引导的图拉普拉斯约束的图像超分辨率重建方法
(1)将低分辨率图像Y通过Bicubic插值方法,初始化为目标大小的高分辨率深度图像X0
(2)将图像X0按照从上到下、从左到右的方式依次重叠地提取图像块
Figure BDA0002337380380000113
的大小为m×m;m的大小优选取10;步长优选取1;
(3)对于每个图像块
Figure BDA0002337380380000114
进行如下k次迭代优化:
首先,计算每个图像块的法向深度估计算子Ks
其次,计算每个图像块的图拉普拉斯矩阵Lr
通过优化下式得到优化后的图像块,并赋值给图像块
Figure BDA0002337380380000115
Figure BDA0002337380380000116
(4)所有重建得到图像块xi组合为重建后高分辨率深度图X;
总结
本发明在数据集Middlebury2014下进行了实验,实验证明,本发明能够取得良好的效果,图3和表1分别展示了本发明与现有主流方法在8倍采样率下主观和客观结果的对比。对比主流算法有:
RCG(WeiLiu,XiaogangChen,JieYang,andQiangWu.2016.Robust color guideddepth map restoration.IEEE Transactions on Image Processing 26,1(2016),315–327.)、MSJF(Xiaoyong Shen,Chao Zhou,Li Xu,and Jiaya Jia.2015.Mutual-structurefor joint filtering.In Proceedings of the IEEE International Conference onComputer Vision.3406–3414.)、LN(Weisheng Dong,Guangming Shi,Xin Li,Kefan Peng,Jinjian Wu,and Zhenhua Guo.2016.Color-guided depth recovery via joint localstructural and nonlocal low-rank regularization.IEEE Transactions onMultimedia 19,2(2016),293–301.)、FGI(Yu Li,Dongbo Min,Minh N Do,and JiangboLu.2016.Fast guided global interpolation for depth and motion.In EuropeanConference on Computer Vision.Springer,717–733.)、TGV(David Ferstl,ChristianReinbacher,Rene Ranftl,Matthias Rüther,and Horst Bischof.2013.Image guideddepth upsampling using anisotropic total generalized variation.In Proceedingsof the IEEE International Conference on Computer Vision.993–1000.)
为了证明两部分约束的有效性,本发明同样进行了消融实验,表2展示了当仅有NTD约束或仅有GLR约束以及联合约束重建时客观重建对比结果。实验结果证明了本发明中法向-深度估计约束的有效性,同时证明了联合两部分约束的重建方法取得更优的结果。
表1本发明表面法向引导与图拉普拉斯约束的深度图增强方法8倍采样率下重建RMSE标对比结果图
image TGV FGI RCG LN MSJF ours
Jadeplant 16.49 13.71 14.20 15.60 14.71 11.03
Adiroback 2.50 2.67 2.25 3.22 3.01 2.54
ArtL 7.15 5.19 4.87 5.81 5.60 4.27
Teddy 1.50 1.83 1.69 1.81 1.63 1.17
Recycle 2.08 2.02 1.85 2.15 1.89 1.52
Playroom 4.72 4.28 4.07 4.72 3.89 3.11
Playtable 2.53 2.79 2.15 2.85 2.27 2.11
Motorcycle 5.43 5.08 4.38 5.47 4.63 3.93
Pipes 7.68 6.05 7.70 7.01 8.18 4.87
Shelves 2.06 2.41 2.01 2.13 1.77 1.42
Vintage 3.81 2.19 1.98 2.07 1.62 1.37
Piano 2.38 2.52 2.06 1.85 2.01 1.30
表2本发明法向估计深度(NTD)与图拉普拉斯先验(GLR)两约束消融实验RMSE指标对比结果
Figure BDA0002337380380000131

Claims (8)

1.一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,基于对同一对象由彩色相机捕获的彩色图像和由传感器捕获的低分辨率深度图Y,其特征在于包括以下步骤:
步骤1、使用现有法向估计方法从彩色图像中获得相应三维场景的表面法向图N;
步骤2、将低分辨率深度图像Y通过插值的方法初始化为X0,大小为目标分辨率大小;设置相关参数;
步骤3、对深度图X0由二维空间坐标系转换为三维空间坐标系;
步骤4、对于初始图像X0,按照从上到下、从左到右的方式依次重叠地提取图像块
Figure FDA0002337380370000011
的大小为m×m;
步骤5、对于每个图像块
Figure FDA0002337380370000012
计算法向-深度估计算子Ks
步骤6、对于每个图像块
Figure FDA0002337380370000013
计算图拉普拉斯矩阵Lr
步骤7、对于每个图像块
Figure FDA0002337380370000014
使用共轭梯度(CG)方法迭代求解以下最小化问题得到
Figure FDA0002337380370000015
即为重建后的高分辨率(HR)图像块xi
Figure FDA0002337380370000016
步骤8、将有重叠区域的图像块放置到原图对应位置,重叠区域的像素值按照重叠次数取平均值,得到最终高分辨率(HR)图像X。
2.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于步骤一的具体操作为:使用文献Yinda Zhang and ThomasFunkhouser.2018.Deep depth completion of a single rgb-d image.In Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition.175–185.所提供的基于深度学习的法向估计方法由彩图获得相应三维场景的表面法向图N,其中像素点i的法向量表示为ni=[nix,niy,niz]。
3.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于步骤二的具体操作:低分辨率的深度图使用Bicubic插值方法初始化为目标分辨率大小,相关参数包括:迭代次数K,可根据不同图像自行设定,以及模型相关参数包括:邻域控制参数α≥0.95,β≤m,m为图像块大小,模型平衡参数λ>0,γ>0,η>0,权重控制参数σi>0,i=1,...,4。
4.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于步骤三的具体操作:通过如下小孔成像模型将深度图像素坐标(ui,vi)由2维坐标系转换到3维空间坐标系(xi,yi,zi),其中zi为3维场景物体到相机的深度值;
xi=(ui-cx)*zi/fx
yi=(vi-cy)*zi/fy
其中,cx,cy,fx,fy为相机内部参数,由相机获得。
5.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于步骤五的具体操作:
(1)对于图像块中的任一像素i,确定像素所在切平面Pi,根据其3维空间坐标(xi,yi,zi)及其空间法向量ni=[nix,niy,niz]T可得到像素i所在的空间切平面为:
nix(x-xi)+niy(y-yi)+niz(z-zi)=0,
(x,y,z)为切平面上的点;
(2)为每个像素寻找邻域像素,其中像素i的邻域像素集合Mi表示如下:
Figure FDA0002337380370000021
其中,β用于控制沿x-y方向邻域大小,α用于排除空间不共面的点;
(3)由邻域内像素j对目标像素i的深度做估计,已知邻域像素j的深度值,由像素j对目标像素i的估计记为z'ji,
Figure FDA0002337380370000022
并得到
Figure FDA0002337380370000023
(5)对所有像素i的估计值进行加权平均作为像素i的最终深度值:
Figure FDA0002337380370000031
其中K是核函数,用于对邻域中像素j对目标像素i的估计值进行加权,
Figure FDA0002337380370000032
为归一化参数:
Figure FDA0002337380370000033
其中,
Figure FDA0002337380370000034
衡量像素i和像素j之间的几何距离,p∈{x,y,z}表示三维空间坐标的三个轴方向,nip表示像素i的法向ni分别在p∈{x,y,z}方向上的分量,
Figure FDA0002337380370000035
衡量像素i和像素j的空间共面程度,σ1,σ2控制权重对几何距离和共面距离的敏感度,该参数设置越大,表示权重对几何距离和共面距离的敏感程度越大;
(6)定义法向-深度(NTD)估计算子
令xi代表向量形式的低分辨率深度图像块,
Figure FDA0002337380370000036
代表向量形式的估计得到的高分辨率深度图像块,令
Figure FDA0002337380370000037
j∈Mi,则KQ是图像块xi的估计矩阵,KQ的第i行为向量形式的
Figure FDA0002337380370000038
j∈Mi,代表了像素i的邻域像素j对i的估计权重,则有
Figure FDA0002337380370000039
Figure FDA00023373803700000310
为归一化后的估计矩阵。
6.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于步骤六的具体操作:对于第i个图像块xi可被定义为一个加权无向图G(V,E,W)上的函数f,其中V是顶点集,E是边的集合,W是正定权重矩阵,W(i,j)=W(j,i),W(i,j)是链接顶点Vi和Vj的边的权重;
1)定义度矩阵D(对角阵)
Figure FDA00023373803700000311
度矩阵D的第i个对角元素是权重矩阵W第i行所有元素之和,两顶点之间权重可由下式得到:
Figure FDA0002337380370000041
其中,f(i)表示像素i的像素值;
2)定义图拉普拉斯矩阵
L=D-W
3)归一化图拉普拉斯矩阵
Lr=D-1/2LD-1/2
7.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于步骤七的具体操作:联合法向-深度(NTD)估计算子和图拉普拉斯先验(GLR)构造如下优化模型:
Figure FDA0002337380370000042
其中yi是低分辨率图像,xi是待重建高分辨率图像,Ks是归一化的法相-深度(NTD)估计算子,Lr是归一化的图拉普拉斯矩阵,λ,γ,η为平衡参数,为了方便迭代运算,对上式进行改进:
Figure FDA0002337380370000043
每次迭代优化得到的
Figure FDA0002337380370000044
都将作为下一次迭代的
Figure FDA0002337380370000045
当达到预设迭代次数,迭代结束,得到的
Figure FDA0002337380370000046
即为待重建的xi,且上式可由共轭梯度(CG)进行求解。
8.根据权利要求1所述的一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法,其特征在于:步骤4中所述m可取5,8,10常见图像块大小,但不宜过大。
CN201911361920.5A 2019-12-26 2019-12-26 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法 Pending CN111145094A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911361920.5A CN111145094A (zh) 2019-12-26 2019-12-26 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911361920.5A CN111145094A (zh) 2019-12-26 2019-12-26 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法

Publications (1)

Publication Number Publication Date
CN111145094A true CN111145094A (zh) 2020-05-12

Family

ID=70520367

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911361920.5A Pending CN111145094A (zh) 2019-12-26 2019-12-26 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法

Country Status (1)

Country Link
CN (1) CN111145094A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066016A (zh) * 2021-02-18 2021-07-02 北京大学 一种基于图信号处理的三维动态点云修复方法
CN113096033A (zh) * 2021-03-22 2021-07-09 北京工业大学 基于Retinex模型自适应结构的低光照图像增强方法
CN113126944A (zh) * 2021-05-17 2021-07-16 北京的卢深视科技有限公司 深度图的显示方法、显示装置、电子设备及存储介质
CN113269689A (zh) * 2021-05-25 2021-08-17 西安交通大学 一种基于法向量和高斯权重约束的深度图像补全方法及系统
CN114066764A (zh) * 2021-11-23 2022-02-18 电子科技大学 基于距离加权色偏估计的沙尘退化图像增强方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296706A (zh) * 2016-08-17 2017-01-04 大连理工大学 一种联合全局建模和非局部滤波的深度计算重建方法
CN109903372A (zh) * 2019-01-28 2019-06-18 中国科学院自动化研究所 深度图超分辨率补全方法及高质量三维重建方法与系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296706A (zh) * 2016-08-17 2017-01-04 大连理工大学 一种联合全局建模和非局部滤波的深度计算重建方法
CN109903372A (zh) * 2019-01-28 2019-06-18 中国科学院自动化研究所 深度图超分辨率补全方法及高质量三维重建方法与系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LONGHUA SUN ET AL.: "Surface Normal Data Guided Depth Recovery with Graph" *
SAEED ANWAR ET AL.: "Densely Residual Laplacian Super-Resolution" *
XIBIN SONG ET AL.: "Deep Depth Super-Resolution: Learning Depth Super-Resolution Using Deep Convolutional Neural Network" *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066016A (zh) * 2021-02-18 2021-07-02 北京大学 一种基于图信号处理的三维动态点云修复方法
CN113066016B (zh) * 2021-02-18 2022-08-05 北京大学 一种基于图信号处理的三维动态点云修复方法
CN113096033A (zh) * 2021-03-22 2021-07-09 北京工业大学 基于Retinex模型自适应结构的低光照图像增强方法
CN113096033B (zh) * 2021-03-22 2024-05-28 北京工业大学 基于Retinex模型自适应结构的低光照图像增强方法
CN113126944A (zh) * 2021-05-17 2021-07-16 北京的卢深视科技有限公司 深度图的显示方法、显示装置、电子设备及存储介质
CN113269689A (zh) * 2021-05-25 2021-08-17 西安交通大学 一种基于法向量和高斯权重约束的深度图像补全方法及系统
CN113269689B (zh) * 2021-05-25 2023-08-29 西安交通大学 一种基于法向量和高斯权重约束的深度图像补全方法及系统
CN114066764A (zh) * 2021-11-23 2022-02-18 电子科技大学 基于距离加权色偏估计的沙尘退化图像增强方法及装置

Similar Documents

Publication Publication Date Title
CN111145094A (zh) 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法
Cornillere et al. Blind image super-resolution with spatially variant degradations
US9692939B2 (en) Device, system, and method of blind deblurring and blind super-resolution utilizing internal patch recurrence
Li et al. Detail-preserving and content-aware variational multi-view stereo reconstruction
JP6085620B2 (ja) 超解像度処理のための方法、システム及び装置
US8917948B2 (en) High-quality denoising of an image sequence
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
WO2022222077A1 (zh) 基于反射分解的室内场景虚拟漫游方法
CN108564620B (zh) 一种针对光场阵列相机的场景深度估计方法
Lo et al. Joint trilateral filtering for depth map super-resolution
WO2017100971A1 (zh) 一种失焦模糊图像的去模糊方法和装置
CN110246161B (zh) 一种360度全景图像无缝拼接的方法
Pan et al. Depth map completion by jointly exploiting blurry color images and sparse depth maps
JP2009111921A (ja) 画像処理装置及び画像処理方法
Moorfield et al. Bilateral filtering of 3D point clouds for refined 3D roadside reconstructions
CN116805356A (zh) 建筑模型的构建方法、设备及计算机可读存储介质
Satapathy et al. Robust depth map inpainting using superpixels and non-local Gauss–Markov random field prior
Tseng et al. Depth image super-resolution via multi-frame registration and deep learning
CN111126418A (zh) 一种基于平面透视投影的倾斜影像匹配方法
Buades et al. Motion-compensated spatio-temporal filtering for multi-image and multimodal super-resolution
CN106920213B (zh) 一种高分辨率图像的获取方法及系统
CN111951295A (zh) 基于多项式拟合高精度确定飞行轨迹的方法、装置和电子设备
Li et al. Guided iterative back-projection scheme for single-image super-resolution
CN108399629B (zh) 一种人工复眼相机的图像阵列光流估计方法
Yang et al. Hierarchical joint bilateral filtering for depth post-processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200512