CN105354797B - 一种基于l1-l2罚函数的深度图超分辨率重建方法 - Google Patents

一种基于l1-l2罚函数的深度图超分辨率重建方法 Download PDF

Info

Publication number
CN105354797B
CN105354797B CN201510825906.1A CN201510825906A CN105354797B CN 105354797 B CN105354797 B CN 105354797B CN 201510825906 A CN201510825906 A CN 201510825906A CN 105354797 B CN105354797 B CN 105354797B
Authority
CN
China
Prior art keywords
depth
mrow
resolution
msup
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510825906.1A
Other languages
English (en)
Other versions
CN105354797A (zh
Inventor
袁红星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University of Technology
Original Assignee
Ningbo University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University of Technology filed Critical Ningbo University of Technology
Priority to CN201510825906.1A priority Critical patent/CN105354797B/zh
Publication of CN105354797A publication Critical patent/CN105354797A/zh
Application granted granted Critical
Publication of CN105354797B publication Critical patent/CN105354797B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于L1‑L2罚函数的深度图超分辨率重建方法,包括以下步骤:步骤一、初始估计深度的计算:将低分辨率的深度图映射到高分辨率彩色图像坐标平面;步骤二、掩模矩阵的计算:构造对角矩阵,若第i个像素点位于低分辨率深度图在高分辨率彩色图像的映射坐标之上,其第i个对角元素为1,否则为0;步骤三、近邻矩阵的计算:通过高分辨率彩色图像像素点之间在YCbCr空间上的颜色相似性构造近邻矩阵;步骤四、构造深度超分辨率重建模型:建立深度超分辨率重建的能量模型;步骤五、求解能量模型,获得重建的高分辨率深度图。本发明的优点在于:能够在保持对象内部深度平滑过渡的同时,增强深度图的对象边缘。

Description

一种基于L1-L2罚函数的深度图超分辨率重建方法
技术领域
本发明涉及计算机视觉和图像处理领域,尤其指一种基于L1-L2罚函数的深度图超分辨率重建方法,用于立体视觉或深度传感器获取图像的超分辨率增强。
背景技术
机器人导航、机器人自主抓取、手势识别、碰撞检测、3D重建、工业自动化及虚拟现实都依赖于高分辨率的深度信息。虽然随着深度相机的广泛普及,我们可实时获得3D场景的深度;但受传感器的限制,这些相机仅能获取低分辨率的深度图。这一局限性限制了深度相机在上述场合应用的性能。为此,人们提出各种方法用于深度图的分辨率增强;深度图超分辨率重建是指不改变深度相机硬件的前提下,通过算法提高深度图分辨率和质量的技术。
当前广泛采用的方法是基于图像引导的技术,即假设高分辨率彩色图像的边缘对应着深度图的边缘,将深度图的坐标映射到高分辨率的彩色图像平面,然后根据坐标点之间颜色或亮度的相似性进行深度插值。现有方法存在的问题是难以保持深度图的对象边缘,而对象边缘包含了深度图的主要能量,决定了其后续应用的效果。
发明内容
本发明所要解决的技术问题是针对现有技术的现状,提供重建效果好,能够在保持对象内部深度平滑过渡的同时,增强深度图的对象边缘的一种基于L1-L2罚函数的深度图超分辨率重建方法。
本发明解决上述技术问题所采用的技术方案为:
一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:包括以下步骤:
步骤一、初始估计深度的计算:将低分辨率的深度图映射到高分辨率彩色图像坐标平面;
步骤二、掩模矩阵的计算:构造对角矩阵,若第i个像素点位于低分辨率深度图在高分辨率彩色图像的映射坐标之上,其第i个对角元素为1,否则该元素为0;
步骤三、近邻矩阵的计算:通过高分辨率彩色图像像素点之间在YCbCr空间上的颜色相似性构造近邻矩阵;
步骤四、构造深度超分辨率重建模型:建立深度超分辨率重建的能量模型,第一项为重建深度与初始深度之间的差异,即保真项,第二项为L1-L2罚函数正则项;
步骤五、能量模型求解:对于步骤四构造的能量模型,采用广义迭代重新加权最小二乘法予以求解,获得重建的高分辨率深度图。
为优化上述技术方案,采取的具体措施还包括:
上述的步骤一的初始估计深度的计算中,映射计算公式为:
B(sr,sc)=Y(r,c)
其中B为初始深度图的矩阵表示,Y为低分辨率深度图的矩阵表示,(r,c)表示空间坐标,s为分辨率增大倍数。
上述的步骤三的近邻矩阵的计算中,相似性计算公式为:
wa(i,j)=exp(-α||Ii-Ij||2-β||xi-xj||2)
其中wa(i,j)为近邻矩阵第i行第j列的元素;Ii和Ij分别表示高分辨率彩色图像上第i个像素点与第j个像素点归一化的YCbCr值;xi和xj分别表示第i个像素点与第j个像素点的空间坐标;α和β为参数,分别控制颜色差异与空间距离对近邻相似性度量的影响。
上述的步骤四的构造深度超分辨率重建模型中,能量模型定义为:
f(d)=(d-b)TM(d-b)+λ1TWa oWl1-l21
其中d为待重建的高分辨率深度图;b为步骤一中获取的初始深度图的列向量表示;Wa为步骤三获得的近邻矩阵;Wl1-l2为L1-L2罚函数形成的正则化矩阵;1表示所有元素均为1的列向量;o表示矩阵的Hadamard积;λ为常数,用于控制正则项对重建深度的影响程度。
上述的正则化矩阵的第i行第j列的元素的计算公式为:
其中di表示待重建深度列向量表示d的第i个元素,即第i个像素点的深度值。
上述的步骤五的能量模型求解,包括以下步骤:
步骤1)、初始化,为迭代变量分配初值;
步骤2)、为能量模型构造凸上界函数;
步骤3)、计算最小化凸上界函数的解作为当前迭代估计的高分辨率深度图;
步骤4)、更新迭代变量值,判断是否达到终止条件,若达到则退出,否则跳到步骤2)。
上述的凸上界函数的函数定义为:
其中dk表示第k次迭代获得的重建深度图;1表示所有元素均为1的列向量;Wa为近邻矩阵;表示第k次迭代中L1-L2罚函数形成的正则化矩阵;Lk为K×K的拉普拉斯矩阵。
上述的凸上界函数的求解计算公式为:
dk+1=(M+λLk)-1Mb。
上述的步骤4)中的终止条件为迭代次数达到5或相邻两次迭代解之间的绝对差小于设定的阈值。
与现有技术相比,本发明一种基于L1-L2罚函数的深度图超分辨率重建方法,其利用L1-L2罚函数正则化、高分辨率彩色图像引导的深度图超分辨率重建模型,可得到对象边缘保持的高质量深度图,不像传统深度超分辨率重建方法抑制深度图对象边缘,丢失深度图的不连续过渡。深度图与彩色图像相比,具有分段平滑的特点,其不连续过渡主要发生在对象边缘,这表明深度的对象边缘具有稀疏性。本发明采用非凸的L1-L2罚函数对重建深度进行正则化,有助于保持深度图这些稀疏的结构性信息,从而达到保持重建深度图对象边缘,并保证对象内部深度平滑过渡的目的。
附图说明
图1是本发明的流程图;
图2是本发明的具体实现过程图;
图3是本发明的L1-L2罚函数曲线图;
图4是本发明的迭代收敛图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
如图1至图4所示,
本发明一种基于L1-L2罚函数的深度图超分辨率重建方法,包括以下步骤:
步骤一、初始估计深度的计算:将低分辨率的深度图映射到高分辨率彩色图像坐标平面。假设输入的低分辨率深度图为Y,对应的高分辨率彩色图像为I,Y的大小为m×n,I的大小为M×N,其中这里s为分辨率扩大倍数。则其过程为:首先,将Y所在平面的坐标扩大s倍,如坐标点(r,c)映射为(sr,sc);其次,构造与高分辨率彩色图像大小相同的初始估计深度图B,其中B(sr,sc)=Y(r,c),这里B(r,c)和Y(r,c)分别表示B和Y在坐标点(r,c)处的深度值;最后,将大小为M×N的B转换成K×1向量表示形式b,即B(r,c)=b(r×N+c),其中K=M×N表示高分辨率彩色图像的像素点个数。
步骤二、掩模矩阵的计算:构造K×K的对角矩阵M,若第i个像素点位于低分辨率深度图在高分辨率彩色图像的映射坐标之上,其第i个对角元素为1,否则该元素为0;即第i个对角元素M(i,i)=1,若b(i)≠0;否则M(i,i)=0;这里b(i)表示向量b的第i个元素。
步骤三、近邻矩阵的计算:构造K×K的近邻矩阵Wa,其第i行第j列的元素wa(i,j)定义为wa(i,j)=exp(-α||Ii-Ij||2-β||xi-xj||2)。这里Ii表示彩色图像第i个像素点的YCbCr值;xi表示第i个像素点的空间坐标,即xi=[ri ci]T,i=ri×N+ci,其中ri和ci分别表示第i个像素点的纵坐标和横坐标。
步骤四、构造深度超分辨率重建模型:以L1-L2罚函数作为正则项建立深度图超分辨率重建的能量模型。该能量模型为:
f(d)=(d-b)TM(d-b)+λ1TWaoWl1-l21
上式中o为矩阵的Hadamard积;d表示待重建超分辨率深度图的向量表示;1为所有元素均为1的K×1列向量;Wa为步骤三构造的近邻矩阵;K×K的Wl1-l2表示L1-L2罚函数形成的正则化矩阵,其第i行第j列的元素wl1-l2(i,j)定义为这里di表示d的第i个元素。上述能量模型的第一项为保真项,使重建深度尽量逼近经低分辨率深度图放大获得的初始估计深度图;第二项为正则项,使重建深度保持深度图对象边缘对应的稀疏结构。常数λ用于平衡保真项和正则项对重建深度的影响。
步骤五、能量模型求解:对于步骤四构造的能量模型,采用广义迭代重新加权最小二乘法予以求解,通过能量函数的最小化获得重建的高分辨率深度图。具体过程如下所述:
步骤1)初始化。将迭代次数变量k设为0,为能量模型中的λ分配合适的值,将第0次迭代中重建深度图初始化为d0=b。
步骤2)构造能量模型的上界凸函数,即找到一个大于或等于步骤四能量模型f(d)的凸函数:
上式中dk表示第k次迭代获得的重建深度图;表示第k次迭代中L1-L2罚函数形成的正则化矩阵,其第i行第j列的元素定义为这里表示dk的第i个元素;Lk为K×K的拉普拉斯矩阵,其定义为这里Dk表示K×K的对角矩阵,其第i个对角元素定义为Ni表示第i个像素点的局部邻域。K×K矩阵第i行第j列的元素定义为f(d)≤g(d,dk)且当d=dk时取等号。
步骤3)将g(d,dk)对d求导并令其为0,得到
(M+λLk)d=Mb
步骤4)求解步骤3)获得的稀疏线性方程组,获得第k次迭代重建的深度图,即d=(M+λLk)-1Mb。
步骤5)将迭代变量设为k=k+1。如达到终止条件,退出;否则跳到步骤2)。
由于f(dk+1)≤g(dk+1,dk)≤g(dk,dk)=f(dk),因而上述过程可确保随着迭代,获得的解将逐步减小,即k趋近于无穷大时可获得最优解。实际应用中k达到5时上述过程即可达到收敛状态。
本发明的最佳实施例已被阐明,由本领域普通技术人员做出的各种变化或改型都不会脱离本发明的范围。

Claims (7)

1.一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:包括以下步骤:
步骤一、初始估计深度的计算:将低分辨率的深度图映射到高分辨率彩色图像坐标平面;
步骤二、掩模矩阵的计算:构造对角矩阵,若第i个像素点位于低分辨率深度图在高分辨率彩色图像的映射坐标之上,其第i个对角元素为1,否则该元素为0;
步骤三、近邻矩阵的计算:通过高分辨率彩色图像像素点之间在YCbCr空间上的颜色相似性构造近邻矩阵;近邻矩阵的计算中,相似性计算公式为:
wa(i,j)=exp(-α||Ii-Ij||2-β||xi-xj||2)
其中wa(i,j)为近邻矩阵第i行第j列的元素;Ii和Ij分别表示高分辨率彩色图像上第i个像素点与第j个像素点归一化的YCbCr值;xi和xj分别表示第i个像素点与第j个像素点的空间坐标;α和β为参数,分别控制颜色差异与空间距离对近邻相似性度量的影响;
步骤四、构造深度超分辨率重建模型:建立深度超分辨率重建的能量模型,第一项为重建深度与初始深度之间的差异,即保真项,第二项为L1-L2罚函数正则项;能量模型定义为:
其中d为待重建的高分辨率深度图;b为步骤一中获取的初始深度图的列向量表示;M为K×K的对角矩阵,K表示高分辨率图像的像素点个数,Wa为步骤三获得的近邻矩阵;Wl1-l2为L1-L2罚函数形成的正则化矩阵;1表示所有元素均为1的列向量;o表示矩阵的Hadamard积;λ为常数,用于控制正则项对重建深度的影响程度
步骤五、能量模型求解:对于步骤四构造的能量模型,采用广义迭代重新加权最小二乘法予以求解,获得重建的高分辨率深度图。
2.根据权利要求1所述的一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:所述的步骤一的初始估计深度的计算中,映射计算公式为:
B(sr,sc)=Y(r,c)
其中B为初始深度图的矩阵表示,Y为低分辨率深度图的矩阵表示,(r,c)表示空间坐标,s为分辨率增大倍数。
3.根据权利要求2所述的一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:所述的正则化矩阵的第i行第j列的元素的计算公式为:
<mrow> <msub> <mi>w</mi> <mrow> <mi>l</mi> <mn>1</mn> <mo>-</mo> <mi>l</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>2</mn> <mrow> <mo>(</mo> <msqrt> <mrow> <mn>1</mn> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>d</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>/</mo> <mn>2</mn> </mrow> </msqrt> <mo>)</mo> </mrow> </mrow>
其中di表示待重建深度列向量表示d的第i个元素,即第i个像素点的深度值。
4.根据权利要求3所述的一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:所述的步骤五的能量模型求解,包括以下步骤:
步骤1)、初始化,为迭代变量分配初值;
步骤2)、为能量模型构造凸上界函数;
步骤3)、计算最小化凸上界函数的解作为当前迭代估计的高分辨率深度图;
步骤4)、更新迭代变量值,判断是否达到终止条件,若达到则退出,否则跳到步骤2)。
5.根据权利要求4所述的一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:所述的凸上界函数的函数定义为:
<mrow> <mi>g</mi> <mrow> <mo>(</mo> <mi>d</mi> <mo>,</mo> <msup> <mi>d</mi> <mi>k</mi> </msup> <mo>)</mo> </mrow> <mo>&amp;equiv;</mo> <msup> <mrow> <mo>(</mo> <mi>d</mi> <mo>-</mo> <mi>b</mi> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mi>M</mi> <mrow> <mo>(</mo> <mi>d</mi> <mo>-</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;lambda;</mi> <msup> <mn>1</mn> <mi>T</mi> </msup> <msub> <mi>W</mi> <mi>a</mi> </msub> <msubsup> <mi>oW</mi> <mrow> <mi>l</mi> <mn>1</mn> <mo>-</mo> <mi>l</mi> <mn>2</mn> </mrow> <mi>k</mi> </msubsup> <mn>1</mn> <mo>+</mo> <msup> <mi>&amp;lambda;d</mi> <mi>T</mi> </msup> <msup> <mi>L</mi> <mi>k</mi> </msup> <mi>d</mi> <mo>-</mo> <mi>&amp;lambda;</mi> <msup> <mrow> <mo>(</mo> <msup> <mi>d</mi> <mi>k</mi> </msup> <mo>)</mo> </mrow> <mi>T</mi> </msup> <msup> <mi>L</mi> <mi>k</mi> </msup> <msup> <mi>d</mi> <mi>k</mi> </msup> </mrow>
其中dk表示第k次迭代获得的重建深度图;1表示所有元素均为1的列向量;Wa为近邻矩阵;表示第k次迭代中L1-L2罚函数形成的正则化矩阵;Lk为K×K的拉普拉斯矩阵。
6.根据权利要求5所述的一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:所述的凸上界函数的求解计算公式为:
dk+1=(M+λLk)-1Mb。
7.根据权利要求6所述的一种基于L1-L2罚函数的深度图超分辨率重建方法,其特征是:所述的步骤4)中的终止条件为迭代次数达到5或相邻两次迭代解之间的绝对差小于设定的阈值。
CN201510825906.1A 2015-11-25 2015-11-25 一种基于l1-l2罚函数的深度图超分辨率重建方法 Expired - Fee Related CN105354797B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510825906.1A CN105354797B (zh) 2015-11-25 2015-11-25 一种基于l1-l2罚函数的深度图超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510825906.1A CN105354797B (zh) 2015-11-25 2015-11-25 一种基于l1-l2罚函数的深度图超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN105354797A CN105354797A (zh) 2016-02-24
CN105354797B true CN105354797B (zh) 2018-05-25

Family

ID=55330764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510825906.1A Expired - Fee Related CN105354797B (zh) 2015-11-25 2015-11-25 一种基于l1-l2罚函数的深度图超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN105354797B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296706B (zh) * 2016-08-17 2018-12-21 大连理工大学 一种联合全局建模和非局部滤波的深度计算重建方法
CN106408513B (zh) * 2016-08-25 2019-10-18 天津大学 深度图超分辨率重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722863A (zh) * 2012-04-16 2012-10-10 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN103218776A (zh) * 2013-03-07 2013-07-24 天津大学 基于最小生成树的非局部的深度图超分辨率重建方法
CN104867106A (zh) * 2015-05-29 2015-08-26 清华大学深圳研究生院 一种深度图超分辨率方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101874482B1 (ko) * 2012-10-16 2018-07-05 삼성전자주식회사 깊이 영상으로부터 고해상도 3차원 영상을 복원하는 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722863A (zh) * 2012-04-16 2012-10-10 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN103218776A (zh) * 2013-03-07 2013-07-24 天津大学 基于最小生成树的非局部的深度图超分辨率重建方法
CN104867106A (zh) * 2015-05-29 2015-08-26 清华大学深圳研究生院 一种深度图超分辨率方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
图像超分辨率重建算法研究;杨宇翔;《中国博士学位论文全文数据库 信息科技辑》;20131015(第10期);I138-38 *

Also Published As

Publication number Publication date
CN105354797A (zh) 2016-02-24

Similar Documents

Publication Publication Date Title
CN108198223B (zh) 一种激光点云与视觉图像映射关系快速精确标定方法
CN111598993B (zh) 基于多视角成像技术的三维数据重建方法、装置
CN104680496B (zh) 一种基于彩色图像分割的Kinect深度图修复方法
CN107016691B (zh) 基于超像素特征的运动目标检测方法
CN109816769A (zh) 基于深度相机的场景地图生成方法、装置及设备
JP6213745B2 (ja) 画像処理方法及び装置
CN110503688A (zh) 一种用于深度相机的位姿估计方法
EP2927864B1 (en) Image processing device and image processing method
JP2016532197A5 (zh)
CN107590811B (zh) 基于场景分割的风景图像处理方法、装置及计算设备
Freifeld et al. Highly-expressive spaces of well-behaved transformations: Keeping it simple
CN112907573B (zh) 一种基于3d卷积的深度补全方法
CN105354797B (zh) 一种基于l1-l2罚函数的深度图超分辨率重建方法
CN108171776B (zh) 一种基于改进的卷积神经网络实现图像编辑传播的方法
CN111814792A (zh) 一种基于rgb-d图像的特征点提取与匹配方法
Periyasamy et al. Refining 6D object pose predictions using abstract render-and-compare
CN113223159A (zh) 基于目标纹理虚拟化处理的单幅遥感图像三维建模方法
CN107958489B (zh) 一种曲面重建方法及装置
Zhou et al. PADENet: An efficient and robust panoramic monocular depth estimation network for outdoor scenes
Jia et al. Depth measurement based on a convolutional neural network and structured light
JP7432793B1 (ja) 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器
CN107644393B (zh) 一种基于gpu的丰度估计算法的并行实现方法
CN106250813A (zh) 一种面部表情迁移方法及设备
Radovan et al. Predictions of cloud movements and the sun cover duration
CN107622498B (zh) 基于场景分割的图像穿越处理方法、装置及计算设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180525

Termination date: 20201125