CN102722863B - 采用自回归模型对深度图进行超分辨率重建的方法 - Google Patents

采用自回归模型对深度图进行超分辨率重建的方法 Download PDF

Info

Publication number
CN102722863B
CN102722863B CN201210109883.0A CN201210109883A CN102722863B CN 102722863 B CN102722863 B CN 102722863B CN 201210109883 A CN201210109883 A CN 201210109883A CN 102722863 B CN102722863 B CN 102722863B
Authority
CN
China
Prior art keywords
depth
resolution
pixel
depth map
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210109883.0A
Other languages
English (en)
Other versions
CN102722863A (zh
Inventor
杨敬钰
叶昕辰
侯春萍
李坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201210109883.0A priority Critical patent/CN102722863B/zh
Publication of CN102722863A publication Critical patent/CN102722863A/zh
Application granted granted Critical
Publication of CN102722863B publication Critical patent/CN102722863B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明属于计算机视觉领域。为提供一种简便实用的超分辨率的方法,本发明采取的技术方案是,采用自回归模型对深度图进行超分辨率重建方法,包括下列步骤:1)采用Middlebury数据集里提供的同样大小的深度图和彩色图作为实验数据,按照超分辨率比例将测试深度图下采样,再将得到输入的低分辨率深度图以补零上采样的方式到原来的分辨率,得到初始深度散点图;2)构建能量函数的自回归模型项;3)构建能量函数的基础数据项及最终求解方程;4)利用线性函数优化方法对方程进行求解。本发明主要应用于图像处理。

Description

采用自回归模型对深度图进行超分辨率重建的方法
技术领域
本发明属于计算机视觉领域,涉及采用具有预测效果的自回归模型对低分辨率深度图超分辨率的方法。具体讲,涉及基于自回归模型的深度超分辨率重构方法。
背景技术
超分辨率(Super-Resolution)即通过硬件或软件的方法提高原有图像的分辨率,利用低分辨率的图像来得到高分辨率的图像。超分辨率重建的核心思想就是用时间带宽(获取同一场景的多帧图像序列)换取空间分辨率,实现时间分辨率向空间分辨率的转换。
随着成像技术的进步,近年面市的深度相机突破了传统激光扫描和立体匹配进行深度成像的限制,可以比较方便地获得实时动态三维场景的深度。但是,受到分辨率的限制,其在计算机视觉领域的应用变得很窄。所以,寻找一种增强当前深度图分辨率水平的方法是必要的。增加空间分辨率最直接的解决方法就是通过传感器制造技术减少像素尺寸(例如增加每单元面积的像素数量)。然而,随着像素尺寸的减少,光通量也随之减少,它所产生的散粒噪声使得图像质量严重恶化。另外一个增加空间分辨率的方法是增加芯片的尺寸,从而增加图像的容量。因为很难提高大容量的耦合转换率,因此这种方法一般不认为是有效的。
一种很有前途的方法就是采用信号处理的方法从低分辨率图像得到高分辨率图像。现阶段,国内外工作都是采用经过对齐的高分辨率的彩色图片与低分辨率的深度图片结合来获得高分辨率的深度图。这样,在假设深度不连续的地方正好可以对应彩色图像的边缘,而颜色一致的区域含有相似的3D(three-dimension)几何结构的情况下,可以利用高分辨率的彩色信息对低分辨率深度图进行超分辨率优化。一种方法是将超分辨率优化定义为一个基于马尔科夫场的后项概率问题。通过优化最大后项概率问题,可以提高分辨率。还有一类方法采用双边滤波器来实现超分辨率。因为双边滤波器在滤波的同时可以很好的保住边缘而不被模糊。根据这一特点,将其应用于深度图,可以在扩大分辨率的同时,同时维持边缘的锐利。最近,还有一类方法采用非局部均值滤波来实现超分辨率。他们通过非局部均值滤波可以判断出相似结构的特性,来实现超分辨率。但是,上述提到的方法都不能够很好的维持边缘的锐利性,并且在细小的结构上也容易产生混淆。
发明内容
本发明旨在解决克服现有技术的不足,提供一种简便实用的超分辨率的方法。本发明采取的技术方案是,采用自回归模型对深度图进行超分辨率重建方法,包括下列步骤:
1)采用Middlebury数据集里提供的同样大小的深度图和彩色图作为实验数据,按照超分辨率比例将测试深度图下采样,再将得到输入的低分辨率深度图以补零上采样的方式到原来的分辨率,得到初始深度散点图;根据自回归模型,构造如下优化方程:
min F Σ f ( i , j ) ∈ F | | f ( i , j ) - Σ ( u , v ) ∈ S a i , j ( u , v ) f ( u , v ) | | - - - ( 1 )
subject to | | Ψy - x | | 2 2 = 0 .
其中,f(i,j)∈F代表图像F上的某一点f(i,j),(i,j)是当前像素点的索引,ai,j(u,v)为预测系数,(u,v)是(i,j)的邻域像素点,f(u,v)是邻域像素值,(u,v)∈S代表(u,v)在邻域集合S内,
Figure GDA00001806315900023
为初始散点的限制条件,Ψ为空间变换矩阵,y是变换前的矩阵, x是含有有效值的矩阵,‖‖2表示2范数,subject to表示根据...;
2)构建能量函数的自回归模型项:根据彩色图,双三次插值后的模糊深度图,和每个像素点的邻域,对此像素点进行参数训练并代入自回归模型中,将得到自回归模型作为能量函数的一项列入优化方程;
3)构建能量函数的基础数据项及最终求解方程:利用初始的深度散点构建能量函数的数据项;通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程;
4)利用线性函数优化方法对方程进行求解。
根据彩色图以及每个像素点的邻域,对此像素点进行参数训练并代入自回归模型中,将得到自回归模型作为能量函数的一项列入优化方程,具体包括以下步骤:
21)利用彩色图像,对其中的每一个像素,选取它的(2w+1)×(2w+1)大小窗口的领域对其进行预测,其中,w是窗口一半的大小;
22)用双边滤波的核取代传统的非局部均值滤波的高斯核,作为训练每个像素参数的基本方法,得到彩色图上的预测系数af,p,公式如下:
a f , p = exp ( - B f | P ( I f ) - P ( I p ) | 2 σ 2 ) - - - ( 2 )
B f ( f , p ) = exp ( - | f - p | 2 2 τ 1 2 ) exp ( - | I ( f ) - I ( p ) | 2 2 τ 2 2 ) - - - ( 3 )
其中,对于当前像素f的邻域中每一个p点,P(If)、P(Ip)分别是以彩色值If、Ip为中心的预测块;σ为控制af,p大小的参数,Bf即为代替了非均值局部滤波的高斯核的双边滤波项,Bf(f,p)代表从f、p两点算出的Bf中的一个权值,τ1,τ2分别为空间分辨率和彩色分辨率的调控参数,取值范围均为1.0~5.0,I(f)、I(p)代表彩色图上f、p两点的彩色值;
23)所以引进导图信息:用简单的双三次插值将原始的深度散点插值成模糊的深度图,也作为进行预测的图像,得到初始深度图上的预测系数ag,公式如下:
a g = exp ( - ( D g ( f ) - D g ( p ) ) 2 2 τ g 2 ) - - - ( 4 )
其中,Dg是插值后的深度图,Dg(f)、Dg(p)分别为f、p两点的深度值,τg为控制ag大小的参数,取值范围为4.0~9.0;
24)将22)和23)预测的系数相乘,得到:a=af,p×ag并带入到下式中作为自回归模型项:
E AR = Σ f ∈ F ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 - - - ( 5 )
其中,EAR为自回归模型项,D是欲求的高分辨率深度图,D(f)、D(p)分别为f、p两点的深度值,S是当前像素点的邻域集合,a为最终的预测系数。
利用初始的深度散点构建能量函数的数据项;通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程,具体方法包括以下步骤:
31)将初始的深度散点图有值的像素点作为此项的有效值,根据这些点来预测其他为零的像素点的值,公式如下:
E data = Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 - - - ( 6 )
其中,Edata为数据项,D是欲求的高分辨率深度图,G是初始的深度散点图,D(f)、G(f)分别为像素f在D和G上的深度值,ζ是G中有效值的集合;
32)通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程,具体公式如下:
E ( f ) = Σ f ∈ f ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 + λ ( Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 ) - - - ( 7 )
其中,E(f)为能量函数,因子λ平衡两项之间的权重,取值范围为0.01~0.2。
本发明的方法的特点及效果:
本发明方法避免了对成像设备硬件上的改变,采用后处理方法,通过用自回归模型和非局部均值滤波的结合,实现了深度图的超分辨率过程。具有以下特点:
1、程序简单,易于实现。
2、采用自回归模型的预测效果对深度图进行超分辨率重建:将超分辨率问题具体的归结到自回归模型中进行优化,通过非均值局部滤波的方法在对齐的彩色图像对自回归模型进行具有彩色导向的系数训练。这样可以很好的通过彩色图的预测对深度图进行处理,并且双边核替代的非局部均值滤波可以更好地对细小的结构进行预测。
3.通过采用双三次插值方法对原始数据深度散点插值出的边界模糊的深度图做导图,再次对自回归模型的系数进行优化。这样可以保证深度图不会错误的根据彩色图的颜色进行扩散。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是实际实施流程图;
图2是下采样低分辨率深度图(用邻近插值法变成原来大小);
图3是通过上采样的初始深度散点图;
图4是彩色图像;
图5是测试图的原始深度图像效果图;
图6是利用图3双三次插值后的深度图;
图7是经过超分辨率重构后的深度图。
具体实施方式
下面结合实施例和附图对本发明基于自回归模型的深度图超分辨率做出详细说明。
本发明利用自回归模型对深度图进行超分辨率重建:将深度图超分辨率问题具体地表述为自回归模型求解方程,通过1)利用双边滤波核代替高斯核的非均值滤波的方法在对齐的彩色图像对自回归模型进行具有彩色导向的系数训练2)采用双三次插值方法对原始低分辨率插值出的边界模糊的深度图做导图,再次对自回归模型进行系数训练,将两部分得到的系数相乘作为最终的模型系数带入求解方程中并进行优化。具体方法包括以下步骤:
1)构造初始数据:
11)采用Middlebury数据集里提供的同样大小的深度图和彩色图作为实验数据。
12)按照超分辨率比例将测试深度图下采样,得到输入的低分辨率深度图;
13)将输入的低分辨率深度图以补零上采样的方式到原来的分辨率,得到初始深度图;
14)根据自回归模型,构造如下优化方程:
min F Σ f ( i , j ) ∈ F | | f ( i , j ) - Σ ( u , v ) ∈ S a i , j ( u , v ) f ( u , v ) | | - - - ( 1 )
subject to | | Ψy - x | | 2 2 = 0 .
其中,f(i,j)∈F代表图像F上的某一点f(i,j),(i,j)是当前像素点的索引,ai,j(u,v)为预测系数,与24)中提到的最终系数a相同,可以通过权利要求2中的彩色预测系数af,p和初始深度预测系数ag来确定,(u,v)是(i,j)的邻域像素点,f(u,v)是邻域像素值,(u,v)∈S代表(u,v)在邻域集合S内,
Figure GDA00001806315900043
为初始散点的限制条件,Ψ为空间变换矩阵,y是变换前的矩阵,x是含有有效值的矩阵,‖‖2表示2范数,subject to表示根据...;
2)构建能量函数的自回归模型项:根据彩色图以及每个像素点的邻域,对此像素点进行参数训练并代入自回归模型中。将得到自回归模型作为能量函数的一项列入优化方程;
21)利用彩色图像,对其中的每一个像素,选取它的(2w+1)×(2w+1)大小窗口的领域对其进行预测。其中,w是窗口一半的大小;
22)用双边滤波的核取代传统的非局部均值滤波的高斯核,作为训练每个像素参数的基本方法,得到彩色图上的预测系数af,p,公式如下:
a f , p = exp ( - B f | P ( I f ) - P ( I p ) | 2 σ 2 ) - - - ( 2 )
B f ( f , p ) = exp ( - | f - p | 2 2 τ 1 2 ) exp ( - | I ( f ) - I ( p ) | 2 2 τ 2 2 ) - - - ( 3 )
其中,对于当前像素f的邻域中每一个p点,P(If)、P(Ip)分别是以彩色值If、Ip为中心的预测块;σ为控制af,p大小的参数,Bf即为代替了非均值局部滤波的高斯核的双边滤波项,Bf(f,p)代表从f、p两点算出的Bf中的一个权值,τ1,τ2分别为空间分辨率和彩色分辨率的调控参数,I(f)、I(p)代表彩色图上f、p两点的彩色值;af,p的值越大,说明f、p两个点的相似度越高,用p点去预测f点准确概率很更高。
23)某些情况下,同一物体表面的像素点可能不具有相同的颜色信息,因此会导致预测不准。所以引进导图信息:用简单的双三次插值将原始的深度散点插值成模糊的深度图,也作为进行预测的图像,得到初始深度图上的预测系数ag,公式如下:
a g = exp ( - ( D g ( f ) - D g ( p ) ) 2 2 τ g 2 ) - - - ( 4 )
其中,Dg是插值后的深度图,Dg(f)、Dg(p)分别为f、p两点的深度值,τg为控制ag大小的参数;
24)将22)和23)预测的系数相乘,得到:a=af,p×ag并带入到下式中作为自回归模型项:
E AR = Σ f ∈ F ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 - - - ( 5 )
其中,EAR为自回归模型项,D是欲求的高分辨率深度图,D(f)、D(p)分别为f、p两点的深度值,S是当前像素点的邻域范围,a为最终的预测系数。
3)构建能量函数的基础数据项(根据(1)式的限制条件部分):利用初始的深度散点构建能量函数的数据项;通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程;
31)将初始的深度散点图有值的像素点作为此项的有效值,根据这些点来预测其他为零的像素点的值,公式如下:
E data = Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 - - - ( 6 )
其中,Edata为数据项,D是欲求的高分辨率深度图,G是初始的深度散点图,D(f)、G(f)分别为像素f在D和G上的深度值,ζ是G中有效值的集合;
32)通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程,具体公式如下:
E ( f ) = Σ f ∈ f ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 + λ ( Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 ) - - - ( 7 )
其中,E(f)为能量函数,λ是加权因子,平衡两项之间的权重;
4)根据(7)式,利用线性函数优化方法对优化方程进行求解。
41)利用矩阵形式构造自回归模型项:将一个大小为MN图像采用列向量相接的方法转化成一个MN×1维向量,向量的每一个值代表原图像上的一个像素(如:原图像上的(i,j)点在新构造的向量里点的位置在M(j-1)+i);而每一个点又用一个MN×1维的向量独立进行预测。将2)中预测邻域得到的(2w+1)×(2w+1)个点的a值通过索引的方式填入当前像素点的预测向量内(没有预测系数的地方为零),可以得到最终的MN×MN的预测矩阵;将当前像素预测得到的(2w+1)×(2w+1)个点的a值进行归一化并取负(即所有a值相加等于-1,与D(f)的系数绝对值相等)。对每一个像素点都进行预测后,得到最后的构造矩阵Q。方程如下所示:
E AR = | | Qf | | 2 2 - - - ( 8 )
其中,Q为自回归项构造矩阵,‖‖2是2范数,f为待求的高分辨率图像;
42)利用矩阵形式构造基础数据项:将初始的深度散点图同样以列向量相接的方式转化成MN×1维的向量;抽出其中非零值从新构成一个p维向量,并且记住相应非零值在原向量中的索引值;初始化一个p×MN维的矩阵P,行p代表着非零的p个值,每一个值用MN×1维的向量构成;在每一行中,将对应的非零值的位置的索引处置为1,其他都为零。方程如下:
E data = | | Pf - g | | 2 2 - - - ( 9 )
其中,P为数据项构造矩阵,‖‖2是2范数,f为待求的高分辨率图像,g为具有非零值的p维向量;
43)将上述的两个方程用拉格朗日算法连在一起构成了最后要求解的方程:
E ( f ) = | | Pf - g | | 2 2 + λ | | Qf | | 2 2 - - - ( 10 )
其中,E(f)为能量函数,λ是加权因子,平衡两项之间的权重;
所以,我们的目的就是通过求(10)中能量函数的最小值,即来得到最后的f。根据上式,采用导数的方式求解:
∂ E ∂ f = ∂ ( | | Pf - g | | 2 2 + λ | | Qf | | 2 2 ) ∂ f = 0 - - - ( 11 )
其中, 
Figure GDA00001806315900066
是E对f所求的导数。由此导出:
f=(PTP+λQTQ)-1Pg    (12)
其中,PT、QT分别为P、Q的转置矩阵;
至此,f即为重构后的高分辨率图像。
本发明提出了一种基于自回归模型对深度图进行超分辨率重建方法(如图1的流程所示),结合附图及实施例详细说明如下:
1)构造初始数据:
11)采用Middlebury数据集里提供的同样大小的深度图和彩色图作为实验数据,如图4和图5。
12)按照超分辨率比例将测试深度图下采样,得到输入的低分辨率深度图,如图2所示。
13)将输入的低分辨率深度图以补零上采样的方式到原来的分辨率,得到初始深度图,如图3所示。
14)根据自回归模型,构造出初始的优化方程:
min F Σ f ( i , j ) ∈ F | | f ( i , j ) - Σ ( u , v ) ∈ S a i , j ( u , v ) f ( u , v ) | | - - - ( 1 )
subject to | | Ψy - x | | 2 2 = 0 .
其中,f(i,j)∈F代表图像F上的某一点f(i,j),(i,j)是当前像素点的索引,ai,j(u,v)为预测系数,与24)中提到的最终系数a相同,可以通过权利要求2中的彩色预测系数af,p和初始深度预测系数ag来确定,(u,v)是(i,j)的邻域像素点,f(u,v)是邻域像素值,(u,v)∈S代表(u,v)在邻域集合S内,
Figure GDA00001806315900073
为初始散点的限制条件,Ψ为空间变换矩阵,y是变换前的矩阵,x是含有有效值的矩阵,‖‖2表示2范数,subject to表示根据...;
2)构建能量函数的自回归模型项(根据(1)式中的主要部分):根据彩色图,根据每个像素点的邻域,对此像素点进行参数训练并代入自回归模型中。将得到自回归模型作为能量函数的一项列入优化方程;
21)利用彩色图像,对其中的每一个像素,选取它的11×11大小窗口的领域对其进行预测;
22)用双边滤波的核取代传统的非局部均值滤波的高斯核,作为训练每个像素参数的基本方法,得到彩色图上的预测系数af,p,公式如下:
a f , p = exp ( - B f | P ( I f ) - P ( I p ) | 2 σ 2 ) - - - ( 2 )
B f ( f , p ) = exp ( - | f - p | 2 2 τ 1 2 ) exp ( - | I ( f ) - I ( p ) | 2 2 τ 2 2 ) - - - ( 3 )
其中,对于当前像素f的邻域中每一个p点,P(If)、P(Ip)分别是以彩色值If、Ip为中心的预测块,块大小同样取的11×11大小,σ为控制af,p大小的参数,取值为2.0,Bf即为代替了非均值局部滤波的高斯核的双边滤波项,Bf(f,p)代表从f、p两点算出的Bf中的一个权值,τ1,τ2分别为空间分辨率和彩色分辨率的调控参数,取值范围均为1.0~5.0,以中间值效果为佳,I(f)、I(p)代表彩色图上f、p两点的彩色值;af,p的值越大,说明f、p两个点的相似度越高,用p点去预测f点准确概率很更高。
23)某些情况下,同一物体表面的像素点可能不具有相同的颜色信息,因此会导致预测不准。所以引进导图信息:用简单的双三次插值将原始的深度散点插值成一幅图片,也作为进行预测的图像,得到初始深度图上的预测系数ag,公式如下:
a g = exp ( - ( D g ( f ) - D g ( p ) ) 2 2 τ g 2 ) - - - ( 4 )
其中,Dg是插值后的深度图,如图6所示,Dg(f)、Dg(p)分别为f、p两点的深度值,τg为控制ag大小的参数取值范围为4.0~9.0,以中间值效果为佳;
24)将22)和23)预测的系数相乘,得到:a=af,p×ag并带入到下式中作为自回归模型项:
E AR = Σ f ∈ F ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 - - - ( 5 )
其中,EAR为自回归模型项,D是欲求的高分辨率深度图,D(f)、D(p)分别为f、p两点的深度值,S是当前像素点的邻域范围,a为最终的预测系数。
3)构建能量函数的基础数据项(根据(1)式的限制条件部分):利用初始的深度散点构建能量函数的数据项;通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程;
31)将初始的深度散点图有值的像素点作为此项的有效值,根据这些点来预测其他为零的像素点的值,公式如下:
E data = Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 - - - ( 6 )
其中,Edata为数据项,D是欲求的高分辨率深度图,G是初始的深度散点图,D(f)、G(f)分别为像素f在D和G上的深度值,ζ是G中有效值的集合;
32)通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程,具体公式如下:
E ( f ) = Σ f ∈ f ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 + λ ( Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 ) - - - ( 7 )
其中,E(f)为能量函数,因子λ平衡两项之间的权重,取值范围为0.01~0.2,以中间值效果为佳,。
4)根据(7)式,利用线性函数优化方法对优化方程进行求解。
41)利用矩阵形式构造自回归模型项。将一个大小为360×360图像(如图4)采用列向量相接的方法转化成一个360×360维向量,向量的每一个值代表一个像素点;而每一个像素又用一个360×360的向量独立进行预测。将2)中预测邻域得到的11×11=121个点的a值通过索引的方式填入当前像素点的预测向量内,可以得到最终的(360×360,360×360)大小的预测矩阵;将当前像素预测得到的121个点的a值进行归一化并取负(即所有a值相加等于-1,与D(f)的系数绝对值相等)。对每一个像素点都进行预测后,得到最后的构造矩阵Q。方程如下所示:
E AR = | | Qf | | 2 2 - - - ( 8 )
其中,Q为自回归项构造矩阵,‖‖2是2范数,f为待求的高分辨率图像;
42)利用矩阵形式构造基础数据项。将初始的深度散点图同样以列向量相接的方式转化成360×360维的向量;抽出其中非零值从新构成一个p维向量,并且记住相应非零值在原向量中的索引值;初始化一个(p,360×360)的矩阵P,行p代表着非零的p个值,每一个值用360×360维的向量构成;在每一行中,将对应的非零值的位置的索引处置为1,其他都为零。
方程如下:
E data = | | Pf - g | | 2 2 - - - ( 9 )
其中,P为数据项构造矩阵,‖‖2是2范数,f为待求的高分辨率图像,g为具有非零值的p维向量;
43)将上述的两个方程用拉格朗日算法连在一起构成了最后要求解的方程,求解和得到:
f=(PTP+λQTQ)-1Pg    (10)
其中,PT、QT分别为P、Q的转置矩阵;
至此,f即为重构后的高分辨率图像(如图7所示)。

Claims (2)

1.一种采用自回归模型对深度图进行超分辨率重建的方法,其特征是,包括以下步骤:
1)采用Middlebury数据集里提供的同样大小的深度图和彩色图作为实验数据,按照超分辨率比例将测试深度图下采样,再将得到输入的低分辨率深度图以补零上采样的方式到原来的分辨率,得到初始深度散点图;根据自回归模型,构造如下优化方程:
min F Σ f ( i , j ) ∈ F | | f ( i , j ) - Σ ( u , v ) ∈ S a i , j ( u , b ) f ( u , v ) | | subjectto | | ψ y - x | | 2 2 = 0 . - - - ( 1 )
其中,f(i,j)∈F代表图像F上的某一点f(i,j),(i,j)是当前像素点的索引,ai,j(u,v)为预测系数,(u,v)是(i,j)的邻域像素点,f(u,v)是邻域像素值,(u,v)∈S代表(u,v)在邻域集合S内,
Figure FDA0000477358670000012
为初始散点的限制条件,Ψ为空间变换矩阵,y是变换前的矩阵,x是含有有效值的矩阵,‖‖2表示2范数,subject to表示约束条件;
2)构建能量函数的自回归模型项:根据彩色图,双三次插值后的模糊深度图,和每个像素点的邻域,对此像素点进行参数训练并代入自回归模型中,将得到自回归模型作为能量函数的一项列入优化方程;
3)构建能量函数的基础数据项及最终求解方程:利用初始的深度散点构建能量函数的数据项;通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程;
4)利用线性函数优化方法对方程进行求解;
根据彩色图以及每个像素点的邻域,对此像素点进行参数训练并代入自回归模型中,将得到自回归模型作为能量函数的一项列入优化方程,具体包括以下步骤:
21)利用彩色图像,对其中的每一个像素,选取它的(2w+1)×(2w+1)大小窗口的领域对其进行预测,其中,w是窗口一半的大小;
22)用双边滤波的核取代传统的非局部均值滤波的高斯核,作为训练每个像素参数的基本方法,得到彩色图上的预测系数af,p,公式如下:
a f , p = exp ( - B f | P ( I f ) - P ( I p ) | 2 σ 2 ) - - - ( 2 )
B f ( f , p ) = exp ( - | f - p | 2 2 τ 1 2 ) exp ( - | I ( f ) - I ( p ) | 2 2 τ 2 2 ) - - - ( 3 )
其中,对于当前像素f的邻域中每一个p点,P(If)、P(Ip)分别是以彩色值If、Ip为中心的预测块;σ为控制af,p大小的参数,取值为2.0,Bf即为代替了非均值局部滤波的高斯核的双边滤波项,Bf(f,p)代表从f、p两点算出的Bf中的一个权值,τ12分别为空间分辨率和彩色分辨率的调控参数,取值范围均为1.0~5.0,I(f)、I(p)代表彩色图上f、p两点的彩色值;
23)所以引进导图信息:用简单的双三次插值将原始的深度散点插值成模糊的深度图,也作为进行预测的图像,得到初始深度图上的预测系数ag,公式如下:
a g = exp ( - ( D g ( f ) - D g ( p ) ) 2 2 τ g 2 ) - - - ( 4 )
其中,Dg是插值后的深度图,Dg(f)、Dg(p)分别为f、p两点的深度值,τg为控制ag大小的参数,取值范围为4.0~9.0;
24)将22)和23)预测的系数相乘,得到:a=af,p×ag并带入到下式中作为自回归模型项:
E AR = Σ f ∈ F ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 - - - ( 5 )
其中,EAR为自回归模型项,D是欲求的高分辨率深度图,D(f)、D(p)分别为f、p两点的深度值,S是当前像素点的邻域集合,a为最终的预测系数。
2.如权利要求1所述的采用自回归模型对深度图进行超分辨率重建的方法,其特征是,利用初始的深度散点构建能量函数的数据项;通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程,具体方法包括以下步骤:
31)将初始的深度散点图有值的像素点作为此项的有效值,根据这些点来预测其他为零的像素点的值,公式如下:
E data = Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 - - - ( 6 )
其中,Edata为数据项,D是欲求的高分辨率深度图,G是初始的深度散点图,D(f)、G(f)分别为像素f在D和G上的深度值,ζ是G中有效值的集合;
32)通过拉格朗日方程,将数据项和自回归项用一个因子λ联合在一起作为最终的求解方程,具体公式如下:
E ( f ) = Σ f ∈ f ( D ( f ) - Σ p ∈ S aD ( p ) ) 2 + λ ( Σ f ∈ ζ ( D ( f ) - G ( f ) ) 2 ) - - - ( 7 )
其中,E(f)为能量函数,因子λ平衡两项之间的权重,取值范围为0.01~0.2。
CN201210109883.0A 2012-04-16 2012-04-16 采用自回归模型对深度图进行超分辨率重建的方法 Expired - Fee Related CN102722863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210109883.0A CN102722863B (zh) 2012-04-16 2012-04-16 采用自回归模型对深度图进行超分辨率重建的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210109883.0A CN102722863B (zh) 2012-04-16 2012-04-16 采用自回归模型对深度图进行超分辨率重建的方法

Publications (2)

Publication Number Publication Date
CN102722863A CN102722863A (zh) 2012-10-10
CN102722863B true CN102722863B (zh) 2014-05-21

Family

ID=46948610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210109883.0A Expired - Fee Related CN102722863B (zh) 2012-04-16 2012-04-16 采用自回归模型对深度图进行超分辨率重建的方法

Country Status (1)

Country Link
CN (1) CN102722863B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218771B (zh) * 2013-03-07 2015-09-23 天津大学 基于自回归模型深度恢复的参数自适应选取方法
CN103218776B (zh) * 2013-03-07 2016-06-22 天津大学 基于最小生成树的非局部的深度图超分辨率重建方法
CN103440664B (zh) * 2013-09-05 2017-04-19 Tcl集团股份有限公司 一种生成高分辨率深度图的方法、系统及计算设备
CN103810685B (zh) * 2014-02-25 2016-05-25 清华大学深圳研究生院 一种深度图的超分辨率处理方法
US10074158B2 (en) * 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
CN104867106B (zh) * 2015-05-29 2017-09-15 清华大学深圳研究生院 一种深度图超分辨率方法
CN105427253B (zh) * 2015-11-06 2019-03-29 北京航空航天大学 基于非局部回归和总差分的多视点rgb-d图像超分辨率方法
CN105354797B (zh) * 2015-11-25 2018-05-25 宁波工程学院 一种基于l1-l2罚函数的深度图超分辨率重建方法
CN105513033B (zh) * 2015-12-07 2018-09-25 天津大学 一种非局部联合稀疏表示的超分辨率重建方法
CN105550989B (zh) * 2015-12-09 2018-11-30 西安电子科技大学 基于非局部高斯过程回归的图像超分辨方法
CN105657402B (zh) * 2016-01-18 2017-09-29 深圳市未来媒体技术研究院 一种深度图恢复方法
CN106056540A (zh) * 2016-07-08 2016-10-26 北京邮电大学 基于鲁棒光流和Zernike不变矩的视频时空超分辨率重建方法
CN106251329B (zh) * 2016-07-14 2019-01-08 天津大学 基于双变换域的深度图超分辨率方法
CN106408513B (zh) * 2016-08-25 2019-10-18 天津大学 深度图超分辨率重建方法
CN106447714B (zh) * 2016-09-13 2019-04-09 大连理工大学 一种基于信号分解的场景深度恢复方法
CN106600539B (zh) * 2016-12-16 2019-09-24 四川长虹电器股份有限公司 一种基于局部跨尺度自回归模型的单幅图像超分辨率方法
CN108629733B (zh) * 2017-03-17 2021-12-24 北京大学 获取高分辨率图像的方法与装置
CN106998460B (zh) * 2017-05-16 2019-06-21 合肥工业大学 一种基于深度过渡和深度项整体变分的空洞填补算法
CN107767357B (zh) * 2017-09-14 2021-04-09 北京工业大学 一种基于多方向字典的深度图像超分辨率方法
CN107909545B (zh) * 2017-11-17 2021-05-14 南京理工大学 一种提升单帧图像分辨率的方法
CN108416803B (zh) * 2018-03-14 2020-01-24 大连理工大学 一种基于深度神经网络的多信息融合的场景深度恢复方法
CN108876836B (zh) * 2018-03-29 2021-08-27 北京旷视科技有限公司 一种深度估计方法、装置、系统及计算机可读存储介质
CN108765297B (zh) * 2018-06-14 2020-07-17 厦门大学 基于循环训练的超分辨率重建方法
CN109615588A (zh) * 2018-10-31 2019-04-12 深圳市唯特视科技有限公司 一种基于深度自回归模型的解决图像重建问题的方法
CN111369435B (zh) * 2020-02-18 2023-04-07 山东师范大学 基于自适应稳定模型的彩色图像深度上采样方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100533480C (zh) * 2008-01-30 2009-08-26 哈尔滨工业大学 基于核回归的单帧图像快速超分辨率重建方法

Also Published As

Publication number Publication date
CN102722863A (zh) 2012-10-10

Similar Documents

Publication Publication Date Title
CN102722863B (zh) 采用自回归模型对深度图进行超分辨率重建的方法
CN102663712B (zh) 基于飞行时间tof相机的深度计算成像方法
US11238602B2 (en) Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks
CN107154023B (zh) 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN104954780B (zh) 一种适用于高清2d/3d转换的dibr虚拟图像修复方法
CN101877143B (zh) 一种二维图像组的三维场景重建方法
CN110930342B (zh) 一种基于彩色图引导的深度图超分辨率重建网络构建方法
Mehta et al. Structured adversarial training for unsupervised monocular depth estimation
CN108765479A (zh) 利用深度学习对视频序列中单目视图深度估计优化方法
CN111739077A (zh) 基于深度神经网络单目水下图像深度估计和颜色矫正方法
CN110310317A (zh) 一种基于深度学习的单目视觉场景深度估计的方法
CN105741252A (zh) 基于稀疏表示与字典学习的视频图像分级重建方法
CN102902961A (zh) 基于k近邻稀疏编码均值约束的人脸超分辨率处理方法
CN102479380B (zh) 一种提高图像分辨率的图像插值方法及装置
CN105844630A (zh) 一种双目视觉的图像超分辨率融合去噪方法
CN109359527B (zh) 基于神经网络的头发区域提取方法及系统
CN106067162B (zh) 集成成像超分辨率微单元图像阵列采集与重构方法
CN106056622B (zh) 一种基于Kinect相机的多视点深度视频复原方法
CN110189286A (zh) 一种基于ResNet的红外与可见光图像融合方法
CN113077505B (zh) 一种基于对比学习的单目深度估计网络的优化方法
CN107613299A (zh) 一种利用生成网络提高帧速率上转换效果的方法
CN110443883A (zh) 一种基于dropblock的单张彩色图片平面三维重建方法
WO2020119620A1 (zh) 具有自我提升能力的金字塔双目深度估计模型
CN113658040A (zh) 一种基于先验信息和注意力融合机制的人脸超分辨方法
CN103218771B (zh) 基于自回归模型深度恢复的参数自适应选取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140521