CN105335929A - 一种深度图超分辨方法 - Google Patents

一种深度图超分辨方法 Download PDF

Info

Publication number
CN105335929A
CN105335929A CN201510586470.5A CN201510586470A CN105335929A CN 105335929 A CN105335929 A CN 105335929A CN 201510586470 A CN201510586470 A CN 201510586470A CN 105335929 A CN105335929 A CN 105335929A
Authority
CN
China
Prior art keywords
resolution
low
depth map
dictionary
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510586470.5A
Other languages
English (en)
Other versions
CN105335929B (zh
Inventor
张永兵
林荣群
王好谦
王兴政
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201510586470.5A priority Critical patent/CN105335929B/zh
Publication of CN105335929A publication Critical patent/CN105335929A/zh
Application granted granted Critical
Publication of CN105335929B publication Critical patent/CN105335929B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution

Abstract

本发明公开了一种深度图超分辨方法,包括:进行低分辨率字典AL和高分辨率字典AH的训练;从待处理的低分辨率深度图DˊL中提取低分辨率图像块集合及其对应的低分辨率特征集合对于每一个低分辨率特征输入无噪的高分辨率的引导彩色图CH,利用CH计算出每一个高分辨率特征满足的权重约束W,结合低分辨率字典AL和高分辨率字典AH以及权重约束W并利用0范数求解得到重构系数α,再使用重构系数α和高分辨率字典AH重建出对应的高分辨率特征再将所有重构的高分辨特征加上对应的低分辨率图像块得到所有相应的高分辨率图像块融合所有高分辨图像块形成一张高分辨深度图DˊH。该方法结合了引导图像插值方法和稀疏表示方法,处理速度快,获得的高分辨率深度图质量高。

Description

一种深度图超分辨方法
技术领域
本发明涉及计算机视觉和图像处理领域,特别是涉及一种深度图超分辨方法。
背景技术
深度图作为真实3D空间物体的位置的一种表示,在目标识别、立体医疗、3D重建和立体视频等领域扮演着越来越重要的作用。尽管当前存在许多深度获取方法能够从自然场景中获取深度信息形成深度图,但是获取的深度图其分辨率相当于与同一场景下拍摄的彩色图的分辨率小很多,而且获取的深度图也有许多噪声,这主要是由于这些深度获取方法使用的采集设备的感知芯片尺寸较小。这些缺点都极大的限制了基于深度信息的实际应用的发展。
深度图超分辨是解决上述问题的一个重要手段。深度图超分辨属于计算机视觉和图像处理领域,是一个经典的图像处理问题,有着重要的学术和工业研究价值。深度图超分辨的主要目标就是,输入低分辨率的深度图,能够在保证重构误差尽量小的情况下,保持比较好的视觉效果,即获得较好的客观和主观质量。当前主流的深度图超分辨方法可以分为两大类:基于引导图像插值的方法;基于稀疏表示的方法。
基于引导图像插值的方法,其处理过程通常会使用一张高分辨率的彩色引导图像,计算出目标深度图每一个像素点的值所应当满足的约束,之后进行最小二乘优化来求解出高分辨率的深度图。但是,很多情况下,这类方法产生的结果会受到引导彩色图的干扰,所得到的高分辨率深度图中有很多多余的纹理信息,而且速度较慢。基于稀疏表示的方法,通常是通过建立训练集,训练出字典,之后通过目标深度图满足的稀疏约束,通过求解1范数或者0范数问题来获得目标的高分辨率深度图。这类方法没有结合引导图图像,而且不能很好地应对噪声问题。
发明内容
本发明的主要目的在于针对现有技术的不足,提供一种处理速度快、质量高的深度图超分辨方法。
为实现上述目的,本发明采用以下技术方案:
一种深度图超分辨方法,包括训练步骤和超分辨处理步骤,其中:
所述训练步骤包括:
(1)建立深度图训练集,获取高分辨率深度图集合并从所述高分辨率深度图集合中提取得到高分辨率特征集合对所述高分辨率深度图集合下采样后再上采样得到低分辨率深度图集合从所述低分辨率深度图集合中提取得到低分辨率特征集合
(2)利用所述低分辨率特征集合训练得到低分辨率字典AL并得到低分辨率特征相应的重构系数集合X;利用所述高分辨率特征集合和所述重构系数集合X计算得到高分辨率字典AH
所述超分辨处理步骤包括:
(3)输入待处理的低分辨率深度图D'L,提取得到当前低分辨率图像块集合并从所述当前低分辨率图像块集合提取得到当前低分辨率特征集合对于每一个当前低分辨率特征输入无噪的高分辨率的引导彩色图CH,利用所述引导彩色图CH计算得到每一个重构的高分辨率特征满足的权重约束W,结合所述低分辨率字典AL和所述高分辨率字典AH以及所述权重约束W并利用0范数求解得到重构系数α;
(4)使用所述重构系数α和所述高分辨率字典AH重建出每一个当前低分辨率特征对应的重构的高分辨率特征再将所有重构的高分辨特征集合加上所述重构的高分辨率特征对应的当前低分辨率图像块集合得到所述重构的高分辨率特征相应的当前高分辨率图像块集合并将所有的当前高分辨图像块融合成一张高分辨深度图D'H
本发明的有益效果包括:本发明提出的深度图超分辨方法结合了基于稀疏表示和引导图插值的方法,利用本发明可获得充分利用了稀疏表示方法的快速性,还能够结合引导图像的无噪性来进行引导插值,最终得到高分辨率且质量高的深度图。
具体实施方式
以下对本发明的实施方式作详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
在本发明的实施例中,针对单张低分辨率的图像,提出一种深度图超分辨方法。根据该方法,在训练步骤中,进行低分辨率字典AL和高分辨率字典AH的训练。在超分辨处理步骤(也即重构阶段)中,从输入的待处理的低分辨率深度图D'L中,提取当前低分辨率图像块集合并由此提取得到其对应的当前低分辨率特征集合对于每一个当前低分辨率特征再输入无噪的高分辨率的引导彩色图CH,利用引导彩色图CH计算出每一个重构的高分辨率特征满足的权重约束W,结合低分辨率字典AL和高分辨率字典AH以及权重约束W并利用0范数求解得到重构系数α。使用重构系数α和高分辨率字典AH重建出每一个当前低分辨率特征对应的重构的高分辨率特征再将所有重构的高分辨特征集合加上其对应的当前低分辨率图像块集合得到所有相应的当前高分辨率图像块集合融合所有的当前高分辨图像块形成一张高分辨深度图D'H
在本发明的一个优选实施例中,深度图超分辨方法包括以下步骤:
训练步骤,包括:
(1)建立深度图训练集,获取高分辨率深度图集合并从高分辨率深度图集合中提取得到高分辨率特征集合对高分辨率深度图集合下采样后再上采样得到低分辨率深度图集合从低分辨率深度图集合中提取得到低分辨率特征集合
在一个更优选的实施例中,具体来说,步骤(1)的步骤可以包括:
a)对高分辨率深度图集合使用插值算法进行下采样后再进行上采样处理得到低分辨率深度图集合
b)从高分辨率深度图集合中提取高分辨率图像块集合从低分辨率深度图集合中的相应位置提取出低分辨率图像块集合再对高分辨率图像块集合和低分辨率图像块集合进行特征提取以分别获得高分辨率特征和低分辨率特征具体提取方法是:高分辨率特征为:
y H i = p H i - p L i , - - - ( 1 )
对低分辨率图像块集合进行一阶水平方向、一阶竖直方向、二阶水平方向和二阶竖直方向梯度特征提取,以获得低分辨率特征为:
y L i = [ f 1 * p L i ; f 2 * p L i ; f 3 * p L i ; f 4 * p L i ] , - - - ( 2 )
其中,符号*表示卷积操作,f1和f2分别表示水平与竖直方向的一阶梯度高通滤波器,f3和f4分别表示水平与垂直方向二阶梯度高通滤波器。
(2)利用低分辨率特征集合训练得到低分辨率字典AL并得到低分辨率特征相应的重构系数集合X;利用高分辨率特征集合和重构系数集合X计算得到高分辨率字典AH
在一个更优选的实施例中:
低分辨率的字典AL通过优化以下目标函数来获得:
min A L , X | | Y L - A L X | | F 2 , - - - ( 3 )
s.t.||xn||0≤L
其中AL,X分别为低分辨率特征集合、低分辨率字典以及低分辨率特征相应的重构系数集合,是重构误差项,||xn||0≤L是系数0范数约束项。
高分辨率字典AH使用最小二乘优化方法获得:
min A H | | Y H - A H X | | F 2 , - - - ( 4 )
其中AH,X分别为高分辨率特征集合、高分辨率字典以及低分辨率特征相应的重构系数集合,是重构误差项。
超分辨处理步骤,包括:
(3)输入待处理的低分辨率深度图D'L,提取得到当前低分辨率图像块集合并从当前低分辨率图像块集合提取得到当前低分辨率特征集合对于每一个当前低分辨率特征输入无噪的高分辨率的引导彩色图CH,利用引导彩色图CH计算得到每一个重构的高分辨率特征满足的权重约束W,结合低分辨率字典AL和高分辨率字典AH以及权重约束W并利用0范数求解得到重构系数α。
在一个更优选的实施例中,步骤(3)中从当前低分辨率图像块集合提取得到当前低分辨率特征集合的方法如下:
对当前低分辨率图像块集合进行一阶水平方向、一阶竖直方向、二阶水平方向和二阶竖直方向梯度特征提取,以获得当前低分辨率特征为:
y ′ L i = [ f 1 * p ′ L i ; f 2 * p ′ L i ; f 3 * p ′ L i ; f 4 * p ′ L i ] , - - - ( 5 )
其中,符号*表示卷积操作,f1和f2分别表示水平与竖直方向的一阶梯度高通滤波器,f3和f4分别表示水平与垂直方向二阶梯度高通滤波器。
权重约束W的计算方法如下:
w i j = exp ( - Σ k = 1 3 ( I i k - I j k ) 2 2 σ I 2 ) , - - - ( 6 )
其中wij是W的第i行第j列的元素的值,是引导彩色图CH的所有像素点的值拉成列向量后的第i个像素点的值,σI是归一化因子。
对于每一个低分辨率特征通过优化以下目标函数来获得重构系数α:
min α | | y ′ L i - A L α | | F 2 + λ | | WA H α | | F 2 , - - - ( 7 )
s.t.||α||0≤L
其中,AL,AH,α分别为当前低分辨率特征、低分辨率字典、高分辨率字典以及重构系数,是重构误差项,||α||0≤L是系数0范数约束项,是引导图像权重约束项。
(4)使用重构系数α和高分辨率字典AH重建出每一个当前低分辨率特征对应的重构的高分辨率特征再将所有重构的高分辨特征集合加上重构的高分辨率特征对应的低分辨率图像块集合得到相应的当前高分辨率图像块集合并将所有的当前高分辨图像块融合成一张高分辨深度图D'H
具体来说,重构的高分辨率特征
y ′ H i = A H α , - - - ( 8 )
最后将所有重构的高分辨特征集合加上对应的当前低分辨率图像块集合得到相应的当前高分辨率图像块集合并将所有的当前高分辨图像块融合成一张高分辨深度图D'H
利用本发明可获得充分利用了稀疏表示方法的快速性,还能够结合引导图像的无噪性来进行引导插值,最终得到高分辨率且质量高的深度图。
以上内容是结合具体/优选的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。

Claims (8)

1.一种深度图超分辨方法,其特征在于,包括训练步骤和超分辨处理步骤,其中:
所述训练步骤包括:
(1)建立深度图训练集,获取高分辨率深度图集合并从所述高分辨率深度图集合中提取得到高分辨率特征集合对所述高分辨率深度图集合下采样后再上采样得到低分辨率深度图集合从所述低分辨率深度图集合中提取得到低分辨率特征集合
(2)利用所述低分辨率特征集合训练得到低分辨率字典AL并得到低分辨率特征相应的重构系数集合X;利用所述高分辨率特征集合和所述重构系数集合X计算得到高分辨率字典AH
所述超分辨处理步骤包括:
(3)输入待处理的低分辨率深度图D'L,提取得到当前低分辨率图像块集合并从所述当前低分辨率图像块集合提取得到当前低分辨率特征集合对于每一个当前低分辨率特征输入无噪的高分辨率的引导彩色图CH,利用所述引导彩色图CH计算得到每一个重构的高分辨率特征满足的权重约束W,结合所述低分辨率字典AL和所述高分辨率字典AH以及所述权重约束W并利用0范数求解得到重构系数α;
(4)使用所述重构系数α和所述高分辨率字典AH重建出每一个当前低分辨率特征对应的重构的高分辨率特征再将所有重构的高分辨特征集合加上所述重构的高分辨率特征对应的当前低分辨率图像块集合得到所述重构的高分辨率特征相应的当前高分辨率图像块集合并将所有的当前高分辨图像块融合成一张高分辨深度图D'H
2.如权利要求1所述的深度图超分辨方法,其特征在于,所述训练步骤的步骤(1)包括:
a)对所述高分辨率深度图集合使用插值算法进行下采样后再进行上采样处理得到所述低分辨率深度图集合
b)从所述高分辨率深度图集合中提取所述高分辨率图像块集合从所述低分辨率深度图集合中的相应位置提取出低分辨率图像块集合再对所述高分辨率图像块集合和所述低分辨率图像块集合进行特征提取以分别获得高分辨率特征和低分辨率特征其中,所述高分辨率特征为:
y H i = p H i - p L i , - - - ( 1 )
对所述低分辨率图像块集合进行一阶水平方向、一阶竖直方向、二阶水平方向和二阶竖直方向梯度特征提取,以获得低分辨率特征为:
y L i = [ f 1 * p L i ; f 2 * p L i ; f 3 * p L i ; f 4 * p L i ] , - - - ( 2 )
其中,符号*表示卷积操作,f1和f2分别表示水平与竖直方向的一阶梯度高通滤波器,f3和f4分别表示水平与垂直方向二阶梯度高通滤波器。
3.如权利要求1所述的深度图超分辨方法,其特征在于,所述训练步骤的步骤(2)中:
所述低分辨率的字典AL通过优化以下目标函数来获得:
m i n A L , X | | Y L - A L X | | F 2 , - - - ( 3 )
s.t.||xn||0≤L
其中AL,X分别为低分辨率特征集合、低分辨率字典以及低分辨率特征相应的重构系数集合,是重构误差项,||xn||0≤L是系数0范数约束项。
4.如权利要求1所述的深度图超分辨方法,其特征在于,所述训练步骤的步骤(2)中:
所述高分辨率字典AH使用最小二乘优化方法获得:
m i n A H | | Y H - A H X | | F 2 , - - - ( 4 )
其中AH,X分别为高分辨率特征集合、高分辨率字典以及低分辨率特征相应的重构系数集合,是重构误差项。
5.如权利要求1所述的深度图超分辨方法,其特征在于,所述超分辨处理步骤的步骤(3)中从所述当前低分辨率图像块集合提取得到当前低分辨率特征集合的方法如下:
对所述当前低分辨率图像块集合进行一阶水平方向、一阶竖直方向、二阶水平方向和二阶竖直方向梯度特征提取,以获得当前低分辨率特征为:
y ′ L i = [ f 1 * p ′ L i ; f 2 * p ′ L i ; f 3 * p ′ L i ; f 4 * p ′ L i ] , - - - ( 5 )
其中,符号*表示卷积操作,f1和f2分别表示水平与竖直方向的一阶梯度高通滤波器,f3和f4分别表示水平与垂直方向二阶梯度高通滤波器。
6.如权利要求1所述的深度图超分辨方法,其特征在于,所述超分辨率步骤的步骤(3)中,所述权重约束W的计算方法如下:
w i j = exp ( - Σ k = 1 3 ( I i k - I j k ) 2 2 σ I 2 ) , - - - ( 6 )
其中wij是W的第i行第j列的元素的值,是所述引导彩色图CH的所有像素点的值拉成列向量后的第i个像素点的值,σI是归一化因子。
7.如权利要求1所述的深度图超分辨方法,其特征在于,所述超分辨处理步骤的步骤(3)中,对于每一个当前低分辨率特征通过优化以下目标函数来获得重构系数α:
m i n α | | y ′ L i - A L α | | F 2 + λ | | WA H α | | F 2 , - - - ( 7 )
s.t.||α||0≤L
其中AL,AH,α分别为当前低分辨率特征、低分辨率字典、高分辨率字典以及重构系数,是重构误差项,||α||0≤L是系数0范数约束项,是引导图像权重约束项。
8.如权利要求1所述的深度图超分辨方法,其特征在于,所述超分辨处理步骤的步骤(4)中:由所述重构系数α和所述高分辨率字典AH得到所述重构的高分辨率特征
y ′ H i = A H α , - - - ( 8 )
最后将所有重构的高分辨特征集合加上对应的当前低分辨率图像块集合得到相应的当前高分辨率图像块集合并将所有的当前高分辨图像块融合成一张高分辨深度图D'H
CN201510586470.5A 2015-09-15 2015-09-15 一种深度图超分辨方法 Active CN105335929B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510586470.5A CN105335929B (zh) 2015-09-15 2015-09-15 一种深度图超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510586470.5A CN105335929B (zh) 2015-09-15 2015-09-15 一种深度图超分辨方法

Publications (2)

Publication Number Publication Date
CN105335929A true CN105335929A (zh) 2016-02-17
CN105335929B CN105335929B (zh) 2018-05-04

Family

ID=55286439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510586470.5A Active CN105335929B (zh) 2015-09-15 2015-09-15 一种深度图超分辨方法

Country Status (1)

Country Link
CN (1) CN105335929B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105957013A (zh) * 2016-06-06 2016-09-21 南阳理工学院 一种单幅图像超分辨重建方法
CN106327428A (zh) * 2016-08-31 2017-01-11 深圳大学 一种基于迁移学习的图像超分辨率方法及系统
CN106408513A (zh) * 2016-08-25 2017-02-15 天津大学 深度图超分辨率重建方法
CN106548449A (zh) * 2016-09-18 2017-03-29 北京市商汤科技开发有限公司 生成超分辨率深度图的方法、装置及系统
CN106997614A (zh) * 2017-03-17 2017-08-01 杭州光珀智能科技有限公司 一种基于深度相机的大规模场景3d建模方法及其装置
CN107392852A (zh) * 2017-07-10 2017-11-24 深圳大学 深度图像的超分辨率重建方法、装置、设备及存储介质
CN107767357A (zh) * 2017-09-14 2018-03-06 北京工业大学 一种基于多方向字典的深度图像超分辨率方法
CN108053368A (zh) * 2017-12-18 2018-05-18 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置
CN108133459A (zh) * 2016-12-01 2018-06-08 北京大学 深度图增强方法和深度图增强装置
CN106251329B (zh) * 2016-07-14 2019-01-08 天津大学 基于双变换域的深度图超分辨率方法
CN109345482A (zh) * 2018-09-29 2019-02-15 深圳市牧月科技有限公司 一种深度超分辨率图像滤波处理方法
CN110415169A (zh) * 2018-04-28 2019-11-05 深圳先进技术研究院 一种深度图超分辨率重建方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750686A (zh) * 2012-06-12 2012-10-24 华东师范大学 一种基于学习的超分辨文档图像复原处理方法
CN102831581A (zh) * 2012-07-27 2012-12-19 中山大学 一种超分辨率图像重构的方法
CN103530863A (zh) * 2013-10-30 2014-01-22 广东威创视讯科技股份有限公司 一种多级重构的图像超分辨率方法
CN104867106A (zh) * 2015-05-29 2015-08-26 清华大学深圳研究生院 一种深度图超分辨率方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750686A (zh) * 2012-06-12 2012-10-24 华东师范大学 一种基于学习的超分辨文档图像复原处理方法
CN102831581A (zh) * 2012-07-27 2012-12-19 中山大学 一种超分辨率图像重构的方法
CN103530863A (zh) * 2013-10-30 2014-01-22 广东威创视讯科技股份有限公司 一种多级重构的图像超分辨率方法
CN104867106A (zh) * 2015-05-29 2015-08-26 清华大学深圳研究生院 一种深度图超分辨率方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUXIANG YANG ET AL: "Range Image Super-Resolution via Guided Image Filter", 《PROCEEDINGS OF THE 4TH INTERNATIONAL CONFERENCE ON INTERNET MULTIMEDIA COMPUTING AND SERVICE》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105957013A (zh) * 2016-06-06 2016-09-21 南阳理工学院 一种单幅图像超分辨重建方法
CN105957013B (zh) * 2016-06-06 2018-11-23 南阳理工学院 一种单幅图像超分辨重建方法
CN106251329B (zh) * 2016-07-14 2019-01-08 天津大学 基于双变换域的深度图超分辨率方法
CN106408513B (zh) * 2016-08-25 2019-10-18 天津大学 深度图超分辨率重建方法
CN106408513A (zh) * 2016-08-25 2017-02-15 天津大学 深度图超分辨率重建方法
CN106327428A (zh) * 2016-08-31 2017-01-11 深圳大学 一种基于迁移学习的图像超分辨率方法及系统
CN106327428B (zh) * 2016-08-31 2019-12-10 深圳大学 一种基于迁移学习的图像超分辨率方法及系统
CN106548449A (zh) * 2016-09-18 2017-03-29 北京市商汤科技开发有限公司 生成超分辨率深度图的方法、装置及系统
CN108133459B (zh) * 2016-12-01 2021-04-09 北京大学 深度图增强方法和深度图增强装置
CN108133459A (zh) * 2016-12-01 2018-06-08 北京大学 深度图增强方法和深度图增强装置
CN106997614A (zh) * 2017-03-17 2017-08-01 杭州光珀智能科技有限公司 一种基于深度相机的大规模场景3d建模方法及其装置
CN107392852A (zh) * 2017-07-10 2017-11-24 深圳大学 深度图像的超分辨率重建方法、装置、设备及存储介质
CN107392852B (zh) * 2017-07-10 2020-07-07 深圳大学 深度图像的超分辨率重建方法、装置、设备及存储介质
CN107767357A (zh) * 2017-09-14 2018-03-06 北京工业大学 一种基于多方向字典的深度图像超分辨率方法
CN107767357B (zh) * 2017-09-14 2021-04-09 北京工业大学 一种基于多方向字典的深度图像超分辨率方法
CN108053368A (zh) * 2017-12-18 2018-05-18 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置
CN108053368B (zh) * 2017-12-18 2020-11-03 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置
CN110415169A (zh) * 2018-04-28 2019-11-05 深圳先进技术研究院 一种深度图超分辨率重建方法、系统及电子设备
CN110415169B (zh) * 2018-04-28 2023-07-14 深圳先进技术研究院 一种深度图超分辨率重建方法、系统及电子设备
CN109345482A (zh) * 2018-09-29 2019-02-15 深圳市牧月科技有限公司 一种深度超分辨率图像滤波处理方法
CN109345482B (zh) * 2018-09-29 2020-11-17 深圳市牧月科技有限公司 一种深度超分辨率图像滤波处理方法

Also Published As

Publication number Publication date
CN105335929B (zh) 2018-05-04

Similar Documents

Publication Publication Date Title
CN105335929A (zh) 一种深度图超分辨方法
CN107154023B (zh) 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN106127684B (zh) 基于双向递归卷积神经网络的图像超分辨率增强方法
CN109242888B (zh) 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法
CN106204447A (zh) 基于总变差分和卷积神经网络的超分辨率重建方法
CN106127688B (zh) 一种超分辨率图像重建方法及其系统
CN102930518B (zh) 基于改进的稀疏表示的图像超分辨率方法
CN103714526B (zh) 基于稀疏多流形嵌入的超分辨率图像重构方法
CN109118432A (zh) 一种基于快速循环卷积网络的图像超分辨率重建方法
CN105046672A (zh) 一种图像超分辨率重建方法
CN110060286B (zh) 一种单目深度估计方法
CN103065292B (zh) 一种基于主成份稀疏表达的人脸超分辨率重建方法
CN104091320B (zh) 基于数据驱动局部特征转换的噪声人脸超分辨率重建方法
CN110930306B (zh) 一种基于非局部感知的深度图超分辨率重建网络构建方法
CN103020933A (zh) 一种基于仿生视觉机理的多源图像融合方法
CN107833182A (zh) 基于特征提取的红外图像超分辨率重建方法
CN104299193B (zh) 一种基于高频和中频信息的图像超分辨率重建方法
CN106169174A (zh) 一种图像放大方法
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
CN104899835A (zh) 基于盲模糊估计与锚定空间映射的图像超分辨处理方法
CN105809650B (zh) 一种基于双向迭代优化的图像融合方法
CN104091364B (zh) 单幅图像超分辨重建方法
CN109903373A (zh) 一种基于多尺度残差网络的高质量人脸生成方法
CN113066025A (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
CN105931181B (zh) 基于非耦合映射关系的影像超分辨率重建方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant