CN111738921B - 基于深度神经网络的多信息渐进融合的深度超分辨率方法 - Google Patents

基于深度神经网络的多信息渐进融合的深度超分辨率方法 Download PDF

Info

Publication number
CN111738921B
CN111738921B CN202010541526.6A CN202010541526A CN111738921B CN 111738921 B CN111738921 B CN 111738921B CN 202010541526 A CN202010541526 A CN 202010541526A CN 111738921 B CN111738921 B CN 111738921B
Authority
CN
China
Prior art keywords
depth
resolution
branch
network
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010541526.6A
Other languages
English (en)
Other versions
CN111738921A (zh
Inventor
叶昕辰
徐睿
孙宝利
王智慧
李豪杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202010541526.6A priority Critical patent/CN111738921B/zh
Publication of CN111738921A publication Critical patent/CN111738921A/zh
Application granted granted Critical
Publication of CN111738921B publication Critical patent/CN111738921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基深度神经网络的多信息渐进融合的深度超分辨率方法,属于图像处理领域。该方法提出了一个多路网络结构分别提取了深度特征信息与彩色信息,并且将多种信息有效地融合并且充分利用。彩色图像及其对应的深度图在同一场景的光度和几何表征都具有很强的结构相似性,使用彩色图像辅助深度图像的恢复,更好的预测深度图上模糊的边界。本发明程序简单,易于实现,能够获得高质量的高分辨率的深度图像,有效地解决了深度图细微结构和小尺度目标区域难以精确地恢复的问题,得到的深度图清晰,目标边界锋利。

Description

基于深度神经网络的多信息渐进融合的深度超分辨率方法
技术领域
本发明属于图像处理及计算机视觉领域,涉及采用深度卷积神经网络对低分辨率的深度图像进行超分辨率恢复,并使用与深度图像对应的彩色图像指导进行恢复以求得高质量高分辨率深度图,具体涉及一种基于深度神经网络的多信息渐进融合的场景深度超分辨率的方法。
背景技术
场景深度作为基础的信息广泛用于三维(3D)建模,姿态估计以及辅助驾驶等。然而,在实际环境中,深度图的获取仍然是一项具有挑战性的任务,需要投入大量的精力和高成本的专业设备,如时间飞行(Time of flight,ToF)深度传感器,微软的Kinect相机或双目相机设备。由于实际场景的环境复杂性和深度传感器的限制,高精度和高分辨率的深度图几乎无法直接从深度传感器中获取,这也限制了其在实际应用中的使用。例如,广泛使用的微软的第二代Kinect相机(Kinect2)获取的深度图像的分辨率为512×424,而对应的彩色图像的分辨率为1920×1080。因此,由低分辨率的深度图获取高质量的高分辨率深度图的超分辨率技术对于实际应用显得十分重要。
随着深度学习的发展,利用深度卷积神经网络可以学习一个从低分辨率的深度图获取高分辨率的深度图的映射模型。通常,基于深度学习获取高分辨率深度图的方法根据输入数据的不同分为两种,一种方法是只使用低分辨的深度图作为输入(Gernot Riegler,Matthias R¨uther,and Horst Bischof.Atgv-net:Accuratedepth super-resolution.InECCV,pages 268–284,2016);另一种方法是使用低分辨率的深度图和对应的高分辨率的彩色图像,彩色图像作为辅助信息恢复高分辨率的深度图(Tak-Wai Hui,Chen Change Loy,and Xiaoou Tang.Depth mapuper-resolutionby deep multi-scaleguidance.In ECCV,pages 353–369,2016)。彩色图像及其对应的深度图在同一场景的光度和几何表征都具有很强的结构相似性。因此,现有的深度图超分辨率的方法大多以颜色信息为指导来恢复退化深度图。虽然上述基于卷积神经网络(convolutionalneuralnetwork,CNN)的方法表现出了令人印象深刻的性能,但是在处理深度细节的恢复时,结果并不令人满意。而且对于彩色图像信息的使用也不够充分。基于以上问题,本发明设计了一个基于深度神经网络的高质量的深度图超分辨率框架。
发明内容
本发明旨在克服现有技术的不足,提出了一个基于深度神经网络进行高质量深度图超分辨率的多信息渐进融合框架。该框架是一个多信息渐进融合的多路结构,由多个多路融合模块组成,本发明中使用3个多路融合模块,每个多路融合模块包括2个部分:重建支路和指导支路。重建支路利用基于错误反馈机制(Muhammad Haris,GregoryShakhnarovich,and NorimichiUkita.Deepback-projection networks for super-resolution.In IEEE CVPR,pages1664–1673,2018.)搭建的网络结构模拟图像恢复过程,使网络关注于恢复误差大的图像区域,逐渐地减小恢复误差。指导支路可以学习多种先验知识用于辅助深度图细节的恢复。最后,设计融合模块用于融合重建支路和指导支路,抽取具有选择判别性的特征。
本发明的技术方案为,一种基于深度神经网络的多信息渐进融合的场景深度超分辨率方法,所述方法包括下列步骤:
第一步,准备初始数据:训练数据包括低分辨率与高分辨率的深度图数据对,以及对应的高分辨率的彩色图像;
2)重建支路的构建:
2-1)利用错误反馈机制(Muhammad Haris,Gregory Shakhnarovich,andNorimichiUkita.Deepback-projection networks for super-resolution.In IEEECVPR,pages1664–1673,2018.)以及特征注意力机制,构建了基于注意力机制的错误反馈网络模块。
2-2)将4个相同的基于注意力机制的错误反馈模块串联组成重建支路。
3)指导支路的构建:指导支路由2个不同功能的指导支路构成,即多尺度特征指导支路和彩色指导支路。
3-1)多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积(Fisher Yu andVladlenKoltun,“Multi-scale context aggregation by dilated convolutions,”CoRR,vol.abs/1511.07122,2015.)在不改变特征分辨率的情况下获取获得多尺度的感受野。
3-2)彩色指导支路利用了三层普通卷积提取彩色图上的对应特征。
4)由3个多路聚合模块组成整体网络,每个多路聚合模块利用特征通道注意力机制(Changqian Yu,Jingbo Wang,Chao Peng,Changxin Gao,Gang Yu,andNongSang.Learning a discriminative feature network for semanticsegmentation.InIEEE CVPR,pages 1857–1866,2018.)融合了重建支路与指导支路的信息。
5)构建损失函数并训练网络:损失函数
Figure BDA0002539097460000031
衡量训练数据上由彩色图像IHR和低分辨率深度图DLR预测的高分辨率深度图DSR和真实高分辨率深度图DHR的差距。
Figure BDA0002539097460000032
其中,DSR表示网络预测的结果。||·||1表示1范数。网络训练过程即是在训练数据不断优化网络参数使
Figure BDA0002539097460000033
收敛得到最终的网络模型。
本发明的有益效果是:
本发明基于深度神经网络搭建的一个多信息渐进融合的深度图超分辨率的框架,最终得到高质量的高分辨率的深度图像,具有以下特点:
1、程序简单,易于实现,能够获得高质量的高分辨率的深度图像;
2、本方法将场景深度图像恢复当作一个渐近地恢复的过程,由多个多路聚合模块逐渐地恢复高质量的深度图;
3、本方法使用多尺度特征学习的结构,有效地解决了深度图细微结构和小尺度目标区域难以精确地恢复的问题。
4、本方法结合彩色图像与深度图内部结构一致性的先验指导信息,得到的深度图清晰且边界锋利。
附图说明
图1是具体实施流程图。
图2是基于特征注意力的错误反馈机制的框架图。
图3是初始数据样例。其中:(a)低质量深度图;(b)高分辨率真实深度图;(c)高分辨率彩色图。
图4是深度恢复结果以及与其他方法的比较,其中:(a)高分辨率深度图(b)低分辨率深度图;(c)真实的高分辨率深度图;(d)Shuhang Gu等人的结果(Shuhang Gu,WangmengZuo,Shi Guo,Yunjin Chen,Chongyu Chen,and Lei Zhang.Learning dynamicguidance for depth image enhancement.In IEEE CVPR,pages 712–721,2017);(e)Xinchen Ye等人的结果(Xinchen Ye,XiangyueDuan,and Haojie Li.Depth super-resolutionwith deep edge-inference network and edge-guided depthfilling.InIEEE ICASSP,pages 1398–1402,2018);(f)本发明的结果。
具体实施方式
下面结合实施例和附图对本发明的基于深度神经网络的多信息渐进融合的场景深度超分辨率方法做出详细说明。
一种基于深度神经网络的多信息渐进融合的场景深度超分辨率方法,如图1所示,包括下列步骤:
1)准备初始数据;
初始数据包括低分辨率和高分辨率深度图,以及相对应的高分辨率彩色图,其中一组数据如图3所示。为了训练网络,数据集使用Middlebury官方数据(http://vision.middlebury.edu),其中38张彩色-深度图像作为训练数据集,6张彩色-深度图像作为测试数据集。首先预处理训练数据集,从训练彩色-深度图像对中以截取256×256的彩色-深度图像块。通过双三次插值算法下采样256×256的深度图到128×128,64×64,32×32和16×16,分别用于2倍,4倍,8倍,16倍的超分辨率任务,最终形成15500组图像对用于训练。
2)重建支路的构建:
2-1)利用错误反馈机制(Muhammad Haris,Gregory Shakhnarovich,andNorimichiUkita.Deepback-projection networks for super-resolution.In IEEECVPR,pages1664–1673,2018.)以及特征注意力机制,构建了基于注意力机制的错误反馈网络模块,如图1所示。
2-1-1)如图2所示,基于注意力机制的错误反馈网络模块由前馈单元与反馈单元组成。在第t个基于注意力机制的错误反馈网络模块中(t=1,2,3,4),前馈单元以上一个基于注意力机制的错误反馈网络模块的输出特征
Figure BDA0002539097460000051
作为输入(当t=1时,第一个基于注意力机制的错误反馈网络模块的输入为经过浅层特征提取的深度特征,如图1所示),经过一个卷积操作进行下采样得到特征
Figure BDA0002539097460000052
再经过一个平均池化操作得到特征
Figure BDA0002539097460000053
其中
Figure BDA0002539097460000054
的尺寸为
Figure BDA0002539097460000055
Figure BDA0002539097460000056
将平均池化后的特征
Figure BDA0002539097460000057
通过反卷积上采样得到
Figure BDA0002539097460000058
Figure BDA0002539097460000059
的尺寸相同;对
Figure BDA00025390974600000510
Figure BDA00025390974600000511
进行相减再通过激活函数得到上采样误差
Figure BDA00025390974600000512
Figure BDA00025390974600000513
式中,PRelu(·)为激活函数(Parametricrectifiedlinearunit,PRelu)。最后在前馈单元中,将误差
Figure BDA00025390974600000514
Figure BDA00025390974600000515
进行相乘,使网络更加关注误差大的特征区域,前馈单元的输出为:
Figure BDA00025390974600000516
式中,γ是一个平衡系数,本发明中γ=0.1。*代表对应位置的元素相乘。
2-1-2)反馈单元,首先将前馈单元的输出特征
Figure BDA00025390974600000517
通过反卷积上采样到目标分辨率得到特征
Figure BDA00025390974600000518
经过一个卷积操作进行下采样得到特征
Figure BDA00025390974600000519
再通过一个反卷积操作上采样得到
Figure BDA00025390974600000520
Figure BDA00025390974600000521
Figure BDA00025390974600000522
进行相减再通过激活函数得到上采样误差
Figure BDA00025390974600000523
Figure BDA00025390974600000524
最后在反馈单元中,将误差
Figure BDA0002539097460000061
Figure BDA0002539097460000062
进行相乘,反馈单元的最后输出为:
Figure BDA0002539097460000063
2-2)重建支路由4个迭代的基于注意力机制的错误反馈模块串联组成,将每个错误反馈机制模块的输出串接再一起,再通过一个卷积操作进行初步融合,得到第k个多路融合模块中重建支路的输出
Figure BDA0002539097460000064
Figure BDA0002539097460000065
式中,Conv1×1表示卷积核大小为1×1的卷积操作,[·]为特征图的串接。T为基于注意力机制的错误反馈网络模块的最大串联个数,取值为4。本发明中k=1,2,3。
3)指导支路的构建:指导支路由2个不同功能的指导支路构成:多尺度特征指导支路和彩色指导支路。
3-1)多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积(Fisher Yu andVladlenKoltun,“Multi-scale context aggregation by dilated convolutions,”CoRR,vol.abs/1511.07122,2015.)在不改变特征分辨率的情况下获取获得多尺度的感受野。经过每层空洞卷积得到特征
Figure BDA0002539097460000066
Figure BDA0002539097460000067
式中,DilatConv(·)表示空洞卷积操作,i即表示第i个空洞卷积,di表示对应的空洞率。最后我们串接每个空洞卷积的输出,通过一个卷积减少特征通道,再通过一个反卷积操作上采样到目标尺寸,得到多尺度特征指导支路的输出
Figure BDA0002539097460000068
Figure BDA0002539097460000069
式中,DeConv(·)表示反卷积操作。
3-2)彩色指导支路利用了三层普通卷积提取了彩色特征。在每个彩色指导支路使用3层连续的卷积操作,卷积核的大小分别是3×3,3×3和1×1,得到彩色指导特征
Figure BDA00025390974600000610
4)融合模块的构建:利用特征通道注意力机制(Changqian Yu,Jingbo Wang,ChaoPeng,Changxin Gao,Gang Yu,andNong Sang.Learning a discriminativefeaturenetwork for semanticsegmentation.In IEEE CVPR,pages 1857–1866,2018.)融合了重建支路与指导支路的信息。得到融合后的特征
Figure BDA0002539097460000071
Figure BDA0002539097460000072
式中Fusion(·)表示特征通道注意力机制,
Figure BDA0002539097460000073
为上一个多路聚合模块的输出。
5)构建损失函数并训练网络:损失函数
Figure BDA0002539097460000074
衡量训练数据上由彩色图像IHR和低分辨率深度图DLR预测的高分辨率深度图DSR和真实高分辨率深度图DHR的差距。
Figure BDA0002539097460000075
其中,DSR表示网络预测的结果。||·||1表示1范数。网络训练过程即是在训练数据不断优化网络参数使
Figure BDA0002539097460000076
收敛得到最终的网络模型。
本方法对一组数据的恢复结果以及与其他先进的方法的比较如图4所示,其中(a)高分辨率深度图(b)低分辨率深度图;(c)真实的高分辨率深度图;(d)Shuhang Gu等人(Shuhang Gu,WangmengZuo,Shi Guo,Yunjin Chen,Chongyu Chen,and LeiZhang.Learning dynamic guidance for depth image enhancement.In IEEE CVPR,pages 712–721,2017)的结果;(e)Xinchen Ye等人(Xinchen Ye,XiangyueDuan,andHaojie Li.Depth super-resolutionwith deep edge-inference network and edge-guided depth filling.InIEEE ICASSP,pages 1398–1402,2018)的结果;(f)本发明的结果。结果标明本发明的性能优于其他方法。

Claims (4)

1.基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,包括如下步骤:
第一步,准备初始数据:训练数据包括低分辨率与高分辨率的深度图数据对,以及对应的高分辨率的彩色图像;
第二步,重建支路的构建,利用错误反馈机制以及特征注意力机制,构建基于注意力机制的错误反馈网络模块;重建支路由4个基于注意力机制的错误反馈模块串联组成;
第三步,指导支路的构建,指导支路包括多尺度特征指导支路和彩色指导支路;多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积在不改变特征分辨率的情况下获取多尺度的感受野;彩色指导支路利用了三层普通卷积提取彩色特征;
第四步,由3个多路聚合模块组成整体网络,每个多路聚合模块利用特征通道注意力机制融合重建支路与指导支路的信息;
第五步,构建损失函数并训练网络;
构建损失函数并训练网络:损失函数
Figure FDA0002539097450000011
衡量训练数据上由彩色图像IHR和低分辨率深度图DLR预测的高分辨率深度图DSR和真实高分辨率深度图DHR的差距;
Figure FDA0002539097450000012
其中,DSR表示网络预测的结果;||·||1表示1范数;网络训练过程即是在训练数据不断优化网络参数使
Figure FDA0002539097450000013
收敛得到最终的网络模型。
2.根据权利要求1所述的基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,第二步,重建支路的构建,利用错误反馈机制以及特征注意力机制,构建了基于注意力机制的错误反馈网络模块;包括以下步骤:
2-1)基于注意力机制的错误反馈网络模块由前馈单元与反馈单元组成;在第t个基于注意力机制的错误反馈网络模块中,t=1,2,3,4;前馈单元以上一个基于注意力机制的错误反馈网络模块的输出特征
Figure FDA0002539097450000014
作为输入,当t=1时,第一个基于注意力机制的错误反馈网络模块的输入为经过浅层特征提取的深度特征;经过一个卷积操作进行下采样得到特征
Figure FDA0002539097450000015
再经过一个平均池化操作得到特征
Figure FDA0002539097450000021
其中
Figure FDA0002539097450000022
的尺寸为
Figure FDA0002539097450000023
Figure FDA0002539097450000024
将平均池化后的特征
Figure FDA0002539097450000025
通过反卷积上采样得到
Figure FDA0002539097450000026
Figure FDA0002539097450000027
的尺寸相同;对
Figure FDA0002539097450000028
Figure FDA0002539097450000029
进行相减再通过激活函数得到上采样误差
Figure FDA00025390974500000210
Figure FDA00025390974500000211
式中,PRelu(·)为激活函数;最后在前馈单元中,将误差
Figure FDA00025390974500000212
Figure FDA00025390974500000213
进行相乘,使网络更加关注误差大的特征区域,前馈单元的输出为:
Figure FDA00025390974500000214
式中,γ是一个平衡系数,本发明中γ=0.1;*代表对应位置的元素相乘;
2-2)反馈单元,首先将前馈单元的输出特征
Figure FDA00025390974500000215
通过反卷积上采样到目标尺寸得到特征
Figure FDA00025390974500000216
经过一个卷积操作进行下采样得到特征
Figure FDA00025390974500000217
再通过一个反卷积操作上采样得到
Figure FDA00025390974500000218
Figure FDA00025390974500000219
Figure FDA00025390974500000220
进行相减再通过激活函数得到上采样误差
Figure FDA00025390974500000221
Figure FDA00025390974500000222
最后在反馈单元中,将误差
Figure FDA00025390974500000223
Figure FDA00025390974500000224
进行相乘,反馈单元的最后输出为:
Figure FDA00025390974500000225
3.根据权利要求1所述的基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,第三步,多尺度特征指导支路的构建,包括以下步骤:
3-1)多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积在不改变特征分辨率的情况下获取多尺度的感受野;经过每层空洞卷积得到特征
Figure FDA00025390974500000226
Figure FDA00025390974500000227
式中,DilatConv(·)表示空洞卷积操作,i即表示第i个空洞卷积,di表示对应的空洞率;最后串接每个空洞卷积的输出,通过一个卷积减少特征通道,再通过一个反卷积操作上采样到目标尺寸,得到多尺度特征指导支路的输出
Figure FDA00025390974500000228
Figure FDA00025390974500000229
式中,DeConv(·)表示反卷积操作;
3-2)彩色指导支路利用了三层普通卷积提取了彩色特征;在每个彩色指导支路使用3层连续的卷积操作,得到彩色指导特征
Figure FDA0002539097450000031
4.根据权利要求3所述的基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,第四步,多路聚合模块,融合重建支路与指导支路的信息;重建支路由4个基于注意力机制的错误反馈模块串联组成,将每个错误反馈机制的输出串接,再通过一个卷积操作进行初步融合,得到第k个,k=1,2,3,多路融合模块中重建支路的输出
Figure FDA0002539097450000032
Figure FDA0002539097450000033
式中,Conv1×1表示卷积核大小为1×1的卷积操作,[·]为特征图的串接;T为基于注意力机制的错误反馈网络模块的最大串联个数;
得到融合后的特征
Figure FDA0002539097450000034
Figure FDA0002539097450000035
式中Fusion(·)表示特征通道注意力机制,
Figure FDA0002539097450000036
为上一个多路聚合模块的输出。
CN202010541526.6A 2020-06-15 2020-06-15 基于深度神经网络的多信息渐进融合的深度超分辨率方法 Active CN111738921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010541526.6A CN111738921B (zh) 2020-06-15 2020-06-15 基于深度神经网络的多信息渐进融合的深度超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010541526.6A CN111738921B (zh) 2020-06-15 2020-06-15 基于深度神经网络的多信息渐进融合的深度超分辨率方法

Publications (2)

Publication Number Publication Date
CN111738921A CN111738921A (zh) 2020-10-02
CN111738921B true CN111738921B (zh) 2022-11-18

Family

ID=72649098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010541526.6A Active CN111738921B (zh) 2020-06-15 2020-06-15 基于深度神经网络的多信息渐进融合的深度超分辨率方法

Country Status (1)

Country Link
CN (1) CN111738921B (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416803B (zh) * 2018-03-14 2020-01-24 大连理工大学 一种基于深度神经网络的多信息融合的场景深度恢复方法
CN108510535B (zh) * 2018-03-14 2020-04-24 大连理工大学 一种基于深度预测和增强子网络的高质量深度估计方法

Also Published As

Publication number Publication date
CN111738921A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
Xiao et al. Satellite video super-resolution via multiscale deformable convolution alignment and temporal grouping projection
CN108510535B (zh) 一种基于深度预测和增强子网络的高质量深度估计方法
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN111047515A (zh) 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法
CN110738697A (zh) 基于深度学习的单目深度估计方法
CN103077505B (zh) 基于字典学习和结构聚类的图像超分辨率重建方法
CN111275618A (zh) 一种基于双支感知的深度图超分辨率重建网络构建方法
CN109035251B (zh) 一种基于多尺度特征解码的图像轮廓检测方法
CN109671094B (zh) 一种基于频域分级的眼底图像血管分割方法
CN109146944B (zh) 一种基于深度可分卷积神经网络的视觉深度估计方法
CN109584271B (zh) 基于高置信度更新策略的高速相关滤波跟踪方法
CN113283525B (zh) 一种基于深度学习的图像匹配方法
CN112365514A (zh) 基于改进PSPNet的语义分割方法
CN112183675B (zh) 一种基于孪生网络的针对低分辨率目标的跟踪方法
CN113516693B (zh) 一种快速通用的图像配准方法
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN113139904B (zh) 一种图像盲超分辨率方法及系统
CN111861884A (zh) 一种基于深度学习的卫星云图超分辨率重建方法
CN113449691A (zh) 一种基于非局部注意力机制的人形识别系统及方法
CN113392915A (zh) 一种基于深度学习的工业零件缺陷检测方法
CN104899835A (zh) 基于盲模糊估计与锚定空间映射的图像超分辨处理方法
CN107563963B (zh) 一种基于单张深度图超分辨率重建的方法
CN116109689A (zh) 基于引导优化聚合的边缘保持立体匹配方法
CN109949334B (zh) 基于深度强化网络残差连接的轮廓检测方法
CN103413351B (zh) 基于压缩感知理论的三维人脸快速重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant