CN111738921B - 基于深度神经网络的多信息渐进融合的深度超分辨率方法 - Google Patents
基于深度神经网络的多信息渐进融合的深度超分辨率方法 Download PDFInfo
- Publication number
- CN111738921B CN111738921B CN202010541526.6A CN202010541526A CN111738921B CN 111738921 B CN111738921 B CN 111738921B CN 202010541526 A CN202010541526 A CN 202010541526A CN 111738921 B CN111738921 B CN 111738921B
- Authority
- CN
- China
- Prior art keywords
- depth
- resolution
- branch
- network
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 15
- 230000000750 progressive effect Effects 0.000 title claims abstract description 14
- 230000007246 mechanism Effects 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 11
- 230000002776 aggregation Effects 0.000 claims description 10
- 238000004220 aggregation Methods 0.000 claims description 10
- 230000008713 feedback mechanism Effects 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 claims description 2
- 239000011800 void material Substances 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000000605 extraction Methods 0.000 claims 1
- 238000011084 recovery Methods 0.000 abstract description 7
- 238000012545 processing Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 3
- 101100136092 Drosophila melanogaster peng gene Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基深度神经网络的多信息渐进融合的深度超分辨率方法,属于图像处理领域。该方法提出了一个多路网络结构分别提取了深度特征信息与彩色信息,并且将多种信息有效地融合并且充分利用。彩色图像及其对应的深度图在同一场景的光度和几何表征都具有很强的结构相似性,使用彩色图像辅助深度图像的恢复,更好的预测深度图上模糊的边界。本发明程序简单,易于实现,能够获得高质量的高分辨率的深度图像,有效地解决了深度图细微结构和小尺度目标区域难以精确地恢复的问题,得到的深度图清晰,目标边界锋利。
Description
技术领域
本发明属于图像处理及计算机视觉领域,涉及采用深度卷积神经网络对低分辨率的深度图像进行超分辨率恢复,并使用与深度图像对应的彩色图像指导进行恢复以求得高质量高分辨率深度图,具体涉及一种基于深度神经网络的多信息渐进融合的场景深度超分辨率的方法。
背景技术
场景深度作为基础的信息广泛用于三维(3D)建模,姿态估计以及辅助驾驶等。然而,在实际环境中,深度图的获取仍然是一项具有挑战性的任务,需要投入大量的精力和高成本的专业设备,如时间飞行(Time of flight,ToF)深度传感器,微软的Kinect相机或双目相机设备。由于实际场景的环境复杂性和深度传感器的限制,高精度和高分辨率的深度图几乎无法直接从深度传感器中获取,这也限制了其在实际应用中的使用。例如,广泛使用的微软的第二代Kinect相机(Kinect2)获取的深度图像的分辨率为512×424,而对应的彩色图像的分辨率为1920×1080。因此,由低分辨率的深度图获取高质量的高分辨率深度图的超分辨率技术对于实际应用显得十分重要。
随着深度学习的发展,利用深度卷积神经网络可以学习一个从低分辨率的深度图获取高分辨率的深度图的映射模型。通常,基于深度学习获取高分辨率深度图的方法根据输入数据的不同分为两种,一种方法是只使用低分辨的深度图作为输入(Gernot Riegler,Matthias R¨uther,and Horst Bischof.Atgv-net:Accuratedepth super-resolution.InECCV,pages 268–284,2016);另一种方法是使用低分辨率的深度图和对应的高分辨率的彩色图像,彩色图像作为辅助信息恢复高分辨率的深度图(Tak-Wai Hui,Chen Change Loy,and Xiaoou Tang.Depth mapuper-resolutionby deep multi-scaleguidance.In ECCV,pages 353–369,2016)。彩色图像及其对应的深度图在同一场景的光度和几何表征都具有很强的结构相似性。因此,现有的深度图超分辨率的方法大多以颜色信息为指导来恢复退化深度图。虽然上述基于卷积神经网络(convolutionalneuralnetwork,CNN)的方法表现出了令人印象深刻的性能,但是在处理深度细节的恢复时,结果并不令人满意。而且对于彩色图像信息的使用也不够充分。基于以上问题,本发明设计了一个基于深度神经网络的高质量的深度图超分辨率框架。
发明内容
本发明旨在克服现有技术的不足,提出了一个基于深度神经网络进行高质量深度图超分辨率的多信息渐进融合框架。该框架是一个多信息渐进融合的多路结构,由多个多路融合模块组成,本发明中使用3个多路融合模块,每个多路融合模块包括2个部分:重建支路和指导支路。重建支路利用基于错误反馈机制(Muhammad Haris,GregoryShakhnarovich,and NorimichiUkita.Deepback-projection networks for super-resolution.In IEEE CVPR,pages1664–1673,2018.)搭建的网络结构模拟图像恢复过程,使网络关注于恢复误差大的图像区域,逐渐地减小恢复误差。指导支路可以学习多种先验知识用于辅助深度图细节的恢复。最后,设计融合模块用于融合重建支路和指导支路,抽取具有选择判别性的特征。
本发明的技术方案为,一种基于深度神经网络的多信息渐进融合的场景深度超分辨率方法,所述方法包括下列步骤:
第一步,准备初始数据:训练数据包括低分辨率与高分辨率的深度图数据对,以及对应的高分辨率的彩色图像;
2)重建支路的构建:
2-1)利用错误反馈机制(Muhammad Haris,Gregory Shakhnarovich,andNorimichiUkita.Deepback-projection networks for super-resolution.In IEEECVPR,pages1664–1673,2018.)以及特征注意力机制,构建了基于注意力机制的错误反馈网络模块。
2-2)将4个相同的基于注意力机制的错误反馈模块串联组成重建支路。
3)指导支路的构建:指导支路由2个不同功能的指导支路构成,即多尺度特征指导支路和彩色指导支路。
3-1)多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积(Fisher Yu andVladlenKoltun,“Multi-scale context aggregation by dilated convolutions,”CoRR,vol.abs/1511.07122,2015.)在不改变特征分辨率的情况下获取获得多尺度的感受野。
3-2)彩色指导支路利用了三层普通卷积提取彩色图上的对应特征。
4)由3个多路聚合模块组成整体网络,每个多路聚合模块利用特征通道注意力机制(Changqian Yu,Jingbo Wang,Chao Peng,Changxin Gao,Gang Yu,andNongSang.Learning a discriminative feature network for semanticsegmentation.InIEEE CVPR,pages 1857–1866,2018.)融合了重建支路与指导支路的信息。
本发明的有益效果是:
本发明基于深度神经网络搭建的一个多信息渐进融合的深度图超分辨率的框架,最终得到高质量的高分辨率的深度图像,具有以下特点:
1、程序简单,易于实现,能够获得高质量的高分辨率的深度图像;
2、本方法将场景深度图像恢复当作一个渐近地恢复的过程,由多个多路聚合模块逐渐地恢复高质量的深度图;
3、本方法使用多尺度特征学习的结构,有效地解决了深度图细微结构和小尺度目标区域难以精确地恢复的问题。
4、本方法结合彩色图像与深度图内部结构一致性的先验指导信息,得到的深度图清晰且边界锋利。
附图说明
图1是具体实施流程图。
图2是基于特征注意力的错误反馈机制的框架图。
图3是初始数据样例。其中:(a)低质量深度图;(b)高分辨率真实深度图;(c)高分辨率彩色图。
图4是深度恢复结果以及与其他方法的比较,其中:(a)高分辨率深度图(b)低分辨率深度图;(c)真实的高分辨率深度图;(d)Shuhang Gu等人的结果(Shuhang Gu,WangmengZuo,Shi Guo,Yunjin Chen,Chongyu Chen,and Lei Zhang.Learning dynamicguidance for depth image enhancement.In IEEE CVPR,pages 712–721,2017);(e)Xinchen Ye等人的结果(Xinchen Ye,XiangyueDuan,and Haojie Li.Depth super-resolutionwith deep edge-inference network and edge-guided depthfilling.InIEEE ICASSP,pages 1398–1402,2018);(f)本发明的结果。
具体实施方式
下面结合实施例和附图对本发明的基于深度神经网络的多信息渐进融合的场景深度超分辨率方法做出详细说明。
一种基于深度神经网络的多信息渐进融合的场景深度超分辨率方法,如图1所示,包括下列步骤:
1)准备初始数据;
初始数据包括低分辨率和高分辨率深度图,以及相对应的高分辨率彩色图,其中一组数据如图3所示。为了训练网络,数据集使用Middlebury官方数据(http://vision.middlebury.edu),其中38张彩色-深度图像作为训练数据集,6张彩色-深度图像作为测试数据集。首先预处理训练数据集,从训练彩色-深度图像对中以截取256×256的彩色-深度图像块。通过双三次插值算法下采样256×256的深度图到128×128,64×64,32×32和16×16,分别用于2倍,4倍,8倍,16倍的超分辨率任务,最终形成15500组图像对用于训练。
2)重建支路的构建:
2-1)利用错误反馈机制(Muhammad Haris,Gregory Shakhnarovich,andNorimichiUkita.Deepback-projection networks for super-resolution.In IEEECVPR,pages1664–1673,2018.)以及特征注意力机制,构建了基于注意力机制的错误反馈网络模块,如图1所示。
2-1-1)如图2所示,基于注意力机制的错误反馈网络模块由前馈单元与反馈单元组成。在第t个基于注意力机制的错误反馈网络模块中(t=1,2,3,4),前馈单元以上一个基于注意力机制的错误反馈网络模块的输出特征作为输入(当t=1时,第一个基于注意力机制的错误反馈网络模块的输入为经过浅层特征提取的深度特征,如图1所示),经过一个卷积操作进行下采样得到特征再经过一个平均池化操作得到特征其中的尺寸为的将平均池化后的特征通过反卷积上采样得到与的尺寸相同;对与进行相减再通过激活函数得到上采样误差
式中,γ是一个平衡系数,本发明中γ=0.1。*代表对应位置的元素相乘。
式中,Conv1×1表示卷积核大小为1×1的卷积操作,[·]为特征图的串接。T为基于注意力机制的错误反馈网络模块的最大串联个数,取值为4。本发明中k=1,2,3。
3)指导支路的构建:指导支路由2个不同功能的指导支路构成:多尺度特征指导支路和彩色指导支路。
3-1)多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积(Fisher Yu andVladlenKoltun,“Multi-scale context aggregation by dilated convolutions,”CoRR,vol.abs/1511.07122,2015.)在不改变特征分辨率的情况下获取获得多尺度的感受野。经过每层空洞卷积得到特征
式中,DilatConv(·)表示空洞卷积操作,i即表示第i个空洞卷积,di表示对应的空洞率。最后我们串接每个空洞卷积的输出,通过一个卷积减少特征通道,再通过一个反卷积操作上采样到目标尺寸,得到多尺度特征指导支路的输出
式中,DeConv(·)表示反卷积操作。
4)融合模块的构建:利用特征通道注意力机制(Changqian Yu,Jingbo Wang,ChaoPeng,Changxin Gao,Gang Yu,andNong Sang.Learning a discriminativefeaturenetwork for semanticsegmentation.In IEEE CVPR,pages 1857–1866,2018.)融合了重建支路与指导支路的信息。得到融合后的特征
本方法对一组数据的恢复结果以及与其他先进的方法的比较如图4所示,其中(a)高分辨率深度图(b)低分辨率深度图;(c)真实的高分辨率深度图;(d)Shuhang Gu等人(Shuhang Gu,WangmengZuo,Shi Guo,Yunjin Chen,Chongyu Chen,and LeiZhang.Learning dynamic guidance for depth image enhancement.In IEEE CVPR,pages 712–721,2017)的结果;(e)Xinchen Ye等人(Xinchen Ye,XiangyueDuan,andHaojie Li.Depth super-resolutionwith deep edge-inference network and edge-guided depth filling.InIEEE ICASSP,pages 1398–1402,2018)的结果;(f)本发明的结果。结果标明本发明的性能优于其他方法。
Claims (4)
1.基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,包括如下步骤:
第一步,准备初始数据:训练数据包括低分辨率与高分辨率的深度图数据对,以及对应的高分辨率的彩色图像;
第二步,重建支路的构建,利用错误反馈机制以及特征注意力机制,构建基于注意力机制的错误反馈网络模块;重建支路由4个基于注意力机制的错误反馈模块串联组成;
第三步,指导支路的构建,指导支路包括多尺度特征指导支路和彩色指导支路;多尺度特征指导支路利用扩充率为1,2,3,4的空洞卷积在不改变特征分辨率的情况下获取多尺度的感受野;彩色指导支路利用了三层普通卷积提取彩色特征;
第四步,由3个多路聚合模块组成整体网络,每个多路聚合模块利用特征通道注意力机制融合重建支路与指导支路的信息;
第五步,构建损失函数并训练网络;
2.根据权利要求1所述的基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,第二步,重建支路的构建,利用错误反馈机制以及特征注意力机制,构建了基于注意力机制的错误反馈网络模块;包括以下步骤:
2-1)基于注意力机制的错误反馈网络模块由前馈单元与反馈单元组成;在第t个基于注意力机制的错误反馈网络模块中,t=1,2,3,4;前馈单元以上一个基于注意力机制的错误反馈网络模块的输出特征作为输入,当t=1时,第一个基于注意力机制的错误反馈网络模块的输入为经过浅层特征提取的深度特征;经过一个卷积操作进行下采样得到特征再经过一个平均池化操作得到特征其中的尺寸为的将平均池化后的特征通过反卷积上采样得到与的尺寸相同;对与进行相减再通过激活函数得到上采样误差
式中,γ是一个平衡系数,本发明中γ=0.1;*代表对应位置的元素相乘;
3.根据权利要求1所述的基于深度神经网络的多信息渐进融合的深度超分辨率方法,其特征在于,第三步,多尺度特征指导支路的构建,包括以下步骤:
式中,DilatConv(·)表示空洞卷积操作,i即表示第i个空洞卷积,di表示对应的空洞率;最后串接每个空洞卷积的输出,通过一个卷积减少特征通道,再通过一个反卷积操作上采样到目标尺寸,得到多尺度特征指导支路的输出
式中,DeConv(·)表示反卷积操作;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010541526.6A CN111738921B (zh) | 2020-06-15 | 2020-06-15 | 基于深度神经网络的多信息渐进融合的深度超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010541526.6A CN111738921B (zh) | 2020-06-15 | 2020-06-15 | 基于深度神经网络的多信息渐进融合的深度超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738921A CN111738921A (zh) | 2020-10-02 |
CN111738921B true CN111738921B (zh) | 2022-11-18 |
Family
ID=72649098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010541526.6A Active CN111738921B (zh) | 2020-06-15 | 2020-06-15 | 基于深度神经网络的多信息渐进融合的深度超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738921B (zh) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416803B (zh) * | 2018-03-14 | 2020-01-24 | 大连理工大学 | 一种基于深度神经网络的多信息融合的场景深度恢复方法 |
CN108510535B (zh) * | 2018-03-14 | 2020-04-24 | 大连理工大学 | 一种基于深度预测和增强子网络的高质量深度估计方法 |
-
2020
- 2020-06-15 CN CN202010541526.6A patent/CN111738921B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111738921A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xiao et al. | Satellite video super-resolution via multiscale deformable convolution alignment and temporal grouping projection | |
CN108510535B (zh) | 一种基于深度预测和增强子网络的高质量深度估计方法 | |
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN111047515A (zh) | 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法 | |
CN110738697A (zh) | 基于深度学习的单目深度估计方法 | |
CN103077505B (zh) | 基于字典学习和结构聚类的图像超分辨率重建方法 | |
CN111275618A (zh) | 一种基于双支感知的深度图超分辨率重建网络构建方法 | |
CN109035251B (zh) | 一种基于多尺度特征解码的图像轮廓检测方法 | |
CN109671094B (zh) | 一种基于频域分级的眼底图像血管分割方法 | |
CN109146944B (zh) | 一种基于深度可分卷积神经网络的视觉深度估计方法 | |
CN109584271B (zh) | 基于高置信度更新策略的高速相关滤波跟踪方法 | |
CN113283525B (zh) | 一种基于深度学习的图像匹配方法 | |
CN112365514A (zh) | 基于改进PSPNet的语义分割方法 | |
CN112183675B (zh) | 一种基于孪生网络的针对低分辨率目标的跟踪方法 | |
CN113516693B (zh) | 一种快速通用的图像配准方法 | |
CN113554032B (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN113139904B (zh) | 一种图像盲超分辨率方法及系统 | |
CN111861884A (zh) | 一种基于深度学习的卫星云图超分辨率重建方法 | |
CN113449691A (zh) | 一种基于非局部注意力机制的人形识别系统及方法 | |
CN113392915A (zh) | 一种基于深度学习的工业零件缺陷检测方法 | |
CN104899835A (zh) | 基于盲模糊估计与锚定空间映射的图像超分辨处理方法 | |
CN107563963B (zh) | 一种基于单张深度图超分辨率重建的方法 | |
CN116109689A (zh) | 基于引导优化聚合的边缘保持立体匹配方法 | |
CN109949334B (zh) | 基于深度强化网络残差连接的轮廓检测方法 | |
CN103413351B (zh) | 基于压缩感知理论的三维人脸快速重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |