CN109064407A - 基于多层感知机层的密集连接网络图像超分辨率方法 - Google Patents
基于多层感知机层的密集连接网络图像超分辨率方法 Download PDFInfo
- Publication number
- CN109064407A CN109064407A CN201811069524.0A CN201811069524A CN109064407A CN 109064407 A CN109064407 A CN 109064407A CN 201811069524 A CN201811069524 A CN 201811069524A CN 109064407 A CN109064407 A CN 109064407A
- Authority
- CN
- China
- Prior art keywords
- layer
- intensive
- mlp
- perception
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008447 perception Effects 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 230000013016 learning Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于多层感知机层的密集连接网络图像超分辨率方法,其特征在于:低分辨率图像输入基于多层感知机层的密集连接网络,由密集连接网络进行图像的超分辨率运算,输出高分辨率图像;所述多层感知机层的密集连接网络包括若干密集连接模块,每个密集连接模块包括若干密集单元,每个密集单元中包括一个多层感知机层。本发明提出的图像超分辩率方法客观衡量指标高,图像超分辨率结果清晰,视觉效果好。
Description
技术领域
本发明涉及图像超分辨率技术领域,具体地说,本发明涉及一种基于多层感知机层的密集连接网络图像超分辨率技术方案(SR-RMDB)。
背景技术
图像超分辨率的基本目标是从输入的低分辨率图像中重建恢复出高分辨率图像。根据输入图像的数量,图像超分辨率方法分为单幅图像和多幅图像的超分辨率方法。
由于图像退化过程中信息损失的不可逆,单幅图像超分辨率是个病态问题。现存主要有三类方法解决这个问题,即:基于插值的方法、基于重建的方法和基于学习的方法。基于学习的方法又可分为基于浅层学习和基于深度学习的方法。近年来,基于深度学习即卷积神经网络的方法成为解决该问题的主流。为了学习低分辨率图像到高分辨率图像的非线性匹配,SRCNN的方法(C.Dong,C.L.Chen,K.He,and X.Tang,“Learning a deepconvolutional network for image super-resolution,”vol.8692,pp.184–199,2014)首先将卷积神经网络以端到端的方式引入单幅图像超分辨率问题中。即使该方法中的网络模型拥有较少的网络层数,其性能仍然优于其他非深度学习的方法。当在网络中堆叠更多的层时,会出现网络难以训练的问题。为了解决该问题,许多拥有短连接的有效模型被提出,如VDSR方法(J.Kim,J.K.Lee,and K.M.Lee,“Accurate image super-resolution usingvery deep convolutional networks,”in IEEE Conference on Computer Vision andPattern Recognition,2016,pp.1646–1654),DRCN方法(J.Kim,J.K.Lee,and K.M.Lee,“Deeply-recursive convolutional network for image super-resolution,”CoRR,vol.abs/1511.04491,2015.[Online].Available:http://arxiv.org/abs/1511.04491),DRRN方法(Y.Tai,J.Yang,and X.Liu,“Image super-resolution via deep recursiveresidual network,”in IEEE Conference on Computer Vision and PatternRecognition,2017,pp.2790–2798)。为了进一步提升图像超分辨率的性能,在单幅图像超分特征提取的过程中,一些方法将卷积层密集连接起来,包括DCSCN(Y.Jin,S.Kuwashima,and T.Kurita,“Fast and accurate image super resolution by deep cnn with skipconnection and network in network,”in International Conference on NeuralInformation Processing,2017,pp.217–225)和SR-DenseNet(T.Tong,G.Li,X.Liu,andQ.Gao,“Image super-resolution using dense skip connections,”in IEEEInternational Conference on Computer Vision,2017,pp.4809–4817)。前者的特征提取网络仅为一个密集模块,因此该模型需要大量的存储空间。虽然后者使用了多个密集连接模块,但在每个模块中仅使用卷积核大小为3×3的单一卷积层,并且其输出均直接送入下一层,因此并不能提取到足够的非线性特征。
发明内容
针对现有的技术缺陷,本发明提出了一种基于多层感知机层的密集连接网络图像超分辨率技术方案。
为达到上述目的,本发明采用的技术方案提供一种基于多层感知机层的密集连接网络图像超分辨率方法,低分辨率图像输入基于多层感知机层的密集连接网络,由密集连接网络进行图像的超分辨率运算,输出高分辨率图像;所述多层感知机层的密集连接网络包括若干密集连接模块,每个密集连接模块包括若干密集单元,每个密集单元中包括一个多层感知机层。
而且,所述多层感知机层的密集连接网络包括1个3×3的卷积层,M个密集连接模块,2个亚像素卷积层和1个加法器;
输入密集连接网络的低分辨率图像ILR,经卷积层得到低维特征F0;
随后,将低维特征F0输入第一个密集连接模块,其输出为F1,并作为第二个密集连接模块的输入,以此类推,经过M个密集连接模块后分别提取得到高维特征F1,…,FM;
然后,通过2个亚像素卷积层分别将低维特征F0和高维特征FM映射到高分辨率空间,相应得到本体映射FGR和全局残差FIM;
最后,经过加法器将全局残差FGR和本体映射FIM融合得到图像超分辨率结果ISR。
而且,所述密集连接模块包括D个密集单元,1个1×1的卷积层和一个加法器;
第m个密集连接模块的输入为Fm-1,m=1,2,…,M,;Fm-1输入到第1个密集单元计算得到局部高维特征F1,m,第2个密集单元的输入为Fm-1和F1,m,包括所在密集连接模块的输入和其之前所有密集单元的输出,计算得到局部高维特征F2,m,以此类推,第d个密集单元的输入为[Fm-1,F1,m,F2,m,…,Fd-1,m],计算得到局部高维特征Fd,m,d=2,…,D;
将D个密集单元的输出F1,m,F2,m,F3,m和第m个密集连接模块的输入Fm-1通过一个1×1的卷积层计算得到局部残差FLR;
将第m个密集连接模块的输入Fm-1和局部残差FLR融合,得到第m个密集连接模块的输出Fm。
而且,所述密集单元中包括1个3×3的卷积层、1个多层感知机层、2个修正线性单元和1个1×1的卷积层;
第m个密集连接模块中第d个密集单元的输入为[Fm-1,F1,m,F2,m,…,Fd-1,m],同时输入到3×3的卷积层、多层感知机层,然后进入卷积层、多层感知机层之后紧跟的修正线性单元,得到通过3×3的卷积层经修正线性单元的输出fd,m,得到通过多层感知机层经修正线性单元的输出fd,m;
根据输出fd,m和输出fd,m,经过一个1×1的卷积层计算得到输出Fd,m。
本发明提出包括对图像低维特征的提取;将多层感知机层结合卷积层融入密集连接单元,并建立了包含残差学习和多个密集连接单元在内的密集连接模型来提取高维特征;通过亚像素卷积层将高、低维特征分别映射到高分辨率空间;基于全局残差融合得到高分辨率图像的结果。本发明的图像超分辩率方法客观衡量指标高,图像超分辨率结果清晰,视觉效果好。和现有相比,本发明具有以下优点:
1、本发明针对图像超分辨率问题提出了一种新型的网络模型。与其他图像超分辨率方法相比,该方法在主、客观指标上均取得了较好的效果。
2、本发明提出了一种新型的密集连接模型,该模型具有较好的非线性表达能力,其分层次的提取特征实现了更好的图像超分辨率效果。
附图说明
图1为本发明实施例的整体的网络架构图;
图2为本发明实施例第m个密集连接模块架构图;
图3为本发明实施例第m个密集连接模块中第d个密集连接单元架构图。
具体实施方式
下面结合附图和实施例对本发明技术方案进一步详细说明。
本发明提出的方法:将低分辨率图像输入基于多层感知机层的密集连接网络,该网络进行图像的超分辨率运算,输出高分辨率图像。具体实施时可采用软件方式实现自动运行。
参见图1,本发明实施例中基于多层感知机层的密集连接网络包括1个3×3的卷积层,M个密集连接模块,2个亚像素卷积层和加法器;具体实施时,M的建议取值范围为1~5,实施例中M取优选值3。
向网络中输入低分辨率图像ILR,经卷积层得到低维特征F0,相应的数学定义如下,
F0=H3×3(ILR)
其中,H3×3(·)表示卷积核大小为3×3的卷积操作;
随后,将低维特征F0输入第一个密集连接模块,其输出为F1,并作为第二个密集连接模块的输入,以此类推,经过3个密集连接模块后分别提取得到高维特征F1,F2,F3,相应的数学定义如下,
其中,表示密集连接模块的运算,m=1,2,…,M,实施例中m=1,2,3;
然后,通过亚像素卷积层将低维特征F0和高维特征F3映射到高分辨率空间,相应的数学定义如下,
FIM=P(F0),
FGR=P(F3),
其中,P(·)表示亚像素卷积层(具体实现可参见Shi W,Caballero J,Theis L,etal.Is the deconvolution layer the same as a convolutional layer?[J].arXivpreprint arXiv:1609.07009,2016.)的操作,FGR表示全局残差,FIM表示本体映射;
最后,经过加法器将全局残差FGR和本体映射FIM融合得到图像超分辨率结果ISR,
ISR=FGR+FIM;
参见图2,所述密集连接模块包括D个密集单元,1个1×1的卷积层和一个加法器;实施例中D取3。
以第m个密集连接模块为例,m=1,2,3,其输入为Fm-1;Fm-1输入到第1个密集单元计算得到局部高维特征F1,m,相应的数学公式如下,
其中,表示密集单元的运算;
第2个密集单元的输入为Fm-1和F1,m,即其所在密集连接模块的输入和其之前所有密集单元的输出,计算得到局部高维特征F2,m,以此类推,第d(2≤d≤3)个密集单元的输入为[Fm-1,F1,m,F2,m,…,Fd-1,m],相应的输入输出关系定义如下:
其中,Fd,m表示第m个密集连接模块中第d(个密集单元的输出;d=2,…,D,实施例中2≤d≤3。
将3个密集单元的输出F1,m,F2,m,F3,m和Fm-1通过一个1×1的卷积层计算得到局部残差FLR,相应的数学公式如下,
FLR=H1×1([Fm-1,F1,m,F2,m,F3,m]),
其中,H1×1(·)表示1×1的卷积操作;
最终,通过加法器将第m个密集连接模块的输入Fm-1和局部残差FLR融合,相应的数学公式如下,
Fm=Fm-1+FLR,
其中,Fm表示第m个密集连接模块的输出;
参见图3,所述密集单元中包括一个3×3的卷积层、一个多层感知机层、两个修正线性单元和一个1×1的卷积层;
以第m(1≤m≤3)个密集连接模块中第d(2≤d≤3)个密集单元为例,其输入为[Fm-1,F1,m,F2,m,…,Fd-1,m],其同时输入到3×3的卷积层、多层感知机层,然后进入卷积层、多层感知机层之后紧跟的修正线性单元,相应的数学公式如下,
fd,m=max(H3×3([Fm-1,F1,m,…Fd-1,m]),0),
其中,Hmlpconv表示多层感知机层的操作(具体实现可参见Lin M,Chen Q,YanS.Network in network[J].arXiv preprint arXiv:1312.4400,2013.),fd,m表示3×3的卷积层经修正线性单元的输出,表示多层感知机层经修正线性单元的输出;max(,)为修正线性单元的运算,取其中的最大值;
最后,经过一个1×1的卷积层计算得到输出Fd,m,相应的数学公式如下,
具体实施时,可采用软件方式实现基于以上网络的图像的超分辨率运算。选取A+、SRCNN、VDSR方法与本发明进行图像超分辨率的对比,对比结果如下表,其中Set5,Set14,BSD100为三个公开测试图像库;PSNR表示峰值信噪比,SSIM表示结构相似性。可以看到本方法PSNR、SSIM指标最高。
方法效果对比表
可见,本发明通过将多层感知机层和残差学习融入密集连接模块,提取了图像不同层次的特征,提高了网络的非线性表达能力,实现了较好的图像超分辨率效果,客观衡量指标高,视觉效果好。
Claims (4)
1.一种基于多层感知机层的密集连接网络图像超分辨率方法,其特征在于:低分辨率图像输入基于多层感知机层的密集连接网络,由密集连接网络进行图像的超分辨率运算,输出高分辨率图像;所述多层感知机层的密集连接网络包括若干密集连接模块,每个密集连接模块包括若干密集单元,每个密集单元中包括一个多层感知机层。
2.根据权利要求1所述的基于多层感知机层的密集连接网络图像超分辨率方法,其特征在于:所述多层感知机层的密集连接网络包括1个3×3的卷积层,M个密集连接模块,2个亚像素卷积层和1个加法器;
输入密集连接网络的低分辨率图像ILR,经卷积层得到低维特征F0;
随后,将低维特征F0输入第一个密集连接模块,其输出为F1,并作为第二个密集连接模块的输入,以此类推,经过M个密集连接模块后分别提取得到高维特征F1,…,FM;
然后,通过2个亚像素卷积层分别将低维特征F0和高维特征FM映射到高分辨率空间,相应得到本体映射FGR和全局残差FIM;
最后,经过加法器将全局残差FGR和本体映射FIM融合得到图像超分辨率结果ISR。
3.根据权利要求2所述的基于多层感知机层的密集连接网络图像超分辨率方法,其特征在于:所述密集连接模块包括D个密集单元,1个1×1的卷积层和一个加法器;
第m个密集连接模块的输入为Fm-1,m=1,2,…,M,;Fm-1输入到第1个密集单元计算得到局部高维特征F1,m,第2个密集单元的输入为Fm-1和F1,m,包括所在密集连接模块的输入和其之前所有密集单元的输出,计算得到局部高维特征F2,m,以此类推,第d个密集单元的输入为[Fm-1,F1,m,F2,m,…,Fd-1,m],计算得到局部高维特征Fd,m,d=2,…,D;
将D个密集单元的输出F1,m,F2,m,F3,m和第m个密集连接模块的输入Fm-1通过一个1×1的卷积层计算得到局部残差FLR;
将第m个密集连接模块的输入Fm-1和局部残差FLR融合,得到第m个密集连接模块的输出Fm。
4.根据权利要求2所述的基于多层感知机层的密集连接网络图像超分辨率方法,其特征在于:所述密集单元中包括1个3×3的卷积层、1个多层感知机层、2个修正线性单元和1个1×1的卷积层;
第m个密集连接模块中第d个密集单元的输入为[Fm-1,F1,m,F2,m,…,Fd-1,m],同时输入到3×3的卷积层、多层感知机层,然后进入卷积层、多层感知机层之后紧跟的修正线性单元,得到通过3×3的卷积层经修正线性单元的输出fd,m,得到通过多层感知机层经修正线性单元的输出fd,m;
根据输出fd,m和输出fd,m,经过一个1×1的卷积层计算得到输出Fd,m。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811069524.0A CN109064407B (zh) | 2018-09-13 | 2018-09-13 | 基于多层感知机层的密集连接网络图像超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811069524.0A CN109064407B (zh) | 2018-09-13 | 2018-09-13 | 基于多层感知机层的密集连接网络图像超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109064407A true CN109064407A (zh) | 2018-12-21 |
CN109064407B CN109064407B (zh) | 2023-05-05 |
Family
ID=64761648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811069524.0A Active CN109064407B (zh) | 2018-09-13 | 2018-09-13 | 基于多层感知机层的密集连接网络图像超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109064407B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009568A (zh) * | 2019-04-10 | 2019-07-12 | 大连民族大学 | 满文图像超分辨率重建的生成器构建方法 |
CN110246085A (zh) * | 2019-05-21 | 2019-09-17 | 桂林电子科技大学 | 一种单图像超分辨率方法 |
CN110298791A (zh) * | 2019-07-08 | 2019-10-01 | 西安邮电大学 | 一种车牌图像的超分辨率重建方法和装置 |
CN110610459A (zh) * | 2019-09-17 | 2019-12-24 | 中国气象局公共气象服务中心(国家预警信息发布中心) | 图像处理方法及装置 |
CN111652054A (zh) * | 2020-04-21 | 2020-09-11 | 北京迈格威科技有限公司 | 关节点检测方法、姿态识别方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106779062A (zh) * | 2016-11-23 | 2017-05-31 | 苏州科技大学 | 一种基于残差网络的多层感知机人工神经网络 |
CN106991646A (zh) * | 2017-03-28 | 2017-07-28 | 福建帝视信息科技有限公司 | 一种基于密集连接网络的图像超分辨率方法 |
-
2018
- 2018-09-13 CN CN201811069524.0A patent/CN109064407B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106779062A (zh) * | 2016-11-23 | 2017-05-31 | 苏州科技大学 | 一种基于残差网络的多层感知机人工神经网络 |
CN106991646A (zh) * | 2017-03-28 | 2017-07-28 | 福建帝视信息科技有限公司 | 一种基于密集连接网络的图像超分辨率方法 |
Non-Patent Citations (2)
Title |
---|
GAO HUANG: "《Densely Connected Convolutional Networks》", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
KAIMING HE: "《Deep Residual Learning for Image Recognition》", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009568A (zh) * | 2019-04-10 | 2019-07-12 | 大连民族大学 | 满文图像超分辨率重建的生成器构建方法 |
CN110246085A (zh) * | 2019-05-21 | 2019-09-17 | 桂林电子科技大学 | 一种单图像超分辨率方法 |
CN110298791A (zh) * | 2019-07-08 | 2019-10-01 | 西安邮电大学 | 一种车牌图像的超分辨率重建方法和装置 |
CN110298791B (zh) * | 2019-07-08 | 2022-10-28 | 西安邮电大学 | 一种车牌图像的超分辨率重建方法和装置 |
CN110610459A (zh) * | 2019-09-17 | 2019-12-24 | 中国气象局公共气象服务中心(国家预警信息发布中心) | 图像处理方法及装置 |
CN111652054A (zh) * | 2020-04-21 | 2020-09-11 | 北京迈格威科技有限公司 | 关节点检测方法、姿态识别方法及装置 |
CN111652054B (zh) * | 2020-04-21 | 2023-11-03 | 北京迈格威科技有限公司 | 关节点检测方法、姿态识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109064407B (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111754403B (zh) | 一种基于残差学习的图像超分辨率重构方法 | |
CN109064407A (zh) | 基于多层感知机层的密集连接网络图像超分辨率方法 | |
Lee et al. | Local texture estimator for implicit representation function | |
CN109118432B (zh) | 一种基于快速循环卷积网络的图像超分辨率重建方法 | |
Park et al. | A dynamic residual self-attention network for lightweight single image super-resolution | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN107730451A (zh) | 一种基于深度残差网络的压缩感知重建方法和系统 | |
CN115222601A (zh) | 基于残差混合注意力网络的图像超分辨率重建模型及方法 | |
CN110136057B (zh) | 一种图像超分辨率重建方法、装置及电子设备 | |
CN110363068A (zh) | 一种基于多尺度循环生成式对抗网络的高分辨行人图像生成方法 | |
CN112699844A (zh) | 一种基于多尺度残差层级密连接网络的图像超分辨率方法 | |
WO2023185284A1 (zh) | 视频处理方法和装置 | |
CN109949217A (zh) | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 | |
CN112085655B (zh) | 一种基于密集残差注意面部先验网络的人脸超分辨率方法 | |
WO2024040973A1 (zh) | 一种基于堆叠沙漏网络的多尺度融合去雾方法 | |
CN115660955A (zh) | 高效多注意力特征融合的超分辨率重建模型、方法、设备及存储介质 | |
CN110288529B (zh) | 一种基于递归局部合成网络的单幅图像超分辨率重建方法 | |
CN104200498A (zh) | 融合Cortex-A7的实时视频超分辨率处理方法 | |
CN110047038B (zh) | 一种基于层级递进网络的单图像超分辨重建方法 | |
CN103226818B (zh) | 基于流形正则稀疏支撑回归的单帧图像超分辨率重建方法 | |
CN116681592A (zh) | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 | |
Wu et al. | Pyramidal dense attention networks for single image super‐resolution | |
Li et al. | Parallel-connected residual channel attention network for remote sensing image super-resolution | |
CN113450364B (zh) | 一种基于三维通量模型的树状结构中心线提取方法 | |
Guo et al. | Speedy and accurate image super‐resolution via deeply recursive CNN with skip connection and network in network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |