CN111598781B - 一种基于混合高阶注意网络的图像超分辨率方法 - Google Patents

一种基于混合高阶注意网络的图像超分辨率方法 Download PDF

Info

Publication number
CN111598781B
CN111598781B CN202010412993.9A CN202010412993A CN111598781B CN 111598781 B CN111598781 B CN 111598781B CN 202010412993 A CN202010412993 A CN 202010412993A CN 111598781 B CN111598781 B CN 111598781B
Authority
CN
China
Prior art keywords
order
cascade
network
module
order attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202010412993.9A
Other languages
English (en)
Other versions
CN111598781A (zh
Inventor
邵杰
张东阳
李鑫垚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Institute Of Yibin University Of Electronic Science And Technology
Original Assignee
Research Institute Of Yibin University Of Electronic Science And Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Institute Of Yibin University Of Electronic Science And Technology filed Critical Research Institute Of Yibin University Of Electronic Science And Technology
Priority to CN202010412993.9A priority Critical patent/CN111598781B/zh
Publication of CN111598781A publication Critical patent/CN111598781A/zh
Application granted granted Critical
Publication of CN111598781B publication Critical patent/CN111598781B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于混合高阶注意网络的图像超分辨率方法,其包括以下步骤:S1、形成深层网络;S2、形成浅层网络;S3、将浅层网络与深层网络相连接;S4、将浅层网络中第一个级联群的输入作为混合高阶注意网络的输入,将深层网络中最后一个高阶注意模组的输出作为混合高阶注意网络的输出,完成混合高阶注意网络的构建;S5、采用混合高阶注意网络对目标图像进行处理,完成基于混合高阶注意网络的图像超分辨率处理。本方法基于混合高阶注意网络,不仅可以恢复低分辨率图像更强大的特征和高频细节,而且具有更短的运行时间和更少的GPU开销。

Description

一种基于混合高阶注意网络的图像超分辨率方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于混合高阶注意网络的图像超分辨率方法。
背景技术
随着社会的进步与发展,图像的获取与分析在我们生活中越来越普遍,图像的分辨率越高越有助于我们准确获取信息。遥感图像是天上卫星采集的图像,对它进行分析可以帮助我们进行环境监测,土地资源利用分析,因此,具有很大的实用价值。然而,遥感图像由于成像设备的限制、传输噪声及运动模糊等因素,分辨率普遍较低。目前通常采用升级硬件的方法来提升采集图像的分辨率,可是,这样做需要购买高昂的设备。
现有的应用于遥感图像超分辨率的方法主要有两大类,第一类是基于重建的方法。该类方法利用低分辨率图像多帧中的亚像素信息重建相对应的高分辨率图像。由于超分辨是一个非适定问题,其中一些方法会引入某种先验知识,如局部、非局部、稀疏先验等,虽然基于重建的方法直观,但它们仅限于手工制作的功能设计,其中涉及复杂的参数调整技术,很难应付复杂多变的场景。
第二类是基于实例学习的方法,它试图建立低分辨率与高分辨率图像对之间的映射关系。基于卷积神经网络的遥感超分辨率方法都主张设计一个非常深的模型来提高性能,但深模型往往计算和存储成本高,影响在实际中的应用。虽然深卷积神经网络(CNNs)具有强大的特征表示能力和端到端训练能力,通常情况下可以取得非常好的超分辨率效果。然而对于遥感图像,这些基于CNN的SR模型仍然存在一些问题:(1)大多数基于CNN的方法都主张设计一个非常深入的模型来提高遥感SR的性能,但这种复杂的模型往往会带来计算和存储成本高的问题,阻碍了它们在实际应用中的应用;(2)在大多数CNN模型中,常用的注意机制要么是粗糙的,要么是一阶的(即空间和通道注意),仅限于挖掘简单和粗糙的信息,从而导致SR图像恢复高频细节的能力不足;(3)通常情况下,分层特征图的频带信息没有得到充分利用。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于混合高阶注意网络的图像超分辨率方法可以对图像进行超分辨率处理。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于混合高阶注意网络的图像超分辨率方法,其包括以下步骤:
S1、将1个级联模块、1个卷积层和一个高阶注意模块串联构成一个高阶注意模组,将R个高阶注意模组串联形成深层网络;其中R≥3;
S2、采用3个卷积层串联构成1个级联块,采用3个级联块和一个卷积层串联构成1个级联群,将2R+1个级联群串联形成浅层网络;
S3、将浅层网络中第i个级联群的输出和第2R+1-i个级联群的输出与深层网络中的第R+1-i个高阶注意模组中的级联模块相连接,同时将浅层网络中最后一个级联群的输出和深层网络中的第一个高阶注意模组中的级联模块相连接;其中1≤i≤R;
S4、将浅层网络中第一个级联群的输入作为混合高阶注意网络的输入,将深层网络中最后一个高阶注意模组的输出作为混合高阶注意网络的输出,完成混合高阶注意网络的构建;
S5、采用混合高阶注意网络对目标图像进行处理,完成基于混合高阶注意网络的图像超分辨率处理。
进一步地,第i个高阶注意模组中的高阶注意模块包括
Figure GDA0002716759890000021
个1×1卷积层、i个像素级相乘单元和1个非线性操作模块;k=1,2,...,i;
其中,第1个高阶注意模组的输入x1通过其1×1卷积层后得到1个1阶描述符,第1个高阶注意模组中的非线性操作模块对该1阶描述符进行非线性操作,得到第1个高阶注意模组的非线性操作结果;第1个高阶注意模组中的像素级相乘单元将其非线性操作结构和输入x1进行像素级相乘,得到第1个高阶注意模组的输出;
第i个高阶注意模组中的输入xi通过其
Figure GDA0002716759890000031
个1×1卷积层后分别得到k个k阶描述符;分别通过1个像素级相乘单元对除第一阶外任一阶的所有描述符进行像素级相乘,得到除第一阶外任一阶的相乘结果;第i个高阶注意模组中的非线性操作模块将第一阶的描述符和除第一阶外所有阶的相乘结果在求和后进行非线性操作,得到第i个高阶注意模组的非线性操作结果;通过1个像素级相乘单元将第i个高阶注意模组的非线性操作结果与输入xi进行像素级相乘,得到第i个高阶注意模组的输出。
进一步地,深层网络中的卷积层均为1×1卷积层。
进一步地,级联块的具体构成方式为:
包括2个3×3的卷积层、1个级联模块和1个1×1的卷积层串联构成,其中第一个3×3的卷积层的输入和其级联模块的一个输入共同为级联块的输入,其1×1的卷积层的输出为整个级联块的输出。
进一步地,级联群的具体构成方式为:
包括3个级联块、1个级联模块和1个1×1的卷积层串联构成,其中第一个级联块的输入和其级联模块的一个输入共同为级联群的输入,其1×1的卷积层的输出为整个级联群的输出。
进一步地,非线性操作的具体方法为:
根据公式:
Figure GDA0002716759890000041
进行非线性操作,并得到非线性操作的结果AR;其中Zr表示非线性操作对象;Fr(·)表示1个1×1的卷积层和ReLU函数的非线性激活;sigmoid(·)表示sigmoid函数。
本发明的有益效果为:本方法基于混合高阶注意网络,不仅可以恢复低分辨率图像更强大的特征和高频细节,而且具有更短的运行时间和更少的GPU开销。
附图说明
图1为本发明的流程示意图;
图2为具有3个高阶注意模组时混合高阶注意网络的结构示意图;
图3为第1个高阶注意模组中高阶注意模块的数据处理示意图;
图4为第3个高阶注意模组中高阶注意模块的数据处理示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,该基于混合高阶注意网络的图像超分辨率方法包括以下步骤:
S1、将1个级联模块、1个卷积层和一个高阶注意模块串联构成一个高阶注意模组,将R个高阶注意模组串联形成深层网络;其中R≥3;深层网络中的卷积层均为1×1卷积层;
S2、采用3个卷积层串联构成1个级联块,采用3个级联块和一个卷积层串联构成1个级联群,将2R+1个级联群串联形成浅层网络;
S3、将浅层网络中第i个级联群的输出和第2R+1-i个级联群的输出与深层网络中的第R+1-i个高阶注意模组中的级联模块相连接,同时将浅层网络中最后一个级联群的输出和深层网络中的第一个高阶注意模组中的级联模块相连接;其中1≤i≤R;
S4、将浅层网络中第一个级联群的输入作为混合高阶注意网络的输入,将深层网络中最后一个高阶注意模组的输出作为混合高阶注意网络的输出,完成混合高阶注意网络的构建;
S5、采用混合高阶注意网络对目标图像进行处理,完成基于混合高阶注意网络的图像超分辨率处理。
第i个高阶注意模组中的高阶注意模块包括
Figure GDA0002716759890000051
个1×1卷积层、i个像素级相乘单元和1个非线性操作模块;k=1,2,...,i,即第3个高阶注意模组中的高阶注意模块包括6个1×1卷积层、3个像素级相乘单元和1个非线性操作模块。其中,如图3所示,第1个高阶注意模组的输入x1(图中为X)通过其1×1卷积层后得到1个1阶描述符(图3中为Z1),第1个高阶注意模组中的非线性操作模块对该1阶描述符进行非线性操作,得到第1个高阶注意模组的非线性操作结果;第1个高阶注意模组中的像素级相乘单元将其非线性操作结构和输入x1进行像素级相乘,得到第1个高阶注意模组的输出(图3中为Y)。图3中的⊙表示像素级相乘。
如图4所示,第3个高阶注意模组中的输入xi(图4中为X)通过其6个1×1卷积层后分别得到1个1阶描述符、2个2阶描述符和3个3阶描述符;再分别通过1个像素级相乘单元对2阶所有描述符和3阶所有描述符(除第一阶外任一阶的所有描述符)进行像素级相乘,得到2阶所有描述符和3阶所有描述符(除第一阶外任一阶)的相乘结果(图4中分别为Z2和Z3);第3个高阶注意模组中的非线性操作模块将第一阶的描述符(图4中为Z1)和除第一阶外所有阶的相乘结果(图4中分别为Z2和Z3)在求和后进行非线性操作,得到第3个高阶注意模组的非线性操作结果;最后通过1个像素级相乘单元将第3个高阶注意模组的非线性操作结果与输入xi(图4中为X)进行像素级相乘,得到第i个高阶注意模组的输出(图4中为Y)。图4中的⊙表示像素级相乘。
在具体实施过程中,级联块的具体构成方式为:包括2个3×3的卷积层、1个级联模块和1个1×1的卷积层串联构成,其中第一个3×3的卷积层的输入和其级联模块的一个输入共同为级联块的输入,其1×1的卷积层的输出为整个级联块的输出。
级联群的具体构成方式为:包括3个级联块、1个级联模块和1个1×1的卷积层串联构成,其中第一个级联块的输入和其级联模块的一个输入共同为级联群的输入,其1×1的卷积层的输出为整个级联群的输出。
非线性操作的具体方法为:根据公式:
Figure GDA0002716759890000061
进行非线性操作,并得到非线性操作的结果AR;其中Zr表示非线性操作对象;Fr(·)表示1个1×1的卷积层和ReLU函数的非线性激活;sigmoid(·)表示sigmoid函数。
在本发明的一个实施例中,如图2所示,若深层网络中只有3个高阶注意模组时,浅层网络包含7个级联群,浅层网络中第一个级联群的输出和第六个级联群的输出与深层网络中的第三个级联模块相连接,浅层网络中第二个级联群的输出和第五个级联群的输出与深层网络中的第二个级联模块相连接,浅层网络中第三个级联群的输出、第四个级联群的输出和最后一个级联群的输出与深层网络中的第一个级联模块相连接。
在实施例中,对于浅层网络本方法采用Conv-ReLU-Conv结构,使用加权信道级联(WCC)和卷积核1×1的卷积层来构成级联块(CB)。图2中的λ1和λ2分别是级联块输入和非线性映射输出的加权因子,若两者相等则级联块就表示为正常的残差块。与现有网络不同的是,本方法通过WCC将第一个CB的输入和最后一个CB的输出融合到一个卷积核为1×1的卷积层中,而不是基于像素级求和的残差连接,可以将可用资源重新分配给两部分中信息量最大的部分,从而鼓励浅层网络集中学习高频信息。
深层网络中的非线性操作模块可以在[0,1]区间中分配AR每个元素的值来生成R阶注意图,然后通过像素级相乘使AR来调整输入的大小,进而得到合适的输出大小,该过程可以将统计描述符转移到高阶注意图中,提高表达能力。
本方法所提出的高阶注意模块(HOA模块)简单且易于实现,仅涉及常用的操作,例如1×1的卷积层和激活函数。此外,对于传统信道注意模块,本方法可以使用全局平均池来降低输入的空间维数,然后使用两个级联的全连接层来产生信道统计,实际上,全连接层可以看作是1×1卷积层。因此,丢弃全局平均池,信道注意模块可以被认为是本方法的一阶HOA模块的一个特例。与只利用一阶信息的信道注意模块不同,本方法提出的HOA模块更加灵活。本方法的模型只需分配更大的值(R值),就可以产生更丰富的高阶统计量,从而产生强大的表示能力。
不同频带的特征映射对应于不同阶次的HOA模块。对于浅层网络,参数主要集中在包含简单纹理的低频信息上。对于深层网络,参数更注重高频成分,如充满边缘、纹理等细节的区域。因此,浅层低频信息应与更复杂、恢复细节能力更强的高阶HOA模块相连接。此外,高频分量也是遥感超分辨率的重要组成部分,通过高阶HOA模块进一步增强从深层获得的高频信息。因此,本方法提出了频率感知连接,以弥合模型结构和频带之间的间隙,即将浅层网络的头部和尾部的特征对馈送到深层网络中的高阶HOA模块中。
在具体使用过程中,采用本方法与现有技术在两个卫星图像数据集WHU-RS19和RSSCN8上进行实验的结果如表1和表2所示。
表1:实验数据对比
Figure GDA0002716759890000081
表2:运行成本和峰值信噪比对比
所用方法 运行时间(ms) GPU消耗(兆) 模型参数 峰值信噪比
SRCNN 1.84 773 57K 30.14
VDSR 8.29 987 667K 30.26
RDN 58.65 1244 16.52M 30.53
D-DBPN 155.36 7265 10.28M 30.66
RCAN 215.35 1059 15.59M 30.57
SRFBN 124.99 2646 3.631M 30.64
SAN 223.86 2465 11.98M 30.68
本方法(R=3) 53.46 937 8.931M 30.51
本方法(R=4) 70.65 1017 11.35M 30.64
本方法(R=5) 91.96 1163 13.77M 30.70
从表1中可以看出本方法相比现有的方法在峰值信噪比(PSNR)和结构相似性(SSIM)方面效果更好(数值越大效果越好),从表2中可以看出本方法在运行时间和GPU占用上相比大多数现有方法更优,在峰值信噪比上更是最好(R=5时,峰值信噪比数值越大越好)。表1中的Bicubic为双立方插值方法,SRCNN方法来自于C.Dong,C.C.Loy,K.He,andX.Tang,“Image super-resolution using deep convolutional networks,”IEEETrans.Pattern Anal.Mach.Intell.,vol.38,no.2,pp.295–307,2016。RDN方法来自于Y.Zhang,Y.Tian,Y.Kong,B.Zhong,and Y.Fu,“Residual dense network for imagesuper-resolution,”in 2018IEEE Conference on Computer Vision and PatternRecognition,CVPR 2018,Salt Lake City,UT,USA,June 18-22,2018,2018,pp.2472–2481。D-DBPN方法来自于K.Chang,P.L.K.Ding,and B.Li,“Single image super-resolution using collaborative representation and non-local self-similarity,”Signal Processing,vol.149,pp.49–61,2018。RCAN方法来自于Y.Zhang,K.Li,K.Li,L.Wang,B.Zhong,and Y.Fu,“Image super-resolution using very deep residualchannel attention networks,”in Computer Vision-ECCV 2018-15th EuropeanConference,Munich,Germany,September 8-14,2018,Proceedings,Part VII,2018,pp.294–310。SRFBN方法来自于Z.Li,J.Yang,Z.Liu,X.Yang,G.Jeon,and W.Wu,“Feedbacknetwork for image super-resolution,”in IEEE Conference on Computer Vision andPattern Recognition,CVPR 2019,Long Beach,CA,USA,June 16-20,2019,2019,pp.3867–3876。SAN方法来自于T.Dai,J.Cai,Y.Zhang,S.Xia,and L.Zhang,“Second-orderattention network for single image super-resolution,”in IEEE Conference onComputer Vision and Pattern Recognition,CVPR 2019,Long Beach,CA,USA,June 16-20,2019,2019,pp.11 065–11 074。
综上所述,本方法基于混合高阶注意网络,不仅可以恢复低分辨率图像更强大的特征和高频细节,而且具有更短的运行时间和更少的GPU开销。

Claims (6)

1.一种基于混合高阶注意网络的图像超分辨率方法,其特征在于,包括以下步骤:
S1、将1个级联模块、1个卷积层和一个高阶注意模块串联构成一个高阶注意模组,将R个高阶注意模组串联形成深层网络;其中R≥3;
S2、采用3个卷积层串联构成1个级联块,采用3个级联块和一个卷积层串联构成1个级联群,将2R+1个级联群串联形成浅层网络;
S3、将浅层网络中第i个级联群的输出和第2R+1-i个级联群的输出与深层网络中的第R+1-i个高阶注意模组中的级联模块相连接,同时将浅层网络中最后一个级联群的输出和深层网络中的第一个高阶注意模组中的级联模块相连接;其中1≤i≤R;
S4、将浅层网络中第一个级联群的输入作为混合高阶注意网络的输入,将深层网络中最后一个高阶注意模组的输出作为混合高阶注意网络的输出,完成混合高阶注意网络的构建;
S5、采用混合高阶注意网络对目标图像进行处理,完成基于混合高阶注意网络的图像超分辨率处理。
2.根据权利要求1所述的基于混合高阶注意网络的图像超分辨率方法,其特征在于,第i个高阶注意模组中的高阶注意模块包括
Figure FDA0002716759880000011
卷积层、i个像素级相乘单元和1个非线性操作模块;k=1,2,...,i;
其中,第1个高阶注意模组的输入x1通过其1×1卷积层后得到1个1阶描述符,第1个高阶注意模组中的非线性操作模块对该1阶描述符进行非线性操作,得到第1个高阶注意模组的非线性操作结果;第1个高阶注意模组中的像素级相乘单元将其非线性操作结构和输入x1进行像素级相乘,得到第1个高阶注意模组的输出;
第i个高阶注意模组中的输入xi通过其
Figure FDA0002716759880000021
个1×1卷积层后分别得到k个k阶描述符;分别通过1个像素级相乘单元对除第一阶外任一阶的所有描述符进行像素级相乘,得到除第一阶外任一阶的相乘结果;第i个高阶注意模组中的非线性操作模块将第一阶的描述符和除第一阶外所有阶的相乘结果在求和后进行非线性操作,得到第i个高阶注意模组的非线性操作结果;通过1个像素级相乘单元将第i个高阶注意模组的非线性操作结果与输入xi进行像素级相乘,得到第i个高阶注意模组的输出。
3.根据权利要求1所述的基于混合高阶注意网络的图像超分辨率方法,其特征在于,所述深层网络中的卷积层均为1×1卷积层。
4.根据权利要求1所述的基于混合高阶注意网络的图像超分辨率方法,其特征在于,所述级联块的具体构成方式为:
包括2个3×3的卷积层、1个级联模块和1个1×1的卷积层串联构成,其中第一个3×3的卷积层的输入和其级联模块的一个输入共同为级联块的输入,其1×1的卷积层的输出为整个级联块的输出。
5.根据权利要求1或4所述的基于混合高阶注意网络的图像超分辨率方法,其特征在于,所述级联群的具体构成方式为:
包括3个级联块、1个级联模块和1个1×1的卷积层串联构成,其中第一个级联块的输入和其级联模块的一个输入共同为级联群的输入,其1×1的卷积层的输出为整个级联群的输出。
6.根据权利要求2所述的基于混合高阶注意网络的图像超分辨率方法,其特征在于,所述非线性操作的具体方法为:
根据公式:
Figure FDA0002716759880000031
进行非线性操作,并得到非线性操作的结果AR;其中Zr表示非线性操作对象;Fr(·)表示1个1×1的卷积层和ReLU函数的非线性激活;sigmoid(·)表示sigmoid函数。
CN202010412993.9A 2020-05-15 2020-05-15 一种基于混合高阶注意网络的图像超分辨率方法 Expired - Fee Related CN111598781B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010412993.9A CN111598781B (zh) 2020-05-15 2020-05-15 一种基于混合高阶注意网络的图像超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010412993.9A CN111598781B (zh) 2020-05-15 2020-05-15 一种基于混合高阶注意网络的图像超分辨率方法

Publications (2)

Publication Number Publication Date
CN111598781A CN111598781A (zh) 2020-08-28
CN111598781B true CN111598781B (zh) 2020-12-08

Family

ID=72185689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010412993.9A Expired - Fee Related CN111598781B (zh) 2020-05-15 2020-05-15 一种基于混合高阶注意网络的图像超分辨率方法

Country Status (1)

Country Link
CN (1) CN111598781B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112766104A (zh) * 2021-01-07 2021-05-07 湖北公众信息产业有限责任公司 保险新零售服务平台

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104731996A (zh) * 2013-12-24 2015-06-24 南京理工大学 一种快速提取电大尺寸金属腔体目标瞬态散射信号的仿真方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107492071B (zh) * 2017-08-17 2021-04-27 京东方科技集团股份有限公司 医学图像处理方法及设备
CN110163041A (zh) * 2018-04-04 2019-08-23 腾讯科技(深圳)有限公司 视频行人再识别方法、装置及存储介质
CN109584161A (zh) * 2018-11-29 2019-04-05 四川大学 基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法
CN109886871B (zh) * 2019-01-07 2023-04-07 国家新闻出版广电总局广播科学研究院 基于通道注意力机制和多层特征融合的图像超分辨率方法
CN110415170B (zh) * 2019-06-24 2022-12-16 武汉大学 一种基于多尺度注意力卷积神经网络的图像超分辨率方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104731996A (zh) * 2013-12-24 2015-06-24 南京理工大学 一种快速提取电大尺寸金属腔体目标瞬态散射信号的仿真方法

Also Published As

Publication number Publication date
CN111598781A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
Xue et al. Wavelet-based residual attention network for image super-resolution
CN110490082B (zh) 一种有效融合神经网络特征的道路场景语义分割方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
Dai et al. Awnet: Attentive wavelet network for image isp
Xin et al. Wavelet-based dual recursive network for image super-resolution
Chen et al. Multi-attention augmented network for single image super-resolution
Cai et al. TDPN: Texture and detail-preserving network for single image super-resolution
CN111369450A (zh) 去除摩尔纹的方法与装置
CN113822830A (zh) 基于深度感知增强的多曝光图像融合方法
Zhao et al. Comprehensive and delicate: An efficient transformer for image restoration
CN112017116B (zh) 基于非对称卷积的图像超分辨率重建网络及其构建方法
Wang et al. Multi-scale attention network for image super-resolution
Zou et al. Joint wavelet sub-bands guided network for single image super-resolution
CN111882053B (zh) 一种基于拼接卷积的神经网络模型压缩方法
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
Hai et al. Advanced retinexnet: a fully convolutional network for low-light image enhancement
CN111598781B (zh) 一种基于混合高阶注意网络的图像超分辨率方法
Hung et al. Image interpolation using convolutional neural networks with deep recursive residual learning
Liu et al. Gradient prior dilated convolution network for remote sensing image super-resolution
Liu et al. Hierarchical similarity learning for aliasing suppression image super-resolution
Li et al. RGSR: A two-step lossy JPG image super-resolution based on noise reduction
CN111179171A (zh) 基于残差模块和注意力机制的图像超分辨率重建方法
CN115471417A (zh) 图像降噪处理方法、装置、设备、存储介质和程序产品
CN112308772B (zh) 基于深度学习局部与非局部信息的超分辨率重建方法
Yu et al. Local excitation network for restoring a jpeg-compressed image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201208