CN116681592A - 基于多尺度自适应非局部注意力网络的图像超分辨率方法 - Google Patents
基于多尺度自适应非局部注意力网络的图像超分辨率方法 Download PDFInfo
- Publication number
- CN116681592A CN116681592A CN202310695717.1A CN202310695717A CN116681592A CN 116681592 A CN116681592 A CN 116681592A CN 202310695717 A CN202310695717 A CN 202310695717A CN 116681592 A CN116681592 A CN 116681592A
- Authority
- CN
- China
- Prior art keywords
- convolution
- local attention
- local
- output
- attention module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004364 calculation method Methods 0.000 claims abstract description 56
- 230000002776 aggregation Effects 0.000 claims abstract description 28
- 238000004220 aggregation Methods 0.000 claims abstract description 28
- 230000003044 adaptive effect Effects 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000013507 mapping Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 18
- 238000010586 diagram Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 14
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 9
- 101100247599 Hordeum vulgare RCAB gene Proteins 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000011158 quantitative evaluation Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 239000003086 colorant Substances 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 6
- 238000013461 design Methods 0.000 abstract description 5
- 238000007500 overflow downdraw method Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101710082751 Carboxypeptidase S1 homolog A Proteins 0.000 description 1
- 102100023804 Coagulation factor VII Human genes 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种多尺度自适应非局部注意力网络的图像超分辨率方法,包括:S1全局密集连接、局部残差连接的网络框架;S2非局部注意力模块中的基于自适应稀疏聚合的多尺度非注意力模块;S3非局部注意力模块中的反向残差投影特征融合方法;S4通道注意力模块中的二次通道注意力计算方法;S5基于亚像素卷积算法的上采样层。本发明首先将降采样后的低分辨率图像输入基于注意力机制的超分辨率模型中,经过浅层特征提取、深层特征提取、上采样以及重构后获得超分辨率图像。其中在深层特征提取中本发明设计了自适应稀疏聚合策略以及多尺度非局部注意力计算,使得网络能够关注更相关的特征信息以提升生成的超分辨率图像的精度。
Description
技术领域
本发明属于基于深度学习神经网络的图像超分辨率领域,具体涉及通过注意力机制挖掘图像中潜在的非局部语义信息以及局部结构特征信息的基于多尺度自适应非局部注意力网络的图像超分辨率方法。
背景技术
图像超分辨率技术,简称超分SR,指的是利用数字图像处理、计算机视觉等领域的相关知识,借由特定的算法和处理流程,从给定的低分辨率图像中复原出高分辨率图像的过程。其旨在克服或补偿由于图像采集系统或采集环境本身的限制,导致的成像图像模糊、质量低下、感兴趣区域不显著等问题。该技术在多个领域都有着广泛的应用范围和研究意义,主要包括:在图像压缩方面,网络传输过程中可以只传输低分辨率的图片,然后通过重建操作得到高分辨率图像。传输低分辨率图像相比高分辨率图像来说,可以减少网络负载;在医学图像方面,可以通过设备得到低分辨率图像,通过重建,能更加清晰地看到组织、细胞的状态;在公安安防方面,通过超分辨率重建可以恢复清晰的车牌号码、人脸;在视频感知领域,通过图像超分辨率重建技术,可以起到聚合视频画质、改善视频的质量,提升用户视觉体验的作用。随着深度学习的发展,基于深度学习的超分辨率方法性能相比传统的方法提升十分显著,并逐渐取代了传统的方法作为主流的超分辨率研究方法。如何设计网络拓扑结构、挖掘图片中潜藏的相关特征成为了学术界和工业界的核心关注点。
目前,国内外学者在基于注意力机制的图像超分领域做出了很多有价值的研究成果。Dai等人使用二阶通道注意(SPCA)模块使用二级特征度量(使用协方差计算通道权重而不是全局平均池化)提取更多的基于通道的数据表示。在此基础上,Woo等人在两种注意力的基础上提出了CBAM,该模块沿着通道和空间两个独立的维度依次推断注意特征图,然后将注意特征图乘以输入特征图进行自适应特征细化。由于非局部注意力会给噪声很大的权重,并且会带来2次的计算复杂度,Xia等人提出了一种新的高效的非局部对比注意(ENLCA)来执行长程视觉建模和利用更相关的非局部特征。
已有的图像超分方法通过残差卷积以及非局部注意力模块提取图像的结构特征,未充分利用图像中的跨尺度乃至多尺度及多级别特征,导致网络会受大量的非相关特征的噪声干扰,使得超分模型生成的高分辨率图像具有纹理紊乱、结构及边界模糊的现象。
发明内容
通过对现有的图像超分辨率模型进行探究,发现大多数基于注意力机制的模型存在以下几点缺陷:不能很好地利用跨尺度之间的空间信息来充分挖掘图片的深层次特征;没有考虑到空间注意力与通道注意力对特征的相互影响;在空间注意力中将噪音权重过于放大,没有突出相似度较大的像素特征。为改善这些问题,本发明提出基于自适应稀疏聚合的多尺度非局部注意力模块,利用反向残差投影将基于自适应稀疏聚合的多尺度非局部注意力模块输出与普通非局部注意力模块输出进行特征融合,并采用二阶通道注意力模块同上述构成的空间注意力模块级联残差块部分,最后采用全局密集连接、局部残差连接的方式作为非线性映射部分的总体网络框架。
本发明提供基于多尺度自适应非局部注意力网络的图像超分辨率方法具体分为以下步骤:
步骤1.提取浅层特征,采用单卷积层实现。分别将ILR和ISR作为模型的输入与输出,输入代表低分辨率图像,输出代表模型生成的高分辨率图像。公式为:
F0=HFSE(ILR)
其中HFSE(·)表示卷积操作,F0为浅层特征的提取结果。
步骤2.将提取到的浅层特征图输入到非线性映射层。非线性映射层作为网络设计的主要部分,能够捕获到图像的深层特征。非线性映射层主要由若干个残差组密集连接而成,在残差组内本发明采用长跳跃的残差连接。一方面,这种方式能够有效构建起全局的密集连接从而避免梯度消失和梯度爆炸影响模型性能,另一方面,局部采用长跳跃连接可以有效减小模型的计算复杂度,提高训练模型的效率。在残差组中,本发明设计了基于自适应稀疏聚合的多尺度非局部注意力模块,该模块是在原有的非局部注意力上进行拓展,通过对多个特定尺度的特征图进行跨尺度像素匹配,来评估特征之间的相关性。
通过跨尺度搜索信息可以从多尺度的对应关系中匹配到噪声更低的信号,因为将特征图缩小为更粗粒度的描述符并与之进行匹配可以有效降低噪声影响,而由于跨尺度所代表的内容相似,因此在缩小尺度后的结构信息仍将得到很好的保存。在每一级的跨尺度操作中采用卷积的方法来实现非局部注意力计算,实现方式是将较小尺寸的特征图作为卷积核对较大尺度的特征图进行卷积计算来实现相似度矩阵的获取。最后再利用小尺寸特征图所构成的卷积核对相似度矩阵做反卷积计算即可获得输出结果。
本发明同时设计了一种新的相似度矩阵降噪策略,即自适应稀疏聚合策略。自适应稀疏聚合是对非局部注意力的自相似矩阵进行元素级映射操作,其本质是过滤无关的空间信息,并且扩大相关信息的权重。当自相似矩阵做归一化指数函数操作时元素会根据自身值的大小来决定能否被赋予一个更大的权重。添加自适应稀疏聚合的非局部注意力计算公式可以表示为:
f(x)=xek|x|
其中Qi、Kj和Vj分别是待计算相似度的特征图,Yj是计算结果,f(x)是相似度矩阵的映射函数,k是一个大于0的系数。
为了使得基于自适应稀疏聚合的多尺度非局部注意力模块输出的特征图能够赋予相关特征更大的权重,本发明提出了反向残差投影来进行特征融合。反向残差投影是用于对各分支进行特征融合,其中的分支包括多尺度非局部注意力分支、普通单尺度非局部注意力分支、恒等映射分支。传统的解决办法之一是将几个分支的输出特征图连接在一起,再做一个卷积核宽高为1的通道卷积操作压缩通道。而反向残差投影可以充分利用不同分支上的特征间相互作用关系,从而使网络更加关注富信息量特征。
具体来说,反向残差投影分为残差投影和反向投影。残差投影首先对基于自适应稀疏聚合的多尺度非局部注意力模块和普通非局部注意力模块的输出相减获得的相差特征图做一次卷积操作后与基于自适应稀疏聚合的多尺度非局部注意力模块输出的特征图进行长跳跃连接。这样做的目的是使得网络关注两个输入之间的信息差异而绕过输入之间的信息共识。反向投影的灵感则是来源于深度反向投影网络,该部分的输入分别是上述的残差连接的输出以及模块的原输入,即恒等映射。首先分别将两个输入进行上采样,放大到相同尺寸后将二者做相减操作,然后对结果进行卷积操作后将结果进行下采样,最后于残差连接的结果进行长跳跃连接,最终获得输出。
将上述的部分作为空间注意力模块,并同二次通道注意力模块、局部注意力模块进行级联,构成残差分支的部分,而整个整体就是本发明的残差模块组,最后对残差模块组进行密集连接即构建起非线性映射部分的框架。非线性映射部分的计算公式可以表示为:
F1=HDF(F0)
其中HDF(·)表示非线性映射模块,F1为深层特征的提取结果。
步骤3.将非线性映射获取的特征图尺寸依据特定的算法放大到指定的大小。本发明采用亚像素卷积算法来实现特征图尺寸的放大。亚像素卷积算法的主要功能是将低分辨的特征图,通过卷积和多通道间的重组得到高分辨率的特征图。具体来说,亚像素卷积算法将r×r个通道的特征图组合为新的w×r,h×r的上采样结果。其中w和h分别是低分辨率图像的宽和高。上采样的计算公式可以表示为:
F2=HPS(F1)
其中HPS(·)表示亚像素卷积模块,F2为特征图上采样后的输出。
步骤4.将放大尺寸后的特征图通过一个卷积层进行重构,最终生成高分辨率的图像ISR。重构的计算公式可以表示为:
ISR=HRE(F2)
其中HRE(·)表示重构模块的单卷积层。最终本发明的整个模型可以用计算公式表示为:
ISR=HA(ILR)
其中HA(·)表示本发明所设计的超分辨率模型。
步骤5.计算损失。本发明采用L1损失,为了确保初始低像素图像ILR和生成的高分辨率图像ISR与真实图像IHR之间的像素级一致性,以及为了能够比较出网络结构带来的性能提升。计算公式为:
其中,Θ表示该深度学习网络的参数集,N表示输入低分辨率图像的数量。
步骤6.计算超分辨率模型定量评估指标PSNR以及SSIM来量化模型性能;
PSNR值的计算公式为:
其中,M是像素值的最大值,MSE是均方误差,是两幅图像之间每个像素误差的平方和的平均值。
SSIM值的计算公式为:
其中,x和y分别为两幅图像;μx和μy为两幅图像的均值;和/>为两幅图像的方差;σxy为两幅图像的协方差;C1和C2为需要进行调整的常数参数。
本发明网络架构由基于自适应稀疏聚合的多尺度非局部注意力模块、反向残差连接特征融合模块、二次通道注意力模块以及局部注意力模块构成。模块之间采用长跳跃的残差连接,并在由其构成的残差模块组之间采用密集跳跃连接,这样做的好处是能够提升模型对全局及局部语义信息、特征信息的提取及表达能力,从而提高模型生成高分辨率图像的视觉质量。本发明采用单一损失函数,从多种不同角度优化生成网络的参数,使得模型能够生成满足人类视觉的高分辨率图像。
附图说明
图1本发明的基于注意力机制的超分辨率模型网络架构图;
图2本发明的基于自适应稀疏聚合的多尺度非局部注意力模块结构图;
图3本发明的反向残差投影特征融合模块结构图;
图4本发明的自适应稀疏聚合策略的说明补充;
图5本发明图1的示例补充。
具体实施方式
实施例1
本发明提出基于多尺度自适应非局部注意力的图像超分辨率技术。如图1所示,整体网络架构由若干残差块密集连接构成。本实例采用5个残差块。其中,每个残差块的残差分支由非局部注意力模块、通道注意力模块和局部注意力模块级联而成。非局部注意力模块由以基于自适应稀疏聚合的多尺度非局部注意力模块、普通非局部注意力模块和恒等映射作为输入的反向残差投影组成。
接下来结合附图具体阐述实施步骤。
基于多尺度自适应非局部注意力的图像超分辨率方法,包括以下步骤:
步骤1.将低分辨率图像输入到超分辨率网络中;
首先输入通过浅层特征提取层;该层由一个3×256×3×3的卷积层构成,将低分辨率图像通道维映射到高维空间;HFSE表示浅层特征提取过程。计算公式为:
F0=HFSE(ILR)
步骤2.将上述得到的浅层特征图作为非线性映射层的输入;HDF表示非线性映射整体过程。计算公式为:
F1=HDF(F0)
步骤2.1.非线性映射层由若干个残差块RB密集连接而成,所以每一个残差块中的第一个模块RCABP都需要接收前面所有残差块的输出,从而构成密集连接;密集连接通过连接所有先前的层,使得所有层都能够访问之前的特征图;从而提高模型的准确性;实现密集连接的模块分别由由一个(256*n)×256×3×3的卷积层convD、relu函数、一个256×256×3×3的卷积层conv以及通道注意力层CAlayer构成;其中n为残差块的序号,本次示例n取为4;计算公式为:
OutRCABP=fCAlayer(fconv(relu((fconvD(F1))))
步骤2.2.RCABP的输出作为非局部注意力模块的输入;非局部注意力将输入分别用基于自适应稀疏聚合的多尺度非局部注意力模块、普通非局部注意力模块和恒等映射进行处理,并通过反向残差投影对三个模块的输出进行特征融合,由图三可以直观体现;
步骤2.2.1.基于自适应稀疏聚合的多尺度非局部注意力模块将输入的特征图等差缩小若干个尺度,本次示例缩小尺度的次数为5,每个相邻尺度从大到小递归进行非局部注意力计算,上一次计算的结果为下一次计算的输入;非局部注意力计算采用卷积的方式实现,将较小尺寸的特征图作为卷积核对较大尺度的特征图进行卷积计算来实现相似度矩阵的获取;最后再利用小尺寸特征图所构成的卷积核对相似度矩阵做反卷积计算即可获得输出结果;在计算相似度矩阵时采用自适应稀疏聚合的策略降噪,自适应稀疏聚合的效果可以从图4直观看出;整个模块的架构图如图2所示。该步骤的计算公式为:
f(x)=xek|x|
其中,d∈D,D={d1,d2,...,dr,...,dR},本次示例的尺寸缩小因子序列D取值为{0.9,0.8,0.7,0.6,0.5},R是一个超参数,用于决定多尺度非局部注意力中递归计算的层数;Z表示递归过程中上一次输出的特征图作为本轮计算的输入,Z0=X;表示在调整尺度的特征图中的斑块数量,和N之间的关系是/> 表示在d尺度上的特征图中以j为中心、范围为s2的邻域;/>是区域描述符;f(x)是自适应的稀疏聚合操作,x是自相似矩阵中的元素,k是一个超参数;
步骤2.2.2.反向残差投影分为残差投影和反向投影,如图3所示;反向残差投影的优势在于能够充分利用图像中的潜在先验信息,并有效地丰富SR图像中的多层语义细节纹理;反向残差投影有三个输入,分别是OutCMSNLA,OutNLA以及OutIM,OutCMSNLA是步骤2.2.1中非局部注意力模块的输出,OutNLA是传统非局部注意力模块的输出,OutIM是步骤2.1的输出;残差投影首先对基于自适应稀疏聚合的多尺度非局部注意力模块和普通非局部注意力模块的输出相减获得的相差特征图做一次卷积操作后与基于自适应稀疏聚合的多尺度非局部注意力模块进行长跳跃连接;计算公式为:
OutRP=fconv(relu((Fconv(OutCMSNLA-OutNLA)))+OutCMSNLA
该部分的输入分别是上述的残差连接的输出以及模块的原输入,首先分别将两个输入通过6×6转置卷积层进行上采样,然后对结果进行卷积操作后将结果进行下采样,最后于残差连接的结果进行长跳跃连接,最终获得输出;计算公式为:
tempBP=downscale(Fconv(upscale(OutRP)-upscale(OutIM))
OutBRP=tempBP+OutRP
步骤2.3.非局部注意力模块的输出作为通道注意力模块的输入;通道注意力模块采用二次通道注意力计算,二阶通道注意力利用二阶统计特征(本示例采用协方差归一化)而不是一阶统计特征(如全局平均池化)来自适应地学习特征之间的相互依赖;这种机制在保证模型能够为相关性更大的通道分配更大的权重的前提下,使得网络专注于更多的信息特征,并提高了模型的信息辨别能力;计算公式为:
OutRCAB=fSCAlayer(fconv(relu((fconv(OutBRP))))
与RCABP不同的是,通道注意力模块RCAB不需要在第一个卷积层中处理密集连接,并采用了二阶通道注意力计算;
步骤2.4.通道注意力模块的输出作为局部注意力模块的输入;局部注意力模块采用两个3×3的卷积层,卷积层中间使用RELU激活函数。计算公式为:
OutLB=Fconv(relu((Fconv(OutRCAB)))
步骤3.将非线性映射部分的输出作为上采样层的输入;上采样层采用亚像素卷积算法来实现特征图的尺寸放大到指定大小;本次示例采用2倍的放大比例;
步骤4.将放大尺寸后的特征图通过一个卷积层进行重构,其中卷积核拥有三个通道分别对应颜色的RGB三个通道,用来将特征图重构成最终的输出SR图像。最终生成高分辨率的图像ISR。重构的计算公式可以表示为:
ISR=HRE(F2)
其中HRE(·)表示重构模块的单卷积层。最终本发明的整个模型可以用计算公式表示为:
ISR=HA(ILR)
其中HA()表示本发明所设计的超分辨率模型。图5阐释了模型输入到输出的结果。
步骤5.采用平均绝对误差作为损失函数计算损失。
损失函数公式为:
其中,N表示图像中特征的总个数,ILR表示低分辨率图像,IHR表示高分辨率图像。在优化过程中,将当前批量的数据集作为输入传入模型,然后计算预测值与实际值之间的误差,即损失函数值。接着,根据损失函数的值来更新模型参数,使得损失函数的值下降。重复进行这种迭代的优化过程,直到达到收敛条件为止,最终训练结束得到模型。
步骤6.计算超分辨率模型定量评估指标PSNR以及SSIM来量化模型性能;
PSNR值的计算公式为:
其中,M是像素值的最大值,MSE是均方误差,是两幅图像之间每个像素误差的平方和的平均值。
SSIM值的计算公式为:
其中,x和y分别为两幅图像;μx和μy为两幅图像的均值;和/>为两幅图像的方差;σxy为两幅图像的协方差;C1和C2为需要进行调整的常数参数。
Claims (3)
1.基于多尺度自适应非局部注意力网络的图像超分辨率方法,其特征在于,包括以下步骤:
步骤1.将低分辨率图像输入到超分辨率网络中;
首先输入通过浅层特征提取层;该层由一个3×256×3×3的卷积层构成,将低分辨率图像通道维映射到高维空间;计算公式为:
F0=HFSE(ILR)
其中HFSE表示浅层特征提取过程,ILR表示低分辨率图像,F0为浅层特征提取层的输出特征图;
步骤2.将上述得到的浅层特征图作为非线性映射层的输入;计算公式为:
F1=HDF(F0)
其中HDF表示非线性映射整体过程,F1为非线性映射层的输出特征图;
步骤3.将非线性映射部分的输出作为上采样层的输入;上采样层采用亚像素卷积算法来实现特征图的尺寸放大到指定大小;计算公式为:
F2=HPS(F1)
其中HPS表示亚像素卷积层,F2为上采样层的输出特征图;
步骤4.将放大尺寸后的特征图通过一个卷积层进行重构,该卷积核拥有三个通道分别对应颜色的RGB三个通道,生成高分辨率的图像ISR;重构的计算公式可以表示为:
ISR=HRE(F2)
其中HRE表示重构模块的单卷积层;整个模型用计算公式表示为:
ISR=HA(ILR)
其中HA()表示本发明所设计的超分辨率模型;
步骤5.采用平均绝对误差作为损失函数计算损失;
损失函数公式为:
其中,N表示图像中特征的总个数,ILR表示低分辨率图像,IHR表示高分辨率图像;在优化过程中,将当前批量的数据集作为输入传入模型,然后计算预测值与实际值之间的损失函数值;根据损失函数的值来更新模型参数,使得损失函数的值下降;重复进行这种迭代的优化过程,直到达到收敛条件为止,最终训练结束得到模型;
步骤6.计算超分辨率模型定量评估指标PSNR以及SSIM来量化模型性能;
PSNR值的计算公式为:
其中,M是像素值的最大值,MSE是均方误差,是两幅图像之间每个像素误差的平方和的平均值;
SSIM值的计算公式为:
其中,x和y分别为两幅图像;μx和μy为两幅图像的均值;和/>为两幅图像的方差;σxy为两幅图像的协方差;C1和C2为需要进行调整的常数参数。
2.根据权利要求1所述的基于多尺度自适应非局部注意力网络的图像超分辨率方法,其特征在于,步骤2包括以下子步骤:
步骤2.1.非线性映射层由若干个残差块RB密集连接而成,所以每一个残差块RB中的第一个构成模块RCABP都需要接收前面所有残差块的输出,从而构成密集连接;密集连接通过连接所有先前的层,使得所有层都能够访问之前的特征图;实现密集连接的模块分别由由一个(256*n)×256×3×3的卷积层convD、relu函数、一个256×256×3×3的卷积层conv以及通道注意力层CAlayer构成;其中n为残差块的序号,OutRCABP是RCABP的输出结果,Fconv表示卷积操作,FconvD表示用于处理密集连接的卷积操作;计算公式为:
OutRCABP=FCAlayer(Fconv(relu((FconvD(F1))))
步骤2.2.RCABP的输出作为非局部注意力模块的输入;非局部注意力将输入分别用基于自适应稀疏聚合的多尺度非局部注意力模块、普通非局部注意力模块和恒等映射进行处理,并通过反向残差投影对三个模块的输出进行特征融合;
步骤2.3.非局部注意力模块的输出作为通道注意力模块的输入;通道注意力模块采用二次通道注意力计算,二阶通道注意力利用二阶统计特征而非一阶统计特征来自适应地学习特征之间的相互依赖;计算公式为:
OutRCAB=FSCAlayer(Fconv(relu((Fconv(OutBRP))))
其中,OutRCAB是通道注意力模块的出书结果;与RCABP不同的是,通道注意力模块RCAB不需要在第一个卷积层中处理密集连接,并采用了二阶通道注意力计算;
步骤2.4.通道注意力模块的输出作为局部注意力模块的输入;局部注意力模块采用两个3×3的卷积层,卷积层中间使用RELU激活函数;计算公式为:
OutLB=Fconv(relu((Fconv(OutRCAB)))
其中,OutLB是局部注意力模块的输出结果。
3.根据权利要求2所述的基于多尺度自适应非局部注意力网络的图像超分辨率方法,其特征在于,所述的步骤2.2中包括以下子步骤:
步骤2.2.1.基于自适应稀疏聚合的多尺度非局部注意力模块将输入的特征图等差缩小若干个尺度,每个相邻尺度从大到小递归进行非局部注意力计算,上一次计算的结果为下一次计算的输入;
非局部注意力计算采用卷积的方式实现,将较小尺寸的特征图作为卷积核对较大尺度的特征图进行卷积计算来实现相似度矩阵的获取;
再利用小尺寸特征图所构成的卷积核对相似度矩阵做反卷积计算获得输出结果;在计算相似度矩阵时采用自适应稀疏聚合的策略降噪;
该步骤的计算公式为:
f(x)=xek|x|
其中,d∈D,D={d1,d2,...,dr,...,dR},R是一个超参数,用于决定多尺度非局部注意力中递归计算的层数;Z表示递归过程中上一次输出的特征图作为本轮计算的输入,Z0=X;表示在调整尺度的特征图中的斑块数量,/>和N之间的关系是/> 表示在d尺度上的特征图中以j为中心、范围为s2的邻域;/>是区域描述符;f(x)是自适应的稀疏聚合操作,x是自相似矩阵中的元素,k是一个超参数;
步骤2.2.2.反向残差投影分为残差投影和反向投影;反向残差投影有三个输入,分别是OutCMSNLA,OutNLA以及OutIM,OutCMSNLA是步骤2.2.1中非局部注意力模块的输出,OutNLA是传统非局部注意力模块的输出,OutIM是步骤2.1的输出;残差投影首先对基于自适应稀疏聚合的多尺度非局部注意力模块和普通非局部注意力模块的输出相减获得的相差特征图做一次卷积操作后与基于自适应稀疏聚合的多尺度非局部注意力模块进行长跳跃连接;计算公式为:
OutRP=Fconv(relu((Fconv(OutCMSNLAOutNLA)))+OutCMSNLA
该部分的输入分别是上述的残差连接的输出OutNLA以及模块的原输入OutIM,首先分别将两个输入通过6×6转置卷积层进行上采样,然后对结果进行卷积操作后将结果进行下采样,最后于残差连接的结果进行长跳跃连接,最终获得输出;计算公式为:
tempBP=dowmscale(Fconv(upscale(OutRP)-upscale(OutIM))
OutBRP=tempBP+OutRP。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310695717.1A CN116681592A (zh) | 2023-06-13 | 2023-06-13 | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310695717.1A CN116681592A (zh) | 2023-06-13 | 2023-06-13 | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116681592A true CN116681592A (zh) | 2023-09-01 |
Family
ID=87785260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310695717.1A Pending CN116681592A (zh) | 2023-06-13 | 2023-06-13 | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116681592A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117218005A (zh) * | 2023-11-08 | 2023-12-12 | 华侨大学 | 基于全距离特征聚合的单帧图像超分辨率方法及系统 |
CN117495679A (zh) * | 2023-11-03 | 2024-02-02 | 北京科技大学 | 基于非局部稀疏注意力的图像超分辨率方法和装置 |
-
2023
- 2023-06-13 CN CN202310695717.1A patent/CN116681592A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117495679A (zh) * | 2023-11-03 | 2024-02-02 | 北京科技大学 | 基于非局部稀疏注意力的图像超分辨率方法和装置 |
CN117495679B (zh) * | 2023-11-03 | 2024-09-03 | 北京科技大学 | 基于非局部稀疏注意力的图像超分辨率方法和装置 |
CN117218005A (zh) * | 2023-11-08 | 2023-12-12 | 华侨大学 | 基于全距离特征聚合的单帧图像超分辨率方法及系统 |
CN117218005B (zh) * | 2023-11-08 | 2024-03-01 | 华侨大学 | 基于全距离特征聚合的单帧图像超分辨率方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112734646B (zh) | 一种基于特征通道划分的图像超分辨率重建方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN113222823B (zh) | 基于混合注意力网络融合的高光谱图像超分辨率方法 | |
CN109272452B (zh) | 小波域中基于集团结构子带共同学习超分辨率网络的方法 | |
CN116681592A (zh) | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 | |
CN111681166A (zh) | 一种堆叠注意力机制编解码单元的图像超分辨率重建方法 | |
CN110047138A (zh) | 一种磁共振薄层图像重建方法 | |
CN111951164B (zh) | 一种图像超分辨率重建网络结构及图像重建效果分析方法 | |
CN110288524B (zh) | 基于增强型上采样和辨别融合机制的深度学习超分辨率方法 | |
CN115147271A (zh) | 一种用于光场超分辨率的多视图信息注意力交互网络 | |
CN111815516A (zh) | 一种弱监督红外遥感图像超分辨率重建方法 | |
CN111402138A (zh) | 一种基于多尺度特征提取融合的监督卷积神经网络的图像超分辨率重建方法 | |
CN112950480A (zh) | 一种融合多感受野和密集残差注意的超分辨率重建方法 | |
CN115880158A (zh) | 一种基于变分自编码的盲图像超分辨率重建方法及系统 | |
CN111986085A (zh) | 一种基于深度反馈注意力网络系统的图像超分辨率方法 | |
Deng et al. | Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution | |
CN117474764B (zh) | 一种针对复杂退化模型下遥感图像的高分辨率重建方法 | |
CN115294225A (zh) | 一种针对新冠肺炎胸部ct的渐进式反向投影网络超分辨率重建方法 | |
Xu et al. | AS 3 ITransUNet: Spatial-Spectral Interactive Transformer U-Net with Alternating Sampling for Hyperspectral Image Super-Resolution | |
CN117078516B (zh) | 基于残差混合注意力的矿井图像超分辨率重建方法 | |
CN112184552B (zh) | 一种基于高频特征学习的子像素卷积图像超分辨方法 | |
CN109272450A (zh) | 一种基于卷积神经网络的图像超分方法 | |
CN116612009A (zh) | 一种多尺度连接生成对抗网络医学图像超分辨率重建方法 | |
CN115797181A (zh) | 一种面向矿井模糊环境的图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |