CN115526779A - 一种基于动态注意力机制的红外图像超分辨率重建方法 - Google Patents
一种基于动态注意力机制的红外图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN115526779A CN115526779A CN202211234451.2A CN202211234451A CN115526779A CN 115526779 A CN115526779 A CN 115526779A CN 202211234451 A CN202211234451 A CN 202211234451A CN 115526779 A CN115526779 A CN 115526779A
- Authority
- CN
- China
- Prior art keywords
- module
- attention
- resolution
- infrared image
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000007246 mechanism Effects 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000003062 neural network model Methods 0.000 claims abstract description 13
- 238000012360 testing method Methods 0.000 claims abstract description 10
- 238000012854 evaluation process Methods 0.000 claims abstract description 6
- 238000000605 extraction Methods 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 21
- 238000013461 design Methods 0.000 claims description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 abstract description 2
- 238000003672 processing method Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000011161 development Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于动态注意力机制的红外图像超分辨率重建方法,涉及图像处理方法技术领域。所述方法包括如下步骤:构建一个基于动态注意力机制的轻量化深度神经网络模型;制作所述神经网络模型的训练数据集;使用所述训练数据集对所述神经网络模型进行训练:将成对的低分辨率红外图像和目标图像提供给所述网络模型,设置超参数开始训练网络,直至达到所设定的最大迭代次数,终止训练;保存模型:训练完成后,将评估过程中峰值信噪比最高指标所对应的一组网络权重保存为最终的网络模型参数用于后期测试。所述方法能够提高红外图像超分辨率性能且参数量较小,计算速度快。
Description
技术领域
本发明涉及图像处理方法技术领域,尤其涉及一种基于动态注意力机制的红外图像超分辨率重建方法。
背景技术
得益于微电子技术的飞速发展,基于可见光的光学相机(RGB相机)凭借其较快的成像速度和较佳的成像质量,迅速在诸如安防监控、无人机、军事和农业等领域得到了广泛应用。然而,由于成像原理的限制,在光线质量不佳(如夜间)和恶劣天气条件等场景下,导致基于可见光的RGB相机成像质量迅速下降。此时,红外相机由于穿透烟、雾等能力较强,在上述场景下可替代传统 RGB相机用于捕获图像。但是,一般民用红外相机的传感器空间分辨率较低,无法与动辄百万像素的RGB相机所媲美,导致其最终成像的红外图像分辨率不高。因而,采用新技术和新方法高效而又经济的提高红外图像的分辨率成为亟待解决的问题。相较于花费大量时间和资金投入研发高分辨率红外传感器,从算法这一技术路径提升红外图像分辨率成为当前主流发展方向。
单图像超分辨率旨在根据观测的单帧图像恢复其所对应的高分辨率版本。近十年来,随着计算机处理速度的提升及专用图形处理器(GPU)技术的快速发展,基于深度神经网络的单图像超分辨率技术得到了长足发展。凭借深度神经网络强大的非线性拟合能力,基于此技术的图像超分辨率算法性能明显优于基于插值及字典学习的传统算法。此外,随着神经处理单元NPU的问世,在诸如手机等边缘设备部署大规模深度神经网络模型业已成为现实。然而,当前基于深度神经网络的红外图像超分辨率模型参数量较多,限制了其进一步应用。综上所述,研发基于深度神经网络的轻量化红外图像超分辨率算法具有明确的现实意义和确切的社会经济效益。
发明内容
本发明所要解决的技术问题是如何提供一种能够提高红外图像超分辨率性能,参数量较小,计算速度快的基于动态注意力机制的红外图像超分辨率重建方法。
为解决上述技术问题,本发明所采取的技术方案是:一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于包括如下步骤:
构建一个基于动态注意力机制的轻量化深度神经网络模型;
制作所述神经网络模型的训练数据集;
使用所述训练数据集对所述神经网络模型进行训练:将成对的低分辨率红外图像和目标图像提供给所述网络模型,设置超参数开始训练网络,直至达到所设定的最大迭代次数,终止训练;
保存模型:训练完成后,将评估过程中峰值信噪比最高指标所对应的一组网络权重保存为最终的网络模型参数用于后期测试。
进一步的技术方案在于:所述轻量化深度神经网络模型包括浅层特征抽取模块、深层特征抽取模块和特征重构模块。
进一步的技术方案在于:所述浅层特征抽取模块SFE包括一个卷积核大小为3×3的卷积层;输入的低分辨率红外图像LR经过浅层特征抽取模块处理后,其边缘、纹理等浅层特征被抽取,上述过程可表述为:
ILFE=f3×3(ILR)
其中,ILR表示输入的低分辨率红外图像,f3×3(·)表示卷积核大小为3×3的卷积操作,ILFE表示浅层特征抽取模块SFE的输出。
进一步的技术方案在于:所述深层特征抽取模块包括16个动态注意力残差块,浅层特征抽取后的特征图连续通过深层特征抽取模块抽取图像的深层次特征;
每个动态注意力残差块包括:动态注意力权值模块、注意力模块和非注意力模块;设计一个动态注意力权值模块用于产生两个动态权值,分别对注意力模块和非注意力模块加权,以高效地抑制不期望的注意力调整;同时,为了进一步减少参数量,在动态注意力权值模块中部分使用1-D卷积而非完全的全连接层;动态注意力权值模块中的操作可表述为:
其中,xn-1表示第n个动态注意力模块的输入,和分别表示Softmax、全连接、1-D卷积和全局平均池化操作,ωatt和ωn-att分别为每个动态注意力权值模块依据输入特征而动态产生的注意力模块和非注意力模块的权值;
注意力模块包括像素注意力模块和通道注意力模块,分别用于在像素和通道维度突出重要特征;所述通道注意力模块对输入特征经过全局平均池化和标准差池化后的特征向量分别乘以一个可学习的参数α和β,用于突出全局平均池化和标准差池化的不同作用;同时,还对两个池化结果进行融合以进一步增强特征;融合以上三个特征后,使用1-D卷积代替全连接层以进一步提取通道间特征,注意力模块中的操作可表述为:
所述非注意力模块包括一个卷积核大小为3×3的卷积层,非注意力模块中的操作可表示为:
第n个动态注意力残差块中的操作可表示为:
所述深层特征抽取模块的操作可表述为:
进一步的技术方案在于:特征重构模块包括最近邻插值层、三个卷积核大小为3×3的卷积层和一个像素注意力层,×2和×3尺度因子对应的特征重构模块的操作可表示为:
由于×4尺度因子超分辨率重建所需要恢复的细节等高频信息更多,因而对该尺度因子所对应的特征重构块设计包括:两个最近邻插值层、五个卷积核大小为3×3的卷积层、两个像素注意力层,×4尺度因子所对应的特征重构块的操作可表示为:
最终输出的红外图像超分辨率结果可表示为:
ISR=IFR+fNearest(ILR)。
进一步的技术方案在于:构造训练数据集时,将已有的高分辨率红外图像作为目标图像,利用双三次插值算法下采样分别得到×2、×3和×4尺度因子所对应的低分辨率红外图像作为所述网络模型的输入。
进一步的技术方案在于:训练网络时使用Adam优化器,初始学习率α=5×10-4,批大小为32;计算生成的ISR和真实高分辨率图像IHR之间的L1损失,通过反向传播算法更新网络权重,重复以上步骤直至达到设定的迭代次数完成训练。
进一步的技术方案在于:训练完成后,将评估过程中峰值信噪比最高指标所对应的一组网络权重保存为最终的网络模型参数用于后期测试。
采用上述技术方案所产生的有益效果在于:1)本发明所述方法设计了一个动态注意力权值模块,该模块根据输入特征图的不同,动态的产生注意力模块和非注意力模块的加权值,以进一步增强特征表述。本发明所提的动态注意力权值模块可抑制不期望的注意力调整,提高最终红外图像超分辨率性能。同时,本发明所提出的动态注意力权值模块及非注意力模块均基于轻量化设计思想,参数量较小,便于部署在嵌入式设备和边缘设备。
2)本发明所设计的通道注意力模块对全局平均池化和标准差池化后的特征再次施加权重,克服了传统通道注意力模块设计忽略两种不同池化作用的缺陷。同时,与当前绝大多数网络使用的通道注意力模块不同,为了减少参数量,本发明对融合后的通道注意力特征使用1-D卷积而非全连接层。
3)本发明所设计的基于动态注意力机制轻量化深度神经网络的红外图像超分辨率重建方法在保持较小参数量的同时,其红外图像超分辨率重建效果显著由于双三次插值等对比算法,具备部署在边缘设备的条件及良好超分辨率重建性能。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明的一个较佳实施例所述方法的流程框图;
图2是本发明的一个较佳实施例所述方法的网络结构图;
图3是本发明的一个较佳实施例所述方法的动态注意力残差块结构图;
图4是本发明的一个较佳实施例所述方法的像素注意力模块结构图;
图5是本发明的一个较佳实施例所述方法的通道注意力模块结构图;
图6是本发明的一个较佳实施例所述方法的×2和×3尺度因子所对应的特征重构块结构图;
图7是本发明的一个较佳实施例所述方法的×4尺度因子所对应的特征重构块结构图;
图8是本发明的一个较佳实施例所述方法与双三次插值(Bicubic)、 FSRCNN和SR-LUT方法在640×480和384×288两个分辨率×2尺度因子下红外图像超分辨率重建效果定性对比图;
图9是本发明的一个较佳实施例所述方法与双三次插值(Bicubic)、 FSRCNN和SR-LUT方法在640×480和384×288两个分辨率×3尺度因子下红外图像超分辨率重建效果定性对比图;
图10是本发明的一个较佳实施例所述方法与双三次插值(Bicubic)、 FSRCNN和SR-LUT方法在640×480和384×288两个分辨率×4尺度因子下红外图像超分辨率重建效果定性对比图;
图11本发明与对比方法参数量-PSNR对比图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
如图1所示,本发明实施例公开了一种基于动态注意力机制的红外图像超分辨率重建方法,包括如下步骤:
S1)构建深度神经网络模型:该模型主要包括浅层特征抽取(Shallow FeatureExtraction,SFE)模块、深层特征抽取(Deep Feature Extraction,DFE)模块和特征重构(Feature Reconstruction,FR)模块。原始输入的低分辨率红外图像经过最近邻插值后与特征重构模块的输出相加产生最终的高分辨率红外图像输出。为满足轻量化设计需求,所构建的浅层特征抽取模块SFE仅由一个卷积核大小为3×3的卷积层构成,该模块的结构图如图2所示。输入的低分辨率红外图像LR经过浅层特征抽取模块SFE后,其边缘、纹理和颜色等特征被抽取。上述过程可表述为:
ILFE=f3×3(ILR)
其中,ILR表示输入的低分辨率红外图像,f3×3(·)表示卷积核大小为3×3的卷积操作,ILFE表示浅层特征抽取模块SFE的输出。浅层特征抽取后的特征图连续通过由16个动态注意力残差块组成的深层特征抽取DFE模块用于抽取图像诸如语义信息等深层次特征,该模块的整体结构图如图2所示。每个动态注意力残差模块包括以下三个部分:动态注意力权值模块、注意力模块和非注意力模块。由于注意力模块在网络所处的深度不同,其对最终超分辨率重建性能的贡献也不尽相同,当前绝大多数基于深度神经网络的红外图像超分辨率方法简单堆叠相同结构的注意力模块并不足以充分利用注意力模块特征重塑的优势。
因此,本发明设计了一个动态注意力权值模块用于产生两个动态权值分别对注意力模块和非注意力模块加权,以高效地抑制不期望的注意力调整,动态注意力权值模块的结构图如图3所示。同时,为了进一步减少参数量满足轻量化设计,本发明在动态注意力权值模块中部分使用1-D卷积而非完全的全连接层。动态注意力权值模块中的操作可表述为:
其中,xn-1表示第n个动态注意力权值模块的输入,和分别表示Softmax、全连接、1-D卷积和全局平均池化操作,ωatt和ωn-att分别为动态注意力权值模块依据输入特征而动态产生的注意力模块和非注意力模块的权值。为了充分提取特征图的深层次信息,本发明在动态注意力残差块内设计了两个分支模块;注意力模块和非注意力模块。其中,注意力模块由像素注意力模块和通道注意力模块依次连接组成,分别用于在像素和通道维度突出重要特征,其结构图分别如图4和图5所示。与一般的通道注意力模块不同,本发明所设计的通道注意力模块对输入特征经过全局平均池化和标准差池化后的特征向量分别乘以一个可学习的参数α和β,用于突出全局平均池化和标准差池化的不同作用。同时,本发明还对两个池化结果进行融合以进一步增强特征。融合以上三个特征后,为减少参数,本发明使用1-D卷积代替全连接层以进一步提取通道间特征。注意力模块中的操作可表述为:
其中,f1×1(·)表示卷积核大小为1×1的卷积操作,fCA(·)和fPA(·)分别表示通道注意力和像素注意力模块操作,为第n个注意力模块的输出。为减少参数量,本发明所设计的非注意力模块仅由一个卷积核大小为3×3的卷积层构成,其结构图如图3所示。非注意力模块中的操作可表示为:
综上所述,本发明所提出的深层特征抽取块DFE操作可表述为:
其中,表示第n个动态注意力模块内的操作,IDFE表示整个深层特征抽取模块DFE的输出。对于×2和×3尺度因子,特征重构模块FR由一个最近邻插值块,三个卷积核大小为3×3的卷积层和一个像素注意力层组成,其结构图如图6所示。×2和×3尺度因子对应的特征重构模块的操作可表示为:
其中,fNearest(·)表示最近邻插值操作,表示×2和×3尺度因子所对应特征重构模块的输出。由于×4尺度因子超分辨率重建所需要恢复的细节等高频信息更多,重建难度更大,因而本发明对该尺度×4因子所对应的特征重构块的设计包括以下组件:两个最近邻插值层、五个卷积核大小为3×3的卷积层和两个像素注意力层,其结构图如图7所示。×4尺度因子所对应的特征重构块FR的操作可表示为:
ISR=IFR+fNearest(ILR)
S2)制作训练数据集:对于已有的可公开获取的高分辨率红外图像数据集分别采用尺度因子为×2、×3和×4的双三次插值下采样算法得到对应的低分辨率红外图像构成训练集。
S3)训练深度神经网络:训练网络时使用Adam优化器,初始学习率α=5×10-4,批大小为32。计算生成的ISR和真实高分辨率图像IHR之间的L1损失,通过反向传播算法更新网络权重,重复以上步骤直至达到设定的最大迭代次数完成训练。
S4)保存模型:训练完成后,将评估过程中峰值信噪比指标最高所对应的一组网络权重保存为最终的网络模型参数用于测试。
本发明将分辨率分别为640×480和384×288的高分辨率红外图像作为测试目标图像,其由双三次插值算法得到的×2、×3和×4尺度因子对应的低分辨率红外图像作为网络输入。本发明与双三次插值(Bicubic)、FSRCNN和SR-LUT方法在以上两个分辨率红外图像数据集上的定性对比分别如图8、图9和图10所示。由图8、图9和图10可以看出,本发明所提出的红外图像超分辨率重建算法在提升红外图像分辨率的同时,相较于对比方法可更好的重建边缘和纹理等细节且伪影较少,定性证明了本发明所提方法在红外图像超分辨率重建上的有效性。
本发明将分辨率分别为640×480和384×288的高分辨率红外图像作为测试目标图像,其由双三次插值算法得到的×2、×3和×4尺度因子对应的低分辨率红外图像作为网络输入。通过计算网络生成的高分辨率红外图像ISR和目标图像之间的峰值信噪比(PeakSignal to Noise Ratio,PSNR)和结构相似性(Structural SIMilarity,SSIM)指数作为定量评价指标。本发明所提出的网络与Bicubic、FSRCNN和SR-LUT方法的定量对比结果如表1所示。640×480和384×288分辨率红外图像分别包含50张和20张测试图像,所有的实验结果均为多次测试取平均值。从表1可以看出,本发明所提红外图像超分辨率重建方法在PSNR和SSIM两个评价指标上均高于Bicubic、FSRCNN和SR-LUT对比方法,定量证明了本发明在红外图像超分辨率上的有效性。
表1本发明与对比方法红外图像超分辨率重建定量对比结果
本发明所提的网络在公开数据集上与FSRCNN、SRCNN、DRRN、VDSR、 MemNet、IMDN、SRMNDF、DRCN、A2N-M、A2N和MANDNet-LF算法的参数-PSNR对比图11所示。由图11可知,本发明所提的网络在保持较少参数量的同时取得了较高的PSNR指标,较好的平衡了参数量和性能之间的关系。同时可以看出,本发明所提的红外图像超分辨率网络具有部署在嵌入式设备和边缘设备的潜力。
Claims (8)
1.一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于包括如下步骤:
构建一个基于动态注意力机制的轻量化深度神经网络模型;
制作所述神经网络模型的训练数据集;
使用所述训练数据集对所述神经网络模型进行训练:将成对的低分辨率红外图像和目标图像提供给所述网络模型,设置超参数开始训练网络,直至达到所设定的最大迭代次数,终止训练;
保存模型:训练完成后,将评估过程中峰值信噪比最高指标所对应的一组网络权重保存为最终的网络模型参数用于后期测试。
2.如权利要求1所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于:所述轻量化深度神经网络模型包括浅层特征抽取模块、深层特征抽取模块和特征重构模块。
3.如权利要求2所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于所述浅层特征抽取模块SFE包括一个卷积核大小为3×3的卷积层;输入的低分辨率红外图像LR经过浅层特征抽取模块处理后,其边缘、纹理等浅层特征被抽取,上述过程可表述为:
ILFE=f3×3(ILR)
其中,ILR表示输入的低分辨率红外图像,f3×3(·)表示卷积核大小为3×3的卷积操作,ILFE表示浅层特征抽取模块SFE的输出。
4.如权利要求3所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于:所述深层特征抽取模块包括16个动态注意力残差块,浅层特征抽取后的特征图连续通过深层特征抽取模块抽取图像的深层次特征;
每个动态注意力残差块包括:动态注意力权值模块、注意力模块和非注意力模块;设计一个动态注意力权值模块用于产生两个动态权值,分别对注意力模块和非注意力模块加权,以高效地抑制不期望的注意力调整;同时,为了进一步减少参数量,在动态注意力权值模块中部分使用1-D卷积而非完全的全连接层;动态注意力权值模块中的操作可表述为:
其中,xn-1表示第n个动态注意力模块的输入,和分别表示Softmax、全连接、1-D卷积和全局平均池化操作,ωatt和ωn-att分别为每个动态注意力权值模块依据输入特征而动态产生的注意力模块和非注意力模块的权值;
注意力模块包括像素注意力模块和通道注意力模块,分别用于在像素和通道维度突出重要特征;所述通道注意力模块对输入特征经过全局平均池化和标准差池化后的特征向量分别乘以一个可学习的参数α和β,用于突出全局平均池化和标准差池化的不同作用;同时,还对两个池化结果进行融合以进一步增强特征;融合以上三个特征后,使用1-D卷积代替全连接层以进一步提取通道间特征,注意力模块中的操作可表述为:
所述非注意力模块包括一个卷积核大小为3×3的卷积层,非注意力模块中的操作可表示为:
第n个动态注意力残差块中的操作可表示为:
所述深层特征抽取模块的操作可表述为:
5.如权利要求4所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于:
特征重构模块包括最近邻插值层、三个卷积核大小为3×3的卷积层和一个像素注意力层,×2和×3尺度因子对应的特征重构模块的操作可表示为:
由于×4尺度因子超分辨率重建所需要恢复的细节等高频信息更多,因而对该尺度因子所对应的特征重构块设计包括:两个最近邻插值层、五个卷积核大小为3×3的卷积层、两个像素注意力层,×4尺度因子所对应的特征重构块的操作可表示为:
最终输出的红外图像超分辨率结果可表示为:
ISR=IFR+fNearest(ILR)。
6.如权利要求1所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于:
构造训练数据集时,将已有的高分辨率红外图像作为目标图像,利用双三次插值算法下采样分别得到×2、×3和×4尺度因子所对应的低分辨率红外图像作为所述网络模型的输入。
7.如权利要求1所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于:训练网络时使用Adam优化器,初始学习率α=5×10-4,批大小为32;计算生成的ISR和真实高分辨率图像IHR之间的L1损失,通过反向传播算法更新网络权重,重复以上步骤直至达到设定的迭代次数完成训练。
8.如权利要求1所述的一种基于动态注意力机制的红外图像超分辨率重建方法,其特征在于:训练完成后,将评估过程中峰值信噪比最高指标所对应的一组网络权重保存为最终的网络模型参数用于后期测试。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211234451.2A CN115526779A (zh) | 2022-10-10 | 2022-10-10 | 一种基于动态注意力机制的红外图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211234451.2A CN115526779A (zh) | 2022-10-10 | 2022-10-10 | 一种基于动态注意力机制的红外图像超分辨率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115526779A true CN115526779A (zh) | 2022-12-27 |
Family
ID=84700675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211234451.2A Pending CN115526779A (zh) | 2022-10-10 | 2022-10-10 | 一种基于动态注意力机制的红外图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115526779A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071243A (zh) * | 2023-03-27 | 2023-05-05 | 江西师范大学 | 一种基于边缘增强的红外图像超分辨率重建方法 |
CN117474956A (zh) * | 2023-12-25 | 2024-01-30 | 浙江优众新材料科技有限公司 | 基于运动估计注意力的光场重建模型训练方法及相关设备 |
-
2022
- 2022-10-10 CN CN202211234451.2A patent/CN115526779A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071243A (zh) * | 2023-03-27 | 2023-05-05 | 江西师范大学 | 一种基于边缘增强的红外图像超分辨率重建方法 |
CN117474956A (zh) * | 2023-12-25 | 2024-01-30 | 浙江优众新材料科技有限公司 | 基于运动估计注意力的光场重建模型训练方法及相关设备 |
CN117474956B (zh) * | 2023-12-25 | 2024-03-26 | 浙江优众新材料科技有限公司 | 基于运动估计注意力的光场重建模型训练方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN110599401A (zh) | 遥感图像超分辨率重建方法、处理装置及可读存储介质 | |
CN108830790B (zh) | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 | |
CN116071243B (zh) | 一种基于边缘增强的红外图像超分辨率重建方法 | |
CN111598778B (zh) | 一种绝缘子图像超分辨率重建方法 | |
CN111462013B (zh) | 一种基于结构化残差学习的单图去雨方法 | |
CN115526779A (zh) | 一种基于动态注意力机制的红外图像超分辨率重建方法 | |
CN108921783B (zh) | 一种基于混合损失函数约束的卫星影像超分辨率重建方法 | |
CN111932461A (zh) | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 | |
Chen et al. | Single image super-resolution using deep CNN with dense skip connections and inception-resnet | |
CN111696033B (zh) | 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法 | |
CN112241939B (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN112580473A (zh) | 一种融合运动特征的视频超分辨率重构方法 | |
Yang et al. | License plate image super-resolution based on convolutional neural network | |
Chen et al. | Remote sensing image super-resolution via residual aggregation and split attentional fusion network | |
Dong et al. | Real-world remote sensing image super-resolution via a practical degradation model and a kernel-aware network | |
CN111414988B (zh) | 基于多尺度特征自适应融合网络的遥感影像超分辨率方法 | |
CN112884650A (zh) | 一种基于自适应纹理蒸馏的图像混合超分辨率方法 | |
CN112598604A (zh) | 一种盲脸复原方法及系统 | |
CN117114984A (zh) | 基于生成对抗网络的遥感图像超分辨率重建方法 | |
CN115578262A (zh) | 基于afan模型的偏振图像超分辨率重建方法 | |
CN110415169A (zh) | 一种深度图超分辨率重建方法、系统及电子设备 | |
CN118365543A (zh) | 一种基于改进EnlightenGAN的裂缝图像阴影去除方法 | |
Wan et al. | Progressive convolutional transformer for image restoration | |
Yang et al. | RSAMSR: A deep neural network based on residual self-encoding and attention mechanism for image super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |