CN117173022A - 基于多路径融合和注意力的遥感图像超分辨率重建方法 - Google Patents
基于多路径融合和注意力的遥感图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN117173022A CN117173022A CN202311141931.9A CN202311141931A CN117173022A CN 117173022 A CN117173022 A CN 117173022A CN 202311141931 A CN202311141931 A CN 202311141931A CN 117173022 A CN117173022 A CN 117173022A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- image
- sensing image
- attention
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 230000007246 mechanism Effects 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 10
- 238000005728 strengthening Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
一种基于多路径融合和注意力的遥感图像超分辨率重建方法,包括以下步骤:一、对遥感图像进行预处理扩充数据,二、使用单个卷积层对低分辨率遥感图像进行初步特征提取,三、使用级联的多路径融合和通道注意力模块对高频特征信息进行多层级特征提取,四、利用自注意力机制实现空间注意力模块来捕获全局信息,五、利用亚像素卷积实现上采样并且通过单个卷积实现图像重建。本发明使用多路径特征融合,将不同尺度的特征信息结合,更加全面、准确的理解和处理遥感图像;引入空间注意力和通道注意力,解决卷积神经网络不能很好的学习全局特征及对通道不区别对待造成的网络表达能力差的问题;增强重构遥感图像的纹理细节,大大提升遥感图像的视觉效果。
Description
技术领域
本发明涉及一种遥感图像超分辨率重建方法,尤其涉及一种基于多路径融合和注意力的遥感图像超分辨率重建方法。属于图像处理与深度学习技术领域。
背景技术
近年来,随着通信以及遥感摄影测量技术的发展,以城市规划、资源勘探、环境监测和军事目标打击为代表的感知应用成为高精度智能化遥感信息处理的重要任务。然而,在遥感影像的获取过程中,受卫星传输限制和光学设备的欠采样等因素干扰,影像的空间分辨率难以满足后续应用的需求,因此遥感图像的超分辨率研究具有重要意义。图像超分辨率重建是将低分辨率(Low-Resolution,LR)图像转换为高分辨率(High-Resolution,HR)图像的过程。旨在解决因成像设备和成像环境的局限性而引起的成像模糊,成像质量差,感兴趣区域不明显等问题.这种方法不需要太多的硬件资源,而且不会受到任何环境的影响。
算法通常分为传统算法和深度学习算法,目前大多数图像超分辨率重建技术都是基于深度学习的方法进行研究的,2014年,Dong等人首次将深度学习应用于图像超分辨率重建领域,提出了第一个基于卷积神经网络的图像超分辨率重建网络模型SRCNN,该网络模型易于实现,但因层数较少,网络训练能力较弱,导致重建性能较差。因此,Kim等首次将残差网络引入单图像超分辨率重建中,提出了VDSR将网络卷积层的深度逐渐提升,增加了卷积层的感受野,其缺点是随着网络层数的增加,存在梯度消失和网络训练难以收敛。Lim等提出了EDSR(enhanced deep super-resolution network),通过使用全局残差和局部残差来学习图像更多的高频细节特征,降低网络训练难度的同时提升了网络的重建效果。2018年,Zhang等人将注意力机制加入到图像超分辨率重建算法中提出了RCAN(residualchannel attention network),通过学习不同通道的重要性得到权重来自适应地学习更多有用的通道特征,重建出的图像包含更多的纹理信息。2022年zhang等人通过将多个深度残差注意组(DRAG)串联,将输入的浅层低频特征信息传递到每个DRAG的输入处,以此促进整体网络的收敛,尽管这些深度学习算法已经非常成熟,但在图像超分辨重建映射过程中仍存在高频信息提取不充足、重建图像纹理细节缺失等问题。
发明内容
一种基于多路径融合和注意力的遥感图像超分辨率重建方法的提出,使用多路径特征融合,将不同尺度的特征信息结合,可以更加全面,更加准确的理解和处理遥感图像。同时引入空间注意力和通道注意力,作为卷积神经网络的有效补充,解决卷积神经网络不能很好的学习全局特征及对通道不区别对待造成的网络表达能力差的问题。增强重构遥感图像的纹理细节,大大提升遥感图像的视觉效果。
本发明的技术解决方案是这样实现的:
一种基于多路径融合和注意力的遥感图像超分辨率重建方法,包括如下步骤:
步骤一、对遥感图像进行预处理扩充数据,对遥感图像进行数据增强方式进行数据集扩充,进行图像剪裁,图像旋转;
步骤二、使用单个卷积层对低分辨率遥感图像进行初步特征提取,由单个卷积层进行浅层特征提取,公式如下:
x0=f(ILR)=σ(w*ILR+b) (1)
式中,f为卷积运算,ILR为输入的低分辨率图像特征,x0为浅层特征图,σ代表激活函数,W代表的是第1个卷积的权重和偏移量;
步骤三、使用级联的多路径融合和通道注意力模块对高频特征信息进行多层级特征提取,为了更充分的利用LR图像各层级的特征信息,使用多个RBCA模块作为生成器的细节特征提取模块,多层级特征提取模块由一系列RBCA模块组成,将每一个RBCA的输出特征和浅层特征传输到特征融合层进行特征融合,公式如下:
xLR=w*[R1,R2,R3,…,Rn]+b (2)
式中,[R1,R2,R3,…,Rn]代表特征连接操作,xLR代表深层特征的提取;
RBCA模块是由3个并联的残差模块,一个通道注意力模块组成,使用3个残差块并联提取特征经过concat融合不同的尺寸特征,公式如下:
Rm=wl*[Q1,Q2,Q3]+bl (3)
式中,[Q1,Q2,Q3]表示3层残差块concat融合操作,变量wl和bl表示权重张量和偏移张量,Rm表示对3个残差块提取的特征经过concat融合得到的特征;
其次添加通道注意力模块,强化有用的通道特征,将通道注意力前提取的特征与通道注意力后输出的特征进行局部特征融合,得到该模块的图像特征,公式如下:
Rm+1=FCA{(Rm)}+Rm (4)
式中,FCA表示对所提取的特征进行通道注意力机制操作;
步骤四、利用自注意力机制实现空间注意力模块来捕获全局信息,经过空间注意力模块,通过自注意力机制构成空间注意力模块来捕获全局信息,公式如下:
XL=FSA(Rm+1) (5)
式中,FSA指对所提取的特征进行空间注意力机制操作;
步骤五、利用亚像素卷积实现上采样并且通过单个卷积实现图像重建,使用亚像素卷积实现遥感图像的上采样,再经卷积层生成最后的重建图像,公式如下:
IHR=σ[w*PS(XL)+b] (6)
式中PS(x)表示亚像素卷积函数,IHR代表重建出来的遥感图像。
与现有技术相比较,本发明的优点是显而易见的,主要表现在:
1、多层级特征提取模块由一系列RBCA组成,将每一个RBCA的输出特征和浅层特征传输到特征融合层进行特征融合。可以更加充分的利用图像特征信息。同时RBCA模块是是由3个并联的残差模块,一个通道注意力模块组成,使用3个残差块并联提取特征经过concat融合不同的尺寸特征,使用多路径特征融合,将不同尺度的特征信息结合,可以更加全面,更加准确的理解和处理遥感图像;
2、添加通道注意力模块,将通道注意力前提取的特征与通道注意力后输出的特征进行局部特征融合,得到RBCA模块的图像特征,强化有用的通道特征,最后引入空间注意力作为卷积神经网络的有效补充。增强重构遥感图像的纹理细节,大大提升遥感图像的视觉效果。
附图说明
本发明共有附图3幅。
图1是本发明的实验流程图;
图2是本发明的模型结构示意图;
图3是本发明的RBCA模块图。
具体实施方式
如图1、2、3所示的一种基于多路径融合和注意力的遥感图像超分辨率重建方法,包括如下步骤:
步骤一、对遥感图像进行预处理扩充数据,对遥感图像进行数据增强方式进行数据集扩充,进行图像剪裁,图像旋转;
步骤二、使用单个卷积层对低分辨率遥感图像进行初步特征提取,由单个卷积层进行浅层特征提取,公式如下:
x0=f(ILR)=σ(w*ILR+b) (1)
式中,f为卷积运算,ILR为输入的低分辨率图像特征,x0为浅层特征图,σ代表激活函数,W代表的是第1个卷积的权重和偏移量;
步骤三、使用级联的多路径融合和通道注意力模块对高频特征信息进行多层级特征提取,为了更充分的利用LR图像各层级的特征信息,使用多个RBCA模块作为生成器的细节特征提取模块,多层级特征提取模块由一系列RBCA模块组成,将每一个RBCA的输出特征和浅层特征传输到特征融合层进行特征融合,公式如下:
xLR=w*[R1,R2,R3,…,Rn]+b (2)
式中,[R1,R2,R3,…,Rn]代表特征连接操作,xLR代表深层特征的提取;
RBCA模块是由3个并联的残差模块,一个通道注意力模块组成,使用3个残差块并联提取特征经过concat融合不同的尺寸特征,公式如下:
Rm=wl*[Q1,Q2,Q3]+bl (3)
式中,[Q1,Q2,Q3]表示3层残差块concat融合操作,变量wl和bl表示权重张量和偏移张量,Rm表示对3个残差块提取的特征经过concat融合得到的特征;
其次添加通道注意力模块,强化有用的通道特征,将通道注意力前提取的特征与通道注意力后输出的特征进行局部特征融合,得到该模块的图像特征,公式如下:
Rm+1=FCA{(Rm)}+Rm (4)
式中,FCA表示对所提取的特征进行通道注意力机制操作;
步骤四、利用自注意力机制实现空间注意力模块来捕获全局信息,经过空间注意力模块,通过自注意力机制构成空间注意力模块来捕获全局信息,公式如下:
XL=FSA(Rm+1) (5)
式中,FSA指对所提取的特征进行空间注意力机制操作;
步骤五、利用亚像素卷积实现上采样并且通过单个卷积实现图像重建,使用亚像素卷积实现遥感图像的上采样,再经卷积层生成最后的重建图像,公式如下:
IHR=σ[w*PS(XL)+b] (6)
式中PS(x)表示亚像素卷积函数,IHR代表重建出来的遥感图像。
Claims (1)
1.一种基于多路径融合和注意力的遥感图像超分辨率重建方法,其特征在于,包括如下步骤:
步骤一、对遥感图像进行预处理扩充数据,对遥感图像进行数据增强方式进行数据集扩充,进行图像剪裁,图像旋转;
步骤二、使用单个卷积层对低分辨率遥感图像进行初步特征提取,由单个卷积层进行浅层特征提取,公式如下:
x0=f(ILR)=σ(w*ILR+b) (1)
式中,f为卷积运算,ILR为输入的低分辨率图像特征,x0为浅层特征图,σ代表激活函数,W代表的是第1个卷积的权重和偏移量;
步骤三、使用级联的多路径融合和通道注意力模块对高频特征信息进行多层级特征提取,为了更充分的利用LR图像各层级的特征信息,使用多个RBCA模块作为生成器的细节特征提取模块,多层级特征提取模块由一系列RBCA模块组成,将每一个RBCA的输出特征和浅层特征传输到特征融合层进行特征融合,公式如下:
xLR=w*[R1,R2,R3,…,Rn]+b (2)
式中,[R1,R2,R3,…,Rn]代表特征连接操作,xLR代表深层特征的提取;
RBCA模块是由3个并联的残差模块,一个通道注意力模块组成,使用3个残差块并联提取特征经过concat融合不同的尺寸特征,公式如下:
Rm=wl*[Q1,Q2,Q3]+bl (3)
式中,[Q1,Q2,Q3]表示3层残差块concat融合操作,变量wl和bl表示权重张量和偏移张量,Rm表示对3个残差块提取的特征经过concat融合得到的特征;
其次添加通道注意力模块,强化有用的通道特征,将通道注意力前提取的特征与通道注意力后输出的特征进行局部特征融合,得到该模块的图像特征,公式如下:
Rm+1=FCA{(Rm)}+Rm (4)
式中,FCA表示对所提取的特征进行通道注意力机制操作;
步骤四、利用自注意力机制实现空间注意力模块来捕获全局信息,经过空间注意力模块,通过自注意力机制构成空间注意力模块来捕获全局信息,公式如下:
XL=FSA(Rm+1) (5)
式中,FSA指对所提取的特征进行空间注意力机制操作;
步骤五、利用亚像素卷积实现上采样并且通过单个卷积实现图像重建,使用亚像素卷积实现遥感图像的上采样,再经卷积层生成最后的重建图像,公式如下:
IHR=σ[w*PS(XL)+b] (6)
式中PS(x)表示亚像素卷积函数,IHR代表重建出来的遥感图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311141931.9A CN117173022A (zh) | 2023-09-06 | 2023-09-06 | 基于多路径融合和注意力的遥感图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311141931.9A CN117173022A (zh) | 2023-09-06 | 2023-09-06 | 基于多路径融合和注意力的遥感图像超分辨率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117173022A true CN117173022A (zh) | 2023-12-05 |
Family
ID=88940749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311141931.9A Pending CN117173022A (zh) | 2023-09-06 | 2023-09-06 | 基于多路径融合和注意力的遥感图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117173022A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117391958A (zh) * | 2023-12-07 | 2024-01-12 | 临沂大学 | 一种基于多路径聚合Transformer的卫星云图超分辨率重建方法 |
-
2023
- 2023-09-06 CN CN202311141931.9A patent/CN117173022A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117391958A (zh) * | 2023-12-07 | 2024-01-12 | 临沂大学 | 一种基于多路径聚合Transformer的卫星云图超分辨率重建方法 |
CN117391958B (zh) * | 2023-12-07 | 2024-03-08 | 临沂大学 | 一种基于多路径聚合Transformer的卫星云图超分辨率重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816593B (zh) | 一种基于注意力机制的生成对抗网络的超分辨率图像重建方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN109509152B (zh) | 一种基于特征融合的生成对抗网络的图像超分辨率重建方法 | |
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN113592718A (zh) | 基于多尺度残差网络的矿井图像超分辨率重建方法及系统 | |
CN109685716B (zh) | 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法 | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN111899168B (zh) | 一种基于特征增强的遥感影像超分辨率重建方法和系统 | |
CN111986108A (zh) | 一种基于生成对抗网络的复杂海空场景图像去雾方法 | |
CN110163802B (zh) | 一种基于神经网络的sar图像超分辨方法 | |
CN111932461A (zh) | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 | |
CN113096017A (zh) | 基于深度坐标注意力网络模型的图像超分辨率重建方法 | |
CN117173022A (zh) | 基于多路径融合和注意力的遥感图像超分辨率重建方法 | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN114140309A (zh) | 一种基于nice模型的新型图像隐写方法及系统 | |
CN114299130A (zh) | 一种基于无监督自适应网络的水下双目深度估计方法 | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 | |
CN113313180B (zh) | 一种基于深度对抗学习的遥感图像语义分割方法 | |
CN109272450B (zh) | 一种基于卷积神经网络的图像超分方法 | |
CN112102388B (zh) | 基于巡检机器人单目图像获取深度图像的方法及装置 | |
CN112862946B (zh) | 基于级联条件生成对抗网络的灰度岩心图像三维重建方法 | |
CN115511705A (zh) | 一种基于可变形残差卷积神经网络的图像超分辨率重建方法 | |
CN116385265B (zh) | 一种图像超分辨率网络的训练方法及装置 | |
CN115731138A (zh) | 一种基于Transformer与卷积神经网络的图像修复方法 | |
Zhou et al. | A review of deep learning for single image super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |