CN116630209A - 基于交叉混合注意力的sar与可见光图像融合方法 - Google Patents
基于交叉混合注意力的sar与可见光图像融合方法 Download PDFInfo
- Publication number
- CN116630209A CN116630209A CN202310185291.5A CN202310185291A CN116630209A CN 116630209 A CN116630209 A CN 116630209A CN 202310185291 A CN202310185291 A CN 202310185291A CN 116630209 A CN116630209 A CN 116630209A
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- sar
- feature map
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 98
- 230000007246 mechanism Effects 0.000 claims abstract description 50
- 238000011176 pooling Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 68
- 238000001228 spectrum Methods 0.000 claims description 54
- 230000014759 maintenance of location Effects 0.000 claims description 30
- 238000005070 sampling Methods 0.000 claims description 30
- 230000003595 spectral effect Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 230000005855 radiation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 25
- 238000011156 evaluation Methods 0.000 abstract description 15
- 238000002474 experimental method Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 description 25
- 238000004458 analytical method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- WHHGLZMJPXIBIX-UHFFFAOYSA-N decabromodiphenyl ether Chemical compound BrC1=C(Br)C(Br)=C(Br)C(Br)=C1OC1=C(Br)C(Br)=C(Br)C(Br)=C1Br WHHGLZMJPXIBIX-UHFFFAOYSA-N 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000004321 preservation Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于交叉混合注意力的SAR与可见光图像融合方法,首先以注意力机制为展开点,然后设计合理的注意力模型来指导SAR与可见光图像的深层特征在空间和通道维度的特征重标定和融合,并且介绍注意力模型的详细实现细节以及分析不同池化操作对融合结果的影响,最后在两组真实的SAR图像上进行实验,采用多种算法进行对比,并定量分析,实验结果表明本发明算法无论是主观评价还是客观评价都取得更好的效果,实验结果验证了论文的改进网络在SAR和可见光图像融合上的有效性。
Description
技术领域
本发明涉及图像处理方法领域,具体是一种基于交叉混合注意力的SAR与可见光图像融合方法。
背景技术
遥感图像数据融合是一个对多遥感器的图像数据和其他信息的处理过程。合成孔径雷达(Synthetic Aperture Radar,SAR)和光学数据是卫星遥感平台的两类主要数据。可见光图像能够直观反应地物真实的纹理、色彩等信息,但容易受到天气和时间的限制,导致获取数据的能力有所不足。SAR具有全天时、全天候的观测能力,而且微波能够部分穿透云层、稀疏植被,从而获得丰富的地面信息。因此,多源遥感数据融合,例如红外图像与可见光图像之间融合,多光谱图像与SAR数据融合,成为当前备受关注的研究课题。
随着深度学习兴起,基于深度学习的融合算法被大量提出。通过卷积神经网络提取图像基本表征,特征重构后获得融合结果。在这些基于深度网络的融合策略中,只有最后一层的特征被用作源数据的主要特征,显然,在对图像处理期间,中间层丰富有效的特征被丢失。根据现状调研,多源遥感图像融合主要目的之一是为了保留光谱信息的同时,提升图像空间分辨率。
目前图像融合算法有很多种,通常可划分成以下三类:
1、基于传统方法图像融合,其原理是针对图像的各个波段,使用变换、数值运算等容易实施的方法处理,如线性加权法、高通滤波法、IHS变换法主成分分析法等。2、基于多尺度图像融合,其基本理论是把图像解析为不同频率特性、不同分辨率等子信号,然后融合相应分解级别的子信号,将融合后子信号重构得到融合图像,如小波变换融合算法。3、基于模型图像融合,该融合方法理论前提是假定空间分辨率较低的图像经过分辨率较高的图像下采样或者其他降低空间分辨率的算法得到。根据上述假设,通过构建能量泛函表征,并且构建高、低分辨率图像之间的模型映射,最后通过求解优化模型得到融合图像。
相对传统算法,深度学习算法被广泛应用于SAR图像融合,卷积神经网络(Convolutional Neural Network,CNN)具有强大的特征提取和特征表达能力,因此,基于CNN的超分辨图像融合算法相继被提出,例如Masi(文献MASI G,COZZOLINO D,VERDOLIVAL,et al.Pansharpening by convolutional neural networks[J].Remote Sensing,2016,8(7):594.)等首次应用超分辨率卷积神经网络(SRCNN)进行图像全色锐化(pansharpening),结果明显优于传统算法;Yang(文献J.Yang,X.Fu,Y.Hu,Y.Huang,X.Dingand J.Paisley,"PanNet:A Deep Network Architecture for Pan-Sharpening,"2017IEEE International Conference on Computer Vision(ICCV),2017,pp.1753-1761,doi:10.1109/ICCV.2017.193.)等提出了PanNet网络,将图像融合任务拆分成光谱保持和空间保持两部分,实现融合图像光谱和空间质量的提升。
上述融合算法较好地解决了传统融合算法中存在的颜色失真和空间细节模糊的问题。然而对于卷积神经网络提取的深层特征只是采用简单的加法融合策略,同等地对待从SAR与可见光图像中提取的深层特征,没有考虑深层特征在不同空间位置和不同通道的差异性,从而不能充分地融合SAR与可见光图像的深层特征。
发明内容
本发明提供了一种基于交叉混合注意力的SAR与可见光图像融合方法,以解决现有技术由于卷积神经网络只是采用简单的加法融合策略,造成的融合算法存在的不能充分融合SAR与可见光图像深层特征的问题。
为了达到上述目的,本发明所采用的技术方案为:
基于交叉混合注意力的SAR与可见光图像融合方法,包括以下步骤:
步骤1、获取目标的SAR原始图像和可见光原始图像,分别对SAR原始图像和可见光原始图像进行预处理,得到同等分辨率大小的SAR图像和可见光图像,并对可见光图像进行上采样得到可见光的上采样图像;
步骤2、分别提取所述SAR图像的多尺度深层空间细节特征、所述可见光图像的多尺度深层光谱保持特征,由此对应得到SAR图像的空间细节特征图、可见光图像的光谱保持特征图;
步骤3、基于空间注意力机制提取步骤2得到的SAR图像空间细节特征图的空间信息权重;随后对步骤1得到的可见光图像进行上采样,得到可见光上采样图像特征图;然后,基于所述空间信息权重对所述可见光上采样图像特征图进行校准,得到空间加权可见光图像特征图;
基于通道注意力机制提取步骤2得到的可见光图像光谱保持特征图的光谱信息权重图,基于所述光谱信息权重图对步骤2得到的SAR图像空间细节特征图进行校准,得到通道加权SAR特征图;
采用级联策略将所述空间加权可见光图像特征图、通道加权SAR特征图进行信息加权融合,得到融合特征图;
步骤4、提取步骤3得到的融合特征图的细节信息;
步骤5、将步骤4得到的细节信息,叠加至步骤1得到的可见光的上采样图像,得到最终图像。
进一步的步骤1中,对SAR图像的预处理依次包括辐射校正、几何校正、斑点滤波;对可见光图像的预处理依次包括辐射校正、大气校正、重采样、图像配准。
进一步的步骤2中,首先分别提取SAR图像的高频信息、可见光图像的高频信息;然后基于SAR图像的高频信息提取得到SAR图像的小尺度浅层空间细节特征,并基于可见光图像的高频信息提取得到可见光图像的大尺度浅层光谱保持特征;最后对SAR图像的小尺度浅层空间细节特征、可见光图像的大尺度浅层光谱保持特征分别进行多尺度特征提取,对应得到SAR图像的多尺度深层空间细节特征、可见光图像的多尺度深层光谱保持特征,由此获取SAR图像的空间细节特征图、可见光图像的光谱保持特征图。
进一步的步骤2中,采用高通滤波器得到SAR图像和可见光图像的高频信息,并通过上采样使SAR图像和可见光图像的高频信息具有同等分辨率。
进一步的步骤2中,采用可分离卷积核基于SAR图像的高频信息提取得到SAR图像的小尺度浅层空间细节特征。
进一步的步骤2中,从RGB通道中采用9×9卷积核基于可见光图像的高频信息提取得到可见光图像的大尺度浅层光谱保持特征。
进一步的,步骤3的空间注意力机制中,首先采用一个1×1卷积层对SAR图像的空间细节特征图沿通道方向进行降维;然后采用softmax函数对降维后的SAR图像的空间细节特征图进行归一化处理,获得所述空间信息权重;接着采用转置卷积对步骤1可见光图像进行上采样,得到可见光上采样图像特征图;最后,将空间信息权重与所述可见光上采样图像特征图相乘以完成校准,得到空间加权可见光图像特征图。
进一步的步骤3中,首先基于通道注意力机制将步骤2得到的可见光图像光谱保持特征图进行全局池化处理和SoftMax函数处理,生成所述光谱信息权重图;最后,将光谱信息权重图与步骤2得到的SAR图像空间细节特征图相乘以完成校准,得到通道加权SAR特征图。
进一步的步骤4中,采用四层卷积层提取步骤3得到的融合特征图的细节信息,其中:
第一层卷积层为3×3卷积核构成,由第一层卷积层基于所述从融合特征图生成112通道特征图;
第二层卷积层为3×3卷积核构成,由第二层卷积层基于第一层卷积核输出结果生成64通道特征图;
第三层卷积层为3×3卷积核构成,由第三层卷积层基于第二层卷积核输出结果生成32通道特征图;
第四层卷积层为3×3卷积核构成,由第四层卷积核将第三层卷积核输出结果的特征通道维度降到3维,并输出融合特征图的细节信息。
进一步的,步骤5中采用跳线连接方式将步骤4得到的细节信息叠加至步骤1得到的可见光的上采样图像,得到最终图像。
本发明提出了对于SAR与可见光图像提取的深层特征,通过在卷积神经网络中混合空间注意力机制和通道注意力机制,分别赋予深层特征中不同空间位置的点和不同通道的特征图以不同的权重值来实现深层特征自适应重标定,从而使得深层特征更好地融合,进一步增强融合图像的空间细节信息和光谱信息,提高融合质量。与现有技术相比,本发明的有益效果为:
(1)在所提出的融合框架中,利用可见光图像的实际光谱信息来校正SAR图像的特征图,并利用SAR图像的高精度空间细节信息来增强可见光图像的空间信息。
(2)与现有技术相比,这种结合注意力机制的卷积神经网络能够自主地关注对结果有用的信息而忽略无用的信息,大大增强网络提取特征的能力;注意力机制能够在空间维度、通道维度以及梯度域维度有效的对图像深层特征进行重标定,强调对任务有用的特征,抑制对任务没用的特征,从而提高最终结果的精度。
附图说明
图1是本发明实施例一中SAR数据预处理步骤。
图2是本发明实施例一中可见光数据预处理步骤。
图3是本发明实施例一中基于混合注意力模型的特征融合方案(CroAM)示意图。
图4是本发明实施例一方法原理图。
图5是本发明实施例二中天津乐乐岛附近数据集融合定量结果图。其中:
(a)为天津乐乐岛附近可见光图像;(b)为SAR图像;(c)为IHS融合图像;(d)为本RSIFNN融合图像;(e)为Wavelet图;(f)为NSCT-AVG图;(g)为IHS-NSST-SR图;(h)为双分支方法图;(i)为本发明方法结果图;(j)为可见光局部图;(k)为双分支方法局部图;(l)为本发明方法局部图。
图6为本发明实施例二中渤海港口数据集融合定量结果图。其中:(a)为渤海港口可见光图像;(b)为SAR图像;(c)为IHS融合图像;(d)为本RSIFNN融合图像;(e)为Wavelet图;(f)为NSCT-AVG图;(g)为IHS-NSST-SR图;(h)为双分支方法图;(i)为本发明方法结果图;图6j为可见光局部图;(k)为双分支方法局部图;(l)为本发明方法局部图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达到相应技术效果的实现过程能充分理解并据以实施。本发明实施例以及实施例中的各个特征,在不相冲突前提下可以相互结合,所形成的技术方案均在本发明的保护范围之内。
显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
本实施例公开了一种基于交叉混合注意力的SAR与可见光图像融合方法,基于改进的卷积神经网络实现。本实施例中在现有的卷积神经网络CNN架构中增加高通滤波器、编码器层、CroAM特征融合层、解码器层,得到改进的卷积神经网络其架构如图4所示。其中,高通滤波器用于在实施例方法的步骤2中进行高频信息提取。编码器层包括可分离卷积核、9×9卷积核、多尺度特征提取模块,用于在本实施例方法的步骤2中作为特征提取模块进行特征提取。CroAM特征融合层包括空间注意力机制模块、通道注意力机制模块,用于在本实施例方法的步骤3中实现基于交叉混合注意力的特征融合。解码器层包括四层分别由3×3卷积核构成的卷积层,用于在本实施例方法的步骤4中提取细节信息。
本实施例中结合所采用的改进的卷积神经网络,对本实施例方法进行说明。本实施例方法包括以下步骤:
步骤1、获取目标的SAR原始图像和可见光原始图像,分别对SAR原始图像和可见光原始图像进行预处理,得到同等分辨率大小的SAR图像和可见光图像。并对可见光图像进行双三次插值方式进行3倍上采样,得到可见光的上采样图像。
由于SAR与可见光图像的成像机理不同,因此本实施例在融合数据前,需要分别对SAR原始图像和可见光原始图像进行预处理。本实施例方法的步骤1是基于现有的卷积神经网络CNN输入层的预处理模块,以及现有卷积神经网络CNN的上采样模块实现的。
如图1、图2所示,对SAR图像的预处理依次包括辐射校正、几何校正、斑点滤波;对可见光图像的预处理依次包括辐射校正、大气校正、重采样、图像配准。经过预处理后得到的SAR图像和可见光图像具有同等分辨率大小。
步骤2、本实施例中采用高通滤波器,分别提取步骤1得到的SAR图像的高频信息、可见光图像的高频信息,并通过上采样使SAR图像和可见光图像的高频信息具有同等分辨率。
考虑SAR与可见光卫星传感器图像的特征差异,本实施例在编码器层采用两个不同的特征提取模块,分别从SAR图像高频信息中提取空间细节特征,以及从可见光图像高频信息中提取光谱保持特征。其中:
采用编码器层中的可分离卷积核基于SAR图像的高频信息提取得到SAR图像的小尺度浅层空间细节特征,具有更好的对较小尺度特征做出反应,能够更好的提取高分辨率SAR图像的特征信息优势。
采用编码器层中的9×9卷积核基于可见光图像的高频信息提取得到可见光图像的大尺度浅层光谱保持特征,具有更好的对较粗糙特征做出反应,更好的提取低分辨率可见光图像的特征信息优势。
然后,本实施例采用多尺度特征提取模块,分别对SAR图像的小尺度浅层空间细节特征、可见光图像的大尺度浅层光谱保持特征进行多尺度特征提取,对应得到SAR图像的多尺度深层空间细节特征、可见光图像的多尺度深层光谱保持特征,由此获取SAR图像的空间细节特征图、可见光图像的光谱保持特征图。多尺度特征提取模块能够灵活、有效地将提取得到的特征显式地融入网络中。
步骤3、本实施例采用CroAM特征融合层,实现对步骤2得到的SAR图像空间细节特征图、可见光图像的光谱保持特征图进行基于交叉混合注意力的特征融合。通过CroAM特征融合层中空间注意力机制和通道注意力机制的交叉混合,分别赋予深层特征中不同空间位置的点和不同通道的特征图以不同的权重值来实现深层特征自适应重标定,从而使得深层特征更好地融合,进一步增强融合图像的空间细节信息和光谱信息,提高融合质量。
在计算机视觉中,注意力机制(Attention Mechanism)的核心思想是:让网络能够自主地关注重要的信息而忽视无关的信息。近年来,注意力机制被引入基于深度学习的自然语言处理、图像超分辨、图像分类和图像融合等领域中取得巨大的成功。这种结合注意力机制的神经网络能够自主地关注对结果有用的信息而忽略无用的信息,大大增强网络提取特征的能力。
注意力机制按照注意力的可微性分为软注意力和硬注意力。软注意力更关注空间或者通道维度信息,通过网络的前向传播和后向反馈来自主学习得到注意力的权重图。而硬注意力是一个0/1问题,确定哪些区域被关注和不被关注,硬注意力最显著的特点是不可微,因此不能通过网络的后向传播算法自主学习权重图,训练过程往往是通过增强学习来完成的。在图像处理领域中常常使用的是软注意力机制,典型网络有:空间变换网络、SENet、CBAM和DECA等。在文献(Hu J,Shen L,Albanie S,et al.Squeeze-and-ExcitationNetworks[J].IEEE Transactions on Pattern Analysis andMachineIntelligence,2017,42(8):2011-2023.)中提出一种新的注意力机制网络——SENet。该文献的中,网络通过学习的方式来自动获取得到每个特征通道重要程度的权重图,然后依照这个权重图有选择地去增强有用的通道特征并抑制无用的通道特征,从而实现特征通道自适应地校正。
SENet核心步骤包括三个部分:挤压(squeeze),激励(excitation),以及重配权重(scale attention)。挤压操作通过全局平均池化操作,使得H×W×C特征图最后变成一个1×1×C的实数数列,其中H表示图片的宽,W表示图片的高,C表示图片的通道数。激发操作通过门机制和softmax激活函数来实现,完整地获得通道之间的依赖关系。重配权重将激发后的通道权重和相应的特征通道相乘,实现在通道维度对原始特征的自适应调整。
在文献(Woo S,Park J,Lee J Y,et al.CBAM:Convolutional blockattentionmodule[C]//15th European Conference on Computer Vision.Munich:SpringerVerlag,2018:3-19.)中提出一种简单有效的注意力模块——卷积块注意力模块(Convolutional Block Attention Module,CBAM)。CBAM在通道维度采用全局最大池化和全局平均池化特性,从而产生比SENet更精细的注意;同时CBAM通过增加空间注意力进一步推动网络性能。最终CBAM模块学习在那些通道以及哪些位置有效地强调或抑制中间特征。为了验证其有效性,该文献还将CBAM模块在Image Net-1K、MSCOCO和VOC2007数据集上进行的实验,证明了CBAM模块在分类和目标检测方面有了一致的改进效果。
在文献(Cui Y,Du H,Mei W.Infrared and Visible Image FusionUsing DetailEnhanced Channel Attention Network[J].IEEE Access,2019,7:182185-182197.)中提出一种增强细节的通道注意力模块(detailenhanced channel attention,DECA)并将其用于红外和可见光图像的融合任务中。DECA模块使用图像亮度和梯度域中特征图各通道的平均值来自适应地重新标定特征图,从而通过学习方式实现对有用特征的强调,实验结果表明DECA模块极大增加了红外和可见光融合图像细节信息。
基于以上研究可以看出,注意力机制能够在空间维度、通道维度以及梯度域维度有效的对图像深层特征进行重标定,强调对任务有用的特征,抑制对任务没用的特征,从而提高最终结果的精度。
因此,本实施例采用交叉混合注意机制以利用SAR图像数据和可见光图像数据的互补信息,设计了基于交叉混合注意力模型的CroAM特征融合层,利用SAR图像数据和可见光图像数据深层特征的各自优势,增强了特征提取模块生成的特征图的光谱信息和空间细节纹理信息。
本实施例在CroAM特征融合层中,基于空间注意力机制通过空间注意力机制模块提取步骤2得到的SAR图像空间细节特征图的空间信息权重,并对步骤1的可见光图像进行上采样得到可见光上采样图像特征图。基于通道注意力机制通过通道注意力模块提取步骤2得到的可见光图像光谱保持特征图的光谱信息权重。然后基于所述空间信息权重通过对可见光上采样图像特征图进行校准,得到空间加权可见光图像特征图;并基于所述光谱信息权重对步骤2得到的SAR图像空间细节特征图进行校准,得到通道加权SAR特征图。最后采用级联策略将所述空间加权特征图和通道加权特征图进行信息融合,得到融合后的特征图。
本实施例中CroAM特征融合层进行特征说明的具体过程如下:
1、本实施例在空间注意力机制模块中,关注深层特征在空间维度上重要的点,并进行融合。本实施例空间注意力机制模块中,首先采用一个1×1卷积,通过进行L1范数计算H×W×N(H表示图片的宽,W表示图片的高,C表示图片的通道数)SAR图像空间细节特征图在空间每个点位置的值,即将通道维度求和形式压缩为一维,得到H×W×1的矩阵数值。然后矩阵数值通过SoftMax函数操作提取空间信息权重图。并采用转置卷积将步骤1的可见光图像进行上采样得到可见光上采样图像特征图,将SAR空间信息权重图与可见光上采样图像特征图相乘,完成对可见光上采样图像特征图进行空间维度重标定校准,最后相加重新调整的空间加权可见光图像特征图,实现特征融合。具体过程可以由公式(1)、(2)、(3)所示:
Φsk(x,y)=αk(x,y)×Φk(x,y) (2),
在公式(1)-公式(3)中,Φk(x,y)表示第k个输入图像的深层特征图在空间位置(x,y)处的值,是一个N维通道的向量,其中k∈1,...K且K=2,具体在本实施例中k取值1,2分别代表输入的SAR与可见光图像。
x、y为SAR图像空间细节特征图的坐标,x和y的取值在SAR图像空间细节特征图长、宽的范围内。
||·||1表示多通道SAR图像空间细节特征图在某点处按通道维度求和操作,即将N维向量求和。
αk(x,y)表SoftMax方式求得的SAR图像空间细节特征图的空间信息权重,具体的SoftMax操作为:输入多个数值,求某一个数值占所有数值和的比值。
Φsk(x,y)表示SAR图像空间细节特征图的空间信息权重与第二可见光上采样图像特征图相乘得到的重定标的空间加权可见光图像特征图。
Φsf(x,y)表示叠加重定标后空间加权可见光图像特征图的融合结果。
下标sk和sf中的s表示特征的空间维度。
与可见光图像数据相比,SAR图像数据在空间信息上具有更高的准确性。利用其高精度的空间信息对从可见光图像中提取的特征图进行指导和加权,可以使可见光图像数据提取的空间特征更加准确和可靠。故本实施例基于空间注意力机制提取SAR图像空间细节特征图的空间信息权重,并使用空间信息权重重新校准可见光图像光谱保持特征图。由此引入SAR图像数据的空间信息来增强可见光图像数据。
2、首先基于通道注意力机制将步骤2得到的可见光图像光谱保持特征图生成所述光谱信息权重;最后,将光谱信息权重与步骤2提取的SAR图像的空间细节特征图相乘,得到通道加权SAR特征图。
在现有的基于深度学习的融合方法中,大多数融合策略仅仅计算特征的空间维度信息,但是深层特征是三维张量。因此,在融合策略中本实施例还需要考虑特征信道维度信息的差异性。结合通道注意力机制。本实施例通道注意力机制中重点关注深层特征中通道维度上的显著性特征图,并进行融合。本实施例首先将步骤2得到的可见光图像光谱保持特征图通过全局池化操作将H×W×N维度的特征空间维度压缩,得到1×1×N的数列值,然后数列值通过SoftMax操作求出光谱信息权重图,并将光谱信息权重图与SAR图像的空间细节特征图相乘得到通道维度重新调整的通道加权SAR特征图。最后将调整后的通道加权SAR特征图和空间加权可见光图像特征图相加进行级联融合。具体过程可以由公式(4)、(5)、(6)表示:
βk(m)=P(Φk(m)) (4),
公式(4)-公式(6)中,Φk(m)表示第k个输入图像深层特征中第m通道特征图,在本实施例中k取值1,2分别代表输入的SAR与可见光图像。
P(·)表示对可见光图像光谱保持特征图全局池化操作。
βk(m)表示全局池化后1×1×N的数列值,本实施例通道注意力机制中,选择了两种全局池化操作算子,(a)平均算子:计算每个通道平均值;(b)最大算子:计算每个通道的最大值。
βck(m)表示对数列值SoftMax操作后得到的光谱信息权重图;
βcf(m)表示k个深层特征与光谱信息权重图相乘之后并相加的结果,即得到融合后的通道加权SAR特征图,其中下标c表示特征的通道维度。
与SAR图像数据相比,可见光图像数据具有更丰富的地物目标的轮廓和光谱信息。如果从SAR图像数据直接融合可见光图像数据,则很明显就光谱信息信息而言,生成的可见光图像可靠性较低。因此,本实施例利用可见光图像数据的实际光谱信息来指导SAR图像数据特征图的生成,使SAR图像数据提取的特征图同时具有高精度轮廓和光谱信息和空间纹理信息。故本实施例中,基于通道注意力机制提取可见光图像光谱保持特征图的光谱信息权重,并重定标SAR图像的空间细节特征图,由此引入可见光图像数据的光谱信息以增强SAR图像数据。
需要指出的是,与现有的通道注意力机制不同,本实施例的通道注意力机制考虑了SAR数据和可见光数据的复杂数据分布。故本实施例删除了在现有通道注意力机制中广泛使用的池化操作,以避免由于均值池化或最大池化而导致的数字异常。本实施例通道注意力机制中,首先将步骤2得到的可见光图像光谱保持特征图通过全局池化操作将H×W×N维度的特征空间维度压缩,得到1×1×N的数列值,然后使用softmax函数直接进行归一化,以获得光谱信息权重;随后,本实施例将光谱信息权重与步骤2中提取的SAR图像空间细节特征图相乘,以获得通道加权SAR图像的特征图。
并且,与现有通道注意力机制的全局通道注意权重不同,本实施例使用局部权重,可以更好地适应SAR图像数据大动态范围的特点。采用级联策略将所述空间加权可见光图像特征图、通道加权SAR特征图进行信息加权融合,得到融合特征图。
3、为了平等地对待两个注意力机制提取的空间加权可见光图像特征图和通道加权SAR特征图,本实施例使用级联策略对两个模块获得的空间加权可见光图像特征图、通道加权SAR特征图进行信息融合,结合空间和通道注意力机制,先将深层特征通过两种注意力机制进行特征重标定,然后加权融合注意力模型的输出得到最终的融合特征,基于注意力机制的融合过程如图3所示。图3中,Φ1和Φ2分别分别表示SAR与可见光图像经过编码器提取得到的深层特征提取块(即SAR图像的空间细节特征图、可见光图像的光谱保持特征图);Φs和Φv分别表示通过空间注意力和通道注意力机制对特征在空间和通道维度重新标定和叠加融合的结果,最后将注意力机制输出的Φs和Φv加权融合得到融合特征图,过程可由公式(7)表示:
Φf=(Φs+Φv)*0.5 (7)。
步骤4、在解码器层,采用四层卷积层提取步骤3得到的融合特征图的细节信息,其中:
第一层卷积层为3×3卷积核构成,由第一层卷积层基于从融合特征图生成112通道特征图;
第二层卷积层为3×3卷积核构成,由第二层卷积层基于第一层卷积核输出结果生成64通道特征图;
第三层卷积层为3×3卷积核构成,由第三层卷积层基于第二层卷积核输出结果生成32通道特征图;
第四层卷积层为3×3卷积核构成,由第四层卷积核将第三层卷积核输出结果的特征通道维度降到3维,并输出清晰的融合特征图的细节信息。
步骤5、将步骤4得到的细节信息叠加至步骤1得到的可见光的上采样图像,得到最终图像。
具体的,采用跳线连接方式,将CroAM特征融合层分支输出的融合特征图的细节信息,叠加到步骤1得到的可见光的上采样图像上,得到最终图像,即可见光的光谱信息传递到融合图像中,其实现过程见公式(8):
F=FCro⊕↑Fvis (8),
公式(9)中:FCro表示步骤4得到的融合特征图的细节信息,↑Fvis表示步骤1中经过双三次插值3倍上采样得到的可见光的上采样图像。
实施例二
本实施例公开了实施例一所述融合方法的实验结果与分析,具体说明如下:
1、实验数据与参数设置
实验选取了两组真实SAR数据,训练数据为哨兵1号亚像素级别SAR图像和Landsat-8多光谱图像,经过图像预处理,共裁剪得到9600组SAR与可见光图像对,其中90%用于训练,10%用于验证;测试数据包含两组:第一组测试数据选用区域为天津乐乐岛附近的哨兵1号SAR图像与landsat-8卫星可见光图像,图中含有建筑、水体、农田等丰富地物类型。第二组测试数据区域为渤海港口,包含大量农作物和桥梁建筑等地物,且SAR图像中含有可见光图像中无法觉察到的目标信息。SAR和可见光数据集具体详细信息如下表1所示。
表1SAR和可见光图像信息的先验信息
本实施例所提算法的参数设置如下:
本实施例实验环境为Window10,64位操作系统,NVIDIA Quadro M2000-4G显卡,在tensorflow框架下搭建双分支卷积神经网络。训练批大小100,迭代次数30000次,优化器选择Adam,学习率0.001,动量衰减系数0.9。
为验证实施例一所述融合方法在光谱保持和细节提升方面的有效性,本实施例选取与传统方法IHS、Wavelet、IHS_NSST_SR、NSCT_AVG以及深度学习方法RSIFNN作为对比实验组。
2、实验对比分析
(a)池化操作实验
在上面通道注意力模型中采用两种不同的池化操作算子对图像深度特征的通道维度进行全局池化操作,其实验结果如下表2所示
表2不同池化操作对应融合图像质量评价结果
注:“平均算子”、“最大算子”分别表示基于通道注意模型融合策略中不同全局池化操作算子。
从表2可以看出,与基于注意模型的融合策略中的平均算子相比,最大算子在各项指标中几乎可以达到最佳的值,说明在通道注意模型中最大算子操作是有效的,可以从深度特征中捕获更多显著特征的信息用于图像融合中。故本章后续实验均以最大算子操作来进行通道维度的全局池化。
(b)天津乐乐岛附近数据集变化检测结果分析
第一组实验图像中含有大量建筑、农田和水体等地物,其中细节信息和光谱信息丰富。从图5(a)和(b)中红色方框区域可以看出,可见光图像水中的岛屿可见度低,目标不明显,而在SAR图像中的岛屿轮廓清晰,目标突出。从图5(c)和图5(d)来看,IHS算法和RSIFNN算法显著增强了可见光图像的空间信息,但是也存在明显的颜色失真,比如融合图像下方的岛屿以及图中农田作物部分。图5(e)的Wavelet变换算法在光谱信息保持上比IHS算法好,同时空间细节信息有了一定的改善,但是融合结果中锯齿现象明显。图5(f)的NSCT_AVG方法,耕田边界存在伪影,建筑区域细节模糊,融合不自然。图5(g)的IHS_NSST_SR方法在建筑区域的纹理整体块状明显,且耕田的边界较为模糊。图5(h)的双分支方法融合图像颜色更接近原多光谱图像,视觉效果较好,但是空间细节仍不够清晰。
实施例一融合方法的图5(i)相比于其他算法取得了最优的融合效果。
首先,实施例一融合方法的融合图像光谱信息保持良好,其次,融合图像中岛屿和建筑物边缘轮廓得到加强,对比图像5(h)的双分支方法,实施例一融合方法基于注意力模型使得SAR与可见光图像深层特征得到重新标定,网络能够自适应地学习到对融合任务更有意义的特征,将SAR图像中显著的空间细节信息注入到融合图像中,从局部放大图5(j)、图5(k)和图5(l)的屋顶可以看出,清晰度逐渐增强,说明实施例一融合方法进一步增强了融合图像的空间细节信息。
(c)渤海港口数据集变化检测结果分析
第二组实验图像含有的农田、住房和桥梁等地物,从图6(a)和(b)中方框区域可以看出,SAR图像中明显存在可见光图像不存在的目标信息,如桥梁和岛屿等目标。各算法的融合结果分析,与上述分析基本相同。在图6(j)至图6(l)局部图像中的建筑区域也可以看出实施例一融合方法使得融合图像的空间细节更加清晰,图像质量得到进一步增强。通过主观评价可以看出本章所提算法效果理想。
(d)客观分析
为了更好地评价各个融合算法的优劣,还需要一些评价指标对融合图像质量进行客观评价。表3和表4展示了IHS、RSIFNN、Wavelet、NSCT_AVG、IHS_NSST_SR、双分支以及实施例一融合方法在两组数据上融合结果的评价。
表3第一组实验数据评价结果
/>
在表3中,根据光谱评价指标CC和RMSE可以看出,IHS方法表现最差,主成分替换方法存在明显的颜色失真;RSIFNN方法提取SAR的强度信息过多,也导致颜色扭曲,RMSE指标较差;Wavelet和NSCT_AVG方法光谱质量有了较大的改善,但仍有提高空间;IHS_NSST_SR方法在光谱质量上表现较好,而双分支方法和本发明方法进一步提升光谱质量。从空间质量评价指标PSNR和SSIM可以看出,IHS和RSIFNN方法的PSNR较差,表明这两种方法融合结果中存在着明显的图像失真;Wavelet融合方法由于小波变换方向的约束,融合结果呈现锯齿状,在SSIM指标上表现较差;NSCT_AVG方法和IHS_NSST_SR方法在空间信息保持方面有较大的改善,而双分支方法和实施例一融合方法的PSNR和SSIM指标进一步提升。
图像的空间和光谱质量整体评价指标ERGAS可以得出,IHS和RSIFNN方法的评价指标差,是因为两种方法中存在颜色畸变和图像失真现象,这与主观评价一致;Wavelet和NSCT_AVG方法有了极大的提高,IHS_NSST_SR方法充分结合的多分辨率分析和成分替换方法的优势,提高整体评价指标。实施例一融合方法的综合指标进一步提升。
表4第二组实验数据评价结果
在表4中,各算法的融合结果评价指标变化趋势与表3相同。综上,实施例一融合方法在保持光谱信息的基础上,有效地增强了多光谱图像的空间细节信息。同时,实施例一融合方法在双分支方法基础上引入注意力模型,进一步增强多光谱图像的空间细节信息和光谱信息,图像的各项评价指标都最接近理想值。
综上,本发明为了弥补卷积神经网络提取的深层特征只是采用简单的加法融合策略,没有考虑深层特征在不同空间位置和不同通道的差异性,不能充分地融合SAR与多光谱图像的深层特征等缺陷,提出了一种基于混合注意力卷积神经网络的SAR与可见光图像融合方法,该方法特点为:
(1)本发明方法在双分支卷积神经网络方法基础上引入空间和通道注意力模型,进一步增强可见光图像的空间细节信息和光谱信息,图像的各项评价指标都最接近理想值。
(2)本发明方法较好地解决了传统融合算法中存在的颜色失真和空间细节模糊的问题,对于CNN网络提取的深层特征只是采用简单的加法融合策略,本发明方法较好地解决了该问题,同等地对待从SAR与可见光图像中提取的深层特征,考虑了深层特征在不同空间位置和不同通道的差异性,充分地融合SAR与可见光图像的深层特征,提高了融合质量。
以上结合附图详细描述了本发明的优选实施方式,本发明所述的实施例仅仅是对本发明的优选实施方式进行的描述,并非对本发明构思和范围进行限定。在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,这种组合只要其不违背本发明的思想,其同样应当视为本公开所公开的内容。为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。
本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内以及不脱离本发明设计思想的前提下,本领域技术人员对本发明的技术方案作出的各种变型和改进,均应落入本发明的保护范围,本发明请求保护的技术内容,已经全部记载在权利要求书中。
Claims (10)
1.基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,包括以下步骤:
步骤1、获取目标的SAR原始图像和可见光原始图像,分别对SAR原始图像和可见光原始图像进行预处理,得到同等分辨率大小的SAR图像和可见光图像,并对可见光图像进行上采样得到可见光的上采样图像;
步骤2、分别提取所述SAR图像的多尺度深层空间细节特征、所述可见光图像的多尺度深层光谱保持特征,由此对应得到SAR图像的空间细节特征图、可见光图像的光谱保持特征图;
步骤3、基于空间注意力机制提取步骤2得到的SAR图像空间细节特征图的空间信息权重;随后对步骤1得到的可见光图像进行上采样,得到可见光上采样图像特征图;然后,基于所述空间信息权重对所述可见光上采样图像特征图进行校准,得到空间加权可见光图像特征图;
基于通道注意力机制提取步骤2得到的可见光图像光谱保持特征图的光谱信息权重图,基于所述光谱信息权重图对步骤2得到的SAR图像空间细节特征图进行校准,得到通道加权SAR特征图;
采用级联策略将所述空间加权可见光图像特征图、通道加权SAR特征图进行信息加权融合,得到融合特征图;
步骤4、提取步骤3得到的融合特征图的细节信息;
步骤5、将步骤4得到的细节信息,叠加至步骤1得到的可见光的上采样图像,得到最终图像。
2.根据权利要求1所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤1中,对SAR图像的预处理依次包括辐射校正、几何校正、斑点滤波;对可见光图像的预处理依次包括辐射校正、大气校正、重采样、图像配准。
3.根据权利要求1所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤2中,首先分别提取SAR图像的高频信息、可见光图像的高频信息;然后基于SAR图像的高频信息提取得到SAR图像的小尺度浅层空间细节特征,并基于可见光图像的高频信息提取得到可见光图像的大尺度浅层光谱保持特征;最后对SAR图像的小尺度浅层空间细节特征、可见光图像的大尺度浅层光谱保持特征分别进行多尺度特征提取,对应得到SAR图像的多尺度深层空间细节特征、可见光图像的多尺度深层光谱保持特征,由此获取SAR图像的空间细节特征图、可见光图像的光谱保持特征图。
4.根据权利要求3所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤2中,采用高通滤波器得到SAR图像和可见光图像的高频信息,并通过上采样使SAR图像和可见光图像的高频信息具有同等分辨率。
5.根据权利要求3所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤2中,采用可分离卷积核基于SAR图像的高频信息提取得到SAR图像的小尺度浅层空间细节特征。
6.根据权利要求3所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤2中,从RGB通道中采用9×9卷积核基于可见光图像的高频信息提取得到可见光图像的大尺度浅层光谱保持特征。
7.根据权利要求1所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤3的空间注意力机制中,首先采用一个1×1卷积层对 SAR图像的空间细节特征图沿通道方向进行降维;然后采用softmax函数对降维后的SAR图像的空间细节特征图进行归一化处理,获得所述空间信息权重;接着采用转置卷积对步骤1可见光图像进行上采样,得到可见光上采样图像特征图;最后,将空间信息权重与所述可见光上采样图像特征图相乘以完成校准,得到空间加权可见光图像特征图。
8.根据权利要求1所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤3中,首先基于通道注意力机制将步骤2得到的可见光图像光谱保持特征图进行全局池化处理和SoftMax函数处理,生成所述光谱信息权重图;最后,将光谱信息权重图与步骤 2得到的SAR图像空间细节特征图相乘以完成校准,得到通道加权SAR特征图。
9.根据权利要求1所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤4中,采用四层卷积层提取步骤3得到的融合特征图的细节信息,其中:
第一层卷积层为 3×3卷积核构成,由第一层卷积层基于所述从融合特征图生成112通道特征图;
第二层卷积层为 3×3卷积核构成,由第二层卷积层基于第一层卷积核输出结果生成64通道特征图;
第三层卷积层为 3×3卷积核构成,由第三层卷积层基于第二层卷积核输出结果生成32通道特征图;
第四层卷积层为 3×3卷积核构成,由第四层卷积核将第三层卷积核输出结果的特征通道维度降到3维,并输出融合特征图的细节信息。
10.根据权利要求1所述的基于交叉混合注意力的SAR与可见光图像融合方法,其特征在于,步骤5中采用跳线连接方式将步骤 4得到的细节信息叠加至步骤1得到的可见光的上采样图像,得到最终图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310185291.5A CN116630209A (zh) | 2023-03-01 | 2023-03-01 | 基于交叉混合注意力的sar与可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310185291.5A CN116630209A (zh) | 2023-03-01 | 2023-03-01 | 基于交叉混合注意力的sar与可见光图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116630209A true CN116630209A (zh) | 2023-08-22 |
Family
ID=87637163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310185291.5A Pending CN116630209A (zh) | 2023-03-01 | 2023-03-01 | 基于交叉混合注意力的sar与可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116630209A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036893A (zh) * | 2023-10-08 | 2023-11-10 | 南京航空航天大学 | 一种基于局部跨阶段和快速下采样的图像融合方法 |
CN117437123A (zh) * | 2023-09-27 | 2024-01-23 | 宁波大学 | 一种光谱与纹理注意力融合的深度光谱超分辨率方法 |
-
2023
- 2023-03-01 CN CN202310185291.5A patent/CN116630209A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437123A (zh) * | 2023-09-27 | 2024-01-23 | 宁波大学 | 一种光谱与纹理注意力融合的深度光谱超分辨率方法 |
CN117036893A (zh) * | 2023-10-08 | 2023-11-10 | 南京航空航天大学 | 一种基于局部跨阶段和快速下采样的图像融合方法 |
CN117036893B (zh) * | 2023-10-08 | 2023-12-15 | 南京航空航天大学 | 一种基于局部跨阶段和快速下采样的图像融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110533620B (zh) | 基于aae提取空间特征的高光谱和全色图像融合方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN110428387B (zh) | 基于深度学习与矩阵分解的高光谱与全色图像融合方法 | |
Xie et al. | HPGAN: Hyperspectral pansharpening using 3-D generative adversarial networks | |
Xu et al. | Image inpainting by patch propagation using patch sparsity | |
CN116630209A (zh) | 基于交叉混合注意力的sar与可见光图像融合方法 | |
CN109064396A (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
CN114119444B (zh) | 一种基于深度神经网络的多源遥感图像融合方法 | |
CN110443768B (zh) | 基于多重一致性约束的单帧图像超分辨率重建方法 | |
CN114821261A (zh) | 一种图像融合的算法 | |
CN113284051B (zh) | 一种基于频率分解多注意力机制的人脸超分辨方法 | |
CN109859110A (zh) | 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法 | |
CN111583113A (zh) | 一种基于生成对抗网络的红外图像超分辨率重建方法 | |
CN114266957B (zh) | 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法 | |
CN116309070A (zh) | 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备 | |
Liu et al. | CASR-Net: A color-aware super-resolution network for panchromatic image | |
Yanshan et al. | OGSRN: Optical-guided super-resolution network for SAR image | |
Zhou et al. | PAN-guided band-aware multi-spectral feature enhancement for pan-sharpening | |
Huang et al. | An unsupervised Laplacian pyramid network for radiometrically accurate data fusion of hyperspectral and multispectral imagery | |
CN109166088B (zh) | 基于非降采样小波变换的双波段灰度熔池图像融合方法 | |
Wang et al. | Underwater image super-resolution using multi-stage information distillation networks | |
Zhang et al. | Gradient enhanced dual regression network: Perception-preserving super-resolution for multi-sensor remote sensing imagery | |
CN111899166A (zh) | 一种基于深度学习的医学高光谱显微图像超分辨重构方法 | |
CN116029908A (zh) | 基于跨模态和跨尺度特征融合的3d磁共振超分辨率方法 | |
Li et al. | ConvFormerSR: Fusing Transformers and Convolutional Neural Networks for Cross-sensor Remote Sensing Imagery Super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |