CN113902622B - 基于深度先验联合注意力的光谱超分辨率方法 - Google Patents

基于深度先验联合注意力的光谱超分辨率方法 Download PDF

Info

Publication number
CN113902622B
CN113902622B CN202111315307.7A CN202111315307A CN113902622B CN 113902622 B CN113902622 B CN 113902622B CN 202111315307 A CN202111315307 A CN 202111315307A CN 113902622 B CN113902622 B CN 113902622B
Authority
CN
China
Prior art keywords
representing
features
convolution
channel
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111315307.7A
Other languages
English (en)
Other versions
CN113902622A (zh
Inventor
王�琦
张铭威
袁媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202111315307.7A priority Critical patent/CN113902622B/zh
Publication of CN113902622A publication Critical patent/CN113902622A/zh
Application granted granted Critical
Publication of CN113902622B publication Critical patent/CN113902622B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度先验联合注意力的光谱超分辨率方法。首先,对给定数据训练集中的每一对RGB图像和高光谱图像RGB图像进行裁剪处理,构成训练数据集;然后,构建包括若干先验变换模块、卷积层及激活层的光谱超分辨率网络,并进行训练;最后,利用训练好的模型对测试集中的RGB图像进行光谱超分辨处理,获取对应的高光谱图像。本发明所设计的网络能够有效地利用高光谱图像自身的空间非局部自相似性及光谱相关性先验,并充分利用局部特征的互补性,使同一类别对象光谱分布更加一致,能够较好地改善RGB图像光谱超分辨率的性能。

Description

基于深度先验联合注意力的光谱超分辨率方法
技术领域
本发明属图像处理技术领域,具体涉及一种基于深度先验联合注意力的光谱超分辨率方法。
背景技术
传统的高光谱成像系统往往通过牺牲空间分辨率和时间分辨率来获取高光谱分辨率的图像,导致其应用限制在对时间和空间分辨率要求不高的场合。而基于彩色相机的高光谱成像系统具有彩色相机成像空间分辨率高及耗时短的优势,能够有效弥补传统高光谱成像系统的缺点。光谱超分辨率技术旨在针对基于彩色相机的高光谱成像系统,由RGB图像重建得到高光谱图像。
目前的光谱超分辨率方法主要是通过构建引入通道注意力、残差结构和密集结构的深度卷积神经网络建立RGB图像与高光谱图像之间的映射。如Shi等人在文献“Z.Shi,C.Chen,Z.Xiong,D.Liu,and F.Wu,HSCNN+:Advanced CNN-based hyperspectralrecovery from RGB images.In Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition Workshops,pp.939-947,2018.”中公开了一种先进基于CNN的高光谱恢复方法。该方法构建的网络由残差结构和密集结构堆叠而成,但由于该网络的特征提取能力有限,因此光谱重建性能相对较差。Li等人在文献“J.Li,C.Wu,R.Song,Y.Li,and F.Liu,Adaptive weighted attention network with camera spectralsensitivity prior for spectral reconstruction from RGB images.In Proceedingsof the IEEE/CVF Conference on Computer Vision and Pattern RecognitionWorkshops,pp.462-463,2020.”中公开了一种基于自适应加权注意力网络的光谱超分辨率方法。该方法引入了相机光谱灵敏度先验,同时提出了自适应加权通道注意力及二阶非局部模块,有效提升了特征的判别性,但是该方法未能有效利用高光谱图像的内在特性,限制了光谱恢复的精度。
发明内容
为了克服现有光谱超分辨率网络不能有效利用局部互补性上下文信息及高光谱图像内在属性,如空间非局部自相似性及光谱相关性的不足,本发明提出了一种基于深度先验联合注意力的光谱超分辨率方法。首先,对给定数据训练集中的每一对RGB图像和高光谱图像RGB图像进行裁剪处理,构成训练数据集;然后,构建包括若干先验变换模块、卷积层及激活层的光谱超分辨率网络,并进行训练;最后,利用训练好的模型对测试集中的RGB图像进行光谱超分辨处理,获取对应的高光谱图像。本发明所设计的网络能够有效地利用高光谱图像自身的空间非局部自相似性及光谱相关性先验,并充分利用局部特征的互补性,使同一类别对象光谱分布更加一致,能够较好地改善RGB图像光谱超分辨率的性能。
一种基于深度先验联合注意力的光谱超分辨率方法,其特征在于步骤如下:
步骤1,构建训练数据集和测试数据集:首先从给定数据集中提取训练集和测试集,然后将训练集中的每一对RGB图像和高光谱图像裁剪为64×64大小的图像,构成训练数据集,测试集中的RGB图像和高光谱图像不做裁剪直接作为测试数据集;
步骤2,构建光谱超分辨率网络模型:首先,依次构建多通道渐进卷积模块、光谱空间的伪联合注意力模块,然后,基于多通道渐进卷积模块和光谱空间的伪联合注意力模块构建先验变换模块,最后,基于先验变换模块构建深度先验联合注意力网络,即光谱超分辨率网络模型;
所述的多通道渐进卷积模块将输入特征按下式均分为g组:
其中,ei表示第i组特征,e1表示第一组特征,Ki(·)表示第i级函数处理操作,当i=1,2,…,g-1时,每一级函数由一个3×3卷积层和一个激活层组成,最后一级函数为一个3×3卷积层;Pi表示经第i级函数处理后得到的第i组特征;⊙表示串接操作;
所述的光谱空间的伪联合注意力模块的处理过程如下:
步骤a:利用两个1×1卷积对输入特征进行变换和通道降维,然后利用平均池化计算由邻近像素组成的补丁的特征均值,并对池化后的特征进行变形,最后利用内积运算及归一化指数函数建模不同补丁之间的相关性,其计算公式如下:
A=softmax(UTWθWφU) (2)
其中,A表示补丁间的相关性矩阵,U表示对输入特征平均池化和变形后得到的特征矩阵,Wθ表示对输入特征进行变换和通道降维的1×1卷积的权重一,Wφ表示对输入特征进行变换和通道降维的1×1卷积的权重二;
步骤b:利用上述两个1×1卷积的权重及其转置对输入特征进行变换,再对得到的特征进行全局平均池化,得到通道描述符,其计算公式如下:
其中,Z表示伪联合注意力模块的输入特征,Z=[z1,z2,...,zc,zC]表示伪联合注意力模块利用上述两个1×1卷积的权重及其转置对输入特征进行变换后得到的特征,vc表示第c个通道的描述符,h表示输入特征的高度,w表示输入特征的宽度,C表示输入特征的通道数量;zc(i,j)表示zc的第i行j列元素;
步骤c:利用两个步长为7的1维卷积学习得到通道注意力,其计算公式如下:
其中,W1表示用于学习邻近通道相关性的步长为7的1维卷积的权重,W2表示用于获得通道注意力系数的步长为7的1维卷积的权重;表示邻近通道描述符序列,/>表示邻近通道相关性建模后的邻近通道描述符序列,k=7表示步长,δ(·)表示修正线性单元函数,σ(·)表示sigmoid函数,yc表示第c个通道特征的注意力因子;
步骤d:利用展开和折叠操作计算得到伪联合注意力模块的输出特征,其计算公式如下:
Z=Fold(Unflod(y*Z)A) (6)
其中,Unfold及Fold分别表示展开和折叠操作,y=[y1,y2,...,yc,...yC]表示通道注意力因子序列,Z表示伪联合注意力模块最终输出的特征;
所述的先验变换模块采用双重残差结构,其计算公式如下:
q=fLeakyReLU(f2D(fMPC(fLeakyReLU(fPJAM(f2D(x))+x)))+x) (7)
其中,x表示输入先验变换模块的特征图,q表示先验变换模块输出的特征图,fPJAM(·)表示光谱空间的伪联合注意力模块操作处理,fMPC(·)表示多通道渐进卷积模块操作处理,f2D(·)表示2D卷积操作处理,卷积层的核大小为3×3、步长为1,fLeakyReLU(·)为激活函数;
所述的深度先验联合注意力网络由若干先验变换模块、卷积层及激活层构成,首先由两个步长为1、核大小为3×3的2D卷积和两个激活层组成浅层特征提取函数,对输入图像进行特征提取,得到浅层特征;然后再利用8个先验变换模块对浅层特征依次递归变换得到深层特征,并利用一个步长为1、核大小为3×3的2D卷积对深层特征进行变换,引入全局残差将变换后的特征与浅层特征融合;最后得到的融合特征经激活层激活后,利用一个3×3卷积层由其重建高光谱图像,其计算公式如下:
其中,X表示输入的RGB图像,F0表示浅层特征,Fk表示第k个先验变换模块的输出,k=1,2,...,8,F8表示第8个先验变换模块的输出,即深层特征,Y表示重建的高光谱图像;
步骤3,模型训练:将步骤1的图像训练集输入到步骤2构建的光谱超分辨率网络模型进行训练,得到训练好的网络;训练采用随机梯度下降算法,优化器采用Adam,通过最小化损失函数训练网络参数,损失函数按照下式进行计算:
其中,m表示输入图像的空间分辨率,b表示重建的高光谱图像波段数,Igtij表示真实图像第i个像素第j个波段的光谱反射率强度值,Irecij表示经网络处理后得到的重建图像第i个像素第j个波段的光谱反射率强度值,|Igt|=m×b;
步骤4,图像重建:将测试数据集RGB图像输入到训练好的光谱超分辨率网络模型,模型输出即为其对应的高光谱图像。
本发明的有益效果是:所设计深度先验联合注意力网络由于在每一个先验变换模块均嵌入了光谱空间的伪联合注意力模块,因此能够充分利用图像自身内在先验属性,融合图像自相似区域特征,并增强光谱相关性,进而有效改善RGB图像的光谱超分辨率精度,光谱重建精度更高;由于采用了多通道渐进卷积设计,能够以相对较少的参数量实现局部大范围内的互补特征融合计算,能够有效降低模型的总参数量且增强邻近区域同一类别对象光谱的一致性。
附图说明
图1是本发明基于深度先验联合注意力的光谱超分辨率方法流程图;
图2是本发明深度先验联合注意力网络结构示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于深度先验联合注意力的光谱超分辨率方法,其具体实现过程如下:
1、构建训练数据集
首先从给定数据集中提取训练集和测试集,然后将训练集中的每一对RGB图像和高光谱图像裁剪为64×64大小的图像,构成训练数据集,测试集中的RGB图像和高光谱图像不做裁剪直接作为测试数据集。
2、构建光谱超分辨率网络模型
如图2所示,本发明构建了用于进行RGB图像光谱超分辨率处理的网络模型,能够重建得到其对应的高光谱图像。首先依次构建多通道渐进卷积模块、光谱空间的伪联合注意力模块,然后基于多通道渐进卷积模块和光谱空间的伪联合注意力模块构建先验变换模块,最后基于先验变换模块构建深度先验联合注意力网络,即光谱超分辨率网络模型。
(1)多通道渐进卷积模块
多通道渐进卷积模块将输入特征按下式均分为g组:
其中,ei表示第i组特征,e1表示第一组特征,Ki(·)表示第i级函数处理操作,当i=1,2,…,g-1时,每一级函数由一个3×3卷积层和一个激活层组成,最后一级函数为一个3×3卷积层;Pi表示经第i级函数处理后得到的第i组特征;⊙表示串接操作。
(2)光谱空间的伪联合注意力模块
光谱空间的伪联合注意力模块包含基于补丁的稀疏非局部操作和通道注意力机制两部分。
基于补丁的稀疏非局部操作首先利用两个1×1卷积对输入特征进行变换和通道降维,然后利用平均池化计算由邻近像素组成的补丁的特征均值,并对池化后得到的特征进行变形,最后利用内积运算及归一化指数函数建模不同补丁之间的相关性,其计算公式如下:
A=softmax(UTWθWφU) (11)
其中,A表示补丁间的相关性矩阵,U表示对输入特征平均池化和变形后得到的特征矩阵,Wθ表示对输入特征进行变换和通道降维的1×1卷积的权重,Wφ表示另一个对输入特征进行变换和通道降维的1×1卷积的权重。
光谱空间的伪联合注意力模块通过权重共享的方式将通道注意力机制嵌在非局部操作中。即利用上述两个1×1卷积的权重及其转置对输入特征进行变换,再对得到的特征进行全局平均池化,得到通道描述符,其计算公式如下:
其中,Z表示伪联合注意力模块的输入特征,Z=[z1,z2,...,zc,...zC]表示伪联合注意力模块利用上述两个1×1卷积的权重及其转置对输入特征进行变换后得到的特征,vc表示第c个通道的描述符,h表示输入特征的高度,w表示输入特征的宽度,C表示输入特征的通道数量;zc(i,j)表示zc的第i行j列元素。
然后,利用两个步长k=7的1×1卷积学习得到通道注意力,其计算公式如下:
其中,W1表示用于学习邻近通道相关性的步长为7的1维卷积的权重,W2表示用于获得通道注意力系数的步长为7的1维卷积的权重;表示邻近通道描述符序列,/>表示邻近通道相关性建模后的邻近通道描述符序列,δ(·)表示修正线性单元函数,σ(·)表示sigmoid函数,yc则表示第c个通道特征的注意力因子.
最后,通过结合通道注意力机制及基于补丁的稀疏非局部操作的输出计算伪联合注意力模块的输出,其计算公式如下:
Z=Fold(Unflod(y*Z)A) (15)
其中,Unfold及Fold分别表示展开和折叠操作,y=[y1,y2,...,yc,…yC]表示通道注意力因子序列,Z表示伪联合注意力模块最终输出的特征。
(3)先验变换模块
先验变换模块采用双重残差结构,其计算公式如下:
q=fLeakyReLU(f2D(fMPC(fLeakyReLU(fPJAM(f2D(x))+x)))+x) (16)
其中,x表示输入先验变换模块的特征图,q表示先验变换模块输出的特征图,fPJAM(·)表示光谱空间的伪联合注意力模块操作处理,fMPC(·)表示多通道渐进卷积模块操作处理,f2D(·)表示2D卷积操作处理,卷积层的核大小为3×3、步长为1,fLeakyReLU(·)为激活函数。
(4)深度先验联合注意力网络
深度先验联合注意力网络由若干先验变换模块、卷积层及激活层构成,首先由两个步长为1、核大小为3×3的2D卷积和两个激活层组成浅层特征提取函数,对输入图像进行特征提取,得到浅层特征;然后再利用8个先验变换模块对浅层特征依次递归变换得到深层特征,并利用一个步长为1、核大小为3×3的2D卷积对深层特征进行变换,引入全局残差将变换后的特征与浅层特征融合;最后得到的融合特征经激活层激活后,利用一个3×3卷积层由其重建高光谱图像,其计算公式如下:
其中,X表示输入的RGB图像,F0表示浅层特征,Fk(k=1,2,...8)表示第k个先验变换模块的输出,F8表示第8个先验变换模块的输出,即深层特征,Y表示重建的高光谱图像。
3、模型训练
将步骤1的图像训练集输入到步骤2构建的光谱超分辨率网络模型进行训练,得到训练好的网络;训练采用随机梯度下降算法,优化器采用Adam,通过最小化损失函数训练网络参数,损失函数按照下式进行计算:
其中,m表示输入图像的空间分辨率,b表示重建的高光谱图像波段数,表示真实图像第i个像素第j个波段的光谱反射率强度值,/>分别表示经网络处理后得到的重建图像第i个像素第j个波段的光谱反射率强度值,|Igt|(|Igt|=m×b)是给定图像空间分辨率和高光谱图像包含的光谱波段数量的乘积。
4、图像重建
加载训练好的光谱超分辨率网络模型的权重,然后对测试数据集RGB图像进行前向预测,模型输出即其对应的高光谱图像。
为验证本发明的有效性,在在中央处理器i7-6800K 3.40GHz CPU、NVIDIAGeForce GTX 1080GPU、Ubuntu操作系统上,运用Python软件、PyTorch深度学习框架进行仿真实验,实验中采用的数据集为NTIRE2020光谱重建挑战赛的数据集。NTIRE2020数据集包含两组基准,一组为已知相机光谱灵敏度函数的无噪声RGB图像光谱超分辨率基准,另一组为未知相机光谱灵敏度函数的模拟现实世界RGB图像光谱超分辨率基准。两组基准均包含450对RGB图像和高光谱图像用于训练,10对图像用于评价模型的性能,图像分辨率大小为482×512。
分别选取可学习的光谱超分辨率方法(“S.Galliani,C.Lanaras,D.Marmanis,E.Baltsavias,and K.Schindler,Learned spectral super-resolution,arXiv preprintarXiv:1703.09470,2017.”,记为方法1)、基于多尺度卷积神经网络的从RGB图像重建光谱的方法(“Y.Yan,L.Zhang,J.Li,W.Wei,and Y.Zhang,Accurate spectral super-resolution from single RGB image using multi-scale cnn,inProc.Chin.Conf.Pattern Recognit.Comput.Vis.,2018,pp.206–217.”,记为方法2)、基于卷积神经网络的从RGB图像重建光谱方法(“T.Stiebel,S.Koppers,P.Seltsam,andD.Merhof,Reconstructing spectral images from RGB-images using a convolutionalneural network,in Proc.IEEE Conf.Comput.Vis.Pattern Recognit.Workshops,2018,pp.948–953.”,记为方法3)、基于多层级回归网络的从RGB图像重建光谱方法(“Y.Zhao,L.-M.Po,Q.Yan,W.Liu,and T.Lin,Hierarchical regression network for spectralreconstruction from RGB images,in Proc.IEEE Conf.Comput.Vis.PatternRecognit.Workshops,2020,pp.422–423.”,记为方法4)、考虑相机灵敏度先验的基于自适应加权注意力网络的从RGB图像重建光谱方法(“J.Li,C.Wu,R.Song,Y.Li,and F.Liu,Adaptive weighted attention network with camera spectral sensitivity priorfor spectral reconstruction from RGB images,in Proc.IEEEConf.Comput.Vis.Pattern Recognit.Workshops,2020,pp.462–463.”,记为方法5)作为对比方法,以平均相对绝对误差(MRAE)及均方根误差(RMSE)作为评价指标来说明不同方法的效果。表1为不同方法的两项指标的计算结果。可以看出,本发明明显优于其他方法,具有更好的光谱超分辨率效果。
表1

Claims (1)

1.一种基于深度先验联合注意力的光谱超分辨率方法,其特征在于步骤如下:
步骤1,构建训练数据集和测试数据集:首先从给定数据集中提取训练集和测试集,然后将训练集中的每一对RGB图像和高光谱图像裁剪为64×64大小的图像,构成训练数据集,测试集中的RGB图像和高光谱图像不做裁剪直接作为测试数据集;
步骤2,构建光谱超分辨率网络模型:首先,依次构建多通道渐进卷积模块、光谱空间的伪联合注意力模块,然后,基于多通道渐进卷积模块和光谱空间的伪联合注意力模块构建先验变换模块,最后,基于先验变换模块构建深度先验联合注意力网络,即光谱超分辨率网络模型;
所述的多通道渐进卷积模块将输入特征按下式均分为g组:
其中,ei表示第i组特征,e1表示第一组特征,Ki(·)表示第i级函数处理操作,当i=1,2,…,g-1时,每一级函数由一个3×3卷积层和一个激活层组成,最后一级函数为一个3×3卷积层;Pi表示经第i级函数处理后得到的第i组特征;⊙表示串接操作;
所述的光谱空间的伪联合注意力模块的处理过程如下:
步骤a:利用两个1×1卷积对输入特征进行变换和通道降维,然后利用平均池化计算由邻近像素组成的补丁的特征均值,并对池化后的特征进行变形,最后利用内积运算及归一化指数函数建模不同补丁之间的相关性,其计算公式如下:
A=softmax(UTWθWφU) (2)
其中,A表示补丁间的相关性矩阵,U表示对输入特征平均池化和变形后得到的特征矩阵,Wθ表示对输入特征进行变换和通道降维的1×1卷积的权重一,Wφ表示对输入特征进行变换和通道降维的1×1卷积的权重二;
步骤b:利用上述两个1×1卷积的权重及其转置对输入特征进行变换,再对得到的特征进行全局平均池化,得到通道描述符,其计算公式如下:
Z=(WθWθ TZ+WφWφ TZ)/2 (3)
其中,Z表示伪联合注意力模块的输入特征,Z=[z1,z2,...,zc,...zC]表示伪联合注意力模块利用上述两个1×1卷积的权重及其转置对输入特征进行变换后得到的特征,vc表示第c个通道的描述符,h表示输入特征的高度,w表示输入特征的宽度,C表示输入特征的通道数量;zc(i,j)表示zc的第i行j列元素;
步骤c:利用两个步长为7的1维卷积学习得到通道注意力,其计算公式如下:
其中,W1表示用于学习邻近通道相关性的步长为7的1维卷积的权重,W2表示用于获得通道注意力系数的步长为7的1维卷积的权重;表示邻近通道描述符序列,/>表示邻近通道相关性建模后的邻近通道描述符序列,k=7表示步长,δ(·)表示修正线性单元函数,σ(·)表示sigmoid函数,yc表示第c个通道特征的注意力因子;
步骤d:利用展开和折叠操作计算得到伪联合注意力模块的输出特征,其计算公式如下:
Z=Fold(Unflod(y*Z)A) (6)
其中,Unfold及Fold分别表示展开和折叠操作,y=[y1,y2,...,yc,...yC]表示通道注意力因子序列,Z表示伪联合注意力模块最终输出的特征;
所述的先验变换模块采用双重残差结构,其计算公式如下:
q=fLeakyReLU(f2D(fMPC(fLeakyReLU(fPJAM(f2D(x))+x)))+x) (7)
其中,x表示输入先验变换模块的特征图,q表示先验变换模块输出的特征图,fPJAM(·)表示光谱空间的伪联合注意力模块操作处理,fMPC(·)表示多通道渐进卷积模块操作处理,f2D(·)表示2D卷积操作处理,卷积层的核大小为3×3、步长为1,fLeakyReLU(·)为激活函数;
所述的深度先验联合注意力网络由若干先验变换模块、卷积层及激活层构成,首先由两个步长为1、核大小为3×3的2D卷积和两个激活层组成浅层特征提取函数,对输入图像进行特征提取,得到浅层特征;然后再利用8个先验变换模块对浅层特征依次递归变换得到深层特征,并利用一个步长为1、核大小为3×3的2D卷积对深层特征进行变换,引入全局残差将变换后的特征与浅层特征融合;最后得到的融合特征经激活层激活后,利用一个3×3卷积层由其重建高光谱图像,其计算公式如下:
其中,X表示输入的RGB图像,F0表示浅层特征,Fk表示第k个先验变换模块的输出,k=1,2,...,8,F8表示第8个先验变换模块的输出,即深层特征,Y表示重建的高光谱图像;
步骤3,模型训练:将步骤1的图像训练集输入到步骤2构建的光谱超分辨率网络模型进行训练,得到训练好的网络;训练采用随机梯度下降算法,优化器采用Adam,通过最小化损失函数训练网络参数,损失函数按照下式进行计算:
其中,m表示输入图像的空间分辨率,b表示重建的高光谱图像波段数,表示真实图像第i个像素第j个波段的光谱反射率强度值,/>表示经网络处理后得到的重建图像第i个像素第j个波段的光谱反射率强度值,|Igt|=m×b;
步骤4,图像重建:将测试数据集RGB图像输入到训练好的光谱超分辨率网络模型,模型输出即为其对应的高光谱图像。
CN202111315307.7A 2021-11-08 2021-11-08 基于深度先验联合注意力的光谱超分辨率方法 Active CN113902622B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111315307.7A CN113902622B (zh) 2021-11-08 2021-11-08 基于深度先验联合注意力的光谱超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111315307.7A CN113902622B (zh) 2021-11-08 2021-11-08 基于深度先验联合注意力的光谱超分辨率方法

Publications (2)

Publication Number Publication Date
CN113902622A CN113902622A (zh) 2022-01-07
CN113902622B true CN113902622B (zh) 2024-02-27

Family

ID=79193693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111315307.7A Active CN113902622B (zh) 2021-11-08 2021-11-08 基于深度先验联合注意力的光谱超分辨率方法

Country Status (1)

Country Link
CN (1) CN113902622B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114841860B (zh) * 2022-05-12 2022-11-25 西南民族大学 一种基于拉普拉斯金字塔网络的高光谱遥感图像超分辨率方法
CN115479906A (zh) * 2022-09-27 2022-12-16 同济大学 基于rgb和高光谱图像融合的碎塑料和微塑料检测方法
CN115601611B (zh) * 2022-10-12 2023-05-09 武汉纺织大学 一种适应曝光变化的深度学习光谱重建方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429349A (zh) * 2020-03-23 2020-07-17 西安电子科技大学 基于光谱约束对抗网络的高光谱图像超分辨率方法
CN112116065A (zh) * 2020-08-14 2020-12-22 西安电子科技大学 一种rgb图像光谱重建方法、系统、存储介质及应用
CN112379379A (zh) * 2020-11-10 2021-02-19 河南大学 Tops sar系统的通道相位偏差估计方法和装置
CN113222823A (zh) * 2021-06-02 2021-08-06 国网湖南省电力有限公司 基于混合注意力网络融合的高光谱图像超分辨率方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017066825A1 (en) * 2015-10-19 2017-04-27 National Ict Australia Limited Spectral reconstruction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429349A (zh) * 2020-03-23 2020-07-17 西安电子科技大学 基于光谱约束对抗网络的高光谱图像超分辨率方法
CN112116065A (zh) * 2020-08-14 2020-12-22 西安电子科技大学 一种rgb图像光谱重建方法、系统、存储介质及应用
CN112379379A (zh) * 2020-11-10 2021-02-19 河南大学 Tops sar系统的通道相位偏差估计方法和装置
CN113222823A (zh) * 2021-06-02 2021-08-06 国网湖南省电力有限公司 基于混合注意力网络融合的高光谱图像超分辨率方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于分层注意力机制的神经网络垃圾评论检测模型;刘雨心;王莉;张昊;;计算机应用;20180719(第11期);全文 *
基于小波包的多尺度高光谱图像超分辨率网络;王立国;毕天屹;石瑶;;黑龙江大学自然科学学报;20200625(第03期);全文 *

Also Published As

Publication number Publication date
CN113902622A (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
CN113902622B (zh) 基于深度先验联合注意力的光谱超分辨率方法
CN108596248B (zh) 一种基于改进深度卷积神经网络的遥感影像分类方法
CN110992275B (zh) 一种基于生成对抗网络的细化单幅图像去雨方法
CN111369440B (zh) 模型训练、图像超分辨处理方法、装置、终端及存储介质
CN111127374B (zh) 一种基于多尺度密集网络的Pan-sharpening方法
CN111080567A (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN108171122A (zh) 基于全卷积网络的高光谱遥感图像的分类方法
CN111325165B (zh) 考虑空间关系信息的城市遥感影像场景分类方法
CN110110596B (zh) 高光谱图像特征提取、分类模型构建及分类方法
CN113327218B (zh) 一种基于级联网络的高光谱与全色图像融合方法
CN111126256A (zh) 一种基于自适应空谱多尺度网络的高光谱图像分类方法
CN107316309B (zh) 基于矩阵分解的高光谱图像显著性目标检测方法
CN108460749B (zh) 一种高光谱与多光谱图像的快速融合方法
CN113240683B (zh) 基于注意力机制的轻量化语义分割模型构建方法
CN107491793B (zh) 一种基于稀疏散射全卷积的极化sar图像分类方法
CN113420838B (zh) 基于多尺度注意力特征融合的sar与光学图像分类方法
CN110119805B (zh) 基于回声状态网络分类的卷积神经网络算法
CN103646256A (zh) 一种基于图像特征稀疏重构的图像分类方法
CN115331104A (zh) 一种基于卷积神经网络的农作物种植信息提取方法
CN111709882A (zh) 基于亚像素卷积与特征分割的超分辨率融合的计算方法
CN112818920A (zh) 一种双时相高光谱图像空谱联合变化检测方法
CN118033732B (zh) 一种基于空域频域融合架构的地震数据重建方法
CN109460788B (zh) 基于低秩-稀疏信息组合网络的高光谱图像分类方法
CN108052981A (zh) 基于非下采样Contourlet变换和卷积神经网络的图像分类方法
Lu et al. Multi-Supervised Recursive-CNN for Hyperspectral and Multispectral Image Fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant