CN117437123A - 一种光谱与纹理注意力融合的深度光谱超分辨率方法 - Google Patents

一种光谱与纹理注意力融合的深度光谱超分辨率方法 Download PDF

Info

Publication number
CN117437123A
CN117437123A CN202311259050.7A CN202311259050A CN117437123A CN 117437123 A CN117437123 A CN 117437123A CN 202311259050 A CN202311259050 A CN 202311259050A CN 117437123 A CN117437123 A CN 117437123A
Authority
CN
China
Prior art keywords
spectrum
texture
attention
depth
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311259050.7A
Other languages
English (en)
Inventor
孙伟伟
王耀
刘围围
杨刚
陈镔捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN202311259050.7A priority Critical patent/CN117437123A/zh
Publication of CN117437123A publication Critical patent/CN117437123A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种光谱与纹理注意力融合的深度光谱超分辨率方法,包括:通过多尺度卷积模块对RGB图像进行下采样获得3种尺度的深度特征;利用光谱注意力结构进行光谱聚合;对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。本发明的有益效果是:本发明不仅高效地提取了低分辨率图像的纹理特征,还成功地将不同尺度的特征巧妙融合在一起;并提出了一种基于光谱维度的交叉注意力机制,以实现高性能的光谱重建。

Description

一种光谱与纹理注意力融合的深度光谱超分辨率方法
技术领域
本发明涉及图像分辨率增强技术领域,更确切地说,它涉及一种光谱与纹理注意力融合的深度光谱超分辨率方法。
背景技术
高光谱图像是一种能够记录大量不同波段的光谱信息的图像,相对于传统的多光谱图像和RGB图像,它可以反映出不同材料的细微光谱差异,从而在遥感检测、医学诊断和植物检测等领域有着广泛的应用。然而,由于传感器硬件的限制和采集成本的考虑,获取高空间分辨率的高光谱图像是非常困难的。为了解决这个问题,近年来出现了光谱超分辨率技术,它可以在不提升硬件设施的情况下利用低光谱分辨率图像来重建高光谱图像。
根据是否需要参考图像,光谱超分辨率方法可以分为两种:单图光谱超分辨率和融合光谱超分辨率。单图光谱超分辨率是指仅利用单个低分辨率图像进行图像重建的技术,无需提供其他辅助信息。由于其简单和便捷的特点,单图超分辨率在实际应用中具有更大的发展前景。它不依赖于多个参考图像数据,因此在许多应用场景中提供了高效的解决方案,可以在不复杂的条件下实现图像增强。
各种基于深度学习的超分辨率方法已被用于提高低分辨率图像的空间分辨率,例如残差网络、密集卷积网络、生成对抗网络和注意力机制。这些方法的性能比传统的超分辨率好得多,这可能是因为深度学习模型可以表示低分辨率和高分辨率之间的非线性关系。但是在许多光谱超分辨率模型中,并未充分关注空间和纹理等特征信息的损失,这在一定程度上限制了模型的性能。
发明内容
本发明的目的是针对现有技术的不足,提出了一种光谱与纹理注意力融合的深度光谱超分辨率方法。
第一方面,提供了一种光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
步骤1、获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
作为优选,步骤1中,所述通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征,数学表达式为:
Di=fConvX(Conv(ILR))
其中,fConvX代表改进的卷积模块,Conv表示卷积操作,ILR表示输入的低分辨率影像,Di表示经过改进的卷积模块处理后得到的不同尺度的深度特征;Di包括表示经过四倍下采样的深度特征D1、表示经过二倍下采样的深度特征D2和表示尺度不变的深度特征D3
作为优选,步骤2中,对深度特征D1首先利用光谱注意力块进行光谱聚合,数学表达式为:
S1=fSA(D1)
其中,fSA表示光谱注意力操作,S1即为提取的光谱特征。
作为优选,步骤3中,对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作,数学表达式为:
T1=fTE(S1,D2,ILR)
CS1=fSAB(S1,D2))
其中,fTE表示纹理提取模块,fSAB表示光谱注意力模块,T1为提取的纹理特征,CS1表示提取的光谱特征。
作为优选,步骤4中,将得到的纹理特征和光谱特征利用纹理注意力模块进行融合,得到充分融合纹理和光谱信息的特征S2,数学表达式为:
S2=fTA(CS1,T1)
其中,fTA表示纹理注意力模块。
作为优选,步骤5中,对光谱特征S2执行与S1执行相同的操作,数学表达式为:
T2=fTE(S2,D3,ILR)
CS2=fSAB(S2,D3))
S3=fTA(CS2,T2)
最后将深度特征D3,纹理特征T2和光谱特征S3连接得到最终的重建结果ISR,表示为:
ISR=concat(D3,T2,S3)
其中,concat表示连接操作。
第二方面,提供了一种光谱与纹理注意力融合的深度光谱超分辨率系统,用于执行第一方面任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
下采样模块,用于获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
光谱聚合模块,用于根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
提取模块,用于对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
融合模块,用于利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
重复模块,用于从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
第三方面,提供了一种计算机存储介质,所述计算机存储介质内存储有计算机程序;所述计算机程序在计算机上运行时,使得计算机执行第一方面任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法。
本发明的有益效果是:
1.本发明设计了一个可学习的卷积Gabor滤波和梯度Sobel滤波纹理提取结构,使得模型能够自动适应数据的特点,从而更好地提取有用的纹理和特征信息。在纹理提取模块中,本发明不仅高效地提取了低分辨率图像的纹理特征,还成功地将不同尺度的特征巧妙融合在一起。
2.本发明提出了一种基于光谱维度的交叉注意力机制,以实现高性能的光谱重建。通过利用光谱和空间约束,该机制可以指导网络的重建过程,并通过引入光谱维度的交叉关联来实现更精确的特征信息重建。
3.本发明引入了纹理注意力结构,旨在保持空间特征信息不降低的前提下,增强低分图像的光谱信息。并加入了可学习的光谱补偿机制,从而增强重建特征的空间和光谱细节。
附图说明
图1为一种光谱与纹理注意力融合的深度光谱超分辨率方法的流程图;
图2为一种方法对比结果图;
图3为另一种方法对比结果图。
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
实施例1:
本申请实施例提供了一种光谱与纹理注意力融合的深度光谱超分辨率方法,通过纹理提取和光谱聚合网络提取图像纹理和光谱特征,利用纹理注意力将纹理与光谱深度融合,并充分利用多尺度特征的优势,为精确的图像光谱超分实现更好的重建精度。在本方法中,纹理注意力被引入到遥感图像的光谱超分中,并利用多尺度深度特征用于高分辨率图像重建,同时结合光谱和纹理提取进行有效的特征提取,利用光谱注意力结构进行深度融合,从而实现了高倍率的光谱超分。
具体的,如图1所示,该方法包括:
步骤1、获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征。
本步骤的目的是对数据进行初步的处理,获得多个尺度的深度特征,以方便后面的操作。
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征。
本步骤对深度特征进行初步的光谱聚合以方便之后精确的光谱重建。
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作。
本步骤的目的是提取丰富的纹理和光谱细节信息,利用空间和光谱两种类型的特征指导高光谱图像的重建。
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征。
本步骤的目的是在保持空间特征信息不降低的前提下,并加入了可学习的光谱补偿信息,从而增强重建特征的重建性能。
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
在图像重建中,由于缺乏对多尺度信息的综合考虑,往往会导致图像质量不佳和细节信息丢失。本步骤的旨在充分利用多尺度特征信息,有效提高SR重建的质量和有效性。图2和图3为采用本方法和现有技术所生成的重建图像对比。图2中,将重建的高光谱选择特定波段以RGB图像导出,以显示其空间特征;图3中,将重建的高光谱选择特定波段制作残差图,残差越小表示效果越好。
实施例2:
在实施例1的基础上,本申请实施例2提供了更具体的光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
步骤1、获取RGB图像,通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征。
步骤1中,所述通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征,数学表达式为:
Di=fConvX(Conv(ILR))
其中,fConvX代表改进的卷积模块,Conv表示卷积操作,ILR表示输入的低分辨率影像,Di表示经过改进的卷积模块处理后得到的不同尺度的深度特征;Di包括表示经过四倍下采样的深度特征D1、表示经过二倍下采样的深度特征D2和表示尺度不变的深度特征D3
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征。
步骤2中,对深度特征D1首先利用光谱注意力块进行光谱聚合,数学表达式为:
S1=fSA(D1)
其中,fSA表示光谱注意力操作,S1即为提取的光谱特征。
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作。
步骤3中,对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作,数学表达式为:
T1=fTE(S1,D2,ILR)
CS1=fSAB(S1,D2))
其中,fTE表示纹理提取模块,fSAB表示光谱注意力模块,T1为提取的纹理特征,CS1表示提取的光谱特征。需要说明的,步骤2中的fSA为单个光谱注意力操作,而fSAB则为多个fSA组合而成的操作,具体可见图1。
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征。
步骤4中,将得到的纹理特征和光谱特征利用纹理注意力模块进行融合,得到充分融合纹理和光谱信息的特征S2,数学表达式为:
S2=fTA(CS1,T1)
其中,fTA表示纹理注意力模块。
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
步骤5中,对光谱特征S2执行与S1执行相同的操作,数学表达式为:
T2=fTE(S2,D3,ILR)
CS2=fSAB(S2,D3))
S3=fTA(CS2,T2)
最后将深度特征D3,纹理特征T2和光谱特征S3连接得到最终的重建结果ISR,表示为:
ISR=concat(D3,T2,S3)
其中,concat表示连接操作。
通过采用3组数据集对该方法与目前五种主流方法(mst plus plus、hinet、hscnnplus、hrnet、awan)超分结果进行了对比,结果如表1-3所示,该方法在峰值信噪比(PSNR)、结构相似性(SSIM)、相对全局无量纲误差(ERGAS)、光谱角制图(SAM)、均方误差(MSE)等定量指标中明显优于其他方法。
表1在CAVE数据集的定量结果(粗体表示最优)
表2在Ntire2022数据集的定量结果(粗体表示最优)
表3在Chikusei数据集的定量结果(粗体表示最优)
综上所述,本申请首先考虑到高光谱图像重建中空间和纹理考虑不足的特点,提出了一种基于可学习的纹理特征提取模块。其次,考虑到注意力网络计算量较复杂,提出了一种基于光谱维度的交叉注意力机制,以实现高性能的光谱重建。第三,由于利用多种模块提取了丰富的光谱和空间特征,仅简单的融合方法在性能上存在一定的局限性,所以提出了深度特征增强模块和光谱纹理注意力模型,通过引入特征之间的深度交互来实现更为有效的特征融合。考虑到传统RGB图像和高光谱图像之间较大的光谱差距,本申请提出了一个多尺度、渐进的特征融合模块,依次执行图像特征融合,得到重构的高光谱图像。本发明将纹理特征与光谱特征深度相结合,并充分利用多尺度特征的优势,在多种光谱超分任务中实现了更好的重建精度,实现遥感图像光谱分辨率的增强,从而大幅度降低目标检测、分类、定量回归等精细分析应用的数据要求。在实验中也证明了其效果。
需要说明的,本实施例中与实施例1相同或相似的部分可相互参考,在本申请中不再赘述。
实施例3:
在实施例1、2的基础上,本申请实施例3提供了一种光谱与纹理注意力融合的深度光谱超分辨率系统,包括:
下采样模块,用于获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
光谱聚合模块,用于根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
提取模块,用于对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
融合模块,用于利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
重复模块,用于从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
具体的,本实施例所提供的系统为实施例1提供的方法对应的系统,因此,在本实施例中与实施例1相同或相似的部分,可相互参考,在本申请中不再赘述。

Claims (8)

1.一种光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,包括:
步骤1、获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
2.根据权利要求1所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤1中,所述通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征,数学表达式为:
Di=fConvX(Conv(ILR))
其中,fConvX代表改进的卷积模块,Conv表示卷积操作,ILR表示输入的低分辨率影像,Di表示经过改进的卷积模块处理后得到的不同尺度的深度特征;Di包括表示经过四倍下采样的深度特征D1、表示经过二倍下采样的深度特征D2和表示尺度不变的深度特征D3
3.根据权利要求2所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤2中,对深度特征D1首先利用光谱注意力块进行光谱聚合,数学表达式为:
S1=fSA(D1)
其中,fSA表示光谱注意力操作,S1即为提取的光谱特征。
4.根据权利要求3所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤3中,对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作,数学表达式为:
T1=fTE(S1,D2,ILR)
CS1=fSAB(S1,D2))
其中,fTE表示纹理提取模块,fSAB表示光谱注意力模块,T1为提取的纹理特征,CS1表示提取的光谱特征。
5.根据权利要求4所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤4中,将得到的纹理特征和光谱特征利用纹理注意力模块进行融合,得到充分融合纹理和光谱信息的特征S2,数学表达式为:
S2=fTA(CS1,T1)
其中,fTA表示纹理注意力模块。
6.根据权利要求5所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤5中,对光谱特征S2执行与S1执行相同的操作,数学表达式为:
T2=fTE(S2,D3,ILR)
CS2=fSAB(S2,D3))
S3=fTA(CS2,T2)
最后将深度特征D3,纹理特征T2和光谱特征S3连接得到最终的重建结果ISR,表示为:
ISR=concat(D3,T2,S3)
其中,concat表示连接操作。
7.一种光谱与纹理注意力融合的深度光谱超分辨率系统,其特征在于,用于执行权利要求1至6任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
下采样模块,用于获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
光谱聚合模块,用于根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
提取模块,用于对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
融合模块,用于利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
重复模块,用于从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
8.一种计算机存储介质,其特征在于,所述计算机存储介质内存储有计算机程序;所述计算机程序在计算机上运行时,使得计算机执行权利要求1至6任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法。
CN202311259050.7A 2023-09-27 2023-09-27 一种光谱与纹理注意力融合的深度光谱超分辨率方法 Pending CN117437123A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311259050.7A CN117437123A (zh) 2023-09-27 2023-09-27 一种光谱与纹理注意力融合的深度光谱超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311259050.7A CN117437123A (zh) 2023-09-27 2023-09-27 一种光谱与纹理注意力融合的深度光谱超分辨率方法

Publications (1)

Publication Number Publication Date
CN117437123A true CN117437123A (zh) 2024-01-23

Family

ID=89550636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311259050.7A Pending CN117437123A (zh) 2023-09-27 2023-09-27 一种光谱与纹理注意力融合的深度光谱超分辨率方法

Country Status (1)

Country Link
CN (1) CN117437123A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3364342A1 (en) * 2017-02-17 2018-08-22 Cogisen SRL Method for image processing and video compression
CN114254715A (zh) * 2022-03-02 2022-03-29 自然资源部第一海洋研究所 一种gf-1 wfv卫星影像超分辨率方法、系统及应用
WO2022225803A1 (en) * 2021-04-20 2022-10-27 Microsoft Technology Licensing, Llc Systems and methods for low compute high-resolution depth map generation using low-resolution cameras
CN115272078A (zh) * 2022-08-01 2022-11-01 西安交通大学 基于多尺度空-谱特征学习的高光谱图像超分辨率重建方法
CN115564692A (zh) * 2022-09-07 2023-01-03 宁波大学 顾及幅宽差异下的全色-多光谱-高光谱一体化融合方法
CN116612010A (zh) * 2023-06-16 2023-08-18 西安电子科技大学 基于光谱相关信息和空间高低频信息的超分辨率图像重建方法
CN116630209A (zh) * 2023-03-01 2023-08-22 合肥工业大学 基于交叉混合注意力的sar与可见光图像融合方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3364342A1 (en) * 2017-02-17 2018-08-22 Cogisen SRL Method for image processing and video compression
WO2022225803A1 (en) * 2021-04-20 2022-10-27 Microsoft Technology Licensing, Llc Systems and methods for low compute high-resolution depth map generation using low-resolution cameras
CN114254715A (zh) * 2022-03-02 2022-03-29 自然资源部第一海洋研究所 一种gf-1 wfv卫星影像超分辨率方法、系统及应用
CN115272078A (zh) * 2022-08-01 2022-11-01 西安交通大学 基于多尺度空-谱特征学习的高光谱图像超分辨率重建方法
CN115564692A (zh) * 2022-09-07 2023-01-03 宁波大学 顾及幅宽差异下的全色-多光谱-高光谱一体化融合方法
CN116630209A (zh) * 2023-03-01 2023-08-22 合肥工业大学 基于交叉混合注意力的sar与可见光图像融合方法
CN116612010A (zh) * 2023-06-16 2023-08-18 西安电子科技大学 基于光谱相关信息和空间高低频信息的超分辨率图像重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SUN W 等: "A progressive feature enhancement deep network for large-scale remote sensing image super-resolution", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》, 30 April 2023 (2023-04-30), pages 1 - 8 *
YANG X 等: "Super-resolution reconstruction of terahertz images based on a deep-learning network with a residual channel attention mechanism", 《 APPLIED OPTICS》, 31 December 2022 (2022-12-31), pages 3363 - 3370 *
孙伟伟 等: "融合高分辨率遥感影像和POI数据的多特征潜在语义信息用于识别城市功能区", 《遥感技术与应用》, 31 March 2021 (2021-03-31), pages 618 - 626 *
张兵 等: "高/多光谱遥感图像超分辨率融合研究进展与展望", 《测绘学报》, 31 July 2023 (2023-07-31), pages 1074 - 1089 *

Similar Documents

Publication Publication Date Title
Fan et al. Scale-wise convolution for image restoration
Cai et al. FCSR-GAN: Joint face completion and super-resolution via multi-task learning
CN106920214B (zh) 空间目标图像超分辨率重建方法
Li et al. Deep learning methods in real-time image super-resolution: a survey
CN111127374A (zh) 一种基于多尺度密集网络的Pan-sharpening方法
US20230252605A1 (en) Method and system for a high-frequency attention network for efficient single image super-resolution
Liu et al. Dual learning-based graph neural network for remote sensing image super-resolution
KR102556028B1 (ko) 딥러닝에 기반한 원격 감지를 위한 실시간 이미지 융합 장치 및 방법
Yang et al. MRDN: A lightweight multi-stage residual distillation network for image super-resolution
Deng et al. Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution
Zeng et al. Self-attention learning network for face super-resolution
Wang et al. Multi-scale fast fourier transform based attention network for remote-sensing image super-resolution
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
CN116188272B (zh) 适用于多模糊核的两阶段深度网络图像超分辨率重建方法
Bai et al. Survey of learning based single image super-resolution reconstruction technology
Li et al. Rethinking Multi-Contrast MRI Super-Resolution: Rectangle-Window Cross-Attention Transformer and Arbitrary-Scale Upsampling
CN111899166A (zh) 一种基于深度学习的医学高光谱显微图像超分辨重构方法
Liu et al. Gradient prior dilated convolution network for remote sensing image super resolution
Chudasama et al. Computationally efficient progressive approach for single-image super-resolution using generative adversarial network
Zhuge et al. Single image denoising with a feature-enhanced network
CN117437123A (zh) 一种光谱与纹理注意力融合的深度光谱超分辨率方法
Liang et al. DASR: Dual-Attention Transformer for infrared image super-resolution
Liu et al. A convolutional neural network for image super-resolution using internal dataset
CN114022521A (zh) 一种非刚性多模医学图像的配准方法及系统
Gao et al. Single image super-resolution based on multi-scale dense attention network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination