CN117437123A - 一种光谱与纹理注意力融合的深度光谱超分辨率方法 - Google Patents
一种光谱与纹理注意力融合的深度光谱超分辨率方法 Download PDFInfo
- Publication number
- CN117437123A CN117437123A CN202311259050.7A CN202311259050A CN117437123A CN 117437123 A CN117437123 A CN 117437123A CN 202311259050 A CN202311259050 A CN 202311259050A CN 117437123 A CN117437123 A CN 117437123A
- Authority
- CN
- China
- Prior art keywords
- spectrum
- texture
- attention
- depth
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001228 spectrum Methods 0.000 title claims abstract description 144
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004927 fusion Effects 0.000 title claims abstract description 30
- 230000003595 spectral effect Effects 0.000 claims abstract description 41
- 230000002776 aggregation Effects 0.000 claims abstract description 24
- 238000004220 aggregation Methods 0.000 claims abstract description 24
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 238000006116 polymerization reaction Methods 0.000 claims abstract description 9
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 abstract description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种光谱与纹理注意力融合的深度光谱超分辨率方法,包括:通过多尺度卷积模块对RGB图像进行下采样获得3种尺度的深度特征;利用光谱注意力结构进行光谱聚合;对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。本发明的有益效果是:本发明不仅高效地提取了低分辨率图像的纹理特征,还成功地将不同尺度的特征巧妙融合在一起;并提出了一种基于光谱维度的交叉注意力机制,以实现高性能的光谱重建。
Description
技术领域
本发明涉及图像分辨率增强技术领域,更确切地说,它涉及一种光谱与纹理注意力融合的深度光谱超分辨率方法。
背景技术
高光谱图像是一种能够记录大量不同波段的光谱信息的图像,相对于传统的多光谱图像和RGB图像,它可以反映出不同材料的细微光谱差异,从而在遥感检测、医学诊断和植物检测等领域有着广泛的应用。然而,由于传感器硬件的限制和采集成本的考虑,获取高空间分辨率的高光谱图像是非常困难的。为了解决这个问题,近年来出现了光谱超分辨率技术,它可以在不提升硬件设施的情况下利用低光谱分辨率图像来重建高光谱图像。
根据是否需要参考图像,光谱超分辨率方法可以分为两种:单图光谱超分辨率和融合光谱超分辨率。单图光谱超分辨率是指仅利用单个低分辨率图像进行图像重建的技术,无需提供其他辅助信息。由于其简单和便捷的特点,单图超分辨率在实际应用中具有更大的发展前景。它不依赖于多个参考图像数据,因此在许多应用场景中提供了高效的解决方案,可以在不复杂的条件下实现图像增强。
各种基于深度学习的超分辨率方法已被用于提高低分辨率图像的空间分辨率,例如残差网络、密集卷积网络、生成对抗网络和注意力机制。这些方法的性能比传统的超分辨率好得多,这可能是因为深度学习模型可以表示低分辨率和高分辨率之间的非线性关系。但是在许多光谱超分辨率模型中,并未充分关注空间和纹理等特征信息的损失,这在一定程度上限制了模型的性能。
发明内容
本发明的目的是针对现有技术的不足,提出了一种光谱与纹理注意力融合的深度光谱超分辨率方法。
第一方面,提供了一种光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
步骤1、获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
作为优选,步骤1中,所述通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征,数学表达式为:
Di=fConvX(Conv(ILR))
其中,fConvX代表改进的卷积模块,Conv表示卷积操作,ILR表示输入的低分辨率影像,Di表示经过改进的卷积模块处理后得到的不同尺度的深度特征;Di包括表示经过四倍下采样的深度特征D1、表示经过二倍下采样的深度特征D2和表示尺度不变的深度特征D3。
作为优选,步骤2中,对深度特征D1首先利用光谱注意力块进行光谱聚合,数学表达式为:
S1=fSA(D1)
其中,fSA表示光谱注意力操作,S1即为提取的光谱特征。
作为优选,步骤3中,对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作,数学表达式为:
T1=fTE(S1,D2,ILR)
CS1=fSAB(S1,D2))
其中,fTE表示纹理提取模块,fSAB表示光谱注意力模块,T1为提取的纹理特征,CS1表示提取的光谱特征。
作为优选,步骤4中,将得到的纹理特征和光谱特征利用纹理注意力模块进行融合,得到充分融合纹理和光谱信息的特征S2,数学表达式为:
S2=fTA(CS1,T1)
其中,fTA表示纹理注意力模块。
作为优选,步骤5中,对光谱特征S2执行与S1执行相同的操作,数学表达式为:
T2=fTE(S2,D3,ILR)
CS2=fSAB(S2,D3))
S3=fTA(CS2,T2)
最后将深度特征D3,纹理特征T2和光谱特征S3连接得到最终的重建结果ISR,表示为:
ISR=concat(D3,T2,S3)
其中,concat表示连接操作。
第二方面,提供了一种光谱与纹理注意力融合的深度光谱超分辨率系统,用于执行第一方面任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
下采样模块,用于获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
光谱聚合模块,用于根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
提取模块,用于对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
融合模块,用于利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
重复模块,用于从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
第三方面,提供了一种计算机存储介质,所述计算机存储介质内存储有计算机程序;所述计算机程序在计算机上运行时,使得计算机执行第一方面任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法。
本发明的有益效果是:
1.本发明设计了一个可学习的卷积Gabor滤波和梯度Sobel滤波纹理提取结构,使得模型能够自动适应数据的特点,从而更好地提取有用的纹理和特征信息。在纹理提取模块中,本发明不仅高效地提取了低分辨率图像的纹理特征,还成功地将不同尺度的特征巧妙融合在一起。
2.本发明提出了一种基于光谱维度的交叉注意力机制,以实现高性能的光谱重建。通过利用光谱和空间约束,该机制可以指导网络的重建过程,并通过引入光谱维度的交叉关联来实现更精确的特征信息重建。
3.本发明引入了纹理注意力结构,旨在保持空间特征信息不降低的前提下,增强低分图像的光谱信息。并加入了可学习的光谱补偿机制,从而增强重建特征的空间和光谱细节。
附图说明
图1为一种光谱与纹理注意力融合的深度光谱超分辨率方法的流程图;
图2为一种方法对比结果图;
图3为另一种方法对比结果图。
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
实施例1:
本申请实施例提供了一种光谱与纹理注意力融合的深度光谱超分辨率方法,通过纹理提取和光谱聚合网络提取图像纹理和光谱特征,利用纹理注意力将纹理与光谱深度融合,并充分利用多尺度特征的优势,为精确的图像光谱超分实现更好的重建精度。在本方法中,纹理注意力被引入到遥感图像的光谱超分中,并利用多尺度深度特征用于高分辨率图像重建,同时结合光谱和纹理提取进行有效的特征提取,利用光谱注意力结构进行深度融合,从而实现了高倍率的光谱超分。
具体的,如图1所示,该方法包括:
步骤1、获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征。
本步骤的目的是对数据进行初步的处理,获得多个尺度的深度特征,以方便后面的操作。
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征。
本步骤对深度特征进行初步的光谱聚合以方便之后精确的光谱重建。
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作。
本步骤的目的是提取丰富的纹理和光谱细节信息,利用空间和光谱两种类型的特征指导高光谱图像的重建。
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征。
本步骤的目的是在保持空间特征信息不降低的前提下,并加入了可学习的光谱补偿信息,从而增强重建特征的重建性能。
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
在图像重建中,由于缺乏对多尺度信息的综合考虑,往往会导致图像质量不佳和细节信息丢失。本步骤的旨在充分利用多尺度特征信息,有效提高SR重建的质量和有效性。图2和图3为采用本方法和现有技术所生成的重建图像对比。图2中,将重建的高光谱选择特定波段以RGB图像导出,以显示其空间特征;图3中,将重建的高光谱选择特定波段制作残差图,残差越小表示效果越好。
实施例2:
在实施例1的基础上,本申请实施例2提供了更具体的光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
步骤1、获取RGB图像,通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征。
步骤1中,所述通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征,数学表达式为:
Di=fConvX(Conv(ILR))
其中,fConvX代表改进的卷积模块,Conv表示卷积操作,ILR表示输入的低分辨率影像,Di表示经过改进的卷积模块处理后得到的不同尺度的深度特征;Di包括表示经过四倍下采样的深度特征D1、表示经过二倍下采样的深度特征D2和表示尺度不变的深度特征D3。
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征。
步骤2中,对深度特征D1首先利用光谱注意力块进行光谱聚合,数学表达式为:
S1=fSA(D1)
其中,fSA表示光谱注意力操作,S1即为提取的光谱特征。
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作。
步骤3中,对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作,数学表达式为:
T1=fTE(S1,D2,ILR)
CS1=fSAB(S1,D2))
其中,fTE表示纹理提取模块,fSAB表示光谱注意力模块,T1为提取的纹理特征,CS1表示提取的光谱特征。需要说明的,步骤2中的fSA为单个光谱注意力操作,而fSAB则为多个fSA组合而成的操作,具体可见图1。
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征。
步骤4中,将得到的纹理特征和光谱特征利用纹理注意力模块进行融合,得到充分融合纹理和光谱信息的特征S2,数学表达式为:
S2=fTA(CS1,T1)
其中,fTA表示纹理注意力模块。
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
步骤5中,对光谱特征S2执行与S1执行相同的操作,数学表达式为:
T2=fTE(S2,D3,ILR)
CS2=fSAB(S2,D3))
S3=fTA(CS2,T2)
最后将深度特征D3,纹理特征T2和光谱特征S3连接得到最终的重建结果ISR,表示为:
ISR=concat(D3,T2,S3)
其中,concat表示连接操作。
通过采用3组数据集对该方法与目前五种主流方法(mst plus plus、hinet、hscnnplus、hrnet、awan)超分结果进行了对比,结果如表1-3所示,该方法在峰值信噪比(PSNR)、结构相似性(SSIM)、相对全局无量纲误差(ERGAS)、光谱角制图(SAM)、均方误差(MSE)等定量指标中明显优于其他方法。
表1在CAVE数据集的定量结果(粗体表示最优)
表2在Ntire2022数据集的定量结果(粗体表示最优)
表3在Chikusei数据集的定量结果(粗体表示最优)
综上所述,本申请首先考虑到高光谱图像重建中空间和纹理考虑不足的特点,提出了一种基于可学习的纹理特征提取模块。其次,考虑到注意力网络计算量较复杂,提出了一种基于光谱维度的交叉注意力机制,以实现高性能的光谱重建。第三,由于利用多种模块提取了丰富的光谱和空间特征,仅简单的融合方法在性能上存在一定的局限性,所以提出了深度特征增强模块和光谱纹理注意力模型,通过引入特征之间的深度交互来实现更为有效的特征融合。考虑到传统RGB图像和高光谱图像之间较大的光谱差距,本申请提出了一个多尺度、渐进的特征融合模块,依次执行图像特征融合,得到重构的高光谱图像。本发明将纹理特征与光谱特征深度相结合,并充分利用多尺度特征的优势,在多种光谱超分任务中实现了更好的重建精度,实现遥感图像光谱分辨率的增强,从而大幅度降低目标检测、分类、定量回归等精细分析应用的数据要求。在实验中也证明了其效果。
需要说明的,本实施例中与实施例1相同或相似的部分可相互参考,在本申请中不再赘述。
实施例3:
在实施例1、2的基础上,本申请实施例3提供了一种光谱与纹理注意力融合的深度光谱超分辨率系统,包括:
下采样模块,用于获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
光谱聚合模块,用于根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
提取模块,用于对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
融合模块,用于利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
重复模块,用于从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
具体的,本实施例所提供的系统为实施例1提供的方法对应的系统,因此,在本实施例中与实施例1相同或相似的部分,可相互参考,在本申请中不再赘述。
Claims (8)
1.一种光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,包括:
步骤1、获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
步骤2、根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
步骤3、对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
步骤4、利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
步骤5、从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
2.根据权利要求1所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤1中,所述通过改进的卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征,数学表达式为:
Di=fConvX(Conv(ILR))
其中,fConvX代表改进的卷积模块,Conv表示卷积操作,ILR表示输入的低分辨率影像,Di表示经过改进的卷积模块处理后得到的不同尺度的深度特征;Di包括表示经过四倍下采样的深度特征D1、表示经过二倍下采样的深度特征D2和表示尺度不变的深度特征D3。
3.根据权利要求2所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤2中,对深度特征D1首先利用光谱注意力块进行光谱聚合,数学表达式为:
S1=fSA(D1)
其中,fSA表示光谱注意力操作,S1即为提取的光谱特征。
4.根据权利要求3所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤3中,对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作,数学表达式为:
T1=fTE(S1,D2,ILR)
CS1=fSAB(S1,D2))
其中,fTE表示纹理提取模块,fSAB表示光谱注意力模块,T1为提取的纹理特征,CS1表示提取的光谱特征。
5.根据权利要求4所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤4中,将得到的纹理特征和光谱特征利用纹理注意力模块进行融合,得到充分融合纹理和光谱信息的特征S2,数学表达式为:
S2=fTA(CS1,T1)
其中,fTA表示纹理注意力模块。
6.根据权利要求5所述的光谱与纹理注意力融合的深度光谱超分辨率方法,其特征在于,步骤5中,对光谱特征S2执行与S1执行相同的操作,数学表达式为:
T2=fTE(S2,D3,ILR)
CS2=fSAB(S2,D3))
S3=fTA(CS2,T2)
最后将深度特征D3,纹理特征T2和光谱特征S3连接得到最终的重建结果ISR,表示为:
ISR=concat(D3,T2,S3)
其中,concat表示连接操作。
7.一种光谱与纹理注意力融合的深度光谱超分辨率系统,其特征在于,用于执行权利要求1至6任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法,包括:
下采样模块,用于获取RGB图像,通过多尺度卷积模块对所述RGB图像进行下采样获得3种尺度的深度特征;
光谱聚合模块,用于根据所述深度特征,利用光谱注意力结构进行光谱聚合,获取光谱聚合特征;
提取模块,用于对光谱聚合特征分别进行纹理提取和光谱交叉注意力操作;
融合模块,用于利用纹理注意力进行特征融合,得到充分融合纹理和光谱信息的特征;
重复模块,用于从低尺度到高尺度重复进行纹理与光谱特征提取和融合,最终得到空间和光谱增强的图像。
8.一种计算机存储介质,其特征在于,所述计算机存储介质内存储有计算机程序;所述计算机程序在计算机上运行时,使得计算机执行权利要求1至6任一所述的光谱与纹理注意力融合的深度光谱超分辨率方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311259050.7A CN117437123A (zh) | 2023-09-27 | 2023-09-27 | 一种光谱与纹理注意力融合的深度光谱超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311259050.7A CN117437123A (zh) | 2023-09-27 | 2023-09-27 | 一种光谱与纹理注意力融合的深度光谱超分辨率方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117437123A true CN117437123A (zh) | 2024-01-23 |
Family
ID=89550636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311259050.7A Pending CN117437123A (zh) | 2023-09-27 | 2023-09-27 | 一种光谱与纹理注意力融合的深度光谱超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117437123A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3364342A1 (en) * | 2017-02-17 | 2018-08-22 | Cogisen SRL | Method for image processing and video compression |
CN114254715A (zh) * | 2022-03-02 | 2022-03-29 | 自然资源部第一海洋研究所 | 一种gf-1 wfv卫星影像超分辨率方法、系统及应用 |
WO2022225803A1 (en) * | 2021-04-20 | 2022-10-27 | Microsoft Technology Licensing, Llc | Systems and methods for low compute high-resolution depth map generation using low-resolution cameras |
CN115272078A (zh) * | 2022-08-01 | 2022-11-01 | 西安交通大学 | 基于多尺度空-谱特征学习的高光谱图像超分辨率重建方法 |
CN115564692A (zh) * | 2022-09-07 | 2023-01-03 | 宁波大学 | 顾及幅宽差异下的全色-多光谱-高光谱一体化融合方法 |
CN116612010A (zh) * | 2023-06-16 | 2023-08-18 | 西安电子科技大学 | 基于光谱相关信息和空间高低频信息的超分辨率图像重建方法 |
CN116630209A (zh) * | 2023-03-01 | 2023-08-22 | 合肥工业大学 | 基于交叉混合注意力的sar与可见光图像融合方法 |
-
2023
- 2023-09-27 CN CN202311259050.7A patent/CN117437123A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3364342A1 (en) * | 2017-02-17 | 2018-08-22 | Cogisen SRL | Method for image processing and video compression |
WO2022225803A1 (en) * | 2021-04-20 | 2022-10-27 | Microsoft Technology Licensing, Llc | Systems and methods for low compute high-resolution depth map generation using low-resolution cameras |
CN114254715A (zh) * | 2022-03-02 | 2022-03-29 | 自然资源部第一海洋研究所 | 一种gf-1 wfv卫星影像超分辨率方法、系统及应用 |
CN115272078A (zh) * | 2022-08-01 | 2022-11-01 | 西安交通大学 | 基于多尺度空-谱特征学习的高光谱图像超分辨率重建方法 |
CN115564692A (zh) * | 2022-09-07 | 2023-01-03 | 宁波大学 | 顾及幅宽差异下的全色-多光谱-高光谱一体化融合方法 |
CN116630209A (zh) * | 2023-03-01 | 2023-08-22 | 合肥工业大学 | 基于交叉混合注意力的sar与可见光图像融合方法 |
CN116612010A (zh) * | 2023-06-16 | 2023-08-18 | 西安电子科技大学 | 基于光谱相关信息和空间高低频信息的超分辨率图像重建方法 |
Non-Patent Citations (4)
Title |
---|
SUN W 等: "A progressive feature enhancement deep network for large-scale remote sensing image super-resolution", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》, 30 April 2023 (2023-04-30), pages 1 - 8 * |
YANG X 等: "Super-resolution reconstruction of terahertz images based on a deep-learning network with a residual channel attention mechanism", 《 APPLIED OPTICS》, 31 December 2022 (2022-12-31), pages 3363 - 3370 * |
孙伟伟 等: "融合高分辨率遥感影像和POI数据的多特征潜在语义信息用于识别城市功能区", 《遥感技术与应用》, 31 March 2021 (2021-03-31), pages 618 - 626 * |
张兵 等: "高/多光谱遥感图像超分辨率融合研究进展与展望", 《测绘学报》, 31 July 2023 (2023-07-31), pages 1074 - 1089 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | Scale-wise convolution for image restoration | |
Cai et al. | FCSR-GAN: Joint face completion and super-resolution via multi-task learning | |
CN106920214B (zh) | 空间目标图像超分辨率重建方法 | |
Li et al. | Deep learning methods in real-time image super-resolution: a survey | |
CN111127374A (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
US20230252605A1 (en) | Method and system for a high-frequency attention network for efficient single image super-resolution | |
Liu et al. | Dual learning-based graph neural network for remote sensing image super-resolution | |
KR102556028B1 (ko) | 딥러닝에 기반한 원격 감지를 위한 실시간 이미지 융합 장치 및 방법 | |
Yang et al. | MRDN: A lightweight multi-stage residual distillation network for image super-resolution | |
Deng et al. | Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution | |
Zeng et al. | Self-attention learning network for face super-resolution | |
Wang et al. | Multi-scale fast fourier transform based attention network for remote-sensing image super-resolution | |
CN114359041A (zh) | 一种光场图像空间超分辨率重建方法 | |
CN116188272B (zh) | 适用于多模糊核的两阶段深度网络图像超分辨率重建方法 | |
Bai et al. | Survey of learning based single image super-resolution reconstruction technology | |
Li et al. | Rethinking Multi-Contrast MRI Super-Resolution: Rectangle-Window Cross-Attention Transformer and Arbitrary-Scale Upsampling | |
CN111899166A (zh) | 一种基于深度学习的医学高光谱显微图像超分辨重构方法 | |
Liu et al. | Gradient prior dilated convolution network for remote sensing image super resolution | |
Chudasama et al. | Computationally efficient progressive approach for single-image super-resolution using generative adversarial network | |
Zhuge et al. | Single image denoising with a feature-enhanced network | |
CN117437123A (zh) | 一种光谱与纹理注意力融合的深度光谱超分辨率方法 | |
Liang et al. | DASR: Dual-Attention Transformer for infrared image super-resolution | |
Liu et al. | A convolutional neural network for image super-resolution using internal dataset | |
CN114022521A (zh) | 一种非刚性多模医学图像的配准方法及系统 | |
Gao et al. | Single image super-resolution based on multi-scale dense attention network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |