CN112990230A - 基于二阶段分组注意力残差机制的光谱图像压缩重建方法 - Google Patents
基于二阶段分组注意力残差机制的光谱图像压缩重建方法 Download PDFInfo
- Publication number
- CN112990230A CN112990230A CN202110270457.4A CN202110270457A CN112990230A CN 112990230 A CN112990230 A CN 112990230A CN 202110270457 A CN202110270457 A CN 202110270457A CN 112990230 A CN112990230 A CN 112990230A
- Authority
- CN
- China
- Prior art keywords
- shape
- convolution
- feature
- spectral
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于二阶段分组注意力残差机制的光谱图像压缩重建方法,利用第一阶段网络对观测到的图像与对应波段的图像联合生成初始估计结果,并对初始估计结果进行特征提取,对于提取到的特征使用分组注意力网络对特征数据进行分组计算,有效降低了模型的待学习参数量,在一定算力下有降低了数据重建时间;然后将优化的分组结果融合并使用第二阶段网络优化特征光谱分布结构,针对光谱一致性与上下文特征一致性设计了基于残差通道注意力机制的光谱优化网络,针对光谱维度的信息分布进行了全局优化,最终融合特征,获取高质量的重构光谱数据立方体。
Description
技术领域
本发明属于计算光谱图像重构领域,具体涉及一种基于二阶段分组注意力残差机制的光谱图像压缩重建方法。
背景技术
高光谱成像相对于全光谱成像具有光谱分辨率高、获取信息量多、目标结构区分度高等特点,其将成像技术与光谱探测技术相结合,可有效获取目标的二维空间信息以及对应空间位置的一位光谱信息,获取高光谱分辨率的连续、窄波段的图像数据,在医疗、航天、目标探测、物质成分分析、安防等领域有广泛的应用,由于高光谱图像数据量大,光谱三维立方体通道较多,完整的数据获取需要较大的带宽以及时间代价,传统的基于时域采样的方式难以实现高速实时成像,对高速目标适用较差。
压缩光谱重建是指将多个光谱图像切片映射到单个观测中的压缩光谱成像系统,在多光谱成像主要通过编码孔径快照光谱成像系统(Coded Aperture Snapshot SpectralImaging System)实现,其通过编码孔径和两个色散器件调制不同波长的图像,并进行单次采集。通过这中方式,可以有效减少探测器进行采样的次数,由于高光谱数据立方体数据信息熵低、冗余度高,通过光谱压缩编码可对光谱数据中的冗余信息在一定程度上压缩到空间维度,降低采样数据的冗余度,并通过后期计算重建得到原始光谱数据立方体。
从压缩降采样的光谱信息中重建得到原始光谱数据立方体的过程是一个图像退化的逆过程,传统基于稀疏表示的重建方法严格依赖标准采样模型的迭代优化,需要进行大量的重复大规模矩阵运算,对重建计算设备的时间以及空间运算性能都提出了较高的要求,难以以较合理的成本投入应用。基于深度学习的重建方法可直接在从原始观测到目标重建数据的优化训练中学习两者之间的复杂非线性映射,避免了大量的递归矩阵运算,极大程度地降低了计算处理设备的软硬件部署成本,将对压缩光谱成像技术带来极大的突破,推进其在技术生产生活发展中的落地进程。
发明内容
有鉴于此,本发明的主要目的在于提供一种基于二阶段分组注意力残差机制的高光谱图像压缩性重建方法。
为达到上述目的,本发明的技术方案是这样实现的:
本发明实施例提供一种基于二阶段分组注意力残差机制的光谱图像压缩重建方法,该方法为:
通过色散棱镜对目标场景x进行色散,使其光谱信息在呈现出空间交错状态,利用编码矩阵M对色散的场景进行编码,并通过第二个色散棱镜反向色散,获得压缩压缩光谱观测量y;
所述3个降维卷积层分别经过单层形状为[256,1,1]的卷积核进行特征分组,获得3个形状为[128,H,W]的次级分组特征;
对所述3个形状为[128,H,W]的次级分组特征分别进行空间校正、融合,获得3个形状为[256,H,W]的中间特征;
所述形状为[256,H,W]的中间特征通过单层形状为[768,256,3,3]的卷积核进行卷积,获得形状为[256,H,W]的融合中间特征;
上述方案中,所述通过色散棱镜对目标场景x进行色散,使其光谱信息在呈现出空间交错状态,利用编码矩阵M对色散的场景进行编码,并通过第二个色散棱镜反向色散,获得压缩压缩光谱观测量y,具体为:可表示为如式(1)所示:
其中,C表示光谱数据立方体的总体谱段数,xi表示第i个谱段的光谱切片,Mi表示对第i个光谱切片进行调制的编码模板,N表示观测过程中引入的各类噪声。
上述方案中,所述压缩光谱观测量y与对应谱段的编码矩阵联合通过单层卷积进行特征提取得初始估计特征具体为:编码矩阵的形状为[C,H,W],压缩光谱观测量y的形状为[1,H,W],该过程可表示为如式(2)所示:
上述方案中,所述初始特征通过3个形状为[C,256,1,1]的卷积得到3个形状为[128,H,W]降维卷积层,具体为:所述初始特征通过3个形状为[C,256,1,1]的卷积得到3个形状为[128,H,W]降维卷积层,分别表示为 其中的计算如式(3)所示:
上述方案中,所述3个降维卷积层分别经过单层形状为[256,1,1]的卷积核进行特征分组,获得3个形状为[128,H,W]的次级分组特征,具体为:对于输入的特征图分别使用3层形状为[256,128,1,1]的卷积进行特征分组,得到3个形状为[128,H,W]的次级分组特征其计算方法如式(4)所示:
其中,[w1-1、w1-2、…、w3-3]为作用于对应特征图的卷积权重。
上述方案中,所述对所述3个形状为[128,H,W]的次级分组特征分别进行空间校正、融合,获得3个形状为[256,H,W]的中间特征,具体为:对于次级分组特征分别经过相同的网络结构进行处理,将通过空间注意力模块(Spatial Attention Block,SAB)Block-l1得到空间校正输出s′1,然后使用残差连接的方式融合输入的特征得到并以串联的连接方式复用相同的结构模块Block-l2、Block-l3分别得到输出s2=s1+s′2、s3=s2+s′3,最后再次使用残差连接的方式融合输入的特征得到该分组的输出该过程可表示为如式(5)所示:
上述方案中,所述形状为[256,H,W]的中间特征通过单层形状为[768,256,3,3]的卷积核进行卷积,获得形状为[256,H,W]的融合中间特征,具体为:对分别重复以上的计算过程,分别得到3组特征输出 然后使用单层形状为[768,256,3,3]的卷积对进行特征融合,得到形状为[256,H,W]的二级输入特征用以在网络的第二阶段进行光谱图像优化、校正与去噪,该过程可表示为如式(11)所示:
上述方案中,所述将所述形状为[256,H,W]的融合中间特征通过单层形状为[256,C,3,3]的卷积核得到最终优化重建结果,具体为:对二级输入特征进行单层卷积得到形状与一致的特征层并使用三个串联的残差通道注意力模块(Residual Channel Attention Block,RCAB)依次进行光谱特征提取。
上述方案中,首先使用空间全局平均池化得到通道原始特征向量然后使用三层感知机FC对原始特征向量进行非线性映射,得到通道注意力校正向量vfix,最后使用向量vfix对输入特征层k1进行加权校正,得到校正后的特征层该过程可表示为如式(11)所示:
对于二级输入特征按顺序通过3个RCAB模块得到最终优化特征层kf,并使用残差连接融合二级输入特征得到深层特征最后使用一层形状为[512,C,3,3]的卷积层,得到最终的优化重建结果该过程可表示为如式(12)所示:
与现有技术相比,本发明首先利用第一阶段网络对观测到的图像与对应波段的图像联合生成初始估计结果,并对初始估计结果进行特征提取,对于提取到的特征使用分组注意力网络对特征数据进行分组计算,有效降低了模型的待学习参数量,在一定算力下有降低了数据重建时间;然后将优化的分组结果融合并使用第二阶段网络优化特征光谱分布结构,针对光谱一致性与上下文特征一致性设计了基于残差通道注意力机制的光谱优化网络,针对光谱维度的信息分布进行了全局优化,最终融合特征,获取高质量的重构光谱数据立方体。
附图说明
图1为本发明基于基于二阶段分组注意力残差机制的高光谱图像压缩性重建网络模型图;
图2为本发明空间残差注意力模块网络模型图;
图3为本发明空间注意力模块网络模型图;
图4为本发明通道残差注意力优化模块网络模型图;
图5为目标的400μm、420μm、430μm、440μm光谱谱段原图;
图6为目标的400μm、420μm、430μm、440μm光谱谱段算法重建图;
图7为目标的450μm、470μm、480μm、490μm光谱谱段原图;
图8为目标的450μm、470μm、480μm、490μm光谱谱段算法重建图;
图9为目标的510μm、520μm、530μm、550μm光谱谱段原图;
图10为目标的510μm、520μm、530μm、550μm光谱谱段算法重建图;
图11为目标的560μm、570μm、580μm、600μm光谱谱段原图;
图12为目标的560μm、570μm、580μm、600μm光谱谱段算法重建图;
图13为目标的610μm、620μm、640μm、650μm光谱谱段原图;
图14为目标的610μm、620μm、640μm、650μm光谱谱段算法重建图;
图15为目标的660μm、670μm、690μm、700μm光谱谱段原图;
图16为目标的660μm、670μm、690μm、700μm光谱谱段算法重建图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种基于二阶段分组注意力残差机制的光谱图像压缩重建方法,如图1-4所示,该方法通过以下步骤实现:
步骤1:通过色散棱镜对目标场景x进行色散,使其光谱信息在呈现出空间交错状态,利用编码矩阵M对色散的场景进行编码,并通过第二个色散棱镜反向色散,获得压缩压缩光谱观测量y。
具体地,该过程可表示为如式(1)所示:
其中,C表示光谱数据立方体的总体谱段数,xi表示第i个谱段的光谱切片,Mi表示对第i个光谱切片进行调制的编码模板,N表示观测过程中引入的各类噪声。
具体地,该过程可表示为如式(2)所示:
步骤4:将分别送入空间残差注意力模块(Residual SpatialAttention Block,RSAB),并分别经过单层形状为[256,1,1]的卷积核得到3个形状为[256,H,W]的中间特征。
其中,[w1-1、w1-2、…、w3-3]为作用于对应特征图的卷积权重。
将通过空间注意力模块(Spatial Attention Block,SAB)Block-l1得到空间校正输出s′1,然后使用残差连接的方式融合输入的特征得到并以串联的连接方式复用相同的结构模块Block-l2、Block-l3分别得到输出s2=s1+s′2、s3=s2+s′3,最后再次使用残差连接的方式融合输入的特征得到该分组的输出该过程可表示为如式(5)所示:
对于SAB模块的结构作如下说明。对于输入的形状为[C,H,W]的特征图F,使用3个形状为[C,C/2,1,1]的卷积核对其进行卷积,得到3个形状为[C/2,H×W]的特征图随后对特征图元素重排得到形状为[C,H,W]的二维特征矩阵m1、m2、m3,该过程如式(7)所示:
对m2特征矩阵进行转置变换,并与m1特征矩阵进行矩阵相乘得到相关性矩阵其形状为[H×W,H×W],然后使用Softmax激活函数对特征图进行激活,将mrel映射为m′rel,如式(8)所示,式中(i,j)表示m′rel的第(i,j)位置的信号数值;
对m3矩阵进行转置变换,并与m′rel进行矩阵相乘得到空间注意力校正矩阵:
使用形状为[C/2,C,1,1]的卷积核空间注意力校正矩阵进行升维,并将升维后的矩阵与原始输入特征图进行对应空间位置的点乘运算得到校正后的特征图:
Ffix=FgRelu(Conv1×1(mattention-fix)) (10)
具体地,对分别重复以上的计算过程,分别得到3组特征输出然后使用单层形状为[768,256,3,3]的卷积对进行特征融合,得到形状为[256,H,W]的二级输入特征用以在网络的第二阶段进行光谱图像优化、校正与去噪。该过程可表示为如式(11)所示:
步骤6:将所述融合中间特征通过通道残差注意力优化模块(Residual ChannelAttention Refine Block,RCARB),并通过单层形状为[256,C,3,3]的卷积核得到最终输出
具体地,残差注意力优化模块首先对二级输入特征进行单层卷积得到形状与一致的特征层并使用三个串联的残差通道注意力模块(Residual Channel Attention Block,RCAB)依次进行光谱特征提取;
对于以上所述残差通道注意力模块,以二级输入特征为例对进行结构说明,首先使用空间全局平均池化得到通道原始特征向量然后使用三层感知机FC对原始特征向量进行非线性映射,得到通道注意力校正向量vfix,最后使用向量vfix对输入特征层k1进行加权校正,得到校正后的特征层该过程可表示为如式(11)所示:
对于二级输入特征按顺序通过3个RCAB模块得到最终优化特征层kf,并使用残差连接融合二级输入特征得到深层特征最后使用一层形状为[512,C,3,3]的卷积层,得到最终的优化重建结果该过程可表示为如式(12)所示:
步骤7:所述最终输出与标准数据集中的数据进行对照,以L1函数为目标进行网络训练与参数拟合。
如图5~16所示,相邻两组图为同一谱段的原图与算法重建图。同一组算法重建图中,与原图相比较效果逊色些,但仔细观察能够发现各张图之间存在由于光谱能量不同而产生细微的变化。在组与组之间的算法重建图中,容易发现图像的亮度存在差异,反映各个谱段之间的能量变化。
本实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、物品或者装置中还存在另外的相同要素。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
Claims (9)
1.一种基于二阶段分组注意力残差机制的光谱图像压缩重建方法,其特征在于,该方法为:
通过色散棱镜对目标场景x进行色散,使其光谱信息在呈现出空间交错状态,利用编码矩阵M对色散的场景进行编码,并通过第二个色散棱镜反向色散,获得压缩压缩光谱观测量y;
所述3个降维卷积层分别经过单层形状为[256,1,1]的卷积核进行特征分组,获得3个形状为[128,H,W]的次级分组特征;
对所述3个形状为[128,H,W]的次级分组特征分别进行空间校正、融合,获得3个形状为[256,H,W]的中间特征;
所述形状为[256,H,W]的中间特征通过单层形状为[768,256,3,3]的卷积核进行卷积,获得形状为[256,H,W]的融合中间特征;
6.根据权利要求5所述的基于二阶段分组注意力残差机制的光谱图像压缩重建方法,其特征在于,所述对所述3个形状为[128,H,W]的次级分组特征分别进行空间校正、融合,获得3个形状为[256,H,W]的中间特征,具体为:对于次级分组特征分别经过相同的网络结构进行处理,将通过空间注意力模块(Spatial AttentionBlock,SAB)Block-l1得到空间校正输出s1′,然后使用残差连接的方式融合输入的特征得到并以串联的连接方式复用相同的结构模块Block-l2、Block-l3分别得到输出s2=s1+s′2、s3=s2+s′3,最后再次使用残差连接的方式融合输入的特征得到该分组的输出该过程可表示为如式(5)所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110270457.4A CN112990230B (zh) | 2021-03-12 | 2021-03-12 | 基于二阶段分组注意力残差机制的光谱图像压缩重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110270457.4A CN112990230B (zh) | 2021-03-12 | 2021-03-12 | 基于二阶段分组注意力残差机制的光谱图像压缩重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112990230A true CN112990230A (zh) | 2021-06-18 |
CN112990230B CN112990230B (zh) | 2023-05-09 |
Family
ID=76334635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110270457.4A Active CN112990230B (zh) | 2021-03-12 | 2021-03-12 | 基于二阶段分组注意力残差机制的光谱图像压缩重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112990230B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447891A (zh) * | 2019-01-09 | 2019-03-08 | 北京理工大学 | 一种基于卷积神经网络的光谱成像系统的高质量成像方法 |
US20200250528A1 (en) * | 2017-10-25 | 2020-08-06 | Deepmind Technologies Limited | Auto-regressive neural network systems with a soft attention mechanism using support data patches |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN112116065A (zh) * | 2020-08-14 | 2020-12-22 | 西安电子科技大学 | 一种rgb图像光谱重建方法、系统、存储介质及应用 |
CN112116064A (zh) * | 2020-08-11 | 2020-12-22 | 西安电子科技大学 | 光谱超分辨自适应加权注意力机制深层网络数据处理方法 |
CN112287978A (zh) * | 2020-10-07 | 2021-01-29 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
AU2020103715A4 (en) * | 2020-11-27 | 2021-02-11 | Beijing University Of Posts And Telecommunications | Method of monocular depth estimation based on joint self-attention mechanism |
-
2021
- 2021-03-12 CN CN202110270457.4A patent/CN112990230B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200250528A1 (en) * | 2017-10-25 | 2020-08-06 | Deepmind Technologies Limited | Auto-regressive neural network systems with a soft attention mechanism using support data patches |
CN109447891A (zh) * | 2019-01-09 | 2019-03-08 | 北京理工大学 | 一种基于卷积神经网络的光谱成像系统的高质量成像方法 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN112116064A (zh) * | 2020-08-11 | 2020-12-22 | 西安电子科技大学 | 光谱超分辨自适应加权注意力机制深层网络数据处理方法 |
CN112116065A (zh) * | 2020-08-14 | 2020-12-22 | 西安电子科技大学 | 一种rgb图像光谱重建方法、系统、存储介质及应用 |
CN112287978A (zh) * | 2020-10-07 | 2021-01-29 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
AU2020103715A4 (en) * | 2020-11-27 | 2021-02-11 | Beijing University Of Posts And Telecommunications | Method of monocular depth estimation based on joint self-attention mechanism |
Non-Patent Citations (3)
Title |
---|
JIANGPENG YAN ET AL.: "Neural Architecture Search for compressed sensing Magnetic Resonance", 《COMPUTERIZED MEDICAL IMAGING AND GRAPHICS》 * |
席志红 等: "基于双重注意力机制的图像超分辨重建算法", 《激光与光电子学进展》 * |
雷鹏程等: "分层特征融合注意力网络图像超分辨率重建", 《中国图象图形学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112990230B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Arad et al. | Ntire 2022 spectral recovery challenge and data set | |
CN110348487B (zh) | 一种基于深度学习的高光谱图像压缩方法及装置 | |
CN112750082A (zh) | 基于融合注意力机制的人脸超分辨率方法及系统 | |
CN109727207B (zh) | 基于光谱预测残差卷积神经网络的高光谱图像锐化方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
Setyaningsih et al. | Survey of hybrid image compression techniques | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN110288524B (zh) | 基于增强型上采样和辨别融合机制的深度学习超分辨率方法 | |
CN114581544A (zh) | 图像压缩方法、计算机设备及计算机存储介质 | |
CN112070670A (zh) | 全局-局部分离注意力机制的人脸超分辨率方法及系统 | |
CN114998167B (zh) | 一种基于空间-光谱联合低秩的高光谱与多光谱图像融合方法 | |
CN115700727A (zh) | 基于自注意力机制的光谱超分辨率重建方法及系统 | |
CN111754592A (zh) | 一种基于特征通道信息的端到端多光谱遥感图像压缩方法 | |
CN115661635A (zh) | 基于Transformer融合卷积神经网络的高光谱图像重建方法 | |
CN113902622A (zh) | 基于深度先验联合注意力的光谱超分辨率方法 | |
CN114862731A (zh) | 低秩先验与空谱信息引导的多-高光谱影像融合方法 | |
CN112906874A (zh) | 卷积神经网络特征图数据压缩方法及装置 | |
CN112990230A (zh) | 基于二阶段分组注意力残差机制的光谱图像压缩重建方法 | |
CN112149712A (zh) | 一种高效的高光谱遥感数据压缩与分类模型的构建方法 | |
CN111882512A (zh) | 基于深度学习的图像融合方法、装置、设备和存储介质 | |
Minkin | The application of autoencoders for hyperspectral data compression | |
Ayyoubzadeh et al. | Lossless compression of mosaic images with convolutional neural network prediction | |
CN111445543A (zh) | 一种将卷积神经网络编码成光谱透过率的方法 | |
Zhou et al. | BTC-Net: Efficient Bit-level Tensor Data Compression Network for Hyperspectral Image | |
CN103442236A (zh) | 一种多级和分维矢量量化的遥感信号压缩编码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |