CN115272766A - 一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 - Google Patents
一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 Download PDFInfo
- Publication number
- CN115272766A CN115272766A CN202210913601.6A CN202210913601A CN115272766A CN 115272766 A CN115272766 A CN 115272766A CN 202210913601 A CN202210913601 A CN 202210913601A CN 115272766 A CN115272766 A CN 115272766A
- Authority
- CN
- China
- Prior art keywords
- encoder
- transformer
- fourier operator
- network
- hybrid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法,将高光谱图像数据集划分训练集和测试集;建立混合傅立叶算子Transformer网络;使用训练集训练得到训练好的分类模型,并用测试集测试其分类性能;利用满足分类性能的分类模型即可对高光谱图像进行分类。本发明傅立叶算子Transformer网络包含分组光谱嵌入模块、混合傅立叶算子Transformer编码器网络、跨层特征融合模块;能够从高光谱图像的相邻波段学习空间光谱序列信息,降低网络的计算复杂度,并减少在逐层传播过程中丢失有价值信息的可能性,实验结果显示本发明优于卷积神经网络的检测性能与计算效率,满足高光谱图像精细分类的需求。
Description
技术领域
本发明属于高光谱遥感图像技术领域,特别涉及一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法。
背景技术
高光谱图像的特征在于近似连续的光谱信息,通过捕获细微的光谱差异来实现对材料的精细识别。由于其出色的局部上下文建模能力,卷积神经网络(CNN)已被证明是图像分类中强大的特征提取器。然而,CNN由于其固有的网络主干的限制,未能很好地挖掘和表示光谱特征的序列属性。此外,常用的CNN预处理中需要加入降维方法,而线性降维方法会损失部分光谱信息。为了解决这些问题,现有研究者从序列的角度重新考虑高光谱图像分类,并将一种前沿的骨干网络Transformer引入高光谱分类。但是Transformer中的自注意力计算存在二次方复杂度的问题,处理分辨率较高或光谱通道较多的高光谱图像时计算效率低下,Transformer在高光谱图像分类中的性能有待提升。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法,用以解决现有技术中深度学习方法处理高分辨率高光谱图像计算效率低,分类精度低的问题。
为了实现上述目的,本发明采用的技术方案是:
一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法,包括以下步骤:
步骤1),获取高光谱图像数据集并划分训练集和测试集;
步骤2),建立混合傅立叶算子Transformer网络;
所述混合傅立叶算子Transformer网络包括分组光谱嵌入模块、混合傅立叶算子Transformer编码器网络和跨层特征融合模块;所述分组光谱嵌入模块将待分类的高光谱图像按照设定数量的相邻光谱波段进行重叠分组,并进行特征嵌入,生成光谱特征序列;所述混合傅立叶算子Transformer编码器网络以所述光谱特征序列为输入,其一共包括四层,依次为编码器一、编码器二、编码器三和编码器四,其中编码器一和编码器二为标准Transformer编码器,编码器三和编码器四为傅立叶算子Transformer编码器;所述跨层特征融合模块,将编码器一的输出与编码器三的输出融合,作为编码器四的输入,将编码器二的输出与编码器四的输出融合,并经过一个全连接层,作为所述混合傅立叶算子Transformer网络的输出;
步骤3),使用训练集训练所述混合傅立叶算子Transformer网络,得到训练好的权重模型,并用测试集测试其分类性能;
步骤4),利用满足分类性能的权重模型对高光谱图像进行分类。
与现有技术相比,本发明的有益效果是:本发明在进行高光谱图像分类时,所使用的混合傅立叶算子Transformer网络包括分组光谱嵌入模块、混合傅立叶算子Transformer编码器网络、跨层特征融合模块三部分;分组光谱嵌入模块和跨层特征融合模块,它们分别增强模型挖掘光谱相邻信息和更有效地跨层传达记忆信息的能力;线性计算复杂度的傅立叶算子Transformer编码器提高了对高分辨率高光谱图像的计算效率;本发明提出的分类模型无需对光谱进行降维,更加灵活高效,分类结果更为精确。
附图说明
图1为基于混合傅立叶Transformer网络的高光谱分类方法总体框架。
图2为本发明所使用的标准Transformer编码器结构
图3为本发明傅立叶算子Transformer编码器结构。
图4为本发明的跨层特征融合模块对编码器一的输出与编码器三的输出融合的示意图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
本发明基于自注意力机制和傅立叶算子设计了一种更能有效挖掘精细光谱信息的高光谱图像分类方法。其整体思路为:将包含空间光谱信息的高光谱图像通过分组光谱嵌入模块序列化,然后输入混合傅立叶算子Transformer编码器网络,该网络一共四层,前两层为标准Transformer编码器,后两层为傅立叶算子Transformer编码器,网络层之间通过跨层融合模块提升信息融合利用能力。
如图1所示,本发明包括以下步骤:
步骤1),获取高光谱图像数据集并划分训练集和测试集,数据集带有标注结果。
步骤2),建立混合傅立叶算子Transformer网络。
步骤3),使用训练集训练混合傅立叶算子Transformer网络,得到训练好的权重模型,并用测试集测试其分类性能。
步骤4),利用满足分类性能的权重模型对高光谱图像进行分类。
本发明混合傅立叶算子Transformer网络包括分组光谱嵌入模块、混合傅立叶算子Transformer编码器网络和跨层特征融合模块。
分组光谱嵌入模块将待分类的高光谱图像按照设定数量的相邻光谱波段进行重叠分组,并进行特征嵌入,生成光谱特征序列,基于该模块,能够从高光谱图像的相邻波段学习空间光谱序列信息。
混合傅立叶算子Transformer编码器网络以该光谱特征序列为输入,其一共包括四层,依次为编码器一、编码器二、编码器三和编码器四,其中编码器一和编码器二为标准Transformer编码器,编码器三和编码器四为傅立叶算子Transformer编码器。基于该网络,能够降低网络的计算复杂度。
跨层特征融合模块将编码器一的输出与编码器三的输出融合,作为编码器四的输入,将编码器二的输出与编码器四的输出融合,并经过一个全连接层,作为混合傅立叶算子Transformer网络的输出。基于该模块,能够减少在逐层传播过程中丢失有价值信息的可能性。
具体地,通过分组光谱嵌入模块,可将高光谱图像按相邻波段进行重叠分组,再转化为特征向量,最终得到光谱特征序列。普通高光谱图像transformer的序列化是将单个波段序列化作为一个token输入,而本发明重叠分组操作则是将若干波段整合为token输入。
本发明中,分组光谱嵌入模块从相邻波段中学习特征嵌入,其特征嵌入矩阵A表示如下:
A=WX=Wg(x)
x为待分类的高光谱图像的像素,x=[x1,x2,...,xm]∈R1×m,xm表示第m个波段的像素,m为波段数量,像素为确定(x,y)空间点上所有的波段的强度值,维度为1*m,A的维度为d*m;函数g(·)表示重叠分组操作;X∈Rn×m对应于x的分组表示,n表示最近邻的波段数量,W为变量,其为一个矩阵,可以简单地看成是混合傅立叶算子Transformer网络的输入层的一层,可以通过更新混合傅立叶算子Transformer网络来优化,W将x经过重叠分组操作,更新为一个特征嵌入矩阵A;
本发明中,相邻光谱波段的设定数量为大于1的奇数,示例地,可取3。将重叠分组之后得到的特征向量加入位置编码,编码与特征向量合成token组合,即生成光谱特征序列y,y=[y1,y2,...,ym],y的长度为m,y1,y2,...,ym表示高光谱图像每一个波段的序列化特征向量。
通过分组光谱嵌入模块,将设定数量的相邻光谱波段的高光谱图像展平为空间光谱特征向量,很大程度上保留网络学习中的光谱序列信息,同时考虑空间上下文信息,以输入混合傅立叶算子Transformer编码器网络。
下面着重对本发明方法中的标准Transformer编码器和傅立叶算子Transformer编码器进行介绍。
如图2所示,标准Transformer编码器结构包含两个主要模块,一个多头注意力模块和一个全连接层(MLP),标准Transformer编码器的核心是多头注意力机制,其中可设置LayerNorm和Dropout层,帮助网络更好地收敛,防止网络过拟合。其中,全连接层的输入为多头注意力模块的输出。
多头注意力模块具体计算步骤如下:
(1)输入光谱特征序列y。
(2)对y中的每个元素yi,通过变量W获得特征嵌入,表示为ai,所有的ai组合即特征嵌入矩阵A。
(3)每个特征嵌入ai分别乘以三个不同的变换矩阵Wq、Wk和Wv,得到Q向量、K向量和K向量,即Q=[q1,...,qm]、K=[k1,...,km]和V=[v1,...,vm]。
(6)生成注意力表示z=[z1,...,zm],例如,z=∑isivi。
其中自注意力计算方式可以整体表述为:
如图3所示,傅立叶算子Transformer编码器结构包含两个主要模块,傅立叶算子和一个全连接层(MLP),傅立叶算子Transformer编码器的核心是离散傅立叶算子。其中可设置与标准Transformer编码器一致的LayerNorm和Dropout层,其中,全连接层的输入是傅立叶算子的输出。
傅立叶算子的表示如下:
式中,rn表示傅立叶算子Transformer编码器的输入,{rn}表示光谱特征序列,n∈[0,N-1],n表示光谱波段数量,、k表示傅立叶变换后的频域采样间隔,对于每个k,离散傅立叶变换生成一个新的表示Rk,Rk是所有输入rn的总和;由于频域的乘法等于时域的卷积,傅立叶算子可以视为一个线性计算复杂度的大核卷积,它是一个没有偏置和激活函数的单层网络,而且有着特定的形式权重。
本发明的跨层特征融合模块通过残差连接实现融合。具体地,将分别来自标准Transformer编码器和傅立叶算子Transformer编码器的输出在通道维上进行融合,并使用1×2的卷积核进行特征提取,参考图4,以第一部分融合,即编码器一的输出与编码器三的输出融合为例,融合公式如下:
相应地,第二部分融合,即编码器二的输出与编码器四的输出融合为例,融合公式如下:
本发明中,步骤1)、2)、3)是为了训练网络模型,并非每次对高光谱图像进行分类都需要重复步骤1)、2)、3),在得到已训练好的模型后,仅需执行步骤4)即可。
本发明中,无需将高光谱图像进行降维处理,将原始图像的所有波段均作为网络输入。
在本发明的一个具体实施例中,假定目标高光谱影像数据为常用的Houston2013,其空间维度为349×1905,具有144个波段,光谱范围为364-1046nm。共包括15类分类地物和15029个带有标记的待分类像元。
其分类方法,从数据集每个类别随机选取190个左右作为训练样本,剩下的作为测试样本,对混合傅立叶算子Transformer网络进行训练。训练过程如下,训练样本是描述高光谱图像特征的数据立方体,将其按批次输入分类网络,网络将提取数据特征并进行输出,将网络输出与真值标签差异计算损失函数,并通过反向传播算法更新网络参数并最小化损失函数,使网络的输出接近真值标签。具体包括Transformer编码器中的注意力矩阵参数和全连接层参数。整个网络迭代600次,一次迭代即遍历完整的数据集一遍,得到训练好的分类模型。测试过程如下,训练完成后参数固定,将测试样本输入网络得到预测值,将预测值与已知测试样本类别标记进行对比,计算分类精度,根据分类精度对分类模型进行评价。
使用时,将无标记的待分类的高光谱图像输入分类模型,输出分类结果。
下面通过仿真试验对本发明的有效性进行验证说明。仿真试验硬件设备如下,处理器Intel Xeon Gold 6226R CPU,内存64-GB RAM,NVIDIA RTX 2080Ti 11-GB GPU。
从数据集每个类别随机选取190个左右作为训练样本,剩下的作为测试样本,对混合傅立叶算子Transformer高光谱图像分类网络进行训练。表1给出Houston 2013高光谱数据集不同分类方法的分类精度。其中1D-CNN代表一维卷积神经网络,RNN代表循环神经网络,MSPN代表多尺度三维二维混合卷积神经网络,SpectralFormer代表普通Transformer网络。OA、Kappa和AA分别代表分类方法的总体准确率,一致性系数和平均准确率。从表1、表2中可知,本发明提出方法与现有高光谱图像分类方法相比,精度提升更高且计算速度更快。
表1
分类方法 | 1D-CNN | RNN | MSPN | SpectralFormer | 本发明 |
OA/% | 78.99 | 82.26 | 84.43 | 86.03 | 87.17 |
Kappa/% | 77.17 | 80.74 | 83.11 | 84.84 | 86.08 |
AA/% | 81.50 | 83.81 | 86.41 | 87.51 | 88.53 |
表2
训练时间/s | 测试时间/s | |
MSPN | 4443.4 | 1667.3 |
SpectralFormer | 971.3 | 55.2 |
本发明 | 753.1 | 48.6 |
综上,本发明从光谱的角度出发,针对CNN仅擅长提取局部信息,不善于挖掘光谱的序列信息的固有局限,设计了基于Transformer的混合傅立叶编码网络。网络主干混合使用了标准Transformer编码器和降低计算复杂度的傅立叶算子Transformer编码器,此外还包括能整合光谱近邻波段信息的分组光谱嵌入模块,传递与融合信息的跨层特征融合模块。所提出的分类方法突破了CNN的局限,在不使用降维方法的情况下展现了超越CNN、RNN等模型的优越性能与计算速度。
Claims (9)
1.一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,包括以下步骤:
步骤1),获取高光谱图像数据集并划分训练集和测试集;
步骤2),建立混合傅立叶算子Transformer网络;
所述混合傅立叶算子Transformer网络包括分组光谱嵌入模块、混合傅立叶算子Transformer编码器网络和跨层特征融合模块;所述分组光谱嵌入模块将待分类的高光谱图像按照设定数量的相邻光谱波段进行重叠分组,并进行特征嵌入,生成光谱特征序列;所述混合傅立叶算子Transformer编码器网络以所述光谱特征序列为输入,其一共包括四层,依次为编码器一、编码器二、编码器三和编码器四,其中编码器一和编码器二为标准Transformer编码器,编码器三和编码器四为傅立叶算子Transformer编码器;所述跨层特征融合模块,将编码器一的输出与编码器三的输出融合,作为编码器四的输入,将编码器二的输出与编码器四的输出融合,并经过一个全连接层,作为所述混合傅立叶算子Transformer网络的输出;
步骤3),使用训练集训练所述混合傅立叶算子Transformer网络,得到训练好的分类模型,并用测试集测试其分类性能;
步骤4),利用满足分类性能的分类模型对高光谱图像进行分类。
2.根据权利要求1所述基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,所述分组光谱嵌入模块的特征嵌入矩阵A表示如下:
A=WX=Wg(x)
x为待分类的高光谱图像的像素,x=[x1,x2,...,xm]∈R1×m,xm表示第m个波段的像素,m为波段数量;函数g(·)表示重叠分组操作;X∈Rn×m对应于x的分组表示,n表示最近邻的波段数量,W为变量。
3.根据权利要求1或2所述基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,所述设定数量为大于1的奇数,将重叠分组之后得到的特征向量加入位置编码,编码与特征向量合成token组合,生成光谱特征序列y,y=[y1,y2,...,ym],y的长度为m,y1,y2,...,ym表示高光谱图像每一个波段的序列化特征向量。
4.根据权利要求1所述基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,所述标准Transformer编码器的核心是多头注意力机制,傅立叶算子Transformer编码器的核心是离散傅立叶算子。
5.根据权利要求1或4所述基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,所述标准Transformer编码器包含一个多头注意力模块和一个全连接层,全连接层的输入为所述多头注意力模块的输出。
7.根据权利要求1所述基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,所述跨层特征融合模块中,通过残差连接实现融合。
8.根据权利要求7所述基于混合傅立叶算子Transformer网络的高光谱图像分类方法,其特征在于,所述跨层特征融合模块中,在通道维上对输出进行融合,并使用1×2的卷积核进行特征提取。
9.根据权利要求1所述的混合傅立叶算子Transformer网络,其特征在于,无需将高光谱图像进行降维处理,将原始图像的所有波段作为网络输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210913601.6A CN115272766A (zh) | 2022-08-01 | 2022-08-01 | 一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210913601.6A CN115272766A (zh) | 2022-08-01 | 2022-08-01 | 一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272766A true CN115272766A (zh) | 2022-11-01 |
Family
ID=83746716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210913601.6A Pending CN115272766A (zh) | 2022-08-01 | 2022-08-01 | 一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272766A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116597204A (zh) * | 2023-05-12 | 2023-08-15 | 内蒙古农业大学 | 基于Transformer网络的草地多时相高光谱分类方法 |
-
2022
- 2022-08-01 CN CN202210913601.6A patent/CN115272766A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116597204A (zh) * | 2023-05-12 | 2023-08-15 | 内蒙古农业大学 | 基于Transformer网络的草地多时相高光谱分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287800B (zh) | 一种基于sgse-gan的遥感图像场景分类方法 | |
Ghaderizadeh et al. | Hyperspectral image classification using a hybrid 3D-2D convolutional neural networks | |
He et al. | Optimized input for CNN-based hyperspectral image classification using spatial transformer network | |
Audebert et al. | Generative adversarial networks for realistic synthesis of hyperspectral samples | |
CN107145836B (zh) | 基于栈式边界辨别自编码器的高光谱图像分类方法 | |
CN112200090B (zh) | 基于交叉分组空谱特征增强网络的高光谱图像分类方法 | |
CN112749752B (zh) | 一种基于深度Transformer的高光谱影像分类方法 | |
CN111274869A (zh) | 基于并行注意力机制残差网进行高光谱图像分类的方法 | |
CN112308152B (zh) | 基于光谱分割与同质区域检测的高光谱图像地物分类方法 | |
CN113705580B (zh) | 基于深度迁移学习的高光谱图像分类方法 | |
CN114821164A (zh) | 基于孪生网络的高光谱图像分类方法 | |
CN113705641B (zh) | 基于富上下文网络的高光谱图像分类方法 | |
CN111626267B (zh) | 一种利用空洞卷积的高光谱遥感图像分类方法 | |
CN115331063A (zh) | 基于动态超图卷积网络的高光谱图像分类方法及系统 | |
WO2021062050A1 (en) | Icospherical gauge convolutional neural network | |
Dong et al. | Joint contextual representation model-informed interpretable network with dictionary aligning for hyperspectral and LiDAR classification | |
CN114937173A (zh) | 一种基于动态图卷积网络的高光谱图像快速分类方法 | |
Rajendran et al. | Hyperspectral image classification model using squeeze and excitation network with deep learning | |
CN115272766A (zh) | 一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 | |
CN111639697A (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
CN116977747B (zh) | 基于多路多尺度特征孪生网络的小样本高光谱分类方法 | |
CN116258914B (zh) | 基于机器学习及局部和全局特征融合的遥感图像分类方法 | |
CN116342961A (zh) | 基于混合量子神经网络的时间序列分类深度学习系统 | |
CN114998725A (zh) | 基于自适应空谱注意力核生成网络的高光谱图像分类方法 | |
Song et al. | Hyperspectral image classification using hierarchical spatial-spectral transformer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |