CN114863173A - 一种面向土地资源审计的自互注意力高光谱图像分类方法 - Google Patents
一种面向土地资源审计的自互注意力高光谱图像分类方法 Download PDFInfo
- Publication number
- CN114863173A CN114863173A CN202210487088.9A CN202210487088A CN114863173A CN 114863173 A CN114863173 A CN 114863173A CN 202210487088 A CN202210487088 A CN 202210487088A CN 114863173 A CN114863173 A CN 114863173A
- Authority
- CN
- China
- Prior art keywords
- self
- spectral
- attention
- spatial
- spectrum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001228 spectrum Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000003595 spectral effect Effects 0.000 claims abstract description 82
- 239000013598 vector Substances 0.000 claims abstract description 33
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 230000002708 enhancing effect Effects 0.000 claims description 8
- 238000012512 characterization method Methods 0.000 claims description 6
- 230000000295 complement effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 101150064138 MAP1 gene Proteins 0.000 claims description 3
- 101150077939 mapA gene Proteins 0.000 claims description 3
- 241001591024 Samea Species 0.000 claims 1
- 238000012550 audit Methods 0.000 abstract description 10
- 230000003993 interaction Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 16
- 238000002474 experimental method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 1
- 235000011613 Pinus brutia Nutrition 0.000 description 1
- 241000018646 Pinus brutia Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/58—Extraction of image or video features relating to hyperspectral data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Remote Sensing (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向土地资源审计的自互注意力高光谱图像分类方法,首先构建自互注意力网络,针对高光谱图像中的每个像素点,利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再输出至自互注意力模块,接着利用自互注意力模块使用互注意力机制明确地建模光谱和空间域之间的相互关系;本发明实现了借助互注意力机制实现特征交互,以此突出光谱和空间域的相关性,并在每个域中使用自注意力学习长距离依赖关系,接着在空间和光谱域的两个分类结果上应用加权求和,得到联合分类结果,该自互注意力网络能够获得优于最新先进方法的分类性能,适合被广泛推广和使用。
Description
技术领域
本发明涉及图像分类技术领域,具体涉及一种面向土地资源审计的自互注意力高光谱图像分类方法。
背景技术
土地资源审计需要使用采集到的遥感图像(比如高光谱图像)以及相关部门业务数据,如国土部门的土地规划数据,对目标区域进行分析。其中,审计人员需要逐一核实土地利用等情况是否存在虚报林地建设、植树造林占用基本农田。
传统审计方法无法直接由采集到的高光谱图像数据得到准确的地物信息,需要进行费时费力的实地观测。随着人工智能,尤其是深度学习技术的兴起,可以自动地识别高光谱图像中的地物。但是,目前用于高光谱图像分类的深度学习方法大多以混合了光谱和空间信息的原始高光谱立方体作为输入。因此,它们无法明确地建模光谱和空间域之间的内在相关性(如互补关系),导致分类性能不足。为了缓解这个问题,需要设计一种面向土地资源审计的自互注意力高光谱图像分类方法。
发明内容
本发明的目的是克服现有技术的不足,为更好的有效解决传统审计方法无法直接由采集到的高光谱图像数据得到准确的地物信息,需要进行费时费力实地观测的问题,提供了一种面向土地资源审计的自互注意力高光谱图像分类方法,其具有分类效果较好的优点。
为了达到上述目的,本发明所采用的技术方案是:
一种面向土地资源审计的自互注意力高光谱图像分类方法,包括以下步骤,
步骤(A),构建自互注意力网络,用于对土地资源审计过程中的高光谱图像进行分类;
步骤(B),针对高光谱图像中的每个像素点,利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再输出至自互注意力模块;
步骤(C),利用自互注意力模块使用互注意力机制明确地建模光谱和空间域之间的相互关系,并同时使用自注意力捕获各个域内的长距离依赖关系,完成对光谱和空间特征的增强;
步骤(D),使用增强的光谱和空间特征分别得到对应的分类结果,并使用加权求和的方式融合二者,完成土地资源审计过程中高光谱图像的分类作业。
前述的一种面向土地资源审计的自互注意力高光谱图像分类方法,步骤(A),构建自互注意力网络,用于对土地资源审计过程中的高光谱图像进行分类,其中自互注意力网络包括光谱特征模块、空间特征模块和自互注意力模块;所述光谱特征模块的基础单元包括一维卷积层、一维批量归一化层、ReLU函数和一维最大值池化层,所述空间特征模块的基础单元是光谱特征模块基础单元的二维版本。
前述的一种面向土地资源审计的自互注意力高光谱图像分类方法,步骤(B),针对高光谱图像中的每个像素点,利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再输出至自互注意力模块,其具体步骤如下,
步骤(B1),设定一个在高光谱图像中位置为(i,j)的像素点x,再生成对应的光谱向量和局部图像块,其具体生成步骤如下;
步骤(B3),将光谱初始特征Fse和特征图Fsa一起输出至自互注意力模块。
前述的一种面向土地资源审计的自互注意力高光谱图像分类方法,步骤(C),利用自互注意力模块使用互注意力机制明确地建模光谱和空间域之间的相互关系,并同时使用自注意力捕获各个域内的长距离依赖关系,完成对光谱和空间特征的增强,其中自互注意力模块能对输入的光谱初始特征Fse和特征图Fsa进行处理并得到增强光谱特征Ese和增强空间特征Esa,具体步骤如下,
步骤(C1),设已经获得了通道数为256的光谱初始特征和通道数为256的空间图再通过使用非线性函数将它们分别映射成三个单独的表征,其中非线性函数由一层一维/二维卷积层、一层一维/二维批量归一化层、以及ReLU函数构成;光谱域的表征定义为维度为的Qse、Kse和Vse,而空间域能得到维度为的表征Qsa、Ksa和Vsa;
Ff=tanh(FC(GAP1d(Fse))⊙FC(GAP2d(Fsa))) (1)
其中,GAP1d和GAP2d分别表示一维和二维的全局平均池化操作,FC代表全连接层,“⊙”表示Hadamard乘积,tanh为双曲正切函数;
其中,Flatten操作将矩阵延展成向量;
前述的一种面向土地资源审计的自互注意力高光谱图像分类方法,步骤(D),使用增强的光谱和空间特征分别得到对应的分类结果,并使用加权求和的方式融合二者,完成土地资源审计过程中高光谱图像的分类作业,具体是增强光谱特征Ese和增强空间特征Esa分别用于生成对应的分类结果和其中C是高光谱图像中类别的个数,具体步骤如下,
前述的一种面向土地资源审计的自互注意力高光谱图像分类方法,所述自互注意力网络的输入为光谱向量Z和局部图像块X,输出为像素点x的类别标签。
本发明的有益效果是:本发明的一种面向土地资源审计的自互注意力高光谱图像分类方法,首先利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再通过自互注意力模块来增强这两种特征;具体而言,其是借助互注意力机制实现特征交互,以此突出光谱和空间域的相关性;与此同时,在每个域中使用自注意力学习长距离依赖关系;最后,在空间和光谱域的两个分类结果上应用加权求和,得到联合分类结果;该自互注意力网络能够获得优于最新先进方法的分类性能,具有方法科学合理、适用性强和效果佳等优点。
附图说明
图1是本发明的自互注意力网络的整体流程示意图;
图2是本发明的自互注意力模块结构示意图;
图3是本发明在IndianPines(第一行)和University of Houston(第二行) 数据集上的伪彩色图和真实分类结果图;
图4是本发明在IndianPines数据集上的分类结果图;
图5是本发明在UniversityofHouston数据集上的分类结果图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1-5所示,本发明的一种面向土地资源审计的自互注意力高光谱图像分类方法,包括以下步骤,
步骤(A),构建自互注意力网络,用于对土地资源审计过程中的高光谱图像进行分类,其中自互注意力网络包括光谱特征模块、空间特征模块和自互注意力模块;所述光谱特征模块的基础单元包括一维卷积层、一维批量归一化层、 ReLU函数和一维最大值池化层,所述空间特征模块的基础单元是光谱特征模块基础单元的二维版本;
其中,所述自互注意力网络的输入为光谱向量Z和局部图像块X,输出为像素点x的类别标签。
步骤(B),针对高光谱图像中的每个像素点,利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再输出至自互注意力模块,其具体步骤如下,
步骤(B1),设定一个在高光谱图像中位置为(i,j)的像素点x,再生成对应的光谱向量和局部图像块,其具体生成步骤如下;
其中,提取光谱初始特征之后,光谱向量Z的波段数量减少至原来的八分之一;与此同时,光谱向量Z的特征通道数量扩大至256;
步骤(B3),将光谱初始特征Fse和特征图Fsa一起输出至自互注意力模块。
步骤(C),利用自互注意力模块使用互注意力机制明确地建模光谱和空间域之间的相互关系,并同时使用自注意力捕获各个域内的长距离依赖关系,完成对光谱和空间特征的增强,其中自互注意力模块能对输入的光谱初始特征Fse和特征图Fsa进行处理并得到增强光谱特征Ese和增强空间特征Esa,具体步骤如下,
其中,自互注意力网络的核心部分是自互注意力模块,这个模块能够使用互注意力机制明确地建模光谱和空间域之间的相互关系,并同时使用自注意力捕获各个域内的长距离依赖关系;
步骤(C1),设已经获得了通道数为256的光谱初始特征和通道数为256的空间图再通过使用非线性函数将它们分别映射成三个单独的表征,其中非线性函数由一层一维/二维卷积层、一层一维/二维批量归一化层、以及ReLU函数构成;光谱域的表征定义为维度为的Qse、Kse和Vse,而空间域能得到维度为的表征Qsa、Ksa和Vsa;
Ff=tanh(FC(GAP1d(Fse))⊙FC(GAP2d(Fsa))) (1)
其中,GAP1d和GAP2d分别表示一维和二维的全局平均池化操作,FC代表全连接层,“⊙”表示Hadamard乘积,tanh为双曲正切函数;
其中,Flatten操作将矩阵延展成向量;
步骤(D),使用增强的光谱和空间特征分别得到对应的分类结果,并使用加权求和的方式融合二者,完成土地资源审计过程中高光谱图像的分类作业,具体是增强光谱特征Ese和增强空间特征Esa分别用于生成对应的分类结果和其中C是高光谱图像中类别的个数,具体步骤如下,
其中,增强特征经过一层全连接层、ReLU函数、一层全连接层转换成C维向量,并使用softmax函数将其映射为概率值。
为了更好的阐述本发明的使用效果,下面具体介绍本发明的一个具体实施例;
(1)为了评估提出的自互注意力网络的分类性能,本发明在两个公开的数据集进行了对比实验。这两个数据集包括IndianPines和UniversityofHouston。 IndianPines数据集由机载可见光/红外成像光谱仪与1992年6月12日在美国印第安纳州西北部的农田拍摄得到。IndianPines高光谱图像空间尺寸为145×145,且包含224个光谱波段(波长覆盖范围为400nm至2500nm)。在本次实验中,去除了水的吸收波段,使用剩下的200个波段。该场景中有三分之二为农作物,三分之一是森林,剩下的是自然地多年生植物。IndianPines的真实分类图主要包含16类地物。总计有10249个带标签样本可供使用。该数据集的伪彩色图和真实分布图如图3第一行所示。在IndianPines数据集上自互注意力网络的详细配置(波段数为200,局部图像块尺寸为32×32),如表1所示。
表1
(2)UniversityofHouston数据集是由轻便机载光谱成像仪于2012年6月 23日在休斯顿大学校园和周边市区拍摄得到。该数据集总共包含349×1905像素点,覆盖波长范围从380nm至1050nm的光谱波段。该数据集包含15类研究学者感兴趣的地物类别。该数据集可获取的带标签样本数量为15029。该数据集的伪彩色图和真实分布图如图3第二行所示。针对这两个数据集,本发明都采用整体样本数量的5%、2%、以及93%分别作为训练、验证和测试,IndianPines 和UniversityofHouston数据集训练样本、验证样本、以及测试样本的数量如表2 所示。
表2
(3)本发明的自互注意力网络是使用PyTorch框架实现,并在一台CPU为 i7-10700,显卡为NVIDIARTX 3090的计算机上运行。本发明使用Adam算法优化自互注意力网络,总的迭代周期设置为200。值得注意的是,训练自互注意力网络时,使用验证样本上测试其性能。最后,将在验证样本上性能最好的模型参数保存,直接用于测试样本的结果分析。具体而言,Adam算法中的学习率设置为0.001,β1和β2分别设置为0.9和0.999,∈设置为1e-8。在后面的实验中,将自互注意力网络记作SMANet(Self mutual attention network)。本发明使用总体准确率(Overallaccuracy,OA)、平均准确率(Averageaccuracy,AA)、每一类准确率、以及Kappa系数来评估分类方法的性能。OA定义了测试样本中分类准确的样本数量与总的测试样本数量的比值,AA是所有类别分类准确率的平均值,Kappa系数用于检验分类效果的一致性。为了消除随机初始化的影响,所有对比方法的实验都进行了五次,最后记录的是五次实验的平均结果。除此之外,还给出了五次实验结果的标准差,以此衡量不同方法的稳定性。本发明总共选择了五个先进的对比方法,包括3DCNN、DFFN、MorphCNN、HybridSN、以及SSTN。这些对比方法的超参数都设置为默认值。
(4)IndianPines数据集的分类结果如表3所示。
表3
表3列出了所有对比方法在IndianPines数据集上分类结果的指标。从表中可以观察到,3DCNN和HybridSN获得的分类结果是所有方法中最差的,只有不到90%的OA。这主要是因为这两类方法尝试通过三维卷积直接同时提取光谱和空间特征,而这种做法导致无法从杂糅在一起的光谱和空间信息中准确地提取光谱和空间特征。与这两种方法相比,MorphCNN和SSTN获得的OA能够提升至少5%,因为它们分别设置独立的光谱和空间特征提取过程,能够更精确地提取对应域的特征。这个现象也说明了独立提取光谱和空间特征的重要性。值得注意的是DFFN能够获得与SSTN类似的分类结果。具体而言,DFFN分类结果的OA只比SSTN的OA高出了0.1%。DFFN能够取得这样的分类结果,主要由于它设计了非常深的网络结构来提取极具判别性的特征,且同时利用网络中不同层之间的互补以及相关的关系。上述的对比方法都取得了不错的分类性能,但是都直接使用高光谱立方块作为输入。这样的输入会将光谱和空间信息混合在一起,难以建模这两个域之间的相互关系,如互补关系。得益于本发明提出的自互注意力模块,SMANet既能够准确地学习光谱和空间域之间的相互关系,又能同时捕获各个域内的长距离依赖关系。因此,与DFFN相比,SMANet 将OA从94.11%提升至96.23%,AA从85.75%提升至89.34%,Kappa系数从 93.28%提升至95.70%,获得了最佳的分类性能。图4给出了所有方法的分类结果图。从图中可以看出,SMANet获得的分类结果图更加均匀,且地物边缘更加清晰。
(5)University of Houston数据集的分类结果如表4所示。
表4
3DCNN | DFFN | MorphCNN | HybridSN | SSTN | SMANet | |
OA | 92.70±0.38 | 96.37±0.15 | 95.59±0.56 | 93.72±0.46 | 94.05±1.15 | 97.92±0.14 |
AA | 92.00±0.60 | 96.50±0.33 | 95.97±0.46 | 93.72±0.62 | 94.49±1.21 | 97.94±0.17 |
Kappa | 92.11±0.41 | 96.07±0.17 | 95.23±0.61 | 93.21±0.50 | 93.57±1.25 | 97.75±0.14 |
1 | 96.64±0.92 | 98.33±0.72 | 99.18±0.78 | 97.83±1.60 | 99.36±0.51 | 98.57±1.23 |
2 | 97.77±1.41 | 99.58±0.31 | 96.31±4.38 | 97.32±1.74 | 92.11±5.64 | 97.65±0.60 |
3 | 100.00±0.00 | 98.34±0.62 | 99.73±0.17 | 99.73±0.20 | 99.61±0.20 | 100.00±0.00 |
4 | 97.12±0.88 | 96.85±1.40 | 94.01±0.26 | 97.99±1.46 | 92.74±1.20 | 98.58±1.07 |
5 | 99.42±0.23 | 99.95±0.08 | 99.24±0.76 | 99.07±0.24 | 99.37±1.22 | 99.97±0.04 |
6 | 76.63±5.33 | 94.69±3.80 | 94.56±4.31 | 88.09±4.17 | 96.70±3.13 | 97.09±0.65 |
7 | 92.25±1.38 | 93.71±2.14 | 94.67±2.51 | 89.88±2.65 | 96.62±1.22 | 97.33±0.39 |
8 | 78.56±0.99 | 85.14±1.23 | 86.09±3.32 | 80.68±3.32 | 86.53±5.25 | 89.73±1.41 |
9 | 85.98±1.65 | 91.11±2.22 | 91.14±3.99 | 90.86±1.55 | 87.51±8.77 | 98.49±0.74 |
10 | 96.09±0.65 | 99.86±0.20 | 96.00±4.99 | 96.23±1.35 | 91.79±10.34 | 99.95±0.05 |
11 | 91.28±1.74 | 98.11±0.92 | 97.05±2.18 | 88.71±1.56 | 91.70±5.53 | 99.56±0.37 |
12 | 93.86±2.37 | 98.48±0.44 | 96.59±1.45 | 96.35±1.33 | 96.30±2.44 | 98.09±0.32 |
13 | 84.35±6.40 | 93.59±1.12 | 95.38±0.30 | 90.22±5.44 | 89.60±10.27 | 94.48±0.88 |
14 | 98.72±0.88 | 99.75±0.55 | 99.75±0.55 | 99.31±0.47 | 97.45±2.75 | 99.61±0.75 |
15 | 91.36±2.41 | 99.94±0.14 | 99.84±0.23 | 93.52±5.25 | 99.97±0.07 | 99.97±0.07 |
从表4的UniversityofHouston数据集分类结果可以得出类似的结论。DFFN 取得了比其他对比方法更优的OA、AA、以及Kappa系数。与DFFN相比,本发明提出的SMANet将OA提升了1.55%、AA提升了1.44%、Kappa系数提升1.68%了。值得注意的是,与DFFN相比,SMANet在UniversityofHouston数据集对分类性能的提升没有IndianPines数据集那么明显。因为DFFN在 UniversityofHouston数据集上已经取得了较高的分类结果了,想再进一步提升性能非常困难。图5展示的分类结果图中可以看出,与其他方法相比,SMANet 仍然可以获得更均匀、准确的分类结果图,且能够很好地保留地物边缘。
综上所述,本发明的一种面向土地资源审计的自互注意力高光谱图像分类方法,本发明提出的自互注意力网络,以充分挖掘光谱和空间信息之间的相互关系;与现有的基于谱-空特征的分类方法不同的是,自互注意力网络利用高光谱向量和局部图像块分别提取光谱和空间特征;紧接着使用互注意力建模光谱和空间特征的相互关系,以突出最具判别性的特征;与此同时通过自注意力捕获光谱和空间域内的长距离依赖关系;两个公开高光谱图像数据集的实验结果表明,自互注意力网络获得了最好的分类性能。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (6)
1.一种面向土地资源审计的自互注意力高光谱图像分类方法,其特征在于:包括以下步骤,
步骤(A),构建自互注意力网络,用于对土地资源审计过程中的高光谱图像进行分类;
步骤(B),针对高光谱图像中的每个像素点,利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再输出至自互注意力模块;
步骤(C),利用自互注意力模块使用互注意力机制明确地建模光谱和空间域之间的相互关系,并同时使用自注意力捕获各个域内的长距离依赖关系,完成对光谱和空间特征的增强;
步骤(D),使用增强的光谱和空间特征分别得到对应的分类结果,并使用加权求和的方式融合二者,完成土地资源审计过程中高光谱图像的分类作业。
2.根据权利要求1所述的一种面向土地资源审计的自互注意力高光谱图像分类方法,其特征在于:步骤(A),构建自互注意力网络,用于对土地资源审计过程中的高光谱图像进行分类,其中自互注意力网络包括光谱特征模块、空间特征模块和自互注意力模块;所述光谱特征模块的基础单元包括一维卷积层、一维批量归一化层、ReLU函数和一维最大值池化层,所述空间特征模块的基础单元是光谱特征模块基础单元的二维版本。
3.根据权利要求2所述的一种面向土地资源审计的自互注意力高光谱图像分类方法,其特征在于:步骤(B),针对高光谱图像中的每个像素点,利用自互注意力网络中的光谱特征模块和空间特征模块提取对应的光谱向量和局部领域,再输出至自互注意力模块,其具体步骤如下,
步骤(B1),设定一个在高光谱图像中位置为(i,j)的像素点x,再生成对应的光谱向量和局部图像块,其具体生成步骤如下;
步骤(B3),将光谱初始特征Fse和特征图Fsa一起输出至自互注意力模块。
4.根据权利要求3所述的一种面向土地资源审计的自互注意力高光谱图像分类方法,其特征在于:步骤(C),利用自互注意力模块使用互注意力机制明确地建模光谱和空间域之间的相互关系,并同时使用自注意力捕获各个域内的长距离依赖关系,完成对光谱和空间特征的增强,其中自互注意力模块能对输入的光谱初始特征Fse和特征图Fsa进行处理并得到增强光谱特征Ese和增强空间特征Esa,具体步骤如下,
步骤(C1),设已经获得了通道数为256的光谱初始特征和通道数为256的空间图再通过使用非线性函数将它们分别映射成三个单独的表征,其中非线性函数由一层一维/二维卷积层、一层一维/二维批量归一化层、以及ReLU函数构成;光谱域的表征定义为维度为的Qse、Kse和Vse,而空间域能得到维度为的表征Qsa、Ksa和Vsa;
Ff=tanh(FC(GAP1d(Fse))⊙FC(GAP2d(Fsa))) (1)
其中,GAP1d和GAP2d分别表示一维和二维的全局平均池化操作,FC代表全连接层,“⊙”表示Hadamard乘积,tanh为双曲正切函数;
其中,Flatten操作将矩阵延展成向量;
6.根据权利要求1所述的一种面向土地资源审计的自互注意力高光谱图像分类方法,其特征在于:所述自互注意力网络的输入为光谱向量Z和局部图像块X,输出为像素点x的类别标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210487088.9A CN114863173B (zh) | 2022-05-06 | 2022-05-06 | 一种面向土地资源审计的自互注意力高光谱图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210487088.9A CN114863173B (zh) | 2022-05-06 | 2022-05-06 | 一种面向土地资源审计的自互注意力高光谱图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114863173A true CN114863173A (zh) | 2022-08-05 |
CN114863173B CN114863173B (zh) | 2023-06-23 |
Family
ID=82634863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210487088.9A Active CN114863173B (zh) | 2022-05-06 | 2022-05-06 | 一种面向土地资源审计的自互注意力高光谱图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863173B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908950A (zh) * | 2023-01-06 | 2023-04-04 | 山东大学 | 基于相似度正切映射的快速医学高光谱影像分类方法 |
CN117590761A (zh) * | 2023-12-29 | 2024-02-23 | 广东福临门世家智能家居有限公司 | 用于智能家居的开门状态检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116563A (zh) * | 2020-08-28 | 2020-12-22 | 南京理工大学 | 一种基于谱维与空间协作邻域注意力的高光谱图像目标检测方法与系统 |
CN112200090A (zh) * | 2020-10-12 | 2021-01-08 | 桂林电子科技大学 | 基于交叉分组空谱特征增强网络的高光谱图像分类方法 |
CN113887645A (zh) * | 2021-10-13 | 2022-01-04 | 西北工业大学 | 一种基于联合注意力孪生网络的遥感图像融合分类方法 |
WO2022073452A1 (zh) * | 2020-10-07 | 2022-04-14 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
-
2022
- 2022-05-06 CN CN202210487088.9A patent/CN114863173B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116563A (zh) * | 2020-08-28 | 2020-12-22 | 南京理工大学 | 一种基于谱维与空间协作邻域注意力的高光谱图像目标检测方法与系统 |
WO2022073452A1 (zh) * | 2020-10-07 | 2022-04-14 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
CN112200090A (zh) * | 2020-10-12 | 2021-01-08 | 桂林电子科技大学 | 基于交叉分组空谱特征增强网络的高光谱图像分类方法 |
CN113887645A (zh) * | 2021-10-13 | 2022-01-04 | 西北工业大学 | 一种基于联合注意力孪生网络的遥感图像融合分类方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908950A (zh) * | 2023-01-06 | 2023-04-04 | 山东大学 | 基于相似度正切映射的快速医学高光谱影像分类方法 |
CN117590761A (zh) * | 2023-12-29 | 2024-02-23 | 广东福临门世家智能家居有限公司 | 用于智能家居的开门状态检测方法及系统 |
CN117590761B (zh) * | 2023-12-29 | 2024-04-19 | 广东福临门世家智能家居有限公司 | 用于智能家居的开门状态检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114863173B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948693B (zh) | 基于超像素样本扩充和生成对抗网络高光谱图像分类方法 | |
CN110321963B (zh) | 基于融合多尺度多维空谱特征的高光谱图像分类方法 | |
Wang et al. | Scene classification of high-resolution remotely sensed image based on ResNet | |
CN110399909B (zh) | 一种基于标签约束弹性网图模型的高光谱图像分类方法 | |
Han et al. | Multimodal hyperspectral unmixing: Insights from attention networks | |
Zhao et al. | Joint classification of hyperspectral and LiDAR data using a hierarchical CNN and transformer | |
CN104751191B (zh) | 一种稀疏自适应半监督多流形学习的高光谱影像分类方法 | |
CN104331698B (zh) | 一种遥感图像城区提取方法 | |
Hendrix et al. | A new minimum-volume enclosing algorithm for endmember identification and abundance estimation in hyperspectral data | |
CN110728192A (zh) | 一种基于新型特征金字塔深度网络的高分遥感图像分类方法 | |
CN114863173A (zh) | 一种面向土地资源审计的自互注意力高光谱图像分类方法 | |
CN107590515A (zh) | 基于熵率超像素分割的自编码器的高光谱图像分类方法 | |
CN105261000A (zh) | 一种基于端元提取与光谱解混的高光谱图像融合方法 | |
CN108460391A (zh) | 基于生成对抗网络的高光谱图像无监督特征提取方法 | |
Plaza et al. | Foreword to the special issue on hyperspectral image and signal processing | |
CN105184314B (zh) | 基于像素聚类的wrapper式高光谱波段选择方法 | |
CN111680579B (zh) | 一种自适应权重多视角度量学习的遥感图像分类方法 | |
CN113420838B (zh) | 基于多尺度注意力特征融合的sar与光学图像分类方法 | |
CN115240072A (zh) | 一种基于多方向多尺度光谱-空间残差卷积神经网络的高光谱多类变化检测方法 | |
Mirpulatov et al. | Pseudo-labeling approach for land cover classification through remote sensing observations with noisy labels | |
Cui et al. | Unrolling nonnegative matrix factorization with group sparsity for blind hyperspectral unmixing | |
Shao et al. | Iviu-net: Implicit variable iterative unrolling network for hyperspectral sparse unmixing | |
CN113887656B (zh) | 一种联合深度学习与稀疏表示的高光谱图像分类方法 | |
CN109460788A (zh) | 基于低秩-稀疏信息组合网络的高光谱图像分类方法 | |
Jiang et al. | Semantic segmentation of remote sensing images based on dual‐channel attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |