CN112668421A - 一种基于注意力机制的无人机高光谱农作物快速分类方法 - Google Patents

一种基于注意力机制的无人机高光谱农作物快速分类方法 Download PDF

Info

Publication number
CN112668421A
CN112668421A CN202011507891.1A CN202011507891A CN112668421A CN 112668421 A CN112668421 A CN 112668421A CN 202011507891 A CN202011507891 A CN 202011507891A CN 112668421 A CN112668421 A CN 112668421A
Authority
CN
China
Prior art keywords
fscale
attention
channel
attention module
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011507891.1A
Other languages
English (en)
Other versions
CN112668421B (zh
Inventor
胡鑫
钟燕飞
王心宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202011507891.1A priority Critical patent/CN112668421B/zh
Publication of CN112668421A publication Critical patent/CN112668421A/zh
Application granted granted Critical
Publication of CN112668421B publication Critical patent/CN112668421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明针对无人机高光谱影像,公开了一种基于注意力机制的无人机高光谱农作物快速分类方法,主要包括:使用光谱注意力模块提取通道间的上下文信息;使用尺度注意力模块提取多尺度上下文信息;使用空间注意力模块中融合低层细节特征和高级语义特征;设计边界约束的损失函数进一步增加农作物特征的区分性。本发明能够适用于海量高维非线性数据结构的双高影像农作物精细分类,极大改善了双高影像农作物分类结果中错分孤立区域现象,是一种快速精确的农作物精细分类方法,可满足无人机载高光谱影像农作物精细分类制图的需求。

Description

一种基于注意力机制的无人机高光谱农作物快速分类方法
技术领域
本发明属于遥感图像处理技术领域,特别涉及一种基于空谱多尺度注意力机制和边界约束损失函数的深度学习农作物快速精准识别方法
背景技术
无人机搭载的高光谱系统可以获取具有高空间分辨率的高光谱图像(本专利中简称为“双高”影像)。由于低运行成本,高灵活性和实时数据采集的能力,无人机载高光谱数据已成为农业遥感监测的重要数据源。然而,无人机载双高影像针对多类农作物精细分类时仍面临以下挑战。一方面,在双高影像农作物精细分类中,不同农作物之间光谱信息相似,类间差异小;另一方面,随着双高影像空间分辨率的提升,地物的空间异质性逐渐增大,进而加剧地物光谱的变异性,使得同类农作物的类内方差增大。此外,双高影像由于超高的光谱分辨率和空间分辨率使得数据量海量高维,需要一种快速实时的数据处理方法。
当前的高光谱农作物分类方法有基于统计分析的光谱信息分类、空谱特征融合分类,基于数据驱动的深度学习分类方法。基于统计分析的方法只能学习到浅层特征,并且依赖专家知识的手工特征设计,难以适用于海量高维非线性数据结构的双高影像。基于深度学习的分类方法主要以取空间块的方式为主,以标记像素为中心选取邻域的三维空间块作为网络的输入,这种策略只能利用局部空谱信息,在双高影像农作物分类结果中会造成大量错分的孤立区域,并且推理速度慢,计算效率低。
发明内容
本发明针对无人机高光谱影像,提出一种基于注意力机制网络的农作物快速分类方法,具有以下三个显著特点。一是设计全卷积神经网络框架实现全局空谱信息融合,推理速度快,相比于采用空间块作为输入的深度学习方法推理速度可提升百倍以上;其二,设计光谱-空间注意力模块引入通道维、空间维上下文信息,同时设计尺度注意力模块自适应的选取多尺度上下文信息,实现全局多尺度上下文空谱信息融合。其三,针对农作物光谱信息相似,类间差异小的问题,设计边界约束的损失函数,增加类别特征之间的区分性。
本发明提供基于注意力机制网络的无人机载高光谱影像农作物快速分类方法,具体实现步骤如下:
步骤1,对输入影像进行镜像填充;
步骤2,对镜像填充影像进行通道降维;
步骤3,构建用于农作物分类的网络模型,包括以下子步骤;
步骤3.1,使用光谱注意力模块提取通道间的上下文信息,获得低层细节特征;
步骤3.2,使用尺度注意力模块提取多尺度上下文信息,获得高级语义特征;
步骤3.3,使用空间注意力模块中融合低层细节特征和高级语义特征;
步骤3.4,将空间注意力模块最终输出的特征图输入边界约束的损失函数中,输出loss值;
步骤3.5,反向传播loss值更新网络模型参数;
步骤4,将待分类的双高影像输入到网络模型,输出预测分类结果,实现农作物的精细分类识别。
进一步的,所述步骤2的实现方式如下,
将镜像填充后的影像X依次经过一个“卷积层-组归一化层-非线性激活层”的网络结构进行通道降维,输出特征图F,其中组归一化考虑高光谱影像光谱连续性。
进一步的,所述步骤3的实现方式如下,
步骤3.1.1,设步骤2中通道降维后得到特征图F,将特征图F输入第一个光谱注意力模块中,提取通道维上下文信息特征,光谱注意力模输出特征图Fspectral1,公式如下:
Fspectral1=Conv3×3stride=2(σ(MLP(AvgPool(F))+MLP(MaxPool(F))×F)
上式中,F表示输入的特征图,Fspectral为光谱注意力模块输出的特征图;σ(·)表示sigmoid激活函数,输出每个通道的重要性的权重;MLP(·)是一个2层的神经网络,并且上式中2个MLP共享权重;AvgPool(·)与MaxPool(·)分别表示在空间维进行平均池化和最大池化操作,其输出是一维向量;Conv3×3stride=2是一个步长为2的3×3的卷积,其目的是增大卷积感受野,便于提取高层语义特征提取;
步骤3.1.2,将步骤3.1.1输出的特征图Fspectral1输入到第二个光谱注意力模块中,第二个光谱注意力模块特征提取方式与步骤3.1.1相同;通过k个串联的光谱注意力模块依次输出Fspectral1,Fspectral2,…,Fspectralk
进一步的,步骤3.2的实现方式如下,
尺度注意力模块用于实现自适应的选择多尺度的上下文信息,其输入为最后一个光谱注意力模块输出的特征图Fspectralk,其具体包括5部分;
步骤3.2.1,使用四个不同空洞率r1,r2,r3,r4的3×3卷积算子对输入特征图Fspectralk进行特征不同尺度的上下文信息感知,分别输出四个不同尺度上下文特征图Fscaler1,
Figure BDA0002845429220000031
其中,r1,r2,r3,r4根据地物真实分布确定不同的值;
步骤3.2.2,将3.2.1输出的不同尺度的上下文特征图进行逐像素加和,输出多尺度特征图Fscalesum,公式如下:
Figure BDA0002845429220000032
步骤3.2.3,将3.2.2输出的聚合特征Fscalesum进行空间全局池化来感知全局信息,生成通道维的统计信息,随后连接一个全连接层自适应的选择上下文特征,公式如下:
Fcs=FC(AvgPool(Fscalesum))
上式中,AvgPool(·)为全局池化,FC表示全连接层,采用ReLU激活函数;
步骤3.2.4,通过Softmax应用在步骤3.2.3输出的Fcs通道维上计算不同尺度上下文信息的权重,具体
Figure BDA0002845429220000041
Figure BDA0002845429220000042
其中ar1,ar2,ar3,ar4∈RC×1分别是多尺度上下文特征Fscaler1,
Figure BDA0002845429220000043
Figure BDA0002845429220000044
的权重,Ar1,Ar2,Ar3,Ar4∈RC×d是维度转换矩阵,其中C是Fscalesum通道维度,d是Fcs的通道维度;由上式可以得出,对于任意一个通道i的权重,具有如下关系:
ar1[i]+ar2[i]+ar3[i]+ar4[i]=1
步骤3.2.5,将3.2.4计算的不同尺度的特征权重ar1,ar2,ar3,ar4分别对特征图Fscaler1,
Figure BDA0002845429220000045
进行加权,然后对加权后的特征进行相加聚合,进而实现多尺度信息的自适应选择,公式表示如下:
Fscale[i]=ar1[i]·Fscaler1+ar2[i]·Fscaler2+ar3[i]·Fscaler3+ar4[i]·Fscaler4
进一步的,步骤3.3的实现方式如下,
步骤3.3.1,将低层细节特征Fspectralk与高级语义特征Fscale级联后输入到空间注意力模块中,实现对不同类别的地物具有不同的注意力权重,进一步在保持细节的同时增加类别之间的区分性,空间注意力模块公式如下:
Figure BDA0002845429220000046
Fconnect=[Fspectralk,Fscale]
上式中,
Figure BDA0002845429220000047
表示卷积核为3×3、扩张率为3的空洞卷积;AvgPoolchannel(Fconnect)和MaxPoolchannel(Fconnect)表示在通道维进行平均池化和最大池化,其输出的特征图是1个通道的特征图;[·]表示在通道维连接2个特征图的操作;σ(·)表示sigmoid激活函数,输出空间像素的每个权重;
步骤3.3.2,对于输出的空间注意力融合特征Fspatialk,通过一个3×3的卷积进行特征细化,然后使用2倍双线性插值进行上采样,公式如下:
Fspatial_upk=Finterpolate(Conv3×3(Fspatialk))
上式中Finterpolate表示2倍上采样的双线性插值;
步骤3.3.3,对Fspatial_upk和Fspectralk-1经过步骤3.3.1和3.3.2生成Fspatial_upk-1,依次经过k个空间注意力模块,最终对Fspatial_up2和Fspectral1经过步骤3.3.1和3.3.2,生成最终的特征图
Figure BDA0002845429220000051
进一步的,所述步骤3.4的实现方式如下,
步骤3.4.1,首先构建一个Softmax分类器,其公式如下所示:
Figure BDA0002845429220000052
其中N是像素个数,n是类别个数,xi是特征图
Figure BDA0002845429220000053
的标记像素的一维向量,
Figure BDA0002845429220000054
是类别yi的权重向量,可以用1×1的卷积替代,b是偏置;
步骤,3.4.2,将权重W和特征xi归一化,使其二范数为1,然后将偏置b设为0,将3.4.1中的损失函数修改为:
Figure BDA0002845429220000055
其中θj为特征向量xi
Figure BDA0002845429220000056
之间的余弦夹角;
步骤3.4.3,对余弦值cosθj乘以增益系数s,然后对xi
Figure BDA0002845429220000057
之间的余弦夹角θj添加边界约束m,将步骤3.4.2中的损失函数修改为:
Figure BDA0002845429220000058
最终输出预测的分类结果
Figure BDA0002845429220000059
与真实标注Y的loss值。
本发明方法具有以下显著效果:(1)全卷积神经网络框架实现全局空谱信息融合,推理速度快,相比于采用空间块作为输入的深度学习方法推理速度可提升百倍以上;(2),设计光谱-空间注意力模块引入通道维、空间维上下文信息,同时设计尺度注意力模块自适应的选取多尺度上下文信息,实现全局多尺度上下文空谱信息融合,有效改善分类结果中的孤立错分区域;(3)设计边界约束的损失函数,增加类别特征之间的区分性,农作物精细分类精度更高。
附图说明
图1是本发明实施例1的步骤1中所输入的无人机双高影像。
图2是本发明实施例1的步骤3中光谱注意力模块网络结构图。
图3是本发明实施例1的步骤4中尺度注意力模块网络结构图。
图4是本发明实施例1的步骤5中空间注意力模块网络结构图。
图5是本发明实施例1的步骤8中所输出农作物精细分类结果。
图6为本发明实施例1的整体流程图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例1:
如图1所示,本发明提供的一种基于空谱多尺度注意力机制与边界约束的无人机高光谱农作物快速分类方法,包括以下步骤:
步骤1,输入一幅待分类影像WHU-Hi-HongHu,如图1所示,将其空间尺寸镜像填充为8的倍数。
步骤2,对镜像填充影像进行通道降维,本步骤进一步包括:
将镜像填充后的影像X依次经过一个“卷积层-组归一化层-非线性激活层”的网络结构进行通道降维,输出特征图F,其中组归一化考虑高光谱影像光谱连续性。
步骤3,使用光谱注意力模块提取通道间的上下文信息,如图2所示,本步骤进一步包括:
步骤3.1,将特征图F输入第一个光谱注意力模块中,提取通道维上下文信息特征,光谱注意力模输出特征图Fspectral1,公式如下:
Fspectral1=Conv3×3stride=2(σ(MLP(AvgPool(F))+MLP(MaxPool(F))×F)
上式中,F表示输入的特征图,Fspectral为光谱注意力模块输出的特征图;σ(·)表示sigmoid激活函数,输出每个通道的重要性的权重;MLP(·)是一个2层的神经网络,并且上式中左右2个MLP共享权重;AvgPool(·)与MaxPool(·)分别表示在空间维进行平均池化和最大池化操作,其输出是一维向量。Conv3×3stride=2是一个步长为2的3×3的卷积,其目的是增大卷积感受野,便于提取高层语义特征提取。
步骤3.2,将步骤3.1输出的特征图Fspectral1输入到第二个光谱注意力模块中,第二个光谱注意力模块特征提取方式与步骤3.1相同。类似通过k个串联的光谱注意力模块依次输出Fspectral1,Fspectral2,…,Fspectralk
步骤4,使用尺度注意力模块提取多尺度上下文信息,如图3所示,本步骤进一步包括:
尺度注意力模块可以实现自适应的选择多尺度的上下文信息,其输入为最后一个光谱注意力模块输出的特征图Fspectralk,其具体包括5部分。
步骤4.1,使用四个不同空洞率r1,r2,r3,r4的3×3卷积算子对输入特征图Fspectral进行特征不同尺度的上下文信息感知,分别输出四个不同尺度上下文特征图Fscaler1,
Figure BDA0002845429220000071
其中,r1,r2,r3,r4经验取值为3,6,9,12,可根据地物真实分布确定不同的值。
步骤4.2,将4.1输出的不同尺度的上下文特征图进行逐像素加和,输出多尺度特征图Fscalesum,公式如下:
Figure BDA0002845429220000072
步骤4.3,将4.2输出的聚合特征Fscalesum进行空间全局池化来感知全局信息,生成通道维的统计信息,随后连接一个全连接层自适应的选择上下文特征,公式如下:
Fcs=FC(AvgPool(Fscalesum))
上式中,AvgPool(·)为全局池化,FC表示全连接层,采用ReLU激活函数。
步骤4.4,通过Softmax应用在4.3输出的Fcs通道维上计算不同尺度上下文信息的权重,具体
Figure BDA0002845429220000081
Figure BDA0002845429220000082
其中ar1,ar2,ar3,ar4∈RC×1分别是多尺度上下文特征Fscaler1,
Figure BDA0002845429220000083
Figure BDA0002845429220000084
的权重,Ar1,Ar2,Ar3,Ar4∈RC×d是维度转换矩阵,其中C是Fscalesum通道维度,d是Fcs的通道维度。由上式可以得出,对于任意一个通道i的权重,具有如下关系:
ar1[i]+ar2[i]+ar3[i]+ar4[i]=1
步骤4.5,将4.4计算的不同尺度的特征权重ar1,ar2,ar3,ar4分别对特征图Fscaler1,
Figure BDA0002845429220000085
进行加权,然后对加权后的特征进行相加聚合,进而实现多尺度信息的自适应选择,公式表示如下:
Fscale[i]=ar1[i]·Fscaler1+ar2[i]·Fscaler2+ar3[i]·Fscaler3+ar4[i]·Fscaler4
步骤5,使用空间注意力模块中融合低层细节特征和高级语义特征,如图4所示,本步骤进一步包括:
步骤5.1,将Fspectralk与Fscale级联后输入到空间注意力模块中,实现对不同类别的地物具有不同的注意力权重,进一步在保持细节的同时增加类别之间的区分性。空间注意力模块公式如下:
Figure BDA0002845429220000086
Fconnect=[Fspectralk,Fscale]
上式中,
Figure BDA0002845429220000087
表示卷积核为3×3、扩张率为3的空洞卷积;AvgPoolchannel(Fconnect)和MaxPoolchannel(Fconnect)表示在通道维进行平均池化和最大池化,其输出的特征图是1个通道的特征图;[·]表示在通道维连接2个特征图的操作;σ(·)表示sigmoid激活函数,输出空间像素的每个权重。
步骤5.2,对于输出的空间注意力融合特征Fspatialk,通过一个3×3的卷积进行特征细化,然后使用2倍双线性插值进行上采样,公式如下:
Fspatial_upk=Finterpolate(Conv3×3(Fspatialk))
上式中Finterpolate表示2倍上采样的双线性插值。
步骤5.3,对Fspatial_upk和Fspectralk-1经过步骤5.1和5.2生成Fspatial_upk-1,依次经过k个空间注意力模块,最终对Fspatial_up2和Fspectral1经过步骤5.1和5.2成最终的特征图
Figure BDA0002845429220000091
步骤6,将空间注意力模块最终输出的特征图
Figure BDA0002845429220000092
输入边界约束的损失函数中,输出loss值,本步骤进一步包括:
6.1,首先构建一个Softmax分类器,其公式如下所示:
Figure BDA0002845429220000093
其中N是像素个数,n是类别个数,xi是特征图
Figure BDA0002845429220000094
的标记像素的一维向量,
Figure BDA0002845429220000095
是类别yi的权重向量,可以用1×1的卷积替代,b是偏置。
6.2,将权重W和特征xi归一化,使其二范数为1,然后将偏置b设为0,将6.1中的损失函数修改为:
Figure BDA0002845429220000096
其中θj为特征向量xi
Figure BDA0002845429220000097
之间的余弦夹角,
6.3,对余弦值cosθj乘以增益系数s,然后对xi
Figure BDA0002845429220000098
之间的余弦夹角θj添加边界约束m,将6.2中的损失函数修改为:
Figure BDA0002845429220000101
本专利中根据经验将s和m分别设置为15和0.5弧度,最终输出预测的分类结果
Figure BDA0002845429220000102
与真实标注Y的loss值。
步骤7,反向传播loss值更新网络模型参数,本步骤进一步包括:
将loss值进行反向传播,通过基于适应性矩估计算法对S2到S6步骤中的网络参数进行更新,最终得到优化后的网络模型fnetwork(·)。
步骤8,将待分类的双高影像X1,X2,…Xn输入到网络模型fnetwork(·),输出预测分类结果Y1,Y2,…Yn,实现农作物的精细分类识别,识别结果如图5所示。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于注意力机制的无人机高光谱农作物快速分类方法,其特征在于,包括如下步骤:
步骤1,对输入影像进行镜像填充;
步骤2,对镜像填充影像进行通道降维;
步骤3,构建用于农作物分类的网络模型,包括以下子步骤;
步骤3.1,使用光谱注意力模块提取通道间的上下文信息,获得低层细节特征;
步骤3.2,使用尺度注意力模块提取多尺度上下文信息,获得高级语义特征;
步骤3.3,使用空间注意力模块中融合低层细节特征和高级语义特征;
步骤3.4,将空间注意力模块最终输出的特征图输入边界约束的损失函数中,输出loss值;
步骤3.5,反向传播loss值更新网络模型参数;
步骤4,将待分类的双高影像输入到网络模型,输出预测分类结果,实现农作物的精细分类识别。
2.如权利要求1所述的一种基于注意力机制的无人机高光谱农作物快速分类方法,其特征在于:所述步骤2的实现方式如下,
将镜像填充后的影像X依次经过一个“卷积层-组归一化层-非线性激活层”的网络结构进行通道降维,输出特征图F,其中组归一化考虑高光谱影像光谱连续性。
3.如权利要求1所述的一种基于注意力机制的无人机高光谱农作物快速分类方法,其特征在于:所述步骤3的实现方式如下,
步骤3.1.1,设步骤2中通道降维后得到特征图F,将特征图F输入第一个光谱注意力模块中,提取通道维上下文信息特征,光谱注意力模输出特征图Fspectral1,公式如下:
Fspectral1=Conv3×3stride=2(σ(MLP(AvgPool(F))+MLP(MaxPool(F))×F)
上式中,F表示输入的特征图,Fspectral为光谱注意力模块输出的特征图;σ(·)表示sigmoid激活函数,输出每个通道的重要性的权重;MLP(·)是一个2层的神经网络,并且上式中2个MLP共享权重;AvgPool(·)与MaxPool(·)分别表示在空间维进行平均池化和最大池化操作,其输出是一维向量;Conv3×3stride=2是一个步长为2的3×3的卷积,其目的是增大卷积感受野,便于提取高层语义特征提取;
步骤3.1.2,将步骤3.1.1输出的特征图Fspectral1输入到第二个光谱注意力模块中,第二个光谱注意力模块特征提取方式与步骤3.1.1相同;通过k个串联的光谱注意力模块依次输出Fspectral1,Fspectral2,…,Fspectralk
4.如权利要求1所述的一种基于注意力机制的无人机高光谱农作物快速分类方法,其特征在于:步骤3.2的实现方式如下,
尺度注意力模块用于实现自适应的选择多尺度的上下文信息,其输入为最后一个光谱注意力模块输出的特征图Fspectralk,其具体包括5部分;
步骤3.2.1,使用四个不同空洞率r1,r2,r3,r4的3×3卷积算子对输入特征图Fspectralk进行特征不同尺度的上下文信息感知,分别输出四个不同尺度上下文特征图
Figure FDA0002845429210000023
其中,r1,r2,r3,r4根据地物真实分布确定不同的值;
步骤3.2.2,将3.2.1输出的不同尺度的上下文特征图进行逐像素加和,输出多尺度特征图Fscalesum,公式如下:
Figure FDA0002845429210000024
步骤3.2.3,将3.2.2输出的聚合特征Fscalesum进行空间全局池化来感知全局信息,生成通道维的统计信息,随后连接一个全连接层自适应的选择上下文特征,公式如下:
Fcs=FC(AvgPool(Fscalesum))
上式中,AvgPool(·)为全局池化,FC表示全连接层,采用ReLU激活函数;
步骤3.2.4,通过Softmax应用在步骤3.2.3输出的Fcs通道维上计算不同尺度上下文信息的权重,具体
Figure FDA0002845429210000021
Figure FDA0002845429210000022
其中ar1,ar2,ar3,ar4∈RC×1分别是多尺度上下文特征
Figure FDA0002845429210000031
Figure FDA0002845429210000032
的权重,Ar1,Ar2,Ar3,Ar4∈RC×d是维度转换矩阵,其中C是Fscalesum通道维度,d是Fcs的通道维度;由上式可以得出,对于任意一个通道i的权重,具有如下关系:
ar1[i]+ar2[i]+ar3[i]+ar4[i]=1
步骤3.2.5,将3.2.4计算的不同尺度的特征权重ar1,ar2,ar3,ar4分别对特征图
Figure FDA0002845429210000033
进行加权,然后对加权后的特征进行相加聚合,进而实现多尺度信息的自适应选择,公式表示如下:
Fscale[i]=ar1[i]·Fscaler1+ar2[i]·Fscaler2+ar3[i]·Fscaler3+ar4[i]·Fscaler4
5.如权利要求1所述的一种基于注意力机制的无人机高光谱农作物快速分类方法,其特征在于:步骤3.3的实现方式如下,
步骤3.3.1,将低层细节特征Fspectralk与高级语义特征Fscale级联后输入到空间注意力模块中,实现对不同类别的地物具有不同的注意力权重,进一步在保持细节的同时增加类别之间的区分性,空间注意力模块公式如下:
Figure FDA0002845429210000034
Fconnect=[Fspectralk,Fscale]
上式中,
Figure FDA0002845429210000035
表示卷积核为3×3、扩张率为3的空洞卷积;AvgPoolchannel(Fconnect)和MaxPoolchannel(Fconnect)表示在通道维进行平均池化和最大池化,其输出的特征图是1个通道的特征图;[·]表示在通道维连接2个特征图的操作;σ(·)表示sigmoid激活函数,输出空间像素的每个权重;
步骤3.3.2,对于输出的空间注意力融合特征Fspatialk,通过一个3×3的卷积进行特征细化,然后使用2倍双线性插值进行上采样,公式如下:
Fspatial_upk=Finterpolate(Conv3×3(Fspatialk))
上式中Finterpolate表示2倍上采样的双线性插值;
步骤3.3.3,对Fspatial_upk和Fspectralk-1经过步骤3.3.1和3.3.2生成Fspatial_upk-1,依次经过k个空间注意力模块,最终对Fspatial_up2和Fspectral1经过步骤3.3.1和3.3.2,生成最终的特征图
Figure FDA0002845429210000045
6.如权利要求1所述的一种基于注意力机制的无人机高光谱农作物快速分类方法,其特征在于:所述步骤3.4的实现方式如下,
步骤3.4.1,首先构建一个Softmax分类器,其公式如下所示:
Figure FDA0002845429210000041
其中N是像素个数,n是类别个数,xi是空间注意力模块最终输出的特征图
Figure FDA0002845429210000047
的标记像素的一维向量,
Figure FDA0002845429210000046
是类别yi的权重向量,可以用1×1的卷积替代,b是偏置;
步骤,3.4.2,将权重W和特征xi归一化,使其二范数为1,然后将偏置b设为0,将3.4.1中的损失函数修改为:
Figure FDA0002845429210000042
其中θj为特征向量xi
Figure FDA0002845429210000048
之间的余弦夹角;
步骤3.4.3,对余弦值cosθj乘以增益系数s,然后对xi
Figure FDA0002845429210000049
之间的余弦夹角θj添加边界约束m,将3.4.2中的损失函数修改为:
Figure FDA0002845429210000043
最终输出预测的分类结果
Figure FDA0002845429210000044
与真实标注Y的loss值。
CN202011507891.1A 2020-12-18 2020-12-18 一种基于注意力机制的无人机高光谱农作物快速分类方法 Active CN112668421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011507891.1A CN112668421B (zh) 2020-12-18 2020-12-18 一种基于注意力机制的无人机高光谱农作物快速分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011507891.1A CN112668421B (zh) 2020-12-18 2020-12-18 一种基于注意力机制的无人机高光谱农作物快速分类方法

Publications (2)

Publication Number Publication Date
CN112668421A true CN112668421A (zh) 2021-04-16
CN112668421B CN112668421B (zh) 2022-04-29

Family

ID=75406974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011507891.1A Active CN112668421B (zh) 2020-12-18 2020-12-18 一种基于注意力机制的无人机高光谱农作物快速分类方法

Country Status (1)

Country Link
CN (1) CN112668421B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435282A (zh) * 2021-06-18 2021-09-24 南京农业大学 基于深度学习的无人机影像麦穗识别方法
CN115346137A (zh) * 2022-10-14 2022-11-15 武汉大学 一种基于多任务学习的高标准农田地块矢量化提取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740894A (zh) * 2016-01-28 2016-07-06 北京航空航天大学 一种高光谱遥感图像的语义标注方法
US20170358067A1 (en) * 2014-12-02 2017-12-14 University Of Seoul Industry Cooperation Foundation Method and Device for Fusing Panchromatic Image and Infrared Image
EP3299995A1 (de) * 2016-09-27 2018-03-28 CLAAS Selbstfahrende Erntemaschinen GmbH Bildanalysesystem für landwirtschaftliche arbeitsmaschinen
CN110942039A (zh) * 2019-11-29 2020-03-31 中国农业科学院农业资源与农业区划研究所 一种主要农作物高温灾害遥感监测预报系统及方法
CN111639587A (zh) * 2020-05-27 2020-09-08 西安电子科技大学 基于多尺度谱空卷积神经网络的高光谱图像分类方法
CN111814607A (zh) * 2020-06-24 2020-10-23 中国地质大学(武汉) 一种适用于小样本高光谱影像分类的深度学习模型

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170358067A1 (en) * 2014-12-02 2017-12-14 University Of Seoul Industry Cooperation Foundation Method and Device for Fusing Panchromatic Image and Infrared Image
CN105740894A (zh) * 2016-01-28 2016-07-06 北京航空航天大学 一种高光谱遥感图像的语义标注方法
EP3299995A1 (de) * 2016-09-27 2018-03-28 CLAAS Selbstfahrende Erntemaschinen GmbH Bildanalysesystem für landwirtschaftliche arbeitsmaschinen
CN110942039A (zh) * 2019-11-29 2020-03-31 中国农业科学院农业资源与农业区划研究所 一种主要农作物高温灾害遥感监测预报系统及方法
CN111639587A (zh) * 2020-05-27 2020-09-08 西安电子科技大学 基于多尺度谱空卷积神经网络的高光谱图像分类方法
CN111814607A (zh) * 2020-06-24 2020-10-23 中国地质大学(武汉) 一种适用于小样本高光谱影像分类的深度学习模型

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
N.T. VETREKAR ET AL.: "Extended Spectral to Visible Comparison Based on Spectral Band Selection Method for Robust Face Recognition", 《2017 12TH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION (FG 2017)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435282A (zh) * 2021-06-18 2021-09-24 南京农业大学 基于深度学习的无人机影像麦穗识别方法
CN113435282B (zh) * 2021-06-18 2021-12-21 南京农业大学 基于深度学习的无人机影像麦穗识别方法
CN115346137A (zh) * 2022-10-14 2022-11-15 武汉大学 一种基于多任务学习的高标准农田地块矢量化提取方法

Also Published As

Publication number Publication date
CN112668421B (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
Song et al. A survey of remote sensing image classification based on CNNs
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN109522942B (zh) 一种图像分类方法、装置、终端设备和存储介质
CN111695467B (zh) 基于超像素样本扩充的空谱全卷积高光谱图像分类方法
Kestur et al. UFCN: A fully convolutional neural network for road extraction in RGB imagery acquired by remote sensing from an unmanned aerial vehicle
EP3254238B1 (en) Method for re-identification of objects
US12100192B2 (en) Method, apparatus, and electronic device for training place recognition model
CN105740894B (zh) 一种高光谱遥感图像的语义标注方法
CN112990010B (zh) 点云数据处理方法、装置、计算机设备和存储介质
CN112633350B (zh) 一种基于图卷积的多尺度点云分类实现方法
CN110675423A (zh) 一种基于孪生神经网络和注意力模型的无人机跟踪方法
CN111507378A (zh) 训练图像处理模型的方法和装置
CN110309856A (zh) 图像分类方法、神经网络的训练方法及装置
CN108062569B (zh) 一种基于红外和雷达的无人车驾驶决策方法
CN110991513B (zh) 一种具有类人连续学习能力的图像目标识别系统及方法
CN112766229B (zh) 基于注意力机制的人脸点云图像智能识别系统及方法
Cai et al. Residual-capsule networks with threshold convolution for segmentation of wheat plantation rows in UAV images
CN112668421B (zh) 一种基于注意力机制的无人机高光谱农作物快速分类方法
CN113807399A (zh) 一种神经网络训练方法、检测方法以及装置
Mussina et al. Multi-modal data fusion using deep neural network for condition monitoring of high voltage insulator
CN110765882A (zh) 一种视频标签确定方法、装置、服务器及存储介质
CN112419333B (zh) 一种遥感影像自适应特征选择分割方法及系统
CN113743417A (zh) 语义分割方法和语义分割装置
CN117157679A (zh) 感知网络、感知网络的训练方法、物体识别方法及装置
CN107203779A (zh) 基于空谱信息保持的高光谱降维方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant