CN111191718B - 基于图注意力网络的小样本sar目标识别方法 - Google Patents

基于图注意力网络的小样本sar目标识别方法 Download PDF

Info

Publication number
CN111191718B
CN111191718B CN201911389856.1A CN201911389856A CN111191718B CN 111191718 B CN111191718 B CN 111191718B CN 201911389856 A CN201911389856 A CN 201911389856A CN 111191718 B CN111191718 B CN 111191718B
Authority
CN
China
Prior art keywords
node
label
sar
attention
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911389856.1A
Other languages
English (en)
Other versions
CN111191718A (zh
Inventor
丁金闪
温利武
黄学军
秦思琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201911389856.1A priority Critical patent/CN111191718B/zh
Publication of CN111191718A publication Critical patent/CN111191718A/zh
Application granted granted Critical
Publication of CN111191718B publication Critical patent/CN111191718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于图注意力网络的SAR目标小样本识别方法,主要解决现有技术在训练数据缺乏情况下识别率较差的问题,其方案是:选取包含雷达目标的SAR图像,抑制其相干斑噪声,并将降噪后的SAR图像划分为有标签的数据和无标签的数据;利用降噪后的图像训练自编码器,得到全部SAR图像的特征向量;在有少量标签数据的前提下,利用向量相似性得到初始邻接矩阵;设置图注意力网络,并利用所有特征向量迭代训练图注意力网络,直至该网络的误差函数收敛,输出最终预测的节点标签矩阵,实现无标签数据的识别。本发明能利用少量已知类别的SAR目标对其余大量未知目标的类别进行预测,且预测准确率高,可用于小样本情况下的雷达目标识别。

Description

基于图注意力网络的小样本SAR目标识别方法
技术领域
本发明属于图像处理技术领域,特别涉及一种小样本SAR目标识别方法,可用于在少量训练样本的前提下准确地识别雷达目标。
背景技术
随着合成孔径雷达技术的快速发展与进步,SAR图像的分辨率变得越来越高,其分辨率已从早期的中低分辨发展为高分辨和超高分辨。高分辨SAR图像的产生不仅改善了传统低分辨SAR图像信息量不足的缺点,而且推动了对SAR图像处理的研究。基于SAR图像的目标识别是SAR图像处理领域的重要应用之一,已被广泛应用于海洋或陆地的监测与探测。
由于高分辨和中低分辨SAR图像的特征差异性,导致某些适用于中低分辨的目标识别方法不能用于高分辨的图像分类。另外,由于传统的机器学习分类方法其能力相对较弱,以及SAR图像自身相干斑噪声的干扰,使得SAR图像分类的准确度较低,无法满足实际应用的需求。近些年来,深度学习作为新兴的机器学习分类方法,以高精度的分类能力受到了广泛的关注。特别是在光学图像分类以及目标识别任务上获得了远超传统分类器的效果。但是基于深度学习的SAR图像分类与目标识别无法满足实际的应用需求,面临的主要问题是训练数据较为缺乏。训练数据在基于深度学习的算法中至关重要,其选取的数量与质量直接影响深度网络训练的优劣,进而影响对SAR图像分类的精度。在大多数情况下,深度学习参数训练不足都是由于训练数据缺乏导致的。
为了解决训练样本不足带来的问题,诸多数据增强方法以及基于小样本训练的雷达目标识别算法被提出。目前,针对SAR图像中的小样本目标识别问题主要有以下两种方法:
一是Jifang Pei,Yulin Huang,Weibo Huo等在论文“SAR Automatic TargetRecognition Based on Multiview Deep Learning Framework”中提出了一种多视深度网络模型用于解决SAR自动目标识别中训练数据不足的问题。该论文首先提出了一种数据增强方法,通过组合不同视角的SAR图像,获得了充足的训练样本。随后采用了并行的深度卷积网络结构以用于提取同一目标不同视角的SAR图像特征,同时每个视角学习得到的特征被逐步融合,该方法在相对较少的原始图像的基础上,实现的SAR图像中目标的准确分类,但该方法存在两方面的不足:一是采用简单的数据组合来扩充数据,训练数据之间相似性大;二是该方法用于训练的SAR图像相比于目前小样本识别问题中的数据量来说仍然较多。
二是Zhao Lin,Kefeng Ji,Miao Kang等在论文“Deep Convolutional HighwayUnit Network for SAR Target Classification With Limited Labeled TrainingData”中提出了一种基于受限标签数据的SAR目标分类方法。该方法通过堆叠高速卷积单元来提取图像的深度特征,更深的网络使得分类更加准确,同时在数量受限的训练数据上取得了不错的分类效果,但该方法仅仅考虑了通过加深网络层数来获得更好的识别效果,在小样本的情况下容易产生过拟合的问题。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于图注意力网络的小样本SAR目标识别方法,以在少量训练数据的前提下,获得对雷达目标较高的识别率,提升了识别性能。
实现本发明目的的技术方案包括如下步骤:
(1)选取包含雷达目标的N张SAR图像,对所有数据采用核尺寸为4×4的均值滤波器进行相干斑噪声抑制,得到降噪之后的N张SAR图像作为数据集,并分别按照5%和95%的比例划分为有标签的数据与无标签的数据,其中5%有标签的数据即为小样本SAR图像;
(2)设置用于提取SAR图像深度特征的自编码器,自编码器的输入为降噪后的SAR图像,输出为重建的SAR图像;
(3)利用输入SAR图像与重建SAR图像之间像素值的均方误差作为自编码器的误差函数loss1,并用包含雷达目标的N张SAR图像训练自编码器直至误差函数收敛,得到训练好的自编码器;
(4)将含5%有标签和95%无标签的数据输入到训练好的自编码器中,得到全部SAR图像的特征向量F={Fi},
Figure BDA0002344654640000021
i∈[1,N],其中,Fi为第i张SAR图像的特征向量,也称做第i个节点,p是Fi向量的维度,N是SAR图像的数量;
(5)根据每张SAR图像的标签构建节点标签矩阵
Figure BDA0002344654640000031
以及标签遮掩向量
Figure BDA0002344654640000032
并衡量每个节点之间的相似性,得到图结构数据的初始邻接矩阵
Figure BDA0002344654640000033
(6)设置用于更新图邻接矩阵W的子网络,该子网络的输入为初始的图邻接矩阵W,输出为更新后的图邻接矩阵E;
(7)设置用于预测节点标签的图注意力网络,该网络的输入分别为全部节点的特征向量F、更新后的图邻接矩阵E、节点标签矩阵L以及标签遮掩矩阵M,输出为预测的节点标签矩阵O;
(8)用遮掩的交叉熵损失函数作为图注意力网络的误差函数,利用数据集迭代图注意力网络,更新节点标签矩阵O,直至误差函数收敛得到最终预测的节点标签矩阵I;
(9)根据该节点标签矩阵I即可对数据集中无标签的SAR图像进行类别预测,即实现了对小样本SAR目标的识别。
本发明与现有技术相比具有以下优点:
1)利用少量已知类别的SAR目标,实现对大量未知类别目标的识别。
本发明在提取每张SAR图像的特征向量并初始化邻接矩阵后,即可利用少量已知类别的SAR目标对其余大量未知目标的类别进行预测,具有预测准确率高的优势。
2)结合图网络中的注意力机制提高了识别性能,使得算法计算复杂度低,迭代速度快。
本发明结合在节点标签预测中得到广泛应用的图网络,将SAR图像建模为图节点,并采用了注意力机制,使网络计算复杂度低,迭代速度快,可快速得到预测结果,提高了识别性能,具有实际工程应用的价值。
附图说明
图1是本发明的实现总流程图;
图2是本发明中的自编码器结构图;
图3是本发明中用于邻接矩阵更新的子网络结构图。
具体实施方式
下面结合附图对本发明的实施例做进一步描述。
参照图1,本发明的实施步骤如下:
步骤一,构造用于SAR小样本识别的数据集。
1a)从网上公开的MSTAR数据集中选取包含雷达目标的N张SAR图像作为数据集,对所有数据利用核尺寸为4×4的均值滤波器进行相干斑噪声抑制,得到降噪之后的SAR图像;
1b)将降噪之后的SAR图像按照5%、95%的比例划分为有标签的数据与无标签的数据。
步骤二,设置用于提取SAR图像深度特征的自编码器。
参照图2,该自编码器由一个编码器与一个解码器组成,自编码器的输入为降噪后的SAR图像,输出为重建的SAR图像;
所述编码器由五个卷积层、三个全连接层按顺序堆叠构成,其中五个卷积层输出特征图个数分别为8、16、32、64、128,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,三个全连接层输出维度分别为8192、4096、1024,除最后一个全连接层采用sigmoid非线性激活函数外,其余所有层均采用relu函数作为激活函数,两个激活函数可由如下公式表示:
Figure BDA0002344654640000041
Figure BDA0002344654640000042
该编码器的输入为降噪后的SAR图像,输出为提取得到的SAR图像特征向量;
所述解码器由两个全连接层、五个转置卷积层按顺序堆叠构成,其中两个全连接层的输出维度分别为4096、8192,激活函数为relu函数,五个转置卷积层输出的特征图个数分别为128、64、32、16、1,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,激活函数为leakyrelu函数并由如下公式表示:
Figure BDA0002344654640000043
该解码器的输入为提取得到的SAR图像特征向量,输出为重建得到的SAR图像。
步骤三,训练自编码器直至误差函数收敛,得到训练好的自编码器。
3a)将自编码器的误差函数loss1定义为输入SAR图像与重建SAR图像之间的均方误差,公式表示如下:
Figure BDA0002344654640000044
其中,m、n为图像的长与宽,x(i,j)为输入SAR图像的像素值,y(i,j)为重建SAR图像的像素值;
3b)将所有数据分批次输入自编码器中,每次计算均方误差并按梯度下降的训练方式迭代直至误差函数收敛,得到训练好的自编码器。
步骤四,将所有数据输入到训练好的自编码器中,得到全部SAR图像的特征向量F={Fi},
Figure BDA0002344654640000051
i∈[1,N],其中,p为第i张SAR图像的特征向量Fi的维度,N是SAR图像的数量。
步骤五,将SAR图像建模为图结构的数据。
5a)将每张SAR图像建模为一个节点,每个节点的特征即为步骤四中提取得到的特征向量Fi
5b)构建节点标签矩阵
Figure BDA0002344654640000052
将该节点标签矩阵的第i行即第i个节点所对应的标签记为li
Figure BDA0002344654640000053
v为总类别数;
5c)将节点分为有标签节点和无标签节点两大类,对于有标签节点采用one-hot编码方式得到节点标签li,对于无标签节点,节点标签为零向量01×v
5d)构建标签遮掩向量M∈RN,根据节点标签是否存在,获得标签遮掩向量M;
若第i个节点的标签存在,则Mi等于1,
若第i个节点的标签不存在,则Mi等于0,
其中Mi表示向量M中第i个值,i=1,2,...,N。
步骤六,衡量每个节点特征向量之间的相似性,得到图结构数据的初始邻接矩阵
Figure BDA0002344654640000054
6a)用邻接矩阵W中的wij值衡量第i个节点与第j个节点特征向量之间的相似性,wij值越大,则相似性越高,其中i∈[1,N],j∈[1,N],N为全部节点的数量;
6b)根据节点i与节点j的标签情况确定特征向量之间的相似性wij值的计算方法:
若节点i与节点j均是有标签的节点,则判断节点i与节点j是否属于同一类,若是则wij等于1,否则wij等于0;
若节点i与节点j中存在标签未知的节点,则按如下公式计算节点特征向量之间的相似性:
wij=|αij|(1-dij)exp(-dij/2),
其中,
Figure BDA0002344654640000061
为两节点特征向量的皮尔逊相关系数,Fi为节点i的特征向量,Fj为节点j的特征向量,
Figure BDA0002344654640000062
为Fi的均值,
Figure BDA0002344654640000063
为Fj的均值,
Figure BDA0002344654640000064
为两节点特征向量之间的归一化相关距离,cij=1-αij为两节点特征向量之间的相关距离。
步骤七,设置用于邻接矩阵更新的子网络。
参照图3,该子网络是由一个残差学习模块和一个卷积层按顺序堆叠构成,输入为初始邻接矩阵W,输出为更新后的邻接矩阵E;
所述残差学习模块包含三个卷积层,输出特征图个数分别为8、8、16,卷积核尺寸均为1×1,卷积核步长均为1×1;
所述卷积层,输出特征图个数为1、卷积核尺寸为1×1,卷积核步长为1×1;
该网络的输入为初始邻接矩阵W,卷积层的输出为Q,则该子网络更新后的邻接矩阵为E,可由如下公式表示:
E=Q+QT
其中T表示转置。
步骤八,构建用于节点标签预测的图注意力网络。
8a)将两个注意力层按顺序堆叠组成图注意力网络,其中第一个注意力层包含H种注意力机制,第二个注意力层包含1种注意力机制;
8b)第一个注意力层利用全部节点的特征向量F,计算得到节点i与节点j在第k个注意力机制下的注意力系数
Figure BDA0002344654640000065
Figure BDA0002344654640000066
其中,
Figure BDA0002344654640000071
为第k个注意力机制的权矩阵,q为汇聚得到的节点深度特征的维度,ak(·)为第k个注意力机制,激活函数为leakyrelu函数;
8d)根据图的邻接矩阵E,计算得到节点i与节点j在第k个注意力机制下的互相关系数
Figure BDA0002344654640000072
Figure BDA0002344654640000073
其中,Eij为邻接矩阵E中第i行第j列处的值,Eit为邻接矩阵为E中第i行第t列处的值;
8e)遍历全部的节点并汇聚H种注意力机制下的互相关系数,得到节点i经过第一个注意力层后提取得到的深度特征
Figure BDA0002344654640000074
公式如下:
Figure BDA0002344654640000075
其中,σ(·)为激活函数;
8f)第二个注意力层采用与第一个注意力层相同的方法进一步汇聚深度特征Ri,输出对节点i标签的预测值
Figure BDA0002344654640000076
公式表示如下:
Figure BDA0002344654640000077
其中,βij为在第二个注意力层中节点i与节点j的互相关系数,
Figure BDA0002344654640000078
为第二个注意力层中的权矩阵,softmax(·)为激活函数;
8g)将全部节点的特征向量F、图的邻接矩阵W、节点标签矩阵L以及标签遮掩矩阵M作为图注意力网络的输入,该网络的输出为预测得到的节点标签矩阵O。
步骤九,利用所有数据迭代图注意力网络,输出最终预测的节点标签矩阵I,实现对SAR图像中雷达目标的小样本识别。
9a)根据节点标签矩阵L与图注意力网络预测的节点标签矩阵O,计算得到不遮掩的交叉熵值J:
J=-L log(O);
9b)结合标签遮掩向量M,排除无标签节点的交叉熵值,得到遮掩的交叉熵损失函数loss2
loss2=mean[J⊙mean(M)],
其中,mean(·)表示求均值,⊙表示点乘运算;
9c)将遮掩的交叉熵损失函数loss2作为图注意力网络的损失函数,loss2的函数值反应了图注意力网络的预测标签与真实标签的差异,loss2的函数值越大则差异越大,将数据集送入到图注意力网络,采用梯度下降的训练方法,迭代训练图注意力网络直至交叉熵损失loss2值收敛,输出最终预测的节点标签矩阵I:
I=[I1,...,Ii,...IN]T,Ii∈Rv,i∈[1,N]
其中,Ii表示第i张SAR图像的预测标签向量。
本发明的效果可通过以下仿真进一步阐述:
1.仿真条件:
本实验的数据集为公开的MSTAR数据集,从中选取5类SAR图像,每类SAR图像有标签与无标签的样本数量,如表1所示。
表1 仿真条件
图像种类 有标签 无标签
2S1 10 200
BMP2_SN9563 10 200
BTR70_SNC71 10 200
D7 10 200
T72_SN132 10 200
从表1可见,各类SAR图像中有标签图像仅占无标签图像的5%,有标签样本数量十分稀少,利用少量有标签样本去识别大量无标签样本属于小样本识别任务。
2.仿真内容:
利用本发明,在仅知道少量有标签的样本下,预测大量无标签样本类别,预测结果如表2所示。
表2 仿真结果
Figure BDA0002344654640000091
从表2可见,本发明可利用少量已知类别的SAR目标对其余大量未知目标的类别进行预测,在5%已知标签的情况下,可以达到平均86%的识别率,具有预测准确率高的优势。

Claims (8)

1.一种基于图注意力网络的小样本SAR目标识别方法,其特征在于:
(1)选取包含雷达目标的N张SAR图像,对所有数据利用核尺寸为4×4的均值滤波器进行相干斑噪声抑制,得到降噪之后的N张SAR图像作为数据集,并分别按照5%和95%的比例划分为有标签的数据与无标签的数据,其中5%有标签的数据即为小样本SAR图像;
(2)设置用于提取SAR图像深度特征的自编码器,自编码器的输入为降噪后的SAR图像,输出为重建的SAR图像;
(3)利用输入SAR图像与重建SAR图像之间像素值的均方误差作为自编码器的误差函数loss1,并用包含雷达目标的N张SAR图像训练自编码器直至误差函数收敛,得到训练好的自编码器;
(4)将含5%有标签和95%无标签的数据输入到训练好的自编码器中,得到全部SAR图像的特征向量F={Fi},
Figure FDA0002344654630000011
i∈[1,N],其中,Fi为第i张SAR图像的特征向量,也称做第i个节点的特征,p是Fi向量的维度,N是SAR图像的数量;
(5)根据每张SAR图像的标签构建节点标签矩阵
Figure FDA0002344654630000012
以及标签遮掩向量
Figure FDA0002344654630000013
并衡量每个节点之间的相似性,得到图结构数据的初始邻接矩阵
Figure FDA0002344654630000014
(6)设置用于更新图邻接矩阵W的子网络,该子网络的输入为初始的图邻接矩阵W,输出为更新后的图邻接矩阵E;
(7)设置用于预测节点标签的图注意力网络,该网络的输入分别为全部节点的特征向量F、更新后的图邻接矩阵E、节点标签矩阵L以及标签遮掩向量M,输出为预测的节点标签矩阵O;
(8)用遮掩的交叉熵损失函数作为图注意力网络的误差函数,利用数据集迭代图注意力网络,,直至误差函数收敛得到最终预测的节点标签矩阵I;
(9)根据该节点标签矩阵I即可对数据集中无标签的SAR图像进行类别预测,即实现了小样本情况下SAR目标的识别。
2.根据权利要求1所述的方法,其中(2)中用于提取SAR图像深度特征的自编码器是由一个编码器与一个解码器组成;
所述编码器,其由五个卷积层、三个全连接层按顺序堆叠构成,其中五个卷积层输出特征图个数分别为8、16、32、64、128,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,三个全连接层输出维度分别为8192、4096、1024,除最后一个全连接层采用sigmoid非线性激活函数外,其余所有层均采用relu函数作为激活函数;两个激活函数可由如下公式表示:
Figure FDA0002344654630000021
Figure FDA0002344654630000022
其中,x表示自变量,e-x表示以自然数e≈2.718为底的指数函数;该编码器的输入为降噪后的SAR图像,输出为提取得到的SAR图像特征向量F;
所述解码器,其由两个全连接层、五个转置卷积层按顺序堆叠构成,其中两个全连接层的输出维度分别为4096、8192,激活函数为relu函数,五个转置卷积层输出特征图个数分别为128、64、32、16、1,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,激活函数为leakyrelu函数并由如下公式表示:
Figure FDA0002344654630000023
其中,x表示自变量;该解码器的输入为提取得到的SAR图像特征向量,输出为重建得到的SAR图像。
3.根据权利要求1所述的方法,其中(3)中自编码器的误差函数loss1,表示如下:
Figure FDA0002344654630000024
其中,m、n为图像的长与宽,x(i,j)为输入SAR图像的像素值,y(i,j)为重建SAR图像的像素值。
4.根据权利要求1所述的方法,其中(5)中构建节点标签矩阵
Figure FDA0002344654630000031
以及标签遮掩向量
Figure FDA0002344654630000032
其实现如下:
5a)设节点标签为SAR图像对应的标签,其分为有标签节点和无标签节点两大类,且节点标签矩阵
Figure FDA0002344654630000033
的第i行为第i个节点对应的标签
Figure FDA0002344654630000034
i=1,2,...,N,其中v为总类别数;
5b)根据节点所属的类别获得节点标签li
对有标签节点,采用one-hot编码方式得到节点标签li
对无标签节点,节点标签li为零向量01×v
5c)根据节点标签是否存在获得标签遮掩向量M:
若第i个节点的标签存在,则Mi等于1,
若第i个节点的标签不存在,则Mi等于0,
其中Mi表示向量M中第i个值,i=1,2,...,N。
5.根据权利要求1所述的方法,其中(5)中衡量每个节点特征向量之间的相似性,得到图结构数据的初始邻接矩阵
Figure FDA0002344654630000035
其实现如下:
5d)用邻接矩阵W中的任意一个值wij衡量节点i与节点j特征向量之间的相似性,其中i∈[1,N],j∈[1,N],N为全部节点的数量;
5e)根据节点i与节点j的标签情况,确定节点i与节点j特征向量之间相似性wij的计算方法:
如果节点i与节点j均是有标签的节点,则判断节点i与节点j的标签的类别,若两节点标签属于同一类,则wij等于1,否则wij等于0;
如果节点i与节点j不都是有标签的节点,则按如下公式计算节点特征向量之间的相似性wij
wij=|αij|(1-dij)exp(-dij/2),
其中,
Figure FDA0002344654630000041
为两节点特征向量的皮尔逊相关系数,Fi为节点i的特征向量,Fj为节点j的特征向量,
Figure FDA0002344654630000042
为Fi的均值,
Figure FDA0002344654630000043
为Fj的均值,
Figure FDA0002344654630000044
为两节点特征向量之间的归一化相关距离,cij=1-αij为两节点特征向量之间的相关距离。
6.根据权利要求1所述的方法,(6)中用于更新图邻接矩阵W的子网络,该子网络是由一个残差学习模块和一个卷积层按顺序堆叠构成,所述残差学习模块包含三个卷积层,该三个卷积层输出特征图个数分别为8、8、16,卷积核尺寸均为1×1,卷积核步长均为1×1,残差学习模块后的卷积层,输出特征图个数为1、卷积核尺寸为1×1,卷积核步长为1×1;该子网络更新后的邻接矩阵E表示如下:
E=Q+QT
其中Q为卷积层的输出,T表示转置。
7.据权利要求1所述的方法,其中(7)中设置用于节点标签预测的图注意力网络,其实现如下:
7a)将两个注意力层按顺序堆叠组成图注意力网络,其中第一个注意力层包含H种注意力机制,第二个注意力层包含1种注意力机制;
7b)第一个注意力层利用全部节点的特征向量F,计算得到节点i与节点j在第k个注意力机制下的注意力系数
Figure FDA0002344654630000045
Figure FDA0002344654630000046
其中,
Figure FDA0002344654630000047
为第k个注意力机制的权矩阵,Fi为第i个节点的特征向量,Fj为第j个节点的特征向量,q为汇聚得到的节点深度特征维度,p是节点特征向量维度,ak(·)为第k个注意力机制,leakyrelu为激活函数;
7c)根据图的邻接矩阵E,计算得到节点i与节点j在第k个注意力机制下的互相关系数
Figure FDA0002344654630000048
Figure FDA0002344654630000051
其中,Eij为邻接矩阵E中第i行第j列处的值,Eit为邻接矩阵E中第i行第t列处的值;
7d)遍历全部的节点并汇聚H种注意力机制下的互相关系数,得到节点i经过第一个注意力层后提取得到的深度特征
Figure FDA0002344654630000052
公式表示如下:
Figure FDA0002344654630000053
其中,σ(·)为激活函数;
7e)第二个注意力层采用与第一个注意力层相同的方法进一步汇聚深度特征Ri,并输出对节点i标签的预测值
Figure FDA0002344654630000054
公式表示如下:
Figure FDA0002344654630000055
其中,βij为在第二个注意力层中节点i与节点j的互相关系数,
Figure FDA0002344654630000056
为第二个注意力层中的权矩阵,softmax(·)为激活函数。
8.据权利要求1所述的方法,其中(8)中利用数据集迭代图注意力网络,其实现如下:
8a)根据节点标签矩阵L与每次迭代中图注意力网络预测的节点标签矩阵O,计算得到不遮掩的交叉熵值J:
J=-L log(O);
8b)根据标签遮掩矩阵M和无标签节点的交叉熵值J,得到遮掩的交叉熵损失loss2
loss2=mean[J⊙mean(M)],
其中,mean(·)表示求均值,⊙表示点乘运算;
8c)将数据集送入图注意力网络,采用梯度下降的训练方法,迭代训练图注意力网络直至交叉熵损失loss2值收敛,输出最终预测的节点标签矩阵I:
I=[I1,...,Ii,...IN]T,Ii∈Rv,i∈[1,N],
其中,Ii表示第i张SAR图像的预测标签向量。
CN201911389856.1A 2019-12-30 2019-12-30 基于图注意力网络的小样本sar目标识别方法 Active CN111191718B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911389856.1A CN111191718B (zh) 2019-12-30 2019-12-30 基于图注意力网络的小样本sar目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911389856.1A CN111191718B (zh) 2019-12-30 2019-12-30 基于图注意力网络的小样本sar目标识别方法

Publications (2)

Publication Number Publication Date
CN111191718A CN111191718A (zh) 2020-05-22
CN111191718B true CN111191718B (zh) 2023-04-07

Family

ID=70707777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911389856.1A Active CN111191718B (zh) 2019-12-30 2019-12-30 基于图注意力网络的小样本sar目标识别方法

Country Status (1)

Country Link
CN (1) CN111191718B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881957B (zh) * 2020-07-15 2022-09-23 中国科学院自动化研究所 基于信息导向注意力网络的图像识别方法、系统及装置
CN112085124B (zh) * 2020-09-27 2022-08-09 西安交通大学 一种基于图注意力网络的复杂网络节点分类方法
CN112784173B (zh) * 2021-02-26 2022-06-10 电子科技大学 一种基于自注意力对抗神经网络的推荐系统评分预测方法
CN112906720B (zh) * 2021-03-19 2022-03-22 河北工业大学 基于图注意力网络的多标签图像识别方法
CN113095416B (zh) * 2021-04-16 2023-08-18 西安电子科技大学 基于混合损失与图注意力的小样本sar目标分类方法
CN113378962B (zh) * 2021-06-24 2023-06-30 中山大学 一种基于图注意力网络的服装属性识别方法与系统
CN113537240B (zh) * 2021-07-09 2023-09-05 北方工业大学 一种基于雷达序列图像的形变区智能提取方法及系统
CN115983391A (zh) * 2022-02-07 2023-04-18 上海图灵智算量子科技有限公司 一种基于量子线路的图注意力机制实现装置
CN117541720B (zh) * 2023-11-14 2024-04-19 吉林省鑫科测绘有限公司 一种不动产测绘方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296692A (zh) * 2016-08-11 2017-01-04 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法
CN109934282B (zh) * 2019-03-08 2022-05-31 哈尔滨工程大学 一种基于sagan样本扩充和辅助信息的sar目标分类方法

Also Published As

Publication number Publication date
CN111191718A (zh) 2020-05-22

Similar Documents

Publication Publication Date Title
CN111191718B (zh) 基于图注意力网络的小样本sar目标识别方法
CN109508655B (zh) 基于孪生网络的不完备训练集的sar目标识别方法
CN109919108B (zh) 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN110532859B (zh) 基于深度进化剪枝卷积网的遥感图像目标检测方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN111461258B (zh) 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法
CN109886066B (zh) 基于多尺度和多层特征融合的快速目标检测方法
CN108388896B (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN109214452B (zh) 基于注意深度双向循环神经网络的hrrp目标识别方法
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN108921877B (zh) 一种基于宽度学习的长期目标跟踪方法
CN109523013B (zh) 基于浅层卷积神经网络的空气颗粒物污染程度估计方法
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
CN109726748B (zh) 一种基于频带特征融合的gl-cnn遥感图像场景分类方法
CN108229551B (zh) 一种基于紧凑字典稀疏表示的高光谱遥感图像分类方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN112364747B (zh) 一种有限样本下的目标检测方法
CN109872331A (zh) 一种基于深度学习的遥感图像数据自动识别分类方法
CN111079847A (zh) 一种基于深度学习的遥感影像自动标注方法
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN115049945B (zh) 一种基于无人机图像的小麦倒伏面积提取方法和装置
CN113408398A (zh) 基于通道注意力及概率上采样的遥感图像云检测方法
CN107292268A (zh) 快速脊波反卷积结构学习模型的sar图像语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant