CN111191718B - 基于图注意力网络的小样本sar目标识别方法 - Google Patents
基于图注意力网络的小样本sar目标识别方法 Download PDFInfo
- Publication number
- CN111191718B CN111191718B CN201911389856.1A CN201911389856A CN111191718B CN 111191718 B CN111191718 B CN 111191718B CN 201911389856 A CN201911389856 A CN 201911389856A CN 111191718 B CN111191718 B CN 111191718B
- Authority
- CN
- China
- Prior art keywords
- node
- label
- sar
- attention
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于图注意力网络的SAR目标小样本识别方法,主要解决现有技术在训练数据缺乏情况下识别率较差的问题,其方案是:选取包含雷达目标的SAR图像,抑制其相干斑噪声,并将降噪后的SAR图像划分为有标签的数据和无标签的数据;利用降噪后的图像训练自编码器,得到全部SAR图像的特征向量;在有少量标签数据的前提下,利用向量相似性得到初始邻接矩阵;设置图注意力网络,并利用所有特征向量迭代训练图注意力网络,直至该网络的误差函数收敛,输出最终预测的节点标签矩阵,实现无标签数据的识别。本发明能利用少量已知类别的SAR目标对其余大量未知目标的类别进行预测,且预测准确率高,可用于小样本情况下的雷达目标识别。
Description
技术领域
本发明属于图像处理技术领域,特别涉及一种小样本SAR目标识别方法,可用于在少量训练样本的前提下准确地识别雷达目标。
背景技术
随着合成孔径雷达技术的快速发展与进步,SAR图像的分辨率变得越来越高,其分辨率已从早期的中低分辨发展为高分辨和超高分辨。高分辨SAR图像的产生不仅改善了传统低分辨SAR图像信息量不足的缺点,而且推动了对SAR图像处理的研究。基于SAR图像的目标识别是SAR图像处理领域的重要应用之一,已被广泛应用于海洋或陆地的监测与探测。
由于高分辨和中低分辨SAR图像的特征差异性,导致某些适用于中低分辨的目标识别方法不能用于高分辨的图像分类。另外,由于传统的机器学习分类方法其能力相对较弱,以及SAR图像自身相干斑噪声的干扰,使得SAR图像分类的准确度较低,无法满足实际应用的需求。近些年来,深度学习作为新兴的机器学习分类方法,以高精度的分类能力受到了广泛的关注。特别是在光学图像分类以及目标识别任务上获得了远超传统分类器的效果。但是基于深度学习的SAR图像分类与目标识别无法满足实际的应用需求,面临的主要问题是训练数据较为缺乏。训练数据在基于深度学习的算法中至关重要,其选取的数量与质量直接影响深度网络训练的优劣,进而影响对SAR图像分类的精度。在大多数情况下,深度学习参数训练不足都是由于训练数据缺乏导致的。
为了解决训练样本不足带来的问题,诸多数据增强方法以及基于小样本训练的雷达目标识别算法被提出。目前,针对SAR图像中的小样本目标识别问题主要有以下两种方法:
一是Jifang Pei,Yulin Huang,Weibo Huo等在论文“SAR Automatic TargetRecognition Based on Multiview Deep Learning Framework”中提出了一种多视深度网络模型用于解决SAR自动目标识别中训练数据不足的问题。该论文首先提出了一种数据增强方法,通过组合不同视角的SAR图像,获得了充足的训练样本。随后采用了并行的深度卷积网络结构以用于提取同一目标不同视角的SAR图像特征,同时每个视角学习得到的特征被逐步融合,该方法在相对较少的原始图像的基础上,实现的SAR图像中目标的准确分类,但该方法存在两方面的不足:一是采用简单的数据组合来扩充数据,训练数据之间相似性大;二是该方法用于训练的SAR图像相比于目前小样本识别问题中的数据量来说仍然较多。
二是Zhao Lin,Kefeng Ji,Miao Kang等在论文“Deep Convolutional HighwayUnit Network for SAR Target Classification With Limited Labeled TrainingData”中提出了一种基于受限标签数据的SAR目标分类方法。该方法通过堆叠高速卷积单元来提取图像的深度特征,更深的网络使得分类更加准确,同时在数量受限的训练数据上取得了不错的分类效果,但该方法仅仅考虑了通过加深网络层数来获得更好的识别效果,在小样本的情况下容易产生过拟合的问题。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于图注意力网络的小样本SAR目标识别方法,以在少量训练数据的前提下,获得对雷达目标较高的识别率,提升了识别性能。
实现本发明目的的技术方案包括如下步骤:
(1)选取包含雷达目标的N张SAR图像,对所有数据采用核尺寸为4×4的均值滤波器进行相干斑噪声抑制,得到降噪之后的N张SAR图像作为数据集,并分别按照5%和95%的比例划分为有标签的数据与无标签的数据,其中5%有标签的数据即为小样本SAR图像;
(2)设置用于提取SAR图像深度特征的自编码器,自编码器的输入为降噪后的SAR图像,输出为重建的SAR图像;
(3)利用输入SAR图像与重建SAR图像之间像素值的均方误差作为自编码器的误差函数loss1,并用包含雷达目标的N张SAR图像训练自编码器直至误差函数收敛,得到训练好的自编码器;
(4)将含5%有标签和95%无标签的数据输入到训练好的自编码器中,得到全部SAR图像的特征向量F={Fi},i∈[1,N],其中,Fi为第i张SAR图像的特征向量,也称做第i个节点,p是Fi向量的维度,N是SAR图像的数量;
(6)设置用于更新图邻接矩阵W的子网络,该子网络的输入为初始的图邻接矩阵W,输出为更新后的图邻接矩阵E;
(7)设置用于预测节点标签的图注意力网络,该网络的输入分别为全部节点的特征向量F、更新后的图邻接矩阵E、节点标签矩阵L以及标签遮掩矩阵M,输出为预测的节点标签矩阵O;
(8)用遮掩的交叉熵损失函数作为图注意力网络的误差函数,利用数据集迭代图注意力网络,更新节点标签矩阵O,直至误差函数收敛得到最终预测的节点标签矩阵I;
(9)根据该节点标签矩阵I即可对数据集中无标签的SAR图像进行类别预测,即实现了对小样本SAR目标的识别。
本发明与现有技术相比具有以下优点:
1)利用少量已知类别的SAR目标,实现对大量未知类别目标的识别。
本发明在提取每张SAR图像的特征向量并初始化邻接矩阵后,即可利用少量已知类别的SAR目标对其余大量未知目标的类别进行预测,具有预测准确率高的优势。
2)结合图网络中的注意力机制提高了识别性能,使得算法计算复杂度低,迭代速度快。
本发明结合在节点标签预测中得到广泛应用的图网络,将SAR图像建模为图节点,并采用了注意力机制,使网络计算复杂度低,迭代速度快,可快速得到预测结果,提高了识别性能,具有实际工程应用的价值。
附图说明
图1是本发明的实现总流程图;
图2是本发明中的自编码器结构图;
图3是本发明中用于邻接矩阵更新的子网络结构图。
具体实施方式
下面结合附图对本发明的实施例做进一步描述。
参照图1,本发明的实施步骤如下:
步骤一,构造用于SAR小样本识别的数据集。
1a)从网上公开的MSTAR数据集中选取包含雷达目标的N张SAR图像作为数据集,对所有数据利用核尺寸为4×4的均值滤波器进行相干斑噪声抑制,得到降噪之后的SAR图像;
1b)将降噪之后的SAR图像按照5%、95%的比例划分为有标签的数据与无标签的数据。
步骤二,设置用于提取SAR图像深度特征的自编码器。
参照图2,该自编码器由一个编码器与一个解码器组成,自编码器的输入为降噪后的SAR图像,输出为重建的SAR图像;
所述编码器由五个卷积层、三个全连接层按顺序堆叠构成,其中五个卷积层输出特征图个数分别为8、16、32、64、128,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,三个全连接层输出维度分别为8192、4096、1024,除最后一个全连接层采用sigmoid非线性激活函数外,其余所有层均采用relu函数作为激活函数,两个激活函数可由如下公式表示:
该编码器的输入为降噪后的SAR图像,输出为提取得到的SAR图像特征向量;
所述解码器由两个全连接层、五个转置卷积层按顺序堆叠构成,其中两个全连接层的输出维度分别为4096、8192,激活函数为relu函数,五个转置卷积层输出的特征图个数分别为128、64、32、16、1,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,激活函数为leakyrelu函数并由如下公式表示:
该解码器的输入为提取得到的SAR图像特征向量,输出为重建得到的SAR图像。
步骤三,训练自编码器直至误差函数收敛,得到训练好的自编码器。
3a)将自编码器的误差函数loss1定义为输入SAR图像与重建SAR图像之间的均方误差,公式表示如下:
其中,m、n为图像的长与宽,x(i,j)为输入SAR图像的像素值,y(i,j)为重建SAR图像的像素值;
3b)将所有数据分批次输入自编码器中,每次计算均方误差并按梯度下降的训练方式迭代直至误差函数收敛,得到训练好的自编码器。
步骤五,将SAR图像建模为图结构的数据。
5a)将每张SAR图像建模为一个节点,每个节点的特征即为步骤四中提取得到的特征向量Fi;
5c)将节点分为有标签节点和无标签节点两大类,对于有标签节点采用one-hot编码方式得到节点标签li,对于无标签节点,节点标签为零向量01×v;
5d)构建标签遮掩向量M∈RN,根据节点标签是否存在,获得标签遮掩向量M;
若第i个节点的标签存在,则Mi等于1,
若第i个节点的标签不存在,则Mi等于0,
其中Mi表示向量M中第i个值,i=1,2,...,N。
步骤六,衡量每个节点特征向量之间的相似性,得到图结构数据的初始邻接矩阵
6a)用邻接矩阵W中的wij值衡量第i个节点与第j个节点特征向量之间的相似性,wij值越大,则相似性越高,其中i∈[1,N],j∈[1,N],N为全部节点的数量;
6b)根据节点i与节点j的标签情况确定特征向量之间的相似性wij值的计算方法:
若节点i与节点j均是有标签的节点,则判断节点i与节点j是否属于同一类,若是则wij等于1,否则wij等于0;
若节点i与节点j中存在标签未知的节点,则按如下公式计算节点特征向量之间的相似性:
wij=|αij|(1-dij)exp(-dij/2),
其中,为两节点特征向量的皮尔逊相关系数,Fi为节点i的特征向量,Fj为节点j的特征向量,为Fi的均值,为Fj的均值,为两节点特征向量之间的归一化相关距离,cij=1-αij为两节点特征向量之间的相关距离。
步骤七,设置用于邻接矩阵更新的子网络。
参照图3,该子网络是由一个残差学习模块和一个卷积层按顺序堆叠构成,输入为初始邻接矩阵W,输出为更新后的邻接矩阵E;
所述残差学习模块包含三个卷积层,输出特征图个数分别为8、8、16,卷积核尺寸均为1×1,卷积核步长均为1×1;
所述卷积层,输出特征图个数为1、卷积核尺寸为1×1,卷积核步长为1×1;
该网络的输入为初始邻接矩阵W,卷积层的输出为Q,则该子网络更新后的邻接矩阵为E,可由如下公式表示:
E=Q+QT,
其中T表示转置。
步骤八,构建用于节点标签预测的图注意力网络。
8a)将两个注意力层按顺序堆叠组成图注意力网络,其中第一个注意力层包含H种注意力机制,第二个注意力层包含1种注意力机制;
其中,Eij为邻接矩阵E中第i行第j列处的值,Eit为邻接矩阵为E中第i行第t列处的值;
其中,σ(·)为激活函数;
8g)将全部节点的特征向量F、图的邻接矩阵W、节点标签矩阵L以及标签遮掩矩阵M作为图注意力网络的输入,该网络的输出为预测得到的节点标签矩阵O。
步骤九,利用所有数据迭代图注意力网络,输出最终预测的节点标签矩阵I,实现对SAR图像中雷达目标的小样本识别。
9a)根据节点标签矩阵L与图注意力网络预测的节点标签矩阵O,计算得到不遮掩的交叉熵值J:
J=-L log(O);
9b)结合标签遮掩向量M,排除无标签节点的交叉熵值,得到遮掩的交叉熵损失函数loss2:
loss2=mean[J⊙mean(M)],
其中,mean(·)表示求均值,⊙表示点乘运算;
9c)将遮掩的交叉熵损失函数loss2作为图注意力网络的损失函数,loss2的函数值反应了图注意力网络的预测标签与真实标签的差异,loss2的函数值越大则差异越大,将数据集送入到图注意力网络,采用梯度下降的训练方法,迭代训练图注意力网络直至交叉熵损失loss2值收敛,输出最终预测的节点标签矩阵I:
I=[I1,...,Ii,...IN]T,Ii∈Rv,i∈[1,N]
其中,Ii表示第i张SAR图像的预测标签向量。
本发明的效果可通过以下仿真进一步阐述:
1.仿真条件:
本实验的数据集为公开的MSTAR数据集,从中选取5类SAR图像,每类SAR图像有标签与无标签的样本数量,如表1所示。
表1 仿真条件
图像种类 | 有标签 | 无标签 |
2S1 | 10 | 200 |
BMP2_SN9563 | 10 | 200 |
BTR70_SNC71 | 10 | 200 |
D7 | 10 | 200 |
T72_SN132 | 10 | 200 |
从表1可见,各类SAR图像中有标签图像仅占无标签图像的5%,有标签样本数量十分稀少,利用少量有标签样本去识别大量无标签样本属于小样本识别任务。
2.仿真内容:
利用本发明,在仅知道少量有标签的样本下,预测大量无标签样本类别,预测结果如表2所示。
表2 仿真结果
从表2可见,本发明可利用少量已知类别的SAR目标对其余大量未知目标的类别进行预测,在5%已知标签的情况下,可以达到平均86%的识别率,具有预测准确率高的优势。
Claims (8)
1.一种基于图注意力网络的小样本SAR目标识别方法,其特征在于:
(1)选取包含雷达目标的N张SAR图像,对所有数据利用核尺寸为4×4的均值滤波器进行相干斑噪声抑制,得到降噪之后的N张SAR图像作为数据集,并分别按照5%和95%的比例划分为有标签的数据与无标签的数据,其中5%有标签的数据即为小样本SAR图像;
(2)设置用于提取SAR图像深度特征的自编码器,自编码器的输入为降噪后的SAR图像,输出为重建的SAR图像;
(3)利用输入SAR图像与重建SAR图像之间像素值的均方误差作为自编码器的误差函数loss1,并用包含雷达目标的N张SAR图像训练自编码器直至误差函数收敛,得到训练好的自编码器;
(4)将含5%有标签和95%无标签的数据输入到训练好的自编码器中,得到全部SAR图像的特征向量F={Fi},i∈[1,N],其中,Fi为第i张SAR图像的特征向量,也称做第i个节点的特征,p是Fi向量的维度,N是SAR图像的数量;
(6)设置用于更新图邻接矩阵W的子网络,该子网络的输入为初始的图邻接矩阵W,输出为更新后的图邻接矩阵E;
(7)设置用于预测节点标签的图注意力网络,该网络的输入分别为全部节点的特征向量F、更新后的图邻接矩阵E、节点标签矩阵L以及标签遮掩向量M,输出为预测的节点标签矩阵O;
(8)用遮掩的交叉熵损失函数作为图注意力网络的误差函数,利用数据集迭代图注意力网络,,直至误差函数收敛得到最终预测的节点标签矩阵I;
(9)根据该节点标签矩阵I即可对数据集中无标签的SAR图像进行类别预测,即实现了小样本情况下SAR目标的识别。
2.根据权利要求1所述的方法,其中(2)中用于提取SAR图像深度特征的自编码器是由一个编码器与一个解码器组成;
所述编码器,其由五个卷积层、三个全连接层按顺序堆叠构成,其中五个卷积层输出特征图个数分别为8、16、32、64、128,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,三个全连接层输出维度分别为8192、4096、1024,除最后一个全连接层采用sigmoid非线性激活函数外,其余所有层均采用relu函数作为激活函数;两个激活函数可由如下公式表示:
其中,x表示自变量,e-x表示以自然数e≈2.718为底的指数函数;该编码器的输入为降噪后的SAR图像,输出为提取得到的SAR图像特征向量F;
所述解码器,其由两个全连接层、五个转置卷积层按顺序堆叠构成,其中两个全连接层的输出维度分别为4096、8192,激活函数为relu函数,五个转置卷积层输出特征图个数分别为128、64、32、16、1,卷积核尺寸分别为1×1、2×2、2×2、2×2、2×2,卷积核步长分别为1×1、2×2、2×2、2×2、2×2,激活函数为leakyrelu函数并由如下公式表示:
其中,x表示自变量;该解码器的输入为提取得到的SAR图像特征向量,输出为重建得到的SAR图像。
5d)用邻接矩阵W中的任意一个值wij衡量节点i与节点j特征向量之间的相似性,其中i∈[1,N],j∈[1,N],N为全部节点的数量;
5e)根据节点i与节点j的标签情况,确定节点i与节点j特征向量之间相似性wij的计算方法:
如果节点i与节点j均是有标签的节点,则判断节点i与节点j的标签的类别,若两节点标签属于同一类,则wij等于1,否则wij等于0;
如果节点i与节点j不都是有标签的节点,则按如下公式计算节点特征向量之间的相似性wij:
wij=|αij|(1-dij)exp(-dij/2),
6.根据权利要求1所述的方法,(6)中用于更新图邻接矩阵W的子网络,该子网络是由一个残差学习模块和一个卷积层按顺序堆叠构成,所述残差学习模块包含三个卷积层,该三个卷积层输出特征图个数分别为8、8、16,卷积核尺寸均为1×1,卷积核步长均为1×1,残差学习模块后的卷积层,输出特征图个数为1、卷积核尺寸为1×1,卷积核步长为1×1;该子网络更新后的邻接矩阵E表示如下:
E=Q+QT;
其中Q为卷积层的输出,T表示转置。
7.据权利要求1所述的方法,其中(7)中设置用于节点标签预测的图注意力网络,其实现如下:
7a)将两个注意力层按顺序堆叠组成图注意力网络,其中第一个注意力层包含H种注意力机制,第二个注意力层包含1种注意力机制;
其中,为第k个注意力机制的权矩阵,Fi为第i个节点的特征向量,Fj为第j个节点的特征向量,q为汇聚得到的节点深度特征维度,p是节点特征向量维度,ak(·)为第k个注意力机制,leakyrelu为激活函数;
其中,Eij为邻接矩阵E中第i行第j列处的值,Eit为邻接矩阵E中第i行第t列处的值;
其中,σ(·)为激活函数;
8.据权利要求1所述的方法,其中(8)中利用数据集迭代图注意力网络,其实现如下:
8a)根据节点标签矩阵L与每次迭代中图注意力网络预测的节点标签矩阵O,计算得到不遮掩的交叉熵值J:
J=-L log(O);
8b)根据标签遮掩矩阵M和无标签节点的交叉熵值J,得到遮掩的交叉熵损失loss2:
loss2=mean[J⊙mean(M)],
其中,mean(·)表示求均值,⊙表示点乘运算;
8c)将数据集送入图注意力网络,采用梯度下降的训练方法,迭代训练图注意力网络直至交叉熵损失loss2值收敛,输出最终预测的节点标签矩阵I:
I=[I1,...,Ii,...IN]T,Ii∈Rv,i∈[1,N],
其中,Ii表示第i张SAR图像的预测标签向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911389856.1A CN111191718B (zh) | 2019-12-30 | 2019-12-30 | 基于图注意力网络的小样本sar目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911389856.1A CN111191718B (zh) | 2019-12-30 | 2019-12-30 | 基于图注意力网络的小样本sar目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111191718A CN111191718A (zh) | 2020-05-22 |
CN111191718B true CN111191718B (zh) | 2023-04-07 |
Family
ID=70707777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911389856.1A Active CN111191718B (zh) | 2019-12-30 | 2019-12-30 | 基于图注意力网络的小样本sar目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111191718B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881957B (zh) * | 2020-07-15 | 2022-09-23 | 中国科学院自动化研究所 | 基于信息导向注意力网络的图像识别方法、系统及装置 |
CN112085124B (zh) * | 2020-09-27 | 2022-08-09 | 西安交通大学 | 一种基于图注意力网络的复杂网络节点分类方法 |
CN112784173B (zh) * | 2021-02-26 | 2022-06-10 | 电子科技大学 | 一种基于自注意力对抗神经网络的推荐系统评分预测方法 |
CN112906720B (zh) * | 2021-03-19 | 2022-03-22 | 河北工业大学 | 基于图注意力网络的多标签图像识别方法 |
CN113095416B (zh) * | 2021-04-16 | 2023-08-18 | 西安电子科技大学 | 基于混合损失与图注意力的小样本sar目标分类方法 |
CN113378962B (zh) * | 2021-06-24 | 2023-06-30 | 中山大学 | 一种基于图注意力网络的服装属性识别方法与系统 |
CN113537240B (zh) * | 2021-07-09 | 2023-09-05 | 北方工业大学 | 一种基于雷达序列图像的形变区智能提取方法及系统 |
CN115983391A (zh) * | 2022-02-07 | 2023-04-18 | 上海图灵智算量子科技有限公司 | 一种基于量子线路的图注意力机制实现装置 |
CN117541720B (zh) * | 2023-11-14 | 2024-04-19 | 吉林省鑫科测绘有限公司 | 一种不动产测绘方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296692A (zh) * | 2016-08-11 | 2017-01-04 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN108921029A (zh) * | 2018-06-04 | 2018-11-30 | 浙江大学 | 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法 |
CN109934282B (zh) * | 2019-03-08 | 2022-05-31 | 哈尔滨工程大学 | 一种基于sagan样本扩充和辅助信息的sar目标分类方法 |
-
2019
- 2019-12-30 CN CN201911389856.1A patent/CN111191718B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111191718A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191718B (zh) | 基于图注意力网络的小样本sar目标识别方法 | |
CN109508655B (zh) | 基于孪生网络的不完备训练集的sar目标识别方法 | |
CN109919108B (zh) | 基于深度哈希辅助网络的遥感图像快速目标检测方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN110532859B (zh) | 基于深度进化剪枝卷积网的遥感图像目标检测方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN111461258B (zh) | 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 | |
CN109886066B (zh) | 基于多尺度和多层特征融合的快速目标检测方法 | |
CN108388896B (zh) | 一种基于动态时序卷积神经网络的车牌识别方法 | |
CN109214452B (zh) | 基于注意深度双向循环神经网络的hrrp目标识别方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN111753828B (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN108921877B (zh) | 一种基于宽度学习的长期目标跟踪方法 | |
CN109523013B (zh) | 基于浅层卷积神经网络的空气颗粒物污染程度估计方法 | |
CN108038435B (zh) | 一种基于卷积神经网络的特征提取与目标跟踪方法 | |
CN109726748B (zh) | 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 | |
CN108229551B (zh) | 一种基于紧凑字典稀疏表示的高光谱遥感图像分类方法 | |
CN111160249A (zh) | 基于跨尺度特征融合的光学遥感图像多类目标检测方法 | |
CN112364747B (zh) | 一种有限样本下的目标检测方法 | |
CN109872331A (zh) | 一种基于深度学习的遥感图像数据自动识别分类方法 | |
CN111079847A (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
CN111639697B (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
CN115049945B (zh) | 一种基于无人机图像的小麦倒伏面积提取方法和装置 | |
CN113408398A (zh) | 基于通道注意力及概率上采样的遥感图像云检测方法 | |
CN107292268A (zh) | 快速脊波反卷积结构学习模型的sar图像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |