CN113420593A - 基于混合推理网络的小样本sar自动目标识别方法 - Google Patents

基于混合推理网络的小样本sar自动目标识别方法 Download PDF

Info

Publication number
CN113420593A
CN113420593A CN202110546401.7A CN202110546401A CN113420593A CN 113420593 A CN113420593 A CN 113420593A CN 202110546401 A CN202110546401 A CN 202110546401A CN 113420593 A CN113420593 A CN 113420593A
Authority
CN
China
Prior art keywords
training
sar
network
inference
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110546401.7A
Other languages
English (en)
Other versions
CN113420593B (zh
Inventor
周峰
张倩蓉
王力
田甜
白雪茹
王常龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110546401.7A priority Critical patent/CN113420593B/zh
Publication of CN113420593A publication Critical patent/CN113420593A/zh
Application granted granted Critical
Publication of CN113420593B publication Critical patent/CN113420593B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Abstract

本发明属于雷达图像处理技术领域,尤其涉及一种基于混合推理网络的小样本SAR自动目标识别方法,可用于小样本条件下的SAR自动目标识别;包括步骤:获取训练样本集和待识别小样本SAR图像集;构建混合推理网络;采用训练支撑集和训练查询集对所述混合推理网络进行训练;获取小样本SAR图像的目标识别结果。本发明解决了传统方法需要大量训练样本的问题,为训练样本不足条件下的SAR目标识别提供了新的方法。

Description

基于混合推理网络的小样本SAR自动目标识别方法
技术领域
本发明属于雷达图像处理技术领域,涉及一种SAR自动目标识别方法,特别涉及基于混合推理网络的小样本SAR自动目标识别方法,用于小样本条件下的SAR目标识别。
背景技术
合成孔径雷达(SAR)以其全天候、高分辨率、远距离作战能力,在战场侦察、地形图、地质勘探、海洋观测等领域得到了广泛应用。自动目标识别(ATR)是基于计算机系统,从传感器获取数据,提取特征并自动得到目标类别的算法。基于SAR的自动目标识别也受到各领域广泛关注。
目前主流的SAR目标识别方法有三种,即模板匹配、目标建模和机器学习。这些方法都需要预先设计一个专用的模板、目标模型或分类器,严重依赖手动设计的特征,具有高复杂性和较差的泛化能力。
随着深度学习的发展,由于其强大的自动特征提取和表示能力,在SAR目标识别中获得广泛关注,具有很高的实现效率。但是基于深度学习模型的SAR目标识别算法为了保证有效的特征提取和目标识别,通常需要大量的训练样本,若某些类中的训练样本较少,识别性能会显著下降。然而,在实际情况下,SAR的图像获取较为困难,而且成本较高。在军事侦察等情况下,甚至只能获取一些目标的少量SAR图像,从而导致现有的SAR目标识别算法失效。因此,研究如何在只有少量SAR图像的情况下有效地提取特征和识别目标在雷达图像处理技术领域具有重要意义。
发明内容
针对现有技术存在的问题,本发明的目的在于提供一种基于混合推理网络的小样本SAR自动目标识别方法,提高了识别性能,解决了传统方法需要大量训练样本的问题,为训练样本不足条件下的SAR目标识别提供了新的方法。
为了达到上述目的,本发明采用以下技术方案予以实现。
(一)基于混合推理网络的小样本SAR自动目标识别方法,包括以下步骤:
步骤1,获取训练样本集和待识别小样本SAR图像集;从训练样本集中按类别选取C×m幅SAR图像作为训练支撑集,剩余的C(H-m)幅SAR图像组成训练查询集;同样,将待识别小样本SAR图像集划分为带标签的支撑集和待识别的查询集;
其中,待识别小样本SAR图像集中的目标类别与训练样本集中的目标类别不同;C为待训练的目标总类别数,m为训练支撑集中每个目标类别的SAR图像数目,H为训练样本集中每类目标对应的SAR图像总数量;每次训练需要从训练样本集中重新进行随机样本选择,并将选择的样本划分为训练支撑集和训练查询集;
步骤2,构建混合推断网络,所述混合推断网络包含依次连接的嵌入网络和基于混合推理的分类器;
步骤3,采用训练支撑集和训练查询集对所述混合推断网络进行训练,得到训练好的混合推断网络;
步骤4,将带标签的支撑集和待识别的查询集中的每幅SAR图像输入训练好的混合推断网络,得到待识别的查询集内的目标类别。
(二)一种混合推断网络,包括依次连接的嵌入网络和基于混合推理的分类器;所述嵌入网络由多个卷积模块组成,每个卷积模块包含卷积层、ReLU激活层、批规范化层和最大池化层;
所述基于混合推理的分类器包含基于欧几里得距离分类器的归纳推理和基于标签传播的转导推理,所述基于欧几里得距离分类器的归纳推理包含原型模块,所述基于标签传播的转导推理包含图构造网络。
进一步地,所述图构造网络包含依次连接的多个卷积模块、平铺拉伸层和两个全连接层。
与现有技术相比,本发明的有益效果为:
(1)本发明提出的基于混合推理网络的小样本学习方法,克服了传统小样本学习中单独采用归纳推理或转导推理的不足,提高了识别性能。
(2)本发明采用增强混合损失来约束嵌入网络进行学习,将样本映射到该嵌入空间,在该空间中,归纳推理和转导推理都能很好地执行。
(3)本发明采用混合推断网络,与现有技术相比,在目标分类问题中只需要少量训练样本就能获得和传统SAR目标识别方法接近的识别正确率,而其他算法在每一类中都需要数百个训练样本,在SAR图像样本有限的情况下,有效地提高了识别精度。
附图说明
下面结合附图和具体实施例对本发明作进一步详细说明。
图1为本发明的实现流程图;
图2为本发明实施例采用的混合推断网络结构图;
图3为本发明实施例的混合推断网络的训练和测试实现框架;
图4为本发明实施例中图构造网络的结构图。
具体实施方式
下面将结合实施例对本发明的实施方案进行详细描述,但是本领域的技术人员将会理解,下列实施例仅用于说明本发明,而不应视为限制本发明的范围。
实施例1
参考图1,本发明提供的一种基于混合推理网络的小样本SAR图像目标识别方法,包括以下步骤:
步骤1,获取训练样本集和待识别小样本SAR图像集;从训练样本集中按类别选取C×m幅SAR图像作为训练支撑集,剩余的C(H-m)幅SAR图像组成训练查询集;同样,将待识别小样本SAR图像集划分为带标签的支撑集和待识别的查询集;
其中,待识别小样本SAR图像集中的目标类别与训练样本集中的目标类别不同;C为待训练的目标总类别数,m为训练支撑集中每个目标类别的SAR图像数目,H为训练样本集中每类目标对应的SAR图像总数量;每次训练需要从训练样本集中重新进行随机样本选择,并将选择的样本划分为训练支撑集和训练查询集;
本实施例中,训练样本从MSTAR数据集中选取,待识别小样本SAR图像集为在不同俯仰角下观测到的SAR图像;具体包括以下步骤:
步骤1a)选取雷达在17°俯仰角下观测到的M类SAR图像作为训练样本集D0,选取在15°和30°俯仰角下观测到的N类SAR图像作为待识别小样本SAR图像集或测试样本集T0,训练样本集D0中每类SAR图像的数量相同为H幅,待识别小样本SAR图像集或测试样本集T0中每类SAR图像的数量为H幅,大小为l×l,其中M≥5>N,N≥2,H≥30,l≤128。本实施例中,M=7,N=3,训练样本集D0中H=200,待识别小样本SAR图像集或测试样本集T0中的SAR图像总数分别为274和287,对获取的MSTAR数据集中的原始图像应用基于形态学的SAR目标分割方法分割出目标区域,并将图像裁剪为l=60;
步骤1b)从训练样本集D0中随机选取C类目标,然后,从选取的每类SAR图像中随机选取m幅组成训练支撑集S1,选取的类别中剩余C(H-m)幅SAR图像组成训练查询集Q1,同时从待识别小样本SAR图像集或测试样本集T0包含的每类SAR图像中随机选取m幅组成测试支撑集S2(带标签的样本),剩余N(H-m)幅SAR图像组成测试查询集Q2(未带标签的样本),其中C=N,m≤10,本实施例中,m=1或5。测试样本集中,SAR图像数量可以与训练样本集不同,且每一类中的图像数量也可以不同。
步骤2,构建混合推断网络,所述混合推断网络包含依次连接的嵌入网络和基于混合推理的分类器;
构建包含多个卷积模块(嵌入网络)和基于混合推理的分类器的混合推理网络。每个卷积模块包含卷积层、ReLU激活层、批规范化层、最大池化层。如图2所示,本实施例的混合推理网络的具体结构为:第一卷积层→第一批规范化层→第一ReLU激活层→第一最大池化层→第二卷积层→第二批规范化层→第二ReLU激活层→第二最大池化层→第三卷积层→第三批规范化层→第三ReLU激活层→第三最大池化层→第四卷积层→第四批规范化层→第四ReLU激活层→第四最大池化层→基于混合推理的分类器。
四个卷积层的卷积核个数均为64,卷积核大小均为3×3,步长均为1。四个最大池化层的大小均为2×2,滑动步长均为2。
基于混合推理的分类器包含相互并列的基于欧几里得距离分类器的归纳推理和基于标签传播的转导推理,所述基于欧几里得距离分类器的归纳推理包含原型模块,所述基于标签传播的转导推理包含图构造网络。
步骤3,采用训练支撑集和训练查询集对所述混合推理网络进行训练,得到训练好的混合推理网络;
如图3所示,训练的具体步骤为:
(3a)设置迭代次数为t,最大迭代次数为T,T≥1000,并令t=0,本实例中,T=1000;
(3b)将训练支撑集和训练查询集中的每张SAR图像作为混合推理网络的输入进行映射,将SAR图像从原始空间映射到新的特征空间fφ,得到C×H个维数为L的嵌入向量
Figure BDA0003073673690000061
φ表示网络中的可学习参数;其中嵌入向量
Figure BDA0003073673690000062
的表达式为:
Figure BDA0003073673690000063
其中,θ表示混合推断网络的权值参数,RL表示L维的实数集。
(3c)通过基于欧几里得距离分类器的归纳推理对训练查询集中的SAR图像进行类别预测,得到对应的预测标签。
(3c1)通过训练支撑集S1所包含的C类SAR图像对应的嵌入向量
Figure BDA0003073673690000067
计算C个原型
Figure BDA0003073673690000064
其中第k类SAR图像的原型
Figure BDA0003073673690000065
的计算公式为:
Figure BDA0003073673690000066
其中,
Figure BDA0003073673690000071
为第k类SAR图像对应的原型;Sk表示第k类SAR图像,xn表示第n幅SAR图像,yn表示第n幅SAR图像对应的标签,
Figure BDA00030736736900000712
表示第k类SAR图像的数量,fφ表示映射函数,
Figure BDA0003073673690000072
为训练支撑集S1的第n幅SAR图像对应的嵌入向量。
(3c2)计算训练查询集Q1中每幅SAR图像对应的嵌入向量
Figure BDA0003073673690000073
到每个原型
Figure BDA0003073673690000074
的欧几里得距离
Figure BDA0003073673690000075
找出每个嵌入向量
Figure BDA0003073673690000076
到C个原型
Figure BDA0003073673690000077
的最短距离d′;
其中,
Figure BDA0003073673690000078
为训练查询集Q1中第p幅SAR图像对应的嵌入向量,||·||表示求范数。
(3c3)通过训练查询集对应的每个嵌入向量
Figure BDA0003073673690000079
到每个原型
Figure BDA00030736736900000710
中共C(H-m)个最短距离d′作为训练查询集中SAR图像的识别结果。
每一个episode中训练样本的第p幅SAR图像样本xp被分到第k类的概率计算公式如下:
Figure BDA00030736736900000711
其中,yp表示xp对应的真实标签。
(3d)通过基于标签传播的转导推理对训练查询集中SAR图像的识别结果进行判别,得到对应的预测标签。
(3d1)采用图构造网络对训练支撑集S1和训练查询集Q1中每个样本的嵌入向量进行尺度编码,得到每个样本对应的尺度伸缩参数。如图4所示,图构造网络的具体结构为:第一卷积层→第一批规范化层→第一ReLU激活层→第一最大池化层→第二卷积层→第二批规范化层→第二ReLU激活层→第二最大池化层→第一全连接层→第二全连接层。第一卷积层和第二卷积层分别包含64个卷积核和1个卷积核,卷积核大小均为3×3,步长均为1。第一最大池化层和第二最大池化层的大小均为2×2,滑动步长均为2;第一全连接层包含8个节点,第二全连接层包含1个节点。
(3d2)计算训练支撑集S1和训练查询集Q1组成的联合集中任意两个样本之间的图权重,并构建图权重矩阵W(C×H)×(C×H)。其中,样本xn1和xn2之间的图权重计算公式为:
Figure BDA0003073673690000081
其中,σn1为样本xn1对应的尺度伸缩参数,σn2为样本xn2对应的尺度伸缩参数。
进一步地,在查询集中未标记样本较多情况下,只保留W中每一行的k′个最大值,得到W′。
采用最终得到的W或W′计算归一化图拉普拉斯函数:
S=D-1/2WD1/2
其中,D是对角矩阵,Dxx表示矩阵D的第x行x列元素,其值为W的第x行元素之和。
(3d3)定义预测标签矩阵F∈R(C×H)×C和一个初始标签矩阵Y∈R(C×H)×C,F的每一行表示训练集中样本的预测标签。矩阵Y的每一列代表一个类别,当样本来自训练支撑集时,对应位置为1,其余位置均为0;
随机初始化预测标签矩阵F,采用下式对F进行迭代更新:
Ft+1=λSFt+(1-λ)Y
直至预测标签矩阵F收敛,得到收敛后的预测标签矩阵F*
F*=(I-λS)-1Y
其中,Ft为时间为t时的预测结果,λ∈(0,1)是控制每一时间步更新信息量的超参数。
(3d4)将收敛后的预测标签矩阵F*每一行中最大数值所对应的类别作为训练样本的识别结果。样本xi被分到第k类的概率计算公式如下:
Figure BDA0003073673690000091
其中,
Figure BDA0003073673690000092
表示收敛后的预测标签矩阵F*的第i行k列元素。
(3e)将归纳推理和转导推理相结合得到混合推理,对训练查询集中的SAR图像的进行类别预测。
其中,训练查询集中任一样本xp被分到第k类的概率计算公式如下:
Figure BDA0003073673690000093
其中,
Figure BDA0003073673690000098
Figure BDA0003073673690000099
分别是调节样本xp的归纳推理和转导推理混合比例的参数,其具体计算公式为:
Figure BDA0003073673690000094
Figure BDA0003073673690000095
其中,
Figure BDA0003073673690000096
为步骤(3c)中对样本xp的最大预测概率,
Figure BDA0003073673690000097
为步骤(3d)中对样本xp的最大预测概率;
(3f)采用增强混合损失函数Leh(θ),并通过随机梯度下降算法,对混合推断网络的权值参数进行更新,得到更新后的混合推断网络,其表达式为:
Leh(θ)=LE(θ)+Llp(θ)+Lh(θ)
其中,θ表示混合推断网络的权值参数,包括混合推断网络中卷积层的权值参数、最大池化层的权值参数、全连接层的连接系数;LE(θ)、Llp(θ)和Lh(θ)分别为采用归纳推理、转导推理和混合推理时的交叉熵损失函数。具体计算公式为:
Figure BDA0003073673690000101
Figure BDA0003073673690000102
Figure BDA0003073673690000103
其中,P表示训练查询集中的样本数量。
(3g)判断t=T是否成立,若是,则步骤(3f)更新后的混合推断网络即为训练好的混合推断网络,否则,令t=t+1,返回执行步骤(3c)。
步骤4,将带标签的支撑集和待识别的查询集输入训练好的混合推断网络,输出待识别的查询集内的目标类别。
本实施例中,选取不同的测试支撑集S2和测试查询集Q2,将其作为训练好的混合推断网络的输入,对测试查询集Q2的SAR图像进行目标识别。
在测试样本集T0中随机选择不同的支撑集S2,重复测试1000次,并计算平均识别正确率。
实施例2
参考图2-图4,一种混合推断网络,包括依次连接的嵌入网络和基于混合推理的分类器;所述嵌入网络由多个卷积模块组成,每个卷积模块包含卷积层、ReLU激活层、批规范化层和最大池化层;
所述基于混合推理的分类器包含基于欧几里得距离分类器的归纳推理和基于标签传播的转导推理,所述基于欧几里得距离分类器的归纳推理包含原型模块,所述基于标签传播的转导推理包含图构造网络。
四个卷积层的卷积核个数均为64,卷积核大小均为3×3,步长均为1。四个最大池化层的大小均为2×2,滑动步长均为2。
进一步地,所述图构造网络包含依次连接的多个卷积模块、平铺拉伸层和两个全连接层。具体结构为:第一卷积层→第一批规范化层→第一ReLU激活层→第一最大池化层→第二卷积层→第二批规范化层→第二ReLU激活层→第二最大池化层→第一全连接层→第二全连接层。第一卷积层和第二卷积层分别包含64个卷积核和1个卷积核,卷积核大小均为3×3,步长均为1。第一最大池化层和第二最大池化层的大小均为2×2,滑动步长均为2;第一全连接层包含8个节点,第二全连接层包含1个节点。
仿真实验
本发明的效果可以通过以下具体实例进一步说明:
(1)实验条件
本发明的仿真实验的硬件平台为:GPU为NVIDIA GeForce RTX 2080Ti,20核,主频为2.2GHz,内存大小为128GB;显存大小为11GB。
本发明的仿真实验的软件平台为:操作系统为windows 10。
本发明的仿真实验的训练样本集选自MSTAR数据集中雷达在17°俯仰角下观测到的7类SAR图像,即BMP-2(TG1)、BTR-70(TG2)、T-72(TG3)、BTR-60(TG7)、D-7(TG8)、T-62(TG9)和ZIL-131(TG10)。
本发明的仿真实验的测试样本集选自MSTAR数据集中在15°和30°俯仰角下观测到的3类SAR图像,即2S1(TG4)、BRDM-2(TG5)和ZSU-234(TG6)。
(2)仿真内容
为了验证有限样本情况下本发明的识别效果,通过挑选训练支撑集和测试支撑集中每个类别的SAR图像数量训练网络,结果如表1所示。
表1本发明提出的混合推理网络的识别正确率
Figure BDA0003073673690000121
例如,支撑集样本数量为1时,因为只做一次实验具有随机性和偶然性,不能准确反映模型的识别准确度,因此在每组实验中随机选取不同的支撑集重复1000次,对这1000次实验产生的实验结果,取平均值作为实验结果。由表1可以看出,在SAR图像样本有限的情况下,本发明的识别正确率满足实践要求,显示了在样本极度稀缺下的鲁棒性。
虽然,本说明书中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (10)

1.基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,包括以下步骤:
步骤1,获取训练样本集和待识别小样本SAR图像集;从训练样本集中按类别选取C×m幅SAR图像作为训练支撑集,剩余的C(H-m)幅SAR图像组成训练查询集;同样,将待识别小样本SAR图像集划分为带标签的支撑集和待识别的查询集;
其中,待识别小样本SAR图像集中的目标类别与训练样本集中的目标类别不同;C为待训练的目标总类别数,m为训练支撑集中每个目标类别的SAR图像数目,H为训练样本集中每类目标对应的SAR图像总数量;每次训练需要从训练样本集中重新进行随机样本选择,并将选择的样本划分为训练支撑集和训练查询集;
步骤2,构建混合推断网络,所述混合推断网络包含依次连接的嵌入网络和基于混合推理的分类器;
步骤3,采用训练支撑集和训练查询集对所述混合推断网络进行训练,得到训练好的混合推断网络;
步骤4,将带标签的支撑集和待识别的查询集中的每幅SAR图像输入训练好的混合推断网络,得到待识别的查询集内的目标类别。
2.根据权利要求1所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,所述嵌入网络由多个卷积模块组成,每个卷积模块包含依次连接的卷积层、ReLU激活层、批规范化层、最大池化层;
所述基于混合推理的分类器包含相互并列的基于欧几里得距离分类器的归纳推理和基于标签传播的转导推理,所述嵌入网络分别与基于欧几里得距离分类器的归纳推理和基于标签传播的转导推理连接。
3.根据权利要求2所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,所述基于欧几里得距离分类器的归纳推理包含原型模块,所述基于标签传播的转导推理包含图构造网络,所述图构造网络包含依次连接的多个卷积模块、平铺拉伸层和两个全连接层。
4.根据权利要求1所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,所述采用训练支撑集和训练查询集对所述混合推断网络进行训练,具体步骤为:
(3a)设置迭代次数为t,最大迭代次数为T,T≥1000,并令t=0;
(3b)将训练支撑集和训练查询集中的每张SAR图像作为混合推理网络的输入进行映射,将SAR图像从原始空间映射到新的特征空间fφ,得到C×H个维数为L的嵌入向量
Figure FDA0003073673680000021
φ表示网络中的可学习参数;
(3c)通过基于欧几里得距离分类器的归纳推理对训练查询集中的SAR图像进行类别预测,得到对应的预测标签;
(3d)通过基于标签传播的转导推理对训练查询集中SAR图像进行类别预测,得到对应的预测标签;
(3e)将归纳推理和转导推理相结合,对训练查询集中的SAR图像的进行混合推理,得到对应的预测标签;
(3f)采用增强混合损失函数Leh(θ),并通过随机梯度下降算法,对混合推断网络的权值参数进行更新,得到更新后的混合推断网络;增强混合损失函数表达式为:
Leh(θ)=LE(θ)+Llp(θ)+Lh(θ)
其中,θ表示混合推断网络的权值参数,LE(θ)、Llp(θ)和Lh(θ)分别为采用归纳推理、转导推理和混合推理时的交叉熵损失函数;
(3g)判断t=T是否成立,若是,则步骤(3f)更新后的混合推断网络即为训练好的混合推断网络,否则,令t=t+1,返回执行步骤(3c)。
5.根据权利要求4所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,所述通过基于欧几里得距离分类器的归纳推理对训练查询集中的SAR图像进行类别预测,具体为:
(3c1)通过训练支撑集S1所包含的C类SAR图像对应的嵌入向量
Figure FDA00030736736800000316
计算C个原型
Figure FDA0003073673680000031
其中第k类SAR图像的原型
Figure FDA0003073673680000032
的计算公式为:
Figure FDA0003073673680000033
其中,
Figure FDA0003073673680000034
为第k类SAR图像对应的原型;Sk表示第k类SAR图像,xn表示第n幅SAR图像,yn表示第n幅SAR图像对应的标签,
Figure FDA0003073673680000035
表示第k类SAR图像的数量,fφ表示映射函数,
Figure FDA0003073673680000036
Figure FDA0003073673680000037
为训练支撑集S1的第n幅SAR图像对应的嵌入向量;
(3c2)计算训练查询集Q1中每幅SAR图像对应的嵌入向量
Figure FDA0003073673680000038
到每个原型
Figure FDA0003073673680000039
的欧几里得距离
Figure FDA00030736736800000310
找出每个嵌入向量
Figure FDA00030736736800000311
到C个原型
Figure FDA00030736736800000312
的最短距离d′;
其中,
Figure FDA00030736736800000313
为训练查询集Q1中第p幅SAR图像对应的嵌入向量,||·||表示求范数;
(3c3)通过训练查询集对应的每个嵌入向量
Figure FDA00030736736800000314
到每个原型
Figure FDA00030736736800000315
中共C(H-m)个最短距离d′作为训练查询集中SAR图像的识别结果。
6.根据权利要求4所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,所述通过基于标签传播的转导推理对训练查询集中SAR图像进行类别预测,具体步骤为:
(3d1)采用图构造网络对训练支撑集S1和训练查询集Q1中每个样本的嵌入向量进行尺度编码,得到每个样本对应的尺度伸缩参数;
(3d2)计算训练支撑集S1和训练查询集Q1组成的联合集中任意两个样本之间的图权重,并构建图权重矩阵W(C×H)×(C×H);其中,样本xn1和xn2之间的图权重计算公式为:
Figure FDA0003073673680000041
其中,
Figure FDA0003073673680000042
表示
Figure FDA0003073673680000043
Figure FDA0003073673680000044
的欧几里得距离,σn1为样本xn1对应的尺度伸缩参数,σn2为样本xn2对应的尺度伸缩参数;
采用最终得到的图权重矩阵W计算归一化图拉普拉斯函数:
S=D-1/2WD1/2
其中,D是对角矩阵,Dxx表示矩阵D的第x行x列元素,其值为W的第x行元素之和;
(3d3)定义预测标签矩阵F∈R(C×H)×C和一个初始标签矩阵Y∈R(C×H)×C,矩阵Y的每一列代表一个类别,当样本来自训练支撑集时,对应位置为1,其余位置均为0;
随机初始化预测标签矩阵F,采用下式对F进行迭代更新:
Ft+1=λSFt+(1-λ)Y
直至预测标签矩阵F收敛,得到收敛后的预测标签矩阵F*
F*=(I-λS)-1Y
其中,Ft为时间为t时的预测结果,λ∈(0,1)是控制每一时间步更新信息量的超参数;
(3d4)将收敛后的预测标签矩阵F*每一行中最大数值所对应的类别作为训练样本的识别结果。
7.根据权利要求6所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,在步骤(3d2)中,若查询集中未标记样本较多,则只保留W中每一行的k'个最大值,得到简化后的图权重矩阵W';并采用最终得到的W'计算归一化图拉普拉斯函数。
8.根据权利要求6或7所述的基于混合推理网络的小样本SAR自动目标识别方法,其特征在于,所述将归纳推理和转导推理相结合,对训练查询集中的SAR图像的进行混合推理,具体计算公式为:
训练查询集中任一样本xp被分到第k类的概率为:
Figure FDA0003073673680000051
其中,
Figure FDA0003073673680000052
表示收敛后的预测标签矩阵F*的第p行k列元素;
Figure FDA0003073673680000053
Figure FDA0003073673680000054
分别是调节样本xp的归纳推理和转导推理混合比例的参数,其具体计算公式为:
Figure FDA0003073673680000055
Figure FDA0003073673680000056
其中,
Figure FDA0003073673680000057
为步骤(3c)中对样本xp的最大预测概率,即预测标签,
Figure FDA0003073673680000058
为步骤(3d)中对样本xp的最大预测概率,即预测标签。
9.一种混合推断网络,其特征在于,包括依次连接的嵌入网络和基于混合推理的分类器;所述嵌入网络由多个卷积模块组成,每个卷积模块包含卷积层、ReLU激活层、批规范化层和最大池化层;
所述基于混合推理的分类器包含基于欧几里得距离分类器的归纳推理和基于标签传播的转导推理,所述基于欧几里得距离分类器的归纳推理包含原型模块,所述基于标签传播的转导推理包含图构造网络。
10.根据权利要求9所述的混合推断网络,其特征在于,所述图构造网络包含依次连接的多个卷积模块、平铺拉伸层和两个全连接层。
CN202110546401.7A 2021-05-19 2021-05-19 基于混合推理网络的小样本sar自动目标识别方法 Active CN113420593B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110546401.7A CN113420593B (zh) 2021-05-19 2021-05-19 基于混合推理网络的小样本sar自动目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110546401.7A CN113420593B (zh) 2021-05-19 2021-05-19 基于混合推理网络的小样本sar自动目标识别方法

Publications (2)

Publication Number Publication Date
CN113420593A true CN113420593A (zh) 2021-09-21
CN113420593B CN113420593B (zh) 2022-09-16

Family

ID=77712573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110546401.7A Active CN113420593B (zh) 2021-05-19 2021-05-19 基于混合推理网络的小样本sar自动目标识别方法

Country Status (1)

Country Link
CN (1) CN113420593B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114584440A (zh) * 2022-01-27 2022-06-03 西安电子科技大学 基于Transformer编码网络的小样本AMC方法
CN114580484A (zh) * 2022-04-28 2022-06-03 西安电子科技大学 一种基于增量学习的小样本通信信号自动调制识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019458A1 (en) * 2014-07-16 2016-01-21 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery
CN107341813A (zh) * 2017-06-15 2017-11-10 西安电子科技大学 基于结构学习和素描特性推理网络的sar图像分割方法
CN110853072A (zh) * 2019-11-08 2020-02-28 安徽大学 基于自引导推理的弱监督图像语义分割方法
CN111383273A (zh) * 2020-03-07 2020-07-07 西南交通大学 一种基于改进结构推理网络的高铁接触网零部件定位方法
CN111832580A (zh) * 2020-07-22 2020-10-27 西安电子科技大学 结合少样本学习与目标属性特征的sar目标识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019458A1 (en) * 2014-07-16 2016-01-21 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery
CN107341813A (zh) * 2017-06-15 2017-11-10 西安电子科技大学 基于结构学习和素描特性推理网络的sar图像分割方法
CN110853072A (zh) * 2019-11-08 2020-02-28 安徽大学 基于自引导推理的弱监督图像语义分割方法
CN111383273A (zh) * 2020-03-07 2020-07-07 西南交通大学 一种基于改进结构推理网络的高铁接触网零部件定位方法
CN111832580A (zh) * 2020-07-22 2020-10-27 西安电子科技大学 结合少样本学习与目标属性特征的sar目标识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114584440A (zh) * 2022-01-27 2022-06-03 西安电子科技大学 基于Transformer编码网络的小样本AMC方法
CN114580484A (zh) * 2022-04-28 2022-06-03 西安电子科技大学 一种基于增量学习的小样本通信信号自动调制识别方法
CN114580484B (zh) * 2022-04-28 2022-08-12 西安电子科技大学 一种基于增量学习的小样本通信信号自动调制识别方法

Also Published As

Publication number Publication date
CN113420593B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
CN106909924B (zh) 一种基于深度显著性的遥感影像快速检索方法
CN111199214B (zh) 一种残差网络多光谱图像地物分类方法
CN110516095B (zh) 基于语义迁移的弱监督深度哈希社交图像检索方法和系统
CN111882040B (zh) 基于通道数量搜索的卷积神经网络压缩方法
CN111368896A (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN112990334A (zh) 基于改进原型网络的小样本sar图像目标识别方法
CN113420593B (zh) 基于混合推理网络的小样本sar自动目标识别方法
CN108229551B (zh) 一种基于紧凑字典稀疏表示的高光谱遥感图像分类方法
US11625614B2 (en) Small-world nets for fast neural network training and execution
CN112966667B (zh) 海面目标一维距离像降噪卷积神经网络识别方法
CN110245683B (zh) 一种少样本目标识别的残差关系网络构建方法及应用
CN106250918B (zh) 一种基于改进的推土距离的混合高斯模型匹配方法
CN113095416B (zh) 基于混合损失与图注意力的小样本sar目标分类方法
CN115311502A (zh) 基于多尺度双流架构的遥感图像小样本场景分类方法
Wang et al. Lightweight deep neural networks for ship target detection in SAR imagery
Lin et al. A frequency-domain convolutional neural network architecture based on the frequency-domain randomized offset rectified linear unit and frequency-domain chunk max pooling method
CN113516019A (zh) 高光谱图像解混方法、装置及电子设备
WO2024082374A1 (zh) 一种基于层级化元迁移的小样本雷达目标识别方法
CN116597300A (zh) 一种融合并对齐视觉特征与散射拓扑特征的无监督域自适应sar目标识别方法
CN114185039A (zh) 雷达目标一维距离像智能识别方法
Ekim et al. A Multi-Task Deep Learning Framework for Building Footprint Segmentation
CN109934292B (zh) 基于代价敏感性辅助学习的不平衡极化sar地物分类方法
CN113673629A (zh) 基于多图卷积网络的开集域适应遥感图像小样本分类方法
CN113435243A (zh) 一种高光谱真实下采样模糊核估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant