CN118015419A - 基于小样本学习和多结构特征融合的有源干扰识别方法 - Google Patents

基于小样本学习和多结构特征融合的有源干扰识别方法 Download PDF

Info

Publication number
CN118015419A
CN118015419A CN202410273205.0A CN202410273205A CN118015419A CN 118015419 A CN118015419 A CN 118015419A CN 202410273205 A CN202410273205 A CN 202410273205A CN 118015419 A CN118015419 A CN 118015419A
Authority
CN
China
Prior art keywords
interference
network model
feature
feature fusion
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410273205.0A
Other languages
English (en)
Inventor
曹宜策
王腾鑫
吴振华
郭文杰
崔金鑫
杨利霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202410273205.0A priority Critical patent/CN118015419A/zh
Publication of CN118015419A publication Critical patent/CN118015419A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Evolutionary Biology (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开基于小样本学习和多结构特征融合的有源干扰识别方法,包括,获取雷达的有源干扰时频图,并根据有源干扰时频图及对应标签信息生成干扰时频图数据集;构建深层卷积网络模型,对所述深层卷积网络模型进行优化;构建多结构特征融合网络模型,将优化后的深层卷积网络模型的参数迁移到多结构特征融合网络模型中;通过干扰时频图数据集对迁移后的多结构特征融合网络模型进行训练;获取待分类干扰时频数据,通过训练完成的多结构特征融合网络模型对待分类干扰视频数据进行分类识别,生成有源干扰识别结果。

Description

基于小样本学习和多结构特征融合的有源干扰识别方法
技术领域
本发明涉及雷达有源干扰识别技术领域,特别涉及基于小样本学习和多结构特征融合的有源干扰识别方法。
背景技术
雷达作为现代电子战中不可或缺的探测设备,需要应对日益复杂的干扰环境。当存在各种干扰信号时,雷达的目标检测、识别和跟踪能力可能难以实现。随着数字射频存储器(Digital Radio Frequency Memory,DRFM)的快速发展,新型有源欺骗干扰的效果变得越来越真实。为了解决这一问题,干扰识别技术作为实施有效抗干扰措施的先决条件已被广泛研究,并成为该领域的研究热点。
在雷达有源干扰识别领域,传统方法主要有两种:基于似然的方法和多域特征提取方法。基于似然性的方法依赖于统计模型,通过将接收到的回波信号的最大似然值与预定义阈值进行比较来评估遇到干扰的可能性。这种技术被称为广义似然比测试,提供了一种检测干扰的方法。然而,这些方法在很大程度上依赖于已知干扰的先验信息,这限制了它们对特定干扰类型的有效性。这种对专家知识的依赖限制了它们在识别新的或不断发展的干扰战术方面的通用性。基于多领域特征提取的方法采用了更为数据驱动的方法。这些方法利用了来自各种信号域的见解,包括时间、频率、时频、小波和极化域。通过提取和分析这些不同领域的特征,这些方法旨在构建一个全面的“基线”数据库。然后将该数据库与预先设计的分类器结合使用,以执行干扰识别。然而,该技术的缺点在于跨多个域提取特征参数的复杂过程。这种复杂性可能导致计算开销和耗时的操作。
深度学习由于其强大的数据驱动高级特征学习能力,在图像分类中得到了广泛的应用。作为深度学习的重要组成部分,基于卷积神经网络(Convolutional neuralnetwork,CNN)的方法在判别特征提取和精确分类方面显示出了强大的能力,在雷达干扰识别领域大放异彩。例如,Shao等人设计了一种1D-CNN,用于在训练样本充足的情况下对雷达干扰信号进行分类。此外,由于收集的训练样本既耗时又昂贵,针对训练样本有限的问题,提出了一种基于CNN的Siamese网络用于雷达干扰信号分类(参见文献:G.Shao,Y.Chen,andY.Wei,“Convolutional neural network-based radarjamming signal classificationwith sufficient and limited samples,”IEEEAccess,vol.8,pp.80588-80598,2020.)。但目前,针对雷达有源干扰识别领域,现行的各类CNN分类都存在以下问题:
一是,在雷达干扰时频信号处理中,通常很难获得用于训练的大量数据。二是,基于CNN的方法采用基于规则网格的各种卷积核对干扰进行卷积运算,这使得它们不足以捕捉干扰之间的全局相关性。三是,现有方法的在低干噪比环境下识别率较低。由于上述识别方法的问题,导致雷达有源干扰无法有效识别。
发明内容
为解决上述现有技术中所存在的问题,本发明提供基于小样本学习和多结构特征融合的有源干扰识别方法,能够有效进行雷达干扰识别。
为了更好的实现上述技术目的,本发明提供了如下技术方案:基于小样本学习和多结构特征融合的有源干扰识别方法,包括:
获取雷达的有源干扰时频图,并根据有源干扰时频图及对应标签信息生成干扰时频图数据集;
构建深层卷积网络模型,对所述深层卷积网络模型进行优化;
构建多结构特征融合网络模型,将优化后的深层卷积网络模型的参数迁移到多结构特征融合网络模型中;其中所述多结构特征融合网络模型包括依次连接的干扰时频特征学习模块、干扰图聚合特征学习模块、特征融合模块及距离度量模块,其中干扰时频特征学习模块通过第一全连接层及第二全连接层分别与特征融合模块的输入端连接,所述干扰时频特征学习模块的结构与所述深层卷积网络模型的结构相同;
通过干扰时频图数据集对迁移后的多结构特征融合网络模型进行训练;
获取待分类干扰时频数据,通过训练完成的多结构特征融合网络模型对待分类干扰视频数据进行分类识别,生成有源干扰识别结果。
可选的,所述雷达的有源干扰时频图的获取过程包括:
通过信号仿真方法仿真获取雷达的有源干扰时频图,其中所述有源干扰时频图包括不同干扰类别的单一干扰的有源干扰时频图和不同干扰类别组合的复合干扰的有源干扰时频图。
可选的,所述深层卷积网络模型包括依次连接的八个基本单元,其中所述基本单元中由依次连接的卷积层、批量归一化层及激活函数组成,所述深层卷积网络模型中的第二个基本单元、第四个基本单元、第七个基本单元及第八个基本单元之后还分别插入有最大池化层。
可选的,对所述深层卷积网络模型进行优化的过程包括:
对所述深层卷积网络模型的输出端添加第一全连接层及Softmax层,生成第一模型,对所述第一模型进行训练,直到第一模型收敛,生成第一网络权重;
对所述深度卷积网络模型的输出端添加第一全连接层、dropout层及第二全连接层,生成第二模型,通过第一网络权重对所述第二模型进行权重初始化,对初始化后的第二模型进行小样本学习,直到第二模型收敛,生成优化后的深层卷积网络模型。
可选的,干扰图聚合特征学习模块采用图神经网络,其中所述图神经网络将所述干扰时频特征学习模块输出的干扰时频特征与对应的标签信息进行对偶图的迭代换向传播,生成聚合特征,其中所述对偶图包括特征图及分布图。
可选的,所述特征融合模块包括特征拼接层、第三全连接层、dropout层及第四全连接层,其中所述特征拼接层用于对所述第二全连接层提取的干扰深层特征及所述干扰图聚合特征学习模块提取的聚合特征进行深层特征融合。
可选的,所述距离度量模块采用欧几里得距离计算层,其中所述欧几里得距离计算层用于对特征融合模块输出的针对支持集和查询集的深层融合特征进行欧几里得距离计算,并根据计算的欧几里得距离,生成查询集的预测标签即有源干扰识别结果。
可选的,对迁移后的多结构特征融合网络模型进行训练的过程包括:
对所述干扰时频图数据集划分为训练集和测试集,针对训练集中不同标签信息下的干扰时频图进行随机采样,生成第一支持集,对训练集中随机采样剩余的未标记的干扰时频图进行随机抽取,生成第二查询集,将第一支持集与第二查询集输入迁移后的多结构特征融合网络模型中,其中,计算第一支持集和第二查询集的深层融合特征的欧几里得距离,根据计算结果,生成第一查询集的预测标签,并根据预测标签通过交叉熵损失函数计算训练总损失,并根据训练总损失对多结构特征融合网络进行优化,并根据训练总损失判断多结构特征融合网络是否收敛,若收敛则生成训练完成的多结构特征融合网络模型,否则继续训练。
可选的,对待分类干扰视频数据进行分类识别的过程包括:
将所述训练集作为第二支持集,将所述待分类干扰时频数据作为第二查询集,通过训练完成的多结构特征融合网络模型分别提取第二支持集和第二查询机的深度融合特征,生成第二支持集特征和第二查询集特征,通过训练完成的多结构特征融合网络模型中的距离度量模块计算第二支持集特征中每个支持样本的平均特征和第二查询集特征的每个查询样本特征欧几里得距离,将查询样本特征中欧几里得距离最小的支持样本的平均特征对应的标签作为预测标签,根据预测标签生成预测标签集合以生成有源干扰识别结果。
本发明具有如下技术效果:
本发明通过构建多结构特征融合模型,能充分挖掘和利用有限的雷达有源干扰信号样本中的信息。多结构特征融合模型将小样本学习应用于雷达干扰识别,当每个类别的标记样本数量有限时,显示出优异的性能;而且干扰图聚合特征学习模块能更好地建模不同干扰类型之间的关系,捕获全局信息,从而充分利用有限干扰样本中的信息,提高干扰分类精度;同时采用迁移学习,通过在大规模数据集上预训练模型来缓解数据稀缺问题。这种方法增强了模型在干扰类型上的性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于小样本学习和多结构特征融合的有源干扰识别方法的流程示意图;
图2为本发明实施例提供的VGG在ImageNet数据集上的训练;
图3为本发明实施例提供的VGG在mini-ImageNet数据集上的训练;
图4为本发明实施例提供的VGG网络结构图;
图5为本发明实施例提供的双图网络结构图;
图6为本发明实施例提供的模型训练和验证损失曲线;
图7为本发明实施例提供的使用短时傅里叶变换从干扰时域变换到时频域示意图;
图8为本发明实施例提供的采用基于小样本学习和多结构特征融合网络模型和基于CNN的干扰分类模型在不同干噪比下干扰分类结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开了基于小样本学习和多结构特征融合的有源干扰识别方法,包括:获取雷达有源干扰时频图;利用大规模ImageNet数据集训练经过设计的深层卷积网络(visual geometry group,VGG)模型;利用mini-ImageNet数据集在经过预训练的VGG模型上进行小样本学习;利用经过预训练的VGG初步提取干扰时频特征,并将干扰时频特征与干扰标签组成图结构,同时将干扰时频特征输入全连接层提取特征;利用双图卷积网络在图上传递干扰的特征知识和标签信息;利用特征融合模块将VGG后全连接层提取的干扰时频特征与双图卷积网络得到的图聚合特征融合;利用训练集中的干扰时频数据在网络模型上进行小样本学习,得到训练好的多结构特征融合网络模型;利用训练好的多结构特征融合模型提取训练集干扰时频数据作为支持集,将测试集干扰时频数据作为查询集,计算查询集样本与支持集样本的空间距离实现分类。并采集已知标签样本和未知标签样本输入到多结构特征融合网络中,以生成未知标签样本的标签,本发明能够有效提高雷达有源干扰分类的准确率。
参照图1,本发明提出的基于小样本学习和多结构特征融合的有源干扰识别方法,包括:
获取雷达的干扰时频图,构建雷达有源干扰数据集;其中,雷达干扰数据集包括六种单一干扰和四种复合干扰;使用MATLAB生成干扰对应的时域信号;使用短时傅里叶变换生成干扰时域信号对应的时频图,构建雷达有源干扰数据集,按照一定比例随机选取干扰时频数据构建训练集和测试集;
利用ImageNet数据集训练VGG(visual geometry group,VGG),利用mini-ImageNet数据集训练经过ImageNet训练的VGG。
构建多结构特征融合网络模型,将训练好的VGG模型参数迁移到多结构特征融合网络模型中的VGG;其中,多结构特征融合网络模型包含干扰时频特征学习模块VGG、干扰图聚合特征学习模块、特征融合模块、距离度量模块;干扰时频特征学习模块VGG的输出端和干扰图聚合特征学习模块输入端级联,同时VGG的输出端与第一全连接层输入端级联,第一全连接层的输出端通过dropout层与第二全连接层的输入端级联,干扰图聚合特征学习模块输出端和第二全连接层输出端与特征融合模块输入端级联,特征融合模块输出端和第二全连接层的输出端与距离度量模块输入端级联;
使用干扰数据训练集对多结构特征融合网络模型进行训练,得到训练好的多结构特征融合网络模型;利用训练好的多结构特征融合网络模对待分类干扰数据进行分类,得到待分类干扰数据的分类识别结果。
本发明通过构建多结构特征融合模型,能充分挖掘和利用有限干扰样本中的信息。模型将小样本学习应用于雷达干扰识别,当每个类别的标记样本数量有限时,显示出优异的性能;而且干扰图聚合特征学习模块能更好地建模不同干扰类型之间的关系,捕获全局信息,从而充分利用有限干扰样本中的信息,提高干扰分类精度;同时采用迁移学习,通过在大规模数据集上预训练模型来缓解数据稀缺问题。这种方法增强了模型在干扰类型分类上的性能。
在本实施例中,获取雷达的干扰时频图,具体包括:
使用MATLAB仿真获得到六种典型的雷达有源欺骗干扰时域波形,其中干扰类别主要包括距离假目标欺骗干扰(Distance Deception Jamming,DDJ)、速度假目标欺骗干扰(Velocity Deception Jamming,VDJ)、密集假目标干扰(Dense False Target Jamming,DFTJ)、间歇采样直接转发干扰(intermittent sampling directjamming,ISDJ)、间歇采样重复转发干扰(intermittent sampling loop jamming,ISLJ)、间歇采样循环转发干扰(intermittent sampling repeaterjamming,ISRJ);根据短时傅里叶变换(Short TimeFourier Transom,STFT)对单一干扰以及随机组合得复合干扰时频图;根据得到的干扰时频图构成雷达有源干扰数据集;针对雷达有源干扰数据集,随机选取10%×类别数的干扰数据作为训练样本,随机选取30%×类别数的干扰数据作为验证样本,剩余的60%×类别数的干扰数据作为测试样本。
在本实施例中,利用大规模数据集ImageNet训练经过设计的VGG模型,具体包括:
参照图2,具体包括:将大规模数据集ImageNet输入至VGG提取图片特征,将图片特征作为第一全连接层(fully connected,FC)的输入特征数据,将第一全连接层的输出特征数据作为Softmax层的输入数据,计算批次训练图片特征集合中每个训练样本特征经Softmax层得到的Softmax层输出特征数据;将批次训练特征集合中所有训练样本特征对应的Softmax层输出特征数据组合成预测标签集合;根据预测标签集合和实际标签,使用复交叉熵损失函数计算分类损失值;根据损失值的下降变化判断VGG是否收敛;若是,则停止训练,保存权重;否则,调整学习率直至收敛。
在本实施例中,利用mini-ImageNet数据集在经过预训练VGG模型上进行小样本学习,具体包括:
参照图3,在ImageNet上训练的VGG网络权重用来初始化VGG模型;从mini-ImageNet数据集中选择C个类,然后从每个类样本中随机采样K个标记样本作为支持集;同时从相同C类的剩余样本中随机抽取每个类的N个未标记样本作为查询集;使用随机选择的支持集和查询集对VGG模型进行小样本学习;将mini-ImageNet数据输入VGG网络模型初步提取支持集特征与查询集特征;将VGG提取的特征向量输入第一个全连接层得到第二个全连接层输入特征数据;将经过一个dropout层的第一个全连接层输出的特征数据输入第二个全连接层;将第二个全连接层输出作为计算查询集与支持集特征之间的欧几里得距离的特征,根据该特征,利用交叉熵损失函数计算损失;根据损失值的下降变化判断VGG是否收敛;若是,则停止训练,保存权重;否则,调整学习率直至收敛。
在本实施例中,构建的多结构特征融合网络模型包含干扰时频特征学习模块VGG、干扰图聚合特征学习模块、特征融合模块、距离度量模块;其中干扰时频特征学习模块VGG的结构与图2和图3中的VGG相同,具体如图4所示,包括:总共八个卷积层,在每个卷积层之后,包含批量归一化层、修正线性单元激活函数。卷积层、批量归一化层和激活函数的组合成了一个基本单元,基本单元之间依次连接,在第二个基本单元、第四个基本单元、第七个基本单元和第八个基本单元之后插入有四个最大池化层;其中,干扰图聚合特征学习模块为双图卷积网络(包含分布图和点图),其中点图可以描述为它由第一节点特征集/>和第一边缘特征集/>组成,/>使用VGG输出的干扰特征向量初始化,/>则是两个相邻节点构造,分布图可以描述为/>它由第二节点特征集/>和第二边缘特征集/>组成,/>的一个节点使用点图中的一个节点与相邻的两个边缘特征计算得来,/>则是两个相邻节点特征构造,/>和/>都是向量形式,具体如图5所示;其中,特征融合模块包含特征拼接层(即该模块使用向量拼接函数将VGG提取的干扰特征与双图网络提取的特征拼接在一起)、第三个全连接层、dropout层和第四个全连接层;其中,距离度量模块包含一个欧几里得距离计算层。
在进一步的实施例中,VGG中第一个卷积层,其输出特征数据的特征映射图数目为64,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第一个激活层,其输出特征数据的特征映射图数目为64;其输出特征数据的特征映射图数目为64,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第一个激活层,其输出特征数据的特征映射图数目为64;第二个卷积层,其输出特征数据的特征映射图数目为64,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第二个激活层,其输出特征数据的特征映射图数目为64;第三个卷积层,其输出特征数据的特征映射图数目为128,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第三个激活层,其输出特征数据的特征映射图数目为128;第四个卷积层,其输出特征数据的特征映射图数目为128,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第四个激活层,其输出特征数据的特征映射图数目为128;第五个卷积层,其输出特征数据的特征映射图数目为256,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第五个激活层,其输出特征数据的特征映射图数目为256;第六个卷积层,其输出特征数据的特征映射图数目为256,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第六个激活层,其输出特征数据的特征映射图数目为256;第七个卷积层,其输出特征数据的特征映射图数目为256,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第七个激活层,其输出特征数据的特征映射图数目为256;第八个卷积层,其输出特征数据的特征映射图数目为512,卷积滤波器的大小为3×3,填充为1,移动步幅为1;第八个激活层,其输出特征数据的特征映射图数目为512;第一个全局最大池化层,其输出特征数据的特征映射图数目为64;第二个全局最大池化层,其输出特征数据的特征映射图数目为128;第三个全局最大池化层,其输出特征数据的特征映射图数目为256;第四个全局最大池化层,其输出特征数据的特征映射图数目为512。
在进一步的实施例中,将在mini-ImageNet上训练过的VGG权重迁移到多结构特征融合网络模型中的干扰时频特征学习模块VGG用来初步提取干扰时频特征,并将干扰时频特征与干扰标签组成图结构,同时将干扰时频特征输入全连接层提取特征,具体包括:
在mini-ImageNet上预训练好的VGG网络用来初始化多结构特征融合中的干扰时频特征学习模块VGG;
VGG提取的特征向量与干扰对应的标签形成图结构,且同时将VGG提取的特征向量输入第一个全连接层得到第二个全连接层输入特征数据;将经过一个dropout层的第一个全连接层输出的特征数据输入第二个全连接层;将第二个全连接层输出作为距离度量模块的输入。
在进一步的实施例中,利用双图卷积网络在图上传递干扰的特征知识和标签信息,其中双图卷积网络为双通路图卷积网络(DGCN),具体包括:
将VGG提取的特征向量传递到双图卷积网络(一个点图和一个分布图)上进行一代又一代的换向传播,其中点图不是简单地应用双图神经网络对干扰进行特征提取,而是充分探索样本之间的关系,分布图利用标签分布学习来获得具有相同标签的样本之间的高相关性特征。将两个图相互整合,充分提取训练样本间的特征。参照图5,从点图到分布图表示边到节点转换,它聚合实例相似度来构建分布表示;从分布图到点图表示另一种边到节点转换,它聚合分布相似度和实例特征;干扰图聚合特征学习模块在第3代结束时完成对图特征的提取。I′是数据集,y为标签集,构造图的重要元素定义为G(V,E),其中是节点vk的集合,k,v为节点编号,N为节点总数,为边ek,v的集合,双图卷积网络包含两个重要的图,点图/>和分布图/>其中点图可以描述为/>它由第一节点特征集和第一边缘特征集/>组成,/>使用VGG输出的干扰特征向量初始化,/>则是两个相邻节点标签构造,分布图可以描述为它由第二节点特征集/>和第二边缘特征集组成,第二节点特征集/>的一个节点的定义为:
当L=0时,yi和yj是样本I′i和I′j的标签。δ(·)和||指串联运算符和Kroneckerdelta函数,当L>0时,是由FC层和ReLU组成。
的一个边缘特征的定义为:
其中,是由两个卷积层和一个sigmoid层组成。
具体地,在每个时间(循环次数大于0)中整合和/>的输出特征(即节点和边),将不同样本之间的关系插入/>生成/> 通过传递来自样本标签分布的关系优化/>其中,当循环次数为0,两个图初始化节点和边,当循环次数大于0时,它们将各自提取的特征(即节点和边)进行融合,实际输出为为融合点图和分布图中的/>和/>同时根据点图中前一个/>计算/>然后融合点图和分布图中的/>和/>同时根据分布图中的前一个/>计算/>这里的融合实际是对两个向量进行运算。
在进一步的实施例中,利用特征融合模块将VGG后第二个全连接层提取的干扰时频特征与双图网络得到的图聚合特征融合,具体包括:
将VGG后第二个全连接层进一步提取到的干扰深层特征和双图网络模型提取到的聚合信息进行深层特征融合;将每个批次输出的深度融合特征输入第三个全连接层得到第四个全连接层输入特征数据;将经过一个dropout层的第三个全连接层输出的特征数据输入第四个全连接层;将第四个全连接层输出作为距离度量模块的输入。
在本实施例中,利用训练集中的干扰时频数据在网络模型上进行小样本学习,得到训练好的多结构特征融合网络模型,具体包括:
将雷达有源欺骗干扰数据集拆分成训练集和测试集,使用训练集干扰数据对模型进行微调,首先从训练集数据中选择所有类别干扰数据,然后对每个类随机采样K个样本作为标记样本,作为支持集;同时,从剩余样本中随机抽取每个类的N个样本作为未标记样本,作为查询集;将干扰数据输入多结构特征融合网络模型,干扰数据输入加载了权重的干扰时频特征学习模块VGG,VGG提取的特征向量与干扰对应的标签形成图结构输入干扰图聚合特征学习模块,且同时将VGG提取的特征向量输入第一个全连接层得到第二个全连接层输入特征数据;将第二个全连接层输出特征数据和图聚合特征学习模块输出特征输入特征融合模块;特征融合模块将两个输入特征拼接并输入第三个全连接层得到第四个全连接层输入特征数据;将第四个全连接层的输出特征数据作为距离度量模块的输入;通过距离度量模块计算查询集与支持集特征之间的欧几里得距离,根据得到的欧几里得距离得到查询集样本的预测标签;利用交叉熵损失函数计算训练总损失,使用AdamW优化器对多结构特征融合网络模型进行优化,学习率设置为0.001,权重衰减系数设置为0.0001;参照图6,其中val-loss为验证集损失,train-loss为训练集损失,根据训练集和验证集(其中包括训练和验证两个过程,对网络训练时会将训练集随机分成训练支持集和训练查询集,而在对网络进行验证时将训练集样本作为验证支持集,验证集样本作为验证查询集)总损失值随迭代次数的下降变化判断多结构特征融合网络模型是否收敛;若是,则停止训练;否则,调整学习率和迭代次数继续对网络进行训练。
在本实施例中,以测试集作为待分类干扰数据进行说明,利用训练好的多结构特征融合网络模型提取训练集干扰时频数据作为支持集特征,将测试集中的待分类干扰时频数据作为查询集,计算查询集样本与支持集样本的空间距离实现分类,在实际应用中:使用已知标签的少数干扰时频数据作为对网络模型训练,在测试时将已知标签的少数干扰时频数据作为支持集,将待分类的干扰时频数据数据作为查询集,同时输入到多结构特征融合网络模型中,提取特征并计算欧式距离,根据欧式距离生成查询集对应的预测标签。具体包括:
基于小样本学习和多结构特征融合的有源干扰识别方法,需要使用训练时具有标签信息的干扰训练集去预测测试集中无标签信息的干扰类型;将训练集作于支持集,将测试集样本作为查询集;使用训练完成的网络模型分别提取训练集中每类干扰的深度融合特征作为支持集特征,然后分别提取测试集中每个干扰的特征作为查询集特征;预测干扰类型时,计算每个批次查询特征集合中每个查询特征并求得查询特征与支持集中每类样本平均特征的欧几里得距离,将与查询样本欧氏距离最小的支持集样本标签作为查询集样本的输出预测,并将批次查询特征集合中所有查询样本特征对应的预测标签组成预测标签集合,得到干扰分类之别结果。
本发明的效果可通过以下仿真进一步说明。
仿真方法
(1)现有技术中的基于卷积神经网络(convolutional neural network,CNN)的雷达干扰分类方法,包括2D-CNN,深度融合模型(deep fusion model,DFM),JR-TFSAD,元学习(Model-Agnostic Meta-Learning,MAML),孪生神经网络(Siamese-CNN,S-CNN);(2)本发明所述方法,即基于小样本学习和多结构特征融合的有源干扰识别方法。
3、仿真内容和仿真结果
仿真实验选取包括六种单一类型干扰分别是距离假目标欺骗干扰、速度假目标欺骗干扰、密集假目标干扰、间歇采样直接转发干扰、间歇采样重复转发干扰、间歇采样循环转发干扰,以及四种混合干扰距离假目标欺骗干扰+间歇采样重复转发干扰、距离假目标欺骗干扰+间歇采样直接转发干扰、速度假目标欺骗干扰+间歇采样直接转发干扰、距离假目标欺骗干扰+速度假目标欺骗干扰的十种干扰类型。使用短时傅里叶变换从干扰时域变换到时频域,如图7所示。
仿真实验1,采用2D-CNN,DFM,JR-TFSAD,MAML,S-CNN对在固定干噪比与样本量雷达有源欺骗干扰进行识别分类,如表1所示。采用本发明中的基于小样本学习和多结构特征融合的有源干扰识别方法对在固定干噪比与样本量雷达有源欺骗干扰信号进行识别分类,如表1所示,表1中的结果为使用每类30个训练样本的情况下,各种识别方法的干扰识别精确度(%)、准确度(%)、F1得分值(%)、召回率(%)和Kappa值(%)。
表1
从表1中可见,本发明显著提高了十种干扰类别的准确性、精度、召回率、F1值和kappa。相较于其他基于CNN的方法,本发明的精度、准确度、召回率、F1值和kappa分别高出3.85%-7.71%、4.04%-8.38%、4.10%-8.38%、4.15%-8.39%和4.56%-9.32%。同时,在所有干扰分类模型中,本发明在六种干扰信号中实现了最佳准确度。例如,尽管大多数分类模型对于ISDJ和VDJ+ISDJ的分类准确性较低,但本发明对它们的识别准确性分别为92.42%±3.19%和97.89%±2.27%。此外,本发明对所有十种欺骗性干扰的准确度均超过90%。这表明本发明在探索干扰时有效地发现并利用了样本之间的关系,并获取了具有相同标签的样本之间高度相关的特征。此外,与其他干扰识别方法相比,本发明在结果中波动最小,表现出最高的稳定性,进一步展示了本发明在干扰识别任务中的优势。
仿真实验2,采用2D-CNN,DFM,JR-TFSAD,MAML,S-CNN对在不同干噪比(jamming-to-noise ratio,JNR)与固定样本量雷达有源欺骗干扰进行识别分类,分类结果如图8所示。采用本发明中的基于小样本学习和多结构特征融合的有源干扰识别方法对在不同干噪比与固定样本量雷达有源欺骗干扰进行识别分类,分类结果如图8所示。
图8具体展示了本发明和基于CNN的雷达干扰分类模型在-9dB、-8dB、-7dB、-6dB和-5dB的JNR下对雷达有源欺骗干扰的识别结果。随着JNR的降低,所有模型的性能都下降。本发明始终表现出最高的识别准确度。此外,与其他模型在JNR降低时干扰识别准确度急剧下降相比,本发明的识别准确度没有显著下降。这表明本发明在减轻噪声影响方面是有效的。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (9)

1.基于小样本学习和多结构特征融合的有源干扰识别方法,其特征在于,包括:
获取雷达的有源干扰时频图,并根据有源干扰时频图及对应标签信息生成干扰时频图数据集;
构建深层卷积网络模型,对所述深层卷积网络模型进行优化;
构建多结构特征融合网络模型,将优化后的深层卷积网络模型的参数迁移到多结构特征融合网络模型中;其中所述多结构特征融合网络模型包括依次连接的干扰时频特征学习模块、干扰图聚合特征学习模块、特征融合模块及距离度量模块,其中干扰时频特征学习模块通过第一全连接层及第二全连接层分别与特征融合模块的输入端连接,所述干扰时频特征学习模块的结构与所述深层卷积网络模型的结构相同;
通过干扰时频图数据集对迁移后的多结构特征融合网络模型进行训练;
获取待分类干扰时频数据,通过训练完成的多结构特征融合网络模型对待分类干扰视频数据进行分类识别,生成有源干扰识别结果。
2.根据权利要求1所述的方法,其特征在于:
所述雷达的有源干扰时频图的获取过程包括:
通过信号仿真方法仿真获取雷达的有源干扰时频图,其中所述有源干扰时频图包括不同干扰类别的单一干扰的有源干扰时频图和不同干扰类别组合的复合干扰的有源干扰时频图。
3.根据权利要求1所述的方法,其特征在于:
所述深层卷积网络模型包括依次连接的八个基本单元,其中所述基本单元中由依次连接的卷积层、批量归一化层及激活函数组成,所述深层卷积网络模型中的第二个基本单元、第四个基本单元、第七个基本单元及第八个基本单元之后还分别插入有最大池化层。
4.根据权利要求3所述的方法,其特征在于:
对所述深层卷积网络模型进行优化的过程包括:
对所述深层卷积网络模型的输出端添加第一全连接层及Softmax层,生成第一模型,对所述第一模型进行训练,直到第一模型收敛,生成第一网络权重;
对所述深度卷积网络模型的输出端添加第一全连接层、dropout层及第二全连接层,生成第二模型,通过第一网络权重对所述第二模型进行权重初始化,对初始化后的第二模型进行小样本学习,直到第二模型收敛,生成优化后的深层卷积网络模型。
5.根据权利要求1所述的方法,其特征在于:
干扰图聚合特征学习模块采用图神经网络,其中所述图神经网络将所述干扰时频特征学习模块输出的干扰时频特征与对应的标签信息进行对偶图的迭代换向传播,生成聚合特征,其中所述对偶图包括特征图及分布图。
6.根据权利要求1所述的方法,其特征在于:
所述特征融合模块包括特征拼接层、第三全连接层、dropout层及第四全连接层,其中所述特征拼接层用于对所述第二全连接层提取的干扰深层特征及所述干扰图聚合特征学习模块提取的聚合特征进行深层特征融合。
7.根据权利要求1所述的方法,其特征在于:
所述距离度量模块采用欧几里得距离计算层,其中所述欧几里得距离计算层用于对特征融合模块输出的针对支持集和查询集的深层融合特征进行欧几里得距离计算,并根据计算的欧几里得距离,生成查询集的预测标签即有源干扰识别结果。
8.根据权利要求1所述的方法,其特征在于:
对迁移后的多结构特征融合网络模型进行训练的过程包括:
对所述干扰时频图数据集划分为训练集和测试集,针对训练集中不同标签信息下的干扰时频图进行随机采样,生成第一支持集,对训练集中随机采样剩余的未标记的干扰时频图进行随机抽取,生成第二查询集,将第一支持集与第二查询集输入迁移后的多结构特征融合网络模型中,其中,计算第一支持集和第二查询集的深层融合特征的欧几里得距离,根据计算结果,生成第一查询集的预测标签,并根据预测标签通过交叉熵损失函数计算训练总损失,并根据训练总损失对多结构特征融合网络进行优化,并根据训练总损失判断多结构特征融合网络是否收敛,若收敛则生成训练完成的多结构特征融合网络模型,否则继续训练。
9.根据权利要求8所述的方法,其特征在于:
对待分类干扰视频数据进行分类识别的过程包括:
将所述训练集作为第二支持集,将所述待分类干扰时频数据作为第二查询集,通过训练完成的多结构特征融合网络模型分别提取第二支持集和第二查询机的深度融合特征,生成第二支持集特征和第二查询集特征,通过训练完成的多结构特征融合网络模型中的距离度量模块计算第二支持集特征中每个支持样本的平均特征和第二查询集特征的每个查询样本特征欧几里得距离,将查询样本特征中欧几里得距离最小的支持样本的平均特征对应的标签作为预测标签,根据预测标签生成预测标签集合以生成有源干扰识别结果。
CN202410273205.0A 2024-03-11 2024-03-11 基于小样本学习和多结构特征融合的有源干扰识别方法 Pending CN118015419A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410273205.0A CN118015419A (zh) 2024-03-11 2024-03-11 基于小样本学习和多结构特征融合的有源干扰识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410273205.0A CN118015419A (zh) 2024-03-11 2024-03-11 基于小样本学习和多结构特征融合的有源干扰识别方法

Publications (1)

Publication Number Publication Date
CN118015419A true CN118015419A (zh) 2024-05-10

Family

ID=90944257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410273205.0A Pending CN118015419A (zh) 2024-03-11 2024-03-11 基于小样本学习和多结构特征融合的有源干扰识别方法

Country Status (1)

Country Link
CN (1) CN118015419A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826643A (zh) * 2019-11-20 2020-02-21 上海无线电设备研究所 一种极化欧拉特征融合深度学习的海上目标识别方法
CN113034483A (zh) * 2021-04-07 2021-06-25 昆明理工大学 基于深度迁移学习的烟支缺陷检测方法
CN114895263A (zh) * 2022-05-26 2022-08-12 西安电子科技大学 基于深度迁移学习的雷达有源干扰信号识别方法
CN115586496A (zh) * 2022-10-25 2023-01-10 安徽大学 一种基于mab模型的far抗有源压制干扰策略生成方法
WO2023173593A1 (zh) * 2022-03-16 2023-09-21 青岛海尔科技有限公司 文本分类方法、文本分类装置、存储介质及电子装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826643A (zh) * 2019-11-20 2020-02-21 上海无线电设备研究所 一种极化欧拉特征融合深度学习的海上目标识别方法
CN113034483A (zh) * 2021-04-07 2021-06-25 昆明理工大学 基于深度迁移学习的烟支缺陷检测方法
WO2023173593A1 (zh) * 2022-03-16 2023-09-21 青岛海尔科技有限公司 文本分类方法、文本分类装置、存储介质及电子装置
CN114895263A (zh) * 2022-05-26 2022-08-12 西安电子科技大学 基于深度迁移学习的雷达有源干扰信号识别方法
CN115586496A (zh) * 2022-10-25 2023-01-10 安徽大学 一种基于mab模型的far抗有源压制干扰策略生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TENGXIN WANG 等: "Few-Shot Radar Active Deception Jamming Recognition:Spatial-Graph Aggregated Feature Fusion Based On Transfer Learning", 《IET INTERNATIONAL RADAR CONFERENCE (IRC 2023)》, 5 December 2023 (2023-12-05), pages 1 - 5 *

Similar Documents

Publication Publication Date Title
CN113159095B (zh) 一种训练模型的方法、图像检索的方法以及装置
CN112884059B (zh) 一种融合先验知识的小样本雷达工作模式分类方法
Li et al. IncepTCN: A new deep temporal convolutional network combined with dictionary learning for strong cultural noise elimination of controlled-source electromagnetic data
CN112036239B (zh) 一种基于深度学习网络的雷达信号工作模式识别方法及系统
CN110929842B (zh) 非合作无线电信号突发时间区域精确智能检测方法
CN114239083B (zh) 一种基于图神经网络的高效状态寄存器识别方法
Nuhoglu et al. Image segmentation for radar signal deinterleaving using deep learning
CN111353391A (zh) 雷达干扰效果评估方法、装置、电子设备及其存储介质
CN116522334A (zh) 基于图神经网络的rtl级硬件木马检测方法及存储介质
CN116797846A (zh) 一种基于RoAtten-PN网络的小样本雷达辐射源识别方法及装置
CN118277823A (zh) 一种tr-ragcn-fsfm的信号分选方法及系统
Cao et al. Galaxy morphology classification based on Convolutional vision Transformer (CvT)
CN117437555A (zh) 一种基于深度学习的遥感影像目标提取处理方法及装置
CN115470873B (zh) 一种雷达辐射源识别方法与系统
CN113361204B (zh) 一种基于sae的雷达辐射源pri调制识别方法
CN118015419A (zh) 基于小样本学习和多结构特征融合的有源干扰识别方法
Chen et al. The adaptive constant false alarm rate for sonar target detection based on back propagation neural network access
CN112529035B (zh) 识别不同电台个体种类的智能识别方法
CN109271902A (zh) 复杂背景下基于时域经验模态分解的红外弱小目标检测方法
Wang et al. FCM algorithm and index CS for the signal sorting of radiant points
CN114943961A (zh) 一种面向三维模型的零样本分类方法
CN114549912B (zh) 引力波侯选体筛选方法、装置及存储介质
Chen et al. Radar Intra-pulse Modulation Signal Classification Using CNN Embedding and Relation Network under Small Sample Set
CN114840852B (zh) 一种基于双判别器生成对抗网络的硬件木马检测方法
Li et al. Power Analysis Attack Based on Lightweight Convolutional Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination