CN114818853A - 基于双向门控循环单元和条件随机场的意图识别方法 - Google Patents
基于双向门控循环单元和条件随机场的意图识别方法 Download PDFInfo
- Publication number
- CN114818853A CN114818853A CN202210234671.9A CN202210234671A CN114818853A CN 114818853 A CN114818853 A CN 114818853A CN 202210234671 A CN202210234671 A CN 202210234671A CN 114818853 A CN114818853 A CN 114818853A
- Authority
- CN
- China
- Prior art keywords
- target
- intention
- input
- time
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims abstract description 26
- 238000013461 design Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 29
- 239000011159 matrix material Substances 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 17
- 238000010606 normalization Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004088 simulation Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 230000007774 longterm Effects 0.000 claims description 3
- 238000011425 standardization method Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 3
- 230000008859 change Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 238000002679 ablation Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000005094 computer simulation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
提供一种基于双向门控循环单元和条件随机场的意图识别方法,包括下列步骤:目标意图空间编码;目标意图识别输入特征输入;双向门控循环单元BiGRU设计;注意力机制设计;条件随机场CRF设计。针对传统的空中目标意图识别方法仅仅考虑单一时刻的目标状态信息,且最终得到意图识别结果不具有前后依赖性的问题,相较于其他先进的意图识别方法,本发明的方法在空中意图识别领域具有整体上的优势。
Description
技术领域
本发明涉及深度学习领域技术,具体涉及一种基于双向门控循环单元和条 件随机场的意图识别方法。
背景技术
战场态势瞬息万变,快速准确地识别敌方目标的战术意图是获得决策优势 的重要条件。针对传统的目标意图识别方法仅仅考虑了单一时刻的目标状态信 息,且最终得到意图识别结果不具有前后依赖性的问题。
赵捍东的《舰艇对空中来袭目标意图的预判方法》(中国舰船研究,2018, 13(01):133-139.)等人利用统计学习的方法进行模板匹配,提出应用异质集成学 习器解决目标意图的模糊不确定性分类问题。何艳的《基于历史航迹特征的飞 行意图识别》(现代计算机,2019(29):29-34.)等利用均值及曲线拟合的思想,从 历史航迹数据中总结航迹特征,并提出一种基于航迹形状约束的半监督K-means 聚类改进算法对历史航迹进行聚类。Wang的《Tactical intention recognition of aerial target based on XGBoost decisiontree》(Journal of Measurement Science and Instrumentation,2018,9(2):148-152.)给出一种基于XGBoost决策树的方法对空 中目标进行意图识别。专家系统利用规则来描述知识,其需要构建知识库和推 理机,如果条件与已知的事实相匹配,则输出意图识别结果。陈优敏的《基于 知识图谱的目标战术意图识别仿真》(计算机仿真,2019,36(08):1-4.)提出基于 知识图谱的目标战术意图识别方法,构建战场目标的本体模型,分析战场目标 本体模型中的二元关系,根据分析结果构建知识图谱。
近年来,由于数据获取能力和计算能力的不断增强,使得以数据为驱动的 意图识别算法变为可能。魏蔚的《基于径向基神经网络的侦察目标意图识别研 究》(舰船电子工程,2018,38(10):37-40)针对无人机空中侦查目标,提出一种 基于径向基神经网络的目标意图识别模型,其仍属于浅层学习范畴。周旺旺的 《基于深度神经网络的空中目标作战意图识别》(航空学报,2018,39(11): 200-208.)针对BP算法的收敛速度慢以及容易陷入局部最优的情况,引入ReLU 激活函数和Adam优化算法构建意图识别模型,获得了更高的识别准确率。欧 微的《战场对敌目标战术意图智能识别模型研究》(计算机仿真,2017,34(09):10-14)针对传统模型在知识表达和网络训练方面的困难,提出基于长短时记忆 网络(LSTM)的智能意图识别模型,通过设计相应的特征编码、标签封装和意 图解析等方式对意图进行识别。Xue的《Panoramic Convolutional Long Short-Term Memory Networks for CombatIntention Recognition of Aerial Targets》(IEEE Access 2020,8,183312-183323.)设计出一种全景卷积长短期记忆神经网络 (PCLSTM)来提高意图识别能力,并通过时间序列池化层来减少神经网络的参 数。对于空中目标的意图识别问题,其输出应该具有前后依赖性,即目标在连 续时刻的意图识别结果前后关联。前述方法均没有同时考虑这两方面的性质。
发明内容
针对现有技术存在的问题,本发明提供一种基于双向门控循环单元和条件 随机场的意图识别方法,具体包括下列步骤:
Step1.目标意图空间编码
建立目标战术意图空间集合为{攻击、侦察、监视、掩护、干扰、撤退};
假定每个目标在某一时刻只有一个主要战术意图,采用目标的主要战术意 图对样本数据进行标注和识别;针对上述6种战术意图进行标签化处理,每一 种意图用一个数字编码;对样本数据的标注采用仿真推演系统事后分析得到, 系统采用上帝视角,对每一组样本数据进行复推,根据环境属性、实体状态、 执行任务等信息归纳出目标的作战意图,并赋予意图标签,之后再由专家对加 注的标签进行校验和修订;
Step2.目标意图识别输入特征输入
选取的目标意图识别输入特征共有W维,包括数值型特征和非数值型特征 两种;
定义矩阵U(t)和矩阵V(t),分别描述t时刻目标意图识别输入特征中的数值型 和非数值型特征;对目标意图识别输入特征进行归一化处理能够消除数据量纲 影响,同时能够提高网络收敛效率;对于高度、速度、加速度等数值型特征, 采用最大-最小标准化方法进行归一化处理,将其映射到区间[0,1],计算过程如下:
其中,u′为初始输入数值,u为归一化后的结果,min为该维度下的最小值,max 为该维度下的最大值,c为极小的常数;
每一时刻的目标状态输入采用矩阵形式;目标意图识别输入特征中的数值 型特征表示为
非数值型特征均为分类数据,神经网络无法直接处理分类数据,因此需要 对其进行数值化处理,将其转化为在区间[0,1]的结果,过程如下:
其中,K为该维度下的总分类数目,则原始输入v′对应的该维度下第k类映射到 区间[0,1]的结果为v;目标意图特征输入中的非数值型特征表示为
根据以上归一化及数值化处理方式,得到t时刻目标意图识别输入特征初始 输入总特征It={Ut,Vt};在此基础上,对其进行整合及统一编码,得到标准特征输 入矩阵Xt,表示为
Step3.双向门控循环单元BiGRU设计
给定t时刻的输入Xt和上一时刻隐藏状态Ht-1,Ht-1在上一时刻求解得到,经 过激活函数sigmoid函数的全连接层的计算,得到重置门Rt、更新门Zt的输出:
Rt=σ(XtWxr+Ht-1Whr+br) (6)
Zt=σ(XtWxz+Ht-1Whz+bz) (7)
其中,Wxr、Whr和Wxz、Whz分别为第一、第二、第三、第四权重参数,br、bz分别 为第一、第二偏差参数;重置门和更新门中每个元素的值域都是[0,1];σ为归一 化系数;
其中,Wxh和Whh分别为第五、第六权重参数,bh是第三偏差参数,·是按元素乘 法;重置门Rt的功能是决定前一时刻隐藏状态需要重置的信息有多少,当Rt元素 值接近0时,代表重置对应隐藏状态元素为0,即前一时刻的隐藏状态全部重置 为当前时刻的输入;更新门Zt的功能是决定前一时刻的信息是否被丢弃,其值越 小,代表前一时刻隐藏节点所包含的信息被丢弃得越多;GRU网络模型复杂度 较低的原因是忽略了某些没用的信息,而其中的重置门能够捕捉时间序列里短 期的依赖关系,更新门则能够捕捉时间序列里长期的依赖关系;
在对意图识别模型进行训练过程中,会发现当前时刻不仅仅由之前的时刻 序列决定,有时候也可能由后面时刻的序列决定;BiGRU由前向的GRU网络与 后向的GRU网络组成,在GRU的基础上增加从后往前传递信息的隐藏层,从 而解决上述问题;
BiGRU在时刻t的隐藏状态Ht由正向隐藏状态和反向隐藏状态两部分 共同求得,正向隐藏状态由当前时刻的输入Xt和前一时刻的正向隐藏状态决定,反向隐藏状态由当前时刻的输入Xt和后一时刻的反向隐藏状态决 定,同样由前一及后一时刻确定,循环迭代,H0初始化值设置为0; 计算公式为
其中,W1、W2、W3、W4分别为单元之间的第一、第二、第三、第四权重,f为 GRU单元隐藏层状态计算方法,如公式(6)至(9)所示;BiGRU中通过连结 正向隐藏状态和反向隐藏状态得到最终的隐藏状态Ht,计算公式为
Step4.注意力机制设计
注意力机制输入为经过BiGRU神经网络层输出的隐藏状态Ht,通过注意力 机制可以对隐藏状态加权表征,以挖掘连续时刻特征输入间的关联关系,最终 得到新的状态序列作为输出;
对于t时刻,注意力机制的计算公式为:
et=vttanh(WtHt+bt) (13)
其中,vt和Wt分别为t时刻的第一和第二权重系数矩阵,bt为t时刻相应的偏移量,et为隐藏层状态Ht在t时刻得到的能量值;at为每一时刻的影响权重,St为最终得 到的各个时刻输出的加权和,即下一步全连接层的输入,T为总时间;
Step5.条件随机场CRF设计
空中目标的战术意图之间是具有前后依赖性质的,即各个时刻的意图并非 完全独立,而是依赖于前一个时刻的意图;
若给定目标输入标准特征集序列X=(X1,X2,...,Xt),X1,X2,…,Xt分别为1到t时刻输入的特征向量,意图输出标签序列Y=(Y1,Y2,...,Yt),Y1,Y2,...,Yt分别为1到t时刻输出的意图标签,Y=(Y1,Y2,...,Yt)由条件随机场CRF输出,将每对X和Y的评估分 数定义为F=(X,Y);F=(X,Y)包含两部分:第一部分是每个时刻t,经过BiGRU 层、注意力层、全连接层输出的意图得分之和;将全连接层的输出序列 O=(O1,O2,...,Ot)看作分数矩阵,矩阵大小为t×l,其中l为战术意图数量,Oi为i时 刻6种意图分别的得分,i∈[1,t],其反映的是第i个时刻属于各种战术意图的可 能性,Oi,j表示第i个时刻第j个战术意图对应的得分,j∈[1,l],Oi,j∈Oi,Oi∈O; 第二部分是t时刻意图转移的得分之和;F=(X,Y)的计算公式为
通过归一化所有标注序列,得到关于意图输出标签序列Y的概率分布,公式 为
式中,Y(X)表示目标输入标准特征集序列X对应的所有可能的状态序列,Y′为Y 中的每一项,即Y′包含Y1...Yt;
在模型训练过程中,将有关正确状态序列的对数概率最大化,公式为
在进行意图识别时,在新的输入标准特征集序列X=(X1,X2,...,Xt)上找到总得分F=(X,Y)最高的状态序列,即
其中Y={Y1,Y2,...,Yt},则时刻t的目标意图识别结果为Yt。
在本发明的一个具体实施例中,在Step2中,选取的目标意图识别输入特征 共有12维,分别是:高度、速度、加速度、航向角、方位角、距离、航路捷径、 一维距离像、雷达反射截面积、空对空雷达状态、空对地雷达状态、电子干扰 状态,其中前9种为数值型特征,后3种为非数值型特征。
在本发明的另一个具体实施例中,在Step2中,取c=10-5。
在本发明的又一个具体实施例中,在Step5中:在进行意图识别时,采用动 态规划算法Viterbi在新的输入标准特征集序列X=(X1,X2,...,Xt)上找到总得分 F=(X,Y)最高的状态序列。
本发明提出一种空中目标意图识别方法。首先,将战场环境、目标属性, 以及目标在连续多个时刻的状态信息进行统一编码,作为输入信号,描述其时 序变化特征;其次,构建双向门控循环单元及条件随机场(BiGRU-CRF)网络, 同时对输入的时序性和输出的前后依赖性进行建模,解决连续时刻意图的关联 问题;再次,为了进一步提高空中目标意图识别性能,还引入了注意力机制, 能够对门控循环单元(GRU)网络各个时刻输出的编码信息进行有效利用;最 后,通过实验仿真验证所建立的模型具有较好的空中目标意图识别效果。
附图说明
图1给出意图空间编码;
图2给出目标意图识别特征;
图3给出BiGRU结构;
图4给出意图识别准确率结果;
图5给出意图识别损失值结果;
图6给出BiGRU-Attention-CRF的混淆矩阵;
图7给出注意力机制可视化结果;
图8给出了意图识别准确率消融实验结果;
图9给出了意图识别损失值消融实验结果。
具体实施方式
本发明提出一种空中目标意图识别方法。首先,将战场环境、目标属性, 以及目标在连续多个时刻的状态信息进行统一编码,作为输入信号,描述其时 序变化特征;其次,构建BiGRU-CRF网络,同时对输入的时序性和输出的前后 依赖性进行建模,解决连续时刻意图的关联问题;再次,为进一步提高空中目 标意图识别性能,引入注意力机制,能够对门控循环单元(GRU)网络各个时 刻输出的编码信息进行有效利用;最后,通过实验仿真验证所建立的模型具有 较好的空中目标意图识别效果。
Step1.目标意图空间编码
为了准确识别空中来袭目标的战术意图,首先要给出合理的敌方目标战术 意图空间(以下简称为“意图空间”),这也是对仿真数据集进行样本标注的前提。 针对不同的想定背景、不同的作战场景和不同的目标实体,意图空间往往存在 较大差异。因此,需要根据相应的作战背景、作战经验以及敌方目标的基本属 性和可能担负的作战任务,来定义目标的意图空间。本发明的仿真数据集和实 时时序特征集依靠战场模拟系统得到,该模拟系统主要针对敌方进攻、我方防 守的情景进行仿真模拟。因此,综合作战背景与敌方目标的属性及任务,建立 目标战术意图空间集合为{攻击、侦察、监视、掩护、干扰、撤退}。
随着当前装备的发展,在作战任务中,一个目标可能同时具备着多种战术 意图,随着时间及态势的变化,其战术意图可能发生转变。与此同时,一个目 标由于类型等属性固定,且其状态变化具有固定的变化范围,其战术意图数量 通常有限。本发明后续的研究假定每个目标在某一时刻只有一个主要战术意图, 采用目标的主要战术意图对样本数据进行标注和识别。
意图识别问题本质上是一个多分类问题,因此在训练过程中需要进行有监 督的学习。将GRU网络应用于意图识别问题,其中的一个关键问题就是如何将 人设定的意图空间抽象为计算机可以识别的模式标签。在这一过程中,指挥员 从战场态势数据中提取目标的关键特征信息,并结合已有的规则及自身具备的 经验,识别出目标的真实战术意图,因此将意图空间封装为模型训练标签的过 程也是体现模型具有知识驱动能力的过程。针对上述设定的意图空间中的6种 战术意图,采用如图1所示方式进行标签化处理,每一种意图用一个数字编码, 方便模型进行训练与识别。
本发明对样本数据的标注采用仿真推演系统事后分析得到,系统采用上帝 视角,可以对每一组样本数据进行复推,复推指专家可以在仿真推演之后依据 推演过程中收集到的数据归纳出目标的作战意图,也就是根据环境属性、实体 状态、执行任务等信息归纳出目标的作战意图,并赋予意图标签,之后再由领 域专家对加注的标签进行校验和修订。
Step2.目标意图识别输入特征输入
目标的意图通过目标的行动和状态体现,进行意图识别需要对传感器获得 的信息进行融合与分析,因此选择合适的特征信息作为模型的输入至关重要。 目标在作战过程中,除去一些目标固有属性例如目标类型、目标体积等基本保 持不变外,由于其需要通过一系列的战术动作实现其意图,因此目标实时状态 具有一定的时序变化特征。除此之外,在识别目标意图的过程中,还应该考虑 到战场环境信息,具体包括地形、天候、风向等因素,但由于这一类环境因素 在一定时间范围内不会产生剧烈变化,因此本文暂时不考虑环境信息。
确定了意图空间之后,就可以根据目标意图识别输入特征与意图之间的关 系确定需要输入的特征信息。例如,具有侦察意图的侦察机为了躲避雷达探测, 一般采用低空或超高空侦察,其飞行高度为100~1000m或15000m以上,且飞 机上的空对地雷达在侦察过程中保持开启。歼击机在空战格斗时通常采用大速 度接敌,飞行速度一般为700~1500km/h,而轰炸机飞行速度一般为 600~900km/h,且只有在准备攻击和攻击阶段保持雷达开启。具有监视和干扰意 图的飞机为了自身安全不需要飞临保卫要地上空,因此其航路捷径较大,相比 之下具有攻击意图的飞机的航路捷径较小。考虑敌我双方的敌对关系及一些技术限制,对于一些无法直接获得的目标意图识别输入特征,可以采用其他特征 进行代替,例如目标类型和目标体积一般无法直接得到,可以利用雷达一维距 离像和雷达反射截面积进行体现。
综合以上分析,本文选取的目标意图识别输入特征共有12维,分别是:高 度、速度、加速度、航向角、方位角、距离、航路捷径、一维距离像、雷达反 射截面积、空对空雷达状态、空对地雷达状态、电子干扰状态,其中前9种为 数值型特征,后3种为非数值型特征。如图2所示为意图识别输入特征分类。
定义矩阵U(t)和矩阵V(t),分别描述t时刻目标意图识别输入特征中的数值型 和非数值型特征。对目标意图识别输入特征进行归一化处理能够消除数据量纲 影响,同时能够提高网络收敛效率。对于高度、速度、加速度等数值型特征, 采用最大-最小标准化方法进行归一化处理,将其映射到区间[0,1],计算过程如下:
其中,u′为初始输入数值,u为归一化后的结果,min为该维度下的最小值,max 为该维度下的最大值,c为极小的常数,防止max=min时分母为0,取c=10-5。
目标状态在目标作战过程中不断发生变化,连续变化的目标状态往往可以 体现出目标的意图,因此每一时刻的目标状态输入采用矩阵形式。目标意图识 别输入特征中的数值型特征可以表示为
其中,元素表示在t时刻的输入中,目标在第j帧的第i种数值型特征状态值。 m为目标的数值型特征总维度,本文中m=9。M为每个时刻的采样帧数,采样帧 数是可变的,在训练过程中可以通过测试得到最佳采样帧数。
目标雷达状态、电子干扰状态等非数值型特征均为分类数据,神经网络无 法直接处理分类数据,因此需要对其进行数值化处理,将其转化为在区间[0,1]的 结果,过程如下:
其中,K为该维度下的总分类数目,则原始输入v′对应的该维度下第k类映射到 区间[0,1]的结果为v。例如目标的空对地雷达状态,共有开、关、未知三种状态, 按照威胁度从小到大进行排序,其状态分别为[关,未知,开],数值化处理后结 果为[0,1/3,2/3]。目标意图特征输入中的非数值型特征可以表示为
根据以上归一化及数值化处理方式,可以得到t时刻目标意图识别输入特征 初始输入总特征It={Ut,Vt}。在此基础上,对其进行整合及统一编码,得到标准特 征输入矩阵Xt,可以表示为
Step3.双向门控循环单元(BiGRU)设计
给定t时刻的输入Xt和上一时刻隐藏状态Ht-1,Ht-1在上一时刻求解得到(初 始值H0设为0,通过下面的公式9计算下一时刻隐藏状态),经过激活函数 sigmoid函数的全连接层的计算,可以得到重置门Rt、更新门Zt的输出:
Rt=σ(XtWxr+Ht-1Whr+br) (6)
Zt=σ(XtWxz+Ht-1Whz+bz) (7)
其中,Wxr、Whr和Wxz、Whz分别为第一、第二、第三、第四权重参数,br、bz分别 为第一、第二偏差参数。sigmoid函数是一种常用的激活函数,可以将元素的值 变换到0和1之间,因此重置门和更新门中每个元素的值域都是[0,1]。σ为归一 化系数。
其中,Wxh和Whh分别为第五、第六权重参数,bh是第三偏差参数,·是按元素乘 法。重置门Rt的功能是决定前一时刻隐藏状态需要重置的信息有多少,当Rt元素 值接近0时,代表重置对应隐藏状态元素为0,即前一时刻的隐藏状态全部重置 为当前时刻的输入;更新门Zt的功能是决定前一时刻的信息是否被丢弃,其值越 小,代表前一时刻隐藏节点所包含的信息被丢弃得越多。GRU网络模型复杂度 较低的原因是忽略了某些没用的信息,而其中的重置门可以捕捉时间序列里短 期的依赖关系,更新门则可以捕捉时间序列里长期的依赖关系。
在对意图识别模型进行训练过程中,会发现当前时刻不仅仅由之前的时刻 序列决定,有时候也可能由后面时刻的序列决定。BiGRU由前向的GRU网络与 后向的GRU网络组成,在GRU的基础上增加从后往前传递信息的隐藏层,从 而解决上述问题。BiGRU的结构如图3所示。
BiGRU在时刻t的隐藏状态Ht由正向隐藏状态和反向隐藏状态两部分 共同求得,正向隐藏状态由当前时刻的输入Xt和前一时刻的正向隐藏状态决定,反向隐藏状态由当前时刻的输入Xt和后一时刻的反向隐藏状态决 定,同样由前一及后一时刻确定,循环迭代,H0初始化值设置为0。 计算公式为
其中,W1、W2、W3、W4分别为单元之间的第一、第二、第三、第四权重,f为 GRU单元隐藏层状态计算方法,如公式(6)至(9)所示。BiGRU中通过连结 正向隐藏状态和反向隐藏状态得到最终的隐藏状态Ht,计算公式为
Step4.注意力机制设计
注意力机制通常被应用于语言翻译领域,可以用来学习词之间的依赖关系。 在目标意图识别过程中,意图由具有时序关系的一系列行动和状态所表征,不 同时刻的目标意图识别输入特征之间的联系可以提升目标意图识别效果,且每 一时刻的特征输入对于最终意图识别的影响也是不同的。常规的门控循环神经 网络输出仅仅考虑了GRU层在时刻t的输出Ht,而引入注意力机制后,神经网 络最终输出取决于GRU层所有时刻的输出。注意力机制输入为经过BiGRU神 经网络层输出的隐藏状态Ht,通过注意力机制可以对隐藏状态加权表征,以挖 掘连续时刻特征输入间的关联关系,最终得到新的状态序列作为输出。
对于t时刻,注意力机制的计算公式为:
et=vttanh(WtHt+bt) (13)
其中,vt和Wt分别为t时刻的第一和第二权重系数矩阵,bt为t时刻相应的偏移量,et为隐藏层状态Ht在t时刻得到的能量值。at为每一时刻的影响权重,St为最终得 到的各个时刻输出的加权和,即下一步全连接层的输入,T为总时间。
Step5.条件随机场(CRF)设计
将注意力层得到的各个时刻输出的加权和St输入到全连接层,可以通过 softmax函数(softmax函数为常用的归一化函数)直接将其转化为各种意图的 概率,得到意图识别结果(上述步骤只是传统的归一化得到概率的方法,不再 累述)。这种方法在针对简单分类问题时具有较好效果,但当需要输出的结果之 间存在前后依赖关系时,该方法无法表征出前后识别结果之间的转化关系,只 能独立地对各时间点进行分类,使识别结果准确性降低。
针对目标意图识别问题,随着战场中目标自身能力及战术战法的不断提升, 同一目标在时间序列上的不同时刻可能具有不同战术意图。目标在前后时刻的 战术意图之间存在依赖关系,即目标在当前时刻的战术意图一定程度上依赖于 前一时刻的战术意图。如表1所示为基于推演统计得到的空中目标意图转移概 率矩阵A,其中元素Aa,b=P(Yt=b|Yt-1=a)表示时刻t-1的意图为a的情况下,时刻t的 意图转变为b的概率,P表示转移概率。由表可知,各个意图转变到其他意图的 概率并不是相等的。例如,当时刻t-1的意图为攻击时,在t时刻将有0.8921的 概率仍然保持攻击意图,有0.0512的概率转变为掩护,且几乎不可能转变为干 扰。因此,空中目标的战术意图之间是具有前后依赖性质的,即各个时刻的意 图并非完全独立,而是依赖于前一个时刻的意图。
表1战术意图转移矩阵
若给定目标输入标准特征集序列X=(X1,X2,...,Xt),X1,X2,…,Xt分别为1到t时刻输入的特征向量,意图输出标签序列Y=(Y1,Y2,...,Yt),Y1,Y2,...,Yt分别为1到t时刻输出的意图标签,Y=(Y1,Y2,...,Yt)由条件随机场(CRF)输出,将每对X和Y的评估 分数定义为F=(X,Y)。F=(X,Y)包含两部分:第一部分是每个时刻t,经过BiGRU 层、注意力层、全连接层输出的意图得分之和(注意力层输出的是S,注意力后 面又接了全连接层,输出序列O)。将全连接层的输出序列O=(O1,O2,...,Ot)看作分 数矩阵,矩阵大小为t×l,其中l为战术意图数量(本发明l=6,即共有六种目 标战术意图),Oi为i时刻6种意图分别的得分,i∈[1,t],其反映的是第i个时刻 属于各种战术意图的可能性,Ot,j表示第i个时刻第j个战术意图对应的得分, j∈[1,l],Oi,j∈Oi,Oi∈O。第二部分是t时刻意图转移的得分之和。F=(X,Y)的计 算公式为
通过归一化所有标注序列,可以得到关于意图输出标签序列Y的概率分布, 公式为
式中,Y(X)表示目标输入标准特征集序列X对应的所有可能的状态序列,Y′为Y 中的每一项,即Y′包含Y1...Yt。
在模型训练过程中,将有关正确状态序列的对数概率最大化,公式为
在进行意图识别时,可以采用动态规划算法Viterbi(最大似然译码算法, 由维特比于1967年提出)在新的输入标准特征集序列X=(X1,X2,...,Xt)上找到总得 分F=(X,Y)最高的状态序列,即
其中Y={Y1,Y2,...,Yt},则时刻t的目标意图识别结果为Yt(Yt是t时刻输出的识别结果, 每个时刻都会输出意图)。
具体实施例
数据标签由进攻方初始设定及空战领域专家后期修订得到。去除无法使用 的数据,随机抽取20000个样本作为本实验的样本集,包括6种空中目标战术 意图,各意图占比分别为攻击意图26.7%、侦察意图20.3%、监视意图17.4%、 掩护意图18.1%、干扰意图9.6%、撤退意图7.9%。将样本集的80%作为训练样 本集,20%作为测试样本集。每一个样本输入层需要输入的时间帧数由后续测试 确定,输入的特征维度为12维特征。设置的采样点间隔为3s,优化器的学习率 为0.001,一阶矩衰减系数和二阶矩衰减系数分别设置为0.9和0.999,代数、批 大小和分别设置为100和256。
根据以上分析设计实验,基于BiGRU-Attention-CRF的空中目标意图识别模 型的实验结果如图4及图5所示。
准确率曲线和损失值曲线可以看出,模型的收敛时间在30个代数左右,30 个代数之后的准确率与损失值无明显变化。模型训练完成后,训练集的准确率 在97%左右,损失值在0.13左右;测试集的准确率在95%左右,最高为95.7%, 损失值在0.15左右,最低为0.146。
由于集合中每一种意图标签下的样本数量不同,需要进一步分析每一种识 别意图下的准确率。生成测试集的混淆矩阵,如图6所示,其中每一个色块代 表相应条件下的样本数,对角线代表正确识别的样本。
由混淆矩阵可知,本发明提出的BiGRU-Attention-CRF模型对6种目标战术 意图的识别精确率都较高。进一步分析可以发现,6种意图中撤退意图的精确率 最高,可以达到98.1%,结合实际战场情况分析,这主要是因为具有撤退意图的 目标的机动状态比较特殊,例如其距离、航路捷径将会不断增加。攻击意图与 掩护意图之间的互认错误率较高,这是因为执行掩护意图的目标往往会采用佯 攻等战术行为迷惑敌人,其在状态特征等方面与攻击类似,从而导致被误判为 攻击意图。从指挥员认知的角度来讲,这种情况符合正常认知,识别精度有一 定下降,但在可接受范围。
模型中引入的注意力机制(Attention)可以通过前馈神经网络的方法更新时 间序列中每一个时刻点的权重,从而提高模型的正确识别率。为了验证注意力 机制的有效性,将注意力层分配给时间序列不同时刻的权重进行可视化操作, 如图7所示。其中,横轴上为10个时刻点,对应10帧,纵轴上为6种意图, 色块颜色的深浅代表该意图下时间权重的分配结果。
由图可知,大部分意图对于稍近时刻的关注度较多,但并不总是对于最近 时刻的关注度最高。从图中可以发现,攻击意图对于多个时刻前状态的关注度 较高,这是因为攻击意图通常由一系列的机动动作体现,往往存在一个较为明 显的攻击开始行为,例如一些飞机在进入攻击状态时会先爬高搜索目标,进而 俯冲进行攻击,因此攻击意图会较多的关注多个时刻前的攻击开始行为。
除此之外,可以发现攻击意图与掩护意图的注意力矩阵关注点分布基本相 同,这是因为进行掩护的飞行器往往会采用佯攻的战术,与攻击具有类似的行 为动作,这一点也与上一节中对于混淆矩阵的分析相互印证。另外,侦察、监 视、干扰三种意图对于时间序列的关注点分布较为均匀,这与三者均为长时间 的持续行为动作有关。撤退意图对于时间序列的关注点以后半部分为主,与其 远离、关机等行为动作有关。注意力机制的可视化结果符合战场实际,说明引 入注意力机制既可以一定程度上提高意图识别模型的准确性,又可以使模型具 有一定的可解释功能,效果较好。
采用其他文献中的意图识别方法,在本发明的同一数据集上进行对比实验。 采用的方法有DBP、SVM、PCLSTM、LSTM-Attention、GRU-Attention。在采 样帧数、意图空间等条件相同的情况下,对上述相关模型进行训练,计算其性 能指标,对比实验结果如表2所示。
表2不同意图识别模型的比较
由结果可以发现,本发明提出的BiGRU-Attention-CRF模型识别准确率和损 失值远远优于其他几种意图识别模型。BiGRU-Attention-CRF模型对空中目标意 图识别的综合准确率、调和分数分别为95.7%和0.864,对比其他模型均有较大 提升。通过计算测试集的交叉熵损失,本发明提出的模型对应的损失值明显低 于对比模型,说明能够较好地识别出测试集中目标的战术意图。
对比发现,以LSTM或GRU网络为基础的识别模型作为由RNN改进得到 的的时序特征网络模型可以捕捉到时序数据中的隐藏特征,较其它模型更加适 用空中目标战术意图识别。对比LSTM-Attention和GRU-Attention模型的实验 结果,可以发现二者的识别准确率、损失值和调和平均分数均相近,但是 LSTM-Attention识别单个样本的时间明显较长,这是因为LSTM与GRU的细胞 单元结构不同,前者由遗忘门、输入们和输出门组成,后者由重置门和更新门 组成,且GRU网络的参数要远小于LSTM网络。这也正是本发明选择使用BiGRU对时序信息进行处理的原因,因为在战场环境中,指挥信息系统进行意 图识别的时间也是一个需要重点考虑的因素,在准确率近似的情况下,可以考 虑采用处理时间较短的方法。
为了进一步验证BiGRU-Attention-CRF模型进行意图识别的效果,在同一数 据集上进行消融实验。实验模型结构设置及实验结果如表3所示,模型的准确 率和损失值的变化曲线如图8及图9所示。
表3消融实验结果
从表中可以看出,BiGRU-Attention-CRF的准确率、损失值和调和平均分数 均是最优的。通过对双向网络层、Attention层和CRF层进行消融实验,三者对 准确率的贡献分别为0.022,0.036和0.024,说明引入双向网络结构、注意力机 制和CRF都能一定程度上提高战术意图识别性能。从消融实验准确率与损失值 变化情况分析,五种模型随训练轮次的增加总体上准确率不断提高,损失值不 断降低,其中BiGRU-Attention-CRF模型始终优于其余四种模型。加入双向网络 结构后在最初训练不久后模型准确率和损失值就明显优于基础GRU模型,说明 双向传播机制能有效提高训练效果,使神经网络模型在相同批量大小、学习率、 训练轮次的情况下能更快的学习。由于测试集中每一种意图所包含的样本数目不相同,因此使用召回率和调和平均分数来体现5种模型对于每一种意图的识 别准确度,结果如表4所示。
表4每种意图评价指标结果。I、II、III、IV、V分别表示上述5种模型,①、②、③、④、⑤、⑥分别 表示攻击、侦察、监视、掩护、干扰、撤退6种意图。
分析上表可以发现,对于每一种意图均是BiGRU-Attention-CRF模型具有最 高的召回率和调和平均分数。通过模型II和III的比较,可以发现在基于BiGRU 的模型中,仅引入Attention机制的作用要略大于仅引入CRF层的作用,而二者 同时引入相结合,则可以使模型的识别效果更好。对比6种战术意图,一般情 况下掩护意图的召回率和调和平均分数最低,这是因为掩护意图具有最多种类 的机动及战术动作,目标在识别过程中可能会被误认为具有其他种类的意图。 撤退意图的准确率和调和平均分数最高,是因为撤退意图的输入特征比较明显, 模型可以较快较好的学习到其特点。
本发明提出一种基于双向门控循环单元和条件随机场的深度学习方法,以 提高对于空中目标战术意图识别的准确性。首先,构建目标意图识别特征集和 目标意图空间,并对其进行统一编码;其次,构建双向门控循环单元(BiGRU) 网络,引入注意力机制(Attention),对输入信息的时序特征进行捕捉,并对网 络各个时刻输出的编码信息进行有效利用;再次,采用条件随机场(CRF)对输 出意图的前后依赖性进行建模,解决连续时刻意图的关联问题;最后,通过实 验表明,相较于其他先进的意图识别方法,本发明提出的方法在空中意图识别 中具有整体上的优势。
Claims (4)
1.基于双向门控循环单元和条件随机场的意图识别方法,其特征在于,具体包括下列步骤:
Step1.目标意图空间编码
建立目标战术意图空间集合为{攻击、侦察、监视、掩护、干扰、撤退};
假定每个目标在某一时刻只有一个主要战术意图,采用目标的主要战术意图对样本数据进行标注和识别;针对上述6种战术意图进行标签化处理,每一种意图用一个数字编码;对样本数据的标注采用仿真推演系统事后分析得到,系统采用上帝视角,对每一组样本数据进行复推,根据环境属性、实体状态、执行任务等信息归纳出目标的作战意图,并赋予意图标签,之后再由专家对加注的标签进行校验和修订;
Step2.目标意图识别输入特征输入
选取的目标意图识别输入特征共有W维,包括数值型特征和非数值型特征两种;
定义矩阵U(t)和矩阵V(t),分别描述t时刻目标意图识别输入特征中的数值型和非数值型特征;对目标意图识别输入特征进行归一化处理能够消除数据量纲影响,同时能够提高网络收敛效率;对于高度、速度、加速度等数值型特征,采用最大-最小标准化方法进行归一化处理,将其映射到区间[0,1],计算过程如下:
其中,u′为初始输入数值,u为归一化后的结果,min为该维度下的最小值,max为该维度下的最大值,c为极小的常数;
每一时刻的目标状态输入采用矩阵形式;目标意图识别输入特征中的数值型特征表示为
非数值型特征均为分类数据,神经网络无法直接处理分类数据,因此需要对其进行数值化处理,将其转化为在区间[0,1]的结果,过程如下:
其中,K为该维度下的总分类数目,则原始输入v′对应的该维度下第k类映射到区间[0,1]的结果为v;目标意图特征输入中的非数值型特征表示为
根据以上归一化及数值化处理方式,得到t时刻目标意图识别输入特征初始输入总特征It={Ut,Vt};在此基础上,对其进行整合及统一编码,得到标准特征输入矩阵Xt,表示为
Step3.双向门控循环单元BiGRU设计
给定t时刻的输入Xt和上一时刻隐藏状态Ht-1,Ht-1在上一时刻求解得到,经过激活函数sigmoid函数的全连接层的计算,得到重置门Rt、更新门Zt的输出:
Rt=σ(XtWxr+Ht-1Whr+br) (6)
Zt=σ(XtWxz+Ht-1Whz+bz) (7)
其中,Wxr、Whr和Wxz、Whz分别为第一、第二、第三、第四权重参数,br、bz分别为第一、第二偏差参数;重置门和更新门中每个元素的值域都是[0,1];σ为归一化系数;
其中,Wxh和Whh分别为第五、第六权重参数,bh是第三偏差参数,·是按元素乘法;重置门Rt的功能是决定前一时刻隐藏状态需要重置的信息有多少,当Rt元素值接近0时,代表重置对应隐藏状态元素为0,即前一时刻的隐藏状态全部重置为当前时刻的输入;更新门Zt的功能是决定前一时刻的信息是否被丢弃,其值越小,代表前一时刻隐藏节点所包含的信息被丢弃得越多;GRU网络模型复杂度较低的原因是忽略了某些没用的信息,而其中的重置门能够捕捉时间序列里短期的依赖关系,更新门则能够捕捉时间序列里长期的依赖关系;
在对意图识别模型进行训练过程中,会发现当前时刻不仅仅由之前的时刻序列决定,有时候也可能由后面时刻的序列决定;BiGRU由前向的GRU网络与后向的GRU网络组成,在GRU的基础上增加从后往前传递信息的隐藏层,从而解决上述问题;
BiGRU在时刻t的隐藏状态Ht由正向隐藏状态和反向隐藏状态两部分共同求得,正向隐藏状态由当前时刻的输入Xt和前一时刻的正向隐藏状态决定,反向隐藏状态由当前时刻的输入Xt和后一时刻的反向隐藏状态决定,同样由前一及后一时刻确定,循环迭代,H0初始化值设置为0;计算公式为
其中,W1、W2、W3、W4分别为单元之间的第一、第二、第三、第四权重,f为GRU单元隐藏层状态计算方法,如公式(6)至(9)所示;BiGRU中通过连结正向隐藏状态和反向隐藏状态得到最终的隐藏状态Ht,计算公式为
Step4.注意力机制设计
注意力机制输入为经过BiGRU神经网络层输出的隐藏状态Ht,通过注意力机制可以对隐藏状态加权表征,以挖掘连续时刻特征输入间的关联关系,最终得到新的状态序列作为输出;
对于t时刻,注意力机制的计算公式为:
et=vttanh(WtHt+bt) (13)
其中,vt和Wt分别为t时刻的第一和第二权重系数矩阵,bt为t时刻相应的偏移量,et为隐藏层状态Ht在t时刻得到的能量值;at为每一时刻的影响权重,St为最终得到的各个时刻输出的加权和,即下一步全连接层的输入,T为总时间;
Step5.条件随机场CRF设计
空中目标的战术意图之间是具有前后依赖性质的,即各个时刻的意图并非完全独立,而是依赖于前一个时刻的意图;
若给定目标输入标准特征集序列X=(X1,X2,...,Xt),X1,X2,…,Xt分别为1到t时刻输入的特征向量,意图输出标签序列Y=(Y1,Y2,...,Yt),Y1,Y2,...,Yt分别为1到t时刻输出的意图标签,Y=(Y1,Y2,...,Yt)由条件随机场CRF输出,将每对X和Y的评估分数定义为F=(X,Y);F=(X,Y)包含两部分:第一部分是每个时刻t,经过BiGRU层、注意力层、全连接层输出的意图得分之和;将全连接层的输出序列O=(O1,O2,...,Ot)看作分数矩阵,矩阵大小为t×l,其中l为战术意图数量,Oi为i时刻6种意图分别的得分,i∈[1,t],其反映的是第i个时刻属于各种战术意图的可能性,Oi,j表示第i个时刻第j个战术意图对应的得分,j∈[1,l],Oi,j∈Oi,Oi∈O;第二部分是t时刻意图转移的得分之和;F=(X,Y)的计算公式为
通过归一化所有标注序列,得到关于意图输出标签序列Y的概率分布,公式为
式中,Y(X)表示目标输入标准特征集序列X对应的所有可能的状态序列,Y′为Y中的每一项,即Y′包含Y1...Yt;
在模型训练过程中,将有关正确状态序列的对数概率最大化,公式为
在进行意图识别时,在新的输入标准特征集序列X=(X1,X2,...,Xt)上找到总得分F=(X,Y)最高的状态序列,即
其中Y={Y1,Y2,...,Yt},则时刻t的目标意图识别结果为Yt。
2.如权利要求1所述的基于双向门控循环单元和条件随机场的意图识别方法,其特征在于,在Step2中,选取的目标意图识别输入特征共有12维,分别是:高度、速度、加速度、航向角、方位角、距离、航路捷径、一维距离像、雷达反射截面积、空对空雷达状态、空对地雷达状态、电子干扰状态,其中前9种为数值型特征,后3种为非数值型特征。
3.如权利要求1所述的基于双向门控循环单元和条件随机场的意图识别方法,其特征在于,在Step2中,取c=10-5。
4.如权利要求1所述的基于双向门控循环单元和条件随机场的意图识别方法,其特征在于,在Step5中:在进行意图识别时,采用动态规划算法Viterbi在新的输入标准特征集序列X=(X1,X2,...,Xt)上找到总得分F=(X,Y)最高的状态序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210234671.9A CN114818853B (zh) | 2022-03-10 | 2022-03-10 | 基于双向门控循环单元和条件随机场的意图识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210234671.9A CN114818853B (zh) | 2022-03-10 | 2022-03-10 | 基于双向门控循环单元和条件随机场的意图识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114818853A true CN114818853A (zh) | 2022-07-29 |
CN114818853B CN114818853B (zh) | 2024-04-12 |
Family
ID=82528366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210234671.9A Active CN114818853B (zh) | 2022-03-10 | 2022-03-10 | 基于双向门控循环单元和条件随机场的意图识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114818853B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116029379A (zh) * | 2022-12-31 | 2023-04-28 | 中国电子科技集团公司信息科学研究院 | 空中目标意图识别模型构建方法 |
CN116050515A (zh) * | 2022-12-30 | 2023-05-02 | 中国电子科技集团公司信息科学研究院 | 一种基于XGBoost的平行推演多分支态势预测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749761A (zh) * | 2021-01-22 | 2021-05-04 | 上海机电工程研究所 | 基于注意力机制和循环神经网络的敌方作战意图识别方法及系统 |
WO2021155699A1 (zh) * | 2020-02-03 | 2021-08-12 | 苏州科技大学 | 面向中文长文本自动摘要的全局编码方法 |
CN113743509A (zh) * | 2021-09-07 | 2021-12-03 | 中国人民解放军国防科技大学 | 一种基于不完全信息的在线作战意图识别方法及装置 |
-
2022
- 2022-03-10 CN CN202210234671.9A patent/CN114818853B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021155699A1 (zh) * | 2020-02-03 | 2021-08-12 | 苏州科技大学 | 面向中文长文本自动摘要的全局编码方法 |
CN112749761A (zh) * | 2021-01-22 | 2021-05-04 | 上海机电工程研究所 | 基于注意力机制和循环神经网络的敌方作战意图识别方法及系统 |
CN113743509A (zh) * | 2021-09-07 | 2021-12-03 | 中国人民解放军国防科技大学 | 一种基于不完全信息的在线作战意图识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
欧微;柳少军;贺筱媛;郭圣明;: "基于时序特征编码的目标战术意图识别算法", 指挥控制与仿真, no. 06, 31 December 2016 (2016-12-31), pages 36 - 41 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116050515A (zh) * | 2022-12-30 | 2023-05-02 | 中国电子科技集团公司信息科学研究院 | 一种基于XGBoost的平行推演多分支态势预测方法 |
CN116050515B (zh) * | 2022-12-30 | 2023-11-07 | 中国电子科技集团公司信息科学研究院 | 一种基于XGBoost的平行推演多分支态势预测方法 |
CN116029379A (zh) * | 2022-12-31 | 2023-04-28 | 中国电子科技集团公司信息科学研究院 | 空中目标意图识别模型构建方法 |
CN116029379B (zh) * | 2022-12-31 | 2024-01-02 | 中国电子科技集团公司信息科学研究院 | 空中目标意图识别模型构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114818853B (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334741B (zh) | 基于循环神经网络的雷达一维距离像识别方法 | |
Hu et al. | Learning activity patterns using fuzzy self-organizing neural network | |
CN114818853B (zh) | 基于双向门控循环单元和条件随机场的意图识别方法 | |
CN112434643A (zh) | 低慢小目标的分类识别方法 | |
Xue et al. | Panoramic convolutional long short-term memory networks for combat intension recognition of aerial targets | |
CN112598046B (zh) | 一种多机协同空战中的目标战术意图识别方法 | |
CN111340076B (zh) | 一种对新体制雷达目标未知模式的零样本识别方法 | |
CN112052933B (zh) | 基于粒子群优化的深度学习模型的安全性测试方法和修复方法 | |
CN113297572B (zh) | 基于神经元激活模式的深度学习样本级对抗攻击防御方法及其装置 | |
CN114266355A (zh) | 一种基于BiLSTM-Attention的战术意图识别方法 | |
Ye et al. | CT-Net: An efficient network for low-altitude object detection based on convolution and transformer | |
Teng et al. | An air target tactical intention recognition model based on bidirectional GRU with attention mechanism | |
CN115130357A (zh) | 一种基于gru的空中目标作战意图预测系统及方法 | |
Wang et al. | Learning embedding features based on multisense-scaled attention architecture to improve the predictive performance of air combat intention recognition | |
Wang et al. | Interpret neural networks by extracting critical subnetworks | |
CN115661576A (zh) | 一种样本不平衡下的飞机群组意图识别方法 | |
CN114494819B (zh) | 一种基于动态贝叶斯网络的抗干扰红外目标识别方法 | |
CN113887807B (zh) | 基于机器学习和证据理论的机器人博弈战术预测方法 | |
CN114296067A (zh) | 基于lstm模型的脉冲多普勒雷达低慢小目标识别方法 | |
Zhang et al. | Research on intelligent target recognition integrated with knowledge | |
Chen et al. | Target intent recognition method based on evidence fusion in TimeSeries networks | |
Ren et al. | Fast RCS data generation based on infoGAN | |
Wang et al. | An air target tactical intention recognition method based on the fusion deep learning network model | |
Yang et al. | Anti-Interference Recognition for Aerial Infrared Object Based on Convolutional Feature Inference Network | |
Wan et al. | CBA: Multi Source Fusion Model for Fast and Intelligent Target Intention Identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |