CN115079116A - 基于Transformer和时间卷积网络的雷达目标识别方法 - Google Patents
基于Transformer和时间卷积网络的雷达目标识别方法 Download PDFInfo
- Publication number
- CN115079116A CN115079116A CN202210391518.7A CN202210391518A CN115079116A CN 115079116 A CN115079116 A CN 115079116A CN 202210391518 A CN202210391518 A CN 202210391518A CN 115079116 A CN115079116 A CN 115079116A
- Authority
- CN
- China
- Prior art keywords
- module
- data
- convolution
- hrrp
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于Transformer和时间卷积网络的雷达目标识别方法,首先对原始HRRP样本集进行预处理;通过卷积模块对样本进行特征提取并改变数据格式;再通过基于VIT的MoCo对比学习模块,在特征空间上学习区分不同样本;之后将经过MoCo对比学习模块得到的特征,输入时间卷积模块,进一步地加强模型的表征能力,得到可分性更强的特征;最后通过全连接层将更有效的特征进行保留,最后采用softmax对网络的输出进行分类。本发明中应用引入时间卷积网络,使模型获取HRRP中更为全面的信息,进一步提高模型的特征提取能力,得到可分性更强的特征用于分类。
Description
技术领域
本发明属于雷达目标识别领域,具体涉及一种基于Transformer 和时间卷积网络的雷达目标识别方法
背景技术
雷达(Radar)诞生于20世纪初,其名称的初始意义为“无线电探测与测距”,是一种利用电磁波来探测目标的电子设备。雷达通过向目标发射指定参数的电磁波,并接其后向散射回波,来获取目标的距离、方位、高度等信息。雷达可以实现对目标进行全天时、全天候、远距离的探测,被广泛应用于目标侦察、目标成像、导弹制导等领域,在军事领域中享有较高的地位,并在国防建设中起着举足轻重的作用。
现代战争以高科技信息战、电子战为中心。在军事场景中,能否对来袭目标进行提前探测,能否对实时信息进行有效的获取、检测,能否对战场形势进行实时高效监测,成为了战争胜败的重要因素。正因此,雷达作为一种可以稳定获取信息的重要设备,在战场情报信息获取手段中具有极高的地位。
根据雷达的距离分辨性能不同,RATA可以分为低分辨窄带和高分辨宽带两种不同的雷达目标识别任务。低分辨窄带信号的距离分辨率比较差,这意味着雷达观测目标在回波中被视为“点”目标,因此雷达回波中蕴含的目标信息较少,通常只能基于其回波序列的起伏、微多普勒以及调制等特征实现简单的辨别任务或者粗分类,这显然无法满足现代信息社会对RATA应用场景的需求。
高分辨宽带雷达的距离分辨率较好且远小于目标尺寸,其回波也被称为目标的一维高分辨距离像(HRRP)。HRRP信号提供了目标散射中心沿雷达视线方向的分布情况,反映了目标的尺寸、结构等重要信息,并因其数据量小、易于获取和处理的特点,被广泛地应用于雷达自动目标识别(RATR)领域。传统的基于HRRP的雷达目标识别方法大多是无监督且有损的,可分的特征会在建模过程中丢失一部分,从而影响模型的识别准确率和泛化性。而一些基于深度学习的HRRP 识别方法,在训练数据量较少时,会出现识别性能骤降的现象。
发明内容
为了解决上述问题,我们提出了一种新的深度学习雷达目标识别模型,
该模型由数据预处理模块、卷积模块、基于Transformer的MoCo 对比学习模块、卷积时间网络和分类模块组成。其中MoCo对比学习模块由数据增强、Transformer编码器模块和对比损失模块组成。经过预处理后的HRRP数据,先通过卷积模块并变换成三通道图片格式的数据;然后通过MoCo对比学习模块,在特征空间上学习区分不同样本,拉近同类别样本在特征空间中的距离,同时拉开不同类别样本之间的距离;接着将经过对比学习模块得到的表征输入时间卷积网络,得到可分性更强的特征用于分类,完成HRRP的识别。
基于Transformer和时间卷积网络的的雷达目标识别方法,包括以下步骤:
S1:对原始HRRP样本集进行预处理。
采用L2范数归一化对HRRP原始回波数据进行处理,将幅度划分到统一尺度内消除HRRP的幅度敏感性。采用重心对齐法来改善HRRP 的平移敏感性。
S2:通过卷积模块对样本进行特征提取并改变数据格式;
通过卷积模块CNN对预处理后的HRRP数据进行处理,通过控制和调整卷积模块卷积核的大小和步长,将一维距离像卷积成后续网络所需的数据格式。
S3:通过基于VIT的MoCo对比学习模块,在特征空间上学习区分不同样本,拉近同类别样本在特征空间中的距离,同时拉开不同类别样本之间的距离。
S4:将经过MoCo对比学习模块得到的特征,输入时间卷积模块,进一步地加强模型的表征能力,得到可分性更强的特征。
S5:通过全连接层将更有效的特征进行保留,最后采用softmax 对网络的输出进行分类;
优选地,所述步骤S1具体步骤如下:
S1.1:L2范数归一化。将幅度划分到统一尺度内。将原始的雷达HRRP数据表示为X=[x1,x2,…,xM],则L2范数归一化后得到的 Xnorm如下:
优选地,所述S2详细步骤为:
然后,将卷积输出的特征经过批归一化和激活函数ReLU得到输出Fbr,避免数据分布差异对识别性能的影响。最后,将Fbr变换成 (Reshape)对比学习所需的数据格式,得到特征Fin,其中其中CH×1×L=C×H×W,C、H、W分别是图片的通道、高和宽。经过卷积模块得到特征特征Fin的数据形式与图片一致,所以也把Fin称为卷积处理后的HRRP图片格式数据。
优选地,所述S3详细步骤为:
所述的MoCo对比学习模块由数据增强、编码器模块和对比损失模块组成。
S3.1:数据增强模块。
设计了一种组合使用随机剪裁(Random Crop)、依概率p水平翻转(HorizontalFlip)和依概率p垂直翻转(Vertical Flip)的数据增强方法。小批次的经过卷积处理后的HRRP图片格式数据为对这一批次的数据进行增强:
S3.2:编码器模块。
所述的编码器模块包括梯度编码器fq和动量编码器fk,通过VIT 模块构建为梯度编码器fq和动量编码器fk,两者区别在于梯度编码器 fq梯度方式更新参数,而动量编码器fk采用动量方式更新参数,两者的模块结构相同。
VIT模块针对图片格式数据来获取其深度双向表示,需要将数据进行分割并拉伸成向量形式即分块嵌入并加上位置编码,然后通过多头注意力模块进行的注意力分布计算,最后通过MLP层得到输出特征。
VIT模块具体如下:
S3.2.1:分块嵌入和位置编码。先将图片格式数据划分为几个区块(patches),然后将其线性压缩为特征向量结构。对于输入特征给定区块的大小尺寸P,将F″′in划分为N个P×P×C的区块,如下公式:
C×H×W→N×(P2C)
得到N个区块之后,通过全连接网络将其线性变换为N个长度为E维的特征向量,并在向量起始位置添加一个标志位向量xclass。计算过程如下:
同样的,分块嵌入得到的特征缺少区块之间的相对位置信息,因此需要为F0添加位置编码信息。使用可训练的一维位置编码,初始化一个可训练的随机变量,将其添加到嵌入特征F0中:
F1=F0+Epos
FLN=LayerNorm(F1)
S3.2.3:多头注意力模块。首先先介绍自注意力机制,层归一化后的嵌入表征FLN乘以三个不同的参数矩阵,映射为查询矩阵Q、被查询的键值矩阵K和值矩阵V,公式可以表示为:
接着,使用Q矩阵去查询K矩阵,建立每一维特征与全局特征之间的联系,得到点积矩阵QKT。通过点击得到的矩阵通常具有较大的方差,将其归一化后的结果不太稳定,不利于模型收敛,因此引入了“缩放因子”。将QKT除以再通过Softmax函数将其归一化,得到V的注意力权重矩阵。
最后,自注意力机制的输出Fself-att如下:
多头注意力机制的原理与上述的自注意力机制原理类似。不同的是,这个过程要重复h次,也就是所谓的多头。由于每一次投影和点击运算的参数矩阵不同,因此得到的h个自注意力输出也不相同。将这h个自注意力结果拼接(Concat)起来,再经过一次线性变换,最终得到多头注意力机制的结果FMH。多头注意力机制的计算过程如下所示:
headi=Attention(FLNWq i,FLNWk i,FLNWv i)
FMH=Concat[head1;head2;...;headh]WMH
S3.2.4:MLP层。
MLP实际上就是两层全连接层,第一个全连接层将残差归一化后的多头注意力输出特征Flr映射到高维隐藏空间,第二个全连接层将其映射到低维空间,进一步保留有用的特征信息,其过程为:
Ffc1=FlrWmlp_dim+bmlp_dim
Ffc2=ReLU(Ffc1Wembed_dim+bembed_dim)(
其中,Ffc1表示第一个全连接层输出结果,Ffc2表示第二个全连接层输出的结果。Wmlp_dim和Wembed_dim是两次线性投影的参数矩阵,bmlp_dim和bembed_dim是对应的偏置。
S3.3:对比损失模块,对比模块所用的损失函数如下所示:
其中,q是HRRP样本x经过上述模块得到的结果q。k+是与x相似的正样例经过上述模块得到的结果,k-是与x不相似的负样例经过上述模块得到的结果。该损失函数使得q与正样例k+的相似度尽可能的大,与其他负样例的相似度尽可能小。
由于MoCo对比学习模块整体架构输入与一般的对比学习模块不同,MoCo对比学习模块的编码器模块有两个输入,因此损失函数也有所不同。对于同一个HRRP数据经过两次数据增强模块,因为数据增强模块的随机性得到2种增强版本和分别通过梯度编码器 fq和动量编码器fk得到特征q1、和q2、让q1、通过上式得到损失ctr1,让q2、通过上式得到损失ctr2,然后得到MoCo对比学习模块的对比损失函数为:
Lmoco=ctr1+ctr2
编码器fq通过损失函数的梯度下降来优化参数,而编码器fk则不进行梯度更新,而是通过下式进行动量更新:
θk←mθk+(1-m)θq (5.16)
其中,θq是编码器fq的参数,θk是编码器fk的参数。m为动量参数,m=0.999,因此编码器fk的更新虽然极为缓慢,但是依然能更新参数,解决了一致性的问题。
优选地,所述S4详细步骤为:
时间卷积模块由因果膨胀卷积、批归一化、ReLU函数、Dropout 和残差连接组成。
field=(k-1)·d
然后,对因果膨胀卷积得到的特征进行批归一化操作。每个批次 (mini-batch)中包含num条数据:定义该批次数据经过因果膨胀卷积操作之后的输出为Fi表示mini-batch中第 i条数据对应的因果膨胀卷积输出。那么,对进行批归一化可定义为:
对mini-batch中的每一条数据重复上面的计算过程,得到映射输出特征F(q1),然后通过残差连接获取浅层信息,防止过拟合:
Fres=ReLU(q1+F(q1))
优选地,所述S5详细步骤为:
最后使用一层全连接层和Softmax函数对特征预测,其过程为,先通过一层全连接层将时间卷积网络的输出特征Fres进行降维,得到预测向量:
Ff=FresWf+bf
其中,Ff(c)表示第c个元素,P(c|Ff)表示特征Ff属于第c类目标的概率。最后通过下式得到分类结果:
其中argmax(·)表示括号内的函数取最大值时,对应的c变量取值。
本发明的有益效果是:
1、本发明中应用引入基于Transformer的MoCo对比学习模块。对比学习通过Transformer编码器获取HRRP的深度双向表征,并利用对比损失来拉近同类别样本在特征空间中的距离。
2、本发明中应用引入时间卷积网络。使模型获取HRRP中更为全面的信息,进一步提高模型的特征提取能力,得到可分性更强的特征用于分类。
附图说明
图1:基于改进时序卷积网络的雷达目标识别方法的步骤流程图。
具体实施方式
参照图1,为本发明的一种基于改进时序卷积网络的雷达目标识别方法流程图,具体实施步骤如下:
训练阶段:
S1:采集数据集,将雷达采集到的HRRP数据集依据目标的种类进行合并,每种种类的样本分别在不同的数据段里选择训练样本和测试样本,在训练集和测试集的选取过程中,保证所选取的训练集样本与雷达所成姿态涵盖测试集样本与雷达所成的姿态。各类目标训练集和测试集样本数的比例为8:2,将挑选的数据集记作 T={(xn,yc)}n∈[1,N],c∈[1,C],其中xn表示第n个样本,yc表示样本属于第c类,一共采集了C类目标,N表示样本总数。
S2:对经过S1所提取数据集中的样本做预处理,具体操作步骤如下:
采用L2范数归一化对HRRP原始回波数据进行处理,将幅度划分到统一尺度内消除HRRP的幅度敏感性。采用重心对齐法来改善HRRP 的平移敏感性。
S2.1:L2范数归一化。将幅度划分到统一尺度内。将原始的雷达HRRP数据表示为X=[x1,x2,…,xM],则L2范数归一化后得到的 Xnorm如下:
S3:通过卷积模块对样本进行特征提取并改变数据格式,具体步骤如下:
通过卷积模块CNN对预处理后的HRRP数据进行处理,通过控制和调整卷积模块卷积核的大小和步长,将一维距离像卷积成后续网络所需的数据格式。
S3:将数据预处理之后的HRRP样本XG,经过CH个大小为1×5 卷积核来进行卷积操作,得到卷积的输出其中X包含L个距离单元,CH表示通道数,Fcnn(ch)表示第ch个通道的卷积输出。Fcnn计算如下:
然后,将卷积输出的特征经过批归一化和激活函数ReLU得到输出Fbr,避免数据分布差异对识别性能的影响。最后,将Fbr变换成 (Reshape)对比学习所需的数据格式,得到特征Fin,其中其中CH×1×L=C×H×W,C、H、W分别是图片的通道、高和宽。经过卷积模块得到特征特征Fin的数据形式与图片一致,所以也把Fin称为卷积处理后的HRRP图片格式数据。
S4:通过基于VIT的MoCo对比学习模块,在特征空间上学习区分不同样本,拉近同类别样本在特征空间中的距离,同时拉开不同类别样本之间的距离,具体步骤如下:
S4.1:数据增强模块。
设计了一种组合使用随机剪裁(Random Crop)、依概率p水平翻转(HorizontalFlip)和依概率p垂直翻转(Vertical Flip)的数据增强方法。小批次的经过卷积处理后的HRRP图片格式数据为对这一批次的数据进行增强:
S4.2:编码器模块。
所述的编码器模块包括梯度编码器fq和动量编码器fk,通过VIT 模块构建为梯度编码器fq和动量编码器fk,两者区别在于梯度编码器 fq梯度方式更新参数,而动量编码器fk采用动量方式更新参数,两者的模块结构相同。
VIT模块针对图片格式数据来获取其深度双向表示,需要将数据进行分割并拉伸成向量形式即分块嵌入并加上位置编码,然后通过多头注意力模块进行的注意力分布计算,最后通过MLP层得到输出特征。
VIT的详细步骤为:
S4.2.1:分块嵌入和位置编码。先将图片格式数据划分为几个区块(patches),然后将其线性压缩为特征向量结构。对于输入特征给定区块的大小尺寸P,将F″′in划分为N个P×P×C的区块,如下公式:
C×H×W→N×(P2C)
得到N个区块之后,通过全连接网络将其线性变换为N个长度为E维的特征向量,并在向量起始位置添加一个标志位向量xclass,该向量融合了全局的语义信息,从而更好地表示整个特征序列的信息,有利于后续网络的识别工作。计算过程如下:
同样的,分块嵌入得到的特征缺少区块之间的相对位置信息,因此需要为F0添加位置编码信息。使用可训练的一维位置编码,初始化一个可训练的随机变量,将其添加到嵌入特征F0中:
F1=F0+Epos
FLN=LayerNorm(F1)
S4.2.3:多头注意力模块。首先先介绍自注意力机制,层归一化后的嵌入表征FLN乘以三个不同的参数矩阵,映射为查询矩阵Q、被查询的键值矩阵K和值矩阵V,公式可以表示为:
接着,使用Q矩阵去查询K矩阵,建立每一维特征与全局特征之间的联系,得到点积矩阵QKT。通过点击得到的矩阵通常具有较大的方差,将其归一化后的结果不太稳定,不利于模型收敛,因此引入了“缩放因子”。将QKT除以再通过Softmax函数将其归一化,得到V的注意力权重矩阵。
最后,自注意力机制的输出Fself-att如下:
多头注意力机制的原理与上述的自注意力机制原理类似。不同的是,这个过程要重复h次,也就是所谓的多头。由于每一次投影和点击运算的参数矩阵不同,因此得到的h个自注意力输出也不相同。将这h个自注意力结果拼接(Concat)起来,再经过一次线性变换,最终得到多头注意力机制的结果FMH。多头注意力机制的计算过程如下所示:
headi=Attention(FLNWq i,FLNWk i,FLNWv i)
FMH=Concat[head1;head2;...;headh]WMH
S4.2.4:MLP层。
MLP实际上就是两层全连接层,第一个全连接层将残差归一化后的多头注意力输出特征Flr映射到高维隐藏空间,第二个全连接层将其映射到低维空间,进一步保留有用的特征信息,其过程为:
Ffc1=FlrWmlp_dim+bmlp_dim
Ffc2=ReLU(Ffc1Wembed_dim+bembed_dim)(
其中,Ffc1表示第一个全连接层输出结果,Ffc2表示第二个全连接层输出的结果。Wmlp_dim和Wembed_dim是两次线性投影的参数矩阵,bmlp_dim和bembed_dim是对应的偏置。
S4.3:对比损失模块,对比模块所用的损失函数如下所示:
其中,q是HRRP样本x经过上述模块得到的结果q。k+是与x相似的正样例经过上述模块得到的结果,k-是与x不相似的负样例经过上述模块得到的结果。该损失函数使得q与正样例k+的相似度尽可能的大,与其他负样例的相似度尽可能小。
由于MoCo对比学习模块整体架构输入与一般的对比学习模块不同,MoCo对比学习模块的编码器模块有两个输入,因此损失函数也有所不同。对于同一个HRRP数据经过两次数据增强模块,因为数据增强模块的随机性得到2种增强版本和分别通过梯度编码器 fq和动量编码器fk得到特征q1、和q2、让q1、通过上式得到损失ctr1,让q2、通过上式得到损失ctr2,然后得到MoCo对比学习模块的对比损失函数为:
Lmoco=ctr1+ctr2
编码器fq通过损失函数的梯度下降来优化参数,而编码器fk则不进行梯度更新,而是通过下式进行动量更新:
θk←mθk+(1-m)θq (5.16)
其中,θq是编码器fq的参数,θk是编码器fk的参数。m为动量参数,m=0.999,因此编码器fk的更新虽然极为缓慢,但是依然能更新参数,解决了一致性的问题。
S5:将经过MoCo对比学习模块得到的特征,输入时间卷积模块,进一步地加强模型的表征能力,得到可分性更强的特征,具体步骤如下:
时间卷积模块由因果膨胀卷积、批归一化、ReLU函数、Dropout 和残差连接组成。
field=(k-1)·d
然后,对因果膨胀卷积得到的特征进行批归一化操作。每个批次 (mini-batch)中包含num条数据:定义该批次数据经过因果膨胀卷积操作之后的输出为Fi表示mini-batch中第 i条数据对应的因果膨胀卷积输出。那么,对进行批归一化可定义为:
对mini-batch中的每一条数据重复上面的计算过程,得到映射输出特征F(q1),然后通过残差连接获取浅层信息,防止过拟合:
Fres=ReLU(q1+F(q1))
S6:通过全连接层将更有效的特征进行保留,最后采用softmax 对网络的输出进行分类:
最后使用一层全连接层和Softmax函数对特征预测,其过程为,先通过一层全连接层将时间卷积网络的输出特征Fres进行降维,得到预测向量:
Ff=FresWf+bf
其中,Ff(c)表示第c个元素,P(c|Ff)表示特征Ff属于第c类目标的概率。最后通过下式得到分类结果:
其中argmax(·)表示括号内的函数取最大值时,对应的c变量取值。
S7:将经过S2处理后的HRRP样本测试集送入由S3、S4、S5、 S6步骤中已训练完成组成基于transformer和时间卷积网络的雷达识别的模型中进行训练、测试测试。
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。
Claims (6)
1.基于Transformer和时间卷积网络的雷达目标识别方法,其特征在于,包括以下步骤:
S1:对原始HRRP样本集进行预处理;
采用L2范数归一化对HRRP原始回波数据进行处理,将幅度划分到统一尺度内消除HRRP的幅度敏感性;采用重心对齐法来改善HRRP的平移敏感性;
S2:通过卷积模块对样本进行特征提取并改变数据格式;
通过卷积模块CNN对预处理后的HRRP数据进行处理,通过控制和调整卷积模块卷积核的大小和步长,将一维距离像卷积成后续网络所需的数据格式;
S3:通过基于VIT的MoCo对比学习模块,在特征空间上学习区分不同样本,拉近同类别样本在特征空间中的距离,同时拉开不同类别样本之间的距离;
S4:将经过MoCo对比学习模块得到的特征,输入时间卷积模块,进一步地加强模型的表征能力,得到可分性更强的特征;
S5:通过全连接层将更有效的特征进行保留,最后采用softmax对网络的输出进行分类。
3.根据权利要求2所述的基于Transformer和时间卷积网络的雷达目标识别方法,其特征在于,所述S2详细步骤为:
4.根据权利要求3所述的基于Transformer和时间卷积网络的雷达目标识别方法,其特征在于,所述S3详细步骤为:
所述的MoCo对比学习模块由数据增强、编码器模块和对比损失模块组成;
S3.1:数据增强模块;
设计了一种组合使用随机剪裁(Random Crop)、依概率p水平翻转(Horizontal Flip)和依概率p垂直翻转(Vertical Flip)的数据增强方法;小批次的经过卷积处理后的HRRP图片格式数据为对这一批次的数据进行增强:
S3.2:编码器模块;
所述的编码器模块包括梯度编码器fq和动量编码器fk,通过VIT模块构建为梯度编码器fq和动量编码器fk,两者区别在于梯度编码器fq梯度方式更新参数,而动量编码器fk采用动量方式更新参数,两者的模块结构相同;
VIT模块针对图片格式数据来获取其深度双向表示,需要将数据进行分割并拉伸成向量形式即分块嵌入并加上位置编码,然后通过多头注意力模块进行的注意力分布计算,最后通过MLP层得到输出特征;
VIT模块具体如下:
S3.2.1:分块嵌入和位置编码;先将图片格式数据划分为几个区块(patches),然后将其线性压缩为特征向量结构;对于输入特征给定区块的大小尺寸P,将F″′in划分为N个P×P×C的区块,如下公式:
C×H×W→N×(P2C)
得到N个区块之后,通过全连接网络将其线性变换为N个长度为E维的特征向量,并在向量起始位置添加一个标志位向量xclass;计算过程如下:
同样的,分块嵌入得到的特征缺少区块之间的相对位置信息,因此需要为F0添加位置编码信息;使用可训练的一维位置编码,初始化一个可训练的随机变量,将其添加到嵌入特征F0中:
F1=F0+Epos
FLN=LayerNorm(F1)
S3.2.3:多头注意力模块;首先先介绍自注意力机制,层归一化后的嵌入表征FLN乘以三个不同的参数矩阵,映射为查询矩阵Q、被查询的键值矩阵K和值矩阵V,公式可以表示为:
接着,使用Q矩阵去查询K矩阵,建立每一维特征与全局特征之间的联系,得到点积矩阵QKT;通过点击得到的矩阵通常具有较大的方差,将其归一化后的结果不太稳定,不利于模型收敛,因此引入了“缩放因子”;将QKT除以再通过Softmax函数将其归一化,得到V的注意力权重矩阵;
最后,自注意力机制的输出Fself-att如下:
多头注意力机制的原理与上述的自注意力机制原理类似;不同的是,这个过程要重复h次,也就是所谓的多头;由于每一次投影和点击运算的参数矩阵不同,因此得到的h个自注意力输出也不相同;将这h个自注意力结果拼接(Concat)起来,再经过一次线性变换,最终得到多头注意力机制的结果FMH;多头注意力机制的计算过程如下所示:
headi=Attention(FLNWq i,FLNWk i,FLNWv i)
FMH=Concat[head1;head2;...;headh]WMH
S3.2.4:MLP层;
MLP实际上就是两层全连接层,第一个全连接层将残差归一化后的多头注意力输出特征Flr映射到高维隐藏空间,第二个全连接层将其映射到低维空间,进一步保留有用的特征信息,其过程为:
Ffc1=FlrWmlp_dim+bmlp_dim
Ffc2=ReLU(Ffc1Wembed_dim+bembed_dim)(
其中,Ffc1表示第一个全连接层输出结果,Ffc2表示第二个全连接层输出的结果;Wmlp_dim和Wembed_dim是两次线性投影的参数矩阵,bmlp_dim和bembed_dim是对应的偏置;
S3.3:对比损失模块,对比模块所用的损失函数如下所示:
其中,q是HRRP样本x经过上述模块得到的结果q;k+是与x相似的正样例经过上述模块得到的结果,k-是与x不相似的负样例经过上述模块得到的结果;该损失函数使得q与正样例k+的相似度尽可能的大,与其他负样例的相似度尽可能小;
由于MoCo对比学习模块整体架构输入与一般的对比学习模块不同,MoCo对比学习模块的编码器模块有两个输入,因此损失函数也有所不同;对于同一个HRRP数据经过两次数据增强模块,因为数据增强模块的随机性得到2种增强版本和分别通过梯度编码器fq和动量编码器fk得到特征q1、和q2、让q1、通过上式得到损失ctr1,让q2、通过上式得到损失ctr2,然后得到MoCo对比学习模块的对比损失函数为:
Lmoco=ctr1+ctr2
编码器fq通过损失函数的梯度下降来优化参数,而编码器fk则不进行梯度更新,而是通过下式进行动量更新:
θk←mθk+(1-m)θq (5.16)
其中,θq是编码器fq的参数,θk是编码器fk的参数;m为动量参数,m=0.999,因此编码器fk的更新虽然极为缓慢,但是依然能更新参数,解决了一致性的问题。
5.根据权利要求4所述的基于Transformer和时间卷积网络的雷达目标识别方法,其特征在于,所述S4详细步骤为:
时间卷积模块由因果膨胀卷积、批归一化、ReLU函数、Dropout和残差连接组成;
field=(k-1)·d
然后,对因果膨胀卷积得到的特征进行批归一化操作;每个批次(mini-batch)中包含num条数据:定义该批次数据经过因果膨胀卷积操作之后的输出为Fi表示mini-batch中第i条数据对应的因果膨胀卷积输出;那么,对进行批归一化可定义为:
对mini-batch中的每一条数据重复上面的计算过程,得到映射输出特征F(q1),然后通过残差连接获取浅层信息,防止过拟合:
Fres=ReLU(q1+F(q1))。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210391518.7A CN115079116A (zh) | 2022-04-14 | 2022-04-14 | 基于Transformer和时间卷积网络的雷达目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210391518.7A CN115079116A (zh) | 2022-04-14 | 2022-04-14 | 基于Transformer和时间卷积网络的雷达目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115079116A true CN115079116A (zh) | 2022-09-20 |
Family
ID=83247981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210391518.7A Pending CN115079116A (zh) | 2022-04-14 | 2022-04-14 | 基于Transformer和时间卷积网络的雷达目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115079116A (zh) |
-
2022
- 2022-04-14 CN CN202210391518.7A patent/CN115079116A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109871902B (zh) | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 | |
CN110045015B (zh) | 一种基于深度学习的混凝土结构内部缺陷检测方法 | |
CN114926746B (zh) | 基于多尺度差分特征注意力机制的sar图像变化检测方法 | |
CN111368671A (zh) | 基于深度学习的sar图像舰船目标检测识别一体化方法 | |
Li et al. | SAR image classification using CNN embeddings and metric learning | |
CN111783884B (zh) | 基于深度学习的无监督高光谱图像分类方法 | |
CN108537790B (zh) | 基于耦合翻译网络的异源图像变化检测方法 | |
CN115047421A (zh) | 一种基于Transformer的雷达目标识别方法 | |
Wang et al. | Target detection and recognition based on convolutional neural network for SAR image | |
CN110516525A (zh) | 基于gan和svm的sar图像目标识别方法 | |
Xiao et al. | Specific emitter identification of radar based on one dimensional convolution neural network | |
CN114926693A (zh) | 基于加权距离的sar图像小样本识别方法及装置 | |
CN116342894B (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
CN115953630A (zh) | 一种基于全局-局部知识蒸馏的跨域小样本图像分类方法 | |
CN109558803B (zh) | 基于卷积神经网络与np准则的sar目标鉴别方法 | |
CN107203779A (zh) | 基于空谱信息保持的高光谱降维方法 | |
CN108960005B (zh) | 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统 | |
CN113065520A (zh) | 一种面向多模态数据的遥感图像分类方法 | |
CN117131436A (zh) | 面向开放环境的辐射源个体识别方法 | |
CN115079116A (zh) | 基于Transformer和时间卷积网络的雷达目标识别方法 | |
CN116797938A (zh) | 一种基于对比学习预训练的sar舰船分类方法 | |
CN116246171A (zh) | 一种空-谱多尺度高光谱遥感图像目标检测方法及设备 | |
CN114299398B (zh) | 一种基于自监督对比学习的小样本遥感图像分类方法 | |
CN113537240B (zh) | 一种基于雷达序列图像的形变区智能提取方法及系统 | |
Kader et al. | Effective workflow for high-performance recognition of fruits using machine learning approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |