CN114488069A - 基于图神经网络的雷达高分辨率距离像识别方法 - Google Patents

基于图神经网络的雷达高分辨率距离像识别方法 Download PDF

Info

Publication number
CN114488069A
CN114488069A CN202210236686.9A CN202210236686A CN114488069A CN 114488069 A CN114488069 A CN 114488069A CN 202210236686 A CN202210236686 A CN 202210236686A CN 114488069 A CN114488069 A CN 114488069A
Authority
CN
China
Prior art keywords
node
data
graph structure
ith
structure data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210236686.9A
Other languages
English (en)
Inventor
唐金龙
赵志强
张亚新
潘勉
吕帅帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202210236686.9A priority Critical patent/CN114488069A/zh
Publication of CN114488069A publication Critical patent/CN114488069A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图神经网络的雷达高分辨率距离像识别方法,包括以下步骤:S1、数据预处理,S2、特征提取,S3、输出分类结果,S4、重复步骤S1‑S3完成测试,将HRRP测试数据先通过步骤S1‑1进行分类,再送入已完成步骤S1‑S3的训练的模型中进行测试。采用上述技术方案,提出了一种序列构造图(seq2graph)的方法,从transformer中提取节点之间的关系权重,将其与节点特征组成一个图结构数据,从而便于利用图神经网络的方法进行处理,从而为提高识别效果和减少计算量奠定基础。

Description

基于图神经网络的雷达高分辨率距离像识别方法
技术领域
本发明涉及雷达目标识别技术领域,具体指一种基于图神经网络的雷达高分辨率距离像识别方法。
背景技术
高分辨距离像(HRRP)即高分辨雷达扫描到目标然后产生的散射点子回波的总和,由于高分辨带宽雷达的距离分辨率远小于目标尺寸,故高分辨雷达回波中的起伏和尖峰反映了目标结构的相对几何关系。此外,除了信号带宽以外,对雷达没有其他苛刻的要求,可以很方便的获取到目标的HRRP数据,且HRRP数据是一维的,故可以很方便的存储数据,且计算量也相对降低很多。由以上优点,基于HRRP的雷达自动目标识别方法已成为雷达目标识别领域中非常热门的方向。
由于待识别目标的HRRP原始样本数据是一维的,其本质属性很难直接由其HRRP的原始数据表现出来,因此,对HRRP原始样本数据的特征提取和利用已成为当前大多数的HRRP目标识别系统的重要过程。传统的HRRP特征提取方法主要分为两大部分:(1)基于变换(Transformer)的特征提取方法,如谱图等。这些方法都是将HRRP信号投影到频域,之后对其频域特征进行建模识别。(2)基于降维后的数据,进行特征提取的方法。虽然传统特征提取方法有很好的识别性能,但是这些方法大多是无监督且有损的,并且特征提取方法的选择高度依赖科研人员对数据的认识和经验,因此,很多情况下,难以达到好的效果。
近年来由于深度学习的兴起,且传统方法存在上述不足,和对更高精度的追求,人们尝试用深度学习的方法来进行HRRP目标样本进行分类,常见的方法有卷积神经网络(CNN)、循环神经网络(RNN)以及将自然语言处理中的方法应用到HRRP分类中,这些方法均是基于序列或者基于网格数据的。对于CNN,充分利用了HRRP中相距较近的散射点信息,但是当网络较浅时,很难提取到空间距离较远的两个散射点的特征,故一般需要堆叠较深的网络才会有较好的效果,这无形中增加了计算量。RNN用于处理一维序列有着天然的优势,可以利用之前的特征来预测下一个节点的特征,即当前点的新特征由其左侧特征得到,由此便没有提取到其右侧的节点特征,即便是双向RNN,可以提取某一点左右的节点特征来作为该点的新特征,但当序列很长时,将会逐渐减弱前面节点的特征。对于NLP中的新秀BERT,主要基于transformer网络结构,其内部由多个transformer多维度的堆积而成,transformer可以有效提取HRRP样本中相距较远的两个散射点之间特征,由此产生了较好的结果,但由于大量transformer的堆叠,计算量和内存消耗也不可无视。
发明内容
本发明根据现有技术的不足,提出一种基于图神经网络的雷达高分辨率距离像识别方法,不仅能够提高识别效果,并且计算量减小,提高了识别效率。
一种基于图神经网络的雷达高分辨率距离像识别方法,包括以下步骤:
S1、数据预处理
S1-1、收集原始数据,通过雷达采集的HRRP数据;
S1-2、对数据依次做强度归一化处理;
S1-3、对完成强度归一化处理后的数据依次做重心对齐处理;
S1-4、将预处理过后的序列数据转换成线性图结构数据;
S2、特征提取
S2-1、分别使用ResGatedGCN和GCN对线性图结构数据进行特征维度扩充;
S2-2、将GCN扩充后的线性图结构数据通过Transformer制作非线性图结构数据,并删除节点关联较小的边;
S2-3、将非线性图结构数据通过Graph Transformer聚集边特征和节点特征,并将结果与ResGatedGCN的输出相加;
S2-4、重复步骤S2-1至步骤S2-3;
S3、输出分类结果
S3-1、将线性图结构数据通过ResGatedGCN与步骤S2-4的输出相加;
S3-2、使用全连接网络和softmax搭建分类器,步骤S3-1的输出通过分类器得到分类结果;
S4、重复步骤S1-S3完成测试
将HRRP测试数据先通过步骤S1-1进行分类,再送入已完成步骤S1-S3的训练的模型中进行测试。
作为优选,所述步骤S1-1中,对HRRP数据的每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到,训练集和测试集比例保持在7∶3,将训练数据集记为X,其中xi表示第i个样本,yi表示第i个样本的类别,一共采集了C类目标,样本总数记为N。
作为优选,所述步骤S1-2中,强度归一化,假设原始HRRP数据表示为xraw=[x1,x2,...,xM],其中M表示HRRP数据中距离单元总数,归一化之后的HRRP表示为:
Figure BDA0003540194120000031
作为优选,所述步骤S1-3中,重心对齐,为了使训练和测试具备统一标准,采用重心对齐法消除平移敏感性,重心对齐法通过平移HRRP使其重心位于HRRP中心点附近,重心g的计算方法如下:
Figure BDA0003540194120000032
记预处理过后的一个样本数据为xpre
作为优选,所述步骤S1-4中,将原始孤立的M的节点按照原来的序列,通过添加相邻边的方式将其连接在一起,
通过上述方法构造的图
Figure BDA0003540194120000041
的节点数据和边的数据分别为:
V=Xpre
E={eij}
其中,|i-j|=1且0≤i,j≤M,将由此种方法产生的图结构称为线性图结构,记为
Figure BDA0003540194120000042
作为优选,所述S2-1中,
线性图结构数据通过GCN进行特征维度扩充,由1×M扩充为32×M,同时初步提取邻居点特征,其过程为:
Figure BDA0003540194120000043
其中
Figure BDA0003540194120000044
为有自连接的邻接矩阵,A为图的邻接矩阵,I为对应形状的单位矩阵,
Figure BDA0003540194120000045
Figure BDA0003540194120000046
的度矩阵,且
Figure BDA0003540194120000047
W为可训练的权重参数,XGCN∈R32×M为一个线性图结构数据通过GCN的输出。
将线性图结构数据通过ResGatedGCN进行特征维度扩充,由1×M扩充为32×M,同时初步提取邻居点特征;其过程为:
Figure BDA0003540194120000048
其中xj为线性图结构数据中单个节点的特征,N(i)为与节点i相连的所有节点集合,⊙代表两个矩阵的点乘,
Figure BDA0003540194120000049
表示通过ResGatedGCN输出的Xres中的第i个节点特征,ri,j代表门限函数,定义为:
ri,j=σ(W3xi+W4xj)
其中σ(·)为sigmoid函数;W1~W4均为科学系的权重参数。
作为优选,所述S2-2中,
利用transformer计算边的权重,节点i与其他节点之间的边权重向量为:
Figure BDA0003540194120000051
则一个样本所有边的权重矩阵为:
Figure BDA0003540194120000052
为减小参数,每个节点只取边权重最大的K个节点作为相连节点,与其他节点的边均置为0,即与剩下的其他的节点无连接,具体原理如下式所示:
Figure BDA0003540194120000053
其中,
Figure BDA0003540194120000054
表示
Figure BDA0003540194120000055
向量元素中最大的K个值,
Figure BDA0003540194120000056
为权重矩阵W′e的第i行第j列的值;
计算节点通过transformer后的新的表示,将上面得到的权重与每个节点的值向量相乘,之后再求和,便可得到该点的节点表示:
Figure BDA0003540194120000057
由此可得到由transformer构成的非线性图结构数据,记为
Figure BDA00035401941200000512
其中,
Figure BDA0003540194120000058
为Vt中一个节点特征,其中Vt为非线性图结构数据的节点特征集合,Et为图结构数据中边的集合,We′为参数减少边后的权重矩阵。
作为优选,所述S2-3中,
未防止过拟合,将线性图结构数据中的节点特征集合Vl与Transformer构造的非线性图结构数据中的节点特征集合Vt相加构成新的节点特征V′t,即V′t=Vt+Vl,非线性图结构数据为
Figure BDA0003540194120000059
Figure BDA00035401941200000510
通过Graph Transformer,通过聚合边的特征和邻接节点特征进一步提取特征表达,对于节点特征
Figure BDA00035401941200000511
于是从j到i的每一条边的多头注意力机制如下:
Figure BDA0003540194120000061
Figure BDA0003540194120000062
Figure BDA00035401941200000616
Figure BDA0003540194120000063
其由
Figure BDA0003540194120000064
表示第l层第c个注意力机制中第i个节点的查询向量,
Figure BDA0003540194120000065
表示第l层第c个注意力机制中第j个节点的键向量,ec,ij表示第c个注意力机制中第i个节点和第j个节点之间关系权重,
Figure BDA0003540194120000066
是指数尺度的点积函数,d是每个注意力机制中键向量的维度,
Figure BDA0003540194120000067
即为第l层第c个注意力机制中第i个节点和第j个节点之间的注意力权重,在得到图的多头注意力权重后,再从j到i进行聚合:
Figure BDA0003540194120000068
Figure BDA0003540194120000069
其中
Figure BDA00035401941200000610
表示第l层第c个注意力机制中第j个节点的值向量,由j节点的特征向量
Figure BDA00035401941200000611
通过一个全连接层而得到,
Figure BDA00035401941200000612
表示与节点i相连的所有节点,
Figure BDA00035401941200000613
是由graphtransformer得到的特征
Figure BDA00035401941200000614
在l层的输出,设共有L层,则Graph Transformer的输出为
Figure BDA00035401941200000615
为防止过拟合,将GraphTransformer的输出与ResGatedGCN地输出Xres相加,即
X′Xres+H(L)
重复步骤S2-1至步骤S2-3,输出结果为X″。
作为优选,所述S3-1中,
通过ResGatedGCN得到预处理数据地单维特征信息,输出地节点信息记为X′res
将X′res与X″得到节点特征表达X″′∈R1×M
作为优选,所述S3-2中,
将X″′通过全连接层,得到Y∈R1×C,C为种类数量;
将Y通过softmax函数,HRRP训练样本Xtrain对应于目标集中第i类目标的概率表示为:
Figure BDA0003540194120000071
其中,exp(·)表示指数运算,yc表示训练样本xtrain通过网络,在全连接层处地输出序列的第c个元素,通过最大后验概率将测试HRRP样本xtrain分类到最大目标概率c0中:
Figure BDA0003540194120000072
训练过程中,采用交叉熵作为损失函数,其定义为:
Figure BDA0003540194120000073
其中,N为每一批训练样本数量,ci表示第i个样本的类别,P(ci|xi)表示第i个样本是ci类别的概率值。
本发明具有以下的特点和有益效果:
1、提出了一种序列构造图(seq2graph)的方法,从transformer中提取节点之间的关系权重,将其与节点特征组成一个图结构数据,从而便于利用图神经网络的方法进行处理,从而为提高识别效果和减少计算量奠定基础。
2、利用图网络结构,很容易的提取HRRP样本中相距较远的散射点之间的特征,无需要像CNN那样堆叠很深的网络结构,从而减少计算成本和内存消耗,提高了识别效率。
3、提取相距较远的散射点之间的特征的同时,保留了序列本身具有的结构特征,并将两种特征融合作为分类层的输入,通过多中特征的识别,进一步的提高识别效果。
附图说明
图1为本发明实施例的原理示意图;
图2为本发明实施例中序列数据转换成线性的图结构数据原理示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开了一种基于图神经网络的雷达高分辨率距离像识别方法,如图1所示,包括以下步骤:
S1、数据预处理
S1-1、收集原始数据,通过雷达采集的HRRP数据,
具体的,对HRRP数据的每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到,训练集和测试集比例保持在7:3,将训练数据集记为X,其中xi表示第i个样本,yi表示第i个样本的类别,一共采集了C类目标,样本总数记为N。
S1-2、为减弱强度不一致的干扰,对数据依次做强度归一化处理;
具体的,强度归一化,假设原始HRRP数据表示为xraw=[x1,x2,...,xM],其中M表示HRRP数据中距离单元总数,归一化之后的HRRP表示为:
Figure BDA0003540194120000081
S1-3、为减弱平移敏感性的干扰,对完成强度归一化处理后的数据依次做重心对齐处理;
具体的,重心对齐,为了使训练和测试具备统一标准,采用重心对齐法消除平移敏感性,重心对齐法通过平移HRRP使其重心位于HRRP中心点附近,重心g的计算方法如下:
Figure BDA0003540194120000091
记预处理过后的一个样本数据为xpre
可以理解的,上述技术方案中,为了减弱强度敏感性和平移敏感性对预测精确度的影响,因此需要对原始数据依次做强度归一化和重心对齐处理;
S1-4、将预处理过后的序列数据转换成线性图结构数据;
具体的,如图2所示,将原始孤立的M的节点按照原来的序列,通过添加相邻边的方式将其连接在一起,通过上述方法构造的图
Figure BDA0003540194120000092
的节点数据和边的数据分别为:
V=Xpre
E={eij}
其中,|i-j|=1且0≤i,j≤M,将由此种方法产生的图结构称为线性图结构,记为
Figure BDA0003540194120000093
上述技术方案中,通过将预处理过后的序列数据转换成线性图结构数据,方便利用图神经网络的方法进行处理。
S2、特征提取
S2-1、分别使用ResGatedGCN和GCN对线性图结构数据进行特征维度扩充;
具体的,线性图结构数据通过GCN进行特征维度扩充,由1×M扩充为32×M,同时初步提取邻居点特征,其过程为:
Figure BDA0003540194120000101
其中
Figure BDA0003540194120000102
为有自连接的邻接矩阵,A为图的邻接矩阵,I为对应形状的单位矩阵,
Figure BDA0003540194120000103
Figure BDA0003540194120000104
的度矩阵,且
Figure BDA0003540194120000105
W为可训练的权重参数,XGCN∈R32×M为一个线性图结构数据通过GCN的输出。
将线性图结构数据通过ResGatedGCN进行特征维度扩充,由1×M扩充为32×M,同时初步提取邻居点特征;其过程为:
Figure BDA0003540194120000106
其中xj为线性图结构数据中单个节点的特征,N(i)为与节点i相连的所有节点集合,⊙代表两个矩阵的点乘,
Figure BDA0003540194120000107
表示通过ResGatedGCN输出的Xres中的第i个节点特征,ri,j代表门限函数,定义为:
ηi,j=σ(W3xi+W4xj)
其中σ(·)为sigmoid函数;W1~W4均为科学系的权重参数。
S2-2、将GCN扩充后的线性图结构数据通过Transformer制作非线性图结构数据,并删除节点关联较小的边;
具体的,利用transformer计算边的权重,节点i与其他节点之间的边权重向量为:
Figure BDA0003540194120000108
则一个样本所有边的权重矩阵为:
Figure BDA0003540194120000109
为减小参数,每个节点只取边权重最大的K个节点作为相连节点,与其他节点的边均置为0,即与剩下的其他的节点无连接,具体原理如下式所示:
Figure BDA00035401941200001010
其中,
Figure BDA00035401941200001011
表示
Figure BDA00035401941200001012
向量元素中最大的K个值,
Figure BDA00035401941200001013
为权重矩阵W′e的第i行第j列的值;
计算节点通过transformer后的新的表示,将上面得到的权重与每个节点的值向量相乘,之后再求和,便可得到该点的节点表示:
Figure BDA0003540194120000111
由此可得到由transformer构成的非线性图结构数据,记为
Figure BDA0003540194120000112
其中,
Figure BDA0003540194120000113
为Vt中一个节点特征,其中Vt为非线性图结构数据的节点特征集合,Et为图结构数据中边的集合,We′为参数减少边后的权重矩阵。
S2-3、将非线性图结构数据通过Graph Transformer聚集边特征和节点特征,并将结果与ResGatedGCN的输出相加;
具体的,未防止过拟合,将线性图结构数据中的节点特征集合Vl与Transformer构造的非线性图结构数据中的节点特征集合Vt相加构成新的节点特征V′t,即V′t=Vt+Vl,非线性图结构数据为
Figure BDA0003540194120000114
Figure BDA0003540194120000115
通过Graph Transformer,通过聚合边的特征和邻接节点特征进一步提取特征表达,对于节点特征
Figure BDA0003540194120000116
于是从j到i的每一条边的多头注意力机制如下:
Figure BDA0003540194120000117
Figure BDA0003540194120000118
Figure BDA0003540194120000119
Figure BDA00035401941200001110
其中
Figure BDA00035401941200001111
表示第l层第c个注意力机制中第i个节点的查询向量,
Figure BDA00035401941200001112
表示第l层第c个注意力机制中第j个节点的键向量,ec,ij表示第c个注意力机制中第i个节点和第j个节点之间关系权重,
Figure BDA00035401941200001113
是指数尺度的点积函数,d是每个注意力机制中键向量的维度,
Figure BDA00035401941200001114
即为第l层第c个注意力机制中第i个节点和第j个节点之间的注意力权重,在得到图的多头注意力权重后,再从j到i进行聚合:
Figure BDA0003540194120000121
Figure BDA0003540194120000122
其中
Figure BDA0003540194120000123
表示第l层第c个注意力机制中第j个节点的值向量,由j节点的特征向量
Figure BDA0003540194120000124
通过一个全连接层而得到,
Figure BDA0003540194120000125
表示与节点i相连的所有节点,
Figure BDA0003540194120000126
是由graphtransformer得到的特征
Figure BDA0003540194120000127
在l层的输出,设共有L层,则Graph Transformer的输出为
Figure BDA0003540194120000128
为防止过拟合,将GraphTransformer的输出与ResGatedGCN地输出Xres相加,即
X′=Xres+H(L)
S2-4、重复步骤S2-1至步骤S2-3,输出结果为X″。
S3、输出分类结果
S3-1、将线性图结构数据通过ResGatedGCN与步骤S2-4的输出相加;
具体的,通过ResGatedGCN得到预处理数据地单维特征信息,输出地节点信息记为X′res
将X′res与X″得到节点特征表达X″′∈R1×M
S3-2、使用全连接网络和softmax搭建分类器,步骤S3-1的输出通过分类器得到分类结果;
具体的,将X″′通过全连接层,得到Y∈R1×C,C为种类数量;
将Y通过softmax函数,HRRP训练样本Xtrain对应于目标集中第i类目标的概率表示为:
Figure BDA0003540194120000129
其中,exp(·)表示指数运算,yc表示训练样本xtrain通过网络,在全连接层处地输出序列的第c个元素,通过最大后验概率将测试HRRP样本xtrain分类到最大目标概率c0中:
Figure BDA0003540194120000131
训练过程中,采用交叉熵作为损失函数,其定义为:
Figure BDA0003540194120000132
其中,N为每一批训练样本数量,ci表示第i个样本的类别,P(ci|xi)表示第i个样本是ci类别的概率值。
S4、重复步骤S1-S3完成测试
将HRRP测试数据先通过步骤S1-1进行分类,再送入已完成步骤S1-S3的训练的模型中进行测试。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式包括部件进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。

Claims (10)

1.一种基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,包括以下步骤:
S1、数据预处理
S1-1、收集原始数据,通过雷达采集的HRRP数据;
S1-2、对数据依次做强度归一化处理;
S1-3、对完成强度归一化处理后的数据依次做重心对齐处理;
S1-4、将预处理过后的序列数据转换成线性图结构数据;
S2、特征提取
S2-1、分别使用ResGatedGCN和GCN对线性图结构数据进行特征维度扩充;
S2-2、将GCN扩充后的线性图结构数据通过Transformer制作非线性图结构数据,并删除节点关联较小的边;
S2-3、将非线性图结构数据通过Graph Transformer聚集边特征和节点特征,并将结果与ResGatedGCN的输出相加;
S2-4、重复步骤S2-1至步骤S2-3;
S3、输出分类结果
S3-1、将线性图结构数据通过ResGatedGCN与步骤S2-4的输出相加;
S3-2、使用全连接网络和softmax搭建分类器,步骤S3-1的输出通过分类器得到分类结果;
S4、重复步骤S1-S3完成测试
将HRRP测试数据先通过步骤S1-1进行分类,再送入已完成步骤S1-S3的训练的模型中进行测试。
2.根据权利要求1所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述步骤S1-1中,对HRRP数据的每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到,训练集和测试集比例保持在7:3,将训练数据集记为X,其中xi表示第i个样本,yi表示第i个样本的类别,一共采集了C类目标,样本总数记为N。
3.根据权利要求1所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述步骤S1-2中,强度归一化,假设原始HRRP数据表示为xraw=[x1,x2,…,xM],其中M表示HRRP数据中距离单元总数,归一化之后的HRRP表示为:
Figure FDA0003540194110000021
4.根据权利要求3所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述步骤S1-3中,重心对齐,为了使训练和测试具备统一标准,采用重心对齐法消除平移敏感性,重心对齐法通过平移HRRP使其重心位于HRRP中心点附近,重心g的计算方法如下:
Figure FDA0003540194110000022
记预处理过后的一个样本数据为xpre
5.根据权利要求4所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述步骤S1-4中,将原始孤立的M的节点按照原来的序列,通过添加相邻边的方式将其连接在一起,
通过上述方法构造的图
Figure FDA0003540194110000024
的节点数据和边的数据分别为:
V=Xpre
E={eij}
其中,|i-j|=1且0≤i,j≤M,将由此种方法产生的图结构称为线性图结构,记为
Figure FDA0003540194110000023
6.根据权利要求1所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述S2-1中,
线性图结构数据通过GCN进行特征维度扩充,由1×M扩充为32×M,同时初步提取邻居点特征,其过程为:
Figure FDA0003540194110000031
其中
Figure FDA0003540194110000032
为有自连接的邻接矩阵,A为图的邻接矩阵,I为对应形状的单位矩阵,
Figure FDA0003540194110000033
Figure FDA0003540194110000034
的度矩阵,且
Figure FDA0003540194110000035
W为可训练的权重参数,XGCN∈R32×M为一个线性图结构数据通过GCN的输出。
将线性图结构数据通过ResGatedGCN进行特征维度扩充,由1×M扩充为32×M,同时初步提取邻居点特征;其过程为:
Figure FDA0003540194110000036
其中xj为线性图结构数据中单个节点的特征,N(i)为与节点i相连的所有节点集合,⊙代表两个矩阵的点乘,
Figure FDA0003540194110000037
表示通过ResGatedGCN输出的Xres中的第i个节点特征,ηi,j代表门限函数,定义为:
ηi,j=σ(W3xi+W4xj)
其中σ(·)为sigmoid函数;W1~W4均为科学系的权重参数。
7.根据权利要求6所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述S2-2中,
利用transformer计算边的权重,节点i与其他节点之间的边权重向量为:
Figure FDA0003540194110000038
则一个样本所有边的权重矩阵为:
Figure FDA0003540194110000039
为减小参数,每个节点只取边权重最大的K个节点作为相连节点,与其他节点的边均置为0,即与剩下的其他的节点无连接,具体原理如下式所示:
Figure FDA00035401941100000310
其中,
Figure FDA0003540194110000041
表示
Figure FDA0003540194110000042
向量元素中最大的K个值,
Figure FDA0003540194110000043
为参数减少后边的权重矩阵W'e的第i行第j列的值;
计算节点通过transformer后的新的表示,将上面得到的权重与每个节点的值向量相乘,之后再求和,便可得到该点的节点表示:
Figure FDA0003540194110000044
由此可得到由transformer构成的非线性图结构数据,记为
Figure FDA0003540194110000045
其中,
Figure FDA0003540194110000046
为Vt中一个节点特征,其中Vt为非线性图结构数据的节点特征集合,Et为图结构数据中边的集合,We'为参数减少边后的权重矩阵。
8.根据权利要求7所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述S2-3中,
未防止过拟合,将线性图结构数据中的节点特征集合Vl与Transformer构造的非线性图结构数据中的节点特征集合Vt相加构成新的节点特征V't,即V't=Vt+Vl,非线性图结构数据为
Figure FDA0003540194110000047
Figure FDA0003540194110000048
通过Graph Transformer,通过聚合边的特征和邻接节点特征进一步提取特征表达,对于节点特征
Figure FDA0003540194110000049
于是从j到i的每一条边的多头注意力机制如下:
Figure FDA00035401941100000410
Figure FDA00035401941100000411
Figure FDA00035401941100000412
Figure FDA00035401941100000413
其中
Figure FDA00035401941100000414
表示第l层第c个注意力机制中第i个节点的查询向量,
Figure FDA00035401941100000415
表示第l层第c个注意力机制中第j个节点的键向量,ec,ij表示第c个注意力机制中第i个节点和第j个节点之间关系权重,
Figure FDA00035401941100000416
是指数尺度的点积函数,d是每个注意力机制中键向量的维度,
Figure FDA00035401941100000417
即为第l层第c个注意力机制中第i个节点和第j个节点之间的注意力权重,在得到图的多头注意力权重后,再从j到i进行聚合:
Figure FDA0003540194110000051
Figure FDA0003540194110000052
其中
Figure FDA0003540194110000053
表示第l层第c个注意力机制中第j个节点的值向量,由j节点的特征向量
Figure FDA0003540194110000054
通过一个全连接层而得到,
Figure FDA0003540194110000055
表示与节点i相连的所有节点,
Figure FDA0003540194110000056
是由graphtransformer得到的特征
Figure FDA0003540194110000057
在l层的输出,设共有L层,则Graph Transformer的输出为
Figure FDA0003540194110000058
为防止过拟合,将GraphTransformer的输出与ResGatedGCN地输出Xres相加,即
X'=Xres+H(L)
重复步骤S2-1至步骤S2-3,输出结果为X”。
9.根据权利要求8所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述S3-1中,
通过ResGatedGCN得到预处理数据地单维特征信息,输出地节点信息记为X′res
将X'res与X”得到节点特征表达X”'∈R1×M
10.根据权利要求9所述的基于图神经网络的雷达高分辨率距离像识别方法,其特征在于,所述S3-2中,
将X”'通过全连接层,得到Y∈R1×C,C为种类数量;
将Y通过softmax函数,HRRP训练样本Xtrain对应于目标集中第i类目标的概率表示为:
Figure FDA0003540194110000059
其中,exp(·)表示指数运算,yc表示训练样本xtrain通过网络,在全连接层处地输出序列的第c个元素,通过最大后验概率将测试HRRP样本xtrain分类到最大目标概率c0中:
Figure FDA0003540194110000061
训练过程中,采用交叉熵作为损失函数,其定义为:
Figure FDA0003540194110000062
其中,N为每一批训练样本数量,ci表示第i个样本的类别,P(ci|xi)表示第i个样本是ci类别的概率值。
CN202210236686.9A 2022-03-10 2022-03-10 基于图神经网络的雷达高分辨率距离像识别方法 Pending CN114488069A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210236686.9A CN114488069A (zh) 2022-03-10 2022-03-10 基于图神经网络的雷达高分辨率距离像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210236686.9A CN114488069A (zh) 2022-03-10 2022-03-10 基于图神经网络的雷达高分辨率距离像识别方法

Publications (1)

Publication Number Publication Date
CN114488069A true CN114488069A (zh) 2022-05-13

Family

ID=81486825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210236686.9A Pending CN114488069A (zh) 2022-03-10 2022-03-10 基于图神经网络的雷达高分辨率距离像识别方法

Country Status (1)

Country Link
CN (1) CN114488069A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114814776A (zh) * 2022-06-24 2022-07-29 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法
CN117233725A (zh) * 2023-11-15 2023-12-15 中国空气动力研究与发展中心计算空气动力研究所 基于图神经网络多特征融合的相干雷达目标检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114814776A (zh) * 2022-06-24 2022-07-29 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法
CN114814776B (zh) * 2022-06-24 2022-10-14 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法
CN117233725A (zh) * 2023-11-15 2023-12-15 中国空气动力研究与发展中心计算空气动力研究所 基于图神经网络多特征融合的相干雷达目标检测方法
CN117233725B (zh) * 2023-11-15 2024-01-23 中国空气动力研究与发展中心计算空气动力研究所 基于图神经网络多特征融合的相干雷达目标检测方法

Similar Documents

Publication Publication Date Title
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN109858557B (zh) 一种新的高光谱图像数据半监督分类方法
CN114488069A (zh) 基于图神经网络的雷达高分辨率距离像识别方法
CN111695456A (zh) 一种基于主动判别性跨域对齐的低分辨人脸识别方法
CN112906828A (zh) 一种基于时域编码和脉冲神经网络的图像分类方法
CN111783879B (zh) 基于正交注意力机制的层次化压缩图匹配方法及系统
CN111160163B (zh) 一种基于区域关系建模和信息融合建模的表情识别方法
CN115758246A (zh) 基于EMD与AlexNet的非侵入式负荷识别方法
CN117315381B (zh) 一种基于二阶有偏随机游走的高光谱图像分类方法
CN115659254A (zh) 一种双模态特征融合的配电网电能质量扰动分析方法
CN112926645A (zh) 一种基于边缘计算的窃电检测方法
Miraftabzadeh et al. Knowledge Extraction from PV Power Generation with Deep Learning Autoencoder and Clustering-Based Algorithms
CN111242028A (zh) 基于U-Net的遥感图像地物分割方法
Li et al. Automation recognition of pavement surface distress based on support vector machine
CN113657472A (zh) 一种基于子空间学习的多源遥感数据融合方法
CN110956221A (zh) 基于深度递归网络下小样本极化合成孔径雷达图像分类方法
CN113111774B (zh) 一种基于主动增量式微调的雷达信号调制方式识别方法
CN115329821A (zh) 一种基于配对编码网络和对比学习的舰船噪声识别方法
CN115828085A (zh) 联合迁移学习和监督学习的电磁谱辐射源智能识别方法
CN114037866B (zh) 一种基于可辨伪特征合成的广义零样本图像分类方法
CN112818982B (zh) 基于深度特征自相关性激活的农业害虫图像检测方法
CN115496153A (zh) 多头自注意力的深度卷积嵌入聚类风光荷联合场景方法
Long et al. Power quality disturbance identification and optimization based on machine learning
CN115062754A (zh) 一种基于优化胶囊的雷达目标识别方法
CN112782660A (zh) 基于Bert的雷达目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination