CN118191780A - 多级多头注意力引导的异质图网络sar目标识别方法及装置 - Google Patents
多级多头注意力引导的异质图网络sar目标识别方法及装置 Download PDFInfo
- Publication number
- CN118191780A CN118191780A CN202410410134.4A CN202410410134A CN118191780A CN 118191780 A CN118191780 A CN 118191780A CN 202410410134 A CN202410410134 A CN 202410410134A CN 118191780 A CN118191780 A CN 118191780A
- Authority
- CN
- China
- Prior art keywords
- node
- level
- heterogeneous
- graph
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000007246 mechanism Effects 0.000 claims abstract description 106
- 238000013528 artificial neural network Methods 0.000 claims abstract description 49
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 239000010410 layer Substances 0.000 claims description 150
- 230000002776 aggregation Effects 0.000 claims description 62
- 238000004220 aggregation Methods 0.000 claims description 62
- 238000003384 imaging method Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 239000002356 single layer Substances 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000004350 Strabismus Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本申请涉及一种多级多头注意力引导的异质图网络SAR目标识别方法、装置及计算机设备,通过根据提取SAR复数信号数据的散射中心的相关参数构建对应的异质图数据,并将其输入至包括多层异质图卷积层,全图注意力机制层以及分类层的目标识别神经网络,该网络依次通过节点级、语义级以及全图级的三层注意力机制对图数据中的节点进行信息融合,从而得到可以表征输入SAR图像的局部特征表征,通过基于电磁散射特征得到的局部特征表征数据进一步的进行目标识别,提高了目标识别率的同时,增加了神经网络的可解释性。
Description
技术领域
本申请涉及SAR自动目标识别技术领域,特别是涉及一种多级多头注意力引导的异质图网络SAR目标识别方法及装置。
背景技术
Synthetic Aperture Radar(SAR)是一种主动式微波遥感成像雷达,它弥补了光学成像的不足,可提供全天时、全天候的图像采集能力。近年来,随着SAR技术的快速发展,SAR数据越来越丰富,空间分辨率越来越高,SAR数据逐渐满足目标/地物精细化解译的需求,在目标侦察与监视、打击指示、以及自然灾害响应等多个领域发挥着重要作用。自动目标识别(Automatic target recognition,ATR)是SAR图像解译领域的一个重要应用任务。随着人工智能技术的发展,尤其是计算机视觉领域取得了巨大的进步,基于机器学习的SAR-ATR算法研究在本领域逐渐成为主流。
然而,目前基于机器学习仍存在一些问题,例如,用于对模型进行训练的SAR样本数据量小,容易导致模型过拟合的问题,或忽略SAR图像和光学图像的差异以及雷达本身的特性进行模型构建,这都影响模型对目标的识别效果。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高目标识别率的多级多头注意力引导的异质图网络SAR目标识别方法、装置及计算机设备。
一种多级多头注意力引导的异质图网络SAR目标识别方法,所述方法包括:
获取待进行目标识别的SAR复数信号数据;
利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
在其中一实施例中,所述异质图数据中的节点根据对应散射中心相关参数中的散射中心方位向的长度、散射中心的方位角以及散射中心对方位角的依赖因子,分为局域式散射中心以及分布式散射中心。
在其中一实施例中,在对异质图数据中的节点进行分类时:
当所述散射中心方位向的长度与散射中心的方位角均等于“0”时,则对应的节点类别为所述局域式散射中心;
当所述散射中心对方位角的依赖因子等于“0”时,则对应的节点类别为所述分布式散射中心。
在其中一实施例中,在各层所述异质图卷积层中:
首先按照不同种元路径划分与中心节点相连的相邻节点,再采用所述多头节点级别注意力机制,分别计算中心节点与不同元路径对应的相邻节点之间的节点注意力分数,将计算得到的节点注意力分数与对应的相邻节点的特征向量相乘后求和,得到注意头计算出的中心节点的特征表示,将多个所述中心节点的特征表示进行拼接,得到中心节点的节点信息聚合后的特征表示;
经过多头节点级别注意力机制的计算后,得到中心节点的多个关于不同种元路径的特征表示,针对多个元路径的特征表示,采用单层前馈神经网络进行语义级别注意力机制的计算,得到每一种元路径对应的语义级别注意力分数,将语义级注意力分数与对应的元路径特征表示相乘后求和,得到中心节点的语义信息聚合后的特征表示;
经过多头节点级别注意力机制以及语义级别注意力机制的计算,得到当前所述异质图卷积层的输出,并将其输出输入至下一层所述异质图卷积层继续进行计算,或者输入至所述全图注意力机制层中。
在其中一实施例中,所述多头节点级别注意力机制表示为:
在上式中,表示采用多头节点级别注意力机制计算得到的中心节点vi在Φp类型的元路径下中心节点vi的特征表示,K表示多头节点级别注意力机制的注意头数量,/>表示中心节点vi与相邻节点vj之间的节点注意力分数,/>表示相邻节点vj的特征向量,σ(·)表示非线性激活函数。
在其中一实施例中,采用语义级别注意力机制进行语义级别的信息聚合后,各节点的特征表示为:
在上式中,表示第p种元路径的语义级别注意力机制的计算得到的注意力分数,表示节点vi经过多头节点级别注意力机制和语义级注意力机制计算后的特征表示。
在其中一实施例中,在所述全图注意力机制层中:
采用池化方式计算经过多层次节点信息聚合后的异质图数据中每一个节点对应注意力分数;
基于注意力分数对所有节点特征进行加权求和,聚合得到所述局部电磁散射特征。
在本申请中还提供了一种多级多头注意力引导的异质图网络SAR目标识别装置,所述装置包括:
数据获取模块,用于获取待进行目标识别的SAR复数信号数据;
相关参数获取模块,用于利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
异质图数据构建模块,用于根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
目标识别神经网络输入模块,用于将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
节点信息聚合模块,用于在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
全图节点信息融合模块,用于将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
目标识别结果得到模块,用于利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待进行目标识别的SAR复数信号数据;
利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待进行目标识别的SAR复数信号数据;
利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
上述多级多头注意力引导的异质图网络SAR目标识别方法及装置,通过根据提取SAR复数信号数据的散射中心的相关参数构建对应的异质图数据,并将其输入至包括多层异质图卷积层,全图注意力机制层以及分类层的目标识别神经网络,该网络依次通过节点级、语义级以及全图级的三层注意力机制对图数据中的节点进行信息融合,从而得到可以表征输入SAR图像的局部特征表征,通过基于电磁散射特征得到的局部特征表征数据进一步的进行目标识别,提高了目标识别率的同时,增加了神经网络的可解释性。
附图说明
图1为一个实施例中多级多头注意力引导的异质图网络SAR目标识别方法的流程示意图;
图2为一个实施例中同质图计算能力的示意图;
图3为一个实施例中散射中心分别在成像平面中的坐标以及在地距坐标系中的坐标的示意图;
图4为一个实施例中元路径的示意图;
图5为一个实施例中节点级别注意力和语义级别注意力的示意图;
图6为一个实施例中目标识别神经网络中数据处理的流程示意图;
图7为一个实施例中多级多头注意力引导的异质图网络SAR目标识别装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在采用神经网络进行SAR图像的自动目标识别时,存在包括:
(1)相对于光学图像来说SAR数据体量小,导致极其容易导致模型过拟合。常规的小样本问题的解决方法有数据扩展和模型优化等方式,模型优化的方式会在网络中加入了大量的附加处理模块,这两种做法都会导致计算开销增加,模型的参数体量增大。这种大模型小数据的条件下,过拟合或者难以收敛的问题就会更加突出。同时,算法将难以部署到实际的工程应用终端。
(2)忽略SAR图像和光学图像的差异以及雷达本身的特性开展SAR-ATR研究是一种不合理且危险的做法。姿态角敏感是SAR的重要特征,因此SAR图像存在较大的类内差异和较高的类间相似性,容易造成特征空间混淆,这对于性能严重依赖于训练数据的深度神经网络(DNN)来说是极为不利的。此外,将SAR图片直接送入DNN中的做法实际上只利用了SAR的幅度信息,然而雷达传感器所获得的丰富信息大多数都蕴含在相位信息中。从信息量的角度来看,只利用SAR的幅度图像的做法,在输入端已经损失了相当多的信息了。
(3)深度神经网络内部的决策过程不清晰,学习特征机理不明,可解释性差。导致对DNN的可信任度较低,在部分任务场景下决策能力受限,存在相当的决策风险。
针对上述存在的技术问题,如图1所示,本申请提供了一种多级多头注意力引导的异质图网络SAR目标识别方法,包括以下步骤:
步骤S100,获取待进行目标识别的SAR复数信号数据。
步骤S110,利用ASC参数模型从SAR复数信号数据中提取得到电磁散射参数,电磁散射参数包括多个散射中心的相关参数。
步骤S120,根据电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权。
步骤S130,将异质图数据输入至由图卷积层构建的目标识别神经网络中,在目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层。
步骤S140,在各层异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据。
步骤S150,将经过多层次节点信息聚合后的异质图数据通过全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征。
步骤S160,利用分类层根据局部电磁散射特征进行目标识别,得到目标识别结果。
在本申请中,通过多层多头注意力机制引导的异质图神经网络学习目标的局部EMS(electromagnetic scattering,电磁散射)特征。除了提取目标结构特征以外,还融入了EMS信息及目标关键部件的类型信息,并避免了编码和各类映射方式导致的物理信息损失,从而学习到更准确的局部特征表示。而实时上,目标的局部特征(即拓扑结构特征)对于促进识别的准确率以及泛化能力提升非常重要,使得后续通过提取得到的目标拓扑结构特征进行精准识别。
在步骤S100中,获取待进行目标识别的SAR图像的SAR复数信号数据,从SAR复数信号数据中可以得到更多的与目标相关的物理特征。而其中的目标可以指包括车辆、飞机、舰船在内的运输设备。
在步骤S110中,采用基于ASC参数模型提取SAR复数信号数据中的散射中心及相关参数,ASC参数模型是基于物理光学和集合衍射理论提出的描述高频去复杂EMS特性的参数化模型,具体形式如公式(1)所示:
公式(1)表示在方位角为φ,频率为f时,目标整体的后向散射响应Ei(f,φ;θi)共由P个独立散射中心构成。需要注意的是,由于SAR的成像特点,P可能会随φ的变化而变化。参数集合Θ表示所有散射中心的参数集合,即Θ={θi}(i=1,2,...,P),θi是第i个散射中心对应的模型参数集。
具体的,Ei(f,φ;θi)表示第i个散射中心的独立响应,具体形式表示为:
在公式(2)中,fc表示雷达工作的中心频率,c是光速。这些参数提供了散射中心的丰富物理描述。Ai是后向散射系数,它描述了散射中心在特定频率和方位角下的相对强弱关系。αi是频率依赖因子,它反应了不同的散射机理。Li代表了散射中心方位向的长度,/>代表散射中心的方位角,γi表示散射中心对方位角φ的依赖因子。而xi,yi代表了第i个散射中心投影在成像平面上的位置坐标。
在本实施例中,散射中心对应了目标中的关键部件结构,通过估计散射中心的EMS信息,可以得到这些关键部件的物理结构信息和空间拓扑关系。而对参数进行估计的问题等价于求解使得基于ASC参数重构的图像与实测图像误差最小的模型参数集合:
在公式(3)中,表示二维逆傅里叶变换,E(f,φ)表示实际的回波数据,Si(f,φ;θi)表示估计所得的第i个散射中心的ASC参数。
而在对公式(3)进行求解时,有多种现有算法均能实现,例如:牛顿正交匹配追踪、下山单纯形法,这里不再进行赘述。
由于,散射中心的空间拓扑关系属于非欧式空间的数据,在光学区雷达目标回波是由多个局部散射中心组成的,因此,将散射中心的分布关系构建为图是非常自然的做法。散射中心可以编码为图的节点,而散射中心之间的关系则可以抽象为图的边。
同时,现有技术中,一般将所有散射中心视为同种节点,没有对节点种类进行区分,也就是构建的图是同质图。对于同质图来说,GNN学习的是节点之间的结构关系,但是从GNN的计算图原理来分析,节点属性信息匮乏的情况下,图中的部分节点无法得到区分。比如图2中的节点1和节点2,它们具有相同的计算图,在同质图的情况下它们是同构。因此,同质图的构图方式对节点属性向量的精准度要求会更高。
构建图是为了刻画目标的实际部件之间的关系,用散射中心的类型来区分节点类型,不仅是一种语义信息的引入,也更符合目标的真实情况。因此,在本申请中,对散射中心类别做出区分,构建具有不同类别节点的异质图。使得异质图神经网络的构建到学习过程中可以融入更多的领域知识。
在步骤S120中,在基于目标电磁散射参数构建异质图数据时,异质图数据中的节点根据对应散射中心相关参数中的散射中心方位向的长度、散射中心的方位角以及散射中心对方位角的依赖因子,分为局域式散射中心以及分布式散射中心。
进一步的,在对异质图数据中的节点进行分类时:当散射中心方位向的长度与散射中心的方位角均等于“0”时,则对应的节点类别为局域式散射中心。当散射中心对方位角的依赖因子等于“0”时,则对应的节点类别为分布式散射中心。
具体的,局域式散射中心与分布式散射中心,两种散射中心分别作为图的两类节点V1和V2,则全图的节点集合表示为V=V1∪V2={v1,...,vi,...,vm},|V|代表节点数量。散射中心的完整描述提供了更充分的SAR目标物理信息。为避免过多处理导致EMS信息的损失,节点vi的初始属性向量由散射中心对应的ASC参数组成,即 为节点属性向量构成的节点属性矩阵。
在节点之间的关系不明确的情况下,构建全连接图是一个可以有效避免信息遗漏的做法。SAR的目标物理特征决定了图中的节点数量较少,并且边的数量不会改变A的维度,因此构建全连接图并不会给计算量带来过多负担。距离越远的两个节点,之间的相关性越弱,因此如公式(4)所示,边权用散射中心之间的实际距离的倒数来表示:
然而,ASC模型解析得到的坐标是成像平面中的坐标。而如果改变俯仰角或斜视角,同一目标的回波散射在SAR特征中将出现较大的差异。因此,用散射部件之间的真实物理距离来描述节点之间的距离更加合理。因为这种做法可以更贴近目标本身的结构特征,缓解由于成像视角变化带来的图像易变性。
如图3所示,(xs,ys)是目标投影在成像平面中的坐标,即上述坐标(xi,yi),xs代表了多普勒中心时刻散射中心与雷达平台之间的距离。(xg,yg)是散射中心在地距坐标系中的坐标。坐标换算规则如下所示:
由于,方位坐标的原点是以雷达平台采集数据的起始时刻为准的,且地距y轴和成像平面y轴是平行的,所以有yg=ys。基于此,(xgi,ygi)和(xgj,ygj)表示节点vi和vj的地距坐标,vi和vj之间的真实物理距离可以由下式计算得到:
在得到邻接矩阵A后对A做对称归一化处理,在本实施例中,给出了一种具体进行归一化处理的公式,如公式(7)所示,可以理解的,还可以采用其他归一化的方式:
在公式(7)中,D|V|×|V|是度矩阵,它是一个对角阵,定义为和节点相连的所有边的权重之和,N(vi)是和节点vi相连的所有节点集合,I是单位矩阵。
在这里需要进行说明的是,部分SAR数据中可能只含有一种节点类型,这并不影响本方法的实施。
通过上述的步骤S110以及S120,已完成对SAR复数信号数据输入至深度神经网络之前的预处理过程,即为了适应后续深度神经网络类型,将SAR复数信号数据转换为图数据的过程。接下来步骤S130至S160均是目标识别神经网络内部对异质图数据进行处理的过程。
由于,在本方法中构建的图是具有不同类型的节点,且节点数目不恒定的异质图。由于图中同时存在不同类型的节点,同质图上的卷积准则不再适用。为此,在本实施例中,利用类型相关的变换矩阵将不同类型的节点的属性向量投射到公共的隐式空间中,在此基础上设计异质图网络的卷积核。针对不同图之间节点数目不一致的情况,不宜再采用谱域卷积的GNN,因为这类GNN的卷积核大小固定。基于空域的GNN通过消息传递机制计算嵌入,对节点数目没有要求,适用于本方法构建的异质图。考虑到节点以及节点类型之间的贡献度存在差异,还引入了多层多头注意力机制,对关键的信息进行有效捕捉。多层注意力机制包括节点级,语义级以及全图级三层。
进一步的,在本方法中,除了考虑节点本身的类型差异,节点之间的信息传递方式存在多种含义丰富的语义信息。在异质图中,两个节点可以通过不同的语义路径连接起来,这种语义路径称为元路径。在本方法的任务中,节点类型有两种,那么元路径应当有4种,如图4所示,左侧节点称为元路径的开始节点,右侧称为结束节点。通过定义元路径Φ,可以更有效的挖掘异质图中的语义信息。
在本实施例中,为充分的挖掘异质图的复杂交互特征和丰富语义,加强GNN模块的特征提取能力,并提高模型的鲁棒性,引入多层多头注意力机制,在不同层面学习节点表示。并利用多层注意力权重,以层次聚合的方式来加权融合节点、语义信息,学习图的全图特征表示。具体来说,包括节点级、语义级、全图级三层注意力机制,其中,节点级和语义级注意力机制对各节点信息进行更新。
在本实施例中,目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层。
在步骤S140中,在各层异质图卷积层中:先采用多头节点级别注意力机制,以元路径为聚合方式计算异质图数据的中心节点与相关的多个相邻节点之间的节点注意力分数,将多个根据各节点注意力分数以及相关节点之间的特征向量进行拼接,得到对应中心节点的节点信息聚合后的特征表示。在经过多头节点级别注意力机制的计算后,得到多个关于不同种元路径的特征表示集合,针对每一种元路径采用单层前馈神经网络进行语义级别注意力机制的计算得到对应中心节点的语义信息聚合后的特征表示。经过多头节点级别注意力机制以及语义级别注意力机制的计算,得到当前层异质图卷积层的输出,并将其输出输入至下一层所述异质图卷积层继续进行计算,或者输入至全图注意力机制层中。
具体的,对于一个中心节点vi来说,其多个邻居节点对于它的重要性应当是不同的,/>是以元路径Φp为聚合方式与vi相连的邻居节点所构成的集合。为学习这种节点级别的重要性差异,引入节点级注意力机制。节点级注意力机制对信息聚合过程中贡献度大的节点赋予较高的权重,降低噪声节点的带来的影响,并增强网络模块对EMS系数准确性的包容度。计算方式如下所示:
在上式中,υT表示可学习的注意力向量,||表示向量拼接,σ(·)代表非线性激活函数,相邻节点vj的特征向量表示为对/>做归一化后,得到节点注意力分数表示为:
通过公式(8)可以看出注意力分数依赖节点对的特征,但需要说明的是,节点对之间的节点级注意力分数并不是对称的,即这是因为||是一个非对称操作,不同的vi所连接的邻居节点也不相同,所以,公式(9)中的分母也是不同的。
异质图具有无标度的特点,图数据的方差较大,为了克服这些特点对于注意力分数带来的负面影响。在本实施例中,采用了多头注意力计算方式,稳定训练过程。使用多头注意力机制还能使注意力层的输出中包含有不同子空间中的编码表示信息,从而增强模型的表达能力。
具体的,假设有K个注意力头,那么通过学习,可以得到K个关于中心节点vi的特征向量,将这K个向量进行拼接,就得到最终的节点嵌入(及信息融合后的节点特征表示),表示为:
在公式(10)中,表示采用多头节点级别注意力机制计算得到的中心节点vi在Φp类型的元路径下中心节点vi的特征表示,K表示多头节点级别注意力机制的注意头数量,表示中心节点vi与相邻节点vj之间的节点注意力分数,/>表示相邻节点vj的特征向量,σ(·)表示非线性激活函数。
在本实施例中,考虑到不同的元路径在语义层面上具有不同的重要性。为此,引入语义级注意力机制来学习元路径之间的重要性差异。假设当前图所有的元路径集合为Φ={Φ1,…,Φp,…ΦP}。经过节点注意力的计算后,可以得到P组关于元路径的特征表示展开第一组/>可以得到/>vq表示Φ1类型的元路径的结束节点,结束节点所构成的集合表示为Φ1(vi)={v1,…,vq,…},集合中节点的数量为|Φ1(vi)|。基于上述定义,采用一个单层前馈神经网络计算语义级注意力,如公式(11)所示:
在公式(11)中,W是权重矩阵,b是偏置量,μT是可学习的语义级别注意力向量。最后用SoftMax得到归一化后的语义注意力分数以学习得到的注意力分数作为权重,进一步对不同语义的嵌入进行加权融合,得到最终的节点vi的特征表示为:
在公式(12)中,表示第p种元路径的语义级别注意力机制的计算结果,/>表示节点vi经过多头节点级别注意力机制后的特征表示。
通过公式(8)和公式(11)可以看出,多层注意力机制都没有采用向量点积的方式来计算注意力分数,这是为了避免以相似度作为注意力打分的主要依据。虽然,计算成本略有增加,但这更加符合SAR-ATR的物理意义。因为节点的物理意义是目标的局部关键部件,邻居部件对于中心部件的重要程度,和它们之间的相似度并没有明确的因果关系。因此,在本实施例中,采用单层前馈神经网络,利用分类损失来优化注意力打分方式。
如图5所示,为节点注意力和语义注意力的示意图,图5(a)是节点级别注意力,节点之间连接线的粗细表示了相邻节点对中心节点的贡献度大小。图5(b)是语义级别注意力,带箭头的线段分别代表了两种语义对中心节点的贡献度,线的粗细表示贡献度的大小。
上述的两层注意力机制都是对节点信息传递和聚合的过程进行权重调整。经过多层次的节点信息聚合,可以得到节点的高阶语义特征。
在本实施例中,各层异质图卷积层节点的角度出发,不同类型的节点可能会有不同的特性,它们的特征落在不同的特征空间,因此将各类节点与各自的变换矩阵相乘,将不同的节点信息投影到公共的隐式空间中:
在公式(13)中,τ代表节点的类型,Γ是节点类型集合,在本任务中 是/>的子矩阵,它表示了节点类型为τ的节点的连接关系,/> 代表了τ节点类型的转化矩阵。不同类型的信息投影到了公共的隐式空间中,最终得到H(l+1)。
在本实施例中,异质图卷积层的层数可根据目标类型,或者任务需求进行自定义。
在其中一实施例中,异质图卷积层的层数设置为3层。
由于,SAR-ATR是图分类任务,所以需要计算关于全图的特征表示。全图的表示是基于节点的高阶语义特征得到的,对于全图来说,每个节点的贡献度也是有区别的。因此最后一层注意力机制是针对全图的节点聚合过程设计的。从SAR的物理意义来理解,让网络关注数据中质量较高的散射中心(图中的节点)对最终分类有着积极的影响。
在步骤S150中,在全图注意力机制层中:采用池化方式计算经过多层次节点信息聚合后的异质图数据中每一个节点对应注意力分数,基于注意力分数对节点特征进行加权求和,聚合得到所述局部电磁散射特征。
具体的,全图的特征表示的获取可以看作一个图池化过程,即根据所有的节点高阶特征,pooling(池化)得到一个特征向量作为图的表示。因此全图级注意力机制利用图卷积的方法计算注意力分数,基于公式(13),注意力分数计算方式如下:
在公式(14)中,是标准归一化的全图邻接矩阵,/>H是由公式(12)聚合后得到的节点属性向量构成的矩阵,/>q′是经过异质图卷积后得到的节点属性向量长度,具体数学形式如公式(15)所示。Θatt是可学习参数,/>
采用池化的方式来计算z,可以同时利用到节点特征和拓扑信息。对z做SoftMax后得到每个节点对应的注意力分数,基于注意力分数对节点特征进行加权求和,聚合得到最终的全图特征表示,数学形式如下所示:
在本实施例中,目标识别神经网络中数据处理的过程如图6所示,其中,虚线左侧展示了从第l层到第(l+1)层的计算过程即多层目标识别神经网络,虚线右侧表示全图特征的计算过程。图中共有3级注意力机制,其中节点级注意力机制是多头的。图数据中节点的数字代表了其对应的类型。节点向量颜色的深浅表示了该节点的贡献大小,带箭头的线段表示了信息传递方向,线段的粗细表示信息的贡献度大小。
GNN由于其消息传递的机制,网络层数每增加一层,“感受野”就会极大的增加,这与CNN等传统网络有很大的区别。又因为本方法构建的图为全连接图,所以,实际上目标识别神经网络只需2层卷积就能达到比较好的效果。目标识别神经网络规模小,参数量小,在CPU上即可完成训练,这极大的提高了算法的实际工程部署能力。
GNN具有节点置换不变性这一良好的性质。也就是说,节点和连接关系一旦确定,它们的任意的节点顺序或者拉伸变换都不影响特征的稳定提取。这正好符合了不同视角下的SAR图像中,相同几何结构的物体会呈现出不同视觉效果的特点,只要本身的几何关系构建是稳定的,不管它的投影形状会发生如何变化,目标本身的结构信息都能被捕捉到。
进一步的,考虑到SAR数据量较小,为防止模型过拟合。在节点信息聚合过程中加入了用于正则化的超参数,具体来说:
对比公式(10)、公式(12)以及公式(16),可以看出超参数αLESF,βLESF,γLESF分别被加在了节点,语义,全图的信息聚合过程中。通过这种方式在原始信息聚合和多层注意力聚合之间做出权衡,以达到缓解模型过拟合的目的。
最后,在步骤S160中,采用分类层基于局部电磁散射特征进行目标识别,得到目标识别结果。分类层可以采用现有技术中的线性全连接层。
在本实施例中,在利用SAR复数信号数据对目标识别神经网络进行训练时,每次训练随机选取256个样本,所有数据共训练200轮,采用交叉熵损失函数。
上述多级多头注意力引导的异质图网络SAR目标识别方法中,通过根据提取SAR复数信号数据的散射中心的相关参数构建对应的异质图数据,并将其输入至包括多层异质图卷积层,全图注意力机制层以及分类层的目标识别神经网络,该网络依次通过节点级、语义级以及全图级的三层注意力机制对图数据中的节点进行信息融合,从而得到可以表征输入SAR图像的局部特征表征,通过基于电磁散射特征得到的局部特征表征数据进一步的进行目标识别,提高了目标识别率的同时,针对DNNs的黑盒特性,在保持分类准确性的前提下,提高识别方法的物理可解释性,增强识别结果的可信度。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种多级多头注意力引导的异质图网络SAR目标识别装置,包括:数据获取模块200、相关参数获取模块210、异质图数据构建模块220、目标识别神经网络输入模块230、节点信息聚合模块240、全图节点信息融合模块250和目标识别结果得到模块260,其中:
数据获取模块200,用于获取待进行目标识别的SAR复数信号数据;
相关参数获取模块210,用于利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
异质图数据构建模块220,用于根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
目标识别神经网络输入模块230,用于将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
节点信息聚合模块240,用于在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
全图节点信息融合模块250,用于将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
目标识别结果得到模块260,用于利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
关于多级多头注意力引导的异质图网络SAR目标识别装置的具体限定可以参见上文中对于多级多头注意力引导的异质图网络SAR目标识别方法的限定,在此不再赘述。上述多级多头注意力引导的异质图网络SAR目标识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种多级多头注意力引导的异质图网络SAR目标识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待进行目标识别的SAR复数信号数据;
利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待进行目标识别的SAR复数信号数据;
利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,所述方法包括:
获取待进行目标识别的SAR复数信号数据;
利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
2.根据权利要求1所述的多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,所述异质图数据中的节点根据对应散射中心相关参数中的散射中心方位向的长度、散射中心的方位角以及散射中心对方位角的依赖因子,分为局域式散射中心以及分布式散射中心。
3.根据权利要求2所述的多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,在对异质图数据中的节点进行分类时:
当所述散射中心方位向的长度与散射中心的方位角均等于“0”时,则对应的节点类别为所述局域式散射中心;
当所述散射中心对方位角的依赖因子等于“0”时,则对应的节点类别为所述分布式散射中心。
4.根据权利要求1所述的多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,在各层所述异质图卷积层中:
首先按照不同种元路径划分与中心节点相连的相邻节点,再采用所述多头节点级别注意力机制,分别计算中心节点与不同元路径对应的相邻节点之间的节点注意力分数,将计算得到的节点注意力分数与对应的相邻节点的特征向量相乘后求和,得到注意头计算出的中心节点的特征表示,将多个所述中心节点的特征表示进行拼接,得到中心节点的节点信息聚合后的特征表示;
经过多头节点级别注意力机制的计算后,得到中心节点的多个关于不同种元路径的特征表示,针对多个元路径的特征表示,采用单层前馈神经网络进行语义级别注意力机制的计算,得到每一种元路径对应的语义级别注意力分数,将语义级注意力分数与对应的元路径特征表示相乘后求和,得到中心节点的语义信息聚合后的特征表示;
经过多头节点级别注意力机制以及语义级别注意力机制的计算,得到当前所述异质图卷积层的输出,并将其输出输入至下一层所述异质图卷积层继续进行计算,或者输入至所述全图注意力机制层中。
5.根据权利要求4所述的多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,所述多头节点级别注意力机制表示为:
在上式中,表示采用多头节点级别注意力机制计算得到的中心节点vi在Φp类型的元路径下中心节点vi的特征表示,K表示多头节点级别注意力机制的注意头数量,/>表示中心节点vi与相邻节点vj之间的节点注意力分数,/>表示相邻节点vj的特征向量,σ(·)表示非线性激活函数。
6.根据权利要求4所述的多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,采用语义级别注意力机制进行语义级别的信息聚合后,各节点的特征表示为:
在上式中,表示第p种元路径的语义级别注意力机制的计算得到的注意力分数,/>表示节点vi经过多头节点级别注意力机制和语义级注意力机制计算后的特征表示。
7.根据权利要求1所述的多级多头注意力引导的异质图网络SAR目标识别方法,其特征在于,在所述全图注意力机制层中:
采用池化方式计算经过多层次节点信息聚合后的异质图数据中每一个节点对应注意力分数;
基于注意力分数对所有节点特征进行加权求和,聚合得到所述局部电磁散射特征。
8.一种多级多头注意力引导的异质图网络SAR目标识别装置,其特征在于,所述装置包括:
数据获取模块,用于获取待进行目标识别的SAR复数信号数据;
相关参数获取模块,用于利用ASC参数模型从所述SAR复数信号数据中提取得到电磁散射参数,所述电磁散射参数包括多个散射中心的相关参数;
异质图数据构建模块,用于根据所述电磁散射参数构建包括两种节点类别的异质图数据,其中,在进行所述异质图数据构建时,将成像平面上各散射中心的位置坐标转换为地距坐标系中的位置坐标,以地距坐标作为图数据中的节点位置,再计算两两节点之间的边权;
目标识别神经网络输入模块,用于将所述异质图数据输入至由图卷积层构建的目标识别神经网络中,在所述目标识别神经网络中包括多层异质图卷积层,全图注意力机制层以及分类层;
节点信息聚合模块,用于在各层所述异质图卷积层中,针对不同类别的中心节点,采用多头节点级别注意力机制根据其相邻节点进行信息聚合,再针对不同类别的中心节点与相邻节点之间的元路径,采用语义级别注意力机制进行信息聚合,在最后一层异质图卷积层的输出得到经过多层次节点信息聚合后的异质图数据;
全图节点信息融合模块,用于将经过多层次节点信息聚合后的异质图数据通过所述全图注意力机制层进行全图级别的节点信息融合,得到全图特征表示,即局部电磁散射特征;
目标识别结果得到模块,用于利用所述分类层根据所述局部电磁散射特征进行目标识别,得到所述目标识别结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410410134.4A CN118191780A (zh) | 2024-04-07 | 2024-04-07 | 多级多头注意力引导的异质图网络sar目标识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410410134.4A CN118191780A (zh) | 2024-04-07 | 2024-04-07 | 多级多头注意力引导的异质图网络sar目标识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118191780A true CN118191780A (zh) | 2024-06-14 |
Family
ID=91413614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410410134.4A Pending CN118191780A (zh) | 2024-04-07 | 2024-04-07 | 多级多头注意力引导的异质图网络sar目标识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118191780A (zh) |
-
2024
- 2024-04-07 CN CN202410410134.4A patent/CN118191780A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pei et al. | SAR automatic target recognition based on multiview deep learning framework | |
Liu et al. | A deep convolutional coupling network for change detection based on heterogeneous optical and radar images | |
Chen et al. | Target classification using the deep convolutional networks for SAR images | |
Yang et al. | Mixed loss graph attention network for few-shot SAR target classification | |
Feng et al. | Electromagnetic scattering feature (ESF) module embedded network based on ASC model for robust and interpretable SAR ATR | |
Tian et al. | A relation-augmented embedded graph attention network for remote sensing object detection | |
Liu et al. | SAR target configuration recognition via two-stage sparse structure representation | |
CN114926693A (zh) | 基于加权距离的sar图像小样本识别方法及装置 | |
Wiggers et al. | Document image retrieval using deep features | |
Wang et al. | Lightweight deep neural networks for ship target detection in SAR imagery | |
Yang et al. | HENC: Hierarchical embedding network with center calibration for few-shot fine-grained SAR target classification | |
Aljabri et al. | Extracting feature fusion and co-saliency clusters using transfer learning techniques for improving remote sensing scene classification | |
Cui et al. | Angular discriminant analysis for hyperspectral image classification | |
CN113723572A (zh) | 船只目标识别方法、计算机系统及程序产品、存储介质 | |
Zhang et al. | Nonrigid image registration for low-altitude SUAV images with large viewpoint changes | |
CN116503685A (zh) | 基于层次域先验的光学-isar图像转换方法及装置 | |
CN116258960A (zh) | 基于结构化电磁散射特征的sar目标识别方法及装置 | |
CN118191780A (zh) | 多级多头注意力引导的异质图网络sar目标识别方法及装置 | |
CN111652246B (zh) | 一种基于深度学习的图像自适应稀疏化表征方法及装置 | |
CN114863201A (zh) | 三维检测模型的训练方法、装置、计算机设备和存储介质 | |
Swaney et al. | Efficient skin segmentation via neural networks: HP-ELM and BD-SOM | |
Jun et al. | Two-view correspondence learning via complex information extraction | |
Trosten et al. | Deep image clustering with tensor kernels and unsupervised companion objectives | |
Trosten et al. | Leveraging tensor kernels to reduce objective function mismatch in deep clustering | |
Ukwuoma et al. | Synthetic aperture radar automatic target recognition based on a simple attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |