CN112183234A - 基于图神经网络的态势感知方法及装置 - Google Patents
基于图神经网络的态势感知方法及装置 Download PDFInfo
- Publication number
- CN112183234A CN112183234A CN202010944528.XA CN202010944528A CN112183234A CN 112183234 A CN112183234 A CN 112183234A CN 202010944528 A CN202010944528 A CN 202010944528A CN 112183234 A CN112183234 A CN 112183234A
- Authority
- CN
- China
- Prior art keywords
- graph
- neural network
- situation
- image
- perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于图神经网络的态势感知方法及装置,应用于态势感知系统,通过图神经网络训练及对训练结果的统计分析,能够给出图像场景中目标信息的文字性描述,并对研究人员设定的兴趣目标进行敏感目标标注。相比于现有态势感知方法,本发明提供的态势感知方法及装置,较于传统的态势感知算法可以避免人为提取目标特征而带来的误差,较大提升了识别精度;能够在复杂背景下,对多种类、体积差异大、密度差异大的目标进行识别、分析及标注。
Description
技术领域
本发明涉及态势感知领域,具体而言,涉及一种基于图神经网络的态势感知方法及装置。
背景技术
在当前网络化联合作战背景下,为了获取战场信息优势和指挥决策优势,全面了解作战双方的兵力结构、作战部署及战场环境等信息,亟需实现从杂乱无章的、海量的、强干扰的数据中挖掘有价值的知识,并进行行之有效的战场态势认知与推理,这对于辅助军事指挥员分析战场态势并做出决策具有重要的意义。
近年来,学术界围绕军事目标识别方法进行了大量研究。现有的卷积神经网络等方法已较为成熟,相较于传统的目标识别算法可以避免人为提取目标特征而带来的误差,在识别精度上有了巨大的提升。然而现有的方法未考虑态势感知的功能需要,大多从目标识别角度出发,需具备一定的目标种类先验信息,识别种类较为简单;同时在识别的基础上,对目标种类、位置、密度的统计分析较少,未对识别目标的感兴趣程度进行区分,很难运用到实际的态势感知系统中。
发明内容
本发明的目的在于提供一种基于图神经网络的态势感知方法及装置,通过图神经网络训练及对训练结果的统计分析,较于传统的态势感知算法可以避免人为提取目标特征而带来的误差,较大提升了识别精度;能够在复杂背景下,对多种类、体积差异大、密度差异大的目标进行识别、分析及标注。
本发明的实施例是这样实现的:
基于上述目的,本发明提供了一种基于图神经网络的态势感知方法,应用于态势感知系统,包括:
获取待感知的原始图像;
加载训练后的图神经网络;
对所述原始图像进行态势感知,包括对所述原始图像中的感知目标的类别、数量和位置分别进行感知;
输出感知结果,所述感知结果包括在所述原始图像中对所述感知目标分进行标记后的图像文件,以及对感知结果的场景文字描述。
在本发明较佳的实施例中,所述图神经网络的训练方法包括:
定义态势图像上图信号处理的卷积操作,得到图信号矩阵;
对所述图信号矩阵进行参数化,构建图神经网络模型;
设计固定的图滤波器,构建Faster R-GNN模型。
在本发明较佳的实施例中,所述定义态势图像上图信号处理的卷积操作,具体为:
给定两组态势图像上的图信号x1、x2,其图卷积运算定义如下:
x1*x2=IGFT(GFT(x1)ΘGFT(x2)),其中Θ表示哈达玛积;
所述图信号矩阵为X∈RN×d,将X作为d组定义在态势图像G上的图信号,d为图信号的总通道数,Xj表示第j个通道上的图信号。
在本发明较佳的实施例中,所述图神经网络模型具体为:
其中,σ(·)是激活函数,θ=[θ1,θ2,…,θN]是需要学习的参数,Θ是对应的需要学习的图滤波器,X是输入的图信号矩阵,X′是输出的图信号矩阵, K用于控制可拟合的频率响应函数的次数。
基于上述目的,本发明还提供了一种基于图神经网络的态势感知装置,应用于态势感知系统,所述装置包括:
图像获取单元,用于获取待感知的原始图像;
加载单元,用于加载训练后的图神经网络;
态势感知单元,用于对所述原始图像进行态势感知,包括对所述原始图像中的感知目标的类别、数量和位置分别进行感知;
结果输出单元,用于输出感知结果,所述感知结果包括在所述原始图像中对所述感知目标分进行标记后的图像文件,以及对感知结果的场景文字描述。
在本发明较佳的实施例中,所述装置还包括训练单元,用于训练所述图神经网络,所述训练单元具体包括:
图信号矩阵单元,用于定义态势图像上图信号处理的卷积操作,得到图信号矩阵;
图神经网络模型单元,用于对所述图信号矩阵进行参数化,构建图神经网络模型;
滤波器单元,用于设计固定的图滤波器,构建Faster R-GNN模型。
在本发明较佳的实施例中,所述定义态势图像上图信号处理的卷积操作,具体为:
给定两组态势图像上的图信号x1、x2,其图卷积运算定义如下:
x1*x2=IGFT(GFT(x1)ΘGFT(x2)),其中Θ表示哈达玛积;
所述图信号矩阵为X∈RN×d,将X作为d组定义在态势图像G上的图信号,d为图信号的总通道数,Xj表示第j个通道上的图信号。
在本发明较佳的实施例中,所述图神经网络模型具体为:
其中,σ(·)是激活函数,θ=[θ1,θ2,…,θN]是需要学习的参数,Θ是对应的需要学习的图滤波器,X是输入的图信号矩阵,X′是输出的图信号矩阵, K用于控制可拟合的频率响应函数的次数。
综上所述,本发明提供了一种基于图神经网络的态势感知方法及装置,应用于态势感知系统,通过图神经网络训练及对训练结果的统计分析,能够给出图像场景中目标信息的文字性描述,并对研究人员设定的兴趣目标进行敏感目标标注。相比于现有态势感知方法,本发明提供的态势感知方法及装置,较于传统的态势感知算法可以避免人为提取目标特征而带来的误差,较大提升了识别精度;能够在复杂背景下,对多种类、体积差异大、密度差异大的目标进行识别、分析及标注。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例的态势感知方法的方法流程图;
图2为本发明实施例的图神经网络的训练方法的方法流程图;
图3为本发明实施例的态势感知装置的结构示意图;
图4为本发明实施例的另一种态势感知装置的结构示意图;
图5为采用现有的态势感知方法的态势感知系统的感知结果的效果展示图;
图6为采用现有的态势感知方法的态势感知系统对输入图像的场景敏感目标标注结果的效果展示图。
图7为采用本发明实施例的态势感知方法的态势感知系统对输入图像的场景敏感目标标注结果的效果展示图。
图8为采用本发明实施例的态势感知方法的态势感知系统的感知结果的效果展示图。
图9为采用本发明实施例的态势感知方法的态势感知系统的针对雷达图像的态势感知结果的效果展示图。
图标:
图像获取单元110;加载单元120;态势感知单元130;结果输出单元 140;训练单元150;图信号单元210;图神经网络模型单元220;滤波器单元230。
具体实施方式
目前,学术界围绕军事目标识别方法进行了大量研究。现有的卷积神经网络等方法已较为成熟,相较于传统的目标识别算法可以避免人为提取目标特征而带来的误差,在识别精度上有了巨大的提升。然而现有的方法未考虑态势感知的功能需要,大多从目标识别角度出发,需具备一定的目标种类先验信息,识别种类较为简单;同时在识别的基础上,对目标种类、位置、密度的统计分析较少,未对识别目标的感兴趣程度进行区分,很难运用到实际的态势感知系统中。
近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。图神经网络(Graph Neural Network,GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN最近已成为一种广泛应用的图分析方法。
鉴于此,本发明设计者设计了一种基于图神经网络的态势感知方法及装置,通过图神经网络训练及对训练结果的统计分析,能够给出图像场景中目标信息的文字性描述,并对研究人员设定的兴趣目标进行敏感目标标注。相比于现有态势感知方法,本发明提供的态势感知方法及装置,较于传统的态势感知算法可以避免人为提取目标特征而带来的误差,较大提升了识别精度;能够在复杂背景下,对多种类、体积差异大、密度差异大的目标进行识别、分析及标注。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例
请参阅图1-图4,本实施例提供了一种基于图神经网络的态势感知方法及装置。
请参阅图1,本发明提供的一种基于图神经网络的态势感知方法,应用于态势感知系统,该方法包括:
步骤S101,获取待感知的原始图像;
本发明实施例提供的态势感知方法,可以针对不同场景下的图像进行感知。可见光图像或者雷达图像,均可以作为待感知的原始图像进行输入。
步骤S102,加载训练后的图神经网络;
将获取的到的原始图像作为图神经网络的态势图像输入,加载已经完成训练的图神经网络,准备进行针对原始图像的态势感知。
步骤S103,对所述原始图像进行态势感知,包括对所述原始图像中的感知目标的类别、数量和位置分别进行感知。
在态势感知系统中,本发明实施例提供的态势感知方法主要用于实现两个功能。功能一,输出对图像场景的文字描述,包括目标的类别、数量及位置分布情况;功能二,在所原始图像中对敏感目标进行标注进行输出。
通过加载的图神经网络对输入的原始图像进行计算处理,通过计算获得的场景目标类别、数量及位置的感知结果。充分挖掘场景目标信息,完成态势感知第一项功能,即形成对场景信息的文字性描述,对场景形成一个基本的认识;完成态势感知的第二项功能,即标注敏感目标,以便后续研究人员对其感兴趣的目标进行深入研究。其中,计算图像中各目标所占像素比例,占比最大目标确定为场景中的主体目标;计算场景中分布最为密集的目标,确定其为在图像中的数量最多的目标。用户可以在进行态势感知之前预先设置兴趣目标的目标类别,完成感知之后,如果发现有与兴趣目标相同的对象,即可在原始图像上对应的位置,将其作为敏感目标进行标记。
步骤S104,输出感知结果,所述感知结果包括在所述原始图像中对所述感知目标分进行标记后的图像文件,以及对感知结果的场景文字描述。
将计算获得的场景目标类别、数量及位置转换为针对场景的自然语言文字描述,同时再在原始图像上标记出敏感目标的位置。合并上述内容后,将其作为对原始图像的感知结果进行输出。
在本发明实施例提供的基于图神经网络的态势感知方法中,需要提前对图神经网络进行训练,以方便在实际使用时,计算原始图像的感知结果。具体地,图神经网络的训练方式如图2所示,包括:
步骤S201,定义态势图像上图信号处理的卷积操作,得到图信号矩阵。
考虑到态势感知方法主要应用于存在多种类、多数量,通常不同种类目标大小和密集程度存在差异的场景,目标编队同样包含在内,定义态势图像上图信号处理的卷积操作具体为:
给定两组态势图像G上的图信号x1、x2,其图卷积运算定义如下:
x1*x2=IGFT(GFT(x1)ΘGFT(x2)) (1)
其中Θ表示哈达玛积。与在离散时间信号处理中的卷积的定义相同,即时域中的卷积运算等价于频域中的乘法运算。
对式(1)继续进行推导:
由式(3)可知,两组图信号的图卷积运算总能转化为对应形式的图滤波算,从这个层面上来看,图卷积等价于图滤波。
同样,以上所有图信号处理的相关概念里的图信号都能被拓展到矩阵形式。设矩阵X∈RN×d,可以将X视为d组定义在图G上的图信号,于是称 X为图信号矩阵,d为图信号的总通道数,Xj表示第j个通道上的图信号。如,对Y=HX,可理解为用图滤波器H对信号矩阵X每个通道的信号分别进行滤波操作,X:,j对应的输出为图信号矩阵Y在第j个通道上的图信号。
步骤S202,对所述图信号矩阵进行参数化,构建图神经网络模型。
考虑到图卷积操作等价于图滤波操作,而图滤波算子的核心在于频率响应矩阵那么自然想到对频率响应矩阵进行参数化,可以定义如下神经网络层:
其中σ(·)是激活函数,θ=[θ1,θ2,…,θN]是需要学习的参数,Θ是对应的需要学习的图滤波器,X是输入的图信号矩阵,X′是输出的图信号矩阵。
下面对多项式系数进行参数化。同样,为了拟合任意的频率响应函数,可将拉普拉斯矩阵的多项式形式转化为一种可学习的形式,具体如下:
其中θ=[θ1,θ2,…,θK]是多项式系数向量,也是该网络层真正需要学习的参数,参数量K可以自由控制。K越大,可拟合的频率响应函数的次数就越高,可以对应输入图信号矩阵与输出图信号矩阵之间复杂的滤波关系;K 越小,可拟合的频率响应函数的次数就越低,可以对应输入图信号矩阵与输出图信号矩阵之间简单的滤波关系。
作为本发明实施的优选实施方式,通常设K≤N,这将大大降低模型过拟合的风险。
步骤S203,设计固定的图滤波器,构建Faster R-GNN模型。
步骤S202中构建的图神经网络模型虽然大大降低了参数量,但却由于对矩阵特征分解比较依赖而给计算带来了极高的复杂度,因此需要在其基础上进行优化,构建FasterR-GNN模型,并在其基础上进行训练,得到训练后的图神经网络。
为了解决这个问题,对式(5)进行了限制,设K=1,则
X′=σ(θ0X+θ1LX) (6)
令θ0=θ1=θ,则
其中θ为一标量,在此设θ=1,即得到了一个固定的图滤波器为加强网络学习时的数值稳定性,仿照正则拉普拉斯矩阵进行归一化处理。令称为重归一化形式的拉普拉斯矩阵。的特征值范围为(-1,1],可有效防止多层网络优化时出现的梯度消失或爆炸的现象。
为了加强网络的拟合能力,设计了一个参数化的权重矩阵对输入的图信号矩阵进行仿射变换,于是得到:
称式(8)为图卷积层,以此为主体堆叠多层的神经网络模型称为图卷积模型。
图卷积层是对频率响应函数拟合形式上的极大简化,最后相应的图滤波器退化成了图卷积操作变成了如果将X由信号矩阵的角色切换到特征矩阵上,由于是一个图位移算子,依据矩阵乘法的行向量视角,的计算等价于对邻居节点的特征向量进行聚合操作,于是图卷积层在节点层面的计算公式如下:
实际上,可以用稀疏矩阵来表示,可进一步降低图卷积层的计算复杂度。相较于频域图卷积中矩阵分解时O(N3)的时间复杂度,其空域图卷积计算的时间复杂度可以降至O(|E|d),从而构建Faster R-GNN模型。
下面通过具体的案例对本方案的实施例进行说明:
案例一,针对可见光原始图像
如图5所示,采用现有的态势感知方法的态势感知系统。针对功能一,系统在输出原始图像的同时输出对图像场景的文字描述,包括目标的类别、数量及分布情况;针对功能二,系统在输出原始图像的同时,在所输出图像中对敏感目标进行标注。
本发明首先使用可见光图像验证态势感知系统的有效性,针对态势感知系统的第一项功能,图5所示为态势感知系统针对输入图像的场景感知结果。根据图5中图像下方的文字描述,系统在该图像场景中感知到了11 个目标,包括1个飞机目标、2个汽车目标和8个人类目标。系统通过对目标的位置感知结果,经过统计计算后确定场景中的主体目标为飞机,该目标在图像中所占像素比例最大,场景中分布最为密集的目标为人,该目标在图像中的数量最多。
针对态势感知系统的第二项功能,图6所示为态势感知系统针对输入图像的场景敏感目标标注结果,在系统运行之前设定敏感目标的类别为人,图6中态势感知系统对人这一类敏感目标进行了荧光标记。
根据图5的描述信息和图6中的标记结果,系统成功感知到了飞机目标和所有的汽车目标,至于人这一目标类别,系统仅感知到了8个目标,没有感知到场景中所有的目标。这是因为相对于汽车和飞机目标来说,人这一目标在场景中的显示比例过小,分辨率较低,且目标之间重叠较多,不利于网络的识别。
针对该问题,采用本发明实施例的态势感知方法的态势感知系统,进行了敏感目标标注对比实验,图7是实验结果。根据图7的标注结果,模型感知到了11个人类目标,相较于图6的标注结果,深层网络模型对一些目标密集区域相互之间有重叠的目标也成功的实现了针对单个目标的感知,此外,位于图像边缘区域的一些目标,深层网络模型的感知能力也比浅层网络模型更好。图6和图7的实验结果再次证明了本发明实施例的态势感知方法的优越性。
将上述两项内容整合在一起,完成整个态势感知系统的功能实现,整合后系统态势感知结果如图8所示。在图8所示的感知结果中,系统既给出了对图像场景信息的文字性描述,又对图像中的敏感目标进行了标注,完成了采用本发明实施例的态势感知方法的态势感知系统的功能实现。
案例二,针对雷达原始图像
在完成了可见光图像的态势感知实验后,验证针对雷达图像态势感知系统的有效性。采用本发明实施例的态势感知方法的态势感知系统针对雷达图像的态势感知结果如图9所示。因缺乏复杂场景下的雷达图像数据,参照PASCALVOC 2007数据集的格式,使用目标标注工具建立了雷达图像位置感知训练数据集,并使用该数据集完成了图神经网络模型的训练。采用本发明实施例的态势感知方法的态势感知系统,在针对MSTAR SAR数据集时,系统能够实现对雷达图像目标的类别及位置感知,说明图卷积神经网络模型针对雷达图像数据进行目标类别及位置感知有效性,这为后续该方向的研究提供了思路,为图神经网络在雷达数据领域的应用奠定了基础。
综上所述,本发明实施例提供的基于图神经网络的态势感知方法通过图神经网络训练及对训练结果的统计分析,能够给出图像场景中目标信息的文字性描述,并对研究人员设定的兴趣目标进行敏感目标标注。相比于现有态势感知方法,本发明提供的态势感知方法及装置,较于传统的态势感知算法可以避免人为提取目标特征而带来的误差,较大提升了识别精度;能够在复杂背景下,对多种类、体积差异大、密度差异大的目标进行识别、分析及标注。
如图3所示,本发明的实施例还提供了一种基于图神经网络的态势感知装置,应用于多无人机群,包括:
图像获取单元110,用于获取待感知的原始图像;
加载单元120,用于加载训练后的图神经网络;
态势感知单元130,用于对所述原始图像进行态势感知,包括对所述原始图像中的感知目标的类别、数量和位置分别进行感知;
结果输出单元140,用于输出感知结果,所述感知结果包括在所述原始图像中对所述感知目标分进行标记后的图像文件,以及对感知结果的场景文字描述。
如图4所示,作为本发明实施例的优选实施方式,基于图神经网络的态势感知装置还包括:
训练单元150,用于训练所述图神经网络,所述训练单元150具体包括:
图信号矩阵单元210,用于定义态势图像上图信号处理的卷积操作,得到图信号矩阵;
图神经网络模型单元220,用于对所述图信号矩阵进行参数化,构建图神经网络模型;
滤波器单元230,用于设计固定的图滤波器,构建Faster R-GNN模型。
本发明实施例提供的基于图神经网络的态势感知装置,用于实现上述基于图神经网络的态势感知方法,因此具体实施方式与上述方法相同,在此不再赘述。
本发明实施例提供的基于图神经网络的态势感知方法及装置,应用于态势感知系统,通过图神经网络训练及对训练结果的统计分析,能够给出图像场景中目标信息的文字性描述,并对研究人员设定的兴趣目标进行敏感目标标注。相比于现有态势感知方法,本发明提供的态势感知方法及装置,较于传统的态势感知算法可以避免人为提取目标特征而带来的误差,较大提升了识别精度;能够在复杂背景下,对多种类、体积差异大、密度差异大的目标进行识别、分析及标注。
在本申请所公开的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种基于图神经网络的态势感知方法,应用于态势感知系统,其特征在于,包括:
获取待感知的原始图像;
加载训练后的图神经网络;
对所述原始图像进行态势感知,包括对所述原始图像中的感知目标的类别、数量和位置分别进行感知;
输出感知结果,所述感知结果包括在所述原始图像中对所述感知目标分进行标记后的图像文件,以及对感知结果的场景文字描述。
2.根据权利要求1所述的基于图神经网络的态势感知方法,其特征在于,所述图神经网络的训练方法包括:
定义态势图像上图信号处理的卷积操作,得到图信号矩阵;
对所述图信号矩阵进行参数化,构建图神经网络模型;
设计固定的图滤波器,构建Faster R-GNN模型。
3.根据权利要求2所述的基于图神经网络的态势感知方法,其特征在于,所述定义态势图像上图信号处理的卷积操作,具体为:
给定两组态势图像上的图信号x1、x2,其图卷积运算定义如下:
x1*x2=IGFT(GFT(x1)ΘGFT(x2)),其中Θ表示哈达玛积;
所述图信号矩阵为X∈RN×d,将X作为d组定义在态势图像G上的图信号,d为图信号的总通道数,Xj表示第j个通道上的图信号。
6.一种基于图神经网络的态势感知装置,应用于态势感知系统,其特征在于,包括:
图像获取单元,用于获取待感知的原始图像;
加载单元,用于加载训练后的图神经网络;
态势感知单元,用于对所述原始图像进行态势感知,包括对所述原始图像中的感知目标的类别、数量和位置分别进行感知;
结果输出单元,用于输出感知结果,所述感知结果包括在所述原始图像中对所述感知目标分进行标记后的图像文件,以及对感知结果的场景文字描述。
7.根据权利要求6所述的基于图神经网络的态势感知装置,其特征在于,所述装置还包括训练单元,用于训练所述图神经网络,所述训练单元具体包括:
图信号矩阵单元,用于定义态势图像上图信号处理的卷积操作,得到图信号矩阵;
图神经网络模型单元,用于对所述图信号矩阵进行参数化,构建图神经网络模型;
滤波器单元,用于设计固定的图滤波器,构建Faster R-GNN模型。
8.根据权利要求7中所述的基于图神经网络的态势感知装置,其特征在于,所述定义态势图像上图信号处理的卷积操作,具体为:
给定两组态势图像上的图信号x1、x2,其图卷积运算定义如下:
x1*x2=IGFT(GFT(x1)ΘGFT(x2)),其中Θ表示哈达玛积;
所述图信号矩阵为X∈RN×d,将X作为d组定义在态势图像G上的图信号,d为图信号的总通道数,Xj表示第j个通道上的图信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010944528.XA CN112183234A (zh) | 2020-09-10 | 2020-09-10 | 基于图神经网络的态势感知方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010944528.XA CN112183234A (zh) | 2020-09-10 | 2020-09-10 | 基于图神经网络的态势感知方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112183234A true CN112183234A (zh) | 2021-01-05 |
Family
ID=73920435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010944528.XA Pending CN112183234A (zh) | 2020-09-10 | 2020-09-10 | 基于图神经网络的态势感知方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183234A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116543602A (zh) * | 2023-07-04 | 2023-08-04 | 中国民用航空飞行学院 | 面向航空器集群的态势复杂性识别方法及系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107844760A (zh) * | 2017-10-24 | 2018-03-27 | 西安交通大学 | 基于曲面法向分量图神经网络表示的三维人脸识别方法 |
US20180225550A1 (en) * | 2015-06-05 | 2018-08-09 | Universiteit Van Amsterdam | Deep receptive field networks |
US20190005384A1 (en) * | 2017-06-29 | 2019-01-03 | General Electric Company | Topology aware graph neural nets |
US20190049968A1 (en) * | 2017-08-10 | 2019-02-14 | Patroness, LLC | Systems and Methods for Enhanced Autonomous Operations of A Motorized Mobile System |
CN110070026A (zh) * | 2019-04-17 | 2019-07-30 | 中国科学院自动化研究所 | 基于模式识别的视频图像危险态势感知方法、系统、装置 |
US20190236464A1 (en) * | 2018-01-29 | 2019-08-01 | EmergeX, LLC | System and method for facilitating affective-state-based artificial intelligence |
CN110674869A (zh) * | 2019-09-23 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 分类处理、图卷积神经网络模型的训练方法和装置 |
CN110717049A (zh) * | 2019-08-29 | 2020-01-21 | 四川大学 | 一种面向文本数据的威胁情报知识图谱构建方法 |
CN110991502A (zh) * | 2019-11-21 | 2020-04-10 | 北京航空航天大学 | 一种基于类别激活映射技术的空域安全态势评估方法 |
US20200141698A1 (en) * | 2018-11-02 | 2020-05-07 | Bae Systems Information And Electronic Systems Integration Inc. | Practical approach for multi-object detection, data association, and tracking |
CN111353534A (zh) * | 2020-02-27 | 2020-06-30 | 电子科技大学 | 一种基于自适应分数阶梯度的图数据类别预测方法 |
CN111476261A (zh) * | 2019-12-16 | 2020-07-31 | 天津工业大学 | 一种社区增强的图卷积神经网络方法 |
CN111626119A (zh) * | 2020-04-23 | 2020-09-04 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
-
2020
- 2020-09-10 CN CN202010944528.XA patent/CN112183234A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180225550A1 (en) * | 2015-06-05 | 2018-08-09 | Universiteit Van Amsterdam | Deep receptive field networks |
US20190005384A1 (en) * | 2017-06-29 | 2019-01-03 | General Electric Company | Topology aware graph neural nets |
US20190049968A1 (en) * | 2017-08-10 | 2019-02-14 | Patroness, LLC | Systems and Methods for Enhanced Autonomous Operations of A Motorized Mobile System |
CN107844760A (zh) * | 2017-10-24 | 2018-03-27 | 西安交通大学 | 基于曲面法向分量图神经网络表示的三维人脸识别方法 |
US20190236464A1 (en) * | 2018-01-29 | 2019-08-01 | EmergeX, LLC | System and method for facilitating affective-state-based artificial intelligence |
US20200141698A1 (en) * | 2018-11-02 | 2020-05-07 | Bae Systems Information And Electronic Systems Integration Inc. | Practical approach for multi-object detection, data association, and tracking |
CN110070026A (zh) * | 2019-04-17 | 2019-07-30 | 中国科学院自动化研究所 | 基于模式识别的视频图像危险态势感知方法、系统、装置 |
CN110717049A (zh) * | 2019-08-29 | 2020-01-21 | 四川大学 | 一种面向文本数据的威胁情报知识图谱构建方法 |
CN110674869A (zh) * | 2019-09-23 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 分类处理、图卷积神经网络模型的训练方法和装置 |
CN110991502A (zh) * | 2019-11-21 | 2020-04-10 | 北京航空航天大学 | 一种基于类别激活映射技术的空域安全态势评估方法 |
CN111476261A (zh) * | 2019-12-16 | 2020-07-31 | 天津工业大学 | 一种社区增强的图卷积神经网络方法 |
CN111353534A (zh) * | 2020-02-27 | 2020-06-30 | 电子科技大学 | 一种基于自适应分数阶梯度的图数据类别预测方法 |
CN111626119A (zh) * | 2020-04-23 | 2020-09-04 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
Non-Patent Citations (2)
Title |
---|
SETH WEBSTER等: "Experience Using Active and Passive Mapping for Network Situational Awareness", 《FIFTH IEEE INTERNATIONAL SYMPOSIUM ON NETWORK COMPUTING AND APPLICATIONS》, pages 1 - 19 * |
闫旭等: "基于图卷积神经网络的城市交通态势预测算法", 《浙江大学学报(工学版)》, vol. 54, no. 6, pages 1147 - 1154 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116543602A (zh) * | 2023-07-04 | 2023-08-04 | 中国民用航空飞行学院 | 面向航空器集群的态势复杂性识别方法及系统 |
CN116543602B (zh) * | 2023-07-04 | 2023-09-01 | 中国民用航空飞行学院 | 面向航空器集群的态势复杂性识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755126B2 (en) | Convolutional neural network processing method and apparatus | |
CN109461157B (zh) | 基于多级特征融合及高斯条件随机场的图像语义分割方法 | |
CN113570029A (zh) | 获取神经网络模型的方法、图像处理方法及装置 | |
CN111860138B (zh) | 基于全融合网络的三维点云语义分割方法及系统 | |
CN110728295B (zh) | 半监督式的地貌分类模型训练和地貌图构建方法 | |
CN113191390B (zh) | 一种图像分类模型的构建方法、图像分类方法及存储介质 | |
CN110211046B (zh) | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 | |
CN111291779B (zh) | 一种车辆信息识别方法、系统、存储器及处理器 | |
CN112215332A (zh) | 神经网络结构的搜索方法、图像处理方法和装置 | |
Haque et al. | Spectral-spatial feature extraction using PCA and multi-scale deep convolutional neural network for hyperspectral image classification | |
KR101507732B1 (ko) | 영역 기반의 항공 영상 분할 방법 및 이를 실행하는 프로그램 코드를 저장하는 컴퓨터로 읽을 수 있는 저장 매체 | |
CN113066037B (zh) | 基于图注意力机制的多光谱与全色图像融合方法及系统 | |
US12118771B2 (en) | Method and system for processing image, device and medium | |
US20150356350A1 (en) | unsupervised non-parametric multi-component image segmentation method | |
CN114419381A (zh) | 一种语义分割方法及应用其的道路积水检测方法和装置 | |
van den Brand et al. | Instance-level segmentation of vehicles by deep contours | |
CN116052026A (zh) | 一种无人机航拍图像目标检测方法、系统及存储介质 | |
EP3588441A1 (en) | Imagification of multivariate data sequences | |
Zhao et al. | CNN, RNN, or ViT? An evaluation of different deep learning architectures for spatio-temporal representation of sentinel time series | |
CN116863247A (zh) | 一种融合全局和局部信息的多模态遥感数据分类方法 | |
CN112183234A (zh) | 基于图神经网络的态势感知方法及装置 | |
DE102023130782A1 (de) | Trainieren eines neuronalen netzwerks mit einer budding-ensemble-architektur basierend auf diversitätsverlust | |
CN113989679A (zh) | 高光谱图像特征处理方法、分类方法、装置、系统及存储介质 | |
CN111967516B (zh) | 一种逐像素分类方法、存储介质及分类设备 | |
CN115761552B (zh) | 面向无人机机载平台的目标检测方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |