CN109993224A - 基于深度学习与多核学习的geo卫星形状与姿态识别方法 - Google Patents
基于深度学习与多核学习的geo卫星形状与姿态识别方法 Download PDFInfo
- Publication number
- CN109993224A CN109993224A CN201910239623.7A CN201910239623A CN109993224A CN 109993224 A CN109993224 A CN 109993224A CN 201910239623 A CN201910239623 A CN 201910239623A CN 109993224 A CN109993224 A CN 109993224A
- Authority
- CN
- China
- Prior art keywords
- sequence data
- ocs
- ocs sequence
- kernel
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/24—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度学习与多核学习的GEO卫星形状与姿态识别方法,包括:获取GEO卫星一年的OCS序列数据;对OCS序列数据进行预处理;基于深度学习网络,构建用于对OCS序列数据进行自动特征提取的C‑RNN模型,所述深度学习网络包括循环神经网络与卷积神经网络;训练C‑RNN模型,获取OCS序列数据的多个特征向量;基于多核学习技术,使用多个核函数对不同特征进行映射,并利用支持向量机对卫星的形状与姿态进行识别。本发明在不需要先验信息的情况下,结合基于循环神经网络和卷积神经网络的深度学习以及基于支持向量机的多核学习技术,利用纯数据驱动模式,使用OCS序列数据自动识别GEO卫星的形状和姿态。
Description
技术领域
本发明属于GEO卫星形状与姿态识别技术领域,尤其涉及一种基于深度学习与多核学习的GEO卫星形状与姿态识别方法。
背景技术
目前,空间物体的数量不断增加,空间态势感知(Space Situational Awareness)已成为国际上的重要研究课题之一。地球同步轨道(GEO)是重要的太空资产,验证GEO中所有卫星和物体的状态对于正确评估GEO环境非常重要。同时,详细的空间物体特征(例如形状、姿态和运动状态)可用于准确预测空间物体的轨迹和行为,为空间态势感知提供重要的信息能力保障。光学观测是获取空间物体信息的重要工具,现有的大量光学望远镜仍然是我国观测GEO目标的主要方法,更具体地说,分析员可通过光学观测系统获得的光度序列数据来提取空间物体的形状、大小、姿态、反射率和材料等特征,最终判断空间目标的行为与意图。目前,光学散射截面(OCS)广泛用于表示空间目标的光学散射特性,通过可见光散射特性可以有效识别GEO目标的形状和姿态。由于OCS仅受空间目标几何形状、表面材料、姿态和太阳-空间目标-观测站的相对位置的影响,却与观测距离和观测系统无关,同时,OCS序列数据与光度序列数据可互相转换,因此,OCS序列数据非常适合于空间目标的特征识别。
目前,分析人员已经能够通过光度序列数据手动识别卫星的形状和姿态。通常,最常见的识别方法是物理模型(如基于二面元模型的反演方法)和滤波器(如卡尔曼滤波)。基于二面元模型所提出的点配对法要求卫星本体具有朗伯反射特性且三维形状复杂,同时要求卫星帆板具有镜面和朗伯反射特性,且接近平面结构,该方法可以快速反演GEO目标的反射率以及面积。卡尔曼滤波方法将待识别的空间目标特征参数作为系统的未知状态参数进行最优估计,利用无损卡尔曼滤波可以识别空间目标的形状,以及目标的惯性轴指向,该方法识别性能较好、速度也较快。
虽然传统的物理模型与滤波方法速度快,但传统方法需要很多先验信息,并且受模型质量的影响很大。此外,从大量观察设备中获取的数据,数据量非常大,人类的手动识别已经不再可行。
基于二面元模型的方法首先对目标模型的结构要求很多,其次,该方法要求目标本体反射率、面积对每个观测点的贡献相同,且两个观测点的本体姿态必须相同,此外,该方法要求尽量增大点对之间的时间间隔或者观测站位置间隔,从而提高模型的识别效果,因此,该方法目前并不具备通用性和实用性。
卡尔曼滤波方法需要将相角数据和光度序列数据进行融合,因此,需要一定的先验知识,同时,空间目标自身模型参数的不确定性,会造成卡尔曼滤波估计的系统误差。
发明内容
本发明的目的是提供一种基于深度学习与多核学习的GEO卫星形状与姿态识别方法,在不需要先验信息的情况下,结合基于循环神经网络(Recurrent Neural Network,RNN)和卷积神经网络(Convolutional Neural Network,CNN)的深度学习和基于支持向量机(Support Vector Machine,SVM)的多核学习技术,利用纯数据驱动模式,使用OCS序列数据自动识别GEO卫星的形状和姿态。
为达到上述目的,本发明通过以下技术方案来具体实现:
本发明提供一种基于深度学习与多核学习的GEO卫星形状与姿态识别方法,包括:
步骤一、获取GEO卫星的光学散射截面特性(OCS)序列数据;
步骤二、对OCS序列数据进行预处理;
步骤三、基于深度学习网络,构建用于对OCS序列数据进行自动特征提取的C-RNN模型,所述深度学习网络包括循环神经网络与卷积神经网络;
步骤四、训练C-RNN模型,获取OCS序列数据的多个特征向量;
步骤五、基于多核学习技术,使用多个核函数对不同特征进行映射,并利用支持向量机对卫星的形状与姿态进行识别。
所述步骤一中获取GEO卫星的OCS序列数据的方法包括:
通过数值计算、实际观测得到的光度序列数据和/或实验室模拟测量中的一种或多种方式获取空间目标的OCS序列数据。
进一步的,通过数值计算的方式获取空间目标的OCS序列数据的方法,包括:使用BRDF模型以及OCS计算方法获取空间目标的OCS序列数据;
通过实际观测得到的光度序列数据可转换为OCS序列数据,光度序列数据与OCS序列数据的转换关系为:
其中,m为光度序列数据(星等),r为观测设备与空间目标的距离。
所述步骤二中,对OCS序列数据进行预处理的方法包括:
根据不同观测区间内获得的OCS序列数据所对应的观测几何位置关系,将在不同的观测几何位置关系下得到的OCS序列数据划分到不同的子集,并将每个子集的标签设置为所对应类别的子类;所述观测几何位置关系为太阳、空间目标和测站的位置关系。
所述步骤三中,构建用于对OCS序列数据进行自动特征提取的C-RNN模型的方法包括:
所述C-RNN模型由编码器、解码器和分类器组成;
编码器用于将OCS序列数据作为输入,生成固定长度的特征向量作为输出;
解码器通过编码器生成的特征向量重构输入的OCS序列数据;
分类器由三个使用ReLU激活函数的全连接层和一个使用sigmoid激活函数的输出层构成;使用编码器产生的特征向量作为输入;使用sigmoid函数将特征向量映射到类别作为输出,获得与GEO卫星输入OCS序列数据对应的形状和姿态。
进一步的,C-RNN模型的损失函数为:
L=MSE+loss
其中,MSE为用于OCS序列数据重构的损失函数,loss为用于形状和姿态分类过程的损失函数;C-RNN模型训练过程中使用反向传播和梯度下降方法使得总损失最小化。
进一步的,编码器中包括两个带有整流线性单元(ReLU)激活函数的1-D卷积层,ReLU函数可表示为:
其中,x为输入值;1-D卷积使用一维卷积核对OCS序列数据进行卷积,从而提取出OCS序列数据的特征向量;1-D卷积定义为:
其中,为输入的OCS序列数据;n为序列数据的长度;W和k分别表示1-D卷积核和滑动步数;为卷积后的输出向量;m=n-nk+1,nk为卷积核的大小;
每个卷积层之后都有一个dropout层;第二个卷积层后有一层flatten层,该层将多维特征转换为1-D特征;最终得到的具有指定长度的特征向量是通过将flatten层的输出传递到两个全连接层产生的,全连接层使用ReLU激活函数。
进一步的,在解码器中,应用了两个门控递归单元(GRU)网络来完成OCS输入信号的重构任务;
解码器采用特征向量、采样时间之间的差值ΔtN作为输入,N为采样点的个数;复制特征向量l次,其中l是设定的解码器的输出序列长度;将采样时间点的差值也复制l次;特征向量用于表征OCS序列数据,采样时间来确定重构序列中每个点所在的位置。
所述步骤四中,训练C-RNN模型,获取OCS序列数据的多个特征向量的方法包括:
将长度为200的OCS序列数据输入到C-RNN模型中;C-RNN模型需要训练2次,第一次将大小为5的卷积核应用于两个CNN层;第二次将大小为3的卷积核应用于两个CNN层,将迭代次数和批量大小分别设置为2000和1000,每一次训练结束后,保存C-RNN模型输出的特征向量;
其中,模型中的两个CNN层分别具有60个滤波器和100个滤波器;编码器的输出是嵌入大小为64的特征向量;
解码器使用2层单元大小为100的双向GRU层;解码器的输入是长度为65的特征向量,其中包括编码器的输出(长度为64)以及OCS序列数据点之间的采样时间差值(长度为1);
分类器处理编码器产生的特征向量并给出每条OCS序列数据的分类结果;
Adam优化器用于网络优化,学习率为1×10-3;每个dropout层的dropout率设置为0.25。
所述步骤五中,对卫星的形状与姿态进行识别的方法,包括:
基于MKL技术,将使用不同卷积核的C-RNN模型产生的特征向量作为支持向量机(SVM)的输入数据,并通过多核线性组合方法组合基本核函数,将多核线性组合而成的最终核函数作为SVM的核函数,使用SVM进行分类。多核线性组合可以描述如下:
其中,x,z∈X,为特征空间,为第i个归一化的基本核函数,K(x,z)表示由n个基本核函数线性组合而成的最终核函数,βi表示第i个系数;基本核函数为多项式核函数,多项式内核可表示为:
式中:x,z∈X,为特征空间;R和d分别为常数和多项式的阶;其中,MKL为多特征融合方法,SVM为分类模型。目前,常用的多核学习(MKL)是一种基于SVM的多特征融合方法。通常,SVM是单内核的,很难选择最合适的核函数以及相应的参数来得到最佳的分类效果。而MKL是针对不同的特征采用不同的内核,为不同的内核分配不同的权重,然后训练每个核的权重,并选择核函数的最佳组合来完成分类任务。
本发明的有益效果是:
本发明利用神经网络对GEO卫星的OCS序列数据进行自动特征提取;本发明提出的C-RNN模型包括由CNN构成的编码器、由RNN构成的解码器以及由全连接神经网络构成的分类器组成;C-RNN架构中分类器的主要功能为最大化特征之间的距离,而非进行分类;本发明对GEO卫星的形状与姿态识别是通过多核学习技术和SVM完成;本发明对特征进行多核学习的方式是将多个多项式核通过线性组合的方式完成。本发明可自动对获得的OCS序列数据进行特征提取,节省了大量的人力成本;提取的特征包含OCS序列数据更加丰富的信息,在分类时会提高分类效果;使用多核学习能够融合不同的特征,使得分类结果更加准确。
附图说明
图1所示为C-RNN模型结构示意图。
图2所示为MKL的原理示意图。
图3a至图3e所示为5个卫星模型示意图。
图4a至图4e所示为姿态2下5颗卫星的OCS序列数据重构结果示意图。
图5是使用大小为5的卷积核的C-RNN结构对OCS序列数据分类的结果示意图。
图6是使用大小为3的卷积核的C-RNN结构对OCS序列数据分类的结果示意图。
图7是基于支持向量机的MKL对测试OCS序列数据的分类结果示意图。
图8是ENDECLA-CR、ENDE-CR、ENDE-RR的训练损失和验证损失示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例一
本发明实施例提供了本发明提供一种基于深度学习与多核学习的GEO卫星形状与姿态识别方法,包括:
步骤一、获取GEO卫星的光学散射截面特性(OCS)序列数据。
获取GEO卫星的OCS序列数据的方法包括:通过数值计算、实际观测得到的光度序列数据和/或实验室模拟测量中的一种或多种方式获取空间目标的OCS序列数据。通过数值计算的方式获取空间目标的OCS序列数据的方法,包括:使用BRDF模型以及OCS计算方法获取空间目标的OCS序列数据;通过实际观测得到的光度序列数据可转换为OCS序列数据,光度序列数据与OCS序列数据的转换关系为:
其中,m为光度序列数据(星等),r为观测设备与空间目标的距离。
步骤二、对OCS序列数据进行预处理;包括:
根据不同观测区间内获得的OCS序列数据所对应的观测几何位置关系,将在不同的观测几何位置关系下得到的OCS序列数据划分到不同的子集,并将每个子集的标签设置为所对应类别的子类;所述观测几何位置关系为太阳、空间目标和测站的位置关系。例如,如果类别C中的目标T的OCS序列数据对应n个主要的观测几何位置关系(n≤5),则目标T在类别C中的OCS序列数据将被分成n个子类,并且将每个子类的标签设置为C1,C2,...,Cn。因此,一年的OCS序列数据将被划分为NC*n个类别,其中,NC为类别数。上述处理方法,能提升步骤四中的训练效果。此外,将每一段OCS序列处理为长度为200的序列数据,以便进行识别分类。
步骤三、基于深度学习网络,构建用于对OCS序列数据进行自动特征提取的C-RNN模型,所述深度学习网络包括循环神经网络与卷积神经网络;
为了利用OCS数据对GEO卫星的形状与姿态进行识别,有必要将整个OCS序列数据压缩成特征向量。C-RNN特征提取模型如图1所示,图中的M和D表示CNN卷积层的维度,每个卷积层的尺寸由给定的卷积内核大小、滤波器的数量和输入数据的长度确定,图中省略了dropout层。
所述C-RNN模型由编码器、解码器和分类器组成;编码器主要由CNN构成,它将OCS序列作为输入,并生成固定长度的特征向量作为输出。解码器通过编码器生成的特征向量重构输入的OCS序列数据;分类器由三个使用ReLU激活函数的全连接层和一个使用sigmoid激活函数的输出层构成;使用编码器产生的特征向量作为输入;使用sigmoid函数将特征向量映射到类别作为输出,获得与GEO卫星输入OCS序列数据对应的形状和姿态。
由于提出的模型包含两个输出,因此,需要定义两个损失函数。C-RNN模型的损失函数为:
L=MSE+loss
其中,MSE为用于OCS序列数据重构的损失函数,loss为用于形状和姿态分类过程的损失函数;C-RNN模型训练过程中使用反向传播和梯度下降方法使得总损失最小化。用于OCS序列重构的损失函数为均方误差(MSE)。MSE可由下式给出:
式中:为第i个OCS序列,为第i个重构序列,wi为权重系数,n表示输出序列的长度,N表示输入OCS序列的总数。
使用二元交叉熵作为形状和姿态分类过程的损失函数。需要注意的是,当使用二元交叉熵作为损失函数时,序列数据的标签需要进行二值化,分类器的输出也为由0和1组成的向量。二元交叉熵由下式给出:
式中:和分别为二值化后,标签中的第i个数值和分类器输出的类别向量中的第i个值,nc表示分类器输出向量的长度。
编码器主要由CNN构成,它将OCS序列作为输入,并生成固定长度的特征向量作为输出。包括两个带有整流线性单元(ReLU)激活函数的1-D卷积层,ReLU函数可表示为:
其中,x为输入值;1-D卷积使用一维卷积核对OCS序列数据进行卷积,从而提取出OCS序列数据的特征向量;1-D卷积定义为:
其中,为输入的OCS序列数据;n为序列数据的长度;W和k分别表示1-D卷积核和滑动步数;为卷积后的输出向量;m=n-nk+1,nk为卷积核的大小;为了防止神经网络过度拟合,每个卷积层之后都有一个dropout层;第二个卷积层后有一层flatten层,该层将多维特征转换为1-D特征;最终得到的具有指定长度的特征向量是通过将flatten层的输出传递到两个全连接层产生的,全连接层使用ReLU激活函数。
在解码器中,应用了两个门控递归单元(GRU)网络来完成OCS输入信号的重构任务;GRU是RNN的一种变体,可以有效的解决RNN的长期依赖性问题,并且在处理时序数据的任务中表现优于标准RNN。
解码器采用特征向量以及采样时间之间的差值ΔtN作为输入,N为采样点的个数;复制特征向量l次,其中l是设定的解码器的输出序列长度;将采样时间点的差值也复制l次;特征向量用于表征OCS序列数据,采样时间来确定重构序列中每个点所在的位置。通过附加采样点之间的时间差值作为输入,C-RNN模型可以用来处理非均匀采样的时序数据。
C-RNN模型中的分类器可以用来处理多标签分类问题,使用分类器可以对GEO目标的形状和姿态直接进行分类。然而,在特征提取C-RNN模型中,该分类器主要用于最大化对应于不同目标和不同姿态的特征向量之间的距离,使得编码器提取的特征信息更加丰富和准确。分类器由三个使用ReLU激活函数的全连接层和一个使用sigmoid激活函数的输出层构成。编码器产生的特征向量是分类器的输入。输出层使用sigmoid函数将特征映射到类别。通过分类器,可以直接获得与GEO目标的输入OCS序列数据相对应的形状和姿态。
步骤四、训练C-RNN模型,获取OCS序列数据的多个特征向量;包括:
C-RNN模型的输入层将处理长度为200的OCS序列数据。将经过预处理的长度为200的OCS序列数据输入到C-RNN模型中;C-RNN模型需要训练2次,第一次将大小为5的卷积核应用于两个CNN层;第二次将大小为3的卷积核应用于两个CNN层,将迭代次数和批量大小分别设置为2000和1000,每一次训练结束后,保存C-RNN模型输出的特征向量;
其中,模型中的两个CNN层分别具有60个滤波器和100个滤波器;编码器的输出是嵌入大小为64的特征向量;
解码器使用2层单元大小为100的双向GRU层;解码器的输入是长度为65的特征向量,其中包括编码器的输出(长度为64)以及OCS序列数据点之间的采样时间差值(长度为1);
由于分类器需要处理多标签分类问题,所以需要对每条OCS序列数据的标签进行二值化,分类器将处理编码器产生的特征向量并给出每条OCS序列数据的分类结果;
Adam优化器用于网络优化,学习率为1×10-3;每个dropout层的dropout率设置为0.25。
步骤五、基于多核学习技术,使用多个核函数对不同特征进行映射,并利用支持向量机对卫星的形状与姿态进行识别。包括:
基于MKL技术,将使用不同卷积核的C-RNN模型产生的特征向量作为支持向量机SVM的输入数据,并通过多核线性组合方法组合基本核函数,多核线性组合可以描述如下:
其中,x,z∈X,为特征空间,为第i个归一化的基本核函数,K(x,z)表示由n个基本核函数线性组合而成的最终核函数,βi表示第i个系数;基本核函数为多项式核函数,多项式内核可表示为:
式中:x,z∈X,为特征空间;R和d分别为常数和多项式的阶;其中,MKL为多特征融合方法,SVM为分类模型。将最终核函数用于SVM分类器,从而确定GEO目标的形状和姿态。多核学习的原理示意图如图2所示。
本发明的有益效果是:
本发明利用神经网络对GEO卫星的OCS序列数据进行自动特征提取;本发明提出的C-RNN模型包括由CNN构成的编码器、由RNN构成的解码器以及由全连接神经网络构成的分类器组成;C-RNN架构中分类器的主要功能为最大化特征之间的距离,而非进行分类;本发明对GEO卫星的形状与姿态识别是通过多核学习技术和SVM完成;本发明对特征进行多核学习的方式是将多个多项式核通过线性组合的方式完成。本发明可自动对获得的OCS序列数据进行特征提取,节省了大量的人力成本;提取的特征包含OCS序列数据更加丰富的信息,在分类时会提高分类效果;使用多核学习能够融合不同的特征,使得分类结果更加准确。
为验证本发明的效果,采用中国丽江天文台(25.6°N,101.1°E,2.465Km),计算5个不同的卫星在3种不同姿态(三轴稳定模式)下的一年的OCS序列数据,五个空间目标的模型结构如图3a-图3e所示。
获取的OCS序列数据可分为15个大类,分别为:⑴目标1、姿态1;⑵目标1、姿态2;⑶目标1、姿态3;⑷目标2、姿态1;⑸目标2、姿态2;⑹目标2、姿态3;⑺目标3、姿态1;⑻目标3、姿态2;⑼目标3、姿态3;⑽目标4、姿态1;⑾目标4、姿态2;⑿目标4、姿态3;⒀目标5、姿态1;⒁目标5、姿态2;⒂目标5、姿态3。三种姿态分别为:1)x轴指向卫星速度方向,z轴朝向地面,x,y,z轴彼此正交并满足右手法则;2)y轴指向卫星速度方向,z轴沿太阳帆板方向,x,y,z轴彼此正交并满足右手法则;3)z轴指向卫星速度方向,x轴指向地球地心,x,y,z轴彼此正交并满足右手法则。
按照步骤1,可获得五颗GEO卫星在三种姿态下的OCS序列数据6,915条(总共15类),每颗卫星为1,383条,每条光度序列数据对应于不同的观测区间。删除长度小于200的OCS序列数据,因此可用数据总计为5,505,每个卫星为1,101条,每种姿态为367条。根据观测区间的观测几何位置关系,将每个卫星对应的OCS序列数据划分为5个子类别(即5个主要观测几何位置关系):第1个子类有129条OCS序列数据;第二个子类有420条OCS序列数据;第3子类总共有141条OCS序列数据;第4子类共有399条OCS序列数据;第5个子类共有12条OCS序列数据。为使数值计算的OCS数据更可靠,将满足高斯分布的随机误差值添加到原始的OCS数据中。抽取OCS序列数据集约70%的数据作为训练集,其余数据分别用作验证集和测试集。在数据预处理之后,训练集中的OCS序列数量约为12,500。
将训练数据输入到已建好的模型中,在2000次训练迭代后,得到训练好的模型。将大约2,160条OCS序列数据作为测试数据,测试数据分为15个类别,每个类别144条数据(每个类别代表一个姿态下的一颗卫星)。利用训练好的模型将测试数据进行重构和分类,第一次训练中,解码器对5颗卫星、姿态2下的原始测试OCS序列数据进行重构后的结果如图4a-图4e所示。图中“Sat1”表示“卫星1”,“Attitude TWO”表示3种卫星姿态中的第2种姿态。
经过两次训练,C-RNN架构分类器的分类结果如图5和图6所示,图中“T0A1”表示卫星1、姿态1,对角线上的值是正确分类的数量。编码器使用大小为5的卷积核时,分类器的分类准确率达到91.9%;当使用大小为3的卷积核时,分类器的分类准确率为83.3%。由于卷积核的大小不同,编码器会产生不同的特征向量,所以分类结果也是不同的。在模型结构不变的情况下,利用大小为5的卷积核的编码器,从编码器中获得的特征可以更好地表示五颗卫星三个姿态的OCS序列数据。
为了使用多核学习进行分类,将基本多项式核函数中的R设为0。根据得到的2种特征,依次构造若干多项式核,其中每个多项式核函数的阶分别为d=1,2,3,…,10。以支持向量机(SVM)为分类器,将最终的组合核K作为支持向量机的核函数,处理训练集,进行训练。分类器训练结束后,得到SVM的最佳惩罚值C为1000,核函数的线性组合系数都为0。基于SVM的MKL分类结果如图7所示。多核学习得到的分类准确率达到了99.58%。
为了评估所提出的C-RNN架构(将所提出的C-RNN架构称为ENDECLA-CR)的特征选择性能,首先构建几个网络模型来与所提出的C-RNN架构进行比较。第一个网络模型是去除C-RNN中分类器的模型(将该模型表示为ENDE-CR);第二个网络模型是将ENDE-CR中编码器的两个卷积层,替换为大小为100的2个GRU层(该模型称为ENDE-RR)。这两个模型使用的模型参数和训练参数与所提出的C-RNN模型使用的参数一致。将用于训练C-RNN模型的训练数据作为ENDE-CR和ENDE-RR模型的输入训练数据。训练完成后,ENDECLA-CR、ENDE-CR、ENDE-RR的训练损失和验证损失如图8所示。
同时,表1中列出了本发明与其余用以比较的6种特征提取模型的分类准确率,显示出本发明优越的识别性能。其余6种特征提取模型包括主成分分析(PCA)、线性判别分析(LDA)、字典学习(DL)和ENDE-CR、ENDE-RR以及一个简单的深层神经网络(ENDE-RR的编码器和解码器被替换为一个简单的多层全连接结构,将该模型称为SDNN)。SDNN模型包含1个输入层(200个单元),4个完全连接层(每个隐藏层500个单元)和1个输出层(200个单元)。将SDNN的训练迭代次数设置为2000,损失函数使用MSE,优化器使用Adam。
比较模型中使用的训练集和测试集与C-RNN模型中使用的训练集和测试集相同。将训练后的7个模型提取的特征分别输入到具有线性核的支持向量机中,以进行分类。使用这个分类器的原因是它不会将输入特征映射到高维空间或执行其他转换,可以保证比较结果的有效性。
由各模型分类的平均精度MAP来评估模型的识别性能,MAP是所有类别的平均预测精度,可表示为:
式中:N为类别总数,precisionc为类别c的分类精确度,xTc为类别c的正确预测OCS序列个数,Mc为识别结果为类别c的总OCS序列数量。表格中的k表示C-RNN结构使用的卷积核的大小。
表1
由表1中的7个模型的分类性能可知,PCA和LDA模型的识别性能分别达到61%和76%;与PCA和LDA相比,DL具有更好的识别性能,识别准确率为73%;SDNN的识别性能优于PCA、LDA、DL等传统特征提取方法,识别准确率达到84.5%;ENDE-CR和ENDE-RR在特征提取方面具有很大的优势,识别准确率分别达到95.8%和83%。从结果可以看出,提出的C-RNN结构的识别精度是最好的。当卷积核的大小为3和5时,识别准确率超过98%。C-RNN中的分类器增加了不同类别特征之间的距离,使得编码器生成的特征向量能够更好地表示OCS序列数据,使得所提出的C-RNN架构具有良好的分类性能。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种基于深度学习与多核学习的GEO卫星形状与姿态识别方法,其特征在于,包括:
步骤一、获取GEO卫星的光学散射截面特性(OCS)序列数据;
步骤二、对OCS序列数据进行预处理;
步骤三、基于深度学习网络,构建用于对OCS序列数据进行自动特征提取的C-RNN模型,所述深度学习网络包括循环神经网络与卷积神经网络;
步骤四、训练C-RNN模型,获取OCS序列数据的多个特征向量;
步骤五、基于多核学习技术,使用多个核函数对不同特征进行映射,并利用支持向量机对卫星的形状与姿态进行识别。
2.如权利要求1所述的方法,其特征在于,所述步骤一中获取GEO卫星的OCS序列数据的方法包括:
通过数值计算、实际观测得到的光度序列数据和/或实验室模拟测量中的一种或多种方式获取空间目标的OCS序列数据。
3.如权利要求2所述的方法,其特征在于,通过数值计算的方式获取空间目标的OCS序列数据的方法,包括:使用BRDF模型以及OCS计算方法获取空间目标的OCS序列数据;
通过实际观测得到的光度序列数据可转换为OCS序列数据,光度序列数据与OCS序列数据的转换关系为:
其中,m为光度序列数据(星等),r为观测设备与空间目标的距离。
4.如权利要求1所述的方法,其特征在于,所述步骤二中,对OCS序列数据进行预处理的方法包括:
根据不同观测区间内获得的OCS序列数据所对应的观测几何位置关系,将在不同的观测几何位置关系下得到的OCS序列数据划分到不同的子集,并将每个子集的标签设置为所对应类别的子类;所述观测几何位置关系为太阳、空间目标和测站的位置关系。
5.如权利要求1所述的方法,其特征在于,所述步骤三中,构建用于对OCS序列数据进行自动特征提取的C-RNN模型的方法包括:
所述C-RNN模型由编码器、解码器和分类器组成;
编码器用于将OCS序列数据作为输入,生成固定长度的特征向量作为输出;
解码器通过编码器生成的特征向量重构输入的OCS序列数据;
分类器由三个使用ReLU激活函数的全连接层和一个使用sigmoid激活函数的输出层构成;使用编码器产生的特征向量作为输入;使用sigmoid函数将特征向量映射到类别作为输出,获得与GEO卫星输入OCS序列数据对应的形状和姿态。
6.如权利要求5所述的方法,其特征在于,C-RNN模型的损失函数为:
L=MSE+loss
其中,MSE为用于OCS序列数据重构的损失函数,loss为用于形状和姿态分类过程的损失函数;C-RNN模型训练过程中使用反向传播和梯度下降方法使得总损失最小化。
7.如权利要求5所述的方法,其特征在于,编码器中包括两个带有整流线性单元(ReLU)激活函数的1-D卷积层,ReLU函数可表示为:
其中,x为输入值;1-D卷积使用一维卷积核对OCS序列数据进行卷积,从而提取出OCS序列数据的特征向量;1-D卷积定义为:
其中,为输入的OCS序列数据;n为序列数据的长度;W和k分别表示1-D卷积核和滑动步数;为卷积后的输出向量;m=n-nk+1,nk为卷积核的大小;
每个卷积层之后都有一个dropout层;第二个卷积层后有一层flatten层,该层将多维特征转换为1-D特征;最终得到的具有指定长度的特征向量是通过将flatten层的输出传递到两个全连接层产生的,全连接层使用ReLU激活函数。
8.如权利要求5所述的方法,其特征在于,在解码器中,应用了两个门控递归单元(GRU)网络来完成OCS输入信号的重构任务;
解码器采用特征向量、采样时间之间的差值ΔtN作为输入,N为采样点的个数;复制特征向量l次,其中l是设定的解码器的输出序列长度;将采样时间点的差值也复制l次;特征向量用于表征OCS序列数据,采样时间来确定重构序列中每个点所在的位置。
9.如权利要求1-8之一所述的方法,其特征在于,所述步骤四中,训练C-RNN模型,获取OCS序列数据的多个特征向量的方法包括:
将长度为200的OCS序列数据输入到C-RNN模型中;C-RNN模型需要训练2次,第一次将大小为5的卷积核应用于两个CNN层;第二次将大小为3的卷积核应用于两个CNN层,将迭代次数和批量大小分别设置为2000和1000,每一次训练结束后,保存C-RNN模型输出的特征向量;
其中,模型中的两个CNN层分别具有60个滤波器和100个滤波器;编码器的输出是嵌入大小为64的特征向量;
解码器使用2层单元大小为100的双向GRU层;解码器的输入是长度为65的特征向量,其中包括编码器的输出(长度为64)以及OCS序列数据点之间的采样时间差值(长度为1);
分类器处理编码器产生的特征向量并给出每条OCS序列数据的分类结果;
Adam优化器用于网络优化,学习率为1×10-3;每个dropout层的dropout率设置为0.25。
10.如权利要求1所述的方法,其特征在于,所述步骤五中,对卫星的形状与姿态进行识别的方法,包括:
基于多核学习(MKL)技术,将使用不同卷积核的C-RNN模型产生的特征向量作为支持向量机(SVM)的输入数据,并通过多核线性组合方法组合基本核函数,多核线性组合可以描述如下:
其中,x,z∈X,为特征空间,为第i个归一化的基本核函数,K(x,z)表示由n个基本核函数线性组合而成的最终核函数,βi表示第i个系数;基本核函数为多项式核函数,多项式内核可表示为:
式中:x,z∈X,为特征空间;R和d分别为常数和多项式的阶;其中,MKL为多特征融合方法,SVM为分类模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910239623.7A CN109993224B (zh) | 2019-03-27 | 2019-03-27 | 基于深度学习与多核学习的geo卫星形状与姿态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910239623.7A CN109993224B (zh) | 2019-03-27 | 2019-03-27 | 基于深度学习与多核学习的geo卫星形状与姿态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109993224A true CN109993224A (zh) | 2019-07-09 |
CN109993224B CN109993224B (zh) | 2021-02-02 |
Family
ID=67131770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910239623.7A Active CN109993224B (zh) | 2019-03-27 | 2019-03-27 | 基于深度学习与多核学习的geo卫星形状与姿态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109993224B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490095A (zh) * | 2019-07-31 | 2019-11-22 | 中国人民解放军战略支援部队信息工程大学 | 一种基于神经网络的多模态特征融合调制识别方法和系统 |
CN110929242A (zh) * | 2019-11-20 | 2020-03-27 | 上海交通大学 | 基于无线信号进行姿态无关的连续用户认证方法及系统 |
CN111277564A (zh) * | 2020-01-08 | 2020-06-12 | 济南浪潮高新科技投资发展有限公司 | 一种基于动态存储网络的企业网络异常检测方法及系统 |
CN111351488A (zh) * | 2020-03-03 | 2020-06-30 | 南京航空航天大学 | 飞行器智能轨迹重构再入制导方法 |
CN111369142A (zh) * | 2020-03-04 | 2020-07-03 | 中国电子科技集团公司第五十四研究所 | 一种自主遥感卫星任务生成方法 |
CN111898652A (zh) * | 2020-07-10 | 2020-11-06 | 西北工业大学 | 一种基于卷积神经网络的空间目标姿态分类识别方法 |
CN113326924A (zh) * | 2021-06-07 | 2021-08-31 | 太原理工大学 | 基于深度神经网络的稀疏图像内关键目标测光定位方法 |
WO2021179839A1 (zh) * | 2020-03-11 | 2021-09-16 | 支付宝(杭州)信息技术有限公司 | 保护用户隐私的用户分类系统的构建方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101450716A (zh) * | 2008-12-26 | 2009-06-10 | 中国科学院国家天文台 | 一种地球同步转移轨道在轨卫星故障光电探测方法 |
CN102800104A (zh) * | 2012-06-18 | 2012-11-28 | 西安空间无线电技术研究所 | 一种基于isar图像序列的二维散射中心自动关联方法 |
CN103186776A (zh) * | 2013-04-03 | 2013-07-03 | 西安电子科技大学 | 基于多特征和深度信息的人体检测方法 |
CN104101297A (zh) * | 2014-07-22 | 2014-10-15 | 中国科学院国家天文台 | 一种基于光电观测的空间物体尺度获取方法 |
CN104570742A (zh) * | 2015-01-29 | 2015-04-29 | 哈尔滨工业大学 | 基于前馈pid控制的异面交叉快变轨道快速高精度相对指向控制方法 |
CN106022391A (zh) * | 2016-05-31 | 2016-10-12 | 哈尔滨工业大学深圳研究生院 | 一种高光谱图像特征的并行提取与分类方法 |
CN107576949A (zh) * | 2017-08-23 | 2018-01-12 | 电子科技大学 | 基于密度权重和混合核函数的svdd雷达目标一维距离像识别方法 |
-
2019
- 2019-03-27 CN CN201910239623.7A patent/CN109993224B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101450716A (zh) * | 2008-12-26 | 2009-06-10 | 中国科学院国家天文台 | 一种地球同步转移轨道在轨卫星故障光电探测方法 |
CN102800104A (zh) * | 2012-06-18 | 2012-11-28 | 西安空间无线电技术研究所 | 一种基于isar图像序列的二维散射中心自动关联方法 |
CN103186776A (zh) * | 2013-04-03 | 2013-07-03 | 西安电子科技大学 | 基于多特征和深度信息的人体检测方法 |
CN104101297A (zh) * | 2014-07-22 | 2014-10-15 | 中国科学院国家天文台 | 一种基于光电观测的空间物体尺度获取方法 |
CN104570742A (zh) * | 2015-01-29 | 2015-04-29 | 哈尔滨工业大学 | 基于前馈pid控制的异面交叉快变轨道快速高精度相对指向控制方法 |
CN106022391A (zh) * | 2016-05-31 | 2016-10-12 | 哈尔滨工业大学深圳研究生院 | 一种高光谱图像特征的并行提取与分类方法 |
CN107576949A (zh) * | 2017-08-23 | 2018-01-12 | 电子科技大学 | 基于密度权重和混合核函数的svdd雷达目标一维距离像识别方法 |
Non-Patent Citations (4)
Title |
---|
X. FU等: "CRNN:a joint neural network for redundancy detection", 《IEEE》 * |
YI HAN: "Fast calculation method of complex space targets optical cross section:erratum", 《APPLIED OPTICS》 * |
周驰等: "基于深度神经网络的空间目标结构识别", 《中国空间科学技术》 * |
李智等: "基于实验测量与OCS仿真计算的卫星光学散射特征对比验证", 《光子学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490095A (zh) * | 2019-07-31 | 2019-11-22 | 中国人民解放军战略支援部队信息工程大学 | 一种基于神经网络的多模态特征融合调制识别方法和系统 |
CN110929242B (zh) * | 2019-11-20 | 2020-07-10 | 上海交通大学 | 基于无线信号进行姿态无关的连续用户认证方法及系统 |
CN110929242A (zh) * | 2019-11-20 | 2020-03-27 | 上海交通大学 | 基于无线信号进行姿态无关的连续用户认证方法及系统 |
CN111277564A (zh) * | 2020-01-08 | 2020-06-12 | 济南浪潮高新科技投资发展有限公司 | 一种基于动态存储网络的企业网络异常检测方法及系统 |
CN111277564B (zh) * | 2020-01-08 | 2022-06-28 | 山东浪潮科学研究院有限公司 | 一种基于动态存储网络的企业网络异常检测方法及系统 |
CN111351488B (zh) * | 2020-03-03 | 2022-04-19 | 南京航空航天大学 | 飞行器智能轨迹重构再入制导方法 |
CN111351488A (zh) * | 2020-03-03 | 2020-06-30 | 南京航空航天大学 | 飞行器智能轨迹重构再入制导方法 |
CN111369142A (zh) * | 2020-03-04 | 2020-07-03 | 中国电子科技集团公司第五十四研究所 | 一种自主遥感卫星任务生成方法 |
CN111369142B (zh) * | 2020-03-04 | 2023-04-18 | 中国电子科技集团公司第五十四研究所 | 一种自主遥感卫星任务生成方法 |
WO2021179839A1 (zh) * | 2020-03-11 | 2021-09-16 | 支付宝(杭州)信息技术有限公司 | 保护用户隐私的用户分类系统的构建方法及装置 |
CN111898652A (zh) * | 2020-07-10 | 2020-11-06 | 西北工业大学 | 一种基于卷积神经网络的空间目标姿态分类识别方法 |
CN113326924A (zh) * | 2021-06-07 | 2021-08-31 | 太原理工大学 | 基于深度神经网络的稀疏图像内关键目标测光定位方法 |
CN113326924B (zh) * | 2021-06-07 | 2022-06-14 | 太原理工大学 | 基于深度神经网络的稀疏图像内关键目标测光定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109993224B (zh) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993224A (zh) | 基于深度学习与多核学习的geo卫星形状与姿态识别方法 | |
Gupta et al. | Non-Gaussian information from weak lensing data via deep learning | |
Huang et al. | Point cloud labeling using 3d convolutional neural network | |
CN106355151B (zh) | 一种基于深度置信网络的三维sar图像目标识别方法 | |
Pochet et al. | Seismic fault detection using convolutional neural networks trained on synthetic poststacked amplitude maps | |
CN109583322B (zh) | 一种人脸识别深度网络训练方法和系统 | |
CN109523552A (zh) | 基于视锥点云的三维物体检测方法 | |
CN106203487A (zh) | 一种基于多核学习分类器融合的图像分类方法及装置 | |
CN103363987B (zh) | 一种多视场星敏感器的星图识别方法 | |
CN107392128A (zh) | 基于双低秩表示和局部约束矩阵回归的鲁棒图像识别方法 | |
CN107527065A (zh) | 一种基于卷积神经网络的花卉品种识别模型建立方法 | |
CN107194378A (zh) | 一种基于混合字典学习的人脸识别方法及装置 | |
CN103295025A (zh) | 一种三维模型最优视图的自动选择方法 | |
CN113486851A (zh) | 基于双分支光谱多尺度注意力网络的高光谱图像分类方法 | |
Lian et al. | Large-scale semantic 3-D reconstruction: Outcome of the 2019 IEEE GRSS data fusion contest—Part B | |
CN103268607A (zh) | 一种弱监督条件下的共同对象检测方法 | |
CN103714554A (zh) | 一种基于传播融合的视频跟踪方法 | |
Bialopetravičius et al. | Deriving star cluster parameters with convolutional neural networks-II. Extinction and cluster-background classification | |
CN110263644A (zh) | 基于三胞胎网络的遥感图像分类方法、系统、设备及介质 | |
CN104809471A (zh) | 一种基于空间光谱信息的高光谱图像残差融合分类方法 | |
Hameed et al. | Convolutional autoencoder-based deep learning approach for aerosol emission detection using lidar dataset | |
Pearson et al. | Auto-detection of strong gravitational lenses using convolutional neural networks | |
Savage et al. | A Bayesian approach to subkilometer crater shape analysis using individual HiRISE images | |
CN110059292A (zh) | 一种空间目标姿态识别方法 | |
CN108960005A (zh) | 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |