CN115795817B - 卫星东西保持策略模型的建模方法、系统、获取方法 - Google Patents
卫星东西保持策略模型的建模方法、系统、获取方法 Download PDFInfo
- Publication number
- CN115795817B CN115795817B CN202211408084.3A CN202211408084A CN115795817B CN 115795817 B CN115795817 B CN 115795817B CN 202211408084 A CN202211408084 A CN 202211408084A CN 115795817 B CN115795817 B CN 115795817B
- Authority
- CN
- China
- Prior art keywords
- satellite
- current
- state
- value
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012423 maintenance Methods 0.000 title claims abstract description 44
- 230000006399 behavior Effects 0.000 claims abstract description 66
- 238000012549 training Methods 0.000 claims abstract description 27
- 230000001186 cumulative effect Effects 0.000 claims abstract description 6
- 230000009471 action Effects 0.000 claims description 41
- 239000013598 vector Substances 0.000 claims description 40
- 230000002045 lasting effect Effects 0.000 claims description 14
- 238000011217 control strategy Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 2
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 239000000446 fuel Substances 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 79
- 238000004422 calculation algorithm Methods 0.000 description 24
- 230000002787 reinforcement Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000003380 propellant Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及航空航天领域,提供一种基于DuelingDQN的卫星东西保持策略模型的建模方法、系统、获取方法、设备、介质,建模方法包括:S1:初始化模型,获取多组卫星训练状态数据组;S2:得到初始时刻之后所有控制行为及所对应输出的Q值;S3:获得当前时刻卫星状态和卫星执行的切向控制行为;S4:得到累计奖励和当前时刻往后推一到多个时刻的卫星状态;S5:将卫星组合状态数据组存入经验池中;S6:计算目标值;S7:根据损失函数计算误差;S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态S9:重复S3‑S8,更新参数;S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。本方案能够得到最优的决策策略,减少卫星燃料的消耗。
Description
技术领域
本发明涉及航空航天技术领域,特别是涉及一种基于Dueling DQN的卫星东西保持策略模型的建模方法、系统、获取方法、设备、介质。
背景技术
随着人类航天活动的不断开展,越来越多的遥感卫星为人们的日常生活提供帮助。
卫星在运行的过程中会受到日、月引力和地球非球形摄动的影响,从而导致在东西方向上发生漂移,所以对GEO三轴稳定卫星东西位置保持控制对于航天领域有至关重要的作用。卫星在东西方向的漂移由两部分组成:一是地球形状摄动使卫星平经度产生漂移,另一个是太阳光压产生的偏心率摄动,引起卫星的经度日周期振荡。所以卫星的东西保持主要包括平经度保持和偏心率保持。平经度保持主要是利用东西机动校正卫星的漂移率,将一颗卫星保持在较窄的轨道窗口内;在卫星偏心率矢量保持策略中,太阳指向近地点策略是一种较常用的方法,该方法使卫星的平偏心率矢量在控制周期内始终保持在偏心率控制圆内,并使控制圆圆心至平偏心率矢量端点连线的平均方向指向太阳方向。
现有的技术方法首先分析了卫星东西漂移是由于卫星在轨道运行过程中受到的地球形状和太阳光压等各种摄动力的影响所导致卫星的平经度和偏心率发生变化,然后根据摄动力进行建模并制定东西保持的策略,进而对保持参数进行优化并且计算推进剂的消耗量。这种方法通过对卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,然而由于空间受力的复杂性以及卫星本身参数的不确定性,导致无法对卫星进行精确建模,参数多、计算复杂,进而影响卫星东西控制的精度,可能会消耗更多的燃料。并且,现有强化学习方法无法解决状态和动作空间维度很高的问题。
因此,亟需开发一种卫星东西保持策略模型的建模方法、系统、获取方法、设备、介质,降低建模难度,精确计算东西保持策略。
发明内容
本发明的目的是提供一种卫星东西保持策略模型的建模方法、系统、获取方法、设备、介质,对GEO三轴稳定卫星进行东西位置保持时不需要进行复杂的建模,不需要考虑空间受力的复杂性以及卫星本身参数的不确定性,强化学习具有很强的行为决策能力,能够得到最优的决策策略,减少卫星燃料的消耗。
为解决上述技术问题,作为本发明的一个方面,提供了一种基于Dueling DQN的卫星东西保持策略模型的建模方法,包括以下步骤:
S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括卫星的初始状态、多个预期轨控时刻和预期轨控次数;每个卫星的初始状态包括初始时刻卫星状态;卫星状态包括平经度和偏心率矢量;
S2:向模型中输入一组卫星训练状态数据组的初始时刻卫星状态,得到初始时刻之后所有切向控制行为及所对应输出的Q值;
S3:获取当前时刻卫星状态,根据贪心策略获得卫星执行的切向控制行为;
S4:执行切向控制行为,得到当前时刻往后推一到多个时刻的卫星状态,根据当前时刻往后推一到多个时刻的卫星状态、东西保持策略奖励函数得到累计奖励;所述东西保持策略奖励函数采用公式1:
其中,rt为当前时刻卫星所执行的切向控制行为在当前时刻往后推T个时刻所获得的累计奖励;δ为折扣值,0≤δ≤1;gt+k为当前时刻往后推k个时刻卫星进行切向控制行为所获得的奖励;gt+k的获得方法采用公式2:
其中,gt+k为当前时刻往后推k个时刻卫星进行切向控制行为所获得的奖励;R0为标称轨道的卫星平经度,e0为标称轨道的偏心率矢量,ΔRs为平经度保持圆半径,Δes为偏心率矢量保持圆半径,Rt+k+1为当前时刻往后推k+1个时刻的卫星平经度,et+k+1为当前时刻往后推k+1个时刻的偏心率矢量,当当前时刻往后推k+1个时刻的卫星平经度或偏心率矢量不在保持圆的范围内就给予惩罚;t0为与当前时刻距离最近的预期轨控时刻;t为当前时刻;t1为当前时刻往后推k个时刻;T为大于0的自然数,k为大于或等于0的自然数;
S5:将当前时刻卫星状态、卫星执行的切向控制行为、累计奖励和下一时刻卫星状态作为一组卫星组合状态数据组存入经验池中;
S6:从经验池中取出多组卫星组合状态数据组,根据目标卷积层权重参数、目标优势函数网络的参数、目标状态值函数网络的参数计算每个卫星组合状态数据组的目标值;
S7:根据损失函数计算误差,并更新当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数;
S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态;
S9:重复执行步骤S3-S8,执行步骤S3-S8的次数等于该组卫星训练状态数据组的预期轨控次数;每重复执行指定迭代次数的步骤S3-S8后,分别根据当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数更新目标卷积层权重参数、目标优势函数网络的参数和目标状态值函数网络的参数;
S10:重复执行步骤S2-S9,直到输入完所有卫星训练状态数据组的数据。
t时刻即为当前时刻,t+T时刻即为当前时刻的下T个时刻。
根据本发明一示例实施方式,步骤S1中,初始化模型包括定义损失函数。
根据本发明一示例实施方式,模型的输入为卫星状态,输出为执行卫星执行切向控制行为后的回报值(Q值)。
根据本发明一示例实施方式,卫星状态包括:平经度漂移率、偏心率矢量、倾角矢量和平经度。平经度漂移率用L表示,偏心率矢量用e表示,倾角矢量用i表示,平经度用R表示。
根据本发明一示例实施方式,步骤S1中,卫星平经度的获得方法采用公式4:
其中,R表示卫星平经度,as为地球静止轨道半长轴,a0为卫星的轨道半长轴;
卫星偏心率矢量获得方法采用公式5::
其中,e表示卫星偏心率,Ω表示卫星升交点赤经,ω表示近地点幅角;卫星在轨道上的二维偏心率矢量为(ex,ey)。
根据本发明一示例实施方式,步骤S3中,初次循环时,当前时刻卫星状态为初始时刻卫星状态。
根据本发明一示例实施方式,步骤S3中,所述根据贪心策略获得卫星执行的切向控制行为的方法包括:卫星以第一指定概率随机选择下一时刻的切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为;第一指定概率和第二指定概率之和等于1。
根据本发明一示例实施方式,步骤S6中,根据卷积层权重参数、目标优势函数网络的参数、目标状态值函数网络的参数计算每个卫星组合状态数据组的目标值的方法采用公式3:
其中,yj表示目标值,γ为折扣值,θ′为目标卷积层权重参数,θ为当前卷积层权重参数,α为当前优势函数网络的参数,α为目标优势函数网络的参数,β为当前状态值函数网络的参数,β′为目标状态值函数网络的参数,表示一组卫星组合状态数据组中的下一时刻卫星执行切向控制行为a后得到的Q值,表示选择能使一组卫星组合状态数据组中的下一时刻卫星执行切向控制行为a后得到的最大Q值所对应的切向控制行为,sj+1表示一组卫星组合状态数据组中的下一时刻卫星状态,a表示卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的累计奖励。
根据本发明一示例实施方式,步骤S7中,所述损失函数采用公式6:
其中,yj表示目标值,Q(sj,aj;θ,α,β)表示一组卫星组合状态数据组中的当前时刻卫星执行切向控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻卫星状态,aj表示当前时刻卫星执行的切向控制行为,m为卫星组合状态数据组的数量;θ为当前卷积层权重参数,α为当前优势函数网络的参数,β为当前状态值函数网络的参数。
根据本发明一示例实施方式,步骤S8中,所述根据值函数更新Q值的方法采用公式7:
Q(st,at)←Q(st,at)+w[rt+γmaxQ(st+1,at)-Q(st,at)] (7);
其中,箭头左侧的Q(st,at)表示更新后的当前时刻的卫星执行切向控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的卫星执行切向控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻卫星执行切向控制行为at后的Q值,w为权重,γ为折扣值,st表示当前时刻卫星状态,at表示当前时刻卫星执行的切向控制行为,st+1表示当前时刻的下一时刻卫星状态,rt表示累计奖励。
t时刻即为当前时刻,t+1时刻即为当前时刻的下一时刻。
作为本发明的第二个方面,提供了一种基于Dueling DQN的卫星东西保持策略系统,采用所述基于Dueling DQN的卫星东西保持策略模型的建模方法建立系统。
作为本发明的第三个方面,提供一种卫星东西保持最优策略的获取方法,采用所述基于Dueling DQN的卫星东西保持策略模型的建模方法建立基于Dueling DQN的卫星东西保持策略模型;
根据该模型得到最优策略;
所述根据该模型得到最优策略的方法采用公式8:
其中,π表示卫星进行切向控制的策略,π*表示通过模型学习到的最优的切向控制策略,即卫星在初始时刻卫星状态为s的情况下经过策略π*的切向控制行为a下产生最大的回报。
作为本发明的第四个方面,提供一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述基于Dueling DQN的卫星东西保持策略模型的建模方法。
作为本发明的第五个方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现所述基于Dueling DQN的卫星东西保持策略模型的建模方法。
本发明的有益效果是:
本方案通过神经网络进行建模,利用当前卫星状态数据进行深度强化学习和决策,不需要利用卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,不仅能够得到最优的东西控制策略,而且能够减少卫星燃料的消耗,这对实际的航天应用具有重要的意义和价值。
附图说明
图1示意性示出了基于Dueling DQN的卫星东西保持策略模型的建模方法的步骤图。
图2示意性示出了一种电子设备的框图。
图3示意性示出了一种计算机可读介质的框图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本申请将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本申请概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本申请所必须的,因此不能用于限制本申请的保护范围。
本方案基于深度学习较强的感知能力来从环境中获取观测信息,基于强化学习较强的决策能力获得预期回报值来评估顶座价值。整个学习过程可以描述为:在某一时刻,卫星与飞行的环境交互来获取观测信息,通过神经网络将当前状态信息映射为相应的动作(控制行为),环境对此动作做出反应,得到对应的奖励值和下一个观测信息,并把完整的交互信息存入经验池中。通过不断循环以上过程,最终可以得到实现目标的最优策略。
本方案所述的卫星为GEO三轴稳定卫星。地球同步轨道(GEO),是指人造卫星在地球赤道上空约36000公里处围绕地球运行的圆形轨道。因为卫星绕地球运行周期与地球自转同步,卫星与地球之间处于相对静止的状态,因此在这种轨道上运行的卫星被简称为“同步卫星”,又称为“静止卫星”或“固定卫星”。三轴稳定就是卫星不旋转,本体在X、Y、Z三个方向上均稳定,换言之就是与地球保持一定的姿态关系。
深度Q网络(DeepQNetworks,简称DQN)算法是深度强化学习中的一种网络,是深度学习与Q学习的结合。由于其综合了强化学习和深度学习的优势,所以目前在各个领域都已经得到广泛的应用。
深度强化学习作为人工智能领域的一个新的研究热点,将深度学习和强化学习相结合,通过一种端对端的学习方式实现从原始输入到输出的直接控制和决策。由于深度学习是基于神经网络结构的,所以它对环境具有较强的感知能力,但是缺乏一定的决策控制能力;而强化学习恰好具有很强的行为决策能力。因此,深度强化学习将深度学习的感知能力和强化学习的决策能力相结合,优势互补,可以直接从高维原始数据中学习控制策略。深度强化学习方法自提出以来,在许多需要感知高维度原始输入数据和决策控制的任务中,已经取得了实质性的突破,由于深度学习端到端的学习优势,故深度强化学习可以解决建模难、规划难的问题。
DQN算法在计算目标值和计算当前值用的是同一个网络,即目标值的计算使用了当前要训练的Q网络中的参数,而又用目标值来更新网络的参数,这样二者循环依赖,不利于算法的收敛。相比较于DQN,Nature DQN增加了目标网络,通过双网络结构来减少目标Q值计算与待更新Q网络参数之间的依赖关系,综合了强化学习和深度学习的优势,从而极大地提高了DQN算法的稳定性。
Nature DQN通过使用两个独立的但完全相同的Q网络(一个网络作为当前Q网络,另一个作为目标Q网络),减少计算目标网络的目标值和当前网络参数之间的相关性。通过复制当前网络的权重参数给目标网络,使得当前网络每隔一定步长C更新目标网络,双网络结构让目标Q值在一段时间里使保持不变,降低了计算目标Q值和当前网络参数的相关性,进而提高了算法收敛性和稳定性。
DQN和Nature DQN算法在进行值函数优化目标时,动作选择和策略评估都是基于相同的值函数来实现的。无论是DQN还是Nature DQN,都无法克服Q-Learning本身固有的缺陷——过估计,从而使得估计的值函数比真实值大。
过估计是指估计的值函数比真实值函数要大,其根源主要在于Q-Learning中的最大化操作,即目标值其中的max操作使得估计的值函数比值函数的真实值大(注:对于真实的策略来说并在给定的状态下并不是每次都选择使得Q值最大的动作,因为一般真实的策略都是随机性策略,所以在这里目标值直接选择动作最大的Q值往往会导致目标值要高于真实值)。
不同于这两种算法,Double DQN(简称DDQN)则是基于Nature DQN双网络架构,将动作选择和策略评估分开进行,使用当前神经网络权值参数θ来选择最优动作,使用目标神经网络权值参数θ′来评估最优动作,从而解决DQN和Nature DQN算法过度估计的问题。DDQN算法和Nature DQN的算法步骤的区别就在目标Q值的计算方式不同。DDQN能够估计出更加准确的Q值,可获得更稳定有效的策略。
但是,不管是DQN、Nature DQN还是Double DQN算法,都是使用单流Q网络,单流Q网络是基于值函数的深度强化学习,通过优化目标Q值的计算来优化诉算法无法得到更为精确的Q值估计,使得算法的稳定性较差,对卫星造成较大的燃料损耗。
为了进一步解决燃料损耗大的问题,本方案采用Dueling DQN算法实现。DuelingDQN将单流Q网络分成上子网络和下子网络两个子网络。上子网络仅仅与状态有关而与动作无关,定义为状态值函数网络,记为V(s;θ,β);下子网络定义为优势函数网络,记为A(s,a;θ,α),该部分与状态和动作(切向控制行为)都有关。状态值函数子网络和优势函数子网络有相同的输入和共同的参数,两个子网络又有各自的参数分别为β和α。Dueling DQN网络最终输出是两个子网络输出的线性组合:
其中,θ是神经网络中卷积层的参数,α是网络全连接层中优势函数参数,β是网络全连接层中状态值函数参数,|A|代表了可选择动作的个数。
作为本发明的第一个实施方式,提供一种基于Dueling DQN的卫星东西保持策略模型的建模方法,如图1所示,包括以下步骤:
S1:初始化模型,多组卫星训练状态数据组,每组卫星训练状态数据组包括卫星的初始状态、多个预期轨控时刻和预期轨控次数;每个卫星的初始状态包括初始时刻卫星状态;卫星状态包括平经度和偏心率矢量。
模型的输入为卫星状态,输出为执行卫星执行切向控制行为后的回报值(Q值)。
卫星状态还包括:平经度漂移率、倾角矢量。平经度漂移率用L表示,偏心率矢量用e表示,倾角矢量用i表示,平经度用R表示。
初始化模型的方法包括:定义损失函数;初始化经验池的容量为N,经验池用于存储训练的样本;初始化网络模型的Q网络的当前卷积层权重参数θ和目标卷积层权重参数θ′,=θ;初始化当前优势函数网络的参数α和目标优势函数网络的参数α′;α′=α;初始化当前状态值函数网络的参数β和目标状态值函数网络的参数β′;β′=β;初始化网络的输入为卫星状态s,计算出的网络输出为卫星执行切向控制行为后的回报值Q。
多组卫星训练状态数据组组成数据集,该数据集中的卫星状态的数据大于或等于100组,卫星状态的数据越多,模型训练出来的结果越准确。
多组卫星训练状态数据组的数据为训练集的数据,可以采用仿真数据,也可以采用仿真数据和真实数据相结合。一个时间段内的时间线上包括多个时间点,每个时间点上卫星的状态都不同,在不同的时间点执行轨控策略会得到不同的效果。本方案的通过多组卫星训练状态数据组,每组卫星的初始时刻卫星状态对应一个时间点的卫星状态,每组卫星训练状态数据组的初始时刻对应的时间点均不同,即每组卫星训练状态数据组的初始时刻均不同。
S2:向模型中输入一组卫星训练状态数据组的初始时刻卫星状态,得到初始时刻之后所有切向控制行为及所对应输出的Q值。
初始时刻卫星执行切向控制行为后,得到下一时刻卫星状态。下一时刻卫星执行切向控制行为后,得到下一时刻的下一时刻卫星状态。以此类推,得到下多个时刻的切向控制行为。
t时刻为当前时刻,当前时刻的下一时刻即为t+1时刻,t时刻的下T个时刻(t时刻往后推T个时刻)即为t+T时刻。
当前时刻卫星执行切向控制行为后,得到当前时刻往后推一到多个时刻的卫星状态,当前时刻往后推一个时刻的状态即为下一时刻卫星状态(st+1),当前时刻往后推T个时刻的状态即为下T时刻卫星状态(st+T),T为大于或等于0的自然数。
S3:获取当前时刻卫星状态,根据贪心策略获得卫星执行的切向控制行为。
初次循环时,当前时刻卫星状态为初始时刻卫星状态。
根据贪心策略获得卫星执行的切向控制行为的方法包括:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为;第一指定概率和第二指定概率之和等于1。
如果第一指定概率大于第二指定概率,则根据贪心策略获得卫星执行的切向控制行为的方法采用:卫星以第一指定概率随机选择切向控制行为;
如果第二指定概率大于第一指定概率,则根据贪心策略获得卫星执行的切向控制行为的方法采用:卫星以第二指定概率执行最大Q值所对应的切向控制行为;
如果第一指定概率等于第二指定概率,则根据贪心策略获得卫星执行的切向控制行为的方法择其一:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为。
贪心策略为ε-greedy策略。
第一指定概率为ε,ε随迭代次数的增加而减小。
当前时刻卫星执行的切向控制行为为at。
S4:执行切向控制行为,得到当前时刻往后推一到多个时刻的卫星状态,根据当前时刻往后推一到多个时刻的卫星状态、东西保持策略奖励函数得到累计奖励。
卫星在东西方向的漂移由两部分组成:一是地球形状摄动使卫星平经度产生漂移,另一个是太阳光压产生的偏心率摄动,引起卫星的经度日周期振荡。所以卫星的东西保持主要包括平经度保持和偏心率保持。平经度保持主要是利用东西机动校正卫星的漂移率,将一颗卫星保持在较窄的轨道窗口内;在卫星偏心率矢量保持策略中,太阳指向近地点策略是一种较常用的方法,该方法使卫星的平偏心率矢量在控制周期内始终保持在偏心率控制圆内,并使控制圆圆心至平偏心率矢量端点连线的平均方向指向太阳方向。
在二体问题中,平经度(mean longitude)是物体在轨道倾角为0的假想圆轨道上运动的经度值。
偏心率(Eccentricity)即离心率,是用来描述圆锥曲线轨道形状的数学量。定义为曲线到定点(焦点)的距离与到定直线(准线)的距离之比。对于椭圆,偏心率即为两焦点间的距离(焦距)和长轴长度的比值。偏心率一般用e表示。
卫星平经度的获得方法采用公式4:
其中,R表示卫星平经度,as为地球静止轨道半长轴,a0为卫星的轨道半长轴;
卫星偏心率矢量获得方法采用公式5:
其中,e表示卫星偏心率,卫星在轨道上的二维偏心率矢量为(ex,ey),Ω表示卫星升交点赤经,ω表示近地点幅角。
切向推力和径向推力均属于平面内机动。采用切向推力的机动称为切向控制(亦称东西控制或经度控制),可改变卫星的平经度漂移率和偏心率矢量。径向推力的机动仅改变卫星的偏心率矢量,但同样大小的径向推力,只能达到切向推力的一半效果。与径向控制相比,切向控制的效率更高。因此,卫星的东西保持机动主要依靠切向推力实现,很少采用径向推力。
切向控制指的是轨道平面内卫星沿速度方向的机动。
由于切向机动不仅能引起偏心率矢量的变化,而且可导致轨道漂移率(半长轴)的变化,因此为优化地面测控工作并减少燃料消耗,理想状态的东西保持通常使卫星平经度保持控制周期与偏心率保持周期相同,利用平面内机动燃料消耗最优准则,同时对卫星的偏心率矢量和平经度进行保持控制。
卫星东西保持策略问题的目标是在保持卫星东西位置的同时还要尽可能最小化燃料的消耗量。东西位置保持控制所需的速度冲量主要用于平经度和偏心率矢量的保持控制。假设对于卫星控制频率固定(即固定经过一段时间后进行轨控),期望本次控制量可以保证在下一次控制时候卫星平经度和偏心率矢量在保持范围内且控制量尽可能小。所以t时刻(某一时刻)卫星的速度增量决定了外推的t+1时刻(某一时刻的下一时刻)的卫星轨道的状态。基于这个目的,设计了t时刻的奖励策略。t时刻卫星进行切向控制行为所获得的奖励采用公式2:
其中,gt+k为当前时刻往后推k个时刻卫星进行切向控制行为所获得的奖励;R0为标称轨道的卫星平经度,e0为标称轨道的偏心率矢量,ΔRs为平经度保持圆半径,Δes为偏心率矢量保持圆半径,Rt+k+1为当前时刻往后推k+1个时刻的卫星平经度,et+k+1为当前时刻往后推k+1个时刻的偏心率矢量,当当前时刻往后推k+1个时刻的卫星平经度或偏心率矢量不在保持圆的范围内就给予惩罚;t0为与当前时刻距离最近的预期轨控时刻;t为当前时刻;t1为当前时刻往后推k个时刻;T为大于0的自然数,k为大于或等于0的自然数。
一个策略的优劣取决于长期执行这一策略后的累积奖励,换句话说:可以使用累积奖励来评估策略的好坏,最优策略则表示在初始状态下一直执行该策略后,最后的累计奖励值最高。本发明设计了长期累计奖励计算方法——T步累积奖赏(即为东西保持策略奖励函数)采用公式1:
其中,rt为当前时刻卫星所执行的切向控制行为在当前时刻往后推T个时刻所获得的累计奖励;δ为折扣值,0≤δ≤1;δk表示离当前状态越远的状态对累计奖励的影响越小,T为大于0的自然数,k为大于或等于0的自然数。
S5:将当前时刻卫星状态、卫星执行的切向控制行为、累计奖励和下一时刻卫星状态作为一组卫星组合状态数据组存入经验池中。
S6:从经验池中取出多组卫星组合状态数据组,根据目标卷积层权重参数、目标优势函数网络的参数、目标状态值函数网络的参数计算每个卫星组合状态数据组的目标值。
卫星组合状态数据组的数量为m,m为大于0的自然数,且m小于卫星训练状态的数据的数量。m组卫星组合状态数据组为小批量的状态数据组。卫星组合状态数据组的数量根据卫星心理状态的数据集确定。
所述根据目标卷积层权重参数、目标优势函数网络的参数、目标状态值函数网络的参数计算每个卫星组合状态数据组的目标值的方法采用公式3:
其中,yj表示目标值,γ为折扣值(衰减因子),θ′为目标卷积层权重参数,θ为当前卷积层权重参数,α为当前优势函数网络的参数,α′为目标优势函数网络的参数,β为当前状态值函数网络的参数,β′为目标状态值函数网络的参数,表示一组卫星组合状态数据组中的下一时刻卫星执行切向控制行为a后得到的Q值,表示选择能使一组卫星组合状态数据组中的下一时刻卫星执行切向控制行为a后得到的最大Q值所对应的切向控制行为,sj+1表示一组卫星组合状态数据组中的下一时刻卫星状态,a表示卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的累计奖励。
指的是一个切向控制行为,该切向控制行为是该组卫星组合状态数据组的所有下一时刻卫星执行切向控制行为中的一个,并且执行该切向控制行为后,得到的Q值比该组卫星组合状态数据组的所有下一时刻卫星执行切向控制行为得到的Q值大。
公式2将动作(切向控制行为)选择和策略评估分开进行,使用当前神经网络的参数θ、α、β来选择最优动作,使用目标神经网络的参数θ′、α′、β′来评估最优切向控制行为,从而解决DQN和Nature DQN算法过度估计的问题。同时,Dueling DQN将单流Q网络分成上子网络和下子网络两个子网络。上子网络仅仅与状态有关而与动作无关,定义为状态值函数网络,记为V(s;θ,β);下子网络定义为优势函数网络,记为A(s,a;θ,α),该部分与状态和切向控制行为都有关。状态值函数子网络和优势函数子网络有相同的输入和共同参数β和α。Dueling DQN网络最终输出是两个子网络输出的线性组合:
其中,θ是神经网络中卷积层的参数,α是网络全连接层中优势函数参数,β是网络全连接层中状态值函数参数,|A|代表了可选择动作的个数。
模型收敛的条件为:损失函数计算出来的误差在指定范围内。
迭代完成的条件为:执行完所有步骤。
S7:根据损失函数计算误差,并更新当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数。
还根据目标值计算误差。
损失函数采用公式6:
其中,yj表示目标值,Q(sj,aj;θ,α,β)表示一组卫星组合状态数据组中的当前时刻卫星执行切向控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻卫星状态,aj表示当前时刻卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的奖励;m为状态数据组的数量;a为当前卷积层权重参数,α为当前优势函数网络的参数,β为当前状态值函数网络的参数。
误差即为损失函数采用公式6的计算结果。
当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数通过随机梯度下降法(SGD)进行更新。
rt、at、st、st+1表示卫星训练状态数据组的数据集中的样本,rj、aj、sj、sj+1表示经验池中的样本。
步骤S5-S7对模型的参数进行调整,能够让模型的计算准确度更高。
S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态。
根据值函数更新Q值的方法采用公式7:
Q(st,at)←Q(st,at)+w[rt+γmaxQ(st+1,at)-Q(st,at)] (7);
其中,箭头左侧的Q(st,at)表示更新后的当前时刻的卫星执行切向控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的卫星执行切向控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻的卫星执行切向控制行为at后的Q值,w为权重,γ为折扣值(衰减因子),st表示当前时刻卫星状态,at表示当前时刻卫星执行的切向控制行为,st+1表示当前时刻的下一时刻卫星状态,rt表示累计奖励。
其中w和γ的范围都在0~1之间。
S9:重复执行步骤S3-S8,执行步骤S3-S8的次数等于该组卫星训练状态数据组的预期轨控次数;每重复执行指定迭代次数的步骤S3-S8后,分别根据当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数更新目标卷积层权重参数、目标优势函数网络的参数和目标状态值函数网络的参数。
完成指定迭代次数的迭代后,分别将目标卷积层权重参数、目标优势函数网络的参数和目标状态值函数网络的参数更新为当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数。
S10:重复执行步骤S2-S9,直到输入完所有卫星训练状态数据组的数据。本方案的建模方法以卫星状态数据作为神经网络模型的输入,产生的回报值作为输出,采用DuelingDQN神经网络,不同于DQN、Nature DQN、Double DQN算法是通过优化目标Q值的计算来优化算法,Dueling DQN算法从改造神经网络结构角度来优化算法,得到精确的Q值估计,获得更稳定有效的策略。本方案不需要利用卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,直接采用深度强化学习来进行学习和决策,基于DQN算法进行改进适用于训练大规模的神经网络且极大提高了DQN算法的稳定性,不仅能够得到最优的东西控制策略,而且能够减少卫星燃料的消耗这对实际的航天应用具有重要的意义和价值。
根据本发明的第二个具体实施方式,本发明提供一种基于Dueling DQN的卫星东西保持策略系统,采用第一个实施方式的基于Dueling DQN的卫星东西保持策略模型的建模方法建立系统。
根据本发明的第三个具体实施方式,本发明提供一种卫星东西保持最优策略的获取方法,采用第一个实施方式的基于Dueling DQN的卫星东西保持策略模型的建模方法建立基于Dueling DQN的卫星东西保持策略模型;
根据该模型得到最优策略。
根据该模型得到最优策略的方法采用公式8:
其中,π表示卫星进行切向控制的策略,π*表示通过模型学习到的最优的切向控制策略,即卫星在初始时刻卫星状态为s的情况下经过策略π*的切向控制行为a下产生最大的回报。
根据本发明的第四个具体实施方式,本发明提供一种电子设备,如图2所示,图2是根据一示例性实施例示出的一种电子设备的框图。
下面参照图2来描述根据本申请的这种实施方式的电子设备200。图2显示的电子设备200仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图2所示,电子设备200以通用计算设备的形式表现。电子设备200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同系统组件(包括存储单元220和处理单元210)的总线230、显示单元240等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元210执行,使得所述处理单元210执行本说明书中描述的根据本申请各种示例性实施方式的步骤。例如,所述处理单元210可以执行如图1中所示的步骤。
所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。
所述存储单元220还可以包括具有一组(至少一个)程序模块2205的程序/实用工具2204,这样的程序模块2205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备200也可以与一个或多个外部设备200’(例如键盘、指向设备、蓝牙设备等)通信,使得用户能与该电子设备200交互的设备通信,和/或该电子设备200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口250进行。并且,电子设备200还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。
因此,根据本发明的第五个具体实施方式,本发明提供一种计算机可读介质。如图3所示,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明实施方式的上述方法。
所述软件产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现第一个实施方式的功能。
本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本发明实施例的方法。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于Dueling DQN的卫星东西保持策略模型的建模方法,其特征在于,包括以下步骤:
S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括卫星的初始状态、多个预期轨控时刻和预期轨控次数;每个卫星的初始状态包括初始时刻卫星状态;卫星状态包括平经度和偏心率矢量;
S2:向模型中输入一组卫星训练状态数据组的初始时刻卫星状态,得到初始时刻之后所有切向控制行为及所对应输出的Q值;
S3:获取当前时刻卫星状态,根据贪心策略获得卫星执行的切向控制行为;
S4:执行切向控制行为,得到当前时刻往后推一到多个时刻的卫星状态,根据当前时刻往后推一到多个时刻的卫星状态、东西保持策略奖励函数得到累计奖励;所述东西保持策略奖励函数采用公式1:
rt为当前时刻卫星所执行的切向控制行为在当前时刻往后推T个时刻所获得的累计奖励;δ为折扣值,0≤δ≤1;gt+k为当前时刻往后推k个时刻卫星进行切向控制行为所获得的奖励;gt+k的获得方法采用公式2:
其中,gt+k为当前时刻往后推k个时刻卫星进行切向控制行为所获得的奖励;R0为标称轨道的卫星平经度,e0为标称轨道的偏心率矢量,ΔRs为平经度保持圆半径,Δes为偏心率矢量保持圆半径,Rt+k+1为当前时刻往后推k+1个时刻的卫星平经度,et+k+1为当前时刻往后推k+1个时刻的偏心率矢量,当当前时刻往后推k+1个时刻的卫星平经度或偏心率矢量不在保持圆的范围内就给予惩罚;t0为与当前时刻距离最近的预期轨控时刻;t为当前时刻;t1为当前时刻往后推k个时刻;T为大于0的自然数,k为大于或等于0的自然数;
S5:将当前时刻卫星状态、卫星执行的控制行为、累计奖励和下一时刻卫星状态作为一组卫星组合状态数据组存入经验池中;
S6:从经验池中取出多组卫星组合状态数据组,根据目标卷积层权重参数、目标优势函数网络的参数、目标状态值函数网络的参数计算每个卫星状态数据组的目标值;
S7:根据损失函数计算误差,并更新当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数;
S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态;
S9:重复执行步骤S3-S8,执行步骤S3-S8的次数等于该组卫星训练状态数据组的预期轨控次数;每重复执行指定迭代次数的步骤S3-S8后,分别根据当前卷积层权重参数、当前优势函数网络的参数和当前状态值函数网络的参数更新目标卷积层权重参数、目标优势函数网络的参数和目标状态值函数网络的参数;
S10:重复执行步骤S2-S9,直到输入完所有卫星训练状态数据组的数据。
3.根据权利要求1所述的基于DuelingDQN的卫星东西保持策略模型的建模方法,其特征在于,步骤S3中,所述根据贪心策略获得卫星执行的切向控制行为的方法包括:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为;第一指定概率和第二指定概率之和等于1。
4.根据权利要求1所述的基于Dueling DQN的卫星东西保持策略模型的建模方法,其特征在于,步骤S6中,所述根据目标卷积层权重参数、目标优势函数网络的参数、目标状态值函数网络的参数计算每个卫星组合状态数据组的目标值的方法采用公式3:
6.根据权利要求1所述的基于Dueling DQN的卫星东西保持策略模型的建模方法,其特征在于,步骤S8中,所述根据值函数更新Q值的方法采用公式7:
Q(st,at)←Q(st,at)+w[rt+γmaxQ(st+1,at)-Q(st,at)] (7);
其中,箭头左侧的Q(st,at)表示更新后的当前时刻卫星执行切向控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的卫星执行切向控制行为后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻卫星执行切向控制行为at后的Q值,w为权重,γ为折扣值,st表示当前时刻卫星状态,at表示当前时刻卫星执行的切向控制行为,st+1表示当前时刻的下一时刻卫星状态,rt表示累计奖励。
7.一种基于Dueling DQN的卫星东西保持策略系统,其特征在于,采用权利要求1-6中任一项所述的建模方法建立系统。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211408084.3A CN115795817B (zh) | 2022-11-10 | 2022-11-10 | 卫星东西保持策略模型的建模方法、系统、获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211408084.3A CN115795817B (zh) | 2022-11-10 | 2022-11-10 | 卫星东西保持策略模型的建模方法、系统、获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115795817A CN115795817A (zh) | 2023-03-14 |
CN115795817B true CN115795817B (zh) | 2023-05-23 |
Family
ID=85436792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211408084.3A Active CN115795817B (zh) | 2022-11-10 | 2022-11-10 | 卫星东西保持策略模型的建模方法、系统、获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115795817B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116430725B (zh) * | 2023-03-24 | 2024-03-29 | 中国西安卫星测控中心 | 一种geo卫星东西控制量优化选取方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5124925A (en) * | 1990-01-16 | 1992-06-23 | Space Systems/Loral, Inc. | Method for controlling east/west motion of a geostationary satellite |
CN104015938A (zh) * | 2014-05-07 | 2014-09-03 | 北京理工大学 | 一种电推进静止轨道卫星的位置保持方法 |
CN114297084A (zh) * | 2021-12-31 | 2022-04-08 | 北京航天驭星科技有限公司 | 卫星测运控数据接口的测试方法、装置、电子设备及介质 |
CN114362810A (zh) * | 2022-01-11 | 2022-04-15 | 重庆邮电大学 | 一种基于迁移深度强化学习的低轨卫星跳波束优化方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11804894B2 (en) * | 2020-10-16 | 2023-10-31 | Cognitive Space | System and method for facilitating autonomous satellite level communications |
-
2022
- 2022-11-10 CN CN202211408084.3A patent/CN115795817B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5124925A (en) * | 1990-01-16 | 1992-06-23 | Space Systems/Loral, Inc. | Method for controlling east/west motion of a geostationary satellite |
CN104015938A (zh) * | 2014-05-07 | 2014-09-03 | 北京理工大学 | 一种电推进静止轨道卫星的位置保持方法 |
CN114297084A (zh) * | 2021-12-31 | 2022-04-08 | 北京航天驭星科技有限公司 | 卫星测运控数据接口的测试方法、装置、电子设备及介质 |
CN114362810A (zh) * | 2022-01-11 | 2022-04-15 | 重庆邮电大学 | 一种基于迁移深度强化学习的低轨卫星跳波束优化方法 |
Non-Patent Citations (3)
Title |
---|
Estimating the Characteristic Spatiotemporal Variation in Habitat Quality Using the InVEST Model—A Case Study from Guangdong–Hong Kong–Macao Greater Bay Area;Wu linlin等;《Remote Sensing 》;第13卷(第5期);1-24 * |
地球静止轨道通信卫星位置保持原理及实施策略;李于衡;飞行器测控学报(第04期);54-62 * |
多尺度卫星重力场分解与场源深度关系研究;吴凌根等;《大地测量与地球动力学》;第38卷(第5期);533-538 * |
Also Published As
Publication number | Publication date |
---|---|
CN115795817A (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3485432B1 (en) | Training machine learning models on multiple machine learning tasks | |
EP3688675B1 (en) | Distributional reinforcement learning for continuous control tasks | |
Sullivan et al. | Using reinforcement learning to design a low-thrust approach into a periodic orbit in a multi-body system | |
CN110096069B (zh) | 基于nsga ii超幅宽成像卫星编队构型的优化方法 | |
Chan et al. | Autonomous imaging and mapping of small bodies using deep reinforcement learning | |
CN115795817B (zh) | 卫星东西保持策略模型的建模方法、系统、获取方法 | |
CN115758707B (zh) | 卫星东西保持策略模型的建模方法、系统、获取方法 | |
US11546001B2 (en) | Preprocessor for device navigation | |
CN115795816B (zh) | 卫星东西保持策略模型的建模方法、模型、获取方法 | |
Bonasera et al. | Designing impulsive station-keeping maneuvers near a sun-earth l2 halo orbit via reinforcement learning | |
Ornik et al. | Learning and planning for time-varying mdps using maximum likelihood estimation | |
Sullivan et al. | Using multi-objective deep reinforcement learning to uncover a pareto front in multi-body trajectory design | |
Nugroho et al. | Optimization of reward shaping function based on genetic algorithm applied to a cross validated deep deterministic policy gradient in a powered landing guidance problem | |
CN115865167B (zh) | 卫星南北保持策略模型的建模方法、系统、获取方法 | |
CN115758706B (zh) | 卫星东西保持策略模型的建模方法、模型、获取方法 | |
CN115758705B (zh) | 卫星南北保持策略模型的建模方法、系统、获取方法 | |
CN115865166B (zh) | 卫星南北保持策略模型的建模方法、系统、获取方法 | |
CN115758704B (zh) | 卫星南北保持策略模型的建模方法、系统、获取方法 | |
CN115806061B (zh) | 卫星相对相位保持策略模型的建模方法、模型、获取方法 | |
Harvey et al. | Machine learning applications for sensor tasking with non-linear filtering | |
Takahashi et al. | Autonomous Reconnaissance Trajectory Guidance at Small Near-Earth Asteroids via Reinforcement Learning | |
Hu et al. | Densely rewarded reinforcement learning for robust low-thrust trajectory optimization | |
CN115806062B (zh) | 卫星相对相位保持策略模型的建模方法、系统、获取方法 | |
CN115892516B (zh) | 卫星相对相位保持策略模型的建模方法、模型、获取方法 | |
CN115806060B (zh) | 卫星相对相位保持策略模型的建模方法、模型、获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |