CN114545979A - 一种基于强化学习的飞行器智能滑模编队控制方法 - Google Patents

一种基于强化学习的飞行器智能滑模编队控制方法 Download PDF

Info

Publication number
CN114545979A
CN114545979A CN202210262190.9A CN202210262190A CN114545979A CN 114545979 A CN114545979 A CN 114545979A CN 202210262190 A CN202210262190 A CN 202210262190A CN 114545979 A CN114545979 A CN 114545979A
Authority
CN
China
Prior art keywords
aircraft
formation control
reinforcement learning
sliding mode
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210262190.9A
Other languages
English (en)
Other versions
CN114545979B (zh
Inventor
韦常柱
浦甲伦
朱光楠
刘哲
谢子涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Zhuyu Aerospace Technology Co ltd
Original Assignee
Harbin Zhuyu Aerospace Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Zhuyu Aerospace Technology Co ltd filed Critical Harbin Zhuyu Aerospace Technology Co ltd
Priority to CN202210262190.9A priority Critical patent/CN114545979B/zh
Publication of CN114545979A publication Critical patent/CN114545979A/zh
Application granted granted Critical
Publication of CN114545979B publication Critical patent/CN114545979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种基于强化学习的飞行器智能滑模编队控制方法,属于飞行器控制技术领域。方法如下:构建飞行器编队控制模型;设计飞行器滑模编队控制器;构建滑模编队控制器参数整定强化学习网络。本发明基于滑模控制理论设计飞行器编队控制方法,并采用强化学习方法在线调整滑模控制器参数整定使飞行器根据实时飞行状态选取合适的控制参数以提升控制性能,是一种强鲁棒、高自适应性的飞行器编队控制方法,可使飞行器集群在强干扰、高不确定性环境下满足编队控制精度,有效减弱了外部干扰对编队控制效果的影响,提高了控制器的鲁棒性,有效提高了飞行器编队控制器的环境适应能力。

Description

一种基于强化学习的飞行器智能滑模编队控制方法
技术领域
本发明涉及一种基于强化学习的飞行器智能滑模编队控制方法,属于飞行器控制技术领域。
背景技术
飞行器编队控制问题面临模型非线性强、干扰复杂等诸多困难,传统编队控制方法基于简化线性模型设计,且未考虑外部干扰补偿等问题,导致其鲁棒性和环境适应性差,无法满足实际工程应用的要求。因此,急需开发一种新的飞行器编队控制方法。
发明内容
为解决背景技术中存在的问题,本发明提供一种基于强化学习的飞行器智能滑模编队控制方法。
实现上述目的,本发明采取下述技术方案:一种基于强化学习的飞行器智能滑模编队控制方法,所述方法包括如下步骤:
S1:构建飞行器编队控制模型;
S2:设计飞行器滑模编队控制器;
S3:构建滑模编队控制器参数整定强化学习网络。
与现有技术相比,本发明的有益效果是:
本发明基于滑模控制理论设计飞行器编队控制方法,并采用强化学习方法在线调整滑模控制器参数整定使飞行器根据实时飞行状态选取合适的控制参数以提升控制性能,是一种强鲁棒、高自适应性的飞行器编队控制方法,可使飞行器集群在强干扰、高不确定性环境下满足编队控制精度,有效减弱了外部干扰对编队控制效果的影响,提高了控制器的鲁棒性,有效提高了飞行器编队控制器的环境适应能力。
附图说明
图1是本发明的流程图;
图2是强化学习网络架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于强化学习的飞行器智能滑模编队控制方法,所述方法包括如下步骤:
S1:构建飞行器编队控制模型;
S101:构建飞行器动力学模型如下:
Figure BDA0003550498180000021
式(0-1)中:
i为飞行器编号;
xi为飞行器i的x轴位置坐标;
yi为飞行器i的y轴位置坐标;
zi为飞行器i的z轴位置坐标;
Vi为飞行器i的飞行速度;
θi为飞行器i飞行时的弹道倾角;
ψi为飞行器i飞行时的弹道偏角;
[Txi Tyi Tzi]T为飞行器的推力矢量;
Txi为飞行器推力在速度坐标系x方向的分量;
Tyi为飞行器推力在速度坐标系y方向的分量;
Tzi为飞行器推力在速度坐标系z方向的分量;
Axi为飞行器i飞行时的阻力;
Ayi为飞行器i飞行时的升力;
Azi为飞行器i飞行时的侧向力;
mi为飞行器i的质量;
g为重力加速度;
定义飞行器i的控制矢量为ui=[uxi uyi uzi]T
其中:
uxi为飞行器i的x方向的加速度,且
Figure BDA0003550498180000031
uyi为飞行器i的y方向的加速度,且
Figure BDA0003550498180000032
uzi为飞行器i的z方向的加速度,且
Figure BDA0003550498180000033
则式(0-1)可改写为如下的矩阵形式:
Figure BDA0003550498180000034
式(0-2)中:
pi为飞行器i的位置矢量,且pi=[xi yi zi]T
qi为飞行器i的速度矢量,且qi=[Vicosθi cosψi Visinθi -Vicosθi sinψi]T
Φi为飞行器i的状态转移矩阵,
Figure BDA0003550498180000041
g′=[0 g 0]T为重力矢量。
S102:定义飞行器i的集群协同位置误差epi以及速度误差eqi分别如下:
Figure BDA0003550498180000042
式(0-3)中:
N为飞行器数量;
j为飞行器编号;
aij用于描述飞行器i与飞行器j之间的通信关系,且满足
Figure BDA0003550498180000043
pi为飞行器i的位置矢量;
pj为飞行器j的位置矢量;
Figure BDA0003550498180000044
为飞行器i相对于飞行器j的期望位置矢量;
Δi为飞行器i相对于虚拟领导者的期望相对位置矢量;
Δj为飞行器j相对于虚拟领导者的期望相对位置矢量;
ai0用于描述飞行器i获取虚拟领导者的能力,且满足
Figure BDA0003550498180000051
p0=[x0 y0 z0]T为虚拟领导者的位置矢量和速度矢量;
x0为虚拟领导者的x坐标;
y0为虚拟领导者的y坐标;
z0为虚拟领导者的z坐标;
qi为飞行器i的速度矢量;
qj为飞行器j的速度矢量;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
vx0为虚拟领导者的x方向速度;
vy0为虚拟领导者的y方向速度;
vz0为虚拟领导者的z方向速度;
令ep=[ep1 ep2 … epN]T,eq=[eq1 eq2 … eqN]T
则根据式(0-3)可得各飞行器集群的位置误差ep以及速度误差eq的矩阵为:
Figure BDA0003550498180000052
式(0-4)中:
p为各飞行器位置矢量构成的矩阵;
q为各飞行器速度矢量构成的矩阵;
Δ为飞行器集群相对于虚拟领导者的期望相对位置矩阵,且Δ=[Δ1 Δ2 …ΔN]T
L为通信拓扑的拉普拉斯矩阵;
p0为虚拟领导者的位置矢量和速度矢量,且p0=[x0 y0 z0]T
Figure BDA0003550498180000061
表示张量积;
1N为元素均为1的列向量;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
S103:根据式(0-2),建立编队控制模型如下:
Figure BDA0003550498180000062
式(0-5)中:
Φ=[Φ1 Φ2 … ΦN]为由各飞行器状态转移矩阵构成的矩阵;
u=[u1 u2 … uN]T为由各飞行器加速度矢量构成的矩阵;
L为通信拓扑的拉普拉斯矩阵;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
u0=[ux0 uy0 uz0]T为虚拟领导者加速度矢量;
ux0为虚拟领导者的x方向加速度;
uy0为虚拟领导者的y方向加速度;
uz0为虚拟领导者的z方向加速度;
Figure BDA0003550498180000063
表示张量积;
1N为元素均为1的列向量。
S2:设计飞行器滑模编队控制器;
S201:选择滑模面矩阵
Figure BDA0003550498180000065
为:
Figure BDA0003550498180000064
式(0-6)中:
γ1为滑模面参数,且γ1>1;
γ2为滑模面参数,且0<γ2<1;
k1为滑模面参数,且k1>0;
k2为滑模面参数,且k2>0;
S202:设计协同控制律u′,即:滑模编队控制器如下:
Figure BDA0003550498180000071
式(0-7)中:
Φ-1为矩阵Φ的逆矩阵,且
Figure BDA0003550498180000072
⊙表示矩阵元素对应相乘;
k3为趋近律参数,且k3>0;
γ3为趋近律参数,且γ3>1;
γ4为趋近律参数,且0<γ4<1;
k4为趋近律参数,且k4>0。
S3:构建滑模编队控制器参数整定强化学习网络。
S301:确定强化学习的状态、动作和回报;
S30101:选择状态空间为位置偏差和速度偏差;
S30102:选择动作为滑模控制器的参数,动作空间由控制参数的上下界组成;
S30103:回报函数包含编队位置、速度控制误差平方的相反数J1作为惩罚如下:
J1=-a1(ep)2-a2(eq)2 (0-8)
式(0-8)中:
a1以及a2均为权值系数;
为了使智能体实现能量最优编队控制,引入编队控制指令平方的相反数J2作为惩罚如下:
J2=-a3u′2 (0-9)
式(0-9)中:
a3为权值系数;
同时,在训练过程中引入约束,当编队控制误差、编队控制时间超过设定阈值,或控制量大于最大约束时,给予一个大的惩罚J3=-P,P>>0,
同时终止本次交互过程;
综上所述,强化学习的回报函数定义为
r=J1+J2+J3(0-10)。
S302:构建强化学习网络。
S30201:由于参数整定问题的状态空间、动作空间具有连续、高维的特点,在训练过程中采用基于深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)的Actor-Critic强化学习框架;
Actor部分根据状态st进行决策输出动作μ(st),Critic部分则根据状态st及动作at,估计Q值。
S30202:对于Actor-Critic强化学习框架的每一部分,分别设置两个结构相同但参数不同的神经网络,即:online network与target network;
且在训练过程中,智能体的online-actor神经网络生成控制参数,并添加动作噪声,完成对编队控制参数的调整;
S30203:飞行器基于调整后的控制律生成编队控制指令,并输入智能体运动模型中,得到智能体下一步状态及反映编队控制结果的位置误差、速度误差;
S30204:将状态转换过程信息,即原状态-动作-奖励-转换状态[st,at,rt,st+1]存入经验池;
按照设定的训练频次,随机抽取经验池中的样本,训练online神经网络并对target神经网络参数进行软更新。
S30205:训练完毕后,提取智能体的online-actor网络参数并固定下来;在编队控制过程中根据当前状态,预测输出调整后控制器参数,飞行器即可根据控制律输出指令,进行编队控制。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同条件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (6)

1.一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:所述方法包括如下步骤:
S1:构建飞行器编队控制模型;
S2:设计飞行器滑模编队控制器;
S3:构建滑模编队控制器参数整定强化学习网络。
2.根据权利要求1所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:S1所述飞行器编队控制模型的构建过程如下:
S101:构建飞行器动力学模型如下:
Figure FDA0003550498170000011
式(0-1)中:
i为飞行器编号;
xi为飞行器i的x轴位置坐标;
yi为飞行器i的y轴位置坐标;
zi为飞行器i的z轴位置坐标;
Vi为飞行器i的飞行速度;
θi为飞行器i飞行时的弹道倾角;
ψi为飞行器i飞行时的弹道偏角;
[Txi Tyi Tzi]T为飞行器的推力矢量;
Txi为飞行器推力在速度坐标系x方向的分量;
Tyi为飞行器推力在速度坐标系y方向的分量;
Tzi为飞行器推力在速度坐标系z方向的分量;
Axi为飞行器i飞行时的阻力;
Ayi为飞行器i飞行时的升力;
Azi为飞行器i飞行时的侧向力;
mi为飞行器i的质量;
g为重力加速度;
定义飞行器i的控制矢量为ui=[uxi uyi uzi]T
其中:
uxi为飞行器i的x方向的加速度,且
Figure FDA0003550498170000021
uyi为飞行器i的y方向的加速度,且
Figure FDA0003550498170000022
uzi为飞行器i的z方向的加速度,且
Figure FDA0003550498170000023
则式(0-1)可改写为如下的矩阵形式:
Figure FDA0003550498170000024
式(0-2)中:
pi为飞行器i的位置矢量,且pi=[xi yi zi]T
qi为飞行器i的速度矢量,且qi=[Vicosθicosψi Visinθi -Vicosθisinψi]T
Φi为飞行器i的状态转移矩阵,
Figure FDA0003550498170000031
g′=[0 g 0]T为重力矢量。
S102:定义飞行器i的集群协同位置误差epi以及速度误差eqi分别如下:
Figure FDA0003550498170000032
式(0-3)中:
N为飞行器数量;
j为飞行器编号;
aij用于描述飞行器i与飞行器j之间的通信关系,且满足
Figure FDA0003550498170000033
pi为飞行器i的位置矢量;
pj为飞行器j的位置矢量;
Figure FDA0003550498170000034
为飞行器i相对于飞行器j的期望位置矢量;
Δi为飞行器i相对于虚拟领导者的期望相对位置矢量;
Δj为飞行器j相对于虚拟领导者的期望相对位置矢量;
ai0用于描述飞行器i获取虚拟领导者的能力,且满足
Figure FDA0003550498170000035
p0=[x0 y0 z0]T为虚拟领导者的位置矢量和速度矢量;
x0为虚拟领导者的x坐标;
y0为虚拟领导者的y坐标;
z0为虚拟领导者的z坐标;
qi为飞行器i的速度矢量;
qj为飞行器j的速度矢量;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
vx0为虚拟领导者的x方向速度;
vy0为虚拟领导者的y方向速度;
vz0为虚拟领导者的z方向速度;
令ep=[ep1 ep2 … epN]T,eq=[eq1 eq2 … eqN]T
则根据式(0-3)可得各飞行器集群的位置误差ep以及速度误差eq的矩阵为:
Figure FDA0003550498170000041
式(0-4)中:
p为各飞行器位置矢量构成的矩阵;
q为各飞行器速度矢量构成的矩阵;
Δ为飞行器集群相对于虚拟领导者的期望相对位置矩阵,且Δ=[Δ1 Δ2 … ΔN]T
L为通信拓扑的拉普拉斯矩阵;
p0为虚拟领导者的位置矢量和速度矢量,且p0=[x0 y0 z0]T
Figure FDA0003550498170000042
表示张量积;
1N为元素均为1的列向量;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
S103:根据式(0-2),建立编队控制模型如下:
Figure FDA0003550498170000051
式(0-5)中:
Φ=[Φ1 Φ2 … ΦN]为由各飞行器状态转移矩阵构成的矩阵;
u=[u1 u2 … uN]T为由各飞行器加速度矢量构成的矩阵;
L为通信拓扑的拉普拉斯矩阵;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
u0=[ux0 uy0 uz0]T为虚拟领导者加速度矢量;
ux0为虚拟领导者的x方向加速度;
uy0为虚拟领导者的y方向加速度;
uz0为虚拟领导者的z方向加速度;
Figure FDA0003550498170000052
表示张量积;
1N为元素均为1的列向量。
3.根据权利要求2所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:S2所述滑模编队控制器的设计过程如下:
S201:选择滑模面矩阵
Figure FDA0003550498170000053
为:
Figure FDA0003550498170000054
式(0-6)中:
γ1为滑模面参数,且γ1>1;
γ2为滑模面参数,且0<γ2<1;
k1为滑模面参数,且k1>0;
k2为滑模面参数,且k2>0;
S202:设计协同控制律u′,即:滑模编队控制器如下:
Figure FDA0003550498170000061
式(0-7)中:
Φ-1为矩阵Φ的逆矩阵,且
Figure FDA0003550498170000062
⊙表示矩阵元素对应相乘;
k3为趋近律参数,且k3>0;
γ3为趋近律参数,且γ3>1;
γ4为趋近律参数,且0<γ4<1;
k4为趋近律参数,且k4>0。
4.根据权利要求3所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:S3所述强化学习网络的构建方法如下:
S301:确定强化学习的状态、动作和回报;
S302:构建强化学习网络。
5.根据权利要求4所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:所述S301包括如下步骤:
S30101:选择状态空间为位置偏差和速度偏差;
S30102:选择动作为滑模控制器的参数,动作空间由控制参数的上下界组成;
S30103:回报函数包含编队位置、速度控制误差平方的相反数J1作为惩罚如下:
J1=-a1(ep)2-a2(eq)2 (0-8)
式(0-8)中:
a1以及a2均为权值系数;
为了使智能体实现能量最优编队控制,引入编队控制指令平方的相反数J2作为惩罚如下:
J2=-a3u′2 (0-9)
式(0-9)中:
a3为权值系数;
同时,在训练过程中引入约束,当编队控制误差、编队控制时间超过设定阈值,或控制量大于最大约束时,给予一个大的惩罚J3=-P,P>>0,
同时终止本次交互过程;
综上所述,强化学习的回报函数定义为
r=J1+J2+J3 (0-10)。
6.根据权利要求5所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:所述S302包括如下步骤:
S30201:采用基于深度确定性策略梯度的Actor-Critic强化学习框架;
S30202:对于Actor-Critic强化学习框架的每一部分,分别设置两个结构相同但参数不同的神经网络,即:online network与target network;
且在训练过程中,智能体的online-actor神经网络生成控制参数,并添加动作噪声,完成对编队控制参数的调整;
S30203:飞行器基于调整后的控制律生成编队控制指令,并输入智能体运动模型中,得到智能体下一步状态及反映编队控制结果的位置误差、速度误差;
S30204:将状态转换过程信息,即原状态-动作-奖励-转换状态[st,at,rt,st+1]存入经验池;
S30205:训练完毕后,提取智能体的online-actor网络参数并固定下来;在编队控制过程中根据当前状态,预测输出调整后控制器参数,飞行器即可根据控制律输出指令,进行编队控制。
CN202210262190.9A 2022-03-16 2022-03-16 一种基于强化学习的飞行器智能滑模编队控制方法 Active CN114545979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210262190.9A CN114545979B (zh) 2022-03-16 2022-03-16 一种基于强化学习的飞行器智能滑模编队控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210262190.9A CN114545979B (zh) 2022-03-16 2022-03-16 一种基于强化学习的飞行器智能滑模编队控制方法

Publications (2)

Publication Number Publication Date
CN114545979A true CN114545979A (zh) 2022-05-27
CN114545979B CN114545979B (zh) 2022-10-25

Family

ID=81664394

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210262190.9A Active CN114545979B (zh) 2022-03-16 2022-03-16 一种基于强化学习的飞行器智能滑模编队控制方法

Country Status (1)

Country Link
CN (1) CN114545979B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110262557A (zh) * 2019-07-16 2019-09-20 南京航空航天大学 基于滑模控制技术的四旋翼编队有限时间容错控制方法
CN110488606A (zh) * 2019-07-25 2019-11-22 中北大学 一种多四旋翼主从式保性能神经自适应协同编队控制方法
WO2019238596A1 (en) * 2018-06-11 2019-12-19 Telefonaktiebolaget Lm Ericsson (Publ) Determining control parameters for formation of multiple uavs
CN111580387A (zh) * 2020-04-14 2020-08-25 集美大学 一种基于时滞分数阶船舶运动自适应滑模控制方法
CN111948944A (zh) * 2020-08-07 2020-11-17 南京航空航天大学 一种基于自适应神经网络的四旋翼编队容错控制方法
CN112363519A (zh) * 2020-10-20 2021-02-12 天津大学 四旋翼无人机强化学习非线性姿态控制方法
CN112527019A (zh) * 2020-12-31 2021-03-19 上海大学 一种适用于恶劣海况的异构无人系统协同编队控制系统及其控制方法
CN112578804A (zh) * 2020-12-16 2021-03-30 南京理工大学 一种基于事件触发机制的四旋翼飞行器编队滑模控制方法
KR102315498B1 (ko) * 2021-05-21 2021-10-21 세종대학교산학협력단 다중 비행체의 편대 추종 제어 장치 및 그 방법
CN113671994A (zh) * 2021-09-01 2021-11-19 重庆大学 基于强化学习的多无人机与多无人船巡检控制系统
CN113900440A (zh) * 2021-07-21 2022-01-07 中国电子科技集团公司电子科学研究院 一种无人机控制律设计方法、装置及可读存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019238596A1 (en) * 2018-06-11 2019-12-19 Telefonaktiebolaget Lm Ericsson (Publ) Determining control parameters for formation of multiple uavs
CN110262557A (zh) * 2019-07-16 2019-09-20 南京航空航天大学 基于滑模控制技术的四旋翼编队有限时间容错控制方法
CN110488606A (zh) * 2019-07-25 2019-11-22 中北大学 一种多四旋翼主从式保性能神经自适应协同编队控制方法
CN111580387A (zh) * 2020-04-14 2020-08-25 集美大学 一种基于时滞分数阶船舶运动自适应滑模控制方法
CN111948944A (zh) * 2020-08-07 2020-11-17 南京航空航天大学 一种基于自适应神经网络的四旋翼编队容错控制方法
CN112363519A (zh) * 2020-10-20 2021-02-12 天津大学 四旋翼无人机强化学习非线性姿态控制方法
CN112578804A (zh) * 2020-12-16 2021-03-30 南京理工大学 一种基于事件触发机制的四旋翼飞行器编队滑模控制方法
CN112527019A (zh) * 2020-12-31 2021-03-19 上海大学 一种适用于恶劣海况的异构无人系统协同编队控制系统及其控制方法
KR102315498B1 (ko) * 2021-05-21 2021-10-21 세종대학교산학협력단 다중 비행체의 편대 추종 제어 장치 및 그 방법
CN113900440A (zh) * 2021-07-21 2022-01-07 中国电子科技集团公司电子科学研究院 一种无人机控制律设计方法、装置及可读存储介质
CN113671994A (zh) * 2021-09-01 2021-11-19 重庆大学 基于强化学习的多无人机与多无人船巡检控制系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宋仕元等: "滑模控制器参数整定的 Ac tor -Critic 学习算法", 《电光与控制》 *
韩建福等: "不确定性下扑翼飞行器的自适应滑模控制", 《控制工程》 *

Also Published As

Publication number Publication date
CN114545979B (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
CN109343341B (zh) 一种基于深度强化学习的运载火箭垂直回收智能控制方法
Rao et al. Sliding mode control-based autopilots for leaderless consensus of unmanned aerial vehicles
CN106218922B (zh) 挠性敏捷卫星的联合执行机构控制方法
CN111460650A (zh) 一种基于深度强化学习的无人机端到端控制方法
CN112578804A (zh) 一种基于事件触发机制的四旋翼飞行器编队滑模控制方法
CN109507890A (zh) 一种基于eso的无人机动态逆广义预测控制器
Luo et al. On decoupling trajectory tracking control of unmanned powered parafoil using ADRC-based coupling analysis and dynamic feedforward compensation
CN113268084B (zh) 一种无人机编队智能容错控制方法
CN112327926A (zh) 一种无人机编队的自适应滑模控制方法
Wang et al. Disturbance attenuation predictive optimal control for quad-rotor transporting unknown varying payload
Wu et al. Robust adaptive finite‐time trajectory tracking control of a quadrotor aircraft
Wang et al. Intelligent control of air-breathing hypersonic vehicles subject to path and angle-of-attack constraints
CN110032204B (zh) 输入时延下多空间飞行器姿态协同控制方法
Liu et al. Trajectory tracking control for a QUAV with performance constraints
Manzoor et al. Composite observer-based robust model predictive control technique for ducted fan aerial vehicles
Rudnick-Cohen et al. Robust optimal design and control of a maneuvering morphing airfoil
Cao et al. Robust multiple model predictive control for ascent trajectory tracking of aerospace vehicles
CN114545979B (zh) 一种基于强化学习的飞行器智能滑模编队控制方法
CN116954258A (zh) 未知扰动下多四旋翼无人机编队的分层控制方法及装置
CN116301007A (zh) 基于强化学习的多四旋翼无人机集结型任务路径规划方法
Brahim et al. Finite Time Adaptive SMC for UAV Trajectory Tracking Under Unknown Disturbances and Actuators Constraints
CN112685835B (zh) 车辆自主驾驶的弹性事件触发控制方法及系统
CN115524969A (zh) 一种提高空间交会对接模型预测控制运算速度的方法
Pan et al. 3D path-following control of robotic penguin: an ETFLMPC approach
Jang et al. Robust attitude control for pavs using dnn with exponentially stabilizing control lyapunov functions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant