CN114545979A - 一种基于强化学习的飞行器智能滑模编队控制方法 - Google Patents
一种基于强化学习的飞行器智能滑模编队控制方法 Download PDFInfo
- Publication number
- CN114545979A CN114545979A CN202210262190.9A CN202210262190A CN114545979A CN 114545979 A CN114545979 A CN 114545979A CN 202210262190 A CN202210262190 A CN 202210262190A CN 114545979 A CN114545979 A CN 114545979A
- Authority
- CN
- China
- Prior art keywords
- aircraft
- formation control
- reinforcement learning
- sliding mode
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000002787 reinforcement Effects 0.000 title claims abstract description 31
- 239000013598 vector Substances 0.000 claims description 44
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000001133 acceleration Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 10
- 239000003795 chemical substances by application Substances 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 claims 1
- 238000012938 design process Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种基于强化学习的飞行器智能滑模编队控制方法,属于飞行器控制技术领域。方法如下:构建飞行器编队控制模型;设计飞行器滑模编队控制器;构建滑模编队控制器参数整定强化学习网络。本发明基于滑模控制理论设计飞行器编队控制方法,并采用强化学习方法在线调整滑模控制器参数整定使飞行器根据实时飞行状态选取合适的控制参数以提升控制性能,是一种强鲁棒、高自适应性的飞行器编队控制方法,可使飞行器集群在强干扰、高不确定性环境下满足编队控制精度,有效减弱了外部干扰对编队控制效果的影响,提高了控制器的鲁棒性,有效提高了飞行器编队控制器的环境适应能力。
Description
技术领域
本发明涉及一种基于强化学习的飞行器智能滑模编队控制方法,属于飞行器控制技术领域。
背景技术
飞行器编队控制问题面临模型非线性强、干扰复杂等诸多困难,传统编队控制方法基于简化线性模型设计,且未考虑外部干扰补偿等问题,导致其鲁棒性和环境适应性差,无法满足实际工程应用的要求。因此,急需开发一种新的飞行器编队控制方法。
发明内容
为解决背景技术中存在的问题,本发明提供一种基于强化学习的飞行器智能滑模编队控制方法。
实现上述目的,本发明采取下述技术方案:一种基于强化学习的飞行器智能滑模编队控制方法,所述方法包括如下步骤:
S1:构建飞行器编队控制模型;
S2:设计飞行器滑模编队控制器;
S3:构建滑模编队控制器参数整定强化学习网络。
与现有技术相比,本发明的有益效果是:
本发明基于滑模控制理论设计飞行器编队控制方法,并采用强化学习方法在线调整滑模控制器参数整定使飞行器根据实时飞行状态选取合适的控制参数以提升控制性能,是一种强鲁棒、高自适应性的飞行器编队控制方法,可使飞行器集群在强干扰、高不确定性环境下满足编队控制精度,有效减弱了外部干扰对编队控制效果的影响,提高了控制器的鲁棒性,有效提高了飞行器编队控制器的环境适应能力。
附图说明
图1是本发明的流程图;
图2是强化学习网络架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于强化学习的飞行器智能滑模编队控制方法,所述方法包括如下步骤:
S1:构建飞行器编队控制模型;
S101:构建飞行器动力学模型如下:
式(0-1)中:
i为飞行器编号;
xi为飞行器i的x轴位置坐标;
yi为飞行器i的y轴位置坐标;
zi为飞行器i的z轴位置坐标;
Vi为飞行器i的飞行速度;
θi为飞行器i飞行时的弹道倾角;
ψi为飞行器i飞行时的弹道偏角;
[Txi Tyi Tzi]T为飞行器的推力矢量;
Txi为飞行器推力在速度坐标系x方向的分量;
Tyi为飞行器推力在速度坐标系y方向的分量;
Tzi为飞行器推力在速度坐标系z方向的分量;
Axi为飞行器i飞行时的阻力;
Ayi为飞行器i飞行时的升力;
Azi为飞行器i飞行时的侧向力;
mi为飞行器i的质量;
g为重力加速度;
定义飞行器i的控制矢量为ui=[uxi uyi uzi]T,
其中:
则式(0-1)可改写为如下的矩阵形式:
式(0-2)中:
pi为飞行器i的位置矢量,且pi=[xi yi zi]T;
qi为飞行器i的速度矢量,且qi=[Vicosθi cosψi Visinθi -Vicosθi sinψi]T;
Φi为飞行器i的状态转移矩阵,
g′=[0 g 0]T为重力矢量。
S102:定义飞行器i的集群协同位置误差epi以及速度误差eqi分别如下:
式(0-3)中:
N为飞行器数量;
j为飞行器编号;
aij用于描述飞行器i与飞行器j之间的通信关系,且满足
pi为飞行器i的位置矢量;
pj为飞行器j的位置矢量;
Δi为飞行器i相对于虚拟领导者的期望相对位置矢量;
Δj为飞行器j相对于虚拟领导者的期望相对位置矢量;
ai0用于描述飞行器i获取虚拟领导者的能力,且满足
p0=[x0 y0 z0]T为虚拟领导者的位置矢量和速度矢量;
x0为虚拟领导者的x坐标;
y0为虚拟领导者的y坐标;
z0为虚拟领导者的z坐标;
qi为飞行器i的速度矢量;
qj为飞行器j的速度矢量;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
vx0为虚拟领导者的x方向速度;
vy0为虚拟领导者的y方向速度;
vz0为虚拟领导者的z方向速度;
令ep=[ep1 ep2 … epN]T,eq=[eq1 eq2 … eqN]T,
则根据式(0-3)可得各飞行器集群的位置误差ep以及速度误差eq的矩阵为:
式(0-4)中:
p为各飞行器位置矢量构成的矩阵;
q为各飞行器速度矢量构成的矩阵;
Δ为飞行器集群相对于虚拟领导者的期望相对位置矩阵,且Δ=[Δ1 Δ2 …ΔN]T;
L为通信拓扑的拉普拉斯矩阵;
p0为虚拟领导者的位置矢量和速度矢量,且p0=[x0 y0 z0]T;
1N为元素均为1的列向量;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
S103:根据式(0-2),建立编队控制模型如下:
式(0-5)中:
Φ=[Φ1 Φ2 … ΦN]为由各飞行器状态转移矩阵构成的矩阵;
u=[u1 u2 … uN]T为由各飞行器加速度矢量构成的矩阵;
L为通信拓扑的拉普拉斯矩阵;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
u0=[ux0 uy0 uz0]T为虚拟领导者加速度矢量;
ux0为虚拟领导者的x方向加速度;
uy0为虚拟领导者的y方向加速度;
uz0为虚拟领导者的z方向加速度;
1N为元素均为1的列向量。
S2:设计飞行器滑模编队控制器;
式(0-6)中:
γ1为滑模面参数,且γ1>1;
γ2为滑模面参数,且0<γ2<1;
k1为滑模面参数,且k1>0;
k2为滑模面参数,且k2>0;
S202:设计协同控制律u′,即:滑模编队控制器如下:
式(0-7)中:
⊙表示矩阵元素对应相乘;
k3为趋近律参数,且k3>0;
γ3为趋近律参数,且γ3>1;
γ4为趋近律参数,且0<γ4<1;
k4为趋近律参数,且k4>0。
S3:构建滑模编队控制器参数整定强化学习网络。
S301:确定强化学习的状态、动作和回报;
S30101:选择状态空间为位置偏差和速度偏差;
S30102:选择动作为滑模控制器的参数,动作空间由控制参数的上下界组成;
S30103:回报函数包含编队位置、速度控制误差平方的相反数J1作为惩罚如下:
J1=-a1(ep)2-a2(eq)2 (0-8)
式(0-8)中:
a1以及a2均为权值系数;
为了使智能体实现能量最优编队控制,引入编队控制指令平方的相反数J2作为惩罚如下:
J2=-a3u′2 (0-9)
式(0-9)中:
a3为权值系数;
同时,在训练过程中引入约束,当编队控制误差、编队控制时间超过设定阈值,或控制量大于最大约束时,给予一个大的惩罚J3=-P,P>>0,
同时终止本次交互过程;
综上所述,强化学习的回报函数定义为
r=J1+J2+J3(0-10)。
S302:构建强化学习网络。
S30201:由于参数整定问题的状态空间、动作空间具有连续、高维的特点,在训练过程中采用基于深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)的Actor-Critic强化学习框架;
Actor部分根据状态st进行决策输出动作μ(st),Critic部分则根据状态st及动作at,估计Q值。
S30202:对于Actor-Critic强化学习框架的每一部分,分别设置两个结构相同但参数不同的神经网络,即:online network与target network;
且在训练过程中,智能体的online-actor神经网络生成控制参数,并添加动作噪声,完成对编队控制参数的调整;
S30203:飞行器基于调整后的控制律生成编队控制指令,并输入智能体运动模型中,得到智能体下一步状态及反映编队控制结果的位置误差、速度误差;
S30204:将状态转换过程信息,即原状态-动作-奖励-转换状态[st,at,rt,st+1]存入经验池;
按照设定的训练频次,随机抽取经验池中的样本,训练online神经网络并对target神经网络参数进行软更新。
S30205:训练完毕后,提取智能体的online-actor网络参数并固定下来;在编队控制过程中根据当前状态,预测输出调整后控制器参数,飞行器即可根据控制律输出指令,进行编队控制。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同条件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (6)
1.一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:所述方法包括如下步骤:
S1:构建飞行器编队控制模型;
S2:设计飞行器滑模编队控制器;
S3:构建滑模编队控制器参数整定强化学习网络。
2.根据权利要求1所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:S1所述飞行器编队控制模型的构建过程如下:
S101:构建飞行器动力学模型如下:
式(0-1)中:
i为飞行器编号;
xi为飞行器i的x轴位置坐标;
yi为飞行器i的y轴位置坐标;
zi为飞行器i的z轴位置坐标;
Vi为飞行器i的飞行速度;
θi为飞行器i飞行时的弹道倾角;
ψi为飞行器i飞行时的弹道偏角;
[Txi Tyi Tzi]T为飞行器的推力矢量;
Txi为飞行器推力在速度坐标系x方向的分量;
Tyi为飞行器推力在速度坐标系y方向的分量;
Tzi为飞行器推力在速度坐标系z方向的分量;
Axi为飞行器i飞行时的阻力;
Ayi为飞行器i飞行时的升力;
Azi为飞行器i飞行时的侧向力;
mi为飞行器i的质量;
g为重力加速度;
定义飞行器i的控制矢量为ui=[uxi uyi uzi]T,
其中:
则式(0-1)可改写为如下的矩阵形式:
式(0-2)中:
pi为飞行器i的位置矢量,且pi=[xi yi zi]T;
qi为飞行器i的速度矢量,且qi=[Vicosθicosψi Visinθi -Vicosθisinψi]T;
Φi为飞行器i的状态转移矩阵,
g′=[0 g 0]T为重力矢量。
S102:定义飞行器i的集群协同位置误差epi以及速度误差eqi分别如下:
式(0-3)中:
N为飞行器数量;
j为飞行器编号;
aij用于描述飞行器i与飞行器j之间的通信关系,且满足
pi为飞行器i的位置矢量;
pj为飞行器j的位置矢量;
Δi为飞行器i相对于虚拟领导者的期望相对位置矢量;
Δj为飞行器j相对于虚拟领导者的期望相对位置矢量;
ai0用于描述飞行器i获取虚拟领导者的能力,且满足
p0=[x0 y0 z0]T为虚拟领导者的位置矢量和速度矢量;
x0为虚拟领导者的x坐标;
y0为虚拟领导者的y坐标;
z0为虚拟领导者的z坐标;
qi为飞行器i的速度矢量;
qj为飞行器j的速度矢量;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
vx0为虚拟领导者的x方向速度;
vy0为虚拟领导者的y方向速度;
vz0为虚拟领导者的z方向速度;
令ep=[ep1 ep2 … epN]T,eq=[eq1 eq2 … eqN]T,
则根据式(0-3)可得各飞行器集群的位置误差ep以及速度误差eq的矩阵为:
式(0-4)中:
p为各飞行器位置矢量构成的矩阵;
q为各飞行器速度矢量构成的矩阵;
Δ为飞行器集群相对于虚拟领导者的期望相对位置矩阵,且Δ=[Δ1 Δ2 … ΔN]T;
L为通信拓扑的拉普拉斯矩阵;
p0为虚拟领导者的位置矢量和速度矢量,且p0=[x0 y0 z0]T;
1N为元素均为1的列向量;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
q0=[vx0 vy0 vz0]T为虚拟领导者为预先设计的标称轨迹;
S103:根据式(0-2),建立编队控制模型如下:
式(0-5)中:
Φ=[Φ1 Φ2 … ΦN]为由各飞行器状态转移矩阵构成的矩阵;
u=[u1 u2 … uN]T为由各飞行器加速度矢量构成的矩阵;
L为通信拓扑的拉普拉斯矩阵;
A0=diag(ai0)为描述无人机与虚拟领导者通信关系的矩阵;
u0=[ux0 uy0 uz0]T为虚拟领导者加速度矢量;
ux0为虚拟领导者的x方向加速度;
uy0为虚拟领导者的y方向加速度;
uz0为虚拟领导者的z方向加速度;
1N为元素均为1的列向量。
4.根据权利要求3所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:S3所述强化学习网络的构建方法如下:
S301:确定强化学习的状态、动作和回报;
S302:构建强化学习网络。
5.根据权利要求4所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:所述S301包括如下步骤:
S30101:选择状态空间为位置偏差和速度偏差;
S30102:选择动作为滑模控制器的参数,动作空间由控制参数的上下界组成;
S30103:回报函数包含编队位置、速度控制误差平方的相反数J1作为惩罚如下:
J1=-a1(ep)2-a2(eq)2 (0-8)
式(0-8)中:
a1以及a2均为权值系数;
为了使智能体实现能量最优编队控制,引入编队控制指令平方的相反数J2作为惩罚如下:
J2=-a3u′2 (0-9)
式(0-9)中:
a3为权值系数;
同时,在训练过程中引入约束,当编队控制误差、编队控制时间超过设定阈值,或控制量大于最大约束时,给予一个大的惩罚J3=-P,P>>0,
同时终止本次交互过程;
综上所述,强化学习的回报函数定义为
r=J1+J2+J3 (0-10)。
6.根据权利要求5所述的一种基于强化学习的飞行器智能滑模编队控制方法,其特征在于:所述S302包括如下步骤:
S30201:采用基于深度确定性策略梯度的Actor-Critic强化学习框架;
S30202:对于Actor-Critic强化学习框架的每一部分,分别设置两个结构相同但参数不同的神经网络,即:online network与target network;
且在训练过程中,智能体的online-actor神经网络生成控制参数,并添加动作噪声,完成对编队控制参数的调整;
S30203:飞行器基于调整后的控制律生成编队控制指令,并输入智能体运动模型中,得到智能体下一步状态及反映编队控制结果的位置误差、速度误差;
S30204:将状态转换过程信息,即原状态-动作-奖励-转换状态[st,at,rt,st+1]存入经验池;
S30205:训练完毕后,提取智能体的online-actor网络参数并固定下来;在编队控制过程中根据当前状态,预测输出调整后控制器参数,飞行器即可根据控制律输出指令,进行编队控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210262190.9A CN114545979B (zh) | 2022-03-16 | 2022-03-16 | 一种基于强化学习的飞行器智能滑模编队控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210262190.9A CN114545979B (zh) | 2022-03-16 | 2022-03-16 | 一种基于强化学习的飞行器智能滑模编队控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114545979A true CN114545979A (zh) | 2022-05-27 |
CN114545979B CN114545979B (zh) | 2022-10-25 |
Family
ID=81664394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210262190.9A Active CN114545979B (zh) | 2022-03-16 | 2022-03-16 | 一种基于强化学习的飞行器智能滑模编队控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114545979B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110262557A (zh) * | 2019-07-16 | 2019-09-20 | 南京航空航天大学 | 基于滑模控制技术的四旋翼编队有限时间容错控制方法 |
CN110488606A (zh) * | 2019-07-25 | 2019-11-22 | 中北大学 | 一种多四旋翼主从式保性能神经自适应协同编队控制方法 |
WO2019238596A1 (en) * | 2018-06-11 | 2019-12-19 | Telefonaktiebolaget Lm Ericsson (Publ) | Determining control parameters for formation of multiple uavs |
CN111580387A (zh) * | 2020-04-14 | 2020-08-25 | 集美大学 | 一种基于时滞分数阶船舶运动自适应滑模控制方法 |
CN111948944A (zh) * | 2020-08-07 | 2020-11-17 | 南京航空航天大学 | 一种基于自适应神经网络的四旋翼编队容错控制方法 |
CN112363519A (zh) * | 2020-10-20 | 2021-02-12 | 天津大学 | 四旋翼无人机强化学习非线性姿态控制方法 |
CN112527019A (zh) * | 2020-12-31 | 2021-03-19 | 上海大学 | 一种适用于恶劣海况的异构无人系统协同编队控制系统及其控制方法 |
CN112578804A (zh) * | 2020-12-16 | 2021-03-30 | 南京理工大学 | 一种基于事件触发机制的四旋翼飞行器编队滑模控制方法 |
KR102315498B1 (ko) * | 2021-05-21 | 2021-10-21 | 세종대학교산학협력단 | 다중 비행체의 편대 추종 제어 장치 및 그 방법 |
CN113671994A (zh) * | 2021-09-01 | 2021-11-19 | 重庆大学 | 基于强化学习的多无人机与多无人船巡检控制系统 |
CN113900440A (zh) * | 2021-07-21 | 2022-01-07 | 中国电子科技集团公司电子科学研究院 | 一种无人机控制律设计方法、装置及可读存储介质 |
-
2022
- 2022-03-16 CN CN202210262190.9A patent/CN114545979B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019238596A1 (en) * | 2018-06-11 | 2019-12-19 | Telefonaktiebolaget Lm Ericsson (Publ) | Determining control parameters for formation of multiple uavs |
CN110262557A (zh) * | 2019-07-16 | 2019-09-20 | 南京航空航天大学 | 基于滑模控制技术的四旋翼编队有限时间容错控制方法 |
CN110488606A (zh) * | 2019-07-25 | 2019-11-22 | 中北大学 | 一种多四旋翼主从式保性能神经自适应协同编队控制方法 |
CN111580387A (zh) * | 2020-04-14 | 2020-08-25 | 集美大学 | 一种基于时滞分数阶船舶运动自适应滑模控制方法 |
CN111948944A (zh) * | 2020-08-07 | 2020-11-17 | 南京航空航天大学 | 一种基于自适应神经网络的四旋翼编队容错控制方法 |
CN112363519A (zh) * | 2020-10-20 | 2021-02-12 | 天津大学 | 四旋翼无人机强化学习非线性姿态控制方法 |
CN112578804A (zh) * | 2020-12-16 | 2021-03-30 | 南京理工大学 | 一种基于事件触发机制的四旋翼飞行器编队滑模控制方法 |
CN112527019A (zh) * | 2020-12-31 | 2021-03-19 | 上海大学 | 一种适用于恶劣海况的异构无人系统协同编队控制系统及其控制方法 |
KR102315498B1 (ko) * | 2021-05-21 | 2021-10-21 | 세종대학교산학협력단 | 다중 비행체의 편대 추종 제어 장치 및 그 방법 |
CN113900440A (zh) * | 2021-07-21 | 2022-01-07 | 中国电子科技集团公司电子科学研究院 | 一种无人机控制律设计方法、装置及可读存储介质 |
CN113671994A (zh) * | 2021-09-01 | 2021-11-19 | 重庆大学 | 基于强化学习的多无人机与多无人船巡检控制系统 |
Non-Patent Citations (2)
Title |
---|
宋仕元等: "滑模控制器参数整定的 Ac tor -Critic 学习算法", 《电光与控制》 * |
韩建福等: "不确定性下扑翼飞行器的自适应滑模控制", 《控制工程》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114545979B (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109343341B (zh) | 一种基于深度强化学习的运载火箭垂直回收智能控制方法 | |
Rao et al. | Sliding mode control-based autopilots for leaderless consensus of unmanned aerial vehicles | |
CN106218922B (zh) | 挠性敏捷卫星的联合执行机构控制方法 | |
CN111460650A (zh) | 一种基于深度强化学习的无人机端到端控制方法 | |
CN112578804A (zh) | 一种基于事件触发机制的四旋翼飞行器编队滑模控制方法 | |
CN109507890A (zh) | 一种基于eso的无人机动态逆广义预测控制器 | |
Luo et al. | On decoupling trajectory tracking control of unmanned powered parafoil using ADRC-based coupling analysis and dynamic feedforward compensation | |
CN113268084B (zh) | 一种无人机编队智能容错控制方法 | |
CN112327926A (zh) | 一种无人机编队的自适应滑模控制方法 | |
Wang et al. | Disturbance attenuation predictive optimal control for quad-rotor transporting unknown varying payload | |
Wu et al. | Robust adaptive finite‐time trajectory tracking control of a quadrotor aircraft | |
Wang et al. | Intelligent control of air-breathing hypersonic vehicles subject to path and angle-of-attack constraints | |
CN110032204B (zh) | 输入时延下多空间飞行器姿态协同控制方法 | |
Liu et al. | Trajectory tracking control for a QUAV with performance constraints | |
Manzoor et al. | Composite observer-based robust model predictive control technique for ducted fan aerial vehicles | |
Rudnick-Cohen et al. | Robust optimal design and control of a maneuvering morphing airfoil | |
Cao et al. | Robust multiple model predictive control for ascent trajectory tracking of aerospace vehicles | |
CN114545979B (zh) | 一种基于强化学习的飞行器智能滑模编队控制方法 | |
CN116954258A (zh) | 未知扰动下多四旋翼无人机编队的分层控制方法及装置 | |
CN116301007A (zh) | 基于强化学习的多四旋翼无人机集结型任务路径规划方法 | |
Brahim et al. | Finite Time Adaptive SMC for UAV Trajectory Tracking Under Unknown Disturbances and Actuators Constraints | |
CN112685835B (zh) | 车辆自主驾驶的弹性事件触发控制方法及系统 | |
CN115524969A (zh) | 一种提高空间交会对接模型预测控制运算速度的方法 | |
Pan et al. | 3D path-following control of robotic penguin: an ETFLMPC approach | |
Jang et al. | Robust attitude control for pavs using dnn with exponentially stabilizing control lyapunov functions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |