CN117130379B - 一种基于lqr近视距的无人机空战攻击方法 - Google Patents
一种基于lqr近视距的无人机空战攻击方法 Download PDFInfo
- Publication number
- CN117130379B CN117130379B CN202310951344.XA CN202310951344A CN117130379B CN 117130379 B CN117130379 B CN 117130379B CN 202310951344 A CN202310951344 A CN 202310951344A CN 117130379 B CN117130379 B CN 117130379B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- state
- target
- lqr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 208000001491 myopia Diseases 0.000 title claims abstract description 27
- 230000002787 reinforcement Effects 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 44
- 230000009471 action Effects 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000012417 linear regression Methods 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 10
- 230000007774 longterm Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000036461 convulsion Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 238000012887 quadratic function Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011217 control strategy Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000004379 myopia Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Feedback Control In General (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种基于LQR近视距的无人机空战攻击方法,属于无人机技术领域;解决了无人机在复杂动态环境下易丧失稳定性的技术问题。其技术方案为:包括以下步骤:S1、使用深度强化学习算法在离线环境中对无人机进行训练;S2、基于系统模型和目标跟踪信息,计算出最优的控制输入,根据近视距内的目标信息,选择合适的攻击策略。本发明的有益效果为:本发明能够令无人机更好地应对空战中的高机动性和快速变化的场景,使无人机能够在实时空战中寻找最优或接近最优的战术和决策,有利于提升无人机作战能力。
Description
技术领域
本发明涉及无人机技术领域,尤其涉及一种基于LQR近视距的无人机空战攻击方法。
背景技术
随着航空技术、通信技术、计算机技术和传感器技术的飞速发展,无人机的性能和功能不断提升,使其成为一种灵活多样且高效的军事工具。近视距空战是空战中最为激烈和危险的阶段,当敌方战机之间的距离较近时,直接进行目视观察和交战的情况。在近视距空战中,飞行员需要依靠自己的目视和机动技能来追击和攻击敌方战机,相比传统的有人飞行器,无人机通常具有更低的制造和运营成本,同时在作战中无需搭载人员,从而降低了飞行员的风险。
郑恩辉教授在《四旋翼无人机的二阶滑模控制》一文中指出:在实际任务中,飞机的稳定性很容易受到突然改变的命令的影响,能够为飞机提供准确和强大控制的飞行控制器设计在飞行过程中至关重要。而一些传统控制算法在复杂的非线性环境中可能难以找到全局最优解,并且在现实世界中,系统和环境的变化可能导致传统控制方法效果下降,虽然传统控制算法通常能较好地完成单一目标的优化,但在实际应用中,系统可能需要同时满足多个不同的目标和要求,难以处理多目标优化问题,因此在无人机空战领域效果不明显。
发明内容
本发明的目的在于提供一种基于LQR近视距的无人机空战攻击方法,首先使用深度强化学习算法在离线环境中对无人机进行训练,再根据无人机自身的传感器系统检测敌机状态信息,并进行实时跟踪,然后基于系统模型和目标跟踪信息,计算出最优的控制输入,最后利用近视距内的目标信息,选择合适的攻击策略。本发明增强无人机战场控制的适应力,提高容错性、作战效能。
本发明是通过如下措施实现的:一种基于LQR近视距的无人机空战攻击方法,包括以下步骤:
步骤一、使用深度强化学习算法在离线环境中对无人机进行训练,实现自适应性和鲁棒性,适应复杂动态环境;
步骤二、基于系统模型和目标跟踪信息,计算出最优的控制输入,根据近视距内的目标信息,选择合适的攻击策略,提高空战效果和智能决策能力。
进一步地,所述步骤一包含如下步骤:
1-1):用Q-learning算法学习无人机在不同状态下采取的最佳动作,通过自身传感器系统周期性感知我方无人机的态势信息sa,其中ν为我方无人机的速度信息,h为我方无人机高度态势信息,/>分别为无人机航向角,横滚角,俯仰角态势信息,以最大化长期累积奖励,构建Q值函数;
1-2):使用函数逼近方法拟合Q值函数。定义动作向量sb,其中sb=[throttle,pitch,roll],throttle表示油门控制,pitch表示俯仰角控制,roll表示横滚角控制。定义Q值函数为Q(sa,sb),它估计在状态sa下,采取动作sb的长期累积奖励,为了将Q值函数逼近为一个线性二次函数,需要定义一个特征向量phi(sa,sb)来表示状态和动作的特征,同时增加一些高次项和交叉项,引入非线性关系,即:
此外通过与环境交互,收集一系列的样本数据,包括当前状态sa、采取的动作sb、奖励r和下一个状态sa'。利用这些样本数据,可以建立一个训练集D,其中每个样本包含phi(sa,sb)和目标Q值targetQ,即:
D={(phi(sa1,sb1),targetQ1),(phi(sa2,sb2),targetQ2),...},
然后,使用线性回归来优化权重向量w,使得估计的Q值函数逼近目标Q值。线性回归的优化目标可以表示为:
其中n为样本数量。
因此通过线性函数逼近方法,将Q值函数表示为Q(sa,sb)=wT*phi(sa,sb),其中w是线性回归的权重向量,重复执行上述步骤,通过不断收集样本数据、计算目标Q值、线性回归拟合和更新Q值函数,逐渐优化Q值函数的估计。
1-3):通过自身传感器系统周期性感知我方无人机的态势信息sa,敌方态势信息sc,其中,sc为我方无人机通过摄像头传感器获得的基于视频图像的敌方态势信息,根据Minimum jerk算法进行轨迹跟踪,生成追击路径。
进一步地,所述步骤三中包含如下步骤:
2-1):将无人机的水平位置和速度为状态量:X=[p v]T,将加速度设为输入量:u=a,则可以得到离散时间系统方程:Xd(k+1)=AXd(k)+Bad(k),其中,A为4*4离散时间状态转移矩阵,B为2*4离散时间输入矩阵,/>
2-2):将所得到步骤S1所得到的Q值函数作为LQR控制器的成本函数,Q值函数在强化学习中表示了在状态sa采取动作sb时的长期累积奖励,可以视为状态的权重sa,具体表现为:将Q(sa,sb)作为Q矩阵;
2-3):设定权重矩阵R,用于表示控制输入的权重,R矩阵用于平衡状态误差和控制输入的代价,控制输入的权重可以根据实际控制需求进行调整,以实现更好的控制性能;
2-4):LQR的优化目标为:
用线性规划方法求解最小代价函数:
P=Q+ATPA-ATPB(R+BTPB)-1BTPA
得到最优的控制增益矩阵K:
K=R-1*BT*P;
2-5)在实时控制过程中,持续观测无人机的当前状态sa,计算状态误差e=satarget-sa,其中satarget是期望的目标状态。然后,根据控制增益矩阵K和状态误差e计算最优的控制输入u:
u=-K*e
2-6):将计算得到的最优控制输入u施加到无人机系统中,以实现控制目标。无人机将根据LQR控制输入调整其动作和状态,持续观测状态并进行控制。
2-7):无人机持续调整动作和状态,当实时位置满足近视距,敌方无人机在我方无人机的规划路径上时,采取碰撞形式击落敌方无人机。
与现有技术相比,本发明的有益效果为:
(1)本发明基于LQR传统控制算法引入Q-learning深度强化学习算法,使得控制器能够在离线环境中训练,并实现智能化的控制决策。控制器通过与环境交互学习优化控制策略,使得无人机能够根据实时环境状态和任务需求做出更智能、灵活的决策,适应复杂动态环境。
(2)本发明将Q-learning与LQR相结合,使得控制器能够更好地处理非线性系统,对于复杂的无人机空战问题,传统线性控制算法可能难以有效解决,而通过深度强化学习的非线性逼近,控制器可以更好地适应多样化的控制需求
(3)本发明实现了端到端学习,直接从传感器输入到控制输出,减少了传统控制方法中系统建模和设计控制器的复杂性,简化了控制系统的架构,扩展控制器的应用范围,使其更适用于无人机空战场景。
(4)本发明的方法适用战场目标跟踪控制,通过在离线环境中进行深度强化学习训练,控制器经过充分的模型训练,具备全面的感知和优化能力,提供了更强大的工具和方法,使其在复杂环境中表现更优秀,适用于各种实际控制问题和应用场景,使其能够投入近视距空战并有效应对多变的战场情况。
(5)本发明的方法具有广泛的适用性,不仅适用于无人机空战场景,还可以应用于其他控制问题和应用场景,具备自适应性、鲁棒性和全局优化能力,使得控制器在复杂环境中表现更优秀,提高系统的性能和效率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提供的基于LQR近视距的无人机空战攻击方法的整体流程图。
图2为本发明提供的基于LQR近视距的无人机空战攻击方法的态势信息图。
图3为本发明提供的基于LQR近视距的无人机空战攻击方法的离线环境下无人机训练流程图。
图4为本发明提供的基于LQR近视距的无人机空战攻击方法的LQR控制流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。当然,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
参见图1至图4,本实施例提供了一种基于深度强化学习的无人机战场目标跟踪控制方法,其中,包括以下步骤:
步骤1、使用深度强化学习算法在离线环境中对无人机进行训练;
步骤2、基于系统模型和目标跟踪信息,计算出最优的控制输入,根据近视距内的目标信息,选择合适的攻击策略。
参见图1至图4,本发明提供其技术方案实施步骤如下:
步骤1:如图2、图3所示,用Q-learning算法学习无人机在不同状态下采取的最佳动作。
1-1):通过自身传感器系统周期性感知我方无人机的态势信息sa,其中v为我方无人机的速度信息,h为我方无人机高度态势信息,/>分别为无人机航向角,横滚角,俯仰角态势信息,以最大化长期累积奖励,构建Q值函数;
1-2):使用函数逼近方法拟合Q值函数。定义动作向量sb,其中sb=[throttle,pitch,roll],throttle表示油门控制,pitch表示俯仰角控制,roll表示横滚角控制。定义Q值函数为Q(sa,sb),它估计在状态sa下,采取动作sb的长期累积奖励,为了将Q值函数逼近为一个线性二次函数,需要定义一个特征向量phi(sa,sb)来表示状态和动作的特征,同时增加一些高次项和交叉项,引入非线性关系,即:
此外通过与环境交互,收集一系列的样本数据,包括当前状态sa、采取的动作sb、奖励r和下一个状态sa'。利用这些样本数据,可以建立一个训练集D,其中每个样本包含phi(sa,sb)和目标Q值targetQ,即:
D={(phi(sa1,sb1),targetQ1),(phi(sa2,sb2),targetQ2),...},
然后,使用线性回归来优化权重向量w,使得估计的Q值函数逼近目标Q值。线性回归的优化目标可以表示为:
其中n为样本数量。
因此通过线性函数逼近方法,将Q值函数表示为Q(sa,sb)=wT*phi(sa,sb),其中w是线性回归的权重向量,重复执行上述步骤,通过不断收集样本数据、计算目标Q值、线性回归拟合和更新Q值函数,逐渐优化Q值函数的估计。
1-3):通过自身传感器系统周期性感知我方无人机的态势信息sa,敌方态势信息sc,其中,sc为我方无人机通过摄像头传感器获得的基于视频图像的敌方态势信息,根据Minimum jerk算法进行轨迹跟踪,生成追击路径。
步骤2:如图4所示,使用LQR控制算法来计算无人机的控制输入,LQR控制器的目标是最小化成本函数,使得系统的状态向目标值稳定并优化性能。在实时控制过程中,根据当前的状态误差,计算最优的控制输入,使得成本函数最小化。具体步骤如下:
2-1):无人机的水平位置和速度为状态量:X=[p v]T,将加速度设为输入量:u=a,则可以
得到离散时间系统方程:Xd(k+1)=AXd(k)+Bad(k),其中,
2-2):将所得到步骤S1所得到的Q值函数作为LQR控制器的成本函数,Q值函数在强化学习中表示了在状态sa采取动作sb时的长期累积奖励,可以视为状态的权重sa,具体表现为:将Q(sa,sb)作为Q矩阵;
2-3):设定权重矩阵R,用于表示控制输入的权重,R矩阵用于平衡状态误差和控制输入的代价,控制输入的权重可以根据实际控制需求进行调整,以实现更好的控制性能;
2-4):LQR的优化目标为:
用线性规划方法求解最小代价函数:
P=Q+ATPA-ATPB(R+BTPB)-1BTPA
得到最优的控制增益矩阵K:
K=R-1*BT*P;
2-5)在实时控制过程中,持续观测无人机的当前状态sa,计算状态误差e=satarget-sa,其中satarget是期望的目标状态。然后,根据控制增益矩阵K和状态误差e计算最优的控制输入u:
u=-K*e
2-6):将计算得到的最优控制输入u施加到无人机系统中,以实现控制目标。无人机将根据LQR控制输入调整其动作和状态,持续观测状态并进行控制。
2-7):无人机持续调整动作和状态,当实时位置满足近视距,敌方无人机在我方无人机的规划路径上时,采取碰撞形式击落敌方无人机。
本实例将Q-learning算法结合无人机建模,在离线环境中对无人机进行训练,并实时跟踪敌方目标,利用LQR控制算法计算最优控制输入。同时,通过近视距内目标信息,选择合适的攻击策略,解决了复杂系统控制、不确定性和动态环境下的控制、实时优化、端到端学习和智能控制等问题。
实施例2
本实例在模拟空战实验中,使得无人机在复杂空战场景中表现优秀。Q-learning算法使得控制器具备智能决策能力,可以根据实时环境状态调整控制策略,适应非线性系统和动态环境的变化。LQR控制算法通过优化成本函数,使得无人机飞行轨迹更加稳定和准确。此外,根据近视距内目标信息选择攻击策略,使得无人机在空战中更灵活、高效。而传统的PID控制器,由于其线性控制特性,无法适应复杂的非线性系统和动态环境,导致飞行过程中出现较大的控制误差和轨迹不稳定的情况。在高强度的空战中,传统方法可能无法满足精准攻击的要求,导致任务执行效率不高。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于LQR近视距的无人机空战攻击方法,其特征在于,包括以下步骤:
S1、使用深度强化学习算法在离线环境中对无人机进行训练;
S2、基于系统模型和目标跟踪信息,计算出最优的控制输入,根据近视距内的目标信息,选择合适的攻击策略;
所述步骤S1包括如下步骤:
S11:使用深度强化学习算法在离线环境中对无人机进行训练,使用Q-learning算法学习无人机在不同状态下采取的最佳动作;
S12:使用函数逼近方法拟合Q值函数,定义动作向量sb,其中sb=[throttle,pitch,roll],throttle表示油门控制,pitch表示俯仰角控制,roll表示横滚角控制,定义Q值函数为Q(sa,sb),它估计在状态sa下,采取动作sb的长期累积奖励;
S13:通过自身传感器系统周期性感知我方无人机的态势信息sa,敌方态势信息sc,其中,sc为我方无人机通过摄像头传感器获得的基于视频图像的敌方态势信息,根据Minimumjerk算法进行轨迹跟踪,生成追击路径;
所述步骤S2包括如下步骤:
S21:将无人机的水平位置和速度设为状态量:X=[p v]T,将加速度设为输入量:u=a,则得到离散时间系统方程:Xd(k+1)=AXd(k)+Bad(k),其中,A为4*4离散时间状态转移矩阵,B为2*4离散时间输入矩阵,/>
S22:将步骤S1所得到的Q值函数作为LQR控制器的成本函数,Q值函数在强化学习中表示了在状态sa采取动作sb时的长期累积奖励,视为状态的权重sa,将Q(sa,sb)作为Q矩阵;
S23:设定权重矩阵R,R为2*2矩阵,用于表示控制输入的权重,R矩阵用于平衡状态误差和控制输入的代价,控制输入的权重根据实际控制需求进行调整;
S24:LQR的优化目标为:
用线性规划方法求解最小代价函数:
P=Q+ATPA-ATPB(R+BTPB)-1BTPA
得到最优的控制增益矩阵K:
K=R-1*BT*P;
S25:在实时控制过程中,持续观测无人机的当前状态sa,计算状态误差e=satarget-sa,其中satarget是期望的目标状态,根据控制增益矩阵K和状态误差e计算最优的控制输入u:
u=-K*e
S26:将计算得到的最优控制输入u施加到无人机系统中,以实现控制目标,无人机将根据LQR控制输入调整其动作和状态,持续观测状态并进行控制;
S27:无人机持续调整动作和状态,当实时位置满足近视距,敌方无人机在我方无人机的规划路径上时,采取碰撞形式击落敌方无人机。
2.根据权利要求1所述的基于LQR近视距的无人机空战攻击方法,其特征在于,所述步骤S11中,通过自身传感器系统周期性感知我方无人机的态势信息sa,其中v为我方无人机的速度信息,h为我方无人机高度态势信息,ψ,/>θ分别为无人机航向角,横滚角,俯仰角态势信息,以最大化长期累积奖励,构建Q值函数。
3.根据权利要求1所述的基于LQR近视距的无人机空战攻击方法,其特征在于,所述步骤S12步骤中,为了将Q值函数逼近为一个线性二次函数,需要定义一个特征向量phi(sa,sb)来表示状态和动作的特征,同时增加一些高次项和交叉项,引入非线性关系,即:
通过与环境交互,收集一系列的样本数据,包括当前状态sa、采取的动作sb、奖励r和下一个状态sa',利用这些样本数据,建立一个训练集D,其中每个样本包含phi(sa,sb)和目标Q值targetQ,即:
D={(phi(sa1,sb1),targetQ1),(phi(sa2,sb2),targetQ2),...}。
4.根据权利要求1所述的基于LQR近视距的无人机空战攻击方法,其特征在于,所述步骤S12中,使用线性回归来优化权重向量w,使得估计的Q值函数逼近目标Q值,线性回归的优化目标表示为:
其中n为样本数量。
5.根据权利要求1所述的基于LQR近视距的无人机空战攻击方法,其特征在于,所述步骤S12中,通过线性函数逼近方法,将Q值函数表示为Q(sa,sb)=wT*phi(sa,sb),其中w是线性回归的权重向量,重复执行上述步骤S1,通过不断收集样本数据、计算目标Q值、线性回归拟合和更新Q值函数,逐渐优化Q值函数的估计。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310951344.XA CN117130379B (zh) | 2023-07-31 | 2023-07-31 | 一种基于lqr近视距的无人机空战攻击方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310951344.XA CN117130379B (zh) | 2023-07-31 | 2023-07-31 | 一种基于lqr近视距的无人机空战攻击方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117130379A CN117130379A (zh) | 2023-11-28 |
CN117130379B true CN117130379B (zh) | 2024-04-16 |
Family
ID=88851853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310951344.XA Active CN117130379B (zh) | 2023-07-31 | 2023-07-31 | 一种基于lqr近视距的无人机空战攻击方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117130379B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666631A (zh) * | 2020-06-03 | 2020-09-15 | 南京航空航天大学 | 犹豫模糊和动态深度强化学习相结合的无人机机动决策方法 |
CN112052511A (zh) * | 2020-06-15 | 2020-12-08 | 成都蓉奥科技有限公司 | 一种基于深度随机博弈的空战机动策略生成技术 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
CN112445131A (zh) * | 2019-08-30 | 2021-03-05 | 天津大学 | 一种线性系统自适应最优跟踪控制方法 |
-
2023
- 2023-07-31 CN CN202310951344.XA patent/CN117130379B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
CN112445131A (zh) * | 2019-08-30 | 2021-03-05 | 天津大学 | 一种线性系统自适应最优跟踪控制方法 |
CN111666631A (zh) * | 2020-06-03 | 2020-09-15 | 南京航空航天大学 | 犹豫模糊和动态深度强化学习相结合的无人机机动决策方法 |
CN112052511A (zh) * | 2020-06-15 | 2020-12-08 | 成都蓉奥科技有限公司 | 一种基于深度随机博弈的空战机动策略生成技术 |
Also Published As
Publication number | Publication date |
---|---|
CN117130379A (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110597061B (zh) | 一种多智能体完全分布式自抗扰时变编队控制方法 | |
AlMahamid et al. | Autonomous unmanned aerial vehicle navigation using reinforcement learning: A systematic review | |
Quintero et al. | Vision-based target tracking with a small UAV: Optimization-based control strategies | |
CN109976164B (zh) | 一种多旋翼无人机能量优化视觉覆盖轨迹规划方法 | |
CN111240345B (zh) | 基于双bp网络增强学习框架的水下机器人轨迹跟踪方法 | |
CN114330115B (zh) | 一种基于粒子群搜索的神经网络空战机动决策方法 | |
CN106527462A (zh) | 无人机控制装置 | |
CN114815882B (zh) | 一种基于强化学习的无人飞行器自主编队智能控制方法 | |
CN112684781B (zh) | 一种多智能体分布式模型预测控制方法及系统 | |
CN112824998A (zh) | 马尔可夫决策过程的多无人机协同航路规划方法和装置 | |
CN113325866A (zh) | 一种基于事件触发的微分对策协同制导方法 | |
CN111898201A (zh) | 一种空战模拟环境中的战斗机高精度自主攻击引导方法 | |
CN113741528A (zh) | 一种面向多无人机碰撞规避的深度强化学习训练加速方法 | |
CN113900449A (zh) | 多无人机轨迹规划方法、装置、无人机及存储介质 | |
CN117130379B (zh) | 一种基于lqr近视距的无人机空战攻击方法 | |
CN113126647B (zh) | 一种基于领导者跟追随者原理的协同制导方法 | |
CN117311388A (zh) | 一种无人直升机集群的编队巡逻飞行方法及装置 | |
CN116540780A (zh) | 一种基于博弈制导的无人机决策控制方法 | |
CN109857146B (zh) | 一种基于前馈和权值分配的分层无人机跟踪控制方法 | |
dos Santos et al. | Nonlinear tracking and aggressive maneuver controllers for quad-rotor robots using learning automata | |
Jiang | Binocular stereo vision intelligent control framework for the landing position of quadrotor UAV based on fuzzy control | |
CN110162084A (zh) | 基于一致性理论的飞航导弹集群系统编队控制方法 | |
Li et al. | Cooperative path planning of UAV formation based on improved artificial potential field | |
Sultan et al. | The Reachable Set of a Drone: Exploring the Position Isochrones for a Quadcopter | |
CN116974204B (zh) | 无人机跟踪控制模型训练方法、使用方法及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |