CN116481532A - 基于模仿学习的单体无人机自主运动规划方法 - Google Patents
基于模仿学习的单体无人机自主运动规划方法 Download PDFInfo
- Publication number
- CN116481532A CN116481532A CN202211315393.6A CN202211315393A CN116481532A CN 116481532 A CN116481532 A CN 116481532A CN 202211315393 A CN202211315393 A CN 202211315393A CN 116481532 A CN116481532 A CN 116481532A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- real
- track
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 239000000178 monomer Substances 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000004088 simulation Methods 0.000 claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims abstract description 26
- 230000008447 perception Effects 0.000 claims abstract description 17
- 230000001133 acceleration Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000019994 cava Nutrition 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种基于模仿学习的单体无人机自主运动规划方法。构建一个仿真环境并在仿真环境中基于现实无人机构建相应的虚拟无人机模型,包括以下步骤:步骤S1,基于仿真环境获得虚拟无人机进行轨迹规划的训练样本;步骤S2,通过训练样本训练现实无人机的神经网络;步骤S3,通过现实无人机的传感器,采集实时环境感知数据和现实无人机自身状态数据;步骤S4,结合目标点数据采用神经网络基于实时环境感知数据和现实无人机自身状态数据生成实时预测轨迹点序列;步骤S5,将实时预测轨迹点序列转化为控制量;步骤S6,控制现实无人机根据控制量进行自主运动。本方法能够很好的兼顾避障成功率和无人机飞行速度,具有极大的应用前景。
Description
技术领域
本发明涉及一种基于模仿学习的单体无人机自主运动规划方法,属于无人机技术领域。
背景技术
近年来,对于无人机的研究取得了巨大的进步,人们已经逐渐习惯利用它去完成高空摄影,灾难现场搜救,未知洞穴及火星探索等任务,目前也有很多成熟的无人机产品用于商业、农业,甚至是军事战争中。出现这种情况的原因之一是计算机芯片计算能力的快速发展,使得原本一些复杂的数学优化问题可以在很短的时间内被求解出来。同时,在运动规划领域,一些新的规划方法的出现,可以让机器人可以在更为复杂的环境下更好的完成特定任务。这些较为先进的算法部署在了各类机器人上,并取得了很好的避障效果。目前在大多数情况下,无人机的操纵都是由具有一定经验的人类飞手通过远程遥控无人机完成的,此时的无人机不具备自主运动规划能力。因此,提升无人机的自主性成为了很多学者的研究目标,其中运动规划领域需要在有限时间和机载计算资源的情况下,计算出安全的,满足动力学约束可行轨迹的方法。
当前存在的无人机自主运动规划方法,大多数是按照顺序执行环境感知建图、运动规划、决策控制和控制指令传递给执行机构这四个子任务模块。所有的子模块顺序执行时,难免会导致总处理时间增加,必须走完整个流程才可以让无人机避开障碍物。特别是在感知建图环节,需要对原始感知信息进一步处理,这无疑会大大增加算法的总体处理时间,因此无法兼顾避障成功率和飞行速度。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种基于模仿学习的单体无人机自主运动规划方法。
本发明提供了一种基于模仿学习的单体无人机自主运动规划方法,具有这样的特征,构建一个仿真环境并在仿真环境中基于现实无人机构建相应的虚拟无人机模型,包括以下步骤:步骤S1,基于仿真环境获得虚拟无人机进行轨迹规划的训练样本,训练样本包括训练属性样本和标签;步骤S2,通过训练样本训练现实无人机的神经网络;步骤S3,通过现实无人机的传感器,采集实时环境感知数据和现实无人机自身状态数据;步骤S4,结合目标点数据采用神经网络基于实时环境感知数据和现实无人机自身状态数据生成实时预测轨迹点序列;步骤S5,将实时预测轨迹点序列生成轨迹并优化得到预测轨迹曲线,对预测轨迹曲线进行均匀B-Spline曲线参数化获得控制量;步骤S6,控制现实无人机根据控制量进行自主运动。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,步骤S1包括以下子步骤:步骤S1-1,在仿真环境中,将虚拟无人机初始位置作为起点,将目的地作为终点,连接起点和终点生成初始轨迹,根据机器人动力学混合A*算法构建基于初始轨迹的全局轨迹,并对局部轨迹进行优化得到优化轨迹,再经过均匀B-Spline曲线参数化得到预测轨迹点序列作为标签;步骤S1-2,将虚拟无人机的实时环境感知数据和自身状态数据作为训练属性样本。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,在步骤S1-2中,虚拟无人机的实时环境感知数据包括虚拟无人机跟随优化轨迹的实时环境深度图像数据,虚拟无人机的自身状态数据包括当前时刻虚拟无人机的三维位置、偏航角、旋转矩阵、速度和加速度数据。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,在步骤S2中,神经网络将训练属性样本分为深度图像分支和无人机状态分支并生成对应的特征向量,将特征向量输入模仿学习网络模型获得实时预测轨迹点序列。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,深度图像分支包括MobileNet-V3网络。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,神经网络包括三个损失函数,该三个损失函数为:标签与实时预测轨迹点之间的对比差值损失、无人机自身实时预测轨迹与环境中最近障碍物的距离损失和实时预测轨迹点之间保持固定距离的损失。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,通过虚拟无人机的实时环境感知数据获得环境点云信息,通过环境点云信息得到无人机自身实时预测轨迹与环境中最近障碍物的距离损失。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,在步骤S3中,实时环境感知数据包括现实无人机飞行过程中的实时环境深度图像数据和目的地的指向数据,现实无人机自身状态数据包括当前时刻现实无人机的三维位置、偏航角、旋转矩阵、速度和加速度数据。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,步骤S5包括以下子步骤:
步骤S5-1,对实时预测轨迹点序列构建非线性化问题,求解得到预测轨迹曲线,非线性化问题的惩罚项包括轨迹光滑性和动力学可行项;步骤S5-2,对预测轨迹曲线进行均匀B-Spline曲线参数化,获得位置、速度和加速度关于时间的控制量。
在本发明提供的基于模仿学习的单体无人机自主运动规划方法中,还可以具有这样的特征:其中,在步骤S6中,若现实无人机在自主运动过程中出现满足紧急停止的情况,则执行紧急停止的决策,控制现实无人机紧急停止。
发明的作用与效果
根据本发明所涉及的基于模仿学习的单体无人机自主运动规划方法,构建一个仿真环境并在仿真环境中基于现实无人机构建相应的虚拟无人机模型,因为首先基于仿真环境获得虚拟无人机进行轨迹规划的训练样本,训练样本包括训练属性样本和标签,其次通过训练样本训练现实无人机的神经网络,然后通过现实无人机的传感器,采集实时环境感知数据和现实无人机自身状态数据,接着结合目标点数据采用神经网络基于实时环境感知数据和现实无人机自身状态数据生成实时预测轨迹点序列,再将实时预测轨迹点序列生成轨迹并优化得到预测轨迹曲线,对预测轨迹曲线进行均匀B-Spline曲线参数化获得控制量,最后控制现实无人机根据控制量进行自主运动。所以,本发明的基于模仿学习的单体无人机自主运动规划方法能兼顾避障成功率和无人机飞行速度。
附图说明
图1是本发明的实施例中基于模仿学习的单体无人机自主运动规划方法的技术原理图;
图2是本发明的实施例中基于模仿学习的单体无人机自主运动规划方法的流程示意图;以及
图3是本发明的实施例中神经网络训练过程的示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下实施例结合附图对本发明基于模仿学习的单体无人机自主运动规划方法作具体阐述。
图1是本发明的实施例中基于模仿学习的单体无人机自主运动规划方法的技术原理图。
如图1所示,本发明的基于模仿学习的单体无人机自主运动规划方法基于如下原理实现:专家系统构建仿真环境和虚拟无人机模型,基于虚拟无人机初始位置即起点和目的点即终点生成轨迹再经均匀B-Splines曲线参数化获得预测轨迹点序列作为标签,将虚拟无人机跟随优化轨迹时的虚拟无人机自身状态数据和实时环境感知数据作为训练属性样本,将标签和训练属性样本作为训练样本训练现实无人机学生系统的神经网络,将现实无人机自身状态数据、实时环境感知数据和目标点即终点数据输入训练好的神经网络中,通过前向传播得到实时预测轨迹点序列,再将实时预测轨迹点序列生成轨迹曲线,通过均匀B-Splines曲线参数化获得控制量,根据控制量控制现实无人机自主运动。
在机器人操作系统ROS的三维可视化工具Rviz平台中构建一个仿真环境并在仿真环境中基于现实无人机构建相应的虚拟无人机模型。
图2是本发明的实施例中基于模仿学习的单体无人机自主运动规划方法的流程示意图。
如图2所示,本实施例提供一种基于模仿学习的单体无人机自主运动规划方法包括以下步骤:
步骤S1,基于仿真环境获得虚拟无人机进行轨迹规划的训练样本,训练样本包括训练属性样本和标签。
其中,步骤S1包括以下子步骤:
步骤S1-1,在仿真环境中,将虚拟无人机初始位置作为起点,将目的地作为终点,连接起点和终点生成初始轨迹,根据机器人动力学混合A*算法构建基于初始轨迹的全局轨迹,并对局部轨迹进行优化得到优化轨迹,再经过均匀B-Spline曲线参数化得到预测轨迹点序列作为标签;步骤S1-2,将虚拟无人机的实时环境感知数据和自身状态数据作为训练属性样本。
其中,局部轨迹的优化是构建一个非线性优化问题,在惩罚项中包括一些约束项,如考虑到轨迹的光滑性、动力学可行项惩罚、轨迹与环境中障碍物的碰撞惩罚项等。光滑性由运动过程中的加速度及加速度的导数平方和构成。动力学不可行项惩罚是确保轨迹在每个维度上的高阶导数存在且连续,否则轨迹会有动力学高阶量的突变比如速度或加速度不连续,最终导致执行器有损伤。环境障碍物的碰撞惩罚项考虑一种将轨迹推离出局部障碍物的方法,通过求解障碍物周边需要改进段的凸优化问题来确定。
虚拟无人机在跟随优化轨迹的过程中,得到深度为Float64格式且大小为640*480的实时深度图像信息即实时感知数据和当前时刻的虚拟无人机自身状态数据,包括三维位置信息、偏航角、旋转矩阵系数、速度和加速度等。
步骤S2,通过训练样本训练现实无人机的神经网络。
图3是本发明的实施例中神经网络训练过程的示意图。
如图3所示,神经网络将训练属性样本分为深度图像分支和无人机状态分支,并根据深度图像数据得到环境点云信息便于通过KD树查询到距离当前无人机周围最近的障碍物点云信息,对于第一个深度图像分支,使用预先训练好的MobileNet-V3网络从经过处理维度为(Batchsize,224,224,3)的深度图像中有效的提取特征,其中维数是(Batchsize,),Batchsize即图3中B指的是每批数据量的大小,然后通过一维卷积处理这些特征,以生成大小为32的多特征向量,对无人机状态分支,把维度为(Batchsize,21)的无人机状态数据包括三维位置、角速度、线速度、旋转矩阵系数、目标方向等信息,由具有[64,32,32,32]个隐藏节点和以LeakyReLU为激活函数的四层感知器进行处理,再次使用一维卷积为该属性创建32维特征向量,然后在模仿学习网络模型中把这两个特征分支分别经过一维卷积并且结合在一起后,通过另一个具有[64,128,128]个隐藏节点和LeakyReLU激活的四层感知器处理,输出一条维度为(Batchsize,60)的实时预测轨迹点序列,其中60代表预测出20个轨迹点的三维坐标,训练时采用Adam优化器,每个最小批的数量设置为32,采用学习率逐渐衰减的训练策略。
在神经网络中包含三个损失函数:标签与实时预测轨迹点之间的对比差值损失、无人机自身实时预测轨迹与环境中最近障碍物的距离损失和实时预测轨迹点之间保持固定距离的损失,用于度量模型的预测值与真实值(label)的差异程度,所有损失函数相加得到总损失,总损失越小训练效果越好。标签与实时预测轨迹点之间的对比差值损失会考虑标签与该神经网络前向传播的输出轨迹之间的区别,无人机自身实时预测轨迹与环境中最近障碍物的距离损失会考虑前向传播的输出轨迹与当前位置处环境点云中障碍物的距离,实时预测轨迹点之间保持固定距离的损失是衡量自身通过神经网络预测的各个预测轨迹点之间的距离是否均匀。
步骤S3,通过现实无人机的传感器,采集实时环境感知数据和现实无人机自身状态数据。
其中,实时环境感知数据包括现实无人机飞行过程中的深度为Float64格式且大小为640*480的实时环境深度图像数据和目的地的指向数据,现实无人机自身状态数据包括当前时刻现实无人机的三维位置、偏航角、旋转矩阵、速度和加速度数据。
步骤S4,结合目标点数据采用神经网络基于实时环境感知数据和现实无人机自身状态数据生成实时预测轨迹点序列。
步骤S5,将实时预测轨迹点序列生成轨迹并优化得到预测轨迹曲线,对预测轨迹曲线进行均匀B-Spline曲线参数化获得控制量。
其中,步骤S5包括以下子步骤:
步骤S5-1,对实时预测轨迹点序列构建非线性化问题,求解得到预测轨迹曲线,非线性化问题的惩罚项包括轨迹光滑性和动力学可行项,光滑性由运动过程中的加速度及加速度的导数平方和构成。动力学可行项惩罚是为了确保轨迹在每个维度上的高阶导数存在且连续,否则轨迹的动力学高阶量的突变(如速度或加速度不连续)将导致执行器有损伤。
步骤S5-2,对预测轨迹曲线进行均匀B-Spline曲线参数化,获得位置、速度和加速度关于时间的控制量。
步骤S6,控制现实无人机根据控制量进行自主运动。
其中,现实无人机采用决策树策略,根据当前情况分别执行跟随预测轨迹、紧急停止等决策,如现实无人机在自主运动过程中出现满足紧急停止的情况,则执行紧急停止的决策,控制现实无人机紧急停止。
实施例的作用与效果
根据本实施例所涉及的基于模仿学习的单体无人机自主运动规划方法,构建一个仿真环境并在仿真环境中基于现实无人机构建相应的虚拟无人机模型,首先基于仿真环境获得虚拟无人机进行轨迹规划的训练样本,训练样本包括训练属性样本和标签,其次通过训练样本训练现实无人机的神经网络,然后通过现实无人机的传感器,采集实时环境感知数据和现实无人机自身状态数据,接着结合目标点数据采用神经网络基于实时环境感知数据和现实无人机自身状态数据生成实时预测轨迹点序列,再将实时预测轨迹点序列生成轨迹并优化得到预测轨迹曲线,对预测轨迹曲线进行均匀B-Spline曲线参数化获得控制量,最后控制现实无人机根据控制量进行自主运动。利用专家系统得到训练样本,在学生系统中采用训练样本对神经网络进行训练,输入现实无人机的自身状态数据、实时环境感知数据和目标点数据由训练好的神经网络前向传播得到预测轨迹曲线可以很好地解决兼顾避障成功率和无人机飞行速度的问题。总之,本方法能够很好的兼顾避障成功率和无人机飞行速度,具有极大的应用前景。
上述实施方式为本发明的优选案例,并不用来限制本发明的保护范围。
Claims (10)
1.一种基于模仿学习的单体无人机自主运动规划方法,其特征在于,构建一个仿真环境并在仿真环境中基于现实无人机构建相应的虚拟无人机模型,包括以下步骤:
步骤S1,基于所述仿真环境获得所述虚拟无人机进行轨迹规划的训练样本,所述训练样本包括训练属性样本和标签;
步骤S2,通过所述训练样本训练所述现实无人机的神经网络;
步骤S3,通过所述现实无人机的传感器,采集实时环境感知数据和现实无人机自身状态数据;
步骤S4,结合目标点数据采用所述神经网络基于所述实时环境感知数据和所述现实无人机自身状态数据生成实时预测轨迹点序列;
步骤S5,将所述实时预测轨迹点序列生成轨迹并优化得到预测轨迹曲线,对所述预测轨迹曲线进行均匀B-Spline曲线参数化获得控制量;
步骤S6,控制所述现实无人机根据所述控制量进行自主运动。
2.根据权利要求1所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,所述步骤S1包括以下子步骤:
步骤S1-1,在所述仿真环境中,将虚拟无人机初始位置作为起点,将目的地作为终点,连接所述起点和所述终点生成初始轨迹,根据机器人动力学混合A*算法构建基于所述初始轨迹的全局轨迹,并对局部轨迹进行优化得到优化轨迹,再经过均匀B-Spline曲线参数化得到预测轨迹点序列作为所述标签;
步骤S1-2,将所述虚拟无人机的实时环境感知数据和自身状态数据作为所述训练属性样本。
3.根据权利要求2所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,在所述步骤S1-2中,所述虚拟无人机的实时环境感知数据包括所述虚拟无人机跟随所述优化轨迹的实时环境深度图像数据,所述虚拟无人机的自身状态数据包括当前时刻所述虚拟无人机的三维位置、偏航角、旋转矩阵、速度和加速度数据。
4.根据权利要求1所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,在所述步骤S2中,所述神经网络将所述训练属性样本分为深度图像分支和无人机状态分支并生成对应的特征向量,将所述特征向量输入模仿学习网络模型获得所述实时预测轨迹点序列。
5.根据权利要求4所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,所述深度图像分支包括MobileNet-V3网络。
6.根据权利要求4所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,所述神经网络包括三个损失函数,该三个损失函数为:所述标签与所述实时预测轨迹点之间的对比差值损失、无人机自身实时预测轨迹与环境中最近障碍物的距离损失和所述实时预测轨迹点之间保持固定距离的损失。
7.根据权利要求6所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,通过所述虚拟无人机的实时环境感知数据获得环境点云信息,通过所述环境点云信息得到所述无人机自身实时预测轨迹与环境中最近障碍物的距离损失。
8.根据权利要求1所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,在所述步骤S3中,所述实时环境感知数据包括所述现实无人机飞行过程中的实时环境深度图像数据和目的地的指向数据,所述现实无人机自身状态数据包括当前时刻所述现实无人机的三维位置、偏航角、旋转矩阵、速度和加速度数据。
9.根据权利要求1所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,所述步骤S5包括以下子步骤:
步骤S5-1,对所述实时预测轨迹点序列构建非线性化问题,求解得到所述预测轨迹曲线,所述非线性化问题的惩罚项包括轨迹光滑性和动力学可行项;
步骤S5-2,对所述预测轨迹曲线进行均匀B-Spline曲线参数化,获得位置、速度和加速度关于时间的所述控制量。
10.根据权利要求1所述的基于模仿学习的单体无人机自主运动规划方法,其特征在于,
其中,在所述步骤S6中,若所述现实无人机在自主运动过程中出现满足紧急停止的情况,则执行紧急停止的决策,控制所述现实无人机紧急停止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211315393.6A CN116481532A (zh) | 2022-10-26 | 2022-10-26 | 基于模仿学习的单体无人机自主运动规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211315393.6A CN116481532A (zh) | 2022-10-26 | 2022-10-26 | 基于模仿学习的单体无人机自主运动规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116481532A true CN116481532A (zh) | 2023-07-25 |
Family
ID=87222032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211315393.6A Pending CN116481532A (zh) | 2022-10-26 | 2022-10-26 | 基于模仿学习的单体无人机自主运动规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116481532A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117406771A (zh) * | 2023-10-17 | 2024-01-16 | 武汉大学 | 一种基于四旋翼无人机的高效自主探索方法、系统及设备 |
CN117922561A (zh) * | 2023-12-29 | 2024-04-26 | 浙江中水数建科技有限公司 | 基于三维模型的智能碾压轨迹纠偏系统及方法 |
-
2022
- 2022-10-26 CN CN202211315393.6A patent/CN116481532A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117406771A (zh) * | 2023-10-17 | 2024-01-16 | 武汉大学 | 一种基于四旋翼无人机的高效自主探索方法、系统及设备 |
CN117406771B (zh) * | 2023-10-17 | 2024-04-30 | 武汉大学 | 一种基于四旋翼无人机的高效自主探索方法、系统及设备 |
CN117922561A (zh) * | 2023-12-29 | 2024-04-26 | 浙江中水数建科技有限公司 | 基于三维模型的智能碾压轨迹纠偏系统及方法 |
CN117922561B (zh) * | 2023-12-29 | 2024-07-30 | 浙江中水数建科技有限公司 | 基于三维模型的智能碾压轨迹纠偏系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ding et al. | Epsilon: An efficient planning system for automated vehicles in highly interactive environments | |
CN111142557B (zh) | 无人机路径规划方法、系统、计算机设备及可读存储介质 | |
CN116481532A (zh) | 基于模仿学习的单体无人机自主运动规划方法 | |
Huang et al. | Deductive reinforcement learning for visual autonomous urban driving navigation | |
Liu et al. | Reinforcement-tracking: An effective trajectory tracking and navigation method for autonomous urban driving | |
Liu et al. | ReinforcementDriving: Exploring trajectories and navigation for autonomous vehicles | |
Heinrich | Planning universal on-road driving strategies for automated vehicles | |
Wolek et al. | Model-based path planning | |
Grando et al. | Deep reinforcement learning for mapless navigation of unmanned aerial vehicles | |
Lee et al. | RRT-based path planning for fixed-wing UAVs with arrival time and approach direction constraints | |
CN115743178A (zh) | 一种基于场景自适应识别的自动驾驶方法及系统 | |
Xiang et al. | Autonomous eVTOL: A summary of researches and challenges | |
Sun et al. | Interactive left-turning of autonomous vehicles at uncontrolled intersections | |
Chen et al. | Deep reinforcement learning of map-based obstacle avoidance for mobile robot navigation | |
Khanum et al. | Involvement of deep learning for vision sensor-based autonomous driving control: a review | |
Wu et al. | Multi-objective reinforcement learning for autonomous drone navigation in urban areas with wind zones | |
Song et al. | Surface path tracking method of autonomous surface underwater vehicle based on deep reinforcement learning | |
Elallid et al. | Deep Reinforcement Learning for Autonomous Vehicle Intersection Navigation | |
CA3212795A1 (en) | Motion forecasting for autonomous systems | |
Lu et al. | LPNet: A reaction-based local planner for autonomous collision avoidance using imitation learning | |
CN115164890A (zh) | 一种基于模仿学习的群体无人机自主运动规划方法 | |
Yu et al. | Mavrl: Learn to fly in cluttered environments with varying speed | |
Coad et al. | Safe trajectory planning using reinforcement learning for self driving | |
Miera et al. | LiDAR-based drone navigation with reinforcement learning | |
YU et al. | Vehicle Intelligent Driving Technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |