CN110083165B - 一种机器人在复杂狭窄环境下路径规划方法 - Google Patents

一种机器人在复杂狭窄环境下路径规划方法 Download PDF

Info

Publication number
CN110083165B
CN110083165B CN201910425677.2A CN201910425677A CN110083165B CN 110083165 B CN110083165 B CN 110083165B CN 201910425677 A CN201910425677 A CN 201910425677A CN 110083165 B CN110083165 B CN 110083165B
Authority
CN
China
Prior art keywords
node
obstacle
target
path
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910425677.2A
Other languages
English (en)
Other versions
CN110083165A (zh
Inventor
邹启杰
刘世慧
张跃
侯英鹂
熊康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University
Original Assignee
Dalian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University filed Critical Dalian University
Priority to CN201910425677.2A priority Critical patent/CN110083165B/zh
Publication of CN110083165A publication Critical patent/CN110083165A/zh
Application granted granted Critical
Publication of CN110083165B publication Critical patent/CN110083165B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人在复杂狭窄环境下路径规划方法,将RRT‑Connect算法和强化学习算法相结合,保留了随机树的一定随机性,并根据障碍物密度程度选择合适的步长,既可以实现机器人在障碍物密集环境快速随机探索,在障碍物稀疏环境快速通过,并增加了随机树分布的导向性,提高收敛速度,又具能够在与环境的交互过程中提升规划性能,使规划出的路径接近最优路径,避免陷入局部最小值;本发明改进算法与原始标准算法相比,规划出来的路径更优,耗费时间更少。

Description

一种机器人在复杂狭窄环境下路径规划方法
技术领域
本发明涉及一种路径规划方法,具体说是一种机器人在复杂狭窄环境下路径规划方法。
背景技术
路径规划是智能机器人研究领域的一个重要方向,机器人的路径规划分为全局路径规划和局部路径规划。目前常用的局部路径规划方法主要基于人工势场法,栅格法等,并且结合遗传算法、模糊逻辑算法、神经网络等智能搜索算法,以提高搜索效率、系统鲁棒性以及适应能力。
模糊方法是在线规划中通常采用的一种规划方法,包括建模和局部规划。但模糊逻辑方法模糊逻辑规则需要依赖人为经验,制约了该算法在机器人路径规划领域的广泛应用。
遗传算法是模拟自然界遗传机制和生物进化论而形成的一种过程搜索最优解的算法,在机器人路径规划研究中应用较多,但遗传算法适应广泛环境的能力弱,且模型进化速度很难掌控,因此算法具有一定的局限性,另外,遗传算法容易陷入局部最优解,导致算法出现早熟现象。
神经网络方法利用类似于大脑神经网络突触连接的结构来对信息进行表达和处理,但神经网络在学习过程中需要对大量样本进行训练,需要人为设定较多的经验参数,因此应用在机器人路径规划领域时存在一定的局限性。
发明内容
针对现有技术存在上述缺陷,本申请提供了一种机器人在复杂狭窄环境下路径规划方法,利用结合强化学习的RRT-Connect(RL-RRT-C)算法解决路径规划问题,不仅能够与环境交互,提高移动机器人在未知环境中的自适应性和自学习能力,还能广泛应用于各种复杂障碍物以及狭窄的环境。
为实现上述目的,本申请的技术方案为:一种机器人在复杂狭窄环境下路径规划方法,具体包括如下步骤:
步骤一:初始化地图信息;
步骤二:创建双树;
步骤三:基于SARSA算法随机采样节点xrand
步骤四:搜索最近邻节点xnear
步骤五:搜索扩展新节点xnew
步骤六,扩展双树;
步骤七,反向搜索规划最终路径。
进一步的,在步骤一中,初始化地图信息,导入环境地图,包括环境边界和大小不一的障碍物信息,定义二维平面上X∈R2为配置节点空间,X的元素称为配置节点;同时二维空间中分布着有限静态障碍物区域集合
Figure BDA0002067411430000021
则无障碍物区域为Xfree:=X-Xobs,R2为二维空间。
进一步的,在步骤二中,初始化双树T1和T2,根据机器人的相对起始点,配置节点xinit(xs,ys)及偏角θs,即起始点的位姿信息Xinit(xs,yss),再配置相对目标节点xgoal(xg,yg)及偏角θg,即目标点的位姿信息Xgoal(xg,ygg),以及根据障碍物密集情况的不同选择不同的步长ρ1、ρ2
进一步的,在步骤三中,同时以初始点Xinit(xs,yss)和目标点Xgoal(xg,ygg)为起点分别扩展随机树T1和T2,采用强化学习SARSA算法学习避障策略在无障碍区域内生成随机采样点xrand,,设R:∑free→R≥0为回报函数,将每个无碰撞轨迹映射到非负回报,降低搜索的随机性,提高搜索效率;
随机节点xrand是根据扩展函数选择随机树的新节点,节点回报函数R(x)通过计算每个节点到目标和障碍物的回报值来影响随机节点的选取,根据障碍物的出现与否设置两种不同的权值,当出现障碍物则躲避障碍物动作函数优先级最高,先保证安全,其次是目标动作函数,再考虑导向目标,选择的原则是使受到正的奖惩的概率增大;这样设计既可绕过障碍物,又可朝着目标点方向生长。R(x)公式表示为:
Figure BDA0002067411430000031
其中,
Figure BDA0002067411430000032
为避障动作回报值,
Figure BDA0002067411430000033
目标动作回报值,k是动作回报函数的权值,取值范围0到1,k越接近1则表示越重视躲避障碍物情况,k越接近0则表示越重视目标回报。
xt表示节点当前位置,如图3所示,当xt<d1时,表示会发生碰撞,会获得
Figure BDA0002067411430000034
R=-2k-(1-k)=-k-1的回报值;当d1<xt<d2时,表示需要先躲避障碍物,执行避障动作,如果离目标越来越近即
Figure BDA0002067411430000035
会获得R=2k+(1-k)=k+1的回报值;当d2<xt时,表示节点周围没有障碍物,执行导向目标动作,如果到达目标点时,会获得
Figure BDA0002067411430000036
最大回报值,其他情况会获得
Figure BDA0002067411430000037
的回报值;即
Figure BDA0002067411430000041
随机树节点的扩展受到随机采样点的影响,通过以上方式的处理,随机采样点不再是在可行域内随机分布,而是具有一定的趋向性,从而路径规划的随机性受到一定的限制,使得规划性能和规划质量得到提高。
进一步的,在步骤五中,在选择新的点xnew时,首先根据xnear找到随机树上Q值介于Q*(s,a)-ΔQ到Q*(s,a)的节点,然后通过计算从节点中选择符合机器人角度约束条件|θ(x)|≤θmax以及满足避障条件的节点,最后根据障碍物密集情况的可变步长ρ1、ρ2,选择最近邻节点xnear的点即xnew,其中Q*(s,a)为最佳Q值,ΔQ为Q值变化范围;
扩展新的点xnew是根据E(x)扩展函数,E(x)包含R(x)节点回报函数,L(x)目标距离函数以及角度约束条件θ,表示为如下:
E(x)=R(x)+L(x)+θ (3)
L(x)目标距离函数通过计算随机扩展点与当前目标节点的距离来影响新节点的选取,L(x)公式表示为:
Figure BDA0002067411430000042
其中,ρ为随机树生长的可变步长,xrand和xnear分别表示随机扩展点和最近临节点。
当环境中的障碍物密集时,ρ为ρ1;当环境中的障碍物稀疏时,ρ为ρ2
将式(2)、(4)代入式(3)中得到:
Figure BDA0002067411430000051
根据式(4)得到引入E(x)扩展函数后新节点xnew的生成公式:
Figure BDA0002067411430000052
E(x)扩展函数对于扩展树的生长起着关键的影响。一方面,当节点处于无障碍物的环境时,目标动作回报函数比重会增大,这样节点移动在很大程度上被L(x)目标距离函数所影响,每走一步都是高效的。另一方面,当节点与障碍物距离较近时,减小目标动作回报函数影响比重,增大避障动作回报函数影响比重,使扩展树迅速绕开障碍物,这样节点在很大程度上被R(x)节点回报函数所影响,并且旋转角度符合约束,节点得以平稳向无障碍区域移动。扩展函数为机器人的路径重规划提供了高效、准确的导向信息。
进一步的,在步骤七中,反向搜索规划最终路径,直到两颗随机树新节点在状态区域范围内相遇,路径规划完成,即在σ:[0,1]→Xfree找到从初始配置σ(0)=xinit开始并到达目标σ(1)=xgoal配置的无碰撞路径;用公式表示为
Figure BDA0002067411430000053
最优运动规划问题是找到解决运动规划问题的无碰撞路径σ*:[0,1]→Xfree,并最小化回报函数R(·),即,
Figure BDA0002067411430000054
R(σ*)为最优无碰撞路径,R(σ′)为无碰撞路径。
本发明由于采用以上技术方案,能够取得如下的技术效果:本发明在路径规划算法方面,解决了复杂障碍物狭窄环境下的机器人局部路径动态重规划问题,采用强化学习驱动的规划思想,学习避障策略,将预测控制与反馈机制有效结合起来,其在复杂障碍物狭窄环境下路径规划应用中具有高效性、有效性和适应性。
附图说明
图1为本方法流程图;
图2为RL-RRT-C算法具体流程图;
图3为距离位置示意图;
图4为转向角约束图;
图5为两种算法在障碍物稀疏狭窄通道性能比较图;
图6为两种算法在障碍物密集狭窄通道性能比较图;
图7为不同环境下RRT-Connect算法和RL-RRT-C算法算法有效节点比较图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细的描述:以此为例对本申请做进一步的描述说明。
本申请采用RRT-RL-C算法利用SARSA(λ)方法,在节点扩展时选择高回报的节点,新节点总是处于靠近目标点且性能评价好的位置,使得随机搜索树在每一次循环中作用发挥到最大,并且扩展树分支叶子节点数少、迭代次数少、规划路径短,在复杂的配置空间中更快寻找最优或近似最优解。RRT-Connect树在空间中是随机扩展的,因而存在父节点与子节点相对位置的随机性,然而考虑到机器人前进过程中的稳定性,RL-RRT-C算法引入路径转角的阈值,它是由三个相邻节点的位置关系加以约束。在RRT中取三个相邻的节点xnew,xnear,以及xnear的父节点xinit,则三个节点可构成两个向量,分别为向量
Figure BDA0002067411430000063
向量
Figure BDA0002067411430000061
取向量
Figure BDA0002067411430000062
构成的夹角为θ,如图4转向角约束所示。在不同的环境地图中,障碍物分布也不同,当环境地图中的障碍物分布密集时,即ρ1=15;当环境地图中的障碍物分布稀疏时,随机树的扩展应当高效,步长的选取应该较长的,即ρ2=30。
如图5-6所示,对密集程度不同的障碍物环境、狭窄通道时本方法的优势;
表1 RRT-Connect和RL-RRT-C算法不同环境节点数比较
Figure BDA0002067411430000071
表2 RRT-Connect和RL-RRT-C算法不同环境性能比较
Figure BDA0002067411430000072
本发明在路径规划算法方面,应用RRT-RL-C算法解决复杂障碍物狭窄环境下的机器人局部路径动态重规划问题,采用强化学习驱动的规划思想,学习避障策略,将预测控制与反馈机制有效结合起来,并将其和其他路径规划算法做仿真对比,如表1、2和图7所示,验证了其在起复杂障碍物狭窄环境下路径规划应用中的高效性、有效性和适应性。
以上所述,仅为本发明创造较佳的具体实施方式,但本发明创造的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明创造披露的技术范围内,根据本发明创造的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明创造的保护范围之内。

Claims (4)

1.一种机器人在复杂狭窄环境下路径规划方法,其特征在于,具体包括如下步骤:
步骤一:初始化地图信息;
步骤二:创建双树;
步骤三:基于SARSA算法随机采样节点xrand
步骤四:搜索最近邻节点xnear
步骤五:搜索扩展新节点xnew
步骤六,扩展双树;
步骤七,反向搜索规划最终路径;
在步骤二中,初始化双树T1和T2,根据机器人的相对起始点,配置节点xinit(xs,ys)及偏角θs,即起始点的位姿信息Xinit(xs,yss),再配置相对目标节点xgoal(xg,yg)及偏角θg,即目标点的位姿信息Xgoal(xg,ygg),以及根据障碍物密集情况的不同选择不同的步长ρ1、ρ2
在步骤三中,同时以初始点Xinit(xs,yss)和目标点Xgoal(xg,ygg)为起点分别扩展随机树T1和T2,采用强化学习SARSA算法学习避障策略在无障碍区域内生成随机采样点xrand,设R:∑free→R≥0为回报函数,将每个无碰撞轨迹映射到非负回报;
随机节点xrand是根据扩展函数选择随机树的新节点,节点回报函数R(x)通过计算每个节点到目标和障碍物的回报值来影响随机节点的选取,根据障碍物的出现与否设置两种不同的权值,当出现障碍物则躲避障碍物动作函数优先级最高,其次是目标动作函数,再考虑导向目标,选择的原则是使受到正的奖惩的概率增大;R(x)公式表示为:
Figure FDA0003289450400000021
其中,
Figure FDA0003289450400000022
为避障动作回报值,
Figure FDA0003289450400000023
目标动作回报值,k是动作回报函数的权值,取值范围0到1,k越接近1则表示越重视躲避障碍物情况,k越接近0则表示越重视目标回报;
设xt表示节点当前位置,当xt<d1时,表示会发生碰撞,会获得
Figure FDA0003289450400000024
rt e=-1,R=-2k-(1-k)=-k-1的回报值;当d1<xt<d2时,表示需要先躲避障碍物,执行避障动作,如果离目标越来越近即
Figure FDA0003289450400000025
rt e=1,会获得R=2k+(1-k)=k+1的回报值;当d2<xt时,表示节点周围没有障碍物,执行导向目标动作,如果到达目标点时,会获得
Figure FDA0003289450400000026
最大回报值,其他情况会获得
Figure FDA0003289450400000027
的回报值;即
Figure FDA0003289450400000028
2.根据权利要求1所述一种机器人在复杂狭窄环境下路径规划方法,其特征在于,在步骤一中,初始化地图信息,导入环境地图,包括环境边界和大小不一的障碍物信息,定义二维平面上X∈R2为配置节点空间,X的元素称为配置节点;同时二维空间中分布着有限静态障碍物区域集合
Figure FDA0003289450400000029
则无障碍物区域为Xfree:=X-Xobs,R2为二维空间。
3.根据权利要求1所述一种机器人在复杂狭窄环境下路径规划方法,其特征在于,在步骤五中,在选择新的点xnew时,首先根据xnear找到随机树上Q值介于Q*(s,a)-ΔQ到Q*(s,a)的节点,然后通过计算从节点中选择符合机器人角度约束条件|θ(x)|≤θmax以及满足避障条件的节点,最后根据障碍物密集情况的可变步长ρ1、ρ2,选择最近邻节点xnear的点即xnew,其中Q*(s,a)为最佳Q值,ΔQ为Q值变化范围;
扩展新的点xnew是根据E(x)扩展函数,E(x)包含R(x)节点回报函数,L(x)目标距离函数以及角度约束条件θ,表示为如下:
E(x)=R(x)+L(x)+θ (3)
L(x)目标距离函数通过计算随机扩展点与当前目标节点的距离来影响新节点的选取,L(x)公式表示为:
Figure FDA0003289450400000031
其中,ρ为随机树生长的可变步长,xrand和xnear分别表示随机扩展点和最近临节点;
当环境中的障碍物密集时,ρ为ρ1;当环境中的障碍物稀疏时,ρ为ρ2
将式(1)、(4)代入式(3)中得到:
Figure FDA0003289450400000032
根据式(4)得到引入E(x)扩展函数后新节点xnew的生成公式:
Figure FDA0003289450400000033
4.根据权利要求1所述一种机器人在复杂狭窄环境下路径规划方法,其特征在于,在步骤七中,反向搜索规划最终路径,直到两颗随机树新节点在状态区域范围内相遇,路径规划完成,即在σ:[0,1]→Xfree找到从初始配置σ(0)=xinit开始并到达目标σ(1)=xgoal配置的无碰撞路径;用公式表示为
Figure FDA0003289450400000034
最优运动规划问题是找到解决运动规划问题的无碰撞路径σ*:[0,1]→Xfree,并最小化回报函数,即,
Figure FDA0003289450400000035
R(σ*)为最优无碰撞路径,R(σ′)为无碰撞路径。
CN201910425677.2A 2019-05-21 2019-05-21 一种机器人在复杂狭窄环境下路径规划方法 Active CN110083165B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910425677.2A CN110083165B (zh) 2019-05-21 2019-05-21 一种机器人在复杂狭窄环境下路径规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910425677.2A CN110083165B (zh) 2019-05-21 2019-05-21 一种机器人在复杂狭窄环境下路径规划方法

Publications (2)

Publication Number Publication Date
CN110083165A CN110083165A (zh) 2019-08-02
CN110083165B true CN110083165B (zh) 2022-03-08

Family

ID=67421220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910425677.2A Active CN110083165B (zh) 2019-05-21 2019-05-21 一种机器人在复杂狭窄环境下路径规划方法

Country Status (1)

Country Link
CN (1) CN110083165B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110411454B (zh) * 2019-08-19 2023-05-23 西安工业大学 一种改进随机路径图法的移动机器人路径规划方法
CN110646006A (zh) * 2019-09-02 2020-01-03 平安科技(深圳)有限公司 装配路径规划方法及相关装置
CN112799386B (zh) * 2019-10-25 2021-11-23 中国科学院沈阳自动化研究所 基于人工势场与强化学习的机器人路径规划方法
CN110941268B (zh) * 2019-11-20 2022-09-02 苏州大学 一种基于Sarsa安全模型的无人自动小车的控制方法
CN111766784B (zh) * 2020-07-10 2022-12-02 郑州大学 障碍物环境下多机器人图案构成的迭代优化方法
CN111752281A (zh) * 2020-07-13 2020-10-09 浪潮软件股份有限公司 基于改进rrt算法的移动机器人路径规划方法及系统
CN111780777B (zh) * 2020-07-13 2022-10-21 江苏中科智能制造研究院有限公司 一种基于改进a*算法和深度强化学习的无人车路径规划方法
CN111896004A (zh) * 2020-07-28 2020-11-06 湖南大学 一种狭窄通道车辆轨迹规划方法及系统
CN112180924B (zh) * 2020-09-28 2024-04-02 珠海一微半导体股份有限公司 一种导航至密集障碍物的移动控制方法
CN112650238B (zh) * 2020-12-21 2022-09-30 东南大学 一种利用可见性信息的实时路径规划方法
CN112581535B (zh) * 2020-12-25 2023-03-24 达闼机器人股份有限公司 机器人定位方法、装置、存储介质及电子设备
CN112947489B (zh) * 2021-04-08 2022-11-22 华东理工大学 复杂环境下焊接机器人无碰撞路径规划方法及装置
CN113219975B (zh) * 2021-05-08 2024-04-05 珠海一微半导体股份有限公司 一种路线优化方法、路径规划方法、芯片及机器人
CN113342047B (zh) * 2021-06-23 2023-10-17 大连大学 未知环境中基于障碍物位置预测改进人工势场法的无人机路径规划方法
CN113467455A (zh) * 2021-07-06 2021-10-01 河北工业大学 多工况未知复杂环境下智能小车路径规划方法及设备
CN113867344B (zh) * 2021-09-18 2023-09-05 浙江大学 一种基于地形复杂度的无人船自适应步长路径搜索方法
CN114326734B (zh) * 2021-12-29 2024-03-08 中原动力智能机器人有限公司 一种路径规划方法及装置
CN114323028B (zh) * 2022-03-16 2022-06-07 中南大学 自适应地图的路径规划方法、系统、设备及介质
CN114872029B (zh) * 2022-06-09 2024-02-02 深圳市巨龙创视科技有限公司 一种机器人视觉识别系统
CN115683149A (zh) * 2022-11-14 2023-02-03 武汉轻工大学 一种基于地图信息的交互式智能路径规划方法
CN117387633B (zh) * 2023-12-13 2024-05-14 山东常林智能装备科技有限公司 一种无人驾驶挖掘机的路径规划方法、电子设备及介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0722132A1 (fr) * 1995-01-16 1996-07-17 SEXTANT AVIONIQUE (Société Anonyme) Procédé de pilotage d'un aérodyne par asservissement sur une trajectoire horizontale déterminée à partir de points de passage
EP1638878A2 (en) * 2003-06-24 2006-03-29 Mitsubishi Denki Kabushiki Kaisha Method and elevator scheduler for scheduling plurality of cars of elevator system in building
EP1733287A2 (en) * 2004-03-26 2006-12-20 Raytheon Company System and method for adaptive path planning
KR101339480B1 (ko) * 2012-12-14 2013-12-10 고려대학교 산학협력단 Rrt 기반의 듀얼 트리 구조를 이용한 이동 로봇의 궤적 계획 방법
CN105988366A (zh) * 2015-02-13 2016-10-05 大连大学 一种空间机器人最小基座扰动轨迹规划方法
CN106444740A (zh) * 2016-07-15 2017-02-22 浙江工业大学 基于mb‑rrt的无人机二维航迹规划方法
CN106774314A (zh) * 2016-12-11 2017-05-31 北京联合大学 一种基于行走轨迹的家庭服务机器人路径规划方法
WO2017161632A1 (zh) * 2016-03-24 2017-09-28 苏州大学张家港工业技术研究院 一种基于模型学习的清洁机器人最优目标路径规划方法
CN107883961A (zh) * 2017-11-06 2018-04-06 哈尔滨工程大学 一种基于Smooth‑RRT算法的水下机器人路径优化方法
CN108444489A (zh) * 2018-03-07 2018-08-24 北京工业大学 一种改进rrt算法的路径规划方法
CN108819948A (zh) * 2018-06-25 2018-11-16 大连大学 基于逆向强化学习的驾驶员行为建模方法
CN108981704A (zh) * 2018-07-13 2018-12-11 昆明理工大学 一种基于动态步长的目标引力双向rrt路径规划方法
CN109269507A (zh) * 2018-11-26 2019-01-25 张家港江苏科技大学产业技术研究院 机器人路径规划方法及装置
CN109542117A (zh) * 2018-10-19 2019-03-29 哈尔滨工业大学(威海) 基于改进rrt的水下航行器滚动规划算法
CN109540166A (zh) * 2018-11-30 2019-03-29 电子科技大学 一种基于高斯过程的安全路径规划方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554515B1 (ko) * 2009-01-07 2015-09-21 삼성전자 주식회사 로봇의 경로계획장치 및 그 방법
JP6580087B2 (ja) * 2017-06-02 2019-09-25 本田技研工業株式会社 走行軌道決定装置及び自動運転装置
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0722132A1 (fr) * 1995-01-16 1996-07-17 SEXTANT AVIONIQUE (Société Anonyme) Procédé de pilotage d'un aérodyne par asservissement sur une trajectoire horizontale déterminée à partir de points de passage
EP1638878A2 (en) * 2003-06-24 2006-03-29 Mitsubishi Denki Kabushiki Kaisha Method and elevator scheduler for scheduling plurality of cars of elevator system in building
EP1733287A2 (en) * 2004-03-26 2006-12-20 Raytheon Company System and method for adaptive path planning
KR101339480B1 (ko) * 2012-12-14 2013-12-10 고려대학교 산학협력단 Rrt 기반의 듀얼 트리 구조를 이용한 이동 로봇의 궤적 계획 방법
CN105988366A (zh) * 2015-02-13 2016-10-05 大连大学 一种空间机器人最小基座扰动轨迹规划方法
WO2017161632A1 (zh) * 2016-03-24 2017-09-28 苏州大学张家港工业技术研究院 一种基于模型学习的清洁机器人最优目标路径规划方法
CN106444740A (zh) * 2016-07-15 2017-02-22 浙江工业大学 基于mb‑rrt的无人机二维航迹规划方法
CN106774314A (zh) * 2016-12-11 2017-05-31 北京联合大学 一种基于行走轨迹的家庭服务机器人路径规划方法
CN107883961A (zh) * 2017-11-06 2018-04-06 哈尔滨工程大学 一种基于Smooth‑RRT算法的水下机器人路径优化方法
CN108444489A (zh) * 2018-03-07 2018-08-24 北京工业大学 一种改进rrt算法的路径规划方法
CN108819948A (zh) * 2018-06-25 2018-11-16 大连大学 基于逆向强化学习的驾驶员行为建模方法
CN108981704A (zh) * 2018-07-13 2018-12-11 昆明理工大学 一种基于动态步长的目标引力双向rrt路径规划方法
CN109542117A (zh) * 2018-10-19 2019-03-29 哈尔滨工业大学(威海) 基于改进rrt的水下航行器滚动规划算法
CN109269507A (zh) * 2018-11-26 2019-01-25 张家港江苏科技大学产业技术研究院 机器人路径规划方法及装置
CN109540166A (zh) * 2018-11-30 2019-03-29 电子科技大学 一种基于高斯过程的安全路径规划方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A Learning-based Multi-RRT Approach for Robot Path Planning in Narrow Passages;Wei Wang 等;《J Intell Robot Syst》;20181231;81-100 *
RRTPI:Policy Iteration on Continuous Domains using Rapidly-exploring Random Trees;Manimaran Sivasamy Sivamurugan 等;《2014 IEEE International Conference on Robotics and Automation(ICRA)》;20140929;1-6 *
基于RRT的全局路径规划方法及其应用研究;王全;《中国优秀硕士学位论文全文数据库信息科技辑》;20141115(第11期);I140-98 *
基于增强学习的移动机器人动态路径规划算法研究;李斯定;《中国优秀硕士学位论文全文数据库信息科技辑》;20180415(第4期);I140-612 *
基于改进SARSA移动机器人路径规划;宋宇 等;《长春工业大学学报》;20190228;第10卷(第1期);55-59 *

Also Published As

Publication number Publication date
CN110083165A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN110083165B (zh) 一种机器人在复杂狭窄环境下路径规划方法
Huang et al. Multi-modal motion prediction with transformer-based neural network for autonomous driving
CN113110592B (zh) 一种无人机避障与路径规划方法
Tuba et al. Mobile robot path planning by improved brain storm optimization algorithm
Wang et al. Efficient object search with belief road map using mobile robot
Doerr et al. Direct Loss Minimization Inverse Optimal Control.
Rosman et al. What good are actions? Accelerating learning using learned action priors
Zhang et al. A systematic solution of human driving behavior modeling and simulation for automated vehicle studies
CN108413963A (zh) 基于自学习蚁群算法的条形机器人路径规划方法
Guimaraes Macharet et al. An evolutionary approach for the Dubins' traveling salesman problem with neighborhoods
Habib et al. Mobile robot motion planning by point to point based on modified ant colony optimization and Voronoi diagram
Zeng et al. Optimal path planning based on annular space decomposition for AUVs operating in a variable environment
Li et al. A novel Q-learning algorithm based on improved whale optimization algorithm for path planning
Wu et al. An adaptive conversion speed Q-learning algorithm for search and rescue UAV path planning in unknown environments
Zeng et al. Efficient path evaluation for AUVs using adaptive B-spline approximation
Gul et al. Efficient environment exploration for multi agents: A novel framework
Tuba et al. Water cycle algorithm for robot path planning
Xu et al. Context-aware timewise vaes for real-time vehicle trajectory prediction
Qiu et al. Obstacle avoidance planning combining reinforcement learning and RRT* applied to underwater operations
Li et al. A novel path planning algorithm based on Q-learning and adaptive exploration strategy
Chen et al. Q‐EANet: Implicit social modeling for trajectory prediction via experience‐anchored queries
Tang et al. Reinforcement learning for robots path planning with rule-based shallow-trial
Wang et al. Efficient Reinforcement Learning for Autonomous Ship Collision Avoidance under Learning Experience Reuse
Qin et al. A path planning algorithm based on deep reinforcement learning for mobile robots in unknown environment
Jin et al. WOA-AGA algorithm design for robot path planning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant