CN114815813A - 一种基于改进ddpg算法的高效路径规划方法、装置及介质 - Google Patents
一种基于改进ddpg算法的高效路径规划方法、装置及介质 Download PDFInfo
- Publication number
- CN114815813A CN114815813A CN202210318773.9A CN202210318773A CN114815813A CN 114815813 A CN114815813 A CN 114815813A CN 202210318773 A CN202210318773 A CN 202210318773A CN 114815813 A CN114815813 A CN 114815813A
- Authority
- CN
- China
- Prior art keywords
- robot
- action
- path planning
- target point
- improved
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000009471 action Effects 0.000 claims abstract description 81
- 239000011159 matrix material Substances 0.000 claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 238000010606 normalization Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 230000007613 environmental effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 4
- 230000005653 Brownian motion process Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 241001143500 Aceraceae Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Abstract
本发明涉及一种基于改进DDPG算法的高效路径规划方法、装置及介质。本发明在DDPG神经网络Actor中引入第一LSTM网络,在Critic中引入第二LSTM网络,利用LSTM网络具有“记忆”的特点,综合机器人的以往状态矩阵和当前状态矩阵共同来决定机器人的规划动作,保证机器人前后动作之间的相关性,并在Actor中增加BatchNormalization,提高算法的稳定性和收敛速度。优化设计奖励的计算方式,引导机器人更快地朝目标点方向运动。采用不同归一化方法对机器人与目标点的相对位置关系的各个参数进行归一化处理,提高学习效率。改进的DDPG神经网络在输出机器人下一步动作时,添加高斯和OU混合噪声,进一步提高机器人的探索性,使机器人能够以最优路径快速到达目标点。
Description
技术领域
本发明涉及机器人路径规划技术领域,尤其涉及一种基于改进DDPG算法的高效路径规划方法、装置及介质。
背景技术
随着机器人技术的兴起与不断发展,机器人的应用越来越广泛,在越来越多的领域都发挥着重要作用。路径规划作为机器人应用的关键技术之一,已经成为机器人趋向人工智能化不可或缺的组成部分。理想的路径规划方法可以大大节省机器人在路上的运动时间,帮助机器人高效、准确完成任务,为机器人在各行业中的应用提供有利保障。
近年来,随着人工智能的兴起,基于深度强化学习的路径规划方法应运而生。Q-Learning是一种用于路径规划的典型强化学习算法,其利用Q值表对状态-动作值进行存储和更新,根据机器人所学习的经验知识对Q值表进行更新,收敛后根据Q值求出最优路径。但当环境复杂时,由于状态-动作过多,需要维护的Q值表过大,导致消耗的内存空间剧增,且维数过大时还会导致维数灾难。2013年,Google DeepMind将深度学习与Q-Learning相结合,使用神经网络来近似值函数,首次提出了深度Q学习(DQN),实现了从感知到动作的端到端的革命性算法,解决了Q-Learning中的维数灾难问题。但是,该方法仅仅适用于离散动作空间,无法应用到连续动作空间。Google DeepMind在2015年将DQN纳入Actor-Critic框架,提出了深度确定性策略梯度(DDPG),解决了连续动作空间问题,使用DDPG进行机器人路径规划时,就可以输出连续的动作。但是当环境比较复杂时,DDPG算法容易陷入局部最优,存在成功率低、学习速度慢等问题。Lei Tai等人提出了一种基于学习的无地图运动规划器,以稀疏的10维范围和目标相对于机器人坐标系的位置作为输入,以连续转向命令作为输出,将DDPG扩展到异步版本,以提高采样效率,结果证明该规划器能够在不与任何障碍物碰撞的情况下,将机器人导航到期望的目标位置。但该方法既没有先前观测的记忆,也没有长期预测能力,所规划的路径较为曲折,且不是最优路径。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本发明提供一种基于改进DDPG算法的高效路径规划方法、装置及介质。
第一方面,本发明提供一种基于改进DDPG算法的高效路径规划方法,包括:
构造并初始化改进的DDPG神经网络;
其中,改进的DDPG神经网络的Actor当前网络和Actor目标网络结构相同,均包括用于输入状态矩阵的第一输入层,第一输入层连接第一LSTM网络,第一LSTM网络经BatchNormalization连接第一全连接层,第一全连接层经Batch Normalization连接第二全连接层,第二全连接层经Batch Normalization连接输出动作的第一输出层,第一输出层输出动作添加高斯和OU混合噪声;
改进的DDPG神经网络的Critic当前网络和Critic目标网络结构相同,均包括输入状态矩阵的第二输入层和输入机器人动作的第三输入层,第二输入层连接第二LSTM网络,第三输入层连接第四全连接层,第二LSTM网络和第四全连接层均连接第五全连接层,第五全连接层连接第二输出层;
改进的DDPG神经网络的经验池存储包括状态矩阵、动作、奖励和下一时刻的状态矩阵的经验数据;
依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵;
将当前的状态矩阵输入到改进的DDPG神经网络获取规划动作,执行规划动作进而获取下一时刻的状态矩阵并计算规划动作的对应的奖励,形成经验数据并存储于经验池;
经验池的经验数据达到预设量时,从经验池中随机采样经验数据作为样本数据,利用样本数据对改进的DDPG神经网络进行训练获取路径规划模型;通过路径规划模型规划路线。
更进一步地,第一全连接层、第二全连接层、第三全连接层、第四全连接层和第五全连接层均采用ReLU函数作为激活函数。
更进一步地,按如下公式为第一输出层输出动作添加高斯和OU混合噪声:
其中,θ为随机过程的学习率,at为t时刻的动作,为动作采样数据的平均值,δ为OU随机权值,Wt为维纳过程,var为高斯方差,var值随着训练次数的增加,对环境的适应而降低,var值更新的公式为var=var*α,α为小于1的衰减系数。
更进一步地,经验数据中奖励的计算方法如下:机器人到达目标点时奖励为预设的第一分值,机器人碰到障碍物时奖励为预设的第二分值,机器人未达目标点且未碰障碍物奖励为机器人到起点距离与机器人到目标点距离之差,其中预设的第一分值为正常数,预设的第二分值为负常数。
更进一步地,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中采集的环境信息包括:通过激光传感器采集机器人在相对正前方-90°至90°范围的十个方向上与障碍物之间的十个距离,其中十个方向包括相对正前方的±10°,±30°,±50°,±70°,±90°。
更进一步地,机器人与障碍物距离小于激光传感器最小探测距离时,判断机器人与障碍物碰撞。
更进一步地,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中归一化处理的机器人与目标点的相对位置关系包括:归一化处理的机器人与目标点的相对距离、相对角度、归一化处理的机器人偏航角和归一化处理的机器人与目标点的差角;
其中,机器人与目标点的相对距离除以环境地图的对角线长度获取归一化处理的相对距离,机器人与目标点的相对角度除以360获取归一化处理的相对角度,机器人的偏航角除以360获取归一化处理的偏航角,机器人与目标点的差角除以180获取归一化处理的差角,机器人与目标点的差角等于机器人与目标点的相对角度减去机器人偏航角。
更进一步地,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中机器人上一规划动作包括机器人上一时刻的线速度、机器人上一时刻的角速度。
第二方面,本发明提供一种执行基于改进DDPG算法的高效路径规划方法的装置,包括:处理单元,存储单元,状态采集单元,动作执行单元,所述处理单元、所述存储单元、所述状态采集单元和动作执行单元通过总线连接,所述存储单元存储至少一条指令,所述处理单元读取并执行所述指令实现所述的基于改进DDPG算法的高效路径规划方法。
第三方面,本发明提供一种实现基于改进DDPG算法的高效路径规划方法的存储介质,所述实现基于改进DDPG算法的高效路径规划方法的存储介质存储至少一条指令,读取并执行所述指令实现所述的基于改进DDPG算法的高效路径规划方法。
本发明实施例提供的上述技术方案与现有技术相比具有如下优点:
传统DDPG算法用于机器人路径规划时,由于采用确定性策略,且机器人可观测的环境范围有限,导致路径规划模型训练效率低、收敛速度慢。本发明在DDPG神经网络Actor中引入第一LSTM网络,在Critic中引入第二LSTM网络,利用LSTM网络具有“记忆”的特点,综合机器人的以往状态矩阵和当前状态矩阵共同来决定机器人的规划动作,保证机器人前后动作之间的相关性,并在Actor中增加Batch Normalization,提高算法的稳定性,提高算法的收敛速度。同时,优化设计奖励的计算方式,引导机器人更快地朝目标点方向运动。采用不同归一化方法对机器人与目标点的相对位置关系的各个参数进行归一化处理,提高学习效率。改进的DDPG神经网络在输出机器人下一步动作时,添加高斯和OU混合噪声,进一步提高机器人的探索性,使机器人能够以最优路径快速到达目标点。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为传统的DDPG神经网络的整体架构示意图;
图2为本发明实施例提供的改进的DDPG神经网络的整体架构示意图;
图3为本发明实施例提供的改进的DDPG神经网络的Actor当前网络和Actor目标网络的示意图;
图4为本发明实施例提供的改进的DDPG神经网络的Critic当前网络和Critic目标网络的示意图;
图5为本发明实施例提供的用于采集环境信息的十个方向示意图;
图6为本发明实施例提供的一种执行基于改进DDPG算法的高效路径规划方法的装置的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
DDPG算法基于Actor-Critic架构并借鉴了DQN的经验重放机制和目标网络思想,用于解决连续动作问题。DDPG算法神经网络结构由Actor当前网络和Actor目标网络、Critic当前网络和Actor目标网络四部分组成。经验重放机制的作用是将样本收集起来,每次训练时从经验池中随机分批采样,以减少样本之间的相关性。目标网络会在一定时间内固定网络中的参数,从而消除当前网络和目标网络因参数相同而引起模型震荡。在路径规划过程中,机器人通过与环境交互得到状态S,Actor当前网络则根据状态S输出机器人的动作a,机器人执行动作a后,基于执行a后的环境信息得到奖励r。Critic当前网络根据机器人的状态S和动作a,输出Q值作为对动作的评价。Actor目标网络和Critic目标网络主要用于后续的更新过程。传统DDPG算法神经网络结构如图1所示。
传统DDPG算法神经网络训练的过程如下:
(1)初始化Actor当前网络μ(S|θμ)和Critic当前网络Q(S,a|θQ),以及Actor目标网络θμ'←θμ、Critic目标网络θQ'←θQ和经验池D;
(2)将机器人的当前状态St输入到Actor当前网络,得到动作at,通过执行动作得到奖励r,并获得下一步的新状态St+1;
(3)将St,at,r,St+1存入经验池D中。当经验池中的样本数达到一定数量时,则从经验池D中随机采样N个样本数据进行网络训练;
(4)根据公式(1)计算Critic当前网络损失函数;
式中,Yi=ri+γQ'(Si+1,μ'(Si+1|θμ')|θQ')为目标值,γ为折现系数,i为采样的样本序号。
(5)根据公式(2)更新Actor当前网络参数;
(6)根据公式(3)采用软更新策略对Actor目标网络参数θμ'和Critic目标网络参数θQ'进行更新。
式中,τ为常数系数,用于调节软更新因子。
(7)重复上述步骤,直到DDPG算法神经网络训练完成。
DDPG算法作为深度强化学习的主流算法之一,目前广泛应用于机器人路径规划。由于算法采用连续状态空间和动作空间,尤其适用于机器人的实际运动过程,在复杂环境中显示出了巨大的潜力。DDPG算法能够在自主构建的虚拟环境下训练模型,并直接应用于实际环境,算法的泛化能力强。但是由于采用确定性策略,在模型训练初期,会导致机器人探索动作单一,难以获得有效的学习。特别是在复杂的环境中,由于机器人可观测的环境范围有限,DDPG难以获取足够的环境信息,导致算法训练效率低、收敛速度慢。
为了解决上述传统DDPG算法的技术问题或者至少部分地解决上述技术问题,本发明提供一种基于改进DDPG算法的高效路径规划方法、装置及介质。
实施例1
本发明实施例提供一种基于改进DDPG算法的高效路径规划方法,包括:
S100,参阅图2所示,构造并初始化改进的DDPG神经网络;
其中,改进的DDPG神经网络的Actor当前网络和Actor目标网络结构相同,参阅图3所示,均包括用于输入状态矩阵的第一输入层,第一输入层连接第一LSTM网络,第一LSTM网络经Batch Normalization连接第一全连接层,所述第一全连接层包含400个节点,所述第一全连接层经Batch Normalization连接第二全连接层,所述第二全连接层包含300个节点,所述第二全连接层经Batch Normalization连接输出动作的第一输出层,对第一输出层输出动作添加高斯和OU混合噪声,具体实施过程中,按如下公式为第一输出层输出动作添加高斯和OU混合噪声:
θ为随机过程的学习率,at为t时刻的动作,为动作采样数据的平均值,δ为OU随机权值,Wt为维纳过程,var为高斯方差,var值随着训练次数的增加,对环境的适应而降低,var值更新的公式为var=var*α,α为小于1的衰减系数,一种可行的衰减系数选取0.9999。
改进的DDPG神经网络的Critic当前网络和Critic目标网络结构相同,参阅图4所示,均包括输入状态矩阵的第二输入层和输入机器人动作的第三输入层,所述第二输入层连接第二LSTM网络,所述第三输入层连接第四全连接层,所述第四全连接层包含400节点,所述第二LSTM网络和所述第四全连接层均连接第五全连接层,所述第五全连接层包含300节点,所述第五全连接层连接用于输出Q值的第二输出层。由第二LSTM网络对状态矩阵进行处理,由第四全连接层对动作进行处理,然后将第二LSTM网络的处理结果和第四全连接层的处理结果经第五全连接层处理后由第二输出层输出Q值。
改进的DDPG神经网络的第一全连接层、第二全连接层、第三全连接层、第四全连接层和第五全连接层均采用ReLU函数作为激活函数。
改进的DDPG神经网络的经验池存储包括状态矩阵、动作、奖励和下一时刻的状态矩阵的经验数据;本申请对奖励的计算方法进行改进,经验数据中奖励的计算方法如下:机器人到达目标点时奖励为预设的第一分值,机器人碰到障碍物时奖励为预设的第二分值,机器人未达目标点且未碰障碍物奖励为机器人到起点距离与机器人到目标点距离之差,其中预设的第一分值为正常数,预设的第二分值为负常数。一种优选地第一分值选用150,一种优选的第二分值选用-100。
传统的DDPG算法在进行路径规划时,输出端动作只依赖机器人当前的状态矩阵,容易导致探测轨迹的混乱,本发明利用LSTM网络能够记忆机器人过往状态矩阵的特点,使改进的DDPG神经网络的输出综合考虑过往状态矩阵和当前状态矩阵,使得规划的机器人的动作具有时间相关性,可以有效地避免所规划的路径过于曲折。
S200,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵。
具体实施过程中,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中归一化处理的机器人与目标点的相对位置关系包括:归一化处理的机器人与目标点的相对距离、相对角度,归一化处理的机器人偏航角和归一化处理的机器人与目标点的差角;
其中,机器人与目标点的相对距离除以环境地图的对角线长度获取归一化处理的相对距离,机器人与目标点的相对角度除以360获取归一化处理的相对角度,机器人的偏航角除以360获取归一化处理的偏航角,机器人与目标点的差角除以180获取归一化处理的差角,机器人与目标点的差角等于机器人与目标点的相对角度减去机器人偏航角。
具体实施过程中,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中机器人上一规划动作包括机器人上一时刻的线速度、机器人上一时刻的角速度。
具体实施过程中,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中采集的环境信息包括:通过激光传感器采集机器人在相对正前方-90°至90°范围的十个方向上与障碍物之间的十个距离,其中参阅图5所示,十个方向包括相对机器人正前方的±10°,±30°,±50°,±70°,±90°。具体实施过程中,机器人与障碍物距离小于激光传感器最小探测距离时,判断机器人与障碍物碰撞,根据是否与障碍物碰撞进行奖励计算。
S300,进行经验数据的积累。具体的,将机器人当前的状态矩阵输入到改进的DDPG神经网络获取规划动作,机器人执行规划动作进而获取下一时刻的状态矩阵,并计算规划动作的对应的奖励,将当前状态矩阵、规划动作、规划动作的奖励和下一时刻的状态矩阵形成经验数据并存储于经验池。
S400,经验池的经验数据达到预设量时,从经验池中随机采样经验数据作为样本数据,利用样本数据对改进的DDPG神经网络进行训练获取路径规划模型,利用路径规划模型规划路径。
实施例2
参阅图6所示,本发明实施例提供一种执行基于改进DDPG算法的高效路径规划方法的装置,包括:处理单元,存储单元,状态采集单元,动作执行单元,所述处理单元、所述存储单元、所述状态采集单元和动作执行单元通过总线连接,所述存储单元存储至少一条指令,所述处理单元读取并执行所述指令实现所述的基于改进DDPG算法的高效路径规划方法。具体的,所述动作执行单元为机器人驱动电路,处理单元通过控制总线连接机器人驱动电路,控制机器人按规划动作执行的线速度和角速度。所述状态采集单元包括但不限于用于测距的激光传感器和用于感应机器人姿态的三轴加速度传感器。
实施例3
本发明实施例提供一种实现基于改进DDPG算法的高效路径规划方法的存储介质,所述实现基于改进DDPG算法的高效路径规划方法的存储介质存储至少一条指令,读取并执行所述指令实现所述的基于改进DDPG算法的高效路径规划方法。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于改进DDPG算法的高效路径规划方法,其特征在于,包括:
构造并初始化改进的DDPG神经网络;
其中,改进的DDPG神经网络的Actor当前网络和Actor目标网络结构相同,均包括用于输入状态矩阵的第一输入层,第一输入层连接第一LSTM网络,第一LSTM网络经BatchNormalization连接第一全连接层,第一全连接层经Batch Normalization连接第二全连接层,第二全连接层经Batch Normalization连接输出动作的第一输出层,第一输出层输出动作添加高斯和OU混合噪声;
改进的DDPG神经网络的Critic当前网络和Critic目标网络结构相同,均包括输入状态矩阵的第二输入层和输入机器人动作的第三输入层,第二输入层连接第二LSTM网络,第三输入层连接第四全连接层,第二LSTM网络和第四全连接层均连接第五全连接层,第五全连接层连接第二输出层;
改进的DDPG神经网络的经验池存储包括状态矩阵、动作、奖励和下一时刻的状态矩阵的经验数据;
依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵;
将当前的状态矩阵输入到改进的DDPG神经网络获取规划动作,执行规划动作进而获取下一时刻的状态矩阵并计算规划动作的对应的奖励,形成经验数据并存储于经验池;
经验池的经验数据达到预设量时,从经验池中随机采样经验数据作为样本数据,利用样本数据对改进的DDPG神经网络进行训练获取路径规划模型,通过路径规划模型规划路线。
2.如权利要求1所述的基于改进DDPG算法的高效路径规划方法,其特征在于,第一全连接层、第二全连接层、第三全连接层、第四全连接层和第五全连接层均采用ReLU函数作为激活函数。
4.如权利要求1所述的基于改进DDPG算法的高效路径规划方法,其特征在于,经验数据中奖励的计算方法如下:机器人到达目标点时奖励为预设的第一分值,机器人碰到障碍物时奖励为预设的第二分值,机器人未达目标点且未碰障碍物奖励为机器人到起点距离与机器人到目标点距离之差,其中预设的第一分值为正常数,预设的第二分值为负常数。
5.如权利要求1所述的基于改进DDPG算法的高效路径规划方法,其特征在于,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中采集的环境信息包括:通过激光传感器采集机器人在相对正前方-90°至90°范围的十个方向上与障碍物之间的十个距离,其中十个方向包括相对正前方的±10°,±30°,±50°,±70°,±90°。
6.如权利要求5所述的基于改进DDPG算法的高效路径规划方法,其特征在于,机器人与障碍物距离小于激光传感器最小探测距离时,判断机器人与障碍物碰撞。
7.如权利要求1所述的基于改进DDPG算法的高效路径规划方法,其特征在于,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中归一化处理的机器人与目标点的相对位置关系包括:归一化处理的机器人与目标点的相对距离、相对角度、归一化处理的机器人偏航角和归一化处理的机器人与目标点的差角;
其中,机器人与目标点的相对距离除以环境地图的对角线长度获取归一化处理的相对距离,机器人与目标点的相对角度除以360获取归一化处理的相对角度,机器人的偏航角除以360获取归一化处理的偏航角,机器人与目标点的差角除以180获取归一化处理的差角,机器人与目标点的差角等于机器人与目标点的相对角度减去机器人偏航角。
8.如权利要求1所述的基于改进DDPG算法的高效路径规划方法,其特征在于,依次整合归一化处理的机器人与目标点的相对位置关系、机器人上一规划动作和采集的环境信息得到机器人当前的状态矩阵中机器人上一规划动作包括机器人上一时刻的线速度、机器人上一时刻的角速度。
9.一种执行基于改进DDPG算法的高效路径规划方法的装置,其特征在于,包括:处理单元,存储单元,状态采集单元,动作执行单元,所述处理单元、所述存储单元、所述状态采集单元和动作执行单元通过总线连接,所述存储单元存储至少一条指令,所述处理单元读取并执行所述指令实现如权利要求1-8任一所述的基于改进DDPG算法的高效路径规划方法。
10.一种实现基于改进DDPG算法的高效路径规划方法的存储介质,其特征在于,所述实现基于改进DDPG算法的高效路径规划方法的存储介质存储至少一条指令,读取并执行所述指令实现如权利要求1-8任一所述的基于改进DDPG算法的高效路径规划方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210318773.9A CN114815813B (zh) | 2022-03-29 | 2022-03-29 | 一种基于改进ddpg算法的高效路径规划方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210318773.9A CN114815813B (zh) | 2022-03-29 | 2022-03-29 | 一种基于改进ddpg算法的高效路径规划方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114815813A true CN114815813A (zh) | 2022-07-29 |
CN114815813B CN114815813B (zh) | 2024-05-07 |
Family
ID=82530783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210318773.9A Active CN114815813B (zh) | 2022-03-29 | 2022-03-29 | 一种基于改进ddpg算法的高效路径规划方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114815813B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117539266A (zh) * | 2024-01-04 | 2024-02-09 | 珠海市格努科技有限公司 | 基于视觉的物流系统中路径规划方法、装置和电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020056875A1 (zh) * | 2018-09-20 | 2020-03-26 | 初速度(苏州)科技有限公司 | 一种基于深度强化学习的停车策略 |
US20210103286A1 (en) * | 2019-10-04 | 2021-04-08 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for adaptive path planning |
CN112629542A (zh) * | 2020-12-31 | 2021-04-09 | 山东师范大学 | 基于ddpg和lstm的无地图机器人路径导航方法及系统 |
CN113219997A (zh) * | 2021-06-08 | 2021-08-06 | 河北师范大学 | 一种基于tpr-ddpg的移动机器人路径规划方法 |
-
2022
- 2022-03-29 CN CN202210318773.9A patent/CN114815813B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020056875A1 (zh) * | 2018-09-20 | 2020-03-26 | 初速度(苏州)科技有限公司 | 一种基于深度强化学习的停车策略 |
US20210103286A1 (en) * | 2019-10-04 | 2021-04-08 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for adaptive path planning |
CN112629542A (zh) * | 2020-12-31 | 2021-04-09 | 山东师范大学 | 基于ddpg和lstm的无地图机器人路径导航方法及系统 |
CN113219997A (zh) * | 2021-06-08 | 2021-08-06 | 河北师范大学 | 一种基于tpr-ddpg的移动机器人路径规划方法 |
Non-Patent Citations (3)
Title |
---|
巩慧: "室内智能物流机器人路径规划算法研究", 《中国优秀硕士论文全文数据库(信息科技辑)》, 15 March 2024 (2024-03-15) * |
巩慧等: "Efficient path planning for mobile robot based on deep deterministic policy gradient", 《SENSORS》, 1 May 2022 (2022-05-01) * |
李志航;: "基于深度递归强化学习的无人自主驾驶策略研究", 工业控制计算机, no. 04, 25 April 2020 (2020-04-25) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117539266A (zh) * | 2024-01-04 | 2024-02-09 | 珠海市格努科技有限公司 | 基于视觉的物流系统中路径规划方法、装置和电子设备 |
CN117539266B (zh) * | 2024-01-04 | 2024-04-19 | 珠海市格努科技有限公司 | 基于视觉的物流系统中路径规划方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114815813B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136481B (zh) | 一种基于深度强化学习的停车策略 | |
CN111061277B (zh) | 一种无人车全局路径规划方法和装置 | |
Lei et al. | Dynamic path planning of unknown environment based on deep reinforcement learning | |
Xia et al. | Neural inverse reinforcement learning in autonomous navigation | |
CN112132263B (zh) | 一种基于强化学习的多智能体自主导航方法 | |
Kala et al. | Robotic path planning in static environment using hierarchical multi-neuron heuristic search and probability based fitness | |
CN112433525A (zh) | 基于模仿学习及深度强化学习的移动机器人导航方法 | |
Xiang et al. | Continuous control with deep reinforcement learning for mobile robot navigation | |
CN112631296B (zh) | 基于深度强化学习的机器人导航方法及系统、设备、介质 | |
CN113253733B (zh) | 一种基于学习和融合的导航避障方法、装置及系统 | |
CN114020013B (zh) | 一种基于深度强化学习的无人机编队避撞方法 | |
CN113391633A (zh) | 一种面向城市环境的移动机器人融合路径规划方法 | |
CN116679719A (zh) | 基于动态窗口法与近端策略的无人车自适应路径规划方法 | |
CN114815813B (zh) | 一种基于改进ddpg算法的高效路径规划方法、装置及介质 | |
CN115265547A (zh) | 一种未知环境下基于强化学习的机器人主动导航方法 | |
CN116300909A (zh) | 一种基于信息预处理和强化学习的机器人避障导航方法 | |
CN114521262A (zh) | 使用因果正确环境模型来控制智能体 | |
CN114879660A (zh) | 一种基于目标驱动的机器人环境感知方法 | |
Ejaz et al. | Autonomous visual navigation using deep reinforcement learning: An overview | |
CN114396949B (zh) | 一种基于ddpg的移动机器人无先验地图导航决策方法 | |
Botteghi et al. | Curiosity-driven reinforcement learning agent for mapping unknown indoor environments | |
CN111221340B (zh) | 一种基于粗粒度特征的可迁移视觉导航设计方法 | |
CN115016499A (zh) | 一种基于sca-ql的路径规划方法 | |
Lagoudakis et al. | Neural maps for mobile robot navigation | |
WO2020183877A1 (ja) | 情報処理装置および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |