CN114185354A - 一种基于dqn的agv全局路径规划方法和系统 - Google Patents
一种基于dqn的agv全局路径规划方法和系统 Download PDFInfo
- Publication number
- CN114185354A CN114185354A CN202210134890.XA CN202210134890A CN114185354A CN 114185354 A CN114185354 A CN 114185354A CN 202210134890 A CN202210134890 A CN 202210134890A CN 114185354 A CN114185354 A CN 114185354A
- Authority
- CN
- China
- Prior art keywords
- agv
- action
- grid map
- dqn
- path planning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000009471 action Effects 0.000 claims abstract description 96
- 238000004088 simulation Methods 0.000 claims abstract description 14
- 230000004888 barrier function Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 27
- 239000000126 substance Substances 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 230000003190 augmentative effect Effects 0.000 claims description 5
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 11
- 230000006872 improvement Effects 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005299 abrasion Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/60—Electric or hybrid propulsion means for production processes
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种基于DQN的AGV全局路径规划方法和系统,属于路径规划技术领域,解决了现有路径规划方法消耗时间长并且路径规划结构不准确的问题。该方法包括:基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,仓储环境信息包括障碍物、AGV的起点、AGV的当前位置及AGV的终点位置;扩充AGV在二维栅格地图中下一步采取的动作集;设置连续合理的奖励函数以区别AGV在二维栅格地图中每个栅格处获取的奖励值;以及设计最优路径判别条件并根据最优路径判别条件在AGV运行完指定循环后,输出最优路径。结合增加的AGV运动方向,修改最优路径判别条件能够有效提升路径规划的准确率。通过设置连续合理的奖励函数能够提升路径规划的效率。
Description
技术领域
本发明涉及路径规划技术领域,尤其涉及一种基于DQN的AGV全局路径规划方法和系统。
背景技术
随着智能仓储技术的发展,仓库中货物的起重、运输、卸包、装包等日常工作都可以交给AGV(移动机器人)完成,可提升仓库中货品的存取效率。合理的路径规划可以提升AGV的工作效率,降低AGV的故障发生率。现有的路径规划算法主要包括:基于传统图论的Dijkstra算法、A*算法;蚁群、粒子群、遗传等仿生学算法。上述算法存在易陷入局部最优等缺陷,难以应对复杂的仓储环境。
在已知仓储环境中,利用DQN(即,深度Q网络)进行全局路径规划是近年来出现的新方法,可以有效避免出现局部最优情况。在仓储环境的栅格图下,采用传统DQN进行路径规划,会出现路径规划过程消耗时间长、路径规划结果不准确的问题。其中,时间长是因为AGV行驶得到的奖励反馈不明显,需要进行更多的“试错”;结果不准确是因为给予AGV选择方向不多,且路径判别条件不够准确。
发明内容
鉴于上述的分析,本发明实施例旨在提供一种基于DQN的AGV全局路径规划方法和系统,用以解决现有路径规划方法消耗时间长并且路径规划结构不准确的问题。
一方面,本发明实施例提供了一种基于DQN的AGV全局路径规划方法,包括:基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,所述仓储环境信息包括障碍物位置、所述AGV的起点、所述AGV的当前位置及所述AGV的终点位置;扩充所述AGV在所述二维栅格地图中下一步采取的动作集;设置连续合理的奖励函数以区别所述AGV在所述二维栅格地图中每个栅格处获取的奖励值;以及设计最优路径判别条件并根据所述最优路径判别条件在所述AGV运行完指定循环后,输出最优路径。
上述技术方案的有益效果如下:本申请通过将传统DQN在栅格图中下一步能采取的动作由4个扩充为8个,能够增加路径规划的准确性,扩充AGV动作集。通过设置连续合理的奖励函数reward,能够保证AGV在每一个栅格获取奖励值的区别,减少AGV无效探索的时间,能够缩短基于DQN的AGV全局路径规划时间,提升路径规划的效率。结合增加的AGV运动方向,修改最优路径判别条件能够有效提升路径规划的准确率。
基于上述方法的进一步改进,扩充所述AGV在所述二维栅格地图中下一步采取的动作集进一步包括:将上、下、左、右4个方向的动作集扩充为上、下、左、右、左上、右上、左下、右下8个方向的动作集;以及所述AGV通过执行扩充的动作集中的动作到达所述二维栅格地图中的8个临近栅格中的一个。
基于上述方法的进一步改进,所述AGV通过执行扩充的动作集中的动作到达所述二维栅格地图中的8个临近栅格中的一个进一步包括:所述AGV在所述当前位置坐标通过执行动作a到达所述二维栅格地图中的邻近位置坐标:
其中,(x i , y i )表示所述AGV当前位置坐标,(x i+1, y i+1)表示所述AGV执行完动作集中动作a后所处的邻近位置坐标;(x i , y i +p)和(x i , y i -p)分别表示在所述AGV当前所在位置坐标基础上,y轴正和负方向添加一个栅格边长;(x i +p, y i )和(x i -p, y i )分别表示在所述AGV当前所在位置坐标基础上,x轴正和负方向添加一个栅格边长。
基于上述方法的进一步改进,设置连续合理的奖励函数以区别所述AGV在所述二维栅格地图中每个栅格处获取的奖励值进一步包括:根据以下Q-learning算法,建立Q值表以记录所述AGV与所述模拟环境不断交互得到的奖励值;通过迭代修改Q值表以增加选择正奖励值的概率,使得所述AGV的每一步动作都趋向于所述扩充的动作集中的最优动作,其中,所述Q-learning算法的基本形式为:
其中,r t+1代表状态s t 情况下执行完动作a t 后立刻得到的奖励,s t+1表示s t 执行完动作a t 后的下一状态,a则代表状态s t+1情况下采取的所有动作,γ代表对未来奖励的衰减值;左侧的Q(s t ,a t )代表修改后的Q值表,右侧的Q(s t ,a t )代表Q值表中已有的Q估计值,是Q现实值,α代表学习率,对所述Q估计值和所述Q现实值之间有多少误差进行学习;DQN则构建两个神经网络,通过神经网络来代替Q值表,一个用于计算Q估计值,另一个用于计算Q现实值。每个网络都由输入层、隐藏层和输出层构成,所述输入层输入所述AGV当前位置坐标,所述隐藏层含有n个神经元,以及所述输出层输出当前坐标的所有Q值,根据ε-greedy原则做出决策,得到执行所述扩充的动作集中的动作a的邻近位置坐标作为AGV下一步的环境坐标。
基于上述方法的进一步改进,通过以下公式设置连续合理的奖励函数reward:
其中,step distance表示预计本循环到达终点走过的总欧氏距离,long distance表示之前所有循环走到终点所走过的最长欧氏距离,corner表示本循环到达终点所进行的转弯数,cur distance表示这一步走完后到达终点的欧氏距离,next distance表示下一步走完后到达终点的欧氏距离,m、n表示常数系数。
基于上述方法的进一步改进,所述AGV每做出一个动作会获得一个奖励值,所述AGV在所述扩充的动作集中选取合理动作以获得更高奖励值。
基于上述方法的进一步改进,根据所述最优路径判别条件在所述AGV运行完指定循环后,输出最优路径进一步包括:通过判断所述AGV在所述二维栅格地图中实际行驶的欧氏距离及最终路径转弯数,确定本循环路径中的最优路径。
基于上述方法的进一步改进,通过判断所述AGV在所述二维栅格地图中实际行驶的欧氏距离及最终路径转弯数进一步包括:对所述AGV上一步、当前、下一步共三个栅格的坐标进行计算,判断所述AGV进行直线运动还是进行转弯运动,其中,当所述AGV满足沿水平直线方向运动、沿竖直直线方向运动和沿对角线方向运动中的一种时,所述AGV走直线运动:所述沿水平直线方向运动:
所述沿竖直直线方向运动:
所述沿对角线方向运动:
其中,(x i , y i )表示AGV当前所在位置坐标,(x i+1, y i+1)表示AGV执行完动作后所处的位置坐标;(x i-1, y i-1)表示AGV上一步所在位置坐标;(x i , y i +p)表示在AGV当前所在位置坐标基础上,y轴方向添加一个栅格边长;(x i +p, y i )表示在AGV当前所在位置坐标基础上,x轴方向添加一个栅格边长。
基于上述方法的进一步改进,当所述AGV满足沿水平直线方向运动、沿竖直直线方向运动和沿对角线方向运动中的两种时,所述AGV出现转弯并且从起点开始的整个路径转弯数加一:,其中,corner代表所述本循环路径中已有的转弯数;所述AGV从起点到终点在所述二维栅格地图中的实际欧氏距离:
其中,D表示所述AGV本循环从起点到终点在二维栅格地图中行驶的总欧氏距离;m表示所述AGV行驶的总栅格数,包含起点和终点一共经过m+1个栅格;(x i , y i )表示所述AGV经过的第i个栅格坐标;所述AGV最优路径保证在路径长度最短的前提下,转弯数最少:
其中,D表示本循环AGV从起点到终点的总欧氏距离;d表示已知的AGV从起点到终点的最短欧氏距离;corner表示本循环AGV从起点到终点的转弯数;c表示已知的AGV从起点到终点的最少转弯数;最短欧氏距离d和最少转弯数c的初始设置值均为+∞。
另一方面,本发明实施例提供了一种基于DQN的AGV全局路径规划系统包括:栅格地图构建模块,用于基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,所述仓储环境信息包括障碍物、所述AGV的起点、所述AGV的当前位置及所述AGV的终点位置;动作集扩充模块,用于扩充所述AGV在所述二维栅格地图中下一步采取的动作集;奖励函数设置模块,用于设置连续合理的奖励函数以区别所述AGV在所述二维栅格地图中每个栅格处获取的奖励值;以及最优路径输出模块,用于设计最优路径判别条件并根据所述最优路径判别条件在所述AGV运行完指定循环后,输出最优路径。
与现有技术相比,本发明至少可实现如下有益效果之一:
1、通过将传统DQN在栅格图中下一步能采取的动作由4个扩充为8个,能够增加路径规划的准确性,扩充AGV动作集。结合增加的AGV运动方向,修改最优路径判别条件能够有效提升路径规划的准确率;
2、通过设置连续合理的奖励函数reward,能够保证AGV在每一个栅格获取奖励值的区别,减少AGV无效探索的时间,能够缩短基于DQN的AGV全局路径规划时间,提升路径规划的效率;
3、在DQN输出8个方向的前提下,通过判断AGV在栅格图中实际行驶的欧氏距离及最终路径转弯数,确定本回合内所能得到的最优路径,能够增加路径规划的准确性。
本发明中,上述各技术方案之间还可以相互组合,以实现更多的优选组合方案。本发明的其他特征和优点将在随后的说明书中阐述,并且,部分优点可从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书以及附图中所特别指出的内容中来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为根据本发明实施例的基于DQN的AGV全局路径规划方法的流程图;
图2为根据本发明实施例的基于DQN的AGV全局路径规划方法的具体流程图;
图3为根据本发明实施例的全局路径规划中使用的DQN网络简易模型;
图4a和图4b分别为传统栅格图中AGV行驶方向的4个候选角度的示意图和根据本发明实施例的栅格图中AGV行驶方向的8个候选角度的示意图;
图5a和图5b分别为传统AGV网格行驶图中的沿栅格线方向经过3个栅格的示意图和根据本发明实施例的AGV网格行驶图中的沿对角线方向经过3个栅格的示意图;
图6为根据本发明实施例的仓储环境的栅格图;
图7a、图7b和图7c分别为根据本发明实施例的不包含转弯判别条件的三种AGV最优路径示意图;
图8a和图8b分别为根据本发明实施例的基于DQN的全局路径规划方法的两种栅格仿真结果的示意图;
图9为根据本发明实施例的路径规划方法的流程示意图;
图10为根据本发明实施例的基于DQN的AGV全局路径规划系统的框图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明的一个具体实施例,公开了一种基于DQN的AGV全局路径规划方法。参考图1,基于DQN的AGV全局路径规划方法包括:在步骤S102中,基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,仓储环境信息包括障碍物位置、AGV的起点、AGV的当前位置及AGV的终点位置,p为二维栅格地图中的单位栅格的边长;在步骤S104中,扩充AGV在二维栅格地图中下一步采取的动作集;在步骤S106中,设置连续合理的奖励函数以区别AGV在二维栅格地图中每个栅格处获取的奖励值;以及在步骤S108中,设计最优路径判别条件并根据最优路径判别条件在AGV运行完指定循环后,输出最优路径。
与现有技术相比,本实施例提供的基于DQN的AGV全局路径规划方法中,通过将传统DQN在栅格图中下一步能采取的动作进行扩充,能够增加路径规划的准确性,扩充AGV动作集。通过设置连续合理的奖励函数reward,能够保证AGV在每一个栅格获取奖励值的区别,减少AGV无效探索的时间,能够缩短基于DQN的AGV全局路径规划时间,提升路径规划的效率。结合增加的AGV运动方向,修改最优路径判别条件能够有效提升路径规划的准确率。
下文中,将参考图1对基于DQN的AGV全局路径规划方法的各个步骤进行详细描述。
在步骤S102中,基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,仓储环境信息包括障碍物位置、AGV的起点、AGV的当前位置及AGV的终点位置。具体地,p为二维栅格地图中的单位栅格的边长。
在步骤S104中,扩充AGV在二维栅格地图中下一步采取的动作集。扩充AGV在二维栅格地图中下一步采取的动作集进一步包括:将上、下、左、右4个方向的动作集扩充为上、下、左、右、左上、右上、左下、右下8个方向的动作集;以及AGV通过执行扩充的动作集中的动作到达二维栅格地图中的8个临近栅格中的一个。
具体地,AGV通过执行扩充的动作集中的动作到达二维栅格地图中的8个临近栅格中的一个,进一步包括:
AGV在当前位置坐标通过执行动作a到达二维栅格地图中的邻近位置坐标:
其中,(x i , y i )表示所述AGV当前位置坐标,(x i+1, y i+1)表示所述AGV执行完动作集中动作a后所处的邻近位置坐标;a代表动作集中的所有动作;(x i , y i +p)和(x i , y i -p)分别表示在所述AGV当前所在位置坐标基础上,y轴正和负方向添加一个栅格边长;(x i +p, y i )和(x i -p, y i )分别表示在所述AGV当前所在位置坐标基础上,x轴正和负方向添加一个栅格边长。
在步骤S106中,设置连续合理的奖励函数以区别AGV在二维栅格地图中每个栅格处获取的奖励值。设置连续合理的奖励函数以区别AGV在二维栅格地图中每个栅格处获取的奖励值进一步包括:根据以下Q-learning算法,建立Q值表以记录AGV与模拟环境不断交互得到的奖励值;通过迭代修改Q值表以增加选择正奖励值的概率,使得AGV的每一步动作都趋向于扩充的动作集中的最优动作,其中,Q-learning算法的基本形式为:
其中,r t+1代表状态s t 情况下执行完动作a t 后立刻得到的奖励,s t+1表示s t 执行完动作a t 后的下一状态,a则代表状态s t+1情况下采取的所有动作,γ代表对未来奖励的衰减值;左侧的Q(s t ,a t )代表修改后的Q值表,右侧的Q(s t ,a t )代表Q值表中已有的Q估计值,是Q现实值,α代表学习率,对Q估计值和Q现实值之间有多少误差进行学习;构建两个深度Q网络DQN,通过DQN代替Q值表,一个DQN用于计算Q估计值,另一个DQN用于计算Q现实值,其中,每个DQN由输入层、隐藏层和输出层构成,输入层输入AGV当前位置坐标,隐藏层含有n个神经元,以及输出层输出执行扩充的动作集中的动作a的邻近位置坐标。具体地,DQN自身包括两个神经网络(两个Q网络),都能输出Q值,但有一个网络可以被称为target Q网络,其与另一个Q网络结构一样,初始的权重也一样,只是Q网络每次迭代都会更新,而target Q网络是每隔一段时间才会更新,权重更新较慢,因此权重记为ω-。target Q网络计算Q值用于产生误差用于学习、辅助网络权重的更新, Q网络输出的值决定Q值,以及下一步AGV坐标。通过以下公式设置连续合理的奖励函数reward:
其中,step distance表示预计本循环到达终点走过的总欧氏距离,long distance表示之前所有循环走到终点所走过的最长欧氏距离,corner表示本循环到达终点所进行的转弯数,cur distance表示这一步走完后到达终点的欧氏距离,next distance表示下一步走完后到达终点的欧氏距离, m、n表示常数系数,在实例中取m=0.9,n=0.01。AGV每做出一个动作会获得一个奖励值,AGV在扩充的动作集中选取合理动作以获得更高奖励值。
在步骤S108中,设计最优路径判别条件并根据最优路径判别条件在AGV运行完指定循环后,输出最优路径。根据最优路径判别条件在AGV运行完指定循环后,输出最优路径进一步包括:通过判断AGV在二维栅格地图中实际行驶的欧氏距离及最终路径转弯数,确定本循环路径中的最优路径。
具体地,通过判断AGV在二维栅格地图中实际行驶的欧氏距离及最终路径转弯数进一步包括:对AGV上一步、当前、下一步共三个栅格的坐标进行计算,判断AGV进行直线运动还是进行转弯运动,其中,当AGV满足沿水平直线方向运动、沿竖直直线方向运动和沿对角线方向运动中的一种时,AGV走直线运动:
沿水平直线方向运动:
沿竖直直线方向运动:
沿对角线方向运动:
其中,(x i , y i )表示AGV当前所在位置坐标,(x i+1, y i+1)表示AGV执行完动作后所处的位置坐标;(x i-1, y i-1)表示AGV上一步所在位置坐标;(x i , y i +p)和(x i , y i -p)分别表示在AGV当前所在位置坐标基础上,y轴正和负方向添加一个栅格边长;(x i +p, y i )和(x i -p,y i )分别表示在AGV当前所在位置坐标基础上,x轴正和负方向添加一个栅格边长。
当AGV满足沿水平直线方向运动、沿竖直直线方向运动和沿对角线方向运动中的两种时,AGV出现转弯并且从起点开始的整个路径转弯数加一:
其中,corner代表本循环路径中已有的转弯数;AGV从起点到终点在二维栅格地图中的实际欧氏距离:
其中,D表示所述AGV本循环从起点到终点在二维栅格地图中行驶的总欧氏距离;m表示所述AGV行驶的总栅格数,包含起点和终点一共经过m+1个栅格;(x i , y i )表示所述AGV经过的第i个栅格坐标;AGV最优路径保证在路径长度最短的前提下,转弯数最少:
其中,D表示本循环AGV从起点到终点的总欧氏距离;d表示已知的AGV从起点到终点的最短欧氏距离;corner表示本循环AGV从起点到终点的转弯数;c表示已知的AGV从起点到终点的最少转弯数;最短欧氏距离d和最少转弯数c的初始设置值均为+∞。
本发明的另一个具体实施例,公开了一种基于DQN的AGV全局路径规划系统。参考图10,基于DQN的AGV全局路径规划系统包括:栅格地图构建模块1002,用于基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,仓储环境信息包括障碍物、AGV的起点、AGV的当前位置及AGV的终点位置;动作集扩充模块1004,用于扩充AGV在二维栅格地图中下一步采取的动作集;奖励函数设置模块1006,用于设置连续合理的奖励函数以区别AGV在二维栅格地图中每个栅格处获取的奖励值;以及最优路径输出模块1008,用于设计最优路径判别条件并根据最优路径判别条件在AGV运行完指定循环后,输出最优路径。
下文中,参考图2至图9以具体实例的方式,对基于DQN的AGV全局路径规划方法进行详细描述。
参考图2,对基于DQN的AGV全局路径规划方法可以包括:
S1、对环境信息进行感知,获取障碍物位置、AGV的起点、AGV的当前位置及AGV的终点位置,构建栅格边长为p的二维栅格地图模拟环境,具体地,p为二维栅格地图中的单位栅格的边长。
S2、为了增加路径规划的准确性,扩充AGV动作集,将传统DQN在栅格图中下一步能采取的动作由4个扩充为8个。
S3、为了缩短基于DQN的AGV全局路径规划时间,提升路径规划的效率,设置连续且合理的奖励函数reward,保证AGV在每一个栅格获取奖励值的区别,减少AGV无效探索的时间。
S4、为了配合AGV动作集的扩充,设计最优路径判别条件,根据此判别条件,在AGV运行完指定的回合(即,指定次数的循环)后,输出一条最优路径。
参考图9,具体地,S1:构建栅格边长为p的二维栅格地图模拟环境。
仿真环境采用pycharm编写,大小为17×25的栅格地图。图6中左上角黑色圆圈AGV等待区,下方浅灰色圆圈代表卸货点,右上方深灰色圆圈代表上包处,其余黑色方块代表障碍物;图7a、图8a中黑色圆圈代表AGV起点,浅灰色圆圈代表AGV终点,白色小圆圈代表AGV路径,黑色方块代表障碍物;图7b、图7c、图8b中浅灰色圆圈代表AGV起点,深灰色圆圈代表AGV终点,白色小圆圈代表AGV路径,黑色方块代表障碍物。
S2:扩充AGV动作集;
将传统DQN在栅格图中下一步能采取的动作由4个扩充为8个,参考图4a,现有的AGV动作集只包括上、下、左、右共4个方向,参考图4b,扩充AGV动作集为上、下、左、右、左上、右上、左下、右下共8个方向。
AGV能通过执行动作集中的动作,到达8个临近栅格中的一个。
AGV在当前位置坐标(x i , y i )通过执行动作a,就可到达栅格图中的临近位置坐标(x i+1, y i+1):
其中,(x i , y i )表示所述AGV当前位置坐标,(x i+1, y i+1)表示所述AGV执行完动作集中动作a后所处的邻近位置坐标;(x i , y i +p)和(x i , y i -p)分别表示在所述AGV当前所在位置坐标基础上,y轴正和负方向添加一个栅格边长;(x i +p, y i )和(x i -p, y i )分别表示在所述AGV当前所在位置坐标基础上,x轴正和负方向添加一个栅格边长。
S3:设置连续且合理的奖励函数reward。
根据Q-learning算法,建立Q值表,记录AGV与环境不断交互得到的奖励值,不断迭代修改Q表,增加选择正奖励的概率,进而不断更新动作策略集,使AGV每一步动作都趋向于最优动作。Q-learning算法的基本形式为:
其中,r t+1代表状态s t 情况下执行完动作a t 后立刻得到的奖励,s t+1表示s t 执行完动作a t 后的下一状态,a则代表状态s t+1情况下采取的所有动作,γ代表对未来奖励的衰减值;左侧的Q(s t ,a t )代表修改后的Q值表,右侧的Q(s t ,a t )代表Q值表中已有的Q估计值,是Q现实值,α代表学习率,对所述Q估计值和所述Q现实值之间有多少误差进行学习。
DQN中则构建两个神经网络,通过神经网络来代替Q表,一个用于计算Q估计,另一个用于计算Q现实,采用二者的均方差来训练网络,更新网络的损失函数。DQN自身包括两个神经网络(两个Q网络),都能输出Q值,但有一个网络可以被称为target Q网络,其与另一个Q网络结构一样,初始的权重也一样,只是Q网络每次迭代都会更新,而target Q网络是每隔一段时间才会更新,权重更新较慢,因此权重记为ω-。target Q网络计算Q值用于产生误差用于学习、辅助网络权重的更新, Q网络输出的值决定Q值,以及下一步AGV坐标。
其中,s t 为t时刻AGV的状态,Q(s t ,a t )为在s t 状态下采取动作a t 所取得的值,为s t+1状态下采取所有动作a的Q值最大者,r t+1是对状态s t+1的评估,表示AGV由s t 状态执行动作到s t+1状态所能取得的奖励值;a为折扣因子,表示未来奖励对当前动作的影响程度;Q(s t+1,a;w -)为预测网络Q值,Q(s t+1,a;w)为目标网络Q值;w -、w为神经网络相关参数;▽为梯度符号。DQN利用神经网络逼近Q(s t ,a t ),并通过梯度下降最小化误差。
参考图3,DQN中两个神经网络具有不同的网络参数,但是具有完全相同的网络结构,每个网络由输入层、隐藏层、输出层构成,输入层输入AGV当前状态S i (x,y),隐藏层含有n个神经元,激励函数选择RELU函数,输出动作集中动作的Q值,根据ε-greedy原则做出决策,选择下一步AGV所要采取的动作。
AGV每做出一个动作会获得一个奖励值,为了获得更高的奖励,AGV会在动作集中选取合理的动作。考虑到在后续局部路径规划中因转弯角度而带来的兜圈绕路问题,为了节约AGV能耗,降低AGV故障及零件磨损概率,在终点前的奖励函数中加入转弯数corner,减少AGV的转弯数,实现最优路径规划。
设置AGV在栅格图中下一步的奖励函数,如下所示:
其中,step distance表示预计本回合到达终点走过的总欧氏距离,long distance表示之前所有回合走到终点所走过的最长欧氏距离,corner表示本回合到达终点所进行的转弯数,cur distance表示这一步走完后到达终点的欧氏距离,next distance表示下一步走完后到达终点的欧氏距离。m、n表示常数系数,在实例中取m=0.9,n=0.01。
对AGV上一步、当前、下一步共三个栅格的坐标进行计算,判断AGV是否出现转弯情况,如果不满足走直线的要求,则说明AGV出现了转弯。
符合AGV直线运动的坐标表达式如下所示:
沿水平直线方向运动:
沿竖直直线方向运动(参考图5a):
沿对角线方向运动(参见图5b):
其中,(x i , y i )表示AGV当前所在位置坐标,(x i+1, y i+1)表示AGV执行完动作后所处的位置坐标;(x i-1, y i-1)表示AGV上一步所在位置坐标;(x i , y i +p)表示在AGV当前所在位置坐标基础上,y轴方向添加一个栅格边长;(x i +p, y i )表示在AGV当前所在位置坐标基础上,x轴方向添加一个栅格边长。
S4:设计最优路径判别条件
统计成功到达终点的AGV各回合总路径,统计它们从第一步到倒数第二步通过的坐标;
对AGV上一步、当前、下一步共三个栅格的坐标进行计算,判断AGV是否出现转弯情况;
其中,corner代表本回合路径中已有的转弯数。
通过判断AGV在栅格图中实际行驶的欧氏距离及最终路径转弯数,确定本回合内所能得到的最优路径。
AGV从起点到终点在栅格图中的实际欧氏距离:
其中,D表示AGV本循环从起点到终点在二维栅格地图中行驶的总欧氏距离;m表示AGV行驶的总栅格数,包含起点和终点一共经过m+1个栅格;(x i , y i )表示AGV经过的第i个栅格坐标;
AGV最优路径需要保证在路径长度最短的前提下,转弯数最少:
其中,D表示本循环AGV从起点到终点的总欧氏距离;d表示已知的AGV从起点到终点的最短欧氏距离;corner表示本循环AGV从起点到终点的转弯数;c表示已知的AGV从起点到终点的最少转弯数;最短欧氏距离d和最少转弯数c的初始设置值均为+∞。
参考图9,AGV到达下一步坐标后,判断AGV是否到达终点,当没有到达终点时,进一步判断是否碰到障碍物。如果AGV没有碰到障碍物则更新地图并进入下一次循环;否则当AGV碰到障碍物时则结束。当AGV到达终点时,判断当前路径是否优于之前的最优路径。如果当前路径优于之前的最优路径,则当前路径为最优路径,否则保留之前的最优路径。
当运行完设置的5000回合后,选择AGV路径欧氏长度最短或者转弯数最少的路径作为最优路径。
本申请的核心是提供一种全局路径规划方法,通过合理的奖励函数有效提高路径规划的效率,保证仓储中心的高效工作;本申请的另一核心是提供一种高效的最优路径判别条件,配合增加的AGV运动方向,有效提升路径规划的准确率。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于DQN的AGV全局路径规划方法,其特征在于,包括:
基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,所述仓储环境信息包括障碍物位置、所述AGV的起点、所述AGV的当前位置及所述AGV的终点位置;
扩充所述AGV在所述二维栅格地图中下一步采取的动作集;
设置连续合理的奖励函数以区别所述AGV在所述二维栅格地图中每个栅格处获取的奖励值;以及
设计最优路径判别条件并根据所述最优路径判别条件在所述AGV运行完指定循环后,输出最优路径。
2.根据权利要求1所述的基于DQN的AGV全局路径规划方法,其特征在于,扩充所述AGV在所述二维栅格地图中下一步采取的动作集进一步包括:
将上、下、左、右4个方向的动作集扩充为上、下、左、右、左上、右上、左下、右下8个方向的动作集;以及
所述AGV通过执行扩充的动作集中的动作到达所述二维栅格地图中的8个临近栅格中的一个。
3.根据权利要求2所述的基于DQN的AGV全局路径规划方法,其特征在于,所述AGV通过执行扩充的动作集中的动作到达所述二维栅格地图中的8个临近栅格中的一个,进一步包括:
所述AGV在所述当前位置坐标通过执行动作a到达所述二维栅格地图中的邻近位置坐标:
其中,(x i , y i )表示所述AGV当前位置坐标,(x i+1, y i+1)表示所述AGV执行完动作集中动作a后所处的邻近位置坐标;(x i , y i +p)和(x i , y i -p)分别表示在所述AGV当前所在位置坐标基础上,y轴正和负方向添加一个栅格边长;(x i +p, y i )和(x i -p, y i )分别表示在所述AGV当前所在位置坐标基础上,x轴正和负方向添加一个栅格边长。
4.根据权利要求1所述的基于DQN的AGV全局路径规划方法,其特征在于,设置连续合理的奖励函数以区别所述AGV在所述二维栅格地图中每个栅格处获取的奖励值进一步包括:
根据以下Q-learning算法,建立Q值表以记录所述AGV与所述模拟环境不断交互得到的奖励值;
其中,r t+1代表状态s t 情况下执行完动作a t 后立刻得到的奖励,s t+1表示s t 执行完动作a t 后的下一状态,a则代表状态s t+1情况下采取的所有动作,γ代表对未来奖励的衰减值;左侧的Q(s t ,a t )代表修改后的Q值表,右侧的Q(s t ,a t )代表Q值表中已有的Q估计值,是Q现实值,α代表学习率,对所述Q估计值和所述Q现实值之间有多少误差进行学习;
DQN构建两个神经网络,通过神经网络来代替Q值表,一个用于计算Q估计值,另一个用于计算Q现实值,每个网络都由输入层、隐藏层和输出层构成,所述输入层输入所述AGV当前位置坐标,所述隐藏层含有n个神经元,以及所述输出层输出当前坐标的所有Q值,根据ε-greedy原则做出决策,得到执行所述扩充的动作集中的动作a的邻近位置坐标作为AGV下一步的环境坐标。
6.根据权利要求5所述的基于DQN的AGV全局路径规划方法,其特征在于,所述AGV每做出一个动作会获得一个奖励值,所述AGV在所述扩充的动作集中选取合理动作以获得更高奖励值。
7.根据权利要求1所述的基于DQN的AGV全局路径规划方法,其特征在于,根据所述最优路径判别条件在所述AGV运行完指定循环后,输出最优路径进一步包括:
通过判断所述AGV在所述二维栅格地图中实际行驶的欧氏距离及最终路径转弯数,确定本循环路径中的最优路径。
8.根据权利要求7所述的基于DQN的AGV全局路径规划方法,其特征在于,通过判断所述AGV在所述二维栅格地图中实际行驶的欧氏距离及最终路径转弯数进一步包括:对所述AGV上一步、当前、下一步共三个栅格的坐标进行计算,判断所述AGV进行直线运动还是进行转弯运动,其中,当所述AGV满足沿水平直线方向运动、沿竖直直线方向运动和沿对角线方向运动中的一种时,所述AGV走直线运动:
所述沿水平直线方向运动:
所述沿竖直直线方向运动:
所述沿对角线方向运动:
其中,(x i , y i )表示AGV当前所在位置坐标,(x i+1, y i+1)表示AGV执行完动作后所处的位置坐标;(x i-1, y i-1)表示AGV上一步所在位置坐标;(x i , y i +p)表示在AGV当前所在位置坐标基础上,y轴方向添加一个栅格边长;(x i +p, y i )表示在AGV当前所在位置坐标基础上,x轴方向添加一个栅格边长。
9.根据权利要求8所述的基于DQN的AGV全局路径规划方法,其特征在于,当所述AGV满足沿水平直线方向运动、沿竖直直线方向运动和沿对角线方向运动中的两种时,所述AGV出现转弯并且从起点开始的整个路径转弯数加一:
其中,corner代表所述本循环路径中已有的转弯数;
所述AGV从起点到终点在所述二维栅格地图中的实际欧氏距离:
其中,D表示所述AGV本循环从起点到终点在二维栅格地图中行驶的总欧氏距离;m表示所述AGV行驶的总栅格数,包含起点和终点一共经过m+1个栅格;(x i , y i )表示所述AGV经过的第i个栅格坐标;
所述AGV最优路径保证在路径长度最短的前提下,转弯数最少:
其中,D表示本循环AGV从起点到终点的总欧氏距离;d表示已知的AGV从起点到终点的最短欧氏距离;corner表示本循环AGV从起点到终点的转弯数;c表示已知的AGV从起点到终点的最少转弯数;最短欧氏距离d和最少转弯数c的初始设置值均为+∞。
10.一种基于DQN的AGV全局路径规划系统,其特征在于,包括:
栅格地图构建模块,用于基于感知到的仓储环境信息构建栅格边长为p的二维栅格地图的模拟环境,其中,所述仓储环境信息包括障碍物、所述AGV的起点、所述AGV的当前位置及所述AGV的终点位置;
动作集扩充模块,用于扩充所述AGV在所述二维栅格地图中下一步采取的动作集;
奖励函数设置模块,用于设置连续合理的奖励函数以区别所述AGV在所述二维栅格地图中每个栅格处获取的奖励值;以及
最优路径输出模块,用于设计最优路径判别条件并根据所述最优路径判别条件在所述AGV运行完指定循环后,输出最优路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210134890.XA CN114185354B (zh) | 2022-02-15 | 2022-02-15 | 一种基于dqn的agv全局路径规划方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210134890.XA CN114185354B (zh) | 2022-02-15 | 2022-02-15 | 一种基于dqn的agv全局路径规划方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114185354A true CN114185354A (zh) | 2022-03-15 |
CN114185354B CN114185354B (zh) | 2022-05-17 |
Family
ID=80545884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210134890.XA Active CN114185354B (zh) | 2022-02-15 | 2022-02-15 | 一种基于dqn的agv全局路径规划方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114185354B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114967711A (zh) * | 2022-07-04 | 2022-08-30 | 江苏集萃清联智控科技有限公司 | 一种基于动态加权地图的多agv协同路径规划方法及系统 |
CN116166027A (zh) * | 2023-02-28 | 2023-05-26 | 安徽常云科技服务有限公司 | 一种用于仓储物流的智能机器人控制方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089553A1 (en) * | 2016-09-27 | 2018-03-29 | Disney Enterprises, Inc. | Learning to schedule control fragments for physics-based character simulation and robots using deep q-learning |
CN110883776A (zh) * | 2019-11-29 | 2020-03-17 | 河南大学 | 一种快速搜索机制下改进dqn的机器人路径规划算法 |
CN110989570A (zh) * | 2019-10-15 | 2020-04-10 | 浙江工业大学 | 一种多agv防碰撞协同路径规划方法 |
US20200174471A1 (en) * | 2018-11-30 | 2020-06-04 | Denso International America, Inc. | Multi-Level Collaborative Control System With Dual Neural Network Planning For Autonomous Vehicle Control In A Noisy Environment |
CN111310999A (zh) * | 2020-02-14 | 2020-06-19 | 西安建筑科技大学 | 一种基于改进蚁群算法的仓库移动机器人路径规划方法 |
CN113074738A (zh) * | 2021-04-06 | 2021-07-06 | 武汉理工大学 | 一种基于Dyna框架的混合智能路径规划方法及装置 |
-
2022
- 2022-02-15 CN CN202210134890.XA patent/CN114185354B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089553A1 (en) * | 2016-09-27 | 2018-03-29 | Disney Enterprises, Inc. | Learning to schedule control fragments for physics-based character simulation and robots using deep q-learning |
US20200174471A1 (en) * | 2018-11-30 | 2020-06-04 | Denso International America, Inc. | Multi-Level Collaborative Control System With Dual Neural Network Planning For Autonomous Vehicle Control In A Noisy Environment |
CN110989570A (zh) * | 2019-10-15 | 2020-04-10 | 浙江工业大学 | 一种多agv防碰撞协同路径规划方法 |
CN110883776A (zh) * | 2019-11-29 | 2020-03-17 | 河南大学 | 一种快速搜索机制下改进dqn的机器人路径规划算法 |
CN111310999A (zh) * | 2020-02-14 | 2020-06-19 | 西安建筑科技大学 | 一种基于改进蚁群算法的仓库移动机器人路径规划方法 |
CN113074738A (zh) * | 2021-04-06 | 2021-07-06 | 武汉理工大学 | 一种基于Dyna框架的混合智能路径规划方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114967711A (zh) * | 2022-07-04 | 2022-08-30 | 江苏集萃清联智控科技有限公司 | 一种基于动态加权地图的多agv协同路径规划方法及系统 |
CN116166027A (zh) * | 2023-02-28 | 2023-05-26 | 安徽常云科技服务有限公司 | 一种用于仓储物流的智能机器人控制方法及系统 |
CN116166027B (zh) * | 2023-02-28 | 2023-12-26 | 湛江诚通物流有限公司 | 一种用于仓储物流的智能机器人控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114185354B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114185354B (zh) | 一种基于dqn的agv全局路径规划方法和系统 | |
Tang et al. | Geometric A-star algorithm: An improved A-star algorithm for AGV path planning in a port environment | |
Lakshmanan et al. | Complete coverage path planning using reinforcement learning for tetromino based cleaning and maintenance robot | |
Vanegas et al. | Inverse design of urban procedural models | |
CN112325897B (zh) | 基于启发式深度强化学习的路径规划方法 | |
Zhao et al. | The experience-memory Q-learning algorithm for robot path planning in unknown environment | |
CN110883776B (zh) | 一种快速搜索机制下改进dqn的机器人路径规划算法 | |
CN109059924A (zh) | 基于a*算法的伴随机器人增量路径规划方法及系统 | |
CN113296520B (zh) | 融合a*与改进灰狼算法的巡检机器人路径规划方法 | |
Ntakolia et al. | Autonomous path planning with obstacle avoidance for smart assistive systems | |
CN113741444B (zh) | 一种基于多智能体邻近交互与轨迹预测的路径规划方法 | |
Zhang et al. | Path planning based quadtree representation for mobile robot using hybrid-simulated annealing and ant colony optimization algorithm | |
Guo et al. | A fusion method of local path planning for mobile robots based on LSTM neural network and reinforcement learning | |
Sang et al. | A novel neural multi-store memory network for autonomous visual navigation in unknown environment | |
CN109799820A (zh) | 基于比较式随机路标图法的无人船舶局部路径规划方法 | |
Liu et al. | Learned sampling distributions for efficient planning in hybrid geometric and object-level representations | |
CN114089752A (zh) | 机器人的自主探索方法、机器人及计算机可读存储介质 | |
Gao et al. | A vision-based irregular obstacle avoidance framework via deep reinforcement learning | |
Li et al. | A mixing algorithm of ACO and ABC for solving path planning of mobile robot | |
Zheng et al. | A hierarchical approach for mobile robot exploration in pedestrian crowd | |
Funk et al. | Graph-based Reinforcement Learning meets Mixed Integer Programs: An application to 3D robot assembly discovery | |
CN109798899A (zh) | 一种面向海底未知地形搜索的树扩散启发式路径规划方法 | |
Chen et al. | Deep reinforcement learning-based robot exploration for constructing map of unknown environment | |
Lin et al. | Lift path planning for tower cranes based on environmental point clouds | |
Lv et al. | A deep safe reinforcement learning approach for mapless navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |