CN110081893A - 一种基于策略重用和强化学习的导航路径规划方法 - Google Patents
一种基于策略重用和强化学习的导航路径规划方法 Download PDFInfo
- Publication number
- CN110081893A CN110081893A CN201910255926.8A CN201910255926A CN110081893A CN 110081893 A CN110081893 A CN 110081893A CN 201910255926 A CN201910255926 A CN 201910255926A CN 110081893 A CN110081893 A CN 110081893A
- Authority
- CN
- China
- Prior art keywords
- strategy
- policy
- state
- value
- cycle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
一种基于策略重用和强化学习的导航路径规划方法,它属于导航路径规划技术领域。本发明解决了现有方法对源策略的重用不充分的问题。本发明引入表示状态重要性的函数来辅助策略选择、策略重用以及策略库重构,实现了在路网地图中快速规划导航路径的目的。相比较于现有传统路径规划方法,本发明的算法ARES‑TL采用了基于策略重用的强化学习算法,并实时更新完整的策略库,通过占用一些空间存储策略库来节约算法时间,且强化学习算法能应对在线微量更新的地图,同时相对于同类型的策略重用方法,本发明的算法ARES‑TL相对于PRQL以及OPS‑TL规避了对不相干的源策略的重用导致的负迁移,提高了探索效率且能准确地完成导航任务。本发明可以应用于导航路径规划技术领域。
Description
技术领域
本发明属于导航路径规划技术领域,具体涉及一种导航路径规划方法。
背景技术
导航路径规划是导航系统的重要组成部分,其应用体现在自动驾驶以及物流运输等领域。导航路径规划的目的是在给定的路网地图下,计算出起始位置以及目标位置之间连通的一条最短路径。在实际应用中,导航路径规划算法对于给定的路网以及目标位置可以生成一个对应的导航策略,导航策略能够通过已有的知识给出在实时位置的行进方向。现有的导航系统一般通过确定的动态规划方法来实现路径规划,常见的方法包括Dijkstra算法,Floyd算法以及A*算法等。然而。这些确定性的算法在针对规模较大的问题时复杂度较高,且不能针对动态路网计算生成实时的行走路径。因此,导航路径规划算法需要提高其自学习能力和自适应性以面对不确定的路网环境。
在人工智能领域中,强化学习(Reinforcement Learning,RL)是解决序贯决策问题的一个重要框架。其优点体现在对环境的自适应性以及很少依赖人类经验的自学习能力,适合作为解决导航路径规划问题的新的算法框架。然而,强化学习中智能体(Agent)若不借助人类或历史的经验,从零开始学习(learning from tabula rasa)到完成困难的目标任务(例如前往未到过目标位置)通常很缓慢。
一般的思路是通过迁移学习(Transfer Learning)来借助历史经验来帮助强化学习提升学习效率,可以使强化学习智能体能够对环境有更广泛地认识和更有效地探索。在导航领域中,对于固定或有细微变化的路网地图内容,利用迁移学习可以免去对不同目标位置的路径规划中对于基本路网信息相关知识的重复训练,能够节约训练时间从而更快地提供所需路径的导航策略。
策略重用作为一种迁移学习方法,通过重用过去的类似学习策略来加速新任务的强化学习过程。关于策略重用的现有研究包括再利用专家的建议,以奖励形成方式定义政策模拟集,将策略选择模型化为贝叶斯最优化问题,以及通过重用实例来估计奖励函数从而将源任务的经验实例迁移到目标任务等。然而这些方法还需要更多的额外知识来迁移源策略。Fernandez和Veloso提出了策略重用(Policy Reuse Q-Learning,PRQL)方法和策略库重构(Policy Library through Policy Reuse,PLPR)方法。其中:PRQL引入了用于促进探索的先前策略的库,使得包含车辆导航系统在内的智能体(Agent)能够快速收集相关信息而加速学习。然而负迁移的存在使得PRQL可能收敛到次优策略。而PLPR构建一个没有明确理论保证的政策库。之后出现了对PRQL的策略选择进行优化的方法(OPS-TL),该方法借鉴了解决多臂赌博机(Multi-Armed Bandits,MAB)问题的UCB1方法在线学习。然而OPS-TL需要更多的性能反馈来评估选择源,这需要一段时间来锁定早已了解的合适的策略,并且还需要人工设置学习率以达到一定时间后的独立学习。
由于现有方法在重用策略时采取了步步趋离的方式,且其后期的学习率很低,导致现有方法对源策略的重用很不充分。
发明内容
本发明的目的是为了解决现有方法对源策略的重用不充分的问题。
本发明为解决上述技术问题采取的技术方案是:一种基于策略重用和强化学习的导航路径规划方法,该方法包括以下步骤:
步骤一、选取当前路网地图对应的策略库,计算策略库中未包含关键地图位置的源策略的重要状态;
步骤二、设置最大训练周期的个数为K,利用置信度从策略库的源策略中选取出重用策略,并对自身策略或选取出的重用策略进行重用;
步骤三、策略重用获得的新策略通过强化学习进行更新,获得更新后的新策略;
步骤四、判断是否将更新后的新策略加入策略库中,若加入,则获得新的策略库继续用于导航路径规划;若不加入,则将原策略库继续用于导航路径规划。
本发明的有益效果是:本发明的一种基于策略库的策略重用和强化学习的导航路径规划方法,本发明引入表示状态重要性的函数来辅助策略选择、策略重用以及策略库重构,实现了在路网地图中快速规划导航路径的目的。相比较于现有传统路径规划方法,本发明的算法ARES-TL采用了基于策略重用的强化学习算法,并实时更新完整的策略库,通过占用一些空间存储策略库来节约算法时间,且强化学习算法能应对在线微量更新的地图,同时相对于同类型的策略重用方法,本发明的算法ARES-TL相对于PRQL以及OPS-TL规避了对不相干的源策略的重用导致的负迁移,提高了探索效率且能准确地完成导航任务。
附图说明
图1是各任务在环境Gridworld2006的分布图;
图2是任务1的C函数归一化后分布的可视化图;
图3是任务2的C函数归一化后分布的可视化图;
图4是任务3的C函数归一化后分布的可视化图;
图5是任务4的C函数归一化后分布的可视化图;
图6是任务46的C函数归一化后分布的可视化图;
图7是任务29的C函数归一化后分布的可视化图;
图8是策略库包含相似源任务的情况下,ε-greedy,PRQL,OPS-TL,ARQL和ARES-TL五种方法的累积折合收益对比图;
图9是策略库不包含相似源任务的情况下,ε-greedy,PRQL,OPS-TL,ARQL和ARES-TL五种方法的累积折合收益对比图;
图10是策略库包含相似源任务的情况下,任务1、2、3、4在PRQL方法下对源任务的重用频率对比图;
图11是策略库包含相似源任务的情况下,任务1、2、3、4在OPS-TL方法下对源任务的重用频率对比图;
图12是策略库包含相似源任务的情况下,任务1、2、3、4在ARQL方法下对源任务的重用频率对比图;
图13是策略库包含相似源任务的情况下,任务1、2、3、4在ARES-TL方法下对源任务的重用频率对比图;
图14是策略库不包含相似源任务的情况下,任务1、2、3、4在PRQL方法下对源任务的重用频率对比图;
图15是策略库不包含相似源任务的情况下,任务1、2、3、4在OPS-TL方法下对源任务的重用频率对比图;
图16是策略库不包含相似源任务的情况下,任务1、2、3、4在ARQL方法下对源任务的重用频率对比图;
图17是策略库不包含相似源任务的情况下,任务1、2、3、4在ARES-TL方法下对源任务的重用频率对比图。
具体实施方式
具体实施方式一:本实施方式所述的一种基于策略重用和强化学习的导航路径规划方法,该方法包括以下步骤:
步骤一、选取当前路网地图对应的策略库,计算策略库中未包含关键地图位置的源策略的重要状态;
步骤二、设置最大训练周期的个数为K(K可以设置大一些,实际达到自学习条件则自动跳出不再进行策略重用),利用置信度从策略库的源策略中选取出重用策略,并对自身策略或选取出的重用策略进行重用;
步骤三、策略重用获得的新策略通过强化学习进行更新,获得更新后的新策略;
步骤四、判断是否将更新后的新策略加入策略库中,若加入,则获得新的策略库继续用于导航路径规划;若不加入,则将原策略库继续用于导航路径规划。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一的具体过程为:
选取当前路网地图对应的策略库,对于策略库中未包含关键地图位置(重要状态)的源策略,则需要计算未包含关键地图位置的源策略的重要状态;
对于需要计算重要状态的任一源策略,初始化浮动阈值θ=0,再进入M’(M’≥8,较小)个策略执行周期,每个策略执行周期的第一步均选取路网地图的一个边缘位置作为初始状态s0(前八个可以取路网地图的八个方向的边缘位置作为初始状态),对于每个策略执行周期的第t步,车辆导航系统的当前状态为st-1,选取使得数值函数Q(st-1,a)值最大的动作at来行动到达st,并在第t+1步判断st是否为更新重要状态,若
其中:st为第t+1步车辆导航系统的当前状态;C(st)为状态st上的数值函数,C(st+1)为状态st+1上的数值函数,C(st-1)为状态st-1上的数值函数;
则将源策略的临时的重要状态更新为st,并更新θ:
M’个策略执行周期结束后,将最终保留下来的临时的重要状态作为该源策略的重要状态
同理,计算出全部的需要计算重要状态的源策略的重要状态。
具体实施方式三:本实施方式与具体实施方式二不同的是:所述步骤二的具体过程为:
源策略的选择考量了策略库中各个策略的状态值函数,并实时基于置信度变化将策略库中的一些策略从备选策略排除:
步骤二一、在第一个训练周期将各个源策略πk的初始置信度pk均设置为0.5;对于之后的每一个训练周期,各个源策略πk的置信度将通过在前一个训练周期车辆导航系统是否达到目标位置sG且通过源策略πk的重要状态来确定,如式(3)所示:
其中:Ik代表判决条件;
设τ′为上一训练周期包含所有经过的状态的一条轨迹,则有:
sG∈τ′且代表上一训练周期达到目标位置sG且通过源策略πk的重要状态
显然,当Ik=1时,该源策略的置信度就会增加,反之,置信度会衰减;
每一个训练周期开始,若某源策略的置信度低于最高置信度的源策略的置信度maxk(pk)的一半时,则置信度低于maxk(pk)的一半的源策略将不再作为备选源策略重用于当前任务;
步骤二二、继续在剩余的备选源策略中选取,若第n-1个训练周期的轨迹τn-1达到任务终止状态sG(当前导航任务的目标位置)且经过至少一个备选源策略的重要状态,则取τn-1中从sG开始到最后一个重要状态期间所经过的所有状态组成的集合Sn-1,且集合Sn-1中包含sG和分别计算出每个源策略πk在集合Sn-1中所有状态上的C值的均值
若中最大的值超过阈值(由于数值函数C已经在其定义域S(包含所有状态的集合)上归一化了,一般设置为状态数的倒数,则取使最大的k对应的源策略πk作为重用策略π′;若第n-1个训练周期的轨迹τn-1未达到任务终止状态sG和任何备选源策略的重要状态,或求得的中最大的值未超过阈值则依次取各源策略以及自身策略作为重用策略π′;
步骤二三、每个训练周期均对当前训练周期内选定的重用策略π′进行重用,设置最大限定步数为H,第一步迭代开始时随机选取路网地图的一个位置作为初始状态s0′,每一步迭代车辆导航系统均将执行一个动作;
迭代过程中车辆导航系统的探索行为分为以下两种情况:
若以源策略作为重用策略且还未到达该源策略的重要状态,则选取使得选定的重用策略的状态-动作值函数Q(sh-1,a)值最大的动作;
若以自身策略作为重用策略或以源策略作为重用策略且该策略的重要状态在当前训练周期已经经过,则依概率∈(0<∈<1,∈一般设置为0.95)选取使得自身策略的状态-动作值函数Q(sh-1,a)值最大的动作,或依概率(1-∈)随机选择一个动作;
每一步迭代均获得对自身策略更新后的策略,每一步迭代都对更新后策略的Q函数和C函数进行处理;
对于第h步迭代,车辆导航系统的当前状态为sh-1,经过选择的动作ah-1到达sh,并得到一个收益rh,每一步迭代中更新Q值、并预更新C值:
C′(sh)←(1-α)C(sh)+α·C(sh-1)+1 (8)
其中:γ是折扣因子,取值为[0,1];α为更新步长,C′函数对于重复经过的状态只在第一次经过时进行预备更新,且在当前训练周期到达目的位置时候才将C′函数的值直接赋值给C,作为正式对C的更新;
当到达终止状态或达到最大限定步数H后,停止当前训练周期;
若经过K’个训练周期(K’与地图大小有关,实验设置|S|为路网地图划分的区块对应的状态数),备选策略数目仍然多于一个,则跳出步骤二直接执行步骤三;
若已经持续重用某一源策略超过K’个训练周期且最近K’个训练周期达到目标位置的次数占比不高于或不低于则跳出步骤二直接执行步骤三;否则继续步骤二的下一个训练周期,直至跳出步骤二来执行步骤三;
若步骤二的训练周期已经达到K步,则跳出步骤二来执行步骤三。
具体实施方式四:本实施方式与具体实施方式一不同的是:所述步骤三的具体实现过程为:
对策略重用获得的新策略进行强化学习,每个训练周期的最大迭代步数为H步,每个训练周期开始时随机选取路网地图的一个位置作为初始状态s0″,在第h步车辆导航系统的当前状态sh-1下,依概率∈选取使得自身策略的状态-动作值函数Q(sh-1,a)值最大的动作且依概率(1-∈)随机选择一个动作,并经过选择的动作ah-1到达sh,得到一个收益rh,在每一步中更新Q值,并预更新C值,更新方式与式(7)和式(8)相同:
C′(sh)←(1-α)C(sh)+α·C(sh-1)+1 (8)
若步数超过H或车辆导航系统到达终止状态,则跳出当前周期;
设ε=0.001,若Q函数值满足收敛条件:
maxs,a(|Qn(s,a)-Q′n-N′(s,a)|)≤ε (9)
Qn(s,a)代表第n个训练周期更新后的Q值,Q′n-N′(s,a)代表第n-N′个训练周期更新后的Q值;
Q函数值满足收敛条件后得到训练好的Q函数,从真实环境的当前位置出发依次按照各个位置s上使得函数Q(s,a)最大的动作a行动,并到达终止状态跳出步骤三进入步骤四;否则继续步骤三的下一个周期;
结束步骤三后即获得更新后的新策略。
具体实施方式五:本实施方式与具体实施方式四不同的是:所述判断是否将更新后的新策略加入策略库中,其具体过程为:
单向KL散度方法(uni-PLKL)和双向KL散度方法(bi-PLKL),两者均借助各策略对应的C函数分布的KL散度(相对熵)来表示其策略之间的不相似程度,单向KL散度方法将与所有源策略均不相似的新策略加入策略库,双向KL散度方法进一步依据KL散度的不对称性来对源策略库的某些代表性弱的策略进行替换。
不失一般性,对于导航对象在路网地图的不同拓扑位置的集合S,可以将其看作对强化学习环境中所有可能的离散状态s的集合,C函数是定义在S内各个状态s上的一个分布值函数。将训练好的C函数对应在新策略和原策略上分别记作Ctask和Csource;
计算源策略相对于更新后的新策略的KL散度DKL来判定源策略是否能够代表更新后的新策略,如式(10)所示:
式(10)中DKL值越大,越表明源策略不能代表更新后的新策略,当DKL超过设定阈值δ,单向KL散度方法决定将更新后的新策略加入策略库中;
计算更新后的新策略相对于源策略的KL散度DKL-inv来判定更新后的新策略是否能代表源策略,如式(11)所示:
式(11)中DKL-inv值越小,表示更新后的新策略能够替代源策略,当DKL值超过设定阈值δ,而DKL-inv值却低于设定阈值δ时,决定用更新后的新策略替换掉策略库中代表性弱的源策略。
实验设置
本发明采用格子世界(Gridworld)是作为导航路径规划问题的模拟实验环境,这个环境由n个相同大小的方格子组成(多组成为大的矩形),其对应到马尔科夫决策过程:每个格子为一个状态s,每个格子到相邻格子的过程为一个动作a,每执行一次动作根据新的格子的属性给予一个回报r。为便于对比,本发明的格子世界取2006年Fernando用的只有普通,墙壁,终点这三类格子属性的格子世界。格子世界唯一目标就是更快地到达终点。在迁移强化学习中一般认为每个终点对应一个任务task,考虑到算法的泛化性,有4个实验假设。为了对接下来的实验有个直观的认识,本发明对接下来的实验环境Grid2006进行task编号,并采用1,2,3,4号任务作为源策略组成策略库,采用46号作为策略重用的正向对比图,采用29号(没有合适的源策略)作为实验的逆向对比图,各个任务在环境Gridworld2006的分布如图1所示;
实验假设
车辆导航系统在环境运动过程中不能确定下一个状态和对应的回报;
车辆导航系统不知任意两个格子的相对距离(曼哈顿距离,L1-范数);
车辆导航系统不知每次任务终点的绝对位置(只有到达终点才知道);
所将到达的新状态只与当前状态以及所执行的动作有关;
第一组实验对一些代表性策略的C函数归一化后分布进行可视化,以表明C函数引入的是否有效。
第二组实验分别对比ε-greedy,PRQL,OPS-TL,ARQL和ARES-TL这五种方法在在学习新任务时的表现,新任务分为与源策略库中有适合策略的任务和完全独立的任务两种情况。
第三组实验主要通过比较生成的策略库对环境结构的表示来评价算法的有效性。实验分别采取基于单向KL散度的策略库更新方法和基于双向KL散度的策略库重构方法,依次学习任务1至50,观察两者得到的最终的源策略库并与PLPR方法的结果作对比分析。
实验结果
对于重要值函数C表有效性的可视化分析:
本发明对源策略对应的任务1,2,3,4和两个实验策略的任务46,29的C函数归一化后分布进行可视化(其中越深,表示状态越重要),可视化图见图2-7所示:
从图2-7的六个Cout子图就可以看出Task 5的C值的重要状态分布与Task 2很大程度的接近(深色区域),而Task 6的C值的重要状态分布比较独立,与源任务哪个都不相同,故不应该完全重用源策略或直接放弃迁移学习这个方法(若不一定程度可能导致出现负迁移)。
对两种新任务在各种策略重用方法中的学习效果验证:
本发明实验中对比ε-greedy,PRQL,OPS-TL,ARQL和ARES-TL这五种方法在策略库中有无合适策略两种情况下的表现,采用1,2,3,4号任务作为源策略组成策略库,采用46号作为存在其相似源策略的策略重用的目标任务,采用29号作为不存在相似源策略的典型目标任务,任务的位置分布见图1。本发明对目标任务学习的Q值和C值进行4000轮训练,并在每100轮时输出此时对应的整体累计折合收益的期望以及此时各个源任务在每100轮被重用的频率(ε-greedy不存在重用频率),实验每个方法进行了10次取平均值,其方差大小用经过对应点的竖直的短线长度表示,如图8和9所示:
从图8可以看出以收益期望,起跳,以及收敛时间作为评价指标,均有较优顺序ARQL~ARES-TL>OPS>PRQL>ε-greedy。可以判断在有合适的源策略的情况下:ARQL和ARES-TL起跳很高,于2000轮左右便完全收敛。从图9可以看出以收益期望,起跳,以及收敛时间作为评价指标,均有较优顺序ε-greedy~ARES-TL~OPS-TL>ARQL>PRQL。同时可以看到AERS-TL最终基本接近ε-greedy。
从图10-13可以看出task 2在三个图中都是选取频率比较高的一项,这也与本发明策略重用的目的相一致,但是PRQL开始锁定最优策略较晚,故训练结果不如ARES-TL,ARQL和OPS-TL,同时OPS在500轮左右快速复用并丢弃了源策略task 2,这表明其学习源策略不是很完全。图14-17可以发现由于没有适合的源策略,过于锁定源策略的ARQL方法表现并不好。快速取舍的ARES-TL方法较快收敛于ε-greedy,说明对应源策略重要状态的C值做判断进行对源策略复用的取舍是可采用的。综合比较,ARES-TL表现最好。
对基于KL散度的策略库重构方法的效果验证
实验分别采取基于单向KL散度的策略库更新方法和基于双向KL散度的策略库重构方法依次处理50个任务,阈值均取δ=49/90。实验得到:PLPR的构成的策略库的目标分布不一定均匀,出现两个源策略存在相同房间,同时有的房间没有源策略的情况,其生成策略库的渐进公式也不严格。单向KL散度和双向KL散度形成的策略库均很好地将各个房间的独特的策略进行了筛选,能够很好地帮助迁移到该环境下的一个新任务。其中:双向KL散度的结果更为平衡,但对应的双向算法耗时是单向的两倍。综合比较,本发明提出的基于C函数分布和其之间KL散度的两个重构策略库的方法都十分好,比PRQL的构建方式更具有稳定性和合理性。
本发明的上述算例仅为详细地说明本发明的计算模型和计算流程,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (5)
1.一种基于策略重用和强化学习的导航路径规划方法,其特征在于,该方法包括以下步骤:
步骤一、选取当前路网地图对应的策略库,计算策略库中未包含关键地图位置的源策略的重要状态;
步骤二、设置最大训练周期的个数为K,利用置信度从策略库的源策略中选取出重用策略,并对自身策略或选取出的重用策略进行重用;
步骤三、策略重用获得的新策略通过强化学习进行更新,获得更新后的新策略;
步骤四、判断是否将更新后的新策略加入策略库中,若加入,则获得新的策略库继续用于导航路径规划;若不加入,则将原策略库继续用于导航路径规划。
2.根据权利要求1所述的一种基于策略重用和强化学习的导航路径规划方法,其特征在于,所述步骤一的具体过程为:
选取当前路网地图对应的策略库,对于策略库中未包含关键地图位置的源策略,则需要计算未包含关键地图位置的源策略的重要状态;
对于需要计算重要状态的任一源策略,初始化浮动阈值θ=0,再进入M’个策略执行周期,每个策略执行周期的第一步均选取路网地图的一个边缘位置作为初始状态s0,对于每个策略执行周期的第t步,车辆导航系统的当前状态为st-1,选取使得数值函数Q(st-1,a)值最大的动作at来行动到达st,并在第t+1步判断st是否为更新重要状态,若
其中:st为第t+1步车辆导航系统的当前状态;C(st)为状态st上的数值函数,C(st+1)为状态st+1上的数值函数,C(st-1)为状态st-1上的数值函数;
则将源策略的临时的重要状态更新为st,并更新θ:
M’个策略执行周期结束后,将最终保留下来的临时的重要状态作为该源策略的重要状态
同理,计算出全部的需要计算重要状态的源策略的重要状态。
3.根据权利要求2所述的一种基于策略重用和强化学习的导航路径规划方法,其特征在于,所述步骤二的具体过程为:
步骤二一、在第一个训练周期将各个源策略πk的初始置信度pk均设置为0.5;对于之后的每一个训练周期,各个源策略πk的置信度将通过在前一个训练周期车辆导航系统是否达到目标位置sG且通过源策略πk的重要状态来确定,如式(3)所示:
其中:Ik代表判决条件;
设τ′为上一训练周期包含所有经过的状态的一条轨迹,则有:
sG∈τ′且代表上一训练周期达到目标位置sG且通过源策略πk的重要状态
每一个训练周期开始,若某源策略的置信度低于最高置信度的源策略的置信度maxk(pk)的一半时,则置信度低于maxk(pk)的一半的源策略将不再作为备选源策略重用于当前任务;
步骤二二、继续在剩余的备选源策略中选取,若第n-1个训练周期的轨迹τn-1达到任务终止状态sG且经过至少一个备选源策略的重要状态,则取τn-1中从sG开始到最后一个重要状态期间所经过的所有状态组成的集合Sn-1,且集合Sn-1中包含sG和分别计算出每个源策略πk在集合Sn-1中所有状态上的C值的均值
若中最大的值超过阈值则取使最大的k对应的源策略πk作为重用策略π′;若第n-1个训练周期的轨迹τn-1未达到任务终止状态sG和任何备选源策略的重要状态,或求得的中最大的值未超过阈值则依次取各源策略以及自身策略作为重用策略π′;
步骤二三、每个训练周期均对当前训练周期内选定的重用策略π′进行重用,设置最大限定步数为H,第一步迭代开始时随机选取路网地图的一个位置作为初始状态s0′,每一步迭代车辆导航系统均将执行一个动作;
迭代过程中车辆导航系统的探索行为分为以下两种情况:
若以源策略作为重用策略且还未到达该源策略的重要状态,则选取使得选定的重用策略的状态-动作值函数Q(sh-1,a)值最大的动作;
若以自身策略作为重用策略或以源策略作为重用策略且该策略的重要状态在当前训练周期已经经过,则依概率∈选取使得自身策略的状态-动作值函数Q(sh-1,a)值最大的动作,或依概率(1-∈)随机选择一个动作;
每一步迭代均获得对自身策略更新后的策略,每一步迭代都对更新后策略的Q函数和C函数进行处理;
对于第h步迭代,车辆导航系统的当前状态为sh-1,经过选择的动作ah-1到达sh,并得到一个收益rh,每一步迭代中更新Q值、并预更新C值:
C′(sh)←(1-α)C(sh)+α·C(sh-1)+1 (8)
其中:γ是折扣因子,取值为[0,1];α为更新步长,C′函数对于重复经过的状态只在第一次经过时进行预备更新,且在当前训练周期到达目的位置时候才将C′函数的值直接赋值给C,作为正式对C的更新;
当到达终止状态或达到最大限定步数H后,停止当前训练周期;
若经过K’个训练周期,备选策略数目仍然多于一个,则跳出步骤二直接执行步骤三;
若已经持续重用某一源策略超过K’个训练周期且最近K’个训练周期达到目标位置的次数占比不高于或不低于则跳出步骤二直接执行步骤三;否则继续步骤二的下一个训练周期,直至跳出步骤二来执行步骤三;
若步骤二的训练周期已经达到K步,则跳出步骤二来执行步骤三。
4.根据权利要求1所述的一种基于策略重用和强化学习的导航路径规划方法,其特征在于,所述步骤三的具体实现过程为:
对策略重用获得的新策略进行强化学习,每个训练周期的最大迭代步数为H步,每个训练周期开始时随机选取路网地图的一个位置作为初始状态s0″,在第h步车辆导航系统的当前状态sh-1下,依概率∈选取使得自身策略的状态-动作值函数Q(sh-1,a)值最大的动作且依概率(1-∈)随机选择一个动作,并经过选择的动作ah-1到达sh,得到一个收益rh,在每一步中更新Q值,并预更新C值,更新方式与式(7)和式(8)相同:
C′(sh)←(1-α)C(sh)+α·C(sh-1)+1 (8)
若步数超过H或车辆导航系统到达终止状态,则跳出当前周期;
设ε=0.001,若Q函数值满足收敛条件:
maxs,a(|Qn(s,a)-Q′n-N′(s,a)|)≤ε (9)
Qn(s,a)代表第n个训练周期更新后的Q值,Q′n-N′(s,a)代表第n-N′个训练周期更新后的Q值;
Q函数值满足收敛条件后得到训练好的Q函数,从真实环境的当前位置出发依次按照各个位置s上使得函数Q(s,a)最大的动作a行动,并到达终止状态跳出步骤三进入步骤四;否则继续步骤三的下一个周期;
结束步骤三后即获得更新后的新策略。
5.根据权利要求4所述的一种基于策略重用和强化学习的导航路径规划方法,其特征在于,所述判断是否将更新后的新策略加入策略库中,其具体过程为:
计算源策略相对于更新后的新策略的KL散度DKL来判定源策略是否能够代表更新后的新策略,如式(10)所示:
式(10)中DKL值越大,越表明源策略不能代表更新后的新策略,当DKL超过设定阈值δ,单向KL散度方法决定将更新后的新策略加入策略库中;
计算更新后的新策略相对于源策略的KL散度DKL-inv来判定更新后的新策略是否能代表源策略,如式(11)所示:
式(11)中DKL-inv值越小,表示更新后的新策略能够替代源策略,当DKL值超过设定阈值δ,而DKL-inv值却低于设定阈值δ时,决定用更新后的新策略替换掉策略库中代表性弱的源策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910255926.8A CN110081893B (zh) | 2019-04-01 | 2019-04-01 | 一种基于策略重用和强化学习的导航路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910255926.8A CN110081893B (zh) | 2019-04-01 | 2019-04-01 | 一种基于策略重用和强化学习的导航路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110081893A true CN110081893A (zh) | 2019-08-02 |
CN110081893B CN110081893B (zh) | 2020-09-25 |
Family
ID=67414098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910255926.8A Active CN110081893B (zh) | 2019-04-01 | 2019-04-01 | 一种基于策略重用和强化学习的导航路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110081893B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991712A (zh) * | 2019-11-21 | 2020-04-10 | 西北工业大学 | 一种空间碎片清除任务的规划方法及装置 |
CN112016678A (zh) * | 2019-09-23 | 2020-12-01 | 南京地平线机器人技术有限公司 | 用于增强学习的策略生成网络的训练方法、装置和电子设备 |
CN112162555A (zh) * | 2020-09-23 | 2021-01-01 | 燕山大学 | 混合车队中基于强化学习控制策略的车辆控制方法 |
CN112484733A (zh) * | 2020-12-04 | 2021-03-12 | 东南大学 | 一种基于拓扑图的强化学习室内导航方法 |
CN113029145A (zh) * | 2021-03-01 | 2021-06-25 | 西安交通大学 | 一种基于强化学习的视觉拓扑导航方法 |
CN114491299A (zh) * | 2021-12-21 | 2022-05-13 | 重庆特斯联智慧科技股份有限公司 | 一种基于专家模型的行进策略判断方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595671A (zh) * | 2017-02-22 | 2017-04-26 | 南方科技大学 | 一种基于强化学习的无人机路径规划方法和装置 |
CN107024220A (zh) * | 2017-04-14 | 2017-08-08 | 淮安信息职业技术学院 | 基于强化学习蟑螂算法的机器人路径规划方法 |
CN107300388A (zh) * | 2017-06-04 | 2017-10-27 | 东南大学 | 基于Q‑learning算法和回声状态网络的骑行旅游路线规划方法 |
CN108344414A (zh) * | 2017-12-29 | 2018-07-31 | 中兴通讯股份有限公司 | 一种地图构建、导航方法及装置、系统 |
CN109059931A (zh) * | 2018-09-05 | 2018-12-21 | 北京航空航天大学 | 一种基于多智能体强化学习的路径规划方法 |
CN109361601A (zh) * | 2018-10-31 | 2019-02-19 | 浙江工商大学 | 一种基于强化学习的sdn路由规划方法 |
CN109496318A (zh) * | 2018-07-30 | 2019-03-19 | 东莞理工学院 | 基于深度强化学习的自适应博弈算法 |
-
2019
- 2019-04-01 CN CN201910255926.8A patent/CN110081893B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595671A (zh) * | 2017-02-22 | 2017-04-26 | 南方科技大学 | 一种基于强化学习的无人机路径规划方法和装置 |
CN107024220A (zh) * | 2017-04-14 | 2017-08-08 | 淮安信息职业技术学院 | 基于强化学习蟑螂算法的机器人路径规划方法 |
CN107300388A (zh) * | 2017-06-04 | 2017-10-27 | 东南大学 | 基于Q‑learning算法和回声状态网络的骑行旅游路线规划方法 |
CN108344414A (zh) * | 2017-12-29 | 2018-07-31 | 中兴通讯股份有限公司 | 一种地图构建、导航方法及装置、系统 |
CN109496318A (zh) * | 2018-07-30 | 2019-03-19 | 东莞理工学院 | 基于深度强化学习的自适应博弈算法 |
CN109059931A (zh) * | 2018-09-05 | 2018-12-21 | 北京航空航天大学 | 一种基于多智能体强化学习的路径规划方法 |
CN109361601A (zh) * | 2018-10-31 | 2019-02-19 | 浙江工商大学 | 一种基于强化学习的sdn路由规划方法 |
Non-Patent Citations (4)
Title |
---|
FERNANDO FERN´ANDEZ,ET AL: "Probabilistic Policy Reuse for Inter-Task Transfer Learning", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 * |
FERNANDO FERN´ANDEZ,ET AL: "Reusing and Building a Policy Library", 《AMERICAN ASSOCIATION FOR ARTIFICIAL INTELLIGENCE 》 * |
TAKUMI AKAZAKI, ET AL: "Falsification of Cyber-Physical Systems Using Deep Reinforcement Learning", 《ARXIV》 * |
李学俊等: "Kee p awa y抢球任务中基于策略重用的迁移学习算法", 《计算机科学》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016678A (zh) * | 2019-09-23 | 2020-12-01 | 南京地平线机器人技术有限公司 | 用于增强学习的策略生成网络的训练方法、装置和电子设备 |
CN110991712A (zh) * | 2019-11-21 | 2020-04-10 | 西北工业大学 | 一种空间碎片清除任务的规划方法及装置 |
CN110991712B (zh) * | 2019-11-21 | 2023-04-25 | 西北工业大学 | 一种空间碎片清除任务的规划方法及装置 |
CN112162555A (zh) * | 2020-09-23 | 2021-01-01 | 燕山大学 | 混合车队中基于强化学习控制策略的车辆控制方法 |
CN112162555B (zh) * | 2020-09-23 | 2021-07-16 | 燕山大学 | 混合车队中基于强化学习控制策略的车辆控制方法 |
CN112484733A (zh) * | 2020-12-04 | 2021-03-12 | 东南大学 | 一种基于拓扑图的强化学习室内导航方法 |
CN113029145A (zh) * | 2021-03-01 | 2021-06-25 | 西安交通大学 | 一种基于强化学习的视觉拓扑导航方法 |
CN114491299A (zh) * | 2021-12-21 | 2022-05-13 | 重庆特斯联智慧科技股份有限公司 | 一种基于专家模型的行进策略判断方法和装置 |
CN114491299B (zh) * | 2021-12-21 | 2024-04-16 | 重庆特斯联智慧科技股份有限公司 | 一种基于专家模型的行进策略判断方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110081893B (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110081893A (zh) | 一种基于策略重用和强化学习的导航路径规划方法 | |
CN106875090B (zh) | 一种面向动态任务的多机器人分布式任务分配形成方法 | |
CN106500697B (zh) | 适用于动态环境的ltl-a*-a*最优路径规划方法 | |
Tsiogkas et al. | Efficient multi-AUV cooperation using semantic knowledge representation for underwater archaeology missions | |
CN106096911A (zh) | 一种基于角色的有人/无人协同指挥控制系统及其方法 | |
CN110014428A (zh) | 一种基于强化学习的时序逻辑任务规划方法 | |
Tan et al. | Multi-type task allocation for multiple heterogeneous unmanned surface vehicles (USVs) based on the self-organizing map | |
Li et al. | Colored traveling salesman problem and solution | |
CN114815801A (zh) | 一种基于策略-价值网络及mcts的自适应环境路径规划方法 | |
Abed-Alguni | Cooperative reinforcement learning for independent learners | |
Liu et al. | Formulation and solution algorithm for fuzzy dynamic traffic assignment model | |
CN115617034B (zh) | 多智能体的环境探索方法、装置、电子设备及存储介质 | |
Guan et al. | Ab-mapper: Attention and bicnet based multi-agent path planning for dynamic environment | |
CN116228040A (zh) | 一种面向智能体学习演进能力的评测方法 | |
Brandao et al. | Learning sequences of approximations for hierarchical motion planning | |
Hall et al. | Autonomous vehicle software taxonomy | |
CN115759199A (zh) | 基于层次化图神经网络的多机器人环境探索方法及系统 | |
Mao et al. | Frequency-based patrolling with heterogeneous agents and limited communication | |
Garro et al. | Path planning optimization using bio-inspirited algorithms | |
Matos et al. | Simultaneous Abstract and Concrete Reinforcement Learning. | |
Guisi et al. | Reinforcement learning with multiple shared rewards | |
Guan et al. | AB-Mapper: Attention and BicNet Based Multi-agent Path Finding for Dynamic Crowded Environment | |
Sinika et al. | To enhance new interval arithmetic operations in solving linear programming problem using interval-valued trapezoidal neutrosophic numbers | |
Zhang et al. | Stm-gail: Spatial-Temporal meta-gail for learning diverse human driving strategies | |
Fu et al. | Learning task requirements and agent capabilities for multi-agent task allocation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |