CN110014428A - 一种基于强化学习的时序逻辑任务规划方法 - Google Patents
一种基于强化学习的时序逻辑任务规划方法 Download PDFInfo
- Publication number
- CN110014428A CN110014428A CN201910327921.1A CN201910327921A CN110014428A CN 110014428 A CN110014428 A CN 110014428A CN 201910327921 A CN201910327921 A CN 201910327921A CN 110014428 A CN110014428 A CN 110014428A
- Authority
- CN
- China
- Prior art keywords
- state
- assembled state
- value
- task
- automatic machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
Abstract
本发明提出了一种基于强化学习的时序逻辑任务规划方法。首先使用线性时序逻辑语言和非确定性Büchi自动机对任务进行建模,并使用有限状态转移系统FTS对环境进行描述,然后利用FTS和Büchi自动机产生生成式Büchi自动机;利用Q‑Learning方法对生成式Büchi自动机进行任务规划训练;在迭代训练训练过程中,当组合状态进入可接受状态或者死区状态时,结束本轮迭代,跳转进入下一次迭代过程;同时,更新状态‑动作值所使用的奖励函数包含当组合状态进入可接受状态或者死区状态时给予奖励值或者惩罚值的设定。本发明能够有效、安全、高速的对时序逻辑任务进行任务规划。
Description
技术领域
本发明属于人工智能领域,具体涉及一种基于强化学习的时序逻辑任务规划方法。
背景技术
在实际任务中,很多任务不仅要求简单的并行协作,而且需要去执行更为复杂的串行协作任务,即机器人根据任务进行的阶段不同需要执行不同的任务。这种在环境、时间和执行顺序都有要求的任务称为时序逻辑任务。任务规划(task planning)问题是在给定任务下,找到一系列将系统从初始状态更改为目标状态的操作。解决过程类似于人类审议,通过预测其结果来选择和组织行动。任务规划可以应用在多个领域:人工智能,机器人系统,军事指挥等。所以,任务规划这一领域的研究吸引着越来越多的研究人员投入其中。
针对实际中具有时序逻辑特性的任务,任务规划的解决方案有:
方案1:文献(Meng G,Zavlanos M M.Probabilistic Motion Planning underTemporal Tasks and Soft Constraints[J].IEEE Transactions on AutomaticControl,2017.)针对时序逻辑任务规划问题,首先对任务使用确定性Rabin自动机进行建模,并将运动过程转换成马尔科夫决策过程,最后使用Dijkstra算法得出任务规划结果。
方案2:文献(A.Krizhevsky,I.Sutskever,and G.E.Hinton.Imagenetclassification with deep convolutional neural networks[J].Advances in neuralinformation processing systems.2012:1097–1105.)利用深度卷积神经网络进行任务规划,机器人可以从以前的例子中收集数据或观察人类演示,通过反复试验找出解决方案。
上述方案1在使用过程中需要进行计算,实时性不好;方案2不能处理训练数据中没有的新任务,有效性不足,而且规划结果不具有安全性,可能违背给定的任务时序逻辑。
发明内容
有鉴于此,本发明提供了一种基于强化学习的时序逻辑任务规划方法,能够提高时序逻辑任务规划的实时性、有效性和安全性。
为了解决上述技术问题,本发明是这样实现的:
基于强化学习的时序逻辑任务规划方法,包括:
步骤1、采用线性时序逻辑语言给定任务,并转换成Büchi自动机利用有限状态转移系统FTS将环境建模为多元组Tc;利用和Tc产生生成式Büchi自动机Ap;
所述生成式Büchi自动机Ap由六元组组成:Ap=(Q',δ',Q0',F',Wp,D')
其中,Q'是生成式Büchi自动机中的组合状态的集合,组合状态是生成式Büchi自动机状态图中的顶点,它是Büchi自动机状态与FTS中栅格区域的组合;s=<π,q>表示组合状态;π为FTS中的栅格区域,q为Büchi自动机中的状态;
δ'是生成式Büchi自动机中的状态转换关系,是生成式Büchi自动机状态图中的边;当且仅当顶点之间的转换关系满足FTS所表达的地理约束和NBA所表达的任务约束,才将这两个顶点之间的边连通;
Q0'表示智能体初始状态;
F'是由所有可接受状态组成的可接受状态集;
Wp表示代价函数,直接采用FTS中栅格之间的路径长度;
D'表示死区状态的集合;死区状态定义为:当执行到这个状态时,违背了给定任务,无法继续执行;
步骤2、利用Q-Learning方法对生成式Büchi自动机Ap进行任务规划训练;在迭代训练训练过程中,当组合状态进入可接受状态F'或者死区状态D'时,结束本轮迭代,跳转进入下一次迭代过程;同时,更新状态-动作值所使用的奖励函数包含当组合状态进入可接受状态F'或者死区状态D'时给予奖励值或者惩罚值的设定。
具体来说,所述步骤2包括:
步骤201、定义组合状态s所对应栅格区域π的动作空间为a(s),动作空间中的执行动作记为a,a∈a(s);定义在组合状态s下执行动作a的状态-动作值为W(s,a);在组合状态s应该执行的动作记为X(s),定义为组合状态s对应的动作空间a(s)中令状态-动作值最大的动作;初始化W(s,a)=0;
步骤202、初始化当前组合状态变量S=<π0,q0>,π0表示智能体初始位置,q0表示任务初始状态;
步骤203、以概率ε在当前组合状态S对应的动作空间a(S)随机选取动作,以概率1-ε在动作空间a(S)选取状态-动作值W(S,a)最大的动作;根据状态转换关系δ',确定执行所选取动作后即将跳转到的下一个组合状态为s';确定跳转到组合状态s'所带来的奖惩值r(s');
步骤204、将组合状态s'应该执行的动作X(s'),赋值给动作变量a';
步骤205、更新当前组合状态S的状态-动作值W(S,a):更新为W(S,a)+α[r(s')+γW(s',a')-W(S,a)];其中,α,γ∈(0,1)为设定的超变量;r(s')为利用奖励函数确定的、从当前组合状态S跳转到状态S所带来的奖惩值;W(s',a')为组合状态s’执行组合动作a'的状态-动作值;
步骤206、更新X(S):在当前组合状态S对应的动作空间a(S)中找到令状态-动作值最大的动作,更新当前组合状态S应该执行的动作X(S);
步骤207、跳转到步骤203所确定的下一个组合状态s',令当前组合状态S=s';
步骤208、如果跳转后的当前组合状态S属于F'或D',则进入步骤209,否则,返回203;
步骤209、令迭代次数t自加1,如果迭代次数未达到设定次数,则返回步骤202,否则,结束训练,得到最终的动作规划策略X(s)。
优选地,所述奖励函数为:
当组合状态s'属于可接受状态集F'时,表明该任务完成,给予设定的正奖励值+K;
当组合状态s'属于死区状态的集合D'时,表明该行为违背任务,给予设定的负的惩罚值-K';
当组合状态s'处于其余状态时,表明正在执行任务,给予与移动距离成正比的负的惩罚值,正比比例β的取值范围为0<β<1。
有益效果:
(1)本发明基于Büchi自动机和有限状态转移系统,设计了一种结合环境和任务时序逻辑的自动机——生成式Büchi自动机,该自动机的状态转换关系δ'考虑了任务约束,同时增加了反应任务时序逻辑的死区状态,因此任务规划结果不会违背给定的任务时序逻辑,提高了规划结果的安全性。
(2)本发明将任务时序逻辑纳入到奖励函数的设定中,不仅有奖励还有惩罚值,进一步提高了规划结果的安全性。
(3)本发明针对任意任务均可以通过训练完成规划,保证了任务规划算法的有效性。
(4)任务规划在训练过程需要一定量的迭代更新计算保证最后规划结果的收敛性,但是在使用过程中无需复杂计算,只需要按照训练得到的策略执行动作即可,所以提高了任务规划的实时性。
附图说明
图1—基于强化学习的时序逻辑任务规划框架;
图2—实际环境和栅格区域对应动作空间;
图3—有限状态转移系统;
图4—非确定性Büchi自动机;
图5—规划策略;
图6—规划结果。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明完全不同于背景技术中所提及的两种方案以及未列出的现有方案。针对时序逻辑任务规划问题,提出了一种全新的基于强化学习的时序逻辑任务规划方法。首先使用线性时序逻辑语言和非确定性Büchi自动机对任务进行建模,并使用有限状态转移系统对环境进行描述;根据强化学习的需求,创新性的设定组合状态、状态转移关系、奖励函数;最后使用Q-Learning的方法进行训练得到规划结果。
为了实现该时序逻辑任务规划方法,首先需要对本发明创造的生成式Büchi自动机进行说明。该生成式Büchi自动机是在现有的有限状态转移系统(weighted finite-state transition system,FTS)和非确定性Büchi自动机(Nondeterministic Büchiautomaton,NBA)的基础上建立起来的。该生成式Büchi自动机就是面向强化学习的时序逻辑任务框架。
(1)有限状态转移系统——FTS
FTS用于对实际环境进行描述建模,表达了任务中的地理转换关系。如图3所示,将地理环境划分为多个栅格区域,栅格为顶点,顶点之间的边表达栅格区域间的转换关系,边和顶点以及另外4个描述量构成了FTS的多元组表达Tc。FTS的定义参见定义1。
定义1.有限状态转移系统(FTS)的组成是一个多元组Tc:
Tc=(Π,→c,Π0,AP,Lc,Wc)
其中:
Π={π1,π2,...,πN}表示各个栅格区域,是FTS图中的顶点,参见图3中的(0,2)、(1,1)等;
表示栅格区域间的转换关系,是FTS图中的边;
表示智能体在环境中的初始位置;
AP表示任务集合;一个完整的任务可以划分成多个子部分,称子部分为原子命题,由原子命题组成的集合记为AP;
每一个区域都会具有一定的属性,称之为标签。例如,π1区域有一个篮球,那么篮球就是π1区域的标签。Lc:Π→2AP表示标签函数,Lc(πi)表示区域πi具有的标签;如图3中的{x}、{u}、{v}就是区域(0,2)(1,2)(2,0)的标签。
表示栅格之间的路径长度,即代价。
(2)非确定性Büchi自动机
根据线性时序逻辑语言理论,任何一个时序逻辑任务,都可以用线性时序逻辑(Linear Temporal Logic,LTL)语言进行描述建模,记为而每一个都可以转换成一个具有拓扑结构的非确定性Büchi自动机(Nondeterministic Büchi automaton,NBA),记为
NBA的定义参见定义2。
定义2.由一个五元组组成:
其中,
Q表示由非确定性Büchi自动机中状态的集合,就是图4中的各个顶点;
表示任务的初始状态;
δ:Q×Q表示状态之间的转换关系函数,即顶点之间的边;
状态之间的转换条件(如图中边上注释)是区域的属性,属性的集合称为字母表,记为2AP;
是可接受状态的集合。
(3)本发明的生成式Büchi自动机
强化学习需要一张带权的有向图进行训练,FTS和NBA都是有向图,且FTS具有带权的特征。因此,本发明将FTS和NBA进行生成操作,组合成生成式Büchi自动机。生成式Büchi自动机的定义参见定义3。
定义3.生成式Büchi自动机(weighted product Büchi automation,PBA)由一个六元组组成:
其中:
<π,q>表示组合状态,组合状态记为s。Q'是生成式Büchi自动机中的组合状态s的集合,是生成式Büchi自动机状态图中的顶点,本发明中组合状态是Büchi自动机状态与FTS中栅格区域的组合,组合方式相当于将FTS图的表达环境的二维栅格扩展了一维。如图3和图4所示,对于顶点(0,2),将其扩展为<(0,2),init>、<(0,2),1>、<(0,2),2>、<(0,2),3>这4个组合状态。
δ'是生成式Büchi自动机中的状态转换关系,是生成式Büchi自动机状态图中的边。本发明的状态转换关系表达为δ'=Q'→2Q'.<πj,qn>∈δ'(<πi,qm>),其含义是当且仅当顶点之间的转换关系满足FTS所表达的地理约束和NBA所表达的任务约束,才将这两个顶点之间的边连通。例如,<(0,2),init>和<(0,2),1>之间的边,顶点(0,2)满足!u∧x条件,因此可以将<(0,2),init>和<(0,2),1>这两个顶点连通。采用公式表达就是:当且仅当(πi,πj)∈→c并且qn∈δ(qm,Lc(πi)),δ(qm,Lc(πi))表示从qm到qn的转换条件与Lc(πi)相等。
可见,该状态转换关系的设置是本发明的一个重点,其考虑了任务约束,因此任务规划结果不会违背给定的任务时序逻辑,提高了规划结果的安全性。
Q0'={<π,q>|π∈Π0,q∈Q0},表示智能体初始状态;
F'={<π,q>|π∈Π0,q∈F},是由所有可接受状态组成的集合,即可接受状态集;在本实例中,图4中的可接受状态3扩展到生成式Büchi自动机后,产生了9个可接受状态,<(0,2),3>~<(2,0),3>。
表示死区状态的集合,对于死区状态的定义:到达该状态后,无法转移到任何其他状态,且不属于F’。其物理含义是,当执行到这个点时,违背了给定任务,无法继续执行。例如,<(1,2),init>,顶点(1,2)是u,且是初始点init,但是任务规定在没有去v的情况下,不能去u,因此违背了给定任务,无法继续执行,就将<(1,2),init>纳入死区状态集合。可见,本发明增加了反应任务时序逻辑的死区状态,因此任务规划结果不会违背给定的任务时序逻辑,提高了规划结果的安全性。
表示代价函数:Wp(<πi,qm>,<πj,qn〉)=Wc(πi,πj),其中〈πj,qn〉∈δ'(〈πi,qm〉)。该代价函数直接采用FTS中栅格之间的路径长度,例如<(0,2),init>到<(1,1),1>,直接采用(0,2)到(1,1)的路径长度。
因此,由任务模型NBA和环境模型FTS组合而来的生成式Büchi自动机就是面向强化学习的时序逻辑任务框架。
基于上述生成式Büchi自动机的定义,要想完成任务规划算法,还需要定义几个变量和函数。
(1)组合状态s
对于时序逻辑任务规划问题,规划结果不仅要满足环境约束,同时要满足任务约束。因此,设定组合状态s的形式为s=〈π,q〉。
(2)动作空间
对于栅格网络,每一个栅格区域动作空间可以分为八个方向,用向量表示为:actions=[(0,0),(0,1),(1,1),(1,0),(1,-1),(0,-1),(-1,-1),(-1,0),(-1,1)]。对于边缘区域,如果执行某个动作会使得转换后的下一个区域超出边界,则舍去该动作。如图2所示,一个3×3的栅格网络,每个栅格区域可以执行的动作表示为蓝色的箭头,区域x的动作空间为[(0,0),(1,0),(1,-1),(0,-1)],区域v的动作空间为[(0,0),(0,1),(-1,1),(-1,0)]。因此,将栅格区域π的动作空间记为a(π)。
(3)状态转移关系
假设在任意组合状态s=〈π,q>,执行动作a,a∈a(π)。在实际环境中的表现为智能体执行动作a,到达区域π',记为π→π'。由定义3可知,Büchi自动机的状态q根据区域π的标签函数发生改变,q'∈δ(q,Lc(π))。
因此,有
(4)奖励函数
智能体任务规划过程中,当智能体动作后,需要计算该动作对整体任务执行带来的影响,采用奖励值表达。本发明将任务时序逻辑纳入到奖励值函数的设定中,不仅有奖励值还有惩罚值,从而提高了任务规划结果的安全性。
本发明奖励值函数设定为:
智能体所处组合状态属于可接受状态集F'时,表明该任务完成,给予较大的正的奖励值+K,K为设定的数值;当组合状态属于死区状态D'时,表明该行为违背任务,给予较大的负的惩罚值-K';组合状态处于其余状态时,表明正在执行任务,给予与移动距离dis成正比的负的惩罚值,0<β<1。因此,奖励值函数表示如下,其中s'表示状态转换后到达的组合状态:
从上述函数可以看出,本发明将任务时序逻辑纳入到奖励值函数的设定中,不仅有奖励值还有惩罚值,从而提高了任务训练结果的安全性。
基于上述定义,下面对本发明的时序逻辑任务规划过程进行描述。
时序逻辑任务的规划问题可以表示为:以最小化代价函数为目标,使智能体从初始状态开始,通过执行一系列动作完成状态转移,最终到达任意一个可接受状态。
本发明利用Q-Learning方法对生成式Büchi自动机Ap进行任务规划训练;在迭代训练训练过程中,当组合状态进入死区状态D'时,结束本轮迭代,跳转进入下一次迭代过程;同时,更新状态-动作值所使用的奖励函数包含当组合状态进入死区状态D'时给予惩罚值的设定。
训练的具体步骤如图1所示,包括:
①采用线性时序逻辑语言给定任务转换成Büchi自动机利用限状态转移系统FTS将环境建模为多元组Tc,利用和Tc产生生成式Büchi自动机Ap(参见定义3)。设定times,表示需要进行多少轮训练。
②初始化W(s,a)。
定义组合状态s所对应栅格区域π的动作空间为a(s),动作空间中的执行动作记为a,a∈a(s);定义在组合状态s下执行动作a的状态-动作值为W(s,a),该函数值在训练中更新;在组合状态s应该执行的动作记为X(s),定义为组合状态s对应的动作空间a(s)中令状态-动作值最大的动作。
则本步骤初始化W(s,a)=0,同时将迭代次数t初始化为0。
③初始化当前组合状态变量S=<π0,q0>,π0∈Π0,q0∈Q0;根据定义1,π0表示智能体初始位置,并使用随机算法在环境中任意选取位置。根据定义2,q0表示任务初始状态。
④以概率ε在当前组合状态S对应的动作空间a(S)随机选取动作,以概率1-ε在动作空间a(S)选取状态-动作值W(S,a)最大的动作。其具体做法是:随机产生一个数b,当b小于设定概率ε,则在当前组合状态S对应的动作空间a(S)随机选取动作;当b大于或等于ε,则在动作空间a(S)选取状态-动作值W(S,a)最大的动作。
然后,根据状态转换关系δ',确定执行所选取动作后即将跳转到的下一个组合状态,记为s';利用前述奖励函数确定从当前组合状态S跳转到组合状态s'所带来的奖惩值r(s')。
⑤令a'=X(s'),即将组合状态s'应该执行的动作X(s'),赋值给动作变量a'。如果之前的训练过程还没有训练到s',则X(s')取组合状态s'对应的动作空间a(s')中令状态-动作值W(S',a')最大的动作。
⑥更新当前组合状态S的状态-动作值:
本发明状态-动作值的更新公式为:
更新后W(S,a)=W(S,a)+α[r(s')+γW(s',a')-W(S,a)]
其中,α,γ∈(0,1),为设定的超变量。r(s')为步骤④确定的奖惩值;W(s',a')为组合状态s’执行组合动作a'的状态-动作值;当第一轮训练还没有训练到s’,W(s',a')取给定的初始值。在第t轮训练时,W(s',a')采用第t-1轮训练获得的值。
⑦更新X(S):
令X(s)=argmaxa"W(s,a″),在当前组合状态S对应的动作空间a(S)中选取使状态-动作值函数W(S,a″)最大的动作a″作为X(S),该X(S)是组合状态S应该执行的动作,也训练得到的任务规划策略。
⑧跳转到组合状态s',令当前组合状态S=s';
⑨如果S∈F'或S∈D',说明本轮训练内部的循环结束,继续下一步⑩;否则,返回④。本步骤增加了S∈D'的判断,只要状态S满足到达可接受状态,或者根据任务时序逻辑,当执行到这个状态时,违背了任务时序逻辑,则停止本来循环。
⑩令t自加1。如果t≤times,返回③;否则,结束训练,得到最终的规划策略X(s)。
实际案例
如图2所示,智能体所处的环境是一个3×3的栅格网络,对应的FTS如图3所示。假设智能体的任务为,首先到x点取货,再到v点取货,最后将货物放到u点,并且规定三个点的访问顺序不能改变。对应的LTL(线性时序逻辑语言)描述为:
该表达式表述的含义是:终点是u;不能去u,直到去了v;不能去v,直到去了x。
转换成对应的Büchi自动机如图4所示。
按照设计的算法进行训练,将times设定为1000,其中,各参数设定为α=0.5,β=1,γ=0.8,K=100,K'=100。最终得到的X(s)如图5所示。其中,图5(1)表示组合状态s=<π,q>中的非确定性Büchi自动机状态q=init时,不同栅格区域π对应的最佳动作策略。
假设智能体目前的位置为区域(0,0),根据训练得到的规划策略X(s),完成任务的路径如图6所示。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于强化学习的时序逻辑任务规划方法,其特征在于,包括:
步骤1、采用线性时序逻辑语言给定任务,并转换成自动机利用有限状态转移系统FTS将环境建模为多元组Tc;利用和Tc产生生成式自动机Ap;
所述生成式自动机Ap由六元组组成:Ap=(Q',δ',Q0',F',Wp,D')
其中,Q'是生成式自动机中的组合状态的集合,组合状态是生成式自动机状态图中的顶点,它是自动机状态与FTS中栅格区域的组合;s=<π,q>表示组合状态;π为FTS中的栅格区域,q为自动机中的状态;
δ'是生成式自动机中的状态转换关系,是生成式自动机状态图中的边;当且仅当顶点之间的转换关系满足FTS所表达的地理约束和NBA所表达的任务约束,才将这两个顶点之间的边连通;
Q0'表示智能体初始状态;
F'是由所有可接受状态组成的可接受状态集;
Wp表示代价函数,直接采用FTS中栅格之间的路径长度;
D'表示死区状态的集合;死区状态定义为:当执行到这个状态时,违背了给定任务,无法继续执行;
步骤2、利用Q-Learning方法对生成式自动机Ap进行任务规划训练;在迭代训练训练过程中,当组合状态进入可接受状态F'或者死区状态D'时,结束本轮迭代,跳转进入下一次迭代过程;同时,更新状态-动作值所使用的奖励函数包含当组合状态进入可接受状态F'或者死区状态D'时给予奖励值或者惩罚值的设定。
2.如权利要求1所述的一种基于强化学习的时序逻辑任务规划方法,其特征在于,所述步骤2包括:
步骤201、定义组合状态s所对应栅格区域π的动作空间为a(s),动作空间中的执行动作记为a,a∈a(s);定义在组合状态s下执行动作a的状态-动作值为W(s,a);在组合状态s应该执行的动作记为X(s),定义为组合状态s对应的动作空间a(s)中令状态-动作值最大的动作;初始化W(s,a)=0;
步骤202、初始化当前组合状态变量S=<π0,q0>,π0表示智能体初始位置,q0表示任务初始状态;
步骤203、以概率ε在当前组合状态S对应的动作空间a(S)随机选取动作,以概率1-ε在动作空间a(S)选取状态-动作值W(S,a)最大的动作;根据状态转换关系δ',确定执行所选取动作后即将跳转到的下一个组合状态为s';确定跳转到组合状态s'所带来的奖惩值r(s');
步骤204、将组合状态s'应该执行的动作X(s'),赋值给动作变量a';
步骤205、更新当前组合状态S的状态-动作值W(S,a):更新为W(S,a)+α[r(s')+γW(s',a')-W(S,a)];其中,α,γ∈(0,1)为设定的超变量;r(s')为利用奖励函数确定的、从当前组合状态S跳转到状态S所带来的奖惩值;W(s',a')为组合状态s’执行组合动作a'的状态-动作值;
步骤206、更新X(S):在当前组合状态S对应的动作空间a(S)中找到令状态-动作值最大的动作,更新当前组合状态S应该执行的动作X(S);
步骤207、跳转到步骤203所确定的下一个组合状态s',令当前组合状态S=s';
步骤208、如果跳转后的当前组合状态S属于F'或D',则进入步骤209,否则,返回203;
步骤209、令迭代次数t自加1,如果迭代次数未达到设定次数,则返回步骤202,否则,结束训练,得到最终的动作规划策略X(s)。
3.如权利要求1或2所述的方法,其特征在于,所述奖励函数为:
当组合状态s'属于可接受状态集F'时,表明该任务完成,给予设定的正奖励值+K;
当组合状态s'属于死区状态的集合D'时,表明该行为违背任务,给予设定的负的惩罚值-K';
当组合状态s'处于其余状态时,表明正在执行任务,给予与移动距离成正比的负的惩罚值,正比比例β的取值范围为0<β<1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910327921.1A CN110014428B (zh) | 2019-04-23 | 2019-04-23 | 一种基于强化学习的时序逻辑任务规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910327921.1A CN110014428B (zh) | 2019-04-23 | 2019-04-23 | 一种基于强化学习的时序逻辑任务规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110014428A true CN110014428A (zh) | 2019-07-16 |
CN110014428B CN110014428B (zh) | 2020-11-10 |
Family
ID=67192183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910327921.1A Active CN110014428B (zh) | 2019-04-23 | 2019-04-23 | 一种基于强化学习的时序逻辑任务规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110014428B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111026110A (zh) * | 2019-11-20 | 2020-04-17 | 北京理工大学 | 面向含软、硬约束线性时序逻辑的不确定动作规划方法 |
CN111340348A (zh) * | 2020-02-21 | 2020-06-26 | 北京理工大学 | 一种基于线性时序逻辑的分布式多智能体任务协作方法 |
CN114237222A (zh) * | 2021-11-16 | 2022-03-25 | 华南理工大学 | 一种基于强化学习的取送货车辆路径规划方法 |
CN114355947A (zh) * | 2022-01-11 | 2022-04-15 | 上海交通大学 | 基于强化学习的机器人复杂时序逻辑任务路径规划方法 |
CN115793657A (zh) * | 2022-12-09 | 2023-03-14 | 常州大学 | 基于时态逻辑控制策略的配送机器人路径规划方法 |
CN116822765A (zh) * | 2023-06-02 | 2023-09-29 | 东南大学 | 一种基于Q-learning的智能体时序任务路径规划方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834308A (zh) * | 2015-04-10 | 2015-08-12 | 浙江工业大学 | 满足复杂需求的最优巡回控制方法 |
CN107169591A (zh) * | 2017-04-21 | 2017-09-15 | 浙江工业大学 | 基于线性时序逻辑的移动端快递派送路径规划方法 |
CN109048902A (zh) * | 2018-08-17 | 2018-12-21 | 东莞仕达通自动化有限公司 | 机械手系统以及机械手系统的控制方法 |
CN109249387A (zh) * | 2017-07-13 | 2019-01-22 | 西门子股份公司 | 用于配置移动自动机的方法和配置装置 |
US20190091859A1 (en) * | 2017-09-26 | 2019-03-28 | Siemens Aktiengesellschaft | Method and system for automatic robot control policy generation via cad-based deep inverse reinforcement learning |
-
2019
- 2019-04-23 CN CN201910327921.1A patent/CN110014428B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834308A (zh) * | 2015-04-10 | 2015-08-12 | 浙江工业大学 | 满足复杂需求的最优巡回控制方法 |
CN107169591A (zh) * | 2017-04-21 | 2017-09-15 | 浙江工业大学 | 基于线性时序逻辑的移动端快递派送路径规划方法 |
CN109249387A (zh) * | 2017-07-13 | 2019-01-22 | 西门子股份公司 | 用于配置移动自动机的方法和配置装置 |
US20190091859A1 (en) * | 2017-09-26 | 2019-03-28 | Siemens Aktiengesellschaft | Method and system for automatic robot control policy generation via cad-based deep inverse reinforcement learning |
CN109048902A (zh) * | 2018-08-17 | 2018-12-21 | 东莞仕达通自动化有限公司 | 机械手系统以及机械手系统的控制方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111026110A (zh) * | 2019-11-20 | 2020-04-17 | 北京理工大学 | 面向含软、硬约束线性时序逻辑的不确定动作规划方法 |
CN111026110B (zh) * | 2019-11-20 | 2021-04-30 | 北京理工大学 | 面向含软、硬约束线性时序逻辑的不确定动作规划方法 |
CN111340348A (zh) * | 2020-02-21 | 2020-06-26 | 北京理工大学 | 一种基于线性时序逻辑的分布式多智能体任务协作方法 |
CN111340348B (zh) * | 2020-02-21 | 2022-07-26 | 北京理工大学 | 一种基于线性时序逻辑的分布式多智能体任务协作方法 |
CN114237222A (zh) * | 2021-11-16 | 2022-03-25 | 华南理工大学 | 一种基于强化学习的取送货车辆路径规划方法 |
CN114355947A (zh) * | 2022-01-11 | 2022-04-15 | 上海交通大学 | 基于强化学习的机器人复杂时序逻辑任务路径规划方法 |
CN114355947B (zh) * | 2022-01-11 | 2023-09-29 | 上海交通大学 | 基于强化学习的机器人复杂时序逻辑任务路径规划方法 |
CN115793657A (zh) * | 2022-12-09 | 2023-03-14 | 常州大学 | 基于时态逻辑控制策略的配送机器人路径规划方法 |
CN116822765A (zh) * | 2023-06-02 | 2023-09-29 | 东南大学 | 一种基于Q-learning的智能体时序任务路径规划方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110014428B (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110014428A (zh) | 一种基于强化学习的时序逻辑任务规划方法 | |
Shin et al. | Reinforcement learning–overview of recent progress and implications for process control | |
Wang et al. | Deep reinforcement learning: A survey | |
CN110569443B (zh) | 一种基于强化学习的自适应学习路径规划系统 | |
Khetarpal et al. | What can i do here? a theory of affordances in reinforcement learning | |
CN109978176B (zh) | 一种基于状态动态感知的多智能体合作学习方法 | |
Badgwell et al. | Reinforcement learning–overview of recent progress and implications for process control | |
CN109657868A (zh) | 一种任务时序逻辑约束的概率规划识别方法 | |
Zhang et al. | A systematic solution of human driving behavior modeling and simulation for automated vehicle studies | |
CN110081893A (zh) | 一种基于策略重用和强化学习的导航路径规划方法 | |
CN109726676A (zh) | 自动驾驶系统的规划方法 | |
Jin et al. | A game-theoretic reinforcement learning approach for adaptive interaction at intersections | |
Tong et al. | Enhancing rolling horizon evolution with policy and value networks | |
CN113276852A (zh) | 一种基于最大熵强化学习框架的无人驾驶车道保持方法 | |
CN113743603A (zh) | 控制方法、装置、存储介质及电子设备 | |
CN116306947A (zh) | 一种基于蒙特卡洛树探索的多智能体决策方法 | |
Contardo et al. | Learning states representations in pomdp | |
CN113139644A (zh) | 一种基于深度蒙特卡洛树搜索的信源导航方法及装置 | |
Rosman et al. | Action priors for learning domain invariances | |
Tang et al. | Deep sparse representation via deep dictionary learning for reinforcement learning | |
Weigand et al. | Reinforcement learning using guided observability | |
CN116880218B (zh) | 基于驾驶风格误解的鲁棒驾驶策略生成方法及系统 | |
CN117556681B (zh) | 一种智能空战决策方法、系统及电子设备 | |
Ying-zi et al. | Effective strategies for complex skill real-time learning using reinforcement learning | |
Koffi et al. | A Novel Reinforcement Learning Algorithm Based on Hierarchical Memory |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |