CN105867427A - 一种面向动态环境的机器人寻径在线控制方法 - Google Patents
一种面向动态环境的机器人寻径在线控制方法 Download PDFInfo
- Publication number
- CN105867427A CN105867427A CN201610238109.8A CN201610238109A CN105867427A CN 105867427 A CN105867427 A CN 105867427A CN 201610238109 A CN201610238109 A CN 201610238109A CN 105867427 A CN105867427 A CN 105867427A
- Authority
- CN
- China
- Prior art keywords
- action
- abstract
- robot
- state
- assessed value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/12—Target-seeking control
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种面向动态环境的机器人寻径在线控制方法,包括:1)环境和参数初始化;2)由机器人的基本动作集合和抽象动作集合构成机器人的可选动作,初始化所有的状态‑动作的评估值;所述抽象动作集合中的每个抽象动作为可中断的抽象动作;3)生成随机障碍物;4)通过动作选择模块及更新模块选择动作并对状态‑动作的评估值更新;5)若到达终点状态,转向步骤6),否则进行步骤4);6)满足条件时结束本次任务,否则转向步骤3)。本发明通过引入中断机制,能够在线控制机器人使其能够将抽象动作应用到动态不确定的环境中,灵活应对动态环境,从而使得机器人能够解决复杂、动态环境下的任务,在提高效率的同时拓展应用环境。
Description
技术领域
本发明涉及一种机器人寻径在线控制方法,属于机器学习领域,具体涉及一种面向动态环境的可中断抽象动作的机器人寻径在线控制方法。
背景技术
随着机器人应用领域的不断拓展,机器人所面临的任务越来越复杂。尽管很多算法能够对机器人可能执行的行为进行预先设计和编程,但是当面临复杂的任务,以及机器人所要面对的环境无法完全探测并且会动态发生变化时,存在各种不确定性。设计人员往往不能事先对动态变化的环境做出有效预测,从而无法根据环境的实际情况合理地控制机器人的动作和行为。因此,设计一种能够根据环境的动态变化而调整机器人控制,继而完成复杂的任务的方法及装置显得尤为重要。
以路径规划和学习为代表的强化学习(Reinforcement Learning)采用不断试错式的学习方式以获取最优的行为策略,目前已经产生的众多强化学习方法在机器人行为学习方面表现出了良好的学习性能。然而,在解决大数据大规模问题时,传统的强化学习方法性能会急剧下降,因为强化学习是通过机器人不断地与环境交互来进行学习,所以当问题规模扩大时,算法的复杂度会急剧上升,机器人就需要大量的时间和经验来与环境进行交互以获得好的策略。
包括分层强化学习、核方法和函数近似等方法在内的很多方法可以用来解决数据规模大这一难题。在其中,分层强化学习的方法是一种重要的常用方法。不同于核方法和函数逼近器,分层强化学习能将充分利用机器人之前学习到的经验,用来解决某一个问题域中的所有或部分任务集合。对这些经验以时间抽象是分层强化学习中的一类重要的方法,利用时间抽象,机器人可以关注更高层策略的选择,从而减少选择行为所需的时间。
基于时间抽象的分层强化学习近些年也产生了很多高性能的算法,经典的学习算法如Macro-Q。Macro-Q算法能够让机器人利用给定的抽象动作来进行高效的学习,从本质上改善了传统Q学习的性能。
时间抽象是指将若干个动作封闭在一起,视为单个抽象动作。一个抽象动作通常需要几个时间步来完成。由于时间抽象的定义限制,使得抽象动作在被机器人采用时,不能够在执行抽象动作的中途再执行其他动作,这个定义大大的局限了抽象动作的应用环境,尤其是机器人执行任务的环境为一个动态变化的环境时,Macro-Q学习将变得效率低下。
发明内容
本发明的发明目的是提供一种面向动态环境的机器人寻径在线控制方法,能够在线地控制机器人使其能够将抽象动作应用到动态不确定的环境中,灵活应对动态环境,从而使得机器人能够解决复杂、动态环境下的任务, 在提高效率的同时拓展应用环境。
为达到上述发明目的,本发明采用的技术方案是:一种面向动态环境的机器人寻径在线控制方法,包括以下步骤:
1)环境和参数初始化:设定机器人的运行环境、机器人到达目标的奖赏值以及用于更新值的步长参数、折扣因子参数;
2)设计预先给定的抽象动作集合,由机器人的基本动作集合和所述抽象动作集合构成机器人的可选动作,同时初始化所有的状态-动作的评估值;
3)生成随机障碍物;
4)通过动作选择模块及更新模块指导机器人选择动作并对状态-动作的评估值更新;当动作选择模块处理的动作为抽象动作时,引入中断机制,通过对完成抽象动作和中断抽象动作选择新的动作这两种方法的结果进行比较,确定是否执行中断;
5)若本次动作到达终点状态,转向步骤6),否则继续进行步骤4);
6)若满足任务结束条件,结束本次任务,否则转向步骤3)。
上述技术方案中,步骤1)中所述运行环境包括环境的边界、任务的起点位置、终点位置、环境中固定的障碍物的位置,并将每一个位置看作一个状态。
步骤2)所述抽象动作集合中的每个抽象动作由以下三部分组成:初始状态集、内部策略和终止条件。
步骤3)中,通过随机生成障碍物模拟现实动态环境。
步骤4)中所述动作选择模块中,具体处理方法包括以下步骤:
①根据状态-动作的评估值,采用ε-greedy动作选择方法得到动作;
②如果得到的动作是抽象动作,则转向步骤③,否则转向步骤④;
③比较按照抽象动作执行得到的状态-动作的评估值和中断抽象动作选择新的动作得到的状态值函数,若后者结果更优,则进入步骤⑤,否则执行步骤⑥;
④直接采取动作,并进入步骤⑤;
⑤记录得到的奖赏以及下一个状态-动作的评估值,采用更新模块更新评估值;
⑥若满足抽象动作的结束条件,转向步骤⑤,若不满足抽象动作的结束条件,则继续执行该抽象动作,转向步骤③。
所述更新模块的具体处理方法包括以下步骤:
(1)根据动作选择模块,获得机器人在状态st处执行了动作o得到的奖赏值,以及下一个状态-动作的评估值;
(2) 更新上一个状态-动作的评估值,其更新公式为式(1)和(2);
(1)
式中,为折扣因子,k表示动作o执行完毕所需要的时间,表示在状态处所有的状态-动作值中取最大的值,δ表示机器人采取了动作o之后计算得到的评估值增量;
(2)
式中,α表示步长参数,表示在状态st处采取动作o得到的评估值。
优选的技术方案,步骤③中,按照抽象动作执行得到的状态-动作的评估值为;
中断抽象动作选择新的动作得到的状态值函数为:
(3)
其中表示机器人在状态s处选择抽象动作o’的概率,表示在状态s处选择抽象动作o’后得到的评估值;
如果,则中断抽象动作选择新的动作结果更优。
由于上述技术方案运用,本发明与现有技术相比具有下列优点:
本发明突破了传统概念中时间抽象将若干个动作封闭在一起,视为单个抽象动作的概念限制,创造性地在抽象动作中引入了中断机制,克服了现有技术的偏见,具备创造性。
本发明基于动态环境下机器人寻径在线控制方法,通过引入中断机制,能够在线控制机器人,使其能够将抽象动作应用到动态不确定的环境中,灵活应对动态环境,从而使得机器人能够解决复杂、动态环境下的任务, 在提高效率的同时拓展应用环境。
附图说明
图1为本发明实施例中基于动态环境下机器人寻径在线控制方法的总流程图;
图2为实施例中动作选择模块的流程图;
图3为实施例中更新模块的流程图;
图4为基于动态环境下机器人寻径在线控制装置的示意图。
具体实施方式
下面结合附图及实施例对本发明作进一步描述:
实施例:参照图1所示,一种面向动态环境的可中断抽象动作的机器人寻径在线控制方法,具体包括以下步骤:
1)环境和参数初始化:设定机器人的运行环境、机器人到达目标的奖赏值以及用于更新值的步长参数、折扣因子参数,其中运行环境包括环境的边界、任务的起点位置、终点位置、环境中固定的障碍物的位置,并将每一个位置看作一个状态;
2)设计预先给定的抽象动作集合,将该抽象动作集合加入到机器人的可选动作中,同时初始化所有的状态-动作的评估值,其中抽象动作集合中的每个抽象动作由以下三部分组成:初始状态集,内部策略和终止条件;
3)随机生成一定数量的障碍物用来模拟动态环境,障碍物的总数量,其中表示固定障碍物的数量,表示随机生成的障碍物的数量;
4)通过动作选择模块及更新模块指导机器人选择动作并对状态-动作的评估值更新;
5)若本次动作到达终点状态,转向步骤6),否则继续转向步骤4);
6)若满足任务结束条件,结束本次任务,否则转向步骤3)。
本发明中的动作与传统的动作不一样的是,除了抽象动作,还有基本动作,当机器人选择到的动作是基本动作时,便会按照选择的动作去执行;当机器人选择到的动作是抽象动作时,便会按照选择到的抽象动作去执行,抽象动作是基本动作按照一定顺序组成的序列,一般来说,抽象动作都不能在一个时间步(time step)内完成(time step是机器人采取一个基本动作所花费的时间),而基本动作一般都可以在一个time step内完成;参照图2所示,步骤4)中动作选择模块的具体处理方法包括以下步骤:
1)根据状态-动作的评估值,采用动作选择方法得到动作;
2)如果得到的动作是抽象动作,则转向步骤3),否则转向步骤4);
3)比较按照抽象动作执行得到的状态-动作的评估值和中断抽象动作选择新的抽象动作得到的状态值函数,若满足,进入步骤5),否则执行步骤6),其中状态值函数如下所示:
(3)
其中表示机器人在状态选择抽象动作的概率,表示在状态处选择动作后得到的评估值;
4)直接采取动作,并进入步骤5);
5)记录得到的奖赏以及下一个状态-动作的评估值,进入评估值更新模块;
6)若满足抽象动作的结束条件,转向步骤5),若不满足抽象动作的结束条件,则继续执行该抽象动作,转向步骤3)。
参照图3所示,本发明步骤4)中更新模块的具体处理方法包括以下步骤:
1)由动作选择模块得到奖赏值以及下一个状态-动作的评估值;
2)根据数据按照公式1和公式2来更新上一个状态-动作的评估值,其更新公式如下;
(1)
其中表示机器人在状态处执行了动作得到的奖赏,表示折扣因子,k表示动作o执行完毕所需要的时间,表示在状态处所有的状态-动作值中取最大的值,表示机器人采取了动作之后计算得到的评估值增量;
(2)
其中表示步长参数,表示在状态处采取动作o得到的评估值。
按照本发明方法来进行状态-动作的评估值的初始化,参数的设定,评估值的更新以及动作选择,机器人便可高效的利用抽象动作来寻径,通过比较评估值灵活的改变抽象动作的执行,能够有效的解决抽象动作在动态环境下容易被阻塞而导致整个学习过程停滞的后果,同时还能充分利用到使用抽象动作带来的好处,加快机器人的学习效率。
Claims (6)
1.一种面向动态环境的机器人寻径在线控制方法,其特征在于,包括以下步骤:
1)环境和参数初始化:设定机器人的运行环境、机器人到达目标的奖赏值以及用于更新值的步长参数、折扣因子参数;
2)设计预先给定的抽象动作集合,由机器人的基本动作集合和所述抽象动作集合构成机器人的可选动作,同时初始化所有的状态-动作的评估值;
3)生成随机障碍物;
4)通过动作选择模块及更新模块指导机器人选择动作并对状态-动作的评估值更新;当动作选择模块处理的动作为抽象动作时,引入中断机制,通过对完成抽象动作和中断抽象动作选择新的动作这两种方法的结果进行比较,确定是否执行中断;
5)若本次动作到达终点状态,转向步骤6),否则继续进行步骤4);
6)若满足任务结束条件,结束本次任务,否则转向步骤3)。
2.根据权利要求1所述的面向动态环境的机器人寻径在线控制方法,其特征在于:步骤1)中所述运行环境包括环境的边界、任务的起点位置、终点位置、环境中固定的障碍物的位置,并将每一个位置看作一个状态。
3.根据权利要求1所述的面向动态环境的机器人寻径在线控制方法,其特征在于:步骤2)所述抽象动作集合中的每个抽象动作由以下三部分组成:初始状态集、内部策略和终止条件。
4.根据权利要求1所述的面向动态环境的机器人寻径在线控制方法,其特征在于:步骤4)中所述动作选择模块中,具体处理方法包括以下步骤:
①根据状态-动作的评估值,采用ε-greedy动作选择方法得到动作;
②如果得到的动作是抽象动作,则转向步骤③,否则转向步骤④;
③比较按照抽象动作执行得到的状态-动作的评估值和中断抽象动作选择新的动作得到的状态值函数,若后者结果更优,则进入步骤⑤,否则执行步骤⑥;
④直接采取动作,并进入步骤⑤;
⑤记录得到的奖赏以及下一个状态-动作的评估值,采用更新模块更新评估值;
⑥若满足抽象动作的结束条件,转向步骤⑤,若不满足抽象动作的结束条件,则继续执行该抽象动作,转向步骤③。
5.根据权利要求1或4所述的面向动态环境的机器人寻径在线控制方法,其特征在于:所述更新模块的具体处理方法包括以下步骤:
(1)根据动作选择模块,获得机器人在状态st处执行了动作o得到的奖赏值,以及下一个状态-动作的评估值;
(2) 更新上一个状态-动作的评估值,其更新公式为式(1)和(2);
(1)
式中,为折扣因子,k表示动作o执行完毕所需要的时间,表示在状态处所有的状态-动作值中取最大的值,δ表示机器人采取了动作o之后计算得到的评估值增量;
(2)
式中,α表示步长参数,表示在状态st处采取动作o得到的评估值。
6.根据权利要求4所述的面向动态环境的机器人寻径在线控制方法,其特征在于:步骤③中,按照抽象动作执行得到的状态-动作的评估值为;
中断抽象动作选择新的动作得到的状态值函数为:
(3)
其中表示机器人在状态s处选择抽象动作o’的概率,表示在状态s处选择抽象动作o’后得到的评估值;
如果,则中断抽象动作选择新的动作结果更优。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610238109.8A CN105867427B (zh) | 2016-04-18 | 2016-04-18 | 一种面向动态环境的机器人寻径在线控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610238109.8A CN105867427B (zh) | 2016-04-18 | 2016-04-18 | 一种面向动态环境的机器人寻径在线控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105867427A true CN105867427A (zh) | 2016-08-17 |
CN105867427B CN105867427B (zh) | 2018-06-26 |
Family
ID=56633309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610238109.8A Active CN105867427B (zh) | 2016-04-18 | 2016-04-18 | 一种面向动态环境的机器人寻径在线控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105867427B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107403426A (zh) * | 2017-06-20 | 2017-11-28 | 北京工业大学 | 一种目标物体检测方法及设备 |
CN108427828A (zh) * | 2018-02-07 | 2018-08-21 | 李荣陆 | 一种自动评估平面设计布局质量与优化的装置 |
WO2018205778A1 (zh) * | 2017-05-11 | 2018-11-15 | 苏州大学张家港工业技术研究院 | 基于深度带权双q学习的大范围监控方法及监控机器人 |
CN109116854A (zh) * | 2018-09-16 | 2019-01-01 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011107984A (ja) * | 2009-11-17 | 2011-06-02 | Toyota Motor Corp | 経路探索システム、経路探索方法、経路探索プログラム、及び移動体 |
CN103605368A (zh) * | 2013-12-04 | 2014-02-26 | 苏州大学张家港工业技术研究院 | 一种动态未知环境中路径规划方法及装置 |
CN103994768A (zh) * | 2014-05-23 | 2014-08-20 | 北京交通大学 | 动态时变环境下寻求全局时间最优路径的方法 |
CN104914866A (zh) * | 2015-05-29 | 2015-09-16 | 国网山东省电力公司电力科学研究院 | 基于拓扑点分类的巡检机器人全局路径规划方法及系统 |
-
2016
- 2016-04-18 CN CN201610238109.8A patent/CN105867427B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011107984A (ja) * | 2009-11-17 | 2011-06-02 | Toyota Motor Corp | 経路探索システム、経路探索方法、経路探索プログラム、及び移動体 |
CN103605368A (zh) * | 2013-12-04 | 2014-02-26 | 苏州大学张家港工业技术研究院 | 一种动态未知环境中路径规划方法及装置 |
CN103994768A (zh) * | 2014-05-23 | 2014-08-20 | 北京交通大学 | 动态时变环境下寻求全局时间最优路径的方法 |
CN104914866A (zh) * | 2015-05-29 | 2015-09-16 | 国网山东省电力公司电力科学研究院 | 基于拓扑点分类的巡检机器人全局路径规划方法及系统 |
Non-Patent Citations (1)
Title |
---|
罗钧 等: "移动机器人寻迹算法研究", 《计算机工程与应用》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018205778A1 (zh) * | 2017-05-11 | 2018-11-15 | 苏州大学张家港工业技术研究院 | 基于深度带权双q学习的大范围监控方法及监控机器人 |
US11224970B2 (en) | 2017-05-11 | 2022-01-18 | Soochow University | Large area surveillance method and surveillance robot based on weighted double deep Q-learning |
CN107403426A (zh) * | 2017-06-20 | 2017-11-28 | 北京工业大学 | 一种目标物体检测方法及设备 |
CN107403426B (zh) * | 2017-06-20 | 2020-02-21 | 北京工业大学 | 一种目标物体检测方法及设备 |
CN108427828A (zh) * | 2018-02-07 | 2018-08-21 | 李荣陆 | 一种自动评估平面设计布局质量与优化的装置 |
CN108427828B (zh) * | 2018-02-07 | 2022-04-26 | 李荣陆 | 一种自动评估平面设计布局质量与优化的装置 |
CN109116854A (zh) * | 2018-09-16 | 2019-01-01 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105867427B (zh) | 2018-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Das et al. | Intelligent-based multi-robot path planning inspired by improved classical Q-learning and improved particle swarm optimization with perturbed velocity | |
Hussein et al. | Deep imitation learning for 3D navigation tasks | |
CN105867427A (zh) | 一种面向动态环境的机器人寻径在线控制方法 | |
Martinez-Tenor et al. | Towards a common implementation of reinforcement learning for multiple robotic tasks | |
Xie et al. | Learning with stochastic guidance for robot navigation | |
Hussein et al. | Deep reward shaping from demonstrations | |
Arai et al. | Experience-based reinforcement learning to acquire effective behavior in a multi-agent domain | |
CN111898770B (zh) | 一种多智能体强化学习方法、电子设备及存储介质 | |
JP7354460B2 (ja) | ブートストラップされた潜在性の予測を使用するエージェント制御のための学習環境表現 | |
Sutton | Reinforcement learning architectures | |
KR20220154785A (ko) | 다중 태스크 강화 학습에서 메타-그래디언트를 사용한 액션 선택을 위한 학습 옵션 | |
CN112605974A (zh) | 一种机器人复杂操作技能表征方法及系统 | |
CN115629607A (zh) | 一种融合历史信息的强化学习路径规划方法 | |
KR20240052808A (ko) | 그래프 신경망을 이용한 다중 로봇 조정 | |
CN105955921B (zh) | 基于自动发现抽象动作的机器人分层强化学习初始化方法 | |
Garip et al. | A study on path planning optimization of mobile robots based on hybrid algorithm | |
KR102346900B1 (ko) | 픽 앤 플레이스 시스템을 위한 심층 강화학습 장치 및 방법 | |
Kwiatkowski et al. | Understanding reinforcement learned crowds | |
Olmer et al. | Evolving realtime behavioral modules for a robot with GP | |
Liu et al. | Learning visual path–following skills for industrial robot using deep reinforcement learning | |
CN113759929B (zh) | 基于强化学习和模型预测控制的多智能体路径规划方法 | |
Contardo et al. | Learning states representations in pomdp | |
Khanzhahi et al. | Deep reinforcement learning issues and approaches for the multi-agent centric problems | |
Zamstein et al. | Koolio: Path planning using reinforcement learning on a real robot platform | |
Provost et al. | Self-organizing distinctive state abstraction using options |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220826 Address after: Room 313-314, Building 2, Yangcheng Lake International Science and Technology Pioneer Park, No. 116, Chengyang Road, Chengyang Street, Economic and Technological Development Zone, Xiangcheng District, Suzhou City, Jiangsu Province, 215000 Patentee after: Haibo (Suzhou) robot technology Co.,Ltd. Address before: 215123 No. 199 benevolence Road, Suzhou Industrial Park, Jiangsu, Suzhou Patentee before: SOOCHOW University |
|
TR01 | Transfer of patent right |