CN111142522A - 一种分层强化学习的智能体控制方法 - Google Patents
一种分层强化学习的智能体控制方法 Download PDFInfo
- Publication number
- CN111142522A CN111142522A CN201911360634.7A CN201911360634A CN111142522A CN 111142522 A CN111142522 A CN 111142522A CN 201911360634 A CN201911360634 A CN 201911360634A CN 111142522 A CN111142522 A CN 111142522A
- Authority
- CN
- China
- Prior art keywords
- network
- target point
- target
- obstacle
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000002787 reinforcement Effects 0.000 title claims abstract description 19
- 230000009471 action Effects 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 38
- 230000004927 fusion Effects 0.000 claims abstract description 30
- 230000006870 function Effects 0.000 claims description 25
- 238000004088 simulation Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000007613 environmental effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 9
- 239000003795 chemical substances by application Substances 0.000 description 27
- 238000005457 optimization Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种分层强化学习的智能体控制方法,属于可移动智能体控制领域。本发明基于现有MLSH算法框架上,利用DDPG算法分别训练智能体在不同环境下各自追寻目标点和避障的能力,最后通过主策略网络来进行动作选择的融合。相对于基于传统融合规则的算法而言,网络自动选择动作的融合不存在死区问题,本发明不同于MLSH算法自动分层形成的子任务,而是明确将导航任务分成追寻目标点和避障两个子任务,这样主要是减少训练时间以及方便实际应用。
Description
技术领域
本发明属于智能体控制领域,涉及一种基于分层强化学习的智能体的避障和寻找目标点等复杂行为控制。
背景技术
随着人工智能的兴起,机器学习方法越来越多地应用在机器人小车和无人飞行器领域,特别是涉及导航和路径规划等方面。卷积神经网络(Convolutional NeuralNetworks,CNNs)的发明将传感器数据作为输入,通过训练神经网络,来使机器人小车或无人飞行器来感知周围的环境。从而避免了传统路径规划算法实时性不强,前期需要复杂的环境建模和精准的定位等缺点。
其中,强化学习(Reinforcement Learning,RL)作为机器学习的重要组成方面,不同于神经网络“黑箱”难以调整网络结构和超参数性质,主要通过与环境的不断交互来建立从状态到动作的映射来使自己获得的累计奖励最大,因此拥有更好的自适应能力和对复杂非线性系统的自我学习能力。
作为一种端对端的学习模型,优点是不需要考虑中间复杂的建模计算过程,缺点是如果直接将传感器数据作为输入,全靠神经网络来进行状态特征的提取和决策,对于不同状态下不同障碍物的躲避方式不一,对于其行为评价方式也不同,因此很难用一个奖励函数来涵盖所有情况,而且,这样训练得到结果往往时间代价过大,可移植性较差。基于此,提出利用分层强化学习的方法来将导航的主任务分成多个不同的子任务分别进行训练,近年来广泛应用于机器人小车和无人飞行器的导航领域研究中。
强化学习是一个算法更新迭代迅速的领域,其主要算法分类可以分为基于模型(Model-based)的和无模型(Model-free)两大类。其中,无模型又分为策略梯度优化(Policy Optimization)和值优化(Value Optimization)两大类。值优化经典算法包括Q-learning,DQN和PER等;策略梯度优化经典算法包括A2C/A3C、PPO等;基于策略梯度优化和值优化提出的Actor-Critic框架,分别用两个网络——值网络和策略网络,来对动作进行评分和优化。值优化算法在状态空间上计算每个状态的状态值或状态动作值来指导动作的选择,对于无人机输出动作为连续值,如角速度和线速度等,计算开销过大;策略梯度优化则是在策略空间中寻找最优策略,省去了复杂的值计算过程,相比与基于值优化算法,搜索算法适用范围更广,但也存在容易收敛到局部最小值,方差较大等缺点。因此,本发明在分层训练时,可以适用深度确定性策略梯度DDPG、TD3等诸多强化学习算法,具体实际具体分析,本发明采用深度确定性策略梯度算法DDPG。
DDPG算法基于Actor-Critic算法框架,如图1所示。分为两个网络:Q网络和策略网络μ;Q网络主要用来拟合Q函数,记为θQ,表示对Actor在每个时间步长的评价;策略网络μ用来拟合确定性行为策略μ函数,每一时间步长的行为可以通过at=μ(st)获得,记为θμ。DDPG采用了经验回放机制(Experience Replay)和单独的目标网络来使训练过程高效化,减少数据之间的关联性,提高算法的稳定性和鲁棒性。具体是为Q网络和策略网络μ各自创建两个神经网络,记为目标网络θQ′和θμ′,DDPG网络参数更新根据回合数以较慢的方式进行更新,而不是简单的复制参数,这种方式称为soft-update。整个框架尽可能使Actor朝着获得更大Q值的方向更新网络。为了实现尽可能的地多探索,增加动作的随机性,DDPG作为一种离策略算法,前期需要尽可能丰富的样本作为后期的训练,因此增加一个噪声N来构建行动策略μ′。
分层强化学习用来智能体路径规划主要是充分利用分而治之的思想,将导航的主任务分为多个不同的子任务,在规模较小的范围内进行求解,各自训练,从而实现状态空间的降维,最后通过某种融合机制进行子任务的选择。基于分层强化学习思想在智能体的应用主要分为两类,第一类不指定确定的子任务,借鉴基于Option的分层强化学习机制让网络自己学习和生成相应的子任务,分阶段地完成主任务目标;第二类是确定明确的子任务功能,譬如将导航任务分为避障和寻找目标点两个子任务,分别设置奖励函数充分训练后,再基于某种融合规则来进行动作的选择。
第一类方法则是让智能体通过环境的交互来学习子策略,实现自动的分层结果。其经典算法主要是元学习共享分层(Meta-Learning Shared Hierarchies,MLSH)算法,主要框图如图2所示。
φ是一个向量集合φ1,φ2,…φk,其中,,代表一个子策略。θ是一个独立的神经网络用来选择合适的子策略,它可以是随机策略,网络的输出是一个index,k∈1,2,…,K,高层策略每隔N个时间步就选择一个子策略。结构如下:(当然选中的子策略为第三个子策略)。
MLSH学习一个分层策略,其中主策略在多个子策略之间进行切换。主策略在每N个时间步上选择一个动作,那个N个时间步执行的子策略就构成了一个高级动作,对于机器人小车或无人机导航领域,子策略就对应于智能体在四个方向的动作。从元学习角度上分析,自动分层可在新的未知环境中较快的获得最高奖励,即MLSH算法在未知任务上共享子策略,只要学习新的主策略就可以自动适应新的环境,这样避免了重复学习,减少了训练的代价。
第一类方法主要特点在于让智能体自行学习形成子策略,但在MLSH算法中,子策略需要在大量不同的环境下经过较长时间的训练才能形成,而且在训练过程中还需要分别训练主策略(master policy)和子策略(sub policy),分为warm up阶段和joint update阶段。在warm up阶段,得到一个近似最优的master policy;只有在master policy近似最优时,才能保证sub policy得到正确的更新。此外,MLSH自动分层的子策略,譬如通过利用“Enemy”的反弹进而更快达到目的地的“新奇”策略对于机器人小车或无人机的实际应用并不可取。
第二类方法因为已经明确了各自子任务的功能,因此融合网络实质上属于一种“硬融合”,即明确地表示了当前状态的动作选择原则。常用的方法是利用优势函数,如下所示:
网络整体框图如图3所示。避障网络和目标网络设置不同的环境和奖励函数,各自训练学习;其中,每个网络分为值函数和优势函数的训练,值函数代表着智能体处在当前状态的价值,优势函数代表当前状态采取各个动作的价值,用来指导下一步的决策;根据训练的结果,最后通过一个f(x)融合函数,结合当前状态值函数和优势函数来进行评价,最后选取评价值较大的那个动作作为下一步的决策,即判断智能体在当前状态应该采取避障还是寻找目标点。
分层强化学习能够较快地,有针对性地对智能车或无人机进行路径规划,实现导航的目的,但是在第二类方法中,明确子任务的目标,利用优势函数来进行动作的选择只能在离散动作区间上进行,因为动作的选择需要比对当前状态下每个动作的优势函数,最后选取最大的优势函数的动作值作为决策;这种离散动作输出的基于值的方法明显不适用力求最优路径的规划,因为只有输出动作是连续值,如角速度和线速度等,得到的路径才是最短的。第二,第二类融合网路动作的选择,往往需要引入复杂的自定义函数和超参数进行修正,时间代价较高,且可移植性不强。
发明内容
本发明基于现有MLSH算法框架上,利用DDPG算法分别训练智能体在不同环境下各自追寻目标点和避障的能力,最后通过主策略网络来进行动作选择的融合。本发明的主要特点是不同于MLSH算法自动分层形成的子任务,而是明确将导航任务分成追寻目标点和避障两个子任务,这样主要是减少训练时间以及方便实际应用。
本发明的分层强化学习的智能体控制方法包括如下步骤:
S01:将智能体导航任务分成追寻目标点和避障两个子任务;利用DDPG算法训练智能体在第一仿真环境下追寻目标点的能力,得到经训练的目标网络;利用DDPG算法训练智能体在第二仿真环境下的避障能力,得到经训练的避障网络;
S02:训练融合网络,融合网络的输入为感知环境状态变化的特征量和目标点的位置数据,输出为融合系数lamda;通过输出的lamda来得到最终动作,然后通过与环境交换得到的奖励reward来逐步修正融合网络;
S03:将目标点信息和环境状态特征信息作为融合网络的输入,对经过预训练的避障网络和目标网络输出进行动作选择,并根据融合系数lamda来执行最终动作。
与现有技术相比,本发明具有的有益效果是:相对于基于传统融合规则的算法而言,网络自动选择动作的融合不存在死区问题,譬如当判断距离等于阈值时,智能体会认为两种动作都是最优解,这样会产生两种不同的结果;其次,融合规则的阈值距离的选择主要基于经验尝试,可能在不同环境下就会失效。第二相对于MLSH算法自动分层形成的子任务,本发明明确将导航任务分成追寻目标点和避障两个子任务,并事先进行了预训练,子任务不需要再更新学习;同时相对于MLSH算法每隔N个时间步进行子任务的的选择,本发明时间步为1,这样减少了训练时间,但同时吸收了MLSH算法在未知任务提升样本效率,快速解决新任务的优点,具有较好的迁移能力。
附图说明
图1为DDPG算法框图;
图2为第一类方法的网络整体框图;
图3为第二类方法的网络整体框图;
图4为第一仿真环境的示意图;
图5为第二仿真环境的示意图;
图6为本发明方法的整个网络框架图;
图7为实施例中的初步仿真实验结果。
具体实施方式
下面结合说明书附图和实施例对本发明做进一步说明。
本发明基于现有MLSH算法框架上,利用DDPG算法分别训练智能体在不同环境下各自追寻目标点和避障的能力,最后通过主策略网络来进行动作选择的融合。
4.1分层训练
智能体用来学习追寻目标点和避障能力的仿真环境分别如下所示。其中,环境1主要是用来训练小车追寻目标点的能力。由图4可知,在环境1中红色圆圈代表的是随机出现的目标点位置,当小车到达目标点后,即立刻出现下一个目标点位置。环境1主要由正方形的外边界和目标点组成,外边界主要是为了限制智能体的活动范围,整个环境排除了障碍物对智能体训练追寻目标点的干扰。目标网络的奖励函数如下:
式中,p代表当前位置,g代表目标点位置,o代表障碍物位置;dr-t(t)为智能体在t时刻相距目标点的距离;ar-t(t)为智能体在t时刻相距目标点的角度。
目标网络的输入为目标点相对于智能体坐标系的直线距离和倾斜角度,网络输出为智能体的角速度和线速度;奖励函数主要由距离奖励和角度奖励两部分组成,这样促使智能体向目标点靠近,避免了在原地打转无法学习等现象。
避障网络的输入为感知状态变化的特征量,如激光雷达数据或摄像头图像数据。环境2主要是智能体用来训练学习如何避障的能力。由图5可知,环境2中排除了目标点对避障能力学习的干扰。其中,为了充分学习智能体的避障能力,整个环境包括拐弯避障、正面避障和直角避障等三部分。为了使智能体充分探索环境而不是停留在原地,避障网络的奖励函数如下所示。
式中,robstacle为碰到障碍物的惩罚,d为判断是否碰到障碍物的阈值;lin_cmd,ang_cmd分别为智能体线速度和角速度。m(t)为t时刻智能体与障碍物最小状态数据。
4.2融合网络
整个网络框架如图6所示。其中,融合网络的输入为感知环境状态变化的特征量和目标点的位置数据,输出为lamda,lamda取值范围为(0,1),主要是用来对当前状态下避障和追寻目标点动作的权衡。融合网络的训练是通过输出的lamda来得到最终动作,然后通过与环境交换得到的奖励reward来逐步修正网络。
具体实现过程下:
1)首先分别在环境1和环境2下分别训练追寻目标点和避障学习,输入分别为目标点位置信息和环境状态信息,输出为智能体角速度和线速度;
2)在目标网络中,初始化actor/critic神经网络参数;
3)将online网络的参数拷贝给对应的target网络参数;
4)初始化记忆回放库(Experience Replay Buffer);
5)在每一个回合中,actor根据行动策略选择动作a,执行后,返回奖励r和下一个状态St+1,将状态转换四元数储存至记忆回放库中,作为online网络的数据集;
6)记忆回放库储存一定数量后,从中随机采样N个样本进行训练;
7)先后计算Q online和策略网络的梯度并进行更新;
8)至一定回合数后,对目标网络Q和目标策略网络进行soft-update;
9)避障网络训练方法与目标网络训练方法一致;
10)将目标点信息和环境状态特征信息作为融合网络的输入,在经过预训练的避障网络和目标网络输出进行动作选择,执行后将状态转换四元数存储至新的记忆回放库,作为融合网络的数据集。
融合网络的训练与目标网络训练方法一致;为了融合网络更快更好地训练,可以选择基于DQN等简单算法。
图7所示为本发明的仿真实验结果如下,其中,左图a为根据激光雷达距离小于某个阈值作为规则的仿真结果,右图b为本发明分层强化学习的智能体控制训练得到的结果,由图7可知若根据激光雷达距离小于某个阈值等规则,会出现两条不同的路径,如左图中下部小方框所示。这主要是因为当前状态所获得的最小距离恰好等于阈值情况,属于既可以避障或者追寻目标点的情况。但从右图可知,根据本发明的方法,此时将目标点信息和环境状态特征信息作为融合网络的输入,对经过预训练的避障网络和目标网络输出进行动作选择,并根据融合系数lamda来执行最终动作,得到此时追寻目标点是当前状态的最佳选择,即本发明方法得到的路径不会出现矛盾的情况。
另外,相对于MLSH算法自动分层形成的子任务,本发明明确将导航任务分成追寻目标点和避障两个子任务,并事先进行了预训练,子任务不需要再更新学习;同时相对于MLSH算法每隔N个时间步进行子任务的的选择,本发明时间步为1,这样减少了训练时间,但同时吸收了MLSH算法在未知任务提升样本效率,快速解决新任务的优点,具有较好的迁移能力。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (6)
1.一种分层强化学习的智能体控制方法,其特征在于包括如下步骤:
S01:将智能体导航任务分成追寻目标点和避障两个子任务;利用DDPG算法训练智能体在第一仿真环境下追寻目标点的能力,得到经训练的目标网络;利用DDPG算法训练智能体在第二仿真环境下的避障能力,得到经训练的避障网络;
S02:训练融合网络,融合网络的输入为感知环境状态变化的特征量和目标点的位置数据,输出为融合系数lamda;通过输出的lamda来得到最终动作,然后通过与环境交换得到的奖励reward来逐步修正融合网络;
S03:将目标点信息和环境状态特征信息作为融合网络的输入,对经过预训练的避障网络和目标网络输出进行动作选择,并根据融合系数lamda来执行最终动作。
2.根据权利要求1所述的分层强化学习的智能体控制方法,其特征在于,所述的第一仿真环境由外边界和目标点组成。
4.根据权利要求1所述的分层强化学习的智能体控制方法,其特征在于,所述的第二仿真环境由外边界和障碍物组成。
6.根据权利要求1所述的分层强化学习的智能体控制方法,其特征在于,所述的目标网络或避障网络的训练过程具体为:
1)初始化actor/critic神经网络参数;
2)将online策略网络和值网络的参数分别拷贝给对应的target网络参数;
3)初始化记忆回放库;
4)在每一个回合中,actor根据行动策略选择动作,执行后,返回奖励r和下一个状态St+1,将状态转换四元数储存至记忆回放库中,作为online策略网络和值网络的数据集;
5)记忆回放库储存一定数量后,从中随机采样N个样本进行训练;
6)先后计算online值网络和策略网络的梯度并进行更新;
7)迭代至一定回合数后,对target值网络和目标策略网络进行soft-update。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911360634.7A CN111142522B (zh) | 2019-12-25 | 2019-12-25 | 一种分层强化学习的智能体控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911360634.7A CN111142522B (zh) | 2019-12-25 | 2019-12-25 | 一种分层强化学习的智能体控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111142522A true CN111142522A (zh) | 2020-05-12 |
CN111142522B CN111142522B (zh) | 2023-06-09 |
Family
ID=70520195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911360634.7A Active CN111142522B (zh) | 2019-12-25 | 2019-12-25 | 一种分层强化学习的智能体控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111142522B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111638646A (zh) * | 2020-05-29 | 2020-09-08 | 平安科技(深圳)有限公司 | 四足机器人行走控制器训练方法、装置、终端及存储介质 |
CN111645673A (zh) * | 2020-06-17 | 2020-09-11 | 西南科技大学 | 一种基于深度强化学习的自动泊车方法 |
CN111708856A (zh) * | 2020-06-03 | 2020-09-25 | 武汉中海庭数据技术有限公司 | 一种基于强化学习的车道线的众包数据分段融合方法 |
CN111898770A (zh) * | 2020-09-29 | 2020-11-06 | 四川大学 | 一种多智能体强化学习方法、电子设备及存储介质 |
CN112052947A (zh) * | 2020-08-17 | 2020-12-08 | 清华大学 | 基于策略选项的分层强化学习方法和装置 |
CN112132263A (zh) * | 2020-09-11 | 2020-12-25 | 大连理工大学 | 一种基于强化学习的多智能体自主导航方法 |
CN112698646A (zh) * | 2020-12-05 | 2021-04-23 | 西北工业大学 | 一种基于强化学习的航行器路径规划方法 |
CN112861442A (zh) * | 2021-03-10 | 2021-05-28 | 中国人民解放军国防科技大学 | 基于深度强化学习的多机协同空战规划方法及系统 |
CN113179263A (zh) * | 2021-04-25 | 2021-07-27 | 周口师范学院 | 一种网络入侵检测方法、装置及设备 |
CN113218400A (zh) * | 2021-05-17 | 2021-08-06 | 太原科技大学 | 一种基于深度强化学习的多智能体导航算法 |
CN113218399A (zh) * | 2021-05-12 | 2021-08-06 | 天津大学 | 一种基于多智能体分层强化学习的迷宫导航方法及装置 |
CN113253733A (zh) * | 2021-06-03 | 2021-08-13 | 杭州未名信科科技有限公司 | 一种基于学习和融合的导航避障方法、装置及系统 |
CN113391633A (zh) * | 2021-06-21 | 2021-09-14 | 南京航空航天大学 | 一种面向城市环境的移动机器人融合路径规划方法 |
CN113791612A (zh) * | 2021-08-17 | 2021-12-14 | 中南民族大学 | 智能体实时路径规划方法、装置、设备及存储介质 |
CN114415737A (zh) * | 2022-04-01 | 2022-04-29 | 天津七一二通信广播股份有限公司 | 一种无人机强化学习训练系统的实现方法 |
WO2022138352A1 (ja) * | 2020-12-23 | 2022-06-30 | 株式会社明電舎 | 自動操縦ロボットの制御装置及び制御方法 |
CN116028817A (zh) * | 2023-01-13 | 2023-04-28 | 哈尔滨工业大学(深圳) | 一种基于单估值网络的cfr策略求解方法及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150100530A1 (en) * | 2013-10-08 | 2015-04-09 | Google Inc. | Methods and apparatus for reinforcement learning |
WO2018083532A1 (en) * | 2016-11-03 | 2018-05-11 | Deepmind Technologies Limited | Training action selection neural networks |
US20180157973A1 (en) * | 2016-12-04 | 2018-06-07 | Technion Research & Development Foundation Limited | Method and device for a computerized mechanical device |
CN109760046A (zh) * | 2018-12-27 | 2019-05-17 | 西北工业大学 | 基于强化学习的空间机器人捕获翻滚目标运动规划方法 |
CN110333739A (zh) * | 2019-08-21 | 2019-10-15 | 哈尔滨工程大学 | 一种基于强化学习的auv行为规划及动作控制方法 |
CN110471444A (zh) * | 2019-08-19 | 2019-11-19 | 西安微电子技术研究所 | 基于自主学习的无人机智能避障方法 |
-
2019
- 2019-12-25 CN CN201911360634.7A patent/CN111142522B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150100530A1 (en) * | 2013-10-08 | 2015-04-09 | Google Inc. | Methods and apparatus for reinforcement learning |
WO2018083532A1 (en) * | 2016-11-03 | 2018-05-11 | Deepmind Technologies Limited | Training action selection neural networks |
US20180157973A1 (en) * | 2016-12-04 | 2018-06-07 | Technion Research & Development Foundation Limited | Method and device for a computerized mechanical device |
CN109760046A (zh) * | 2018-12-27 | 2019-05-17 | 西北工业大学 | 基于强化学习的空间机器人捕获翻滚目标运动规划方法 |
CN110471444A (zh) * | 2019-08-19 | 2019-11-19 | 西安微电子技术研究所 | 基于自主学习的无人机智能避障方法 |
CN110333739A (zh) * | 2019-08-21 | 2019-10-15 | 哈尔滨工程大学 | 一种基于强化学习的auv行为规划及动作控制方法 |
Non-Patent Citations (2)
Title |
---|
卓睿,陈宗海,陈春林: "基于强化学习和模糊逻辑的移动机器人导航" * |
张福海;李宁;袁儒鹏;付宜利;: "基于强化学习的机器人路径规划算法" * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111638646A (zh) * | 2020-05-29 | 2020-09-08 | 平安科技(深圳)有限公司 | 四足机器人行走控制器训练方法、装置、终端及存储介质 |
CN111638646B (zh) * | 2020-05-29 | 2024-05-28 | 平安科技(深圳)有限公司 | 四足机器人行走控制器训练方法、装置、终端及存储介质 |
CN111708856A (zh) * | 2020-06-03 | 2020-09-25 | 武汉中海庭数据技术有限公司 | 一种基于强化学习的车道线的众包数据分段融合方法 |
CN111645673A (zh) * | 2020-06-17 | 2020-09-11 | 西南科技大学 | 一种基于深度强化学习的自动泊车方法 |
CN111645673B (zh) * | 2020-06-17 | 2021-05-11 | 西南科技大学 | 一种基于深度强化学习的自动泊车方法 |
CN112052947A (zh) * | 2020-08-17 | 2020-12-08 | 清华大学 | 基于策略选项的分层强化学习方法和装置 |
CN112132263A (zh) * | 2020-09-11 | 2020-12-25 | 大连理工大学 | 一种基于强化学习的多智能体自主导航方法 |
CN111898770A (zh) * | 2020-09-29 | 2020-11-06 | 四川大学 | 一种多智能体强化学习方法、电子设备及存储介质 |
CN111898770B (zh) * | 2020-09-29 | 2021-01-15 | 四川大学 | 一种多智能体强化学习方法、电子设备及存储介质 |
CN112698646A (zh) * | 2020-12-05 | 2021-04-23 | 西北工业大学 | 一种基于强化学习的航行器路径规划方法 |
WO2022138352A1 (ja) * | 2020-12-23 | 2022-06-30 | 株式会社明電舎 | 自動操縦ロボットの制御装置及び制御方法 |
CN112861442A (zh) * | 2021-03-10 | 2021-05-28 | 中国人民解放军国防科技大学 | 基于深度强化学习的多机协同空战规划方法及系统 |
CN113179263A (zh) * | 2021-04-25 | 2021-07-27 | 周口师范学院 | 一种网络入侵检测方法、装置及设备 |
CN113218399A (zh) * | 2021-05-12 | 2021-08-06 | 天津大学 | 一种基于多智能体分层强化学习的迷宫导航方法及装置 |
CN113218399B (zh) * | 2021-05-12 | 2022-10-04 | 天津大学 | 一种基于多智能体分层强化学习的迷宫导航方法及装置 |
CN113218400B (zh) * | 2021-05-17 | 2022-04-19 | 太原科技大学 | 一种基于深度强化学习的多智能体导航算法 |
CN113218400A (zh) * | 2021-05-17 | 2021-08-06 | 太原科技大学 | 一种基于深度强化学习的多智能体导航算法 |
CN113253733A (zh) * | 2021-06-03 | 2021-08-13 | 杭州未名信科科技有限公司 | 一种基于学习和融合的导航避障方法、装置及系统 |
CN113391633A (zh) * | 2021-06-21 | 2021-09-14 | 南京航空航天大学 | 一种面向城市环境的移动机器人融合路径规划方法 |
CN113791612B (zh) * | 2021-08-17 | 2023-10-24 | 中南民族大学 | 智能体实时路径规划方法、装置、设备及存储介质 |
CN113791612A (zh) * | 2021-08-17 | 2021-12-14 | 中南民族大学 | 智能体实时路径规划方法、装置、设备及存储介质 |
CN114415737A (zh) * | 2022-04-01 | 2022-04-29 | 天津七一二通信广播股份有限公司 | 一种无人机强化学习训练系统的实现方法 |
WO2023184676A1 (zh) * | 2022-04-01 | 2023-10-05 | 天津七一二通信广播股份有限公司 | 一种无人机强化学习训练系统的实现方法 |
CN116028817A (zh) * | 2023-01-13 | 2023-04-28 | 哈尔滨工业大学(深圳) | 一种基于单估值网络的cfr策略求解方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111142522B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111142522B (zh) | 一种分层强化学习的智能体控制方法 | |
CN113110592B (zh) | 一种无人机避障与路径规划方法 | |
CN108803321B (zh) | 基于深度强化学习的自主水下航行器轨迹跟踪控制方法 | |
Wu et al. | A hybrid algorithm of particle swarm optimization, metropolis criterion and RTS smoother for path planning of UAVs | |
CN112937564A (zh) | 换道决策模型生成方法和无人车换道决策方法及装置 | |
CN113052372B (zh) | 一种基于深度强化学习的动态auv追踪路径规划方法 | |
CN112819253A (zh) | 一种无人机避障和路径规划装置及方法 | |
CN112148008B (zh) | 一种基于深度强化学习的实时无人机路径预测方法 | |
Bai et al. | Adversarial examples construction towards white-box Q table variation in DQN pathfinding training | |
Guo et al. | A fusion method of local path planning for mobile robots based on LSTM neural network and reinforcement learning | |
CN116804879A (zh) | 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法 | |
Yan et al. | Mapless navigation with safety-enhanced imitation learning | |
Guo et al. | A deep reinforcement learning based approach for AGVs path planning | |
Xue et al. | Multi-agent deep reinforcement learning for uavs navigation in unknown complex environment | |
CN114815801A (zh) | 一种基于策略-价值网络及mcts的自适应环境路径规划方法 | |
Palacios-Morocho et al. | Multipath planning acceleration method with double deep R-learning based on a genetic algorithm | |
Li et al. | Research on the agricultural machinery path tracking method based on deep reinforcement learning | |
CN113959446B (zh) | 一种基于神经网络的机器人自主物流运输导航方法 | |
Duo et al. | A deep reinforcement learning based mapless navigation algorithm using continuous actions | |
CN115933712A (zh) | 基于深度强化学习的仿生鱼领导者—跟随者编队控制方法 | |
Feng et al. | Mobile robot obstacle avoidance based on deep reinforcement learning | |
Wang et al. | Efficient Reinforcement Learning for Autonomous Ship Collision Avoidance under Learning Experience Reuse | |
Tang et al. | Reinforcement learning for robots path planning with rule-based shallow-trial | |
Tran et al. | Mobile robot planner with low-cost cameras using deep reinforcement learning | |
CN116448134B (zh) | 基于风险场与不确定分析的车辆路径规划方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |