CN114548497A - 一种实现场景自适应的人群运动路径规划方法及系统 - Google Patents
一种实现场景自适应的人群运动路径规划方法及系统 Download PDFInfo
- Publication number
- CN114548497A CN114548497A CN202210038482.4A CN202210038482A CN114548497A CN 114548497 A CN114548497 A CN 114548497A CN 202210038482 A CN202210038482 A CN 202210038482A CN 114548497 A CN114548497 A CN 114548497A
- Authority
- CN
- China
- Prior art keywords
- planning
- agent
- path
- model
- crowd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 230000002787 reinforcement Effects 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims abstract description 11
- 230000009471 action Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000004088 simulation Methods 0.000 claims description 13
- 230000004888 barrier function Effects 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 2
- 239000003795 chemical substances by application Substances 0.000 description 119
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Game Theory and Decision Science (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开提出了一种实现场景自适应的人群运动路径规划方法及系统,将获取的场景信息以及人群信息输入至训练好的多智能体深度强化学习框架模型进行人群运动规划路径;所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型每个智能体以距离最近的出口作为疏散目标,利用深度确定性策略梯度算法规划,得到全局规划路径;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,修正全局规划路径得到人群运动规划路径。采用MADDPG算法,将全局路径规划和局部避免碰撞分开处理,并使用多智能体深度强化学习方法以适应于场景的变化,规划出更为合理的人群运动路径。
Description
技术领域
本公开涉及人群运动路径规划相关技术领域,具体的说,是涉及一种实现场景自适应的人群运动路径规划方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,并不必然构成在先技术。
随着科技和经济的不断发展、公共建筑和设施的不断增多,在地铁站、机场、医院等公共区域内的人流量也更加密集。当发生紧急情况时,如火灾、地震等,由于应急方案存在一定缺陷,导致人群拥挤、踩踏的意外情况时有发生。因此,发生灾难时,规划人群在公共场所内真实的运动路径有助于提前规避风险,保障人民生命财产安全。
在人群运动路径规划中,通常对规划方法的灵活性和真实性要求较高。发明人发现,传统人群路径规划方法往往使用预先定义的场景和规则,降低了人群运动的真实度。基于数据驱动的路径规划方法常被用来增强人群路径规划的真实度。然而,基于数据驱动的方法通常从特定场景中提取人群运动数据,并将训练好的模型应用到同一场景,当场景中障碍物数量或位置发生变化时,基于数据驱动的方法不能适应场景的变化,产生无碰撞路径,灵活性较低。
发明内容
本公开为了解决上述问题,提出了一种实现场景自适应的人群运动路径规划方法及系统,采用MADDPG(Multi-Agent Deep Deterministic Policy Gradient,多智能体深度确定性策略梯度)算法,将全局路径规划和局部避免碰撞分开处理,并使用多智能体深度强化学习方法以适应于场景的变化,规划出更为合理的人群运动路径。
为了实现上述目的,本公开采用如下技术方案:
一个或多个实施例提供了一种实现场景自适应的人群运动路径规划方法,包括如下步骤:
获取场景信息以及人群参数信息;
将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径;
所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型每个智能体以距离最近的出口作为疏散目标,利用深度确定性策略梯度算法进行全局路径规划,得到智能体的全局规划路径;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,修正全局规划路径得到人群运动规划路径。
一个或多个实施例提供了一种实现场景自适应的人群运动路径规划系统,包括:
获取模块,被配置为用于获取场景信息以及人群参数信息;
规划模块,被配置为用于将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径;
所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型每个智能体以距离最近的出口作为疏散目标,利用深度确定性策略梯度算法进行全局路径规划,得到智能体的全局规划路径;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,修正全局规划路径得到人群运动规划路径。
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成上述方法所述的步骤。
与现有技术相比,本公开的有益效果为:
本公开将全局路径规划和局部避免碰撞分开处理,并使用多智能体深度强化学习方法以适应于场景的变化,规划出更为合理的人群运动路径。基于多级的深度强化学习框架并应用到人群运动模拟中,分别处理路径规划和碰撞避免,提高了方法的泛化性、灵活性。
本公开的优点以及附加方面的优点将在下面的具体实施例中进行详细说明。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的限定。
图1是本公开实施例1所述的人群运动路径规划方法流程图;
图2是本公开实施例1的模拟双出口的简单仿真场景的人群疏散场景仿真模型;
图3是对图2的场景进行人群运动路径规划的疏散效果图;
图4是本公开实施例1的模拟四出口的复杂仿真场景的人群疏散场景仿真模型;
图5是对图4的场景进行人群运动路径规划的疏散效果图;
图6是本公开实施例1中底层规划的网络训练示例。
具体实施方式:
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。需要说明的是,在不冲突的情况下,本公开中的各个实施例及实施例中的特征可以相互组合。下面将结合附图对实施例进行详细描述。
实施例1
在一个或多个实施方式公开的技术方案中,如图1所示,一种实现场景自适应的人群运动路径规划方法,包括如下步骤:
步骤1、获取场景信息以及人群参数信息;
步骤2、将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径;
所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型以每个智能体以距离最近的出口作为疏散目标,利用深度确定性策略梯度算法进行全局路径规划,得到智能体的目标位置;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,得到人群运动规划路径。
本实施例将全局路径规划和局部避免碰撞分开处理,并使用多智能体深度强化学习方法以适应于场景的变化,规划出更为合理的人群运动路径。基于两级的深度强化学习框架并应用到人群运动模拟中,分别处理路径规划和碰撞避免,将深度强化学习方法分别应用于两级规划,提高了方法的泛化性、灵活性。
其中,场景信息可以包括:疏散出口的数量、位置和大小,障碍物的数量、位置、大小和形状。
人群参数信息可以包括:人群的位置、速度(统一设为0)、目标出口位置其中,目标出口位置可以为距离当前智能体最近的出口。
将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径的方法,包括如下步骤:
步骤21、根据获取的场景信息以及人群参数信息,进行多智能体深度强化学习框架模型即为疏散场景仿真模型内的参数的初始化设置;
疏散场景仿真模型是包括顶层和底层规划的多智能体深度强化学习框架模型,具体的初始化场景设置,包括场景建筑物、道路、建筑出口、人群位置等。如图2和图4所示,分别是双出口与四个出口的仿真场景。
步骤22、利用深度确定性策略梯度算法对单个智能体进行路径规划,使得智能体的移动路径指向目标出口,得到全局规划路径;
其中,所述全局规划路径包括所有智能体的每一时刻的目标位置,以及由所有时刻对应的位置形成的智能体移动路径。
步骤23、以使智能体避免与其他智能体发生碰撞为目标,采用RVO(相对速度障碍)算法融合多智能体深度确定性策略梯度算法进行规划,对全局规划路径进行修正,得到最终的人群运动规划路径。
本实施例中,融合了相对速度障碍算法,能够提高提高计算无碰撞速度的效率。
进一步的,顶层规划模型将人群中的每一个个体视为智能体,利用深度确定性策略梯度算法进行全局路径规划,将这一过程称为顶层规划即上面的步骤22,在进行顶层规划之前需要对模型进行训练,顶层规划模型的训练过程,包括如下步骤:
步骤A1:根据获取的场景信息以及人群参数信息,设定顶层规划模型智能体的状态和动作空间;
顶层规划模型中,智能体的状态可以包括智能体的位置、速度、目标位置、障碍物距离;动作空间可以具体为智能体位置坐标变换的二维的连续空间。
具体的,智能体自身在二维坐标中的位置O,可以用水平坐标和垂直坐标即(ox,oy)来表示。智能体自身当前时刻的速度矢量V,可以用水平速度和垂直速度即(vx,vy)来表示。总体目标所在的位置L,用水平坐标和垂直坐标即(lx,ly)来表示。当前时刻智能体与周围障碍物的距离,由20维的向量组成,用D(d1,d2,...,d20)来表示,综合上述分析,顶层规划中智能体在时刻t的状态定义为
对于动作空间来说,本实施例中,可以考虑的动作策略为在每个时间步给予智能体的下一坐标点,所以顶层规划的动作空间为一个二维的连续空间,在t时刻智能体的动作定义为:vx,vy分别表示当前智能体的水平速度和垂直速度。
步骤A2:从获取的真实视频中提取行人的运动属性;
其中,所述运动属性包括智能体每一时刻的纵坐标位置、横坐标位置、纵坐标速度和横坐标速度;
其中,对于视频中单个行人的行走轨迹,用状态集合S来表示:
步骤A3:设定轨迹匹配器用于提取智能体的状态;
定义一个函数ψ提取智能体状态sTop中的部分特征:ψ(sTop)=(ox,oy,vx,vy),获取了智能体状态sTop中部分特征后,定义一个轨迹匹配器K(sTop)∈S。sTop即为智能体某一时刻的状态。
步骤A4:设定顶层规划的智能体的奖励函数,激励智能体做出预期动作;
设定顶层规划的智能体的奖励函数,以激励智能体做出预期动作;奖励函数为:当智能体与障碍物碰撞,奖励值为负数;当智能体到达总体目标位置奖励值为正数;智能体下一时刻比当前时刻更接近总体目标位置,奖励为正奖励,否则为负奖励。总体目标位置即为最终要到达的目标位置。
具体的,奖励函数为:
其中,obsmin为智能体与障碍物的最小距离,如果小于零,说明发生了碰撞,此时受到一个负奖励-1。O代表智能体位置,L代表总体目标位置,当智能体到达目标时,会受到一个正奖励1。e1,e2为距离函数和相似度函数的权重,且e1+e2=1。dis()函数表示智能体位置与总体目标之间的相对距离。求出当前时刻与总体目标的距离和下一时刻与目标的距离,并做差值,如果为正值说明个体更加接近目标点,受到一个正奖励,反之则为负奖励。sim(sTop)函数计算智能体与真实行人状态的相似度。
步骤A5:每个智能体对应一个Actor网络与一个Critic网络,分别负责策略估计和价值估计,采用深度确定性策略梯度算法训练Critic网络和Actor网络的模型参数,根据设定迭代次数进行迭代训练,如进行N个回合重复训练,以智能体获取的回报值最大为目标,直至训练出每个智能体的奖励值收敛,得到最终的模型参数;
进一步地,底层规划模型将模拟人群中的每一个个体视为智能体,利用多智能体深度确定性策略梯度算法进行局部碰撞避免,将这一过程称为底层规划即上面的步骤23,在进行底层规划之前需要对模型进行训练,底层规划模型的训练过程,包括如下步骤:
步骤B1:接收顶层规划模型传输的智能体下一时刻的目标位置,并将其作为底层规划智能体的观测值;
步骤B2:设定底层规划智能体的观测和动作空间;
底层规划模型智能体的观测和动作空间,具体为:
其中,表示当前智能体的水平位置坐标和垂直位置坐标。表示智能体的水平速度和垂直速度;表示目标位置,表示当前智能体相对于目标的水平距离和垂直距离,表示当前智能体相对于第K个智能体的水平速度和垂直速度;表示当前智能体相对于第K个智能体的水平距离和垂直距离。
步骤B3:设定底层规划模型的智能体的奖励函数,激励智能体避免与其他智能体发生碰撞并到达指定目标位置;
可选的,底层规划模型的奖励函数为:当两个智能体发生碰撞,奖励为负奖励;当智能体成功到达目标位置,奖励为正奖励;当没有发生碰撞同时也没有到达目标位置,智能体的速度越接近由RVO方法计算的无碰撞速度vrvo,奖励值越大,否则,奖励值越小。
其奖励函数具体为:
其中,dmin表示两个智能体之间的最小距离,如果为0就意味着碰撞,会给予碰撞的智能体一个负奖励-1。如果智能体成功到达目标点会有一个正奖励1。同时本发明将RVO方法引入到奖励函数中。RVO(Reciprocal Velocity Obstacles)方法全称为相对速度障碍物算法,该算法被广泛应用与多智能体避障领域。在训练过程中每一个时间步都根据智能体状态计算由RVO方法产生的无碰撞速度vrvo,并与当前智能体选择的每一步的速度比较,计算它们之间的欧氏距离,距离越小,奖励值越大。W为权重参数,表示训练过程中受RVO方法影响的程度。
步骤B4:每个智能体对应一个Actor网络与一个Critic网络,分别负责策略估计和价值估计,设置单独的经验池存放所有智能体每一步的经验,采用深度确定性策略梯度算法训练Critic网络和Actor网络的模型参数,使用设定迭代次数进行重复训练,以智能体获取的回报值最大为目标,直至奖励值趋于收敛,确定底层规划模型参数。
本实施例将将模拟人群中的每一个个体视为智能体,利用多智能体深度确定性策略梯度算法进行局部避免碰撞,提高了计算无碰撞速度的效率,随着人数增多,与相比于单独采用RVO方法的计算效率明显提升。
具体的,采用深度确定性策略梯度算法训练Critic网络和Actor网络的模型参数的训练过程如图6所示:在Actor网络中使用当前智能体状态和动作作为输入。而在Critic网络中使用总体状态和所有智能体采取的动作作为输入。总体状态为所有智能体的状态。
本实施例中,每个智能体都拥有一个Actor网络和Critic网络,分别负责策略估计和价值估计。采用集中式的训练和分布式的执行:即在训练的时候,价值估计网络的输入为智能体的联合状态和动作,输出一个Q值来指导策略估计网络的训练。而在训练完成之后,只需将智能体的观测状态作为策略估计网络输入,就能得到期望输出的动作。图3和图5用完全相同的网络模型参数实现了不同场景中的人群模拟,图3是图2场景的处理结果,图5是图4场景的处理结果体现了本实施例方法的泛化性和灵活性。
对于任意一个智能体i,设mi为第i个智能体的观测,ai为第i个智能体的动作,x为状态。假设πi为第i个智能体的策略。
其中,θi表示第i个智能体的Actor网络参数。
Critic网络为价值网络,负责价值估计,价值网络的梯度更新公式为:
其中,表示第i个智能体的Critic网络参数,fi表示第i个智能体的奖励值。Qi(x,a1,a2,...,an)为第i个智能体的价值估计。x′为下一时间步的状态。Actor和Critic网络均通过Adam优化算法,优化网络参数,使损失最小化。
实施例2
基于实施例1,本实施例提供一种实现场景自适应的人群运动路径规划系统,包括:
获取模块,被配置为用于获取场景信息以及人群参数信息;
规划模块,被配置为用于将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径;
所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型每个智能体以距离最近的出口作为疏散目标,利用深度确定性策略梯度算法进行全局路径规划,得到智能体的全局规划路径;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,修正全局规划路径得到人群运动规划路径。
进一步地,规划模块包括:
初始化设置模块,被配置为用于根据获取的场景信息以及人群参数信息,进行疏散场景仿真模型内的参数的初始化设置;
全局路径规划模块,被配置为用于利用深度确定性策略梯度算法对单个智能体进行路径规划,使得智能体的移动路径指向目标出口,得到全局规划路径;
局部避免碰撞规划模块,被配置为用于以使智能体避免与其他智能体发生碰撞为目标,采用相对速度障碍算法融合多智能体深度确定性策略梯度算法进行规划,对全局规划路径进行修正,得到最终的人群运动规划路径。
实施例3
基于实施例1,本实施例提供一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例1的方法所述的步骤。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.一种实现场景自适应的人群运动路径规划方法,其特征在于,包括如下步骤:
获取场景信息以及人群参数信息;
将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径;
所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型以智能体距离最近的出口作为疏散目标,利用深度确定性策略梯度算法规划,得到全局规划路径;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,修正全局规划路径得到人群运动规划路径。
2.如权利要求1所述的一种实现场景自适应的人群运动路径规划方法,其特征在于:将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径的方法,包括如下步骤:
根据获取的场景信息以及人群参数信息,进行多智能体深度强化学习框架模型内的参数的初始化设置;
利用深度确定性策略梯度算法对单个智能体进行路径规划,使得智能体的移动路径指向目标出口,得到全局规划路径;
以使智能体避免与其他智能体发生碰撞为目标,采用相对速度障碍算法融合多智能体深度确定性策略梯度算法进行规划,对全局规划路径进行修正,得到最终的人群运动规划路径。
3.如权利要求1所述的一种实现场景自适应的人群运动路径规划方法,其特征在于:顶层规划模型的训练过程,包括如下步骤:
根据获取的场景信息以及人群参数信息,设定顶层规划模型智能体的状态和动作空间;
从获取的真实视频中提取行人的运动属性;
设定轨迹匹配器用于提取智能体的状态;
设定顶层规划的智能体的奖励函数,激励智能体做出预期动作;
每个智能体对应一个Actor网络与一个Critic网络,分别负责策略估计和价值估计,采用深度确定性策略梯度算法训练Critic网络和Actor网络的模型参数,根据设定迭代次数进行迭代训练,以智能体获取的回报值最大为目标,直至训练出每个智能体的奖励值收敛,得到最终的模型参数。
4.如权利要求3所述的一种实现场景自适应的人群运动路径规划方法,其特征在于:顶层规划的智能体的奖励函数:当智能体与障碍物碰撞,奖励值为负数;当智能体到达总体目标位置奖励值为正数;智能体下一时刻比当前时刻更接近总体目标位置,奖励为正奖励,否则为负奖励;
或者,智能体的状态包括智能体的位置、速度、目标位置、障碍物距离;智能体的动作空间具体为智能体位置坐标变换的二维的连续空间;
或者,运动属性包括智能体每一时刻的纵坐标位置、横坐标位置、纵坐标速度和横坐标速度。
5.如权利要求1所述的一种实现场景自适应的人群运动路径规划方法,其特征在于:底层规划模型的训练过程,包括如下步骤:
接收顶层规划模型传输的智能体下一时刻的目标位置,并将其作为底层规划智能体的观测值;
设定底层规划智能体的观测和动作空间;
设定底层规划模型的智能体的奖励函数,激励智能体避免与其他智能体发生碰撞并到达指定目标位置;
每个智能体对应一个Actor网络与一个Critic网络,分别负责策略估计和价值估计,设置单独的经验池存放所有智能体每一步的经验,采用深度确定性策略梯度算法训练Critic网络和Actor网络的模型参数,使用设定迭代次数进行重复训练,以智能体获取的回报值最大为目标,直至奖励值趋于收敛,确定底层规划模型参数。
6.如权利要求5所述的一种实现场景自适应的人群运动路径规划方法,其特征在于:底层规划模型的奖励函数为:当两个智能体发生碰撞,奖励为负奖励;当智能体成功到达目标位置,奖励为正奖励;当没有发生碰撞同时也没有到达目标位置,智能体的速度越接近由RVO方法计算的无碰撞速度,奖励值越大,否则,奖励值越小。
7.如权利要求3或5所述的一种实现场景自适应的人群运动路径规划方法,其特征在于:采用深度确定性策略梯度算法训练Critic网络和Actor网络的模型参数,在Actor网络中使用当前智能体状态和动作作为输入,在Critic网络中使用所有智能体状态和所有智能体采取的动作作为输入。
8.一种实现场景自适应的人群运动路径规划系统,其特征在于,包括:
获取模块,被配置为用于获取场景信息以及人群参数信息;
规划模块,被配置为用于将获取的信息输入至训练好的多智能体深度强化学习框架模型,得到人群运动规划路径;
所述多智能体深度强化学习框架模型中以每个人作为一个智能体,包括顶层规划模型和底层规划模型;顶层规划模型以智能体距离最近的出口作为疏散目标,利用深度确定性策略梯度算法规划,得到全局规划路径;底层规划模型以顶层规划模型的输出为状态值,以避免碰撞为目标进行局部规划,修正全局规划路径得到人群运动规划路径。
9.如权利要求8所述的一种实现场景自适应的人群运动路径规划系统,其特征在于,规划模块包括:
初始化设置模块,被配置为用于根据获取的场景信息以及人群参数信息,进行疏散场景仿真模型内的参数的初始化设置;
全局路径规划模块,被配置为用于利用深度确定性策略梯度算法对单个智能体进行路径规划,使得智能体的移动路径指向目标出口,得到全局规划路径;
局部避免碰撞规划模块,被配置为用于以使智能体避免与其他智能体发生碰撞为目标,采用相对速度障碍算法融合多智能体深度确定性策略梯度算法进行规划,对全局规划路径进行修正,得到最终的人群运动规划路径。
10.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项方法所述的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210038482.4A CN114548497B (zh) | 2022-01-13 | 2022-01-13 | 一种实现场景自适应的人群运动路径规划方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210038482.4A CN114548497B (zh) | 2022-01-13 | 2022-01-13 | 一种实现场景自适应的人群运动路径规划方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114548497A true CN114548497A (zh) | 2022-05-27 |
CN114548497B CN114548497B (zh) | 2024-07-12 |
Family
ID=81670690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210038482.4A Active CN114548497B (zh) | 2022-01-13 | 2022-01-13 | 一种实现场景自适应的人群运动路径规划方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114548497B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661456A (zh) * | 2023-06-21 | 2023-08-29 | 上海海事大学 | 一种基于a3c的agv防冲突路径规划方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464021A (zh) * | 2017-08-07 | 2017-12-12 | 山东师范大学 | 一种基于强化学习的人群疏散仿真方法、装置 |
CN107480821A (zh) * | 2017-08-14 | 2017-12-15 | 山东师范大学 | 基于实例学习的多Agent协作人群疏散仿真方法及装置 |
CN108491598A (zh) * | 2018-03-09 | 2018-09-04 | 山东师范大学 | 一种基于路径规划的人群疏散仿真方法及系统 |
CN108600379A (zh) * | 2018-04-28 | 2018-09-28 | 中国科学院软件研究所 | 一种基于深度确定性策略梯度的异构多智能体协同决策方法 |
CN109670270A (zh) * | 2019-01-11 | 2019-04-23 | 山东师范大学 | 基于多智能体深度强化学习的人群疏散仿真方法及系统 |
CN112231968A (zh) * | 2020-09-09 | 2021-01-15 | 山东师范大学 | 基于深度强化学习算法的人群疏散仿真方法及系统 |
WO2021238303A1 (zh) * | 2020-05-29 | 2021-12-02 | 华为技术有限公司 | 运动规划的方法与装置 |
-
2022
- 2022-01-13 CN CN202210038482.4A patent/CN114548497B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464021A (zh) * | 2017-08-07 | 2017-12-12 | 山东师范大学 | 一种基于强化学习的人群疏散仿真方法、装置 |
CN107480821A (zh) * | 2017-08-14 | 2017-12-15 | 山东师范大学 | 基于实例学习的多Agent协作人群疏散仿真方法及装置 |
CN108491598A (zh) * | 2018-03-09 | 2018-09-04 | 山东师范大学 | 一种基于路径规划的人群疏散仿真方法及系统 |
CN108600379A (zh) * | 2018-04-28 | 2018-09-28 | 中国科学院软件研究所 | 一种基于深度确定性策略梯度的异构多智能体协同决策方法 |
CN109670270A (zh) * | 2019-01-11 | 2019-04-23 | 山东师范大学 | 基于多智能体深度强化学习的人群疏散仿真方法及系统 |
WO2021238303A1 (zh) * | 2020-05-29 | 2021-12-02 | 华为技术有限公司 | 运动规划的方法与装置 |
CN112231968A (zh) * | 2020-09-09 | 2021-01-15 | 山东师范大学 | 基于深度强化学习算法的人群疏散仿真方法及系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661456A (zh) * | 2023-06-21 | 2023-08-29 | 上海海事大学 | 一种基于a3c的agv防冲突路径规划方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114548497B (zh) | 2024-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113495578B (zh) | 一种基于数字孪生式训练的集群航迹规划强化学习方法 | |
CN112965081B (zh) | 基于融合行人信息的特征地图的模仿学习社交导航方法 | |
CN109543285B (zh) | 一种融合数据驱动与强化学习的人群疏散仿真方法和系统 | |
CN110737968B (zh) | 基于深层次卷积长短记忆网络的人群轨迹预测方法及系统 | |
CN110472554A (zh) | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 | |
CN113536996B (zh) | 一种基于大量真实人群运动视频的人群运动仿真方法 | |
Boularias et al. | Grounding spatial relations for outdoor robot navigation | |
CN111487864A (zh) | 一种基于深度强化学习的机器人路径导航方法及系统 | |
CN111645065A (zh) | 一种基于深度强化学习的机械臂运动规划方法 | |
CN111461437B (zh) | 基于生成对抗网络的数据驱动人群运动仿真方法 | |
CN113362368B (zh) | 一种基于多层次时空图神经网络的人群轨迹预测方法 | |
CN112651374B (zh) | 一种基于社会信息的未来轨迹预测方法及自动驾驶系统 | |
CN111795700A (zh) | 一种无人车强化学习训练环境构建方法及其训练系统 | |
CN114237235B (zh) | 一种基于深度强化学习的移动机器人避障方法 | |
CN110956684B (zh) | 基于残差网络的人群运动疏散仿真方法及系统 | |
CN113741533A (zh) | 一种基于模仿学习与强化学习的无人机智能决策系统 | |
CN114548497B (zh) | 一种实现场景自适应的人群运动路径规划方法及系统 | |
Zhang et al. | Crowd evacuation simulation using hierarchical deep reinforcement learning | |
Hirose et al. | ExAug: Robot-conditioned navigation policies via geometric experience augmentation | |
CN116562332B (zh) | 一种人机共融环境下的机器人社交性运动规划方法 | |
CN111176324B (zh) | 一种多无人机分布式协同编队规避动态障碍的方法 | |
CN117115911A (zh) | 一种基于注意力机制的超图学习动作识别系统 | |
CN114326826B (zh) | 多无人机队形变换方法及系统 | |
KR20210054355A (ko) | 시각 및 언어 기반 공간 탐색 시스템 | |
Yoon et al. | Learning when to use adaptive adversarial image perturbations against autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |