CN112348285B - 一种基于深度强化学习的动态环境下人群疏散模拟方法 - Google Patents
一种基于深度强化学习的动态环境下人群疏散模拟方法 Download PDFInfo
- Publication number
- CN112348285B CN112348285B CN202011351409.XA CN202011351409A CN112348285B CN 112348285 B CN112348285 B CN 112348285B CN 202011351409 A CN202011351409 A CN 202011351409A CN 112348285 B CN112348285 B CN 112348285B
- Authority
- CN
- China
- Prior art keywords
- action
- agent
- state
- optimal
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004088 simulation Methods 0.000 title claims abstract description 45
- 230000002787 reinforcement Effects 0.000 title claims abstract description 31
- 230000009471 action Effects 0.000 claims abstract description 110
- 230000006870 function Effects 0.000 claims abstract description 46
- 230000006399 behavior Effects 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 22
- 230000000694 effects Effects 0.000 claims abstract description 8
- 239000003795 chemical substances by application Substances 0.000 claims description 87
- 230000003993 interaction Effects 0.000 claims description 13
- 230000007613 environmental effect Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000007704 transition Effects 0.000 claims description 8
- 239000002775 capsule Substances 0.000 claims description 6
- 230000008447 perception Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 abstract description 9
- 238000013528 artificial neural network Methods 0.000 abstract description 6
- 230000000875 corresponding effect Effects 0.000 abstract description 4
- 230000001186 cumulative effect Effects 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000270298 Boidae Species 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004387 environmental modeling Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- Biomedical Technology (AREA)
- Operations Research (AREA)
- Educational Administration (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Primary Health Care (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于深度强化学习的动态环境下人群疏散模拟方法,其中包括:人群作为多智能体系统,对于单个行人智能体而言,采用深度神经网络来逼近状态到动作的映射函数,作为该智能体的行为控制器;行人智能体通过对动态环境状态的观察,利用该映射函数做出行为决策,并从动作空间中采取相应的动作。在离散时间序列的疏散模拟过程中,一个策略指的是给定状态下智能体动作在时间序列上的概率分布。环境对智能体的信息反馈体现为回报值。智能体的目标是最大化累积回报值的期望,即寻找最优动作值函数,并得到最优策略。通过本发明可以实现经典人群模拟中难以实现的高动态环境下人群疏散模拟,模拟效果更加接近真实情况,人群行为的随机性增强。
Description
技术领域
本发明属于人群模拟和计算机仿真技术领域,具体涉及一种基于深度强化学习的动态环境下人群疏散模拟方法。
背景技术
从人群疏散模拟的角度来看,目前常用的人群模拟模型可以分为宏观模型和微观模型。宏观模型主要针对群体行为进行建模,把群体看成是遵循流体力学定律的连续体,适用于大区域范围内大规模的人群模拟。微观模型则以单一的个体作为建模的基础单元,通过大量个体的运动以及个体之间的交互作用,涌现出群体行为。相比较之下,微观模型更适合于个体行为的建模和模拟,得到了更多的研究。
每种模型都有自己的适用场景和局限性。Boids模型适用于鸟群、鱼群等人工生命的模拟,用于人群模拟时需要加入更加复杂的规则或者结合社会力模型一起使用。元胞自动机模型基于离散的格网世界(Lattice Based Models),对于大场景来说,格网分辨率难确定,太粗则模拟失真,太细则影响计算效率。另外,它难以模拟异质智能体,跟三维可视化系统结合也有难度。基于力的模型中智能体运动由动力学方程控制,模拟结果具有更弱的不确定性,难以表现人群疏散问题的复杂性。另外,研究人员需要为每一种行为定义规则,并建立动力学方程,建模难度较大。对于数据驱动的模型来说,模拟结果的真实程度很好,可信度也很高,但是获取和解译真实场景的视频数据往往非常困难。
近年来,人工智能技术的迅速发展,使得AI驱动的人群模拟成为一种新方法。其中强化学习算法进行人群模拟的研究逐渐增多。在经典的人群模拟方法中,设计者需要自定义智能体的行为规则、建立动力学方程等等;然而强化学习算法赋予智能体学习的能力,展现出与前者完全不同的模式。在强化学习中,智能体通过与环境的交互不断地学习自己的行为规则,即如何根据环境的各种状态来选择自己的行动,从而达到自己的目标——最大化累积回报值。试错搜索和延迟回报是强化学习最主要的两点特征。环境的复杂性使得预先设计 agent行为很难甚至不可能,“硬编码”的行为变得不合适。因此,强化学习适合于解决环境未知(Model-free)、环境动态变化的问题。社会力模型模拟出来的人群准确度较低,随机性较弱。
目前的人群疏散模拟研究多从微观个体建模出发,只考虑简单的环境因素,例如边界、障碍物等基本环境布局,对于高动态环境考虑甚少。但实际上,从环境行为学的角度来看,人不仅是环境中的一个客体,受环境影响,同时也能积极的改造环境。环境不仅仅是人群活动于其中的一个容器,它还是与人群行为模式不可分离的一部分。应急状态下的环境更是多变的、易变的,不仅仅是灾害过程的演进会引起环境的变化,疏散过程中人群的拥挤、推移等行为也会改变环境。因此,应急情况下的环境是时刻变化着的,人群行为与环境始终处于一个相互作用的过程中。高动态环境下人群疏散模拟,探索该情况下的人群行为规律,对现实的疏散具有指导意义。
传统强化学习方法进行人群模拟也遇到了很多挑战。一方面,环境的状态和智能体的移动均是连续的过程,即连续的状态空间和动作空间,然而 Q-Learning、SARSA等算法仅支持离散的状态空间和动作空间,庞大的连续空间可能导致维数灾难问题。另一方面,该类算法通常使用Q table作为状态-动作的映射存储体,在连续状态空间和动作空间的情况中,需要巨大的存储空间及索引时间,导致计算复杂度指数级的增加。
由于现有技术中的社会力模型模拟出来的人群准确度较低,随机性较弱;传统强化学习方法进行人群模拟存在仅支持离散的状态空间和动作空间,庞大的连续空间可能导致维数灾难问题,且在连续状态空间和动作空间的情况中,需要巨大的存储空间及索引时间,导致计算复杂度指数级的增加等技术问题,因此本发明研究设计出一种基于深度强化学习的动态环境下人群疏散模拟方法。
发明内容
因此,本发明要解决的技术问题在于克服现有技术中的社会力模型模拟出来的人群随机性较弱的缺陷,从而提供一种基于深度强化学习的动态环境下人群疏散模拟方法。
本发明提供一种基于深度强化学习的动态环境下人群疏散模拟方法,其包括:
采用状态到动作的映射作为行人智能体行为控制函数,行人疏散模拟的策略π定义为给定状态下智能体动作的概率分布,即其中S是一个有限状态集合;A是一个有限动作集合;是状态转移概率矩阵, t为某一时刻,a为该t时刻的具体动作,s为该t时刻的具体状态;
累积回报在状态s处的期望值定义为状态值(state-value)函数:
动作值(action-value)函数定义为:
最优策略通过最大化q*(s,a)来确定:
在每个时间步t,智能体接收到环境的状态信息其中是可能状态的集合;基于此状态智能体选择一个动作其中是状态St下所有动作的集合;一个时间步之后,智能体接收一个数值的回报作为此动作的结果,同时观察到一个新的环境状态St+1,由此进入下一次交互的循环过程。
行人智能体的类视觉感知器建模方案如下:在水平方向上,在正中间0度、左右30度、左右60度投射射线,在左右5度分别增加两条射线;在垂直方向上,上半部分不进行感知器建模;下半部分感知器中采用了0度、15度和30 度的射线,在视觉中心部分增加了7.5度的射线。
使用包围身体的胶囊体或者立方体划分个体的身体空间,所述胶囊体或者所述立方体的高度和半径与个体生理属性相对应,使用刚体对个体基本运动进行建模。
智能体与环境的交互过程包括智能体感知、智能体运动、环境反馈三个阶段;其中智能体感知指的是智能体对环境状态的观察,采用高维向量表征智能体对环境状态的观察结果;智能体运动通过物理引擎实现,包括运动效果、碰撞检测和碰撞反馈;环境反馈采用离散的回报函数,在每个时间步做出一定的惩罚,在关键节点和目标点给奖励。
所述高维向量包含了从智能体发出的所有射线所获取信息的集合,其中,每条射线的基本信息包括三个成分:是否有物体与该射线相交,如果有的话,最近的物体类别是什么,到该物体的距离有多远。
本发明提供的一种基于深度强化学习的动态环境下人群疏散模拟方法具有如下有益效果:
1.本发明通过采用状态转移概率矩阵来定义行人智能体疏散策略对于某一个策略π,通过设计累计回报来定量化地评价特定状态s下动作a的优劣程度,能够准确且有效地计算出最优策略;本发明的模拟方法实现了经典的社会力模型中难以实现的高动态环境下人群疏散模拟,同时模拟的人群行为随机性增强,模拟效果更加接近现实情况;并且本发明的深度强化学习方法有效地利用了深度神经网络逼近状态-动作空间的映射,能够更好地表达出非线性的关系,并且支持连续的状态空间与动作空间。
2.本发明还采用状态值函数动作值函数优化计算最优状态值函数以及最优动作值函数采用累计回报的期望值来计算最优策略,表明累积回报是一个随机变量,而不是一个确定值,从而使得行人智能体动作的选择不是一个确定的过程,增加人群疏散模拟的行为随机性,使模拟效果更加接近现实情况;
附图说明
图1是本发明的基于深度强化学习的动态环境下人群疏散模拟方法的流程图。
具体实施方式
1)深度强化学习算法
如图1所示,本发明提供一种基于深度强化学习的动态环境下人群疏散模拟方法,其包括:
人群作为多智能体系统,对于单个行人智能体而言,采用深度神经网络来逼近状态到动作的映射函数,作为该智能体的行为控制器;行人智能体通过对动态环境状态的观察,利用该映射函数做出行为决策,并从动作空间中采取相应的动作。强化学习智能体的目标是寻找最优策略的过程。所谓策略是指状态到动作的映射,常用符号π表示。一个策略指的是给定状态下智能体动作的概率分布:其中S是一个有限状态集合;A是一个有限动作集合;是状态转移概率矩阵,t为某一时刻,a为该t时刻的具体动作,s为该t时刻的具体状态;对某个策略而言,当累计回报值最大时,时间序列上动作a的集合即为最优疏散策略,其中Gt为t时刻的累计回报值,γ是折扣因子,γ∈[0,1],R是回报函数,k为未来时间步数、为自然数。
本发明通过采用状态转移概率矩阵来定义行人智能体疏散策略,对于某一个策略π,通过设计累计回报来定量化地评价特定状态s下动作a的优劣程度,能够准确且有效地计算出最优策略;本发明的模拟方法实现了经典的社会力模型中难以实现的高动态环境下人群疏散模拟,同时模拟的人群行为随机性增强,模拟效果更加接近现实情况。
本发明采用深度神经网络与强化学习的结合,彼此完美地进行了补充;深度强化学习在游戏、机器人、自然语言处理等领域都取得了巨大的成功。深度 Q网络是两种技术的一种结合算法,它的神经网络的输入是原始的RGB图像像素,输出该状态下左右可能动作的Q值。结合经验重放和目标网络等方法解决了在强化学习中使用函数逼近的不稳定性问题。对于高动态环境下的人群疏散问题来说,多智能体之间、智能体与动态环境之间相互影响,状态空间连续且巨大。本发明的深度强化学习方法使用深度神经网络逼近状态-动作空间的映射,能够更好地表达出非线性的关系,并且支持连续的状态空间与动作空间。
累积回报在状态s处的期望值定义为状态值(state-value)函数:
动作值(action-value)函数定义为:
本发明采用状态值函数、动作值函数,优化计算最优状态值函数以及最优动作值函数采用累计回报的期望值来计算最优策略,表明累积回报是一个随机变量,而不是一个确定值,从而使得行人智能体动作的选择不是一个确定的过程,增加人群疏散模拟的行为随机性,使模拟效果更加接近现实情况;
最优策略通过最大化q*(s,a)来确定:
其中表示最优的动作函数值,公式(5)指判断当前状态s 下的动作值a是否属于最优的动作函数值,如果是的话,该动作a属于最优策略的一部分(式中上面的分支1);如果不是的话,则不属于最优策略。(式中下面的分支0)。
本发明采用公式(5),把最优动作值函数(即表示最优的动作函数值)来与当前动作值a进行比较,判断当前状态s下的动作值a是否属于最优的动作函数值,如果是的话,该动作a属于最优策略的一部分;如果不是的话,则不属于最优策略,能够有效地获得最优策略下的t时刻的动作值a,从而构成最优策略。
2)深度强化学习智能体训练
深度强化学习的训练过程需要大量的计算资源与时间成本。在该过程中,智能体与环境始终处于一个不断交互的离散时间序列循环之中。在每个时间步 t,智能体接收到环境的状态信息其中是可能状态的集合。基于此状态智能体选择一个动作其中是状态St下所有动作的集合。一个时间步之后,智能体接收一个数值的回报作为此动作的结果,同时观察到一个新的环境状态St+1。由此进入下一次交互的循环过程。在循环交互过程中,强化学习智能体根据它的经验不断地调整自身地策略,从而实现长期总回报最大化的目标。结合深度强化学习算法,该训练过程能在有限的时间内使得神经网络模型收敛,从而得到智能体疏散最优策略。
3)智能体建模
3.1)感知器建模
在3D虚拟环境中,目前对智能体感知器的建模主要有两种方式:射线感知器和视觉感知器,也可以把它们组合起来使用。射线感知器主要以人的视野范围为模拟对象,以智能体的眼睛为起点向视野范围内的各个方向投射射线。由于计算能力的限制,通常把视野范围离散化,在其中每间隔一定角度做一次射线投射。该感知器返回的结果通常包括与该射线相交的最近物体的类别和距离。本发明对智能体的类视觉感知器建模方案如下:在水平方向上,在正中间 0度、左右30度、左右60度投射射线,为了视觉中心能更敏感一些,本发明在左右5度分别增加两条射线;在垂直方向上,本发明所用场景中由于上方没有物体,同时避免感知器向量维度过大,减少了垂直方向上半部分的感知器建模;下半部分感知器中采用了0度、15度和30度的射线,在视觉中心部分增加了7.5度的射线。这样能够有效地对智能体进行感知器建模,模仿人类视觉机制,为智能体观察环境提供高效的方案。
3.2)动作空间
本发明使用动作分支(Branches)来组织动作空间。形式化地讲,每个智能体可能的动作被分解为N个维度的原子动作,每个维度d∈{1,...,N}中包含nd个离散的子动作,则所有可能的原子动作构成的动作空间大小为由此可见,每个动作维度作为一个分支,分支之间是“并”的关系,分支内部是“或”的关系。因此,智能体在每一个时间步可以采取某一个原子动作,也可以采取某几个不同分支下原子动作的组合。例如,我们定义两个动作分支:运动和跳,第一个分支中有{前、后、左、右、不动}五个动作,第二个分支中有{跳,不跳}两个动作,动作空间的大小为10。这样能够有效地对智能体的动作空间进行多分支建模,从而为智能体物理运动奠定基础。
3.3)基础物理运动建模
智能体作为动作的“执行者”,需要具体执行由动作空间发出的指令,通过自身的运动来实现。本发明主要考虑智能体的生理属性和运动属性,以“平均人”的指标来刻画同质人群中的个体,以正态分布刻画异质人群中的个体。使用包围身体的胶囊体(Capsule)或者立方体划分个体的身体空间,这些几何体的高度、半径与个体生理属性相对应。使用刚体(Rigidbody)对个体基本运动建模,刚体的质量参考真实统计数据,刚体受力引起运动状态的变化,参考真实的运动速度来校准运动过程中的驱动力、摩擦力等。
3.4)多智能体人群建模
本发明中只考虑不存在合作和竞争关系的多智能体人群建模。多智能体比单智能体问题更加复杂。多智能体人群不仅仅是单个智能体在数量上的扩展。单个智能体需要把周围移动着的人群看作变化的环境。现实中真实人群都是异质人群,由于意识受主体状况的影响,即使在完全相同的环境状态下,每个个体也可能采取不同的动作。为了模拟异质人群,本发明根据智能体的生理、运动等属性来划分类别。每一类中智能体的属性相似但又各不相同,分别服从相应的正态分布,并且分别训练一种“大脑”(即训练好的神经网络模型)对其进行行为控制,以此来模拟异质人群行为的多样性。
4)环境建模
环境是人群模拟的重要组成部分。根据人群模拟过程中环境是否可以动态变化,可以分为可变环境与不可变环境。不可变环境中,人群模拟只考虑智能体的移动及其相互作用。可变环境中的情况更加复杂一些。应急情况下的灾害演进过程也是属于环境的一部分。对单个智能体来说,环境变化是移动的人群、被人群改造的环境与动态演进的灾害事件共同作用的结果。
环境是多智能体的探索空间,必须为智能体提供辅助信息,以帮助智能体寻找路径、避让障碍物、获取额外信息。为了配合智能体的射线感知器,需要对环境进行语义建模。本文主要研究高动态的室内环境,室内物体分类太细会引起维度爆炸问题。因而需要对室内物体进一步抽象,我们定义语义物体的类别集合如下:{智能体,可移动障碍物,不可移动障碍物,关键节点,目标,墙,地面}。其中关键节点的作用相当于语义模型中路径的节点或拐点,在现实中并不存在实际物体,但在大场景空间、多层建筑和复杂环境中的智能体训练过程中起到关键作用。
5)智能体与环境的交互
智能体与环境的交互过程主要包括智能体感知、智能体运动、环境反馈三个阶段。智能体感知指的是智能体对环境状态的观察,本文主要使用高维向量表征智能体对环境状态的观察结果。该向量包含了从智能体发出的所有射线所获取信息的集合。其中,每条射线的基本信息包括三个成分:是否有物体与该射线相交,如果有的话,最近的物体类别是什么,到该物体的距离有多远。对每条射线信息进行叠加即可得到所有射线信息的集合。物体类别使用one-hot 编码表示。感知器向量的维数主要取决于射线数量与物体类别的数量,其组成结构如式(6)所示。
智能体运动主要是通过物理引擎实现,包括运动效果、碰撞检测、碰撞反馈等。环境反馈指的是环境以数值回报的形式对智能体的反馈。
回报函数是环境对智能体信息反馈的重要要素之一。回报函数是要告诉智能体我们希望达到什么目标,而不是怎样达到目标。因此,本发明设计回报函数来告诉智能体尽快的达到目的地,而不是为它们指定具体逃生路线与逃生方式。回报函数的设计应该可以激发异质人群疏散的行为多样性与过程复杂性。针对不同动作空间的异质人群应使其充分发挥各自擅长的逃生方式。本发明主要采用离散的回报函数,为了激励智能体快速疏散,在每个时间步做出一定的惩罚(负回报),在关键节点和目标点给奖励(正回报)。本发明中高维向量的优选形式,即射线相交的物体类别、距离等参数,能够高效地表达智能体对环境状态空间的观察。
以上所述仅为本发明的较佳实施案例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。
Claims (7)
1.一种基于深度强化学习的动态环境下的人群疏散模拟方法,其特征在于:
采用状态到动作的映射作为行人智能体行为控制函数,行人疏散模拟的策略π定义为给定状态下智能体动作的概率分布,即其中S是一个有限状态集合;A是一个有限动作集合;是状态转移概率矩阵,t为某一时刻,a为该t时刻的具体动作,s为该t时刻的具体状态;
累积回报在状态s处的期望值定义为状态值(state-value)函数:
动作值(action-value)函数定义为:
最优策略通过最大化q*(s,a)来确定:
3.根据权利要求1所述的基于深度强化学习的动态环境下的人群疏散模拟方法,其特征在于:
行人智能体的类视觉感知器建模方案如下:在水平方向上,在正中间0度、左右30度、左右60度投射射线,在左右5度分别增加两条射线;在垂直方向上,上半部分不进行感知器建模;下半部分感知器中采用了0度、15度和30度的射线,在视觉中心部分增加了7.5度的射线。
5.根据权利要求1所述的基于深度强化学习的动态环境下的人群疏散模拟方法,其特征在于:
使用包围身体的胶囊体或者立方体划分个体的身体空间,所述胶囊体或者所述立方体的高度和半径与个体生理属性相对应,使用刚体对个体基本运动进行建模。
6.根据权利要求1所述的基于深度强化学习的动态环境下的人群疏散模拟方法,其特征在于:
智能体与环境的交互过程包括智能体感知、智能体运动、环境反馈三个阶段;其中智能体感知指的是智能体对环境状态的观察,采用高维向量表征智能体对环境状态的观察结果;智能体运动通过物理引擎实现,包括运动效果、碰撞检测和碰撞反馈;环境反馈采用离散的回报函数,在每个时间步做出一定的惩罚,在关键节点和目标点给奖励。
7.根据权利要求6所述的基于深度强化学习的动态环境下的人群疏散模拟方法,其特征在于:
所述高维向量包含了从智能体发出的所有射线所获取信息的集合,其中,每条射线的基本信息包括三个成分:是否有物体与该射线相交,如果有的话,最近的物体类别是什么,到该物体的距离有多远。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011351409.XA CN112348285B (zh) | 2020-11-27 | 2020-11-27 | 一种基于深度强化学习的动态环境下人群疏散模拟方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011351409.XA CN112348285B (zh) | 2020-11-27 | 2020-11-27 | 一种基于深度强化学习的动态环境下人群疏散模拟方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112348285A CN112348285A (zh) | 2021-02-09 |
CN112348285B true CN112348285B (zh) | 2021-08-10 |
Family
ID=74364929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011351409.XA Active CN112348285B (zh) | 2020-11-27 | 2020-11-27 | 一种基于深度强化学习的动态环境下人群疏散模拟方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112348285B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113421345B (zh) * | 2021-06-21 | 2023-10-17 | 东北大学 | 基于深度强化学习技术的仿生机器鱼群集导航模拟方法 |
CN113639755A (zh) * | 2021-08-20 | 2021-11-12 | 江苏科技大学苏州理工学院 | 一种基于深度强化学习的火灾现场逃生-救援联合系统 |
CN115396157B (zh) * | 2022-07-29 | 2024-06-04 | 中国人民解放军国防科技大学 | 一种基于反馈式的物联网设备自动探测方案生成方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096729A (zh) * | 2016-06-06 | 2016-11-09 | 天津科技大学 | 一种面向大规模环境中复杂任务的深度策略学习方法 |
CN109086550A (zh) * | 2018-08-27 | 2018-12-25 | 山东师范大学 | 基于多Agent共享Q学习的疏散仿真方法及系统 |
CN109670270A (zh) * | 2019-01-11 | 2019-04-23 | 山东师范大学 | 基于多智能体深度强化学习的人群疏散仿真方法及系统 |
CN111767789A (zh) * | 2020-05-13 | 2020-10-13 | 北京交通大学 | 一种基于多载体智能引导的人群疏散方法及系统 |
CN111881625A (zh) * | 2020-07-30 | 2020-11-03 | 青岛理工大学 | 一种基于深度强化学习的人群疏散仿真方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108762281A (zh) * | 2018-06-08 | 2018-11-06 | 哈尔滨工程大学 | 一种基于记忆关联强化学习的嵌入式实时水下机器人智能决策方法 |
CN109543285B (zh) * | 2018-11-20 | 2023-05-09 | 山东师范大学 | 一种融合数据驱动与强化学习的人群疏散仿真方法和系统 |
CN111695690B (zh) * | 2020-07-30 | 2023-04-18 | 航天欧华信息技术有限公司 | 基于合作式强化学习与迁移学习的多智能体对抗决策方法 |
-
2020
- 2020-11-27 CN CN202011351409.XA patent/CN112348285B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096729A (zh) * | 2016-06-06 | 2016-11-09 | 天津科技大学 | 一种面向大规模环境中复杂任务的深度策略学习方法 |
CN109086550A (zh) * | 2018-08-27 | 2018-12-25 | 山东师范大学 | 基于多Agent共享Q学习的疏散仿真方法及系统 |
CN109670270A (zh) * | 2019-01-11 | 2019-04-23 | 山东师范大学 | 基于多智能体深度强化学习的人群疏散仿真方法及系统 |
CN111767789A (zh) * | 2020-05-13 | 2020-10-13 | 北京交通大学 | 一种基于多载体智能引导的人群疏散方法及系统 |
CN111881625A (zh) * | 2020-07-30 | 2020-11-03 | 青岛理工大学 | 一种基于深度强化学习的人群疏散仿真方法及系统 |
Non-Patent Citations (1)
Title |
---|
基于AGENT的应急疏散行为三维仿真系统研究;颜鑫;《中国优秀硕士学位论文全文数据库 工程科技Ⅰ辑》;20200215;论文第三、四章 * |
Also Published As
Publication number | Publication date |
---|---|
CN112348285A (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112348285B (zh) | 一种基于深度强化学习的动态环境下人群疏散模拟方法 | |
Ha et al. | World models | |
Chiappa et al. | Recurrent environment simulators | |
Yuksel | Agent-based evacuation modeling with multiple exits using NeuroEvolution of Augmenting Topologies | |
Xu et al. | Crowd simulation and its applications: Recent advances | |
CN112307622B (zh) | 一种用于计算机生成兵力的自主规划系统及规划方法 | |
JP2022502112A (ja) | 仮想環境における仮想対象のスケジューリング方法、装置、デバイス及びコンピュータプログラム | |
CN101216951A (zh) | 虚拟场景中的智能群体运动模拟方法 | |
Wei et al. | Learning motion rules from real data: Neural network for crowd simulation | |
Zhao et al. | A data-driven crowd simulation model based on clustering and classification | |
Yu et al. | Hybrid attention-oriented experience replay for deep reinforcement learning and its application to a multi-robot cooperative hunting problem | |
CN102693550A (zh) | 虚拟场景中的智能群体运动模拟方法 | |
Sun et al. | Intelligent decision-making and human language communication based on deep reinforcement learning in a wargame environment | |
CN117518907A (zh) | 智能体的控制方法、装置、设备及存储介质 | |
Chen et al. | Controlling the movement of crowds in computer graphics by using the mechanism of particle swarm optimization | |
CN110084845A (zh) | 变形预测方法、装置及计算机可读存储介质 | |
Huang et al. | Simulation of pedestrian evacuation with reinforcement learning based on a dynamic scanning algorithm | |
Iglesias et al. | Intelligent agents in virtual worlds | |
CN116685963A (zh) | 用于预测性计算机建模的装置和方法 | |
Aaron et al. | A hybrid dynamical systems approach to intelligent low-level navigation | |
Christiansen et al. | Space segmentation and multiple autonomous agents: a Minecraft settlement generator | |
Lyu et al. | Toward modeling emotional crowds | |
Plemenos et al. | Visual Complexity and Intelligent Computer Graphics Techniques Enhancements | |
Niederberger et al. | Towards a game agent | |
Ibrahim et al. | Features of microscopic pedestrian movement in a panic situation based on cellular automata model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |