CN107563490A - 一种基于关注力模型的人群多样性仿真方法 - Google Patents
一种基于关注力模型的人群多样性仿真方法 Download PDFInfo
- Publication number
- CN107563490A CN107563490A CN201710764951.XA CN201710764951A CN107563490A CN 107563490 A CN107563490 A CN 107563490A CN 201710764951 A CN201710764951 A CN 201710764951A CN 107563490 A CN107563490 A CN 107563490A
- Authority
- CN
- China
- Prior art keywords
- concern
- virtual
- virtual role
- crowd
- role
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于关注力模型的人群多样性仿真方法。使用本发明能够利用人群对环境关注力不同造成的其行为的影响,实现人群个体行为的多样化,真实感强且更为贴合实际。本发明首先在虚拟场景中根据各虚拟环境对虚拟角色关注力的影响,构建虚拟角色的关注力模型;然后在虚拟角色的行为过程中,根据虚拟角色的关注力模型,实时计算虚拟角色对各虚拟环境的关注力,并以最大关注力值对应的虚拟环境作为虚拟角色的当前的关注目标;根据虚拟角色当前的关注目标更新其动作姿态以及行为路径,使虚拟角色在运动过程中不断靠近当前的关注目标。本发明充分考虑了虚拟角色在运动过程中对周边环境产生的兴趣对其行为的影响,真实感强且更贴合实际。
Description
技术领域
本发明涉及计算机应用技术领域,具体涉及一种基于关注力模型的人群多样性仿真方法。
背景技术
人群仿真模拟,是对现实中人的群体行为进行分析研究进而在计算机中利用虚拟角色进行模拟的研究。近年来,人群的动态仿真快速发展,人群仿真应用在各个领域,例如路径规划、特殊环境人群疏散、大型场所人员流动、电影电视剧及大型游戏中大规模人群仿真等。Mankyu Sung等人开发了一种可以模拟复杂人群行为的具有可扩展性的人群仿真系统,Helbing等人开发了一种基于“社会力量”模型的人群仿真系统,该系统中个体的行为受“社会力量”约束,个体之间保持着一定距离。
目前社会对仿真的需求日益增强,对真实感强、人群多样性强、虚拟角色个性强和计算效率高的人群仿真方法的需求逐步显现。现有人物个体仿真效果非常可观,人群群体行为仿真也有较好的成果,但人群仿真中未充分体现人物个体的特殊性,并且缺少环境对人群个体行为的影响。因此,人群仿真过程中个体的特殊性,即人群多样性成为人群仿真方法的研究方向之一。在计算机领域,人群多样性可被分为外观多样性和动画多样性。外观多样性即虚拟角色的外观特征多样,例如为不同的虚拟角色赋予不同的体型、服装、配饰等;动画多样性即虚拟角色的行为动画多样性,例如为不同的虚拟角色赋予不同的行为动作,或同类动作但不同虚拟角色动作细节不同。提高人群多样性可凸显虚拟角色的独特性,有效提升人群仿真系统的真实感,使仿真结果趋于自然。
针对提高人群多样性,Simon Dobbyn等人通过更改皮肤和衣服的漫反射颜色实现更改人群外观的目标。Stephen等提出了基于PEN三因素的大规模、多样性的群体动画。杜沅泽将情绪融入到路径规划中,提出了融入情绪模型的人群实时路径规划算法。薛铸鑫、范湘涛提出了基于心理学五因素的人群仿真算法,由虚拟角色的人格驱动路径规划和动作姿态。就人群动画多样性而言,当前算法虽然可提高人群多样性,多为针对虚拟角色本身的模拟,而缺少人群行为过程中环境对于人群个体行为影响的研究,而现实生活中,周围环境对人群的关注力及行为具有较大影响力。
发明内容
有鉴于此,本发明提供了一种基于关注力模型的人群多样性仿真方法,利用人群对环境关注力不同造成的其行为的影响,实现人群个体行为的多样化,真实感强且更为贴合实际。
本发明提供了一种基于关注力模型的人群多样性仿真方法,首先在虚拟场景中根据各虚拟环境对虚拟角色关注力的影响,构建虚拟角色的关注力模型;然后在虚拟角色的行为过程中,根据虚拟角色的关注力模型,实时计算虚拟角色对各虚拟环境的关注力,并以最大关注力值对应的虚拟环境作为虚拟角色的当前的关注目标;根据虚拟角色当前的关注目标更新其动作姿态以及行为路径,使虚拟角色在运动过程中不断靠近当前的关注目标。
进一步的,所述专注力模型与虚拟环境属性、虚拟角色与虚拟环境的距离、虚拟角色的自身属性及其关注倾向有关。
进一步的,所述虚拟角色的关注倾向由正态分布随机生成获得,或者是根据事先做的问卷调查的结果获得。
进一步的,所述虚拟角色的自身属性包括性别和年龄。
进一步的,所述环境属性包括环境中建筑物的高矮、建筑风格和功能。
进一步的,所述关注力值计算模型为:
其中,F为关注力值,m为虚拟角色属性,包括虚拟角色的自身属性和关注倾向;w为虚拟环境属性,dw为虚拟角色与虚拟环境的位置关系,上标T表示转置。
进一步的,采用A*算法对虚拟角色进行路径规划,且虚拟角色运动过程中与其他虚拟角色保持一定距离。
有益效果:
本发明利用关注力模型,将环境对人群个体行为的影响加入到虚拟人群的行为多样性仿真中,充分考虑了虚拟角色在运动过程中对周边环境产生的兴趣对其行为的影响,真实感强且更贴合实际。
附图说明
图1为本发明流程图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于关注力模型的人群多样性仿真方法,首先根据环境对人的关注力的影响构建关注力计算模型,依据模型获取自然场景下影响人关注力的环境属性数据,然后在人群仿真场景中,对虚拟角色属性、关注倾向,环境的属性进行赋值;然后从虚拟角色运动开始,在周围环境以及其他虚拟角色的影响下,对虚拟角色对当前视野范围内的环境的关注力进行计算;最后将关注力最大的环境位置设置为关注点,更新虚拟角色动作姿态以及行为路径。
具体流程如图1所示,包括如下步骤:
步骤一、构建关注力计算模型:
“关注力”即虚拟角色在运动过程中对周边环境产生兴趣的大小,关注力与个人自身的属性、环境属性有关,同时也会受到周围其他人的影响。本发明设计虚拟角色关注力计算模型变量为:虚拟角色属性m,包含虚拟角色自身属性m0和关注倾向m1;环境属性w;虚拟角色与环境的距离dw;虚拟角色与虚拟角色的距离dm;由此构建关注力计算模型。
其中,环境属性w为环境所具备的可吸引虚拟角色注意的特性,例如建筑物的高矮、风格、功能等等。
虚拟角色自身属性m0包括角色的性别、年龄等等。
关注倾向m1即虚拟角色对环境属性的感兴趣程度,与虚拟角色自身属性相关;可事先采用调查问卷的方式获取不同人群对环境的关注倾向,即:向人群发放调查问卷,记录被调查者的基本信息,调查其漫步过程中对周围建筑物的关注倾向,对调查结果进行统计分析,获得不同的人群对不同建筑物的关注倾向。此外,关注倾向也可以利用正态分布随机生成或者是其他方式获得。
人在行走过程中,其关注力还会受到自身与环境的距离、与其他人距离的影响,因此,构建关注力计算模型如下:
F=f(m,w,dw)
其中,dw为虚拟角色与虚拟环境的位置关系;虚拟角色属性m,包含虚拟角色自身属性m0和关注倾向m1,虚拟角色自身属性m0包括性别a1、年龄a2;环境属性w包括周围建筑物的属性:高矮β1、建筑风格β2、功能β3;关注倾向m1包括虚拟角色对环境属性感兴趣的程度:对周围建筑物的高矮感兴趣的程度α1、对周围建筑物的风格感兴趣的程度α2、对周围建筑物的功能感兴趣的程度α3。计算公式如下:
m=(m0,m1) (2)
m1={α1,α2,α3} (3)
w={β1,β2,β3} (4)
步骤二、构建虚拟场景,在虚拟场景中输入环境属性w、各个虚拟角色自身属性m0及其关注倾向m1。
步骤三,采用专注力计算模型实时计算各个虚拟角色对环境中各建筑物的关注力。
其中,虚拟角色对各个建筑物的关注力值的计算公式如下:
其中,dw为虚拟角色与虚拟环境的位置关系,
dw=|dc-dt| (6)
dc为虚拟角色当前位置,dt为环境中建筑物位置。
步骤四,选取关注力最大者作为当前虚拟角色的关注目标,虚拟角色根据其关注目标更新其的动作姿态与行为路径,使其在运动过程中不断靠近关注目标。其中,在虚拟角色运动过程中采用A*算法对虚拟角色进行路径规划,并且其在运动过程中与其他虚拟角色保持一定距离。
具体的,虚拟角色在运动过程中,通过对其头部进行IK算法控制,实现虚拟角色对关注目标的“注视”行为,并使用A*算法使虚拟角色之间保持一定距离。
步骤五,在虚拟角色运动过程中循环执行步骤三~步骤四,实现虚拟角色状态的实时更新,完成人群的仿真过程。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于关注力模型的人群多样性仿真方法,其特征在于,首先在虚拟场景中根据各虚拟环境对虚拟角色关注力的影响,构建虚拟角色的关注力模型;然后在虚拟角色的行为过程中,根据虚拟角色的关注力模型,实时计算虚拟角色对各虚拟环境的关注力,并以最大关注力值对应的虚拟环境作为虚拟角色的当前的关注目标;根据虚拟角色当前的关注目标更新其动作姿态以及行为路径,使虚拟角色在运动过程中不断靠近当前的关注目标。
2.如权利要求1所述的基于关注力模型的人群多样性仿真方法,其特征在于,所述专注力模型与虚拟环境属性、虚拟角色与虚拟环境的距离、虚拟角色的自身属性及其关注倾向有关。
3.如权利要求2所述的基于关注力模型的人群多样性仿真方法,其特征在于,所述虚拟角色的关注倾向由正态分布随机生成获得,或者是根据事先做的问卷调查的结果获得。
4.如权利要求2所述的基于关注力模型的人群多样性仿真方法,其特征在于,所述虚拟角色的自身属性包括性别和年龄。
5.如权利要求2所述的基于关注力模型的人群多样性仿真方法,其特征在于,所述环境属性包括环境中建筑物的高矮、建筑风格和功能。
6.如权利要求2所述的基于关注力模型的人群多样性仿真方法,其特征在于,所述关注力值计算模型为:
<mrow>
<mi>F</mi>
<mo>=</mo>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>m</mi>
<mo>&CenterDot;</mo>
<msup>
<mi>w</mi>
<mi>T</mi>
</msup>
</mrow>
<msub>
<mi>d</mi>
<mi>w</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中,F为关注力值,m为虚拟角色属性,包括虚拟角色的自身属性和关注倾向;w为虚拟环境属性,dw为虚拟角色与虚拟环境的位置关系,上标T表示转置。
7.如权利要求1所述的基于关注力模型的人群多样性仿真方法,其特征在于,采用A*算法对虚拟角色进行路径规划,且虚拟角色运动过程中与其他虚拟角色保持一定距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710764951.XA CN107563490A (zh) | 2017-08-30 | 2017-08-30 | 一种基于关注力模型的人群多样性仿真方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710764951.XA CN107563490A (zh) | 2017-08-30 | 2017-08-30 | 一种基于关注力模型的人群多样性仿真方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107563490A true CN107563490A (zh) | 2018-01-09 |
Family
ID=60978294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710764951.XA Pending CN107563490A (zh) | 2017-08-30 | 2017-08-30 | 一种基于关注力模型的人群多样性仿真方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107563490A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740192A (zh) * | 2018-12-12 | 2019-05-10 | 山东师范大学 | 基于阿诺德情绪模型的人群疏散仿真方法及系统 |
CN111651880A (zh) * | 2020-05-29 | 2020-09-11 | 北京理工大学 | 一种控制人群密度的环境布局仿真设计方法 |
CN111651877A (zh) * | 2020-05-28 | 2020-09-11 | 北京理工大学 | 一种基于目标点偏好的人群行为仿真方法 |
CN116663417A (zh) * | 2023-06-01 | 2023-08-29 | 中国标准化研究院 | 一种虚拟地理环境角色建模方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639927A (zh) * | 2008-07-31 | 2010-02-03 | 国际商业机器公司 | 调整虚拟世界中的虚拟显示设备的方法和系统 |
CN102446192A (zh) * | 2010-09-30 | 2012-05-09 | 国际商业机器公司 | 在虚拟世界中评估关注度的方法和装置 |
US20160026926A1 (en) * | 2012-11-12 | 2016-01-28 | Singapore University Of Technology And Design | Clothing matching system and method |
-
2017
- 2017-08-30 CN CN201710764951.XA patent/CN107563490A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639927A (zh) * | 2008-07-31 | 2010-02-03 | 国际商业机器公司 | 调整虚拟世界中的虚拟显示设备的方法和系统 |
CN102446192A (zh) * | 2010-09-30 | 2012-05-09 | 国际商业机器公司 | 在虚拟世界中评估关注度的方法和装置 |
US20160026926A1 (en) * | 2012-11-12 | 2016-01-28 | Singapore University Of Technology And Design | Clothing matching system and method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740192A (zh) * | 2018-12-12 | 2019-05-10 | 山东师范大学 | 基于阿诺德情绪模型的人群疏散仿真方法及系统 |
CN109740192B (zh) * | 2018-12-12 | 2023-04-07 | 山东师范大学 | 基于阿诺德情绪模型的人群疏散仿真方法及系统 |
CN111651877A (zh) * | 2020-05-28 | 2020-09-11 | 北京理工大学 | 一种基于目标点偏好的人群行为仿真方法 |
CN111651880A (zh) * | 2020-05-29 | 2020-09-11 | 北京理工大学 | 一种控制人群密度的环境布局仿真设计方法 |
CN116663417A (zh) * | 2023-06-01 | 2023-08-29 | 中国标准化研究院 | 一种虚拟地理环境角色建模方法 |
CN116663417B (zh) * | 2023-06-01 | 2023-11-17 | 中国标准化研究院 | 一种虚拟地理环境角色建模方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107563490A (zh) | 一种基于关注力模型的人群多样性仿真方法 | |
Zhang et al. | Cityscape protection using VR and eye tracking technology | |
Griffon et al. | Virtual reality for cultural landscape visualization | |
CN100570641C (zh) | 基于物理的植物叶子模拟方法 | |
Daniel | Data visualization for decision support in environmental management | |
Fukuda et al. | Integration of CFD, VR, AR and BIM for Design Feedback in a Design Process | |
CN101482959A (zh) | 虚拟实境房地产开发和经营的方法及设备 | |
CN107704667A (zh) | 模拟集群性的人群运动仿真方法、装置和系统 | |
Lin et al. | Urban space simulation based on wave function collapse and convolutional neural network | |
Garcia-Garcia et al. | Integration of serious games and IoT data management platforms to motivate behavioural change for energy efficient lifestyles | |
Cogo et al. | Survey of integrability of procedural modeling techniques for generating a complete city | |
CN106910233B (zh) | 一种虚拟昆虫动画角色的运动仿真方法 | |
Ying et al. | Building virtual scene construction and environmental impact analysis based on image processing | |
Walls | Teaching urban landscape microclimate design using digital site visits: A mosaic method of embedding data, dynamics, and experience | |
Kang et al. | Animation Character Generation and Optimization Algorithm Based on Computer Aided Design and Virtual Reality | |
Frank et al. | Procedural city generation using Perlin noise | |
Tahrani et al. | Integration of immersive walking to analyse urban daylighting ambiences | |
Morse et al. | What’s in a name: gamifying the intangible history of Larochette, Luxembourg | |
Wu et al. | [Retracted] Design and Research of Interactive Animation of Immersive Space Scene Based on Computer Vision Technology | |
Campbell et al. | Wind Power | |
Wang | Application of Virtual Reality Technology in Indoor Ecological Environment Design | |
Del Signore et al. | Data and Visualization | |
Du et al. | Real Estate Display System Based on Virtual Reality Technology | |
Ding et al. | Dynamic simulation of branch deformation under snow pressure. | |
Tahrani et al. | Analyzing urban daylighting ambiences by walking in a virtual city |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180109 |
|
WD01 | Invention patent application deemed withdrawn after publication |