CN111475969B - 一种大规模人群行为仿真系统 - Google Patents
一种大规模人群行为仿真系统 Download PDFInfo
- Publication number
- CN111475969B CN111475969B CN202010406499.1A CN202010406499A CN111475969B CN 111475969 B CN111475969 B CN 111475969B CN 202010406499 A CN202010406499 A CN 202010406499A CN 111475969 B CN111475969 B CN 111475969B
- Authority
- CN
- China
- Prior art keywords
- crowd
- module
- video
- behavior
- point location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种大规模人群行为仿真系统,包括视频时间分片模块、图像点位生成模块、人群位置映射模块、三维仿真模块,其中:视频时间分片模块对人群行为效果视频进行帧采样,获得一系列关键帧图像;图像点位生成模块根据每帧关键帧图像生成对应的人群点位,使得点位数目等于预设人群个体数NUM;人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系;三维仿真模块将每帧关键帧对应的时间、人群点位和每相邻两视频帧之间的点位映射关系作为数据源,使用三维引擎实现人群行为三维仿真。本发明提供了从创意视频到大规模人群行为规划以及三维效果呈现的全过程自动化解决方案,极大地方便了人群行为规划设计过程。
Description
技术领域
本发明涉及一种计算机仿真系统,特别涉及一种大规模人群行为仿真系统。
背景技术
现阶段,计算机技术和仿真系统已经广泛应用于对大规模人群的位置及行为规划,例如专业编排导演设计的大型人群表演。
现有的支持大型人群表演编排设计的系统主要有北京理工大学的“大型广场文艺表演的虚拟编排原型系统”(丁刚毅等,系统仿真学报,2008年9月),浙江大学的“团体操虚拟编排与演练原型系统”(纪庆革,学位论文),哈尔滨工业大学的“大型广场文艺表演虚拟编队系统”(郭妍,学位论文)。这些系统对表演人群的规划设计都是通过图像的形式来实现的。导演的创意以图像的形式来体现,仿真编排系统根据不同图像生成点位,并且规划人群个体在不同点位之间进行变换的路径,从而实现对人群行为的规划设计。
随着计算机技术和动画技术的发展,导演创意加入了越来越多的动态元素,例如可以表现一棵树从发芽到生长的过程。对于这样的复杂动态创意,更适合以视频的形式表现创意效果。通过视频创意转换为最终的大规模人群行为,并通过三维仿真的方式进行效果呈现,现有系统中还未见有完整的公开技术方案。
发明内容
本发明的目的在于针对现有技术的不足,提供一种大规模人群行为仿真系统,根据视频创意规划大规模人群行为,并通过三维仿真的方式进行效果呈现。
本发明提供了一种大规模人群行为仿真系统,包括视频时间分片模块、图像点位生成模块、人群位置映射模块、三维仿真模块,其中:
视频时间分片模块对人群行为效果视频进行帧采样,获得一系列关键帧图像;
图像点位生成模块根据每帧关键帧图像生成对应的人群点位,使得点位数目等于预设人群个体数NUM;
人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系;
三维仿真模块将每帧关键帧对应的时间、人群点位和每相邻两视频帧之间的点位映射关系作为数据源,使用三维引擎实现人群行为三维仿真。
根据本发明实施例的一种具体实现方式,视频时间分片模块、图像点位生成模块、人群位置映射模块都包含UI接口,用户通过UI接口对视频帧采样结果、点位生成结果、位置映射结果进行更改。
根据本发明实施例的一种具体实现方式,在数据源与三维仿真模块之间还包括数据整合模块,用于根据视频时间分片模块、图像点位生成模块、人群位置映射模块数据输出生成符合三维仿真模块数据格式要求的行为节奏表,作为三维仿真模块的数据源;该行为节奏表包含与人群行为效果视频对应的时间轴,以及与时间轴对应的人群个体位置。
根据本发明实施例的一种具体实现方式,所述行为节奏表还包括与时间轴对应的人群个体动作序列。
根据本发明实施例的一种具体实现方式,所述三维仿真模块实现人群行为三维仿真的具体方法为:
S1预制人群个体静态模型、动作动画模型和场景模型;
S2初始化生成人数为NUM的人群;
S3根据行为节奏表中人群个体的时间相关位置和动作数据编写仿真脚本;
S4使用三维引擎对仿真脚本进行三维仿真渲染。
根据本发明实施例的一种具体实现方式,所述视频时间分片模块对人群行为效果视频进行帧采样的方法为:对表现人群行为效果的视频进行动态帧采样,帧采样间隔SI=min(Ihash,c);其中C为用户设置的一个常数,表示视频内容变化平缓时的最大采样帧间隔;Ihash为动态帧间隔,表示满足两个采样帧之间的哈希距离不大于阈值Thash的最大帧间隔,Thash由用户预先设置。
根据本发明实施例的一种具体实现方式,所述人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系的具体方法为:
以每两帧相邻点位图之间顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现顶点间的最优匹配。
根据本发明实施例的一种具体实现方式,所述人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系的具体方法为:
S1对两帧相邻点位图使用相同的方法选取种子进行邻域生长,通过同样的阈值控制生长区域包含个体的数量;
S2对点位图中划分好的区块邻域,以区块中心做为顶点位置,将点位图由区块集合转化为顶点集合;
S3以两帧相邻点位图间区块顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现区块集合间的最优匹配;
S4降低区域生长阈值标准,对所有已匹配的子区块重复步骤S1至步骤S4进行下一层级区块划分,直到每个区块都只包含一个个体;
S5根据最后一个层级的匹配结果获得两帧相邻点位图之间的点位坐标映射关系。
根据本发明实施例的一种具体实现方式,选取种子进行邻域生长时,在人群连通域从边缘处向中间选取种子进行邻域生长,若邻域生长过程中出现不连通情况则扩大邻域搜索范围。
根据本发明实施例的一种具体实现方式,初始化生成人数为NUM的人群时,对所有个体的外貌特征按照正态分布模型引入随机噪声。
有益效果
本发明提出的一种大规模人群行为仿真系统,提供了从创意视频到大规模人群行为规划以及三维效果呈现的全过程自动化解决方案,并且可以灵活动态进行视频帧采样,通过分层映射实现人群位置变换,硬件利用效率高,极大地方便了人群行为规划设计过程。
附图说明
图1为本发明实施例一所述大规模人群行为仿真系统的模块结构图;
图2为本发明实施例二所述大规模人群行为仿真系统的模块结构图;
图3为本发明实施例所述分层匹配方法的流程图;
图4为本发明实施例所述分层匹配方法的示意图;
图5为不同层数映射效果比较图;
具体实施方式
下面结合附图,具体说明本发明的优选实施方式。
如图1所示,本发明实施例一提供了一种大规模人群行为仿真系统,包括视频时间分片模块、图像点位生成模块、人群位置映射模块、三维仿真模块,其中:
视频时间分片模块对人群行为效果视频进行帧采样,获得一系列关键帧图像;
图像点位生成模块根据每帧关键帧图像生成对应的人群点位,使得点位数目等于预设人群个体数NUM;
人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系;
三维仿真模块将每帧关键帧对应的时间、人群点位和每相邻两视频帧之间的点位映射关系作为数据源,使用三维引擎实现人群行为三维仿真。
本发明实施例一提供的大规模人群行为仿真系统支持将人群规划效果创意设计成视频,并且根据视频实现人群行为规划过程,并通过三维仿真的方式将人群行为规划的效果呈现给创意设计人员。仿真系统大大方便了创意设计人员的工作过程。在仿真系统的支持下,创意设计人员的工作重心可以集中在效果创意视频的制作,例如表现一棵树从发芽到生长的过程的动画视频,表现从早晨到黄昏光影移动的视频等。在此过程中,创意设计人员不需要去关心设计效果是否可以实现,应该怎样对人群行为进行规划等实施过程中的具体问题,而将规划过程交给了仿真系统。仿真系统将视频分解成图像、根据图像生成点位、根据点位生成映射关系,自动化实现对人群个体的行为规划过程,再通过三维仿真模块将规划好的人群行为进行三维仿真,以三维动态效果将人群行为实际实施效果仿真呈现给创意设计人员。
视频时间分片模块、图像点位生成模块、人群位置映射模块都包含UI接口,用户通过UI接口对视频帧采样结果、点位生成结果、位置映射结果进行更改。创意设计人员可以根据仿真系统展现的效果对创意视频以及规划过程进行修改。
如图2所示,根据本发明实施例二的具体实现方式,在数据源与三维仿真模块之间还包括数据整合模块,用于根据视频时间分片模块、图像点位生成模块、人群位置映射模块数据输出生成符合三维仿真模块数据格式要求的行为节奏表,作为三维仿真模块的数据源;该行为节奏表包含与人群行为效果视频对应的时间轴,以及与时间轴对应的人群个体位置。
在数据源与三维仿真模块之间加入数据整合模块可以增加仿真系统的兼容性。三维仿真模块通过三维引擎实现三维仿真渲染,而市场上存在多种三维引擎,每种三维引擎的数据格式要求都是不同的。有了数据整合模块,作为数据源的视频时间分片模块、图像点位生成模块、人群位置映射模块和作为效果展示的三维仿真模块都可以屏蔽掉三维引擎的具体数据格式要求,而由数据整合模块来进行相应格式转换。针对多种三维引擎,数据整合模块中存在多个子模块,针对各个三维引擎进行数据准备。此外,数据整合模块还可以整合来自不同数据源的人群个体位置数据、动作数据等多个维度的数据,由于这些数据在时间上有相关性,因此可以将多个维度的数据进行关联和整合。
在数据整合模块为三维仿真模块准备的数据中,最重要也是必不可少的是行为节奏表。数据整合模块根据设计人员设计好的人群行为效果视频,生成与视频文件相对应的时间轴;根据图像点位生成模块、人群位置映射模块的数据输出结果,生成对应于时间轴的人群个体位置。
根据本发明实施例二的一种具体实现方式,所述行为节奏表还包括与时间轴对应的人群个体动作序列。人群行为不止包括人群个体的移动行为,体现为任一时刻人群个体的位置,还包括人群个体的动作行为。针对人群个体的动作,数据整合模块将动作数据与位置数据进行整合。在进行三维仿真的时候,需要提前根据编排者的设计进行三维模型动画建模,确保仿真模型的动作幅度与速度与真实演员协调一致。
根据本发明实施例二的一种具体实现方式,所述三维仿真模块实现人群行为三维仿真的具体方法为:
S1预制人群个体静态模型、动作动画模型和场景模型;
S2初始化生成人数为NUM的人群;
S3根据行为节奏表中人群个体的时间相关位置和动作数据编写仿真脚本;
S4使用三维引擎对仿真脚本进行三维仿真渲染。
根据本发明实施例三的一种具体实现方式,所述视频时间分片模块对人群行为效果视频进行帧采样的方法为:对表现人群行为效果的视频进行动态帧采样,帧采样间隔SI=min(Ihash,c);其中C为用户设置的一个常数,表示视频内容变化平缓时的最大采样帧间隔;Ihash为动态帧间隔,表示满足两个采样帧之间的哈希距离不大于阈值Thash的最大帧间隔,Thash由用户预先设置。
从视频帧中提取出图像,最常用的方法是固定帧间隔的视频帧采样。例如如果视频的帧速率是20帧/秒,可以设置固定帧间隔为0.05秒,则每帧视频帧都会被作为采样帧。但是这种等间隔采样方法也就是等间隔时间切片方法在大规模人群行为规划中不适用。因为对于大规模人群来说,长间隔均匀时间切片方法中由于表演信息丢失严重,会导致后期手工修改率处于非常高的位置;短间隔均匀切片方法可以获得较好的生成效果,但是会导致切片内容过多,造成系统资源浪费,影响对于大规模人群计算来说非常重要的计算时间和实时性。
为了解决这个问题,实施例所实现的方法采用动态参数时间切片方法。帧采样间隔SI=min(Ihash,c);其中c为用户设置的一个常数,表示视频内容变化平缓时的最大采样帧间隔;Ihash为动态帧间隔,表示满足两个采样帧之间的哈希距离不大于阈值Thash的最大帧间隔,Thash由用户预先设置。Thash与c两个常数分别从限制高通与低通层面实现视频帧的合理采样。当视频内容变化剧烈时,Thash可以有效防止采样间隔过大导致的表演细节丢失。当视频内容变化平缓时,c可以通过限制采样的最大帧间隔防止视频中平缓的变化细节丢失。
根据本发明实施例三的一种具体实现方式,所述哈希距离为均值哈希距离。
求取均值哈希距离的步骤为:
步骤1:将图片缩小到n×n,共n2个像素;
步骤2:将n×n图片转换为灰度图;
步骤3:计算灰度图的像素平均值;
步骤4:遍历灰度图中每一个像素Pi,并将像素值与像素平均值进行比较,若Pi≥像素平均值,则记为1,否则记为0,得到n2个比特的二进制串即为图片均值哈希值;
步骤5:计算两张图片均值哈希值的海明距离,即均值哈希距离。
根据本发明实施例四的一种具体实现方式,所述人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系的具体方法为:
以每两帧相邻点位图之间顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现顶点间的最优匹配。
在两帧相邻点位图之间的点位变换实际上是要生成一个满射集合,该集合包含了点位图1到点位图2所有表演个体的对应关系。
建立两幅点位图之间的点位对应关系,容易想到的方法就是寻找点位图1的每个点位在点位图2中距离最近的点,但是这种方法会产生大量的冲突,需要用户通过UI手工交互进行处理。也可以以行或列为单位进行处理,但是对于两幅点位图中行或列点位数不同的情况就需要手工单独进行处理。
由于两幅点位图生成的点位数目是相同的,实施例以两幅点位图间顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现点位之间的最优匹配。例如,Kuhn-Munkres算法(参见论文“Kuhn H W.The Hungarian method for theassignment problem[J].Naval Research Logistics,1955,2(1-2):83-97.”和论文“James Munkres.Algorithms for the Assignment and Transportation Problems[J].Journal of the Society for Industrial&Applied Mathematics,1957,5(1):32-38.”)作为一种最小权匹配算法,非常适用于应用在人群点位映射的应用场景中。
实施例四的方法通过将点位映射关系转换成完全二分图的最小权匹配问题,实现了人群个体位置变换方案的自动生成。该方法的优点是使得完全二分图的所有边权之和最小,也就是所有个体移动距离之和最短。并且该方法可以使用计算机系统采用图形学方法自动处理,不需要手工干预和调整,适用于大规模人群行为规划方案的设计。
但是在具体应用中,实施例四的方法也存在着缺陷。由于只考虑总体移动距离,不能保证对于每个个体来说移动路线的合理性。在实际应用中会出现对于某些表演个体来说移动距离过长或者路线不合理,这不仅会为这些表演个体的训练实施带来困难,还会导致整体人群图案在变换过程中出现路线混乱,影响表演效果。
如图3所示,根据本发明实施例五的一种具体实现方式,所述人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系的具体方法为:
S1对两帧相邻点位图使用相同的方法选取种子进行邻域生长,通过同样的阈值控制生长区域包含个体的数量;
S2对点位图中划分好的区块邻域,以区块中心做为顶点位置,将点位图由区块集合转化为顶点集合;
S3以两帧相邻点位图间区块顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现区块集合间的最优匹配;
S4降低区域生长阈值标准,对所有已匹配的子区块重复步骤S1至步骤S4进行下一层级区块划分,直到每个区块都只包含一个个体;
S5根据最后一个层级的匹配结果获得两帧相邻点位图之间的点位坐标映射关系。
实施例五在实施例四的基础上进行了分层级的映射,图4为实施例五所述分层匹配方法的示意图。如图4所示,pi与pi+1是两幅需要建立映射关系的点位图,在第一层对两幅点位图按照几何位置与邻域关系进行区块划分,将每幅点位图划分为三个区块。在进行区块划分时,要对两幅点位图使用相同的方法选取种子进行邻域生长,并且通过同样的阈值控制生长区域包含个体的数量,从而使两幅点位图通过区块划分获得相同数目的区块,并且每个区块个体数量相同(对于连通点位图,理论上只有最后一次邻域生长获得的区块人数是可能小于阈值的。这种情况下,两个对应区块进行同一层级划分时获得的最后一次生长后的区块虽然人数都小于阈值,但两个区块的人数依旧是相等的,可以继续递归实现满射的最佳匹配)。将两幅点位图第一层级划分好的三个区块中心点作为顶点建立完全二分图,在完全二分图中通过最小权匹配算法实现区块集合间的最优匹配。在图4的第一层级区块最优匹配中,pi+1的区块S1与pi的区块S2’匹配,pi+1的区块S2与pi的区块S1’匹配,pi+1的区块S3与pi的区块S3’匹配。
由于划分后的区块内同样还包含复数个体,故层级区块划分可以不断进行下去,直到每个区块都只包含一个个体。在图4中,对于pi+1的区块S3与pi的区块S3’重复步骤S1~步骤S4,也就是在两个区块中再进行第二层级的区块划分并在完全二分图中通过最小权匹配算法实现区块的最优匹配。经过第二层级的匹配过程,pi+1的第二层级区块S3 S1与pi的第二层级区块S3’S2’匹配,pi+1的第二层级区块S3 S2与pi的第二层级区块S3’S3’匹配……。
这个分层级进行区块划分和匹配的过程一直重复进行下去,直到每个区块都只包含一个个体。当每个区块都只包含一个个体,也就得到了人群中每个个体在两幅点位图之间的位置对应关系。
实施例五的方法通过分层级进行区块划分和最优匹配,使得系统首先从一个宏观的角度来划分区块并建立区块之间的最优匹配,建立了相对合理的区块映射之后,再细化为区块中每个演员个体的映射。每个演员个体都会在合理的区块中进行位置选择,从而最大程度避免了某些演员个体的路线不合理问题。
分层级进行区块划分和最优匹配的第二个好处是对于有一定相似度的图像,相对合理的区块映射使得点位变换的过程中基本可以保持图像的轮廓清晰,避免图像混乱的局面。由于图像是从视频中进行采样获得的,采样的阈值保证了图像不论是在快速变化还是缓慢变化的情况,都能保持一定的相似度,也就是不会出现两幅图像突然剧变的情况。因此,采用分层级区块划分和最优匹配,可以在人群个体移动的全过程中保持图像轮廓清晰,避免图像混乱的局面。
分层级进行区块划分和最优匹配由于大大缩减了每次进行最优匹配的节点数目,还会带来较高的执行效率。
图5展示了不同层级映射策略下的表演中间过程动态效果。图中从上到下分别是不进行分层,分为两个层级与分为三个层级(每层阈值设置为上层区块包含点位数的5%,最后一层阈值为1)得到的仿真动态结果。从图中可以看到双层与三层分层结构得到的结果基本相同,没有出现人群轮廓破坏的现象。而无分层结构中由于没有加入足够的约束,导致方框部分个体为了追求Kuhn-Munkres算法的整体消耗最小原则而破坏了人群整体的轮廓,违背了创意设计初衷,影响了表演仿真效果。图5已经展示了不同层级映射策略下的表演中间过程动态效果,不同层级划分对于后期手工修改率的影响较大。未进行空间划分生成的人群动态关系映射手工修改率较高。但是,过多的层级划分除了会花费更多的计算时间,还可能由于过拟合导致效果变差。双层与三层模型已经可以获得较好的工作效果,因此可以作为优化的层级数目设置。
根据本发明实施例五的一种具体实现方式,选取种子进行邻域生长时,在人群连通域从边缘处向中间选取种子进行邻域生长,若邻域生长过程中出现不连通情况则扩大邻域搜索范围。对于连通点位图,使用相同的方法选取种子进行邻域生长,并且通过同样的阈值控制生长区域包含个体的数量,可以使两幅点位图通过区块划分获得相同数目的区块,并且对应区块包含同样的个体数量。但是当点位图中存在不连通的情况时,有可能出现区块中个体数量小于阈值,从而使得两幅点位图中对应区块个体数量不一致。作为一种优化的实施方式,选取种子进行邻域生长时,在人群连通域从边缘处向中间选取种子进行邻域生长,若邻域生长过程中出现不连通情况则扩大邻域搜索范围。通过这种方式可以实现对不连通点位图进行相同数目的区块划分,并且对应区块人数一致,从而可以继续递归实现满射的最佳匹配。
根据本发明实施例的一种具体实现方式,初始化生成人数为NUM的人群时,对所有个体的外貌特征按照正态分布模型引入随机噪声。
在创建人群3D模型时,为了避免人群形象千篇一律降低虚拟场景真实感,影响仿真效果,可以对所有个体的身高、面部表情等特征按照正态分布模型引入随机噪声。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称并不构成对该单元本身的限定。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (8)
1.一种大规模人群行为仿真系统,其特征在于,包括视频时间分片模块、图像点位生成模块、人群位置映射模块、三维仿真模块,其中:
视频时间分片模块对人群行为效果视频进行帧采样,获得一系列关键帧图像;
图像点位生成模块根据每帧关键帧图像生成对应的人群点位,使得点位数目等于预设人群个体数NUM;
人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系;
三维仿真模块将每帧关键帧对应的时间、人群点位和每相邻两视频帧之间的点位映射关系作为数据源,使用三维引擎实现人群行为三维仿真;
其中,人群位置映射模块使用以下两种方法之一生成点位映射关系:
方法一:以每两帧相邻点位图之间顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现顶点间的最优匹配;
方法二:
S1对两帧相邻点位图使用相同的方法选取种子进行邻域生长,通过同样的阈值控制生长区域包含个体的数量;
S2 对点位图中划分好的区块邻域,以区块中心做为顶点位置,将点位图由区块集合转化为顶点集合;
S3 以两帧相邻点位图间区块顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现区块集合间的最优匹配;
S4降低区域生长阈值标准,对所有已匹配的子区块重复步骤S1至步骤S4进行下一层级区块划分,直到每个区块都只包含一个个体;
S5 根据最后一个层级的匹配结果获得两帧相邻点位图之间的点位坐标映射关系。
3.根据权利要求2所述的一种大规模人群行为仿真系统,其特征在于,选取种子进行邻域生长时,在人群连通域从边缘处向中间选取种子进行邻域生长,若邻域生长过程中出现不连通情况则扩大邻域搜索范围。
4.根据权利要求3所述的一种大规模人群行为仿真系统,其特征在于,其特征在于,初始化生成人数为NUM的人群时,对所有个体的外貌特征按照正态分布模型引入随机噪声。
5.根据权利要求4所述的一种大规模人群行为仿真系统,其特征在于,视频时间分片模块、图像点位生成模块、人群位置映射模块都包含UI接口,用户通过UI接口对视频帧采样结果、点位生成结果、位置映射结果进行更改。
6.根据权利要求5所述的一种大规模人群行为仿真系统,其特征在于,在数据源与三维仿真模块之间还包括数据整合模块,用于根据视频时间分片模块、图像点位生成模块、人群位置映射模块数据输出生成符合三维仿真模块数据格式要求的行为节奏表,作为三维仿真模块的数据源;该行为节奏表包含与人群行为效果视频对应的时间轴,以及与时间轴对应的人群个体位置。
7.根据权利要求6所述的一种大规模人群行为仿真系统,其特征在于,所述行为节奏表还包括与时间轴对应的人群个体动作序列。
8.根据权利要求7所述的一种大规模人群行为仿真系统,所述三维仿真模块实现人群行为三维仿真的具体方法为:
S1 预制人群个体静态模型、动作动画模型和场景模型;
S2 初始化生成人数为NUM的人群;
S3 根据行为节奏表中人群个体的时间相关位置和动作数据编写仿真脚本;
S4 使用三维引擎对仿真脚本进行三维仿真渲染。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010406499.1A CN111475969B (zh) | 2020-05-14 | 2020-05-14 | 一种大规模人群行为仿真系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010406499.1A CN111475969B (zh) | 2020-05-14 | 2020-05-14 | 一种大规模人群行为仿真系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111475969A CN111475969A (zh) | 2020-07-31 |
CN111475969B true CN111475969B (zh) | 2021-02-09 |
Family
ID=71759937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010406499.1A Active CN111475969B (zh) | 2020-05-14 | 2020-05-14 | 一种大规模人群行为仿真系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111475969B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539375B (zh) * | 2020-05-09 | 2020-12-04 | 北京理工大学 | 一种大规模人群行为辅助规划方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080127018A1 (en) * | 2006-10-31 | 2008-05-29 | Alpert Charles J | Clock Aware Placement |
CN110781723A (zh) * | 2019-09-05 | 2020-02-11 | 杭州视鑫科技有限公司 | 一种群体异常行为识别方法 |
CN111062246A (zh) * | 2019-11-06 | 2020-04-24 | 盐城吉大智能终端产业研究院有限公司 | 基于视频图像的密集人群异常行为的检测方法 |
-
2020
- 2020-05-14 CN CN202010406499.1A patent/CN111475969B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080127018A1 (en) * | 2006-10-31 | 2008-05-29 | Alpert Charles J | Clock Aware Placement |
CN110781723A (zh) * | 2019-09-05 | 2020-02-11 | 杭州视鑫科技有限公司 | 一种群体异常行为识别方法 |
CN111062246A (zh) * | 2019-11-06 | 2020-04-24 | 盐城吉大智能终端产业研究院有限公司 | 基于视频图像的密集人群异常行为的检测方法 |
Non-Patent Citations (2)
Title |
---|
动态舞台数字仿真及控制系统的设计与实现;刘泳慷等;《计算机仿真》;20130630;全文 * |
面向大型活动的观众群体行为编排与仿真;崔丽君等;《计算机仿真》;20160731;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111475969A (zh) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8698809B2 (en) | Creation and rendering of hierarchical digital multimedia data | |
KR101148613B1 (ko) | 지형 생성 시스템, 지형 생성 방법 및 프로그램 저장 장치 | |
CN104463948A (zh) | 三维虚拟现实系统与地理信息系统的无缝可视化方法 | |
CN105488844B (zh) | 一种三维场景中海量模型实时阴影的显示方法 | |
Chang et al. | Legible simplification of textured urban models | |
CN101916397A (zh) | 一种描述湿地植被生态水文响应的三维可视化装置及方法 | |
CN111475969B (zh) | 一种大规模人群行为仿真系统 | |
Greuter et al. | Undiscovered worlds–towards a framework for real-time procedural world generation | |
CN110400366B (zh) | 一种基于OpenGL的实时洪水灾害可视化仿真方法 | |
Benes et al. | Urban brush: Intuitive and controllable urban layout editing | |
CN111640174B (zh) | 一种基于固定视角的家具生长动画云渲染方法及系统 | |
CN111402422B (zh) | 三维表面重建方法、装置和电子设备 | |
Wells | Generating enhanced natural environments and terrain for interactive combat simulations (genetics) | |
Akaydın et al. | Adaptive grids: an image-based approach to generate navigation meshes | |
Kehl et al. | Interactive simulation and visualisation of realistic flooding scenarios | |
CN111539375B (zh) | 一种大规模人群行为辅助规划方法 | |
Hájek et al. | 3D cartography as a platform for remindering important historical events: the example of the Terezín memorial | |
DU et al. | Terrain edge stitching based on least squares generative adversarial networks | |
Fricker et al. | Intuitive design through information maps | |
Tully | Contributions to Big Geospatial Data Rendering and Visualisations | |
LOUKAKIS | Design Variations of Mount Olympus’ Relief in a Virtual Reality Environment | |
Skorkovská et al. | Complex multi-material approach for dynamic simulations | |
Puglisi et al. | Artificial mosaic generation | |
Sun et al. | Image-based template generation of road networks for virtual maps | |
Meitner et al. | Application of texture mapping to generate and communicate the visual impacts of partial retention systems in boreal forests |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |