CN108197364B - 一种基于运动片元拼接的多角色人体运动合成方法 - Google Patents
一种基于运动片元拼接的多角色人体运动合成方法 Download PDFInfo
- Publication number
- CN108197364B CN108197364B CN201711415819.4A CN201711415819A CN108197364B CN 108197364 B CN108197364 B CN 108197364B CN 201711415819 A CN201711415819 A CN 201711415819A CN 108197364 B CN108197364 B CN 108197364B
- Authority
- CN
- China
- Prior art keywords
- motion
- fragment
- splicing
- fragments
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 173
- 239000012634 fragment Substances 0.000 title claims abstract description 110
- 238000001308 synthesis method Methods 0.000 title claims abstract description 13
- 230000003993 interaction Effects 0.000 claims abstract description 24
- 238000005070 sampling Methods 0.000 claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 11
- 230000002452 interceptive effect Effects 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 73
- 230000008569 process Effects 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 27
- 238000000513 principal component analysis Methods 0.000 claims description 12
- 230000036544 posture Effects 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 9
- 239000000126 substance Substances 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010845 search algorithm Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 abstract description 7
- 238000004088 simulation Methods 0.000 abstract description 5
- 239000006185 dispersion Substances 0.000 abstract description 3
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000009012 visual motion Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于运动片元抽样拼接的运动合成方法,通过收集变形运动补丁解决空间对齐和时间同步问题,每个运动片元描述一段多角色交互运动的片段,在空间和时间上对其拼接;运动片元拼接产生一个多虚拟角色随机交互的无缝仿真系统,拼接算法采用随机抽样和确定性搜索解决解决拼接中离散和连续方面的问题,拼接算法可以自动生成多角色交互的高度复杂动画。本发明实现的交互复杂程度、人类行为的多样性和人际互动的时空密度都远高于目前动画技术水平。
Description
技术领域
本发明属于计算机视觉运动合成领域,尤其是涉及到基于运动片元的多角色人体运动合成片元抽样方法和拼接方法。
背景技术
随着计算机视觉技术和动画合成技术的高速发展,虚拟现实、计算机动画、影视制作和游戏娱乐逐渐成为国内外研究人员追捧的研究热点。人体运动合成一直是计算机图形学中一个热门研究课题,涉及计算机图形学、计算机视觉、虚拟现实、人工智能和机器学习等多个学科知识。多角色交互场景模拟在电影、游戏、仿真中应用场景众多,角色交互包括角色与环境之间的交互。角色与角色间的交互,交互形成的视觉效果和趣味性对观众具有非常大的吸引力。在多角色交互模型中,各个角色在交互过程中需要做到空间上动作协调,时间上运动同步,这往往需要很大的计算量,消耗大量的运算时间和硬件资源,因此,如何高效并真实的构建虚拟人群运动场景成为了计算机图形学领域的一大难点。
与传统的运动合成方法相比,基于运动片元拼接的运动合成方法可以充分利用运动数据库,将运动数据预处理后构建生成运动片元,运动片元是自定义的运动模块,其中包括角色信息、交互信息和环境信息。然后通过对运动片元的抽样和拼接来实现合成动画中角色位置和交互的最佳分布,同时需要避免角色碰撞和重叠,常规的穷举法显然是无法胜任的,本方法采用随机抽样和确定性组合搜索算法来解决离散和连续方面的问题.构建生成的运动片元是可变形的,提高了拼接的灵活性并可以降低片元拼接的难度,可变形片元保证拼接过程的平滑过渡,同时保证其连惯性。
发明内容
为了克服现有人体运动合成方法实现的交互复杂程度不高,人类行为的多样性有限和人际互动的时空密度不足的问题,本发明提出一种基于运动片元抽样拼接的运动合成方法,通过收集变形运动补丁解决空间对齐和时间同步问题,每个运动片元描述一段多角色交互运动的片段,在空间和时间上对其拼接;运动片元拼接产生一个多虚拟角色随机交互的无缝仿真系统,拼接算法采用随机抽样和确定性搜索解决解决拼接中离散和连续方面的问题,拼接算法可以自动生成多角色交互的高度复杂动画;实现的交互复杂程度、人类行为的多样性和人际互动的时空密度都远高于目前动画技术水平。
本发明解决其技术问题所采用的技术方案是:
一种基于运动片元拼接的多角色人体运动合成方法,所述方法包括以下步骤:
1)运动数据采集,过程如下:
将长视频分解为连续的帧,提取每一帧中行人所处的位置(x,y),每个行人具有唯一的编号标识;最终每个行人的路径表示为离散像素点集T={pi=(xi,yi)|i=1,...,n},其中n表示视频的帧数,(xi,yi)表示该行人在第i帧时所处的位置;
将运动数据库中运动实例表示为高维向量{Mn(t)|n=1,...,N,t=1,...,Tn},其中,N是运动实例数,Tn是第n个运动实例的帧,向量Mn(t)={tk0,qk1,qk2,...,qkJ|k=1,...,K}表示第t帧时各个角色的运动姿势,其中,tk0表示根节点的平移位置,qk1,qk2,...,qkJ表示所有关节点的旋转角度,J表示关节数,K表示该运动实例中包含的角色个数;
2)可变形运动模型构建,过程如下:
将初始运动序列Mn分解为两个数据集:规整后的运动实例Sn和对应的时间规整函数Wn,即对应人体运动的几何变化和时间变化两部分;
Sn是高维向量,表示第n个运动实例的所有帧姿势,需要将PCA(主成分分析)作用于Sn,构造一个可变形几何模型
对W(t)进行如下转换
Z(t)=ln(W(t)-W(t-1)) (3)
然后对Zn进行主成分分析,构造一个可变形时间模型
将上述两个式子结合起来,得到原始空间中的可变形时间模型:
3)构建角色运动片元,过程如下:
根据3个标准从原始运动数据提取运动片元片段,
接触:运动角色之间的物理接触;
接近:即使角色没有身体接触,两个角色间身体很接近的情况也不能忽视,一方会对另一方的接近做出反应,反应程度由连续运动帧中角色移动距离决定,连续帧窗口[i-n,i+n]的第i帧的估计移动距离
同步性:即使两个角色没有彼此接近,如果两个角色能同时进行相同的动作,说明它们能意识到对方的行为,也代表两者之间发生了有效交互事件,假设运动数据包括两个角色A和B的交互运动,角色A有它的运动数据和索引x,角色B有它的运动数据和索引y,如果A和B在参考时间内动作相符,则两个角色之间的同步因子为
其中,r(A,B)表示两个角色正方向的夹角,从A的脸部到B的上半身的向量,根据同步因子估计出A是否能意识到B此刻的行动;
4)运动片元随机抽样和确定性搜索,过程如下:
4.1)片元随机抽样算法,经过随机抽样步骤,得到一个较为粗糙的拼接图;
4.2)片元确定性搜索算法;
5)运动片元拼接方法,过程如下:自动无缝拼接片元构建虚拟场景,或是在用户定义的时空区域内填充片元。
进一步,所述4.1)中,片元随机抽样算法的过程如下:
4.1.1),初始化拼接图P,初始温度T,最大迭代次数Tmax,最大抽样次数kmax,初始化k为0;
4.1.2),如果k<kmax进入续4.1.3),否则结束;
4.1.3),随机抽取一个运动片元Pnew,拼接到现有拼接图P上,P'=P∪Pnew;
4.1.5),如果ΔE≥0并且P'有效,则进入4.1.6);否则转到4.1.7);
4.1.6),接受P',即P=P',k初始化为0,进入4.1.7);
4.1.7),逐渐以ΔT减少T,且T→0,k=k+1,转到4.1.2)。
再进一步,所述4.2)中,片元确定性搜索算法的过程如下:
4.2.1),现有拼接图P,P中单个出/入口的个数N(P),P中单个出/入口集D,最大迭代次数kmax,初始化迭代次数k为0;
4.2.2),判断D是否为空,如果D为空,则结束本程序;否则初始化i=1,…,N(P),d为D中第i个出/入口,进入4.2.3);
4.2.3),如果i>N(P),则结束本程序;否则从D中获得新的d,进入4.2.4);
4.2.4),如果k≥kmax,转到4.2.3);否则选择运动片元Pnew,满足条件Pnew能与d相匹配,拼接到现有拼接图P上,P'=P∪Pnew;
4.2.5),如果N(P')≤N(P),进入4.2.6);否则N(P')>N(P),新增的出/入口数目比匹配消除的出/入口数目更多,则舍弃Pnew,k=k+1,转到4.2.4);
4.2.6),如果k<kmax,则进入4.2.7);否则转到4.2.10);
4.2.7),判断P'是否有效,如果P'有效则进入4.2.8);否则转到4.2.9);
4.2.8),接受P',即P=P',将Pnew中新增的单个出/入口添加到D中,转到4.2.3);
4.2.9),新的P'无效,对Pnew进行一定的变形,获得新的Pnew,从而得到P'=P∪Pnew,k=k+1,转到4.2.6);
4.2.10),没有匹配的Pnew与d相连,则舍弃d所在运动片元,将新增加的单个出/入口添加到D中;i=i+1,转到4.2.3)。
更进一步,所述步骤5)中,所述可将使用片元拼接创建整个场景的方法为自底向上的方法,从一个空场景到创建整个场景的过程,首先放置第一块片元,接着以第一块片元为中心,逐层向外,拼接上第二块、第三块片元等,如此迭代拼接,直至整个场景构建完毕,新增加的片元在拼接时受到已有片元的约束,在时空上要满足约束条件。
或者是:所述可将使用片元拼接创建整个场景的方法分为自顶向下的方法,给定一个几何形状,在障碍物以外的区域填充运动片元的过程。
利用几何方法对无障碍物区域进行划分,分解为三角形或四边形,先用大块的运动片元对场景进行填充,再用小块的运动片元填补空隙。
本发明的有益效果主要表现在:针对人体运动合成方法实现的交互复杂程度不高,人类行为的多样性有限和人际互动的时空密度不足的问题,提出了一种基于运动片元拼接的多角色人体运动合成方法。构建可变形运动模型,通过收集变形运动补丁构建运动片元解决运动合成过程中拼接灵活度问题,每个运动片元描述一段多角色交互运动的片段,在空间和时间上对其拼接。运动片元拼接产生一个多虚拟角色随机交互的无缝仿真系统。拼接算法采用随机抽样和确定性搜索解决解决拼接中离散和连续方面的问题。此方法合成的人体运动动画交互复杂程度高,人类行为的多样性丰富和人际互动的时空密度大。
附图说明
图1是该基于运动片元合成方法过程总架构图。
图2是本发明构建片元过程中有效事件识别示意图,其中,(a)角色接触,(b)角色接近,(c)角色同步。
图3是本发明所提方法构建生成的有效运动片元示意图。
图4是本发明所提方法运动拼接示意图,其中,(a)自底向上的拼接方法,
(b)自顶向下的拼接方法。
图5是本发明所提方法生成的多角色人体运动合成动画,其中,(a)合成动画总览图,(b)各个角色间打斗,鸡跳等交互动作示意图。
图6是基于运动片元拼接的多角色人体运动合成方法的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图6,一种基于运动片元拼接的多角色人体运动合成方法,方法总体技术架构如图1所示,包括以下步骤:
1)运动数据采集,过程如下:
将长视频分解为连续的帧,提取每一帧中行人所处的位置(x,y),每个行人具有唯一的编号标识;最终每个行人的路径表示为离散像素点集T={pi=(xi,yi)|i=1,...,n},其中n表示视频的帧数,(xi,yi)表示该行人在第i帧时所处的位置;
将运动数据库中运动实例表示为高维向量{Mn(t)|n=1,...,N,t=1,...,Tn},其中,N是运动实例数,Tn是第n个运动实例的帧,。向量Mn(t)={tk0,qk1,qk2,...,qkJ|k=1,...,K}表示第t帧时各个角色的运动姿势,其中,tk0表示根节点的平移位置,qk1,qk2,...,qkJ表示所有关节点的旋转角度,J表示关节数,K表示该运动实例中包含的角色个数;
2)可变形运动模型构建,过程如下:
将初始运动序列Mn分解为两个数据集:规整后的运动实例Sn和对应的时间规整函数Wn,即对应人体运动的几何变化和时间变化两部分;
Sn是高维向量,表示第n个运动实例的所有帧姿势,需要将PCA(主成分分析)作用于Sn,构造一个可变形几何模型
对W(t)进行如下转换
Z(t)=ln(W(t)-W(t-1)) (3)
然后对Zn进行主成分分析,构造一个可变形时间模型
将上述两个式子结合起来,得到原始空间中的可变形时间模型:
3)运动片元构建,过程如下:
根据3个标准从原始运动数据提取运动片元片段,
接触:运动角色之间的物理接触;
接近:即使角色没有身体接触,两个角色间身体很接近的情况也不能忽视,一方会对另一方的接近做出反应,反应程度由连续运动帧中角色移动距离决定,连续帧窗口[i-n,i+n]的第i帧的估计移动距离
同步性:即使两个角色没有彼此接近,如果两个角色能同时进行相同的动作,说明它们能意识到对方的行为,也代表两者之间发生了有效交互事件,假设运动数据包括两个角色A和B的交互运动,角色A有它的运动数据和索引x,角色B有它的运动数据和索引y,如果A和B在参考时间内动作相符,则两个角色之间的同步因子为
其中,r(A,B)表示两个角色正方向的夹角,从A的脸部到B的上半身的向量,根据同步因子估计出A是否能意识到B此刻的行动;
检测到角色间发生有效事件后,还需要从一系列运动片元中确定它们的边界(入口/出口),处理片元边界问题需要注意以下几点:首先,我们希望片元边界处是没有事件的,任何发生在边界的交互事件都会增加拼接难度,其次,我们希望片元拼接尽可能紧凑,小片元在密集场景下显得更加灵活,最后,我们希望在片元边界处角色身体姿势不要太多样,边界处多样的身体姿势将导致拼接过程非常困难。本方法生成的运动片元如图3所示
4)运动片元抽样过程,过程如下:
4.1)片元随机抽样算法,过程如下:
给定一个运动片元集,我们首先对其进行随机抽样合成粗糙的拼接图。主要分为以下几步:
第一步,初始化拼接图P,初始温度T,最大迭代次数Tmax,最大抽样次数kmax,初始化k为0;
第二步,如果k<kmax则继续下一步,否则结束本算法;
第三步,随机抽取一个运动片元Pnew,拼接到现有拼接图P上,P'=P∪Pnew;
第五步,如果ΔE≥0并且P'有效,则继续下一步;否则转到第七步;
第六步,接受P',即P=P',k初始化为0,继续下一步;
第七步,逐渐以ΔT减少T,且T→0,k=k+1,转到第二步。
经过随机抽样步骤,可以得到一个较为粗糙的拼接图,尽管随机抽样中的能量函数能减少单个出/入口个数,但是往往收敛较慢。接下来使用确定性搜索方法对其进行细化。
4.2)片元确定性搜索算法,过程如下:
第一步,现有拼接图P,P中单个出/入口的个数N(P),P中单个出/入口集D,最大迭代次数kmax,初始化迭代次数k为0;
第二步,判断D是否为空,如果D为空,则结束本程序;否则初始化i=1,…,N(P),d为D中第i个出/入口,继续下一步;
第三步,如果i>N(P),则结束本程序;否则从D中获得新的d,继续下一步;
第四步,如果k≥kmax,转到第三步;否则选择运动片元Pnew,满足条件Pnew能与d相匹配,拼接到现有拼接图P上,P'=P∪Pnew;
第五步,如果N(P')≤N(P),继续下一步;否则N(P')>N(P),新增的出/入口数目比匹配消除的出/入口数目更多,则舍弃Pnew,k=k+1,转到第四步;
第六步,如果k<kmax,则继续下一步;否则转到第十步;
第七步,判断P'是否有效,如果P'有效则继续下一步;否则转到第九步;
第八步,接受P',即P=P',将Pnew中新增的单个出/入口添加到D中,转到第三步;
第九步,新的P'无效,对Pnew进行一定的变形,获得新的Pnew,从而得到P'=P∪Pnew,k=k+1,转到第六步;
第十步,没有匹配的Pnew与d相连,则舍弃d所在运动片元,将新增加的单个出/入口添加到D中;i=i+1,转到第三步。
5)运动片元拼接方法,过程如下:
运动片元拼接的目标是能够自动无缝拼接片元构建虚拟场景,或是在用户定义的时空区域内填充片元。由此,可将使用片元拼接创建整个场景的方法分为自底向上和自顶向下两类,如图4(a)所示,自底向上的拼接方法,如图4(b)所示,自顶向下的拼接方法。
自底向上的方法是从一个空场景到创建整个场景的过程。首先放置第一块片元,接着以第一块片元为中心,逐层向外,拼接上第二块、第三块片元等,如此迭代拼接,直至整个场景构建完毕。新增加的片元在拼接时受到已有片元的约束,在时空上要满足约束条件。
自顶向下的方法是给定一个几何形状,在障碍物以外的区域填充运动片元的过程。这种方法适合虚拟城市建模。可以利用几何方法对无障碍物区域进行划分,一般可分解为三角形、四边形等多边形结构。一般先用大块的运动片元对场景进行填充,再用小块的运动片元填补空隙。
对于构建静态场景,在拼接运动片元的第一阶段随机抽样中,我们对大块片元分配更高的权值,尽可能选择角色多、空间范围大、持续时间长的片元,加快拼接过程,降低计算开销。在第二阶段确定性搜索中,在第一阶段拼接图的基础上,继续填充小块的、单人的片元,使整个拼接图连续、紧密。拼接结果如图5(a)所示,角色打斗、鸡跳等交互画面如图5(b)所示,动态环境的构建与静态环境构建相似,此外还需要解决碰撞避免、相互渗透的问题。由于我们的可变形运动模型中能嵌入环境接触信息,因此能很好得解决这些问题。
Claims (6)
1.一种基于运动片元拼接的多角色人体运动合成方法,其特征在于:所述方法包括以下步骤:
1)运动数据采集,过程如下:
将长视频分解为连续的帧,提取每一帧中行人所处的位置(x,y),每个行人具有唯一的编号标识;最终每个行人的路径表示为离散像素点集T={pi=(xi,yi)|i=1,...,n},其中n表示视频的帧数,(xi,yi)表示该行人在第i帧时所处的位置;
将运动数据库中运动实例表示为高维向量{Mn(t)|n=1,...,N,t=1,...,Tn},其中,N是运动实例数,Tn是第n个运动实例的帧,向量Mn(t)={tk0,qk1,qk2,...,qkJ|k=1,...,K}表示第t帧时各个角色的运动姿势,其中,tk0表示根节点的平移位置,qk1,qk2,...,qkJ表示所有关节点的旋转角度,J表示关节数,K表示该运动实例中包含的角色个数;
2)可变形运动模型构建,过程如下:
将初始运动序列Mn分解为两个数据集:规整后的运动实例Sn和对应的时间规整函数Wn,即对应人体运动的几何变化和时间变化两部分;
Sn是高维向量,表示第n个运动实例的所有帧姿势,需要将主成分分析PCA作用于Sn,构造一个可变形几何模型
对W(t)进行如下转换
Z(t)=ln(W(t)-W(t-1)) (3)
然后对Zn进行主成分分析,构造一个可变形时间模型
将上述两个式子结合起来,得到原始空间中的可变形时间模型:
3)构建角色运动片元,过程如下:
根据3个标准从原始运动数据提取运动片元片段,
接触:运动角色之间的物理接触;
接近:即使角色没有身体接触,两个角色间身体很接近的情况也不能忽视,一方会对另一方的接近做出反应,反应程度由连续运动帧中角色移动距离决定,连续帧窗口[i-n,i+n]的第i帧的估计移动距离
同步性:即使两个角色没有彼此接近,如果两个角色能同时进行相同的动作,说明它们能意识到对方的行为,也代表两者之间发生了有效交互事件,假设运动数据包括两个角色A和B的交互运动,角色A有它的运动数据和索引x,角色B有它的运动数据和索引y,如果A和B在参考时间内动作相符,则两个角色之间的同步因子为
Pxy=Vx A·Vy B·e-r(A,B)·e-r(B,A) (10)
其中,r(A,B)表示两个角色正方向的夹角,从A的脸部到B的上半身的向量,根据同步因子估计出A是否能意识到B此刻的行动;
4)运动片元随机抽样和确定性搜索,过程如下:
4.1)片元随机抽样算法,经过随机抽样步骤,得到一个较为粗糙的拼接图;
4.2)片元确定性搜索算法;
5)运动片元拼接方法,过程如下:自动无缝拼接片元构建虚拟场景,或是在用户定义的时空区域内填充片元。
2.如权利要求1所述的基于运动片元拼接的多角色人体运动合成方法,其特征在于:所述4.1)中,片元随机抽样算法的过程如下:
4.1.1),初始化拼接图P,初始温度T,最大迭代次数Tmax,最大抽样次数kmax,初始化k为0;
4.1.2),如果k<kmax进入续4.1.3),否则结束;
4.1.3),随机抽取一个运动片元Pnew,拼接到现有拼接图P上,P'=P∪Pnew;
4.1.5),如果ΔE≥0并且P'有效,则进入4.1.6);否则转到4.1.7);
4.1.6),接受P',即P=P',k初始化为0,进入4.1.7);
4.1.7),逐渐以ΔT减少T,且T→0,k=k+1,转到4.1.2)。
3.如权利要求1或2所述的基于运动片元拼接的多角色人体运动合成方法,其特征在于:所述4.2)中,片元确定性搜索算法的过程如下:
4.2.1),现有拼接图P,P中单个出/入口的个数N(P),P中单个出/入口集D,最大迭代次数kmax,初始化迭代次数k为0;
4.2.2),判断D是否为空,如果D为空,则结束本程序;否则初始化i=1,…,N(P),d为D中第i个出/入口,进入4.2.3);
4.2.3),如果i>N(P),则结束本程序;否则从D中获得新的d,进入4.2.4);
4.2.4),如果k≥kmax,转到4.2.3);否则选择运动片元Pnew,满足条件Pnew能与d相匹配,拼接到现有拼接图P上,P'=P∪Pnew;
4.2.5),如果N(P')≤N(P),进入4.2.6);否则N(P')>N(P),新增的出/入口数目比匹配消除的出/入口数目更多,则舍弃Pnew,k=k+1,转到4.2.4);
4.2.6),如果k<kmax,则进入4.2.7);否则转到4.2.10);
4.2.7),判断P'是否有效,如果P'有效则进入4.2.8);否则转到4.2.9);
4.2.8),接受P',即P=P',将Pnew中新增的单个出/入口添加到D中,转到4.2.3);
4.2.9),新的P'无效,对Pnew进行一定的变形,获得新的Pnew,从而得到P'=P∪Pnew,k=k+1,转到4.2.6);
4.2.10),没有匹配的Pnew与d相连,则舍弃d所在运动片元,将新增加的单个出/入口添加到D中;i=i+1,转到4.2.3)。
4.如权利要求1或2所述的基于运动片元拼接的多角色人体运动合成方法,其特征在于:所述步骤5)中,所述可将使用片元拼接创建整个场景的方法为自底向上的方法,从一个空场景到创建整个场景的过程,首先放置第一块片元,接着以第一块片元为中心,逐层向外,拼接上第二块、第三块片元等,如此迭代拼接,直至整个场景构建完毕,新增加的片元在拼接时受到已有片元的约束,在时空上要满足约束条件。
5.如权利要求1或2所述的基于运动片元拼接的多角色人体运动合成方法,其特征在于:所述可将使用片元拼接创建整个场景的方法分为自顶向下的方法,给定一个几何形状,在障碍物以外的区域填充运动片元的过程。
6.如权利要求5所述的基于运动片元拼接的多角色人体运动合成方法,其特征在于:利用几何方法对无障碍物区域进行划分,分解为三角形或四边形,先用大块的运动片元对场景进行填充,再用小块的运动片元填补空隙。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711415819.4A CN108197364B (zh) | 2017-12-25 | 2017-12-25 | 一种基于运动片元拼接的多角色人体运动合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711415819.4A CN108197364B (zh) | 2017-12-25 | 2017-12-25 | 一种基于运动片元拼接的多角色人体运动合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108197364A CN108197364A (zh) | 2018-06-22 |
CN108197364B true CN108197364B (zh) | 2021-10-29 |
Family
ID=62583702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711415819.4A Active CN108197364B (zh) | 2017-12-25 | 2017-12-25 | 一种基于运动片元拼接的多角色人体运动合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108197364B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110501008B (zh) * | 2019-07-29 | 2021-03-26 | 西安电子科技大学 | 人体运动模型的自主进化方法 |
CN111273780B (zh) * | 2020-02-21 | 2021-09-28 | 腾讯科技(深圳)有限公司 | 基于虚拟环境的动画播放方法、装置、设备及存储介质 |
CN118236182A (zh) * | 2021-07-01 | 2024-06-25 | 先临三维科技股份有限公司 | 三维扫描系统、扫描数据处理方法、装置、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102122391A (zh) * | 2010-12-13 | 2011-07-13 | 中国人民解放军国防科学技术大学 | 一种运动捕获数据自动分割方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6552729B1 (en) * | 1999-01-08 | 2003-04-22 | California Institute Of Technology | Automatic generation of animation of synthetic characters |
JP5326910B2 (ja) * | 2009-01-20 | 2013-10-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9811937B2 (en) * | 2015-09-29 | 2017-11-07 | Disney Enterprises, Inc. | Coordinated gesture and locomotion for virtual pedestrians |
CN106780302A (zh) * | 2016-11-30 | 2017-05-31 | 上海仙剑文化传媒股份有限公司 | 一种数字图像自动拼版方法及装置 |
-
2017
- 2017-12-25 CN CN201711415819.4A patent/CN108197364B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102122391A (zh) * | 2010-12-13 | 2011-07-13 | 中国人民解放军国防科学技术大学 | 一种运动捕获数据自动分割方法 |
Non-Patent Citations (4)
Title |
---|
Shuai Ye 等.Vision-based Realtime Animation Synthesis.《2011 Third International Conference on Intelligent Human-Machine Systems and Cybernetics》.2011,第223-226页. * |
Xin Wang.KINECT DRIVEN 3D CHARACTER ANIMATION USING SEMANTICAL SKELETON.《Proceedings of IEEE CCIS》.2012,第159-163页. * |
王鑫 等.基于人群运动片元的多角色运动场景构建.《系统仿真学报》.2017,第29卷(第11期),第2670-2677页. * |
王鑫 等.基于可变形运动模型和运动片元的多角色运动合成.《计算机辅助设计与图形学学报》.2014,第26卷(第10期),第1810-1817页. * |
Also Published As
Publication number | Publication date |
---|---|
CN108197364A (zh) | 2018-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Azarbayejani et al. | Real-time 3-D tracking of the human body | |
Yang et al. | Fast depth prediction and obstacle avoidance on a monocular drone using probabilistic convolutional neural network | |
Anguelov et al. | Recovering articulated object models from 3d range data | |
CN111160164B (zh) | 基于人体骨架和图像融合的动作识别方法 | |
CN108197364B (zh) | 一种基于运动片元拼接的多角色人体运动合成方法 | |
CN109410307A (zh) | 一种场景点云语义分割方法 | |
Butler et al. | Real-time adaptive foreground/background segmentation | |
CN112347861B (zh) | 一种基于运动特征约束的人体姿态估计方法 | |
Li et al. | Three-dimensional traffic scenes simulation from road image sequences | |
CN111476089A (zh) | 一种图像中多模态信息融合的行人检测方法、系统及终端 | |
CN111598995B (zh) | 一种基于原型分析的自监督多目三维人体姿态估计方法 | |
CN111950404A (zh) | 一种基于深度学习视频监督的单图像三维重建方法 | |
Desai et al. | Next frame prediction using ConvLSTM | |
CN110070605A (zh) | 一种实时人体无标记动作捕获方法 | |
CN114708649A (zh) | 基于集成学习方法融合时间注意力图卷积的行为识别方法 | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
Ivekovič et al. | Human body pose estimation with particle swarm optimisation | |
Li et al. | Spatiotemporal road scene reconstruction using superpixel-based Markov random field | |
Polat et al. | Robust tracking of human body parts for collaborative human computer interaction | |
CN112153242A (zh) | 基于相机行为学习与样例驱动的虚拟摄影方法 | |
Liao et al. | HARU: Haptic augmented reality-assisted user-centric industrial network planning | |
CN114998520A (zh) | 一种基于隐式表示的三维交互手重建方法和系统 | |
Ramnath et al. | Increasing the density of active appearance models | |
Wan et al. | Markerless human body motion capture using Markov random field and dynamic graph cuts | |
CN113902995A (zh) | 一种多模态人体行为识别方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |