CN108182719A - 人工智能自适应障碍地形的行进动画生成方法和装置 - Google Patents
人工智能自适应障碍地形的行进动画生成方法和装置 Download PDFInfo
- Publication number
- CN108182719A CN108182719A CN201711460357.8A CN201711460357A CN108182719A CN 108182719 A CN108182719 A CN 108182719A CN 201711460357 A CN201711460357 A CN 201711460357A CN 108182719 A CN108182719 A CN 108182719A
- Authority
- CN
- China
- Prior art keywords
- target
- athletic posture
- landform
- role
- traveling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Abstract
本发明提供一种人工智能自适应障碍地形的行进动画生成方法和装置,行进动画生成方法通过采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据;获取模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量;构建目标神经网络并训练得到训练数据集;在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和空间地形中的障碍信息输入目标神经网络,以及将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态;能够准确、高效且自动化地在不同地形和障碍环境下生成符合环境变化的运动姿态的行进动画,有效提高了行进动画的生成效率和准确性,减少了行进动画制作的时间成本和金钱成本。
Description
技术领域
本发明涉及行进动画制作技术领域,具体涉及一种人工智能自适应障碍地形的行进动画生成方法和装置。
背景技术
行进动画是计算机动画技术的一个重要组成部分,动画电影制作中使用角色动画来在虚拟环境中的运动实现角色和环境的结合,极大的丰富了动画的表现形式。
目前,长期以来在动画中实现角色运动与环境的协调,依靠动画制作师对环境进行分析,例如角色在遇到沟壑时采取跳跃的姿态,遇到障碍物时选着跳过障碍物或者攀爬过障碍物,这样大大的增加了动画K帧的难度和工作量,与此同时这种动画制作方式依赖动画制作人员的专业水平,极大的降低了动画制作的效率。
发明内容
针对现有技术中的问题,本发明提供一种人工智能自适应障碍地形的行进动画生成方法和装置,能够准确、高效且自动化地在行进动画制作中根据不同地形和障碍环境下生成不同的运动姿态,有效提高了行进动画的生成效率和准确性,并减少了行进动画制作的时间成本和金钱成本。
为解决上述技术问题,本发明提供以下技术方案:
第一方面,本发明提供一种人工智能自适应障碍地形的行进动画生成方法,所述行进动画生成方法包括:
S1:在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据;
S2:根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期;
S3:获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量;
S4:根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集;
S5:在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态;
S6:根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
进一步地,所述行进动画生成方法还包括:为所述运动姿态数据添加用于表示运动姿态的语义标签;
相对应的,所述S5包括:
在制作目标行进动画时,将三维场景中的目标角色所处的空间地形、所述空间地形中的障碍信息和所述运动姿态数据的语义标签输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,使得网络对所述目标角色的下一时刻的运动姿态进行拟合,得到角色在下一时刻的运动姿态。
进一步地,所述行进动画生成方法还包括:
目标角色在三维场景中的行进的过程中,若检测到特殊环境的出现,则触发所述目标神经网络进行相应的控制,使得所述目标角色的运动速度过渡为通过所述特殊环境的速度,以及在所述目标角色完全通过所述特殊环境后,控制所述目标角色的运动速度恢复到通过所述特殊环境之前的速度。
进一步地,所述S1包括:
应用运动捕捉系统采集现实场景下模拟目标角色的人员在不同环境地形中采用不同动作姿态及运动速度通过不同障碍物时的运动姿态数据。
进一步地,所述S2包括:
对所述运动姿态数据进行预处理,得到运动姿态向量,其中,所述运动姿态向量用于表示所述模拟目标角色的人员的各个关节点的运动方向、运动速度、运动加速度和关节点的自由度;
以及,以所述模拟目标角色的人员的两脚分别离开地面直至均落回地面作为一个完整的相位周期,为所述运动姿态数据添加相位标签,得到相位周期;
其中,一个完整的所述相位周期为:左脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上,以及,右脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上的总时间。
进一步地,所述S3包括:
在地形引擎或虚拟环境中提取地形标签及环境地形高度数据;
并将所述环境地形高度数据与角色的运动姿态数据进行拟合,以匹配所述运动捕捉系统采集到的角色的运动姿态数据对应的地形。
进一步地,所述目标神经网络由三层全连接层及两层非线性层构成,且通过训练所述目标神经网络中的随机参数,使得网络参数最优化,进而得到训练模型,相对应的,所述S4包括:
分别确定所述目标神经网络和所述全连接层的定义;
在每两个全连接层之间均加入激活函数层;
以及,构建所述目标神经网络的目标函数,并优化所述目标神经网络,得到所述目标函数的最优解。
第二方面,本发明提供一种人工智能自适应障碍地形的行进动画生成系统,所述行进动画生成系统包括:
运动姿态数据采集模块,用于在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据;
运动姿态向量和相位周期获取模块,用于根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期;
地形拟合向量获取模块,用于获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量;
目标神经网络构建模块,用于根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集;
目标角色的运动姿态输出模块,用于在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态;
行进动画完成模块,用于根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
第三方面,本发明提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述人工智能自适应障碍地形的行进动画生成方法的步骤。
第四方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述人工智能自适应障碍地形的行进动画生成方法的步骤。
由上述技术方案可知,本发明提供的一种人工智能自适应障碍地形的行进动画生成方法和装置,行进动画生成方法通过在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据;根据运动姿态数据获取模拟目标角色的人员的运动姿态向量和相位周期;获取环境地形对应的环境地形高度数据,并对环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量;根据模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建目标神经网络并训练得到对应的训练数据集;在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和空间地形中的障碍信息输入目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到目标角色当前时刻的运动姿态;能够准确、高效且自动化地在不同地形和障碍环境下生成符合环境变化的运动姿态的行进动画,有效提高了行进动画的生成效率和准确性,并减少了行进动画制作的时间成本和金钱成本,能够轻松的在不同地形和障碍环境下生成不同的运动姿态,实现动画制作过程中的自动化过程,能够解决传统的动画中通过制定角色的关键帧所带来的效率不高及工作量大的问题,进而解决了传统动画制作中生产效率低、工作繁重、需要制作人员具有较高专业水平的要求的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一中的一种人工智能自适应障碍地形的行进动画生成方法的流程示意图;
图2是本发明的包括步骤700的人工智能自适应障碍地形的行进动画生成方法的流程示意图;
图3是本发明的一种人工智能自适应障碍地形的行进动画生成系统的结构示意图;
图4是本发明的应用实例中的目标神经网络的结构示意图;
图5、图6和图7是本发明的应用实例中的角色实际运行在不同的坡路上身体姿态与路面相适应的过程的示意图;
图8、图9和图10是本发明的应用实例中的角色遇到障碍,采用攀爬的姿态通过障碍的示意图;
图11、图12和图13是本发明的应用实例中的角色遇到深沟后采用跳跃的方式通过深沟的示意图;
图14、图15和图16是本发明的应用实例中的角色遇到较浅的坑、具有一定宽度采用具有一定跳跃的姿态通过的示意图;
图17是本发明实施例三中的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的实施例一提供一种人工智能自适应障碍地形的行进动画生成方法的具体实施方式,参见图1,所述人工智能自适应障碍地形的行进动画生成方法具体包括如下内容:
步骤100:在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据。
在步骤100中,人工智能自适应障碍地形的行进动画生成系统在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据。可以理解的是,所述运动姿态数据中至少包括:运动姿态信息、运动速度信息、运动方向信息以及运动轨迹信息,其中,所述运动姿态信息中至少包括:走、跑、跳和攀爬等姿态信息,具体可以应用运动捕捉系统,采集现实场景下模拟目标角色的人员在不同环境地形中采用不同动作姿态及运动速度通过不同障碍物时的运动姿态数据;其中,所述模拟目标角色的人员为与目标角色的形态及关节点对应的人类。
步骤200:根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期。
在步骤200中,所述人工智能自适应障碍地形的行进动画生成系统对所述运动姿态数据进行预处理,得到运动姿态向量,其中,所述运动姿态向量用于表示所述模拟目标角色的人员各个关节点的运动方向、运动速度、运动加速度和关节点的自由度;以及以所述模拟目标角色的人员的两脚分别离开地面直至均落回地面作为一个完整的相位周期,为所述运动姿态数据添加相位标签,得到相位周期;其中,一个完整的所述相位周期为:左脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上,以及,右脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上的总时间。
步骤300:获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量。
在步骤300中,所述人工智能自适应障碍地形的行进动画生成系统提取所述环境地形对应的环境地形高度数据,并将所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量。
步骤400:根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集。
在步骤400中,所述人工智能自适应障碍地形的行进动画生成系统需要将地形拟合向量、相位周期和运动姿态向量结合进行训练,其中,通过相位周期的改变,来限定运动姿态的变化范围。由此构建出由三层全连接层及两层非线性层构成的神经网络,通过训练神经网络中的随机参数,使得网络参数最优,进而生成训练模型。
步骤500:在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态。
在步骤500中,在三维环境里,目标角色在运动的过程中能够应对地形和障碍的变化,自适应的调整自身的运动姿态,目标角色在虚拟世界中能够在目标角色遇到障碍物后根据障碍的高度,采用不同的运动姿态通过障碍,且由于在动画制作中,需提前输入完整轨迹信息,因此,目标角色能对环境进行预判,在预判后行进的过程中如果检测到障碍物如墙、沟壑、等信息,网络会根据相应的高度、距离等信息对角色的运动速度进行调整,对运动路径进行整体性规划,减少运动过程中的突变发生,使角色整体的运动达到令人满意的效果。
步骤600:根据所述目标角色的运动轨迹,循环执行步骤500,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
从上述描述可知,本发明的实施例提供的人工智能自适应障碍地形的行进动画生成方法,能够准确、高效且自动化地在不同地形和障碍环境下生成符合环境变化的运动姿态的行进动画,有效提高了行进动画的生成效率和准确性,并减少了行进动画制作的时间成本和金钱成本,能够轻松的在不同地形和障碍环境下生成不同的运动姿态,实现动画制作过程中的自动化过程,能够解决传统的动画中通过制作角色的关键帧所带来的效率不高及工作量大的问题,进而解决了传统动画制作中生产效率低、工作繁重、需要制作人员具有较高专业水平的要求的问题。
在一种具体实施方式中,本发明的人工智能自适应障碍地形的行进动画生成方法中还具体包括:
为所述运动姿态数据添加用于表示运动姿态的语义标签。
在上述描述中,人工智能自适应障碍地形的行进动画生成系统提供了代表运动姿态的表示为二元向量的语义标记。这样做有两个原因。首先,它们提供了一种消除歧义的方法,因为快速步行和慢跑通常可以具有相同的轨迹,其次,游戏设计者或者用户时常希望在在特定场景(步行,慢跑,跳跃)中观察特定的运动等。这个过程是人工的,但这个过程可以被简化,通过在某一段时间内捕获模拟目标角色的人员只包含一种步态信息的数据,这样就保证了运动的稳定性。
相对应的,所述步骤500也具体扩展为:在制作目标行进动画时,将三维场景中的目标角色所处的空间地形、所述空间地形中的障碍信息和所述运动姿态数据的语义标签输入所述目标神经网络,以及将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,使得网络对所述目标角色的下一时刻的运动姿态进行拟合,得到角色在下一时刻的运动姿态,运动方向及运动速度。
从上述描述可知,本发明的实施例提供的人工智能自适应障碍地形的行进动画生成方法,能够有效消除模拟目标角色的人员在行进中的运动歧义,进而能够有效降低行进动画制作的时间成本和金钱成本,并提高进动画的制作效率。
在一种具体实施方式中,参见图2,本发明的人工智能自适应障碍地形的行进动画生成方法还具体包括步骤700,所述步骤700具体包括如下内容:
步骤700:目标角色在三维场景中的行进的过程中,若检测到特殊环境的出现,则触发所述目标神经网络进行相应的控制,使得所述目标角色的运动速度过渡为通过所述特殊环境的速度,以及在所述目标角色完全通过所述特殊环境后,控制所述目标角色的运动速度恢复到通过所述特殊环境之前的速度。
从上述描述可知,本发明的实施例提供的人工智能自适应障碍地形的行进动画生成方法,有效地将运动和环境进行了很好的配合,极大的增加了行进动画的真实感。
在一种具体实施方式中,本发明的人工智能自适应障碍地形的行进动画生成方法中的步骤100具体包括如下内容:
应用运动捕捉系统采集现实场景下模拟目标角色的人员在不同环境地形中采用不同动作姿态及运动速度通过不同障碍物时的运动姿态数据。
在步骤100中,所述人工智能自适应障碍地形的行进动画生成系统通过运动捕捉系统采集真实场景下,模拟目标角色的人员行走的姿态变化,通过在人为场景中设置不同地形,从正常情况下以多种步态和朝向的动作捕捉开始,在后面逐渐添加了各种高度下的障碍物,从起伏的高坡到和模拟目标角色的人员身高一致的墙、以及向下的坡道到具有一定凹陷路面,收集模拟目标角色的人员面对不同障碍物的走、跑、跳、攀爬等动作姿态,捕获到运动数据包含运动的相位、步态的语义标签、身体轨迹以及沿着轨迹的地形高度信息,将这些数据进行预处理计算或进行人工标记。其中采集数据预处理是通过多帧之间的关节坐标变换,获取模拟目标角色的人员各个根关节点的运动方向,运动速度,运动加速度及关节的自由度。
在一种具体实施方式中,本发明的人工智能自适应障碍地形的行进动画生成方法中的步骤200具体包括如下内容:
对所述运动姿态数据进行预处理,得到运动姿态向量,其中,所述运动姿态向量用于表示所述模拟目标角色的人员各个关节点的运动方向、运动速度、运动加速度和关节点的自由度;以及,以所述模拟目标角色的人员的两脚分别离开地面直至均落回地面作为一个完整的相位周期,为所述运动姿态数据添加相位标签,得到相位周期,其中,一个完整的所述相位周期为:左脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上,以及,右脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上的总时间。
在上述描述中,利用到完整运动相位周期变化,因此,我们定义所述模拟目标角色的人员的两脚分别离开地面直至均落回地面作为一个一个完整的相位周期,由人工将其进行标注为相位标签,一个完整的相位周期,对于站立姿态,其中,相位标签的标定采用半自动方法,其中,左脚的脚跟关节和脚尖关节离开地面直至再次落在地面上,定义为半个周期;同样,右脚的脚跟关节和脚尖关节离开至落回地面,为半个周期,两脚合起来定义为一个完整的相位周期,其中包括两脚与地面的接触时间,并称为相位周期。
在一种具体实施方式中,本发明的人工智能自适应障碍地形的行进动画生成方法中的步骤300具体包括如下内容:
在地形引擎或虚拟环境中提取地形标签及环境地形高度数据;并将所述环境地形高度数据与角色的运动姿态数据进行拟合,以匹配所述运动捕捉系统采集到的角色的运动姿态数据对应的地形。
在一种具体实施方式中,本发明的人工智能自适应障碍地形的行进动画生成方法中的步骤400具体包括如下内容:
所述目标神经网络由三层全连接层及两层非线性层构成,且通过训练所述目标神经网络中的随机参数,使得网络参数最优化,进而得到训练模型,相对应的,所述步骤400具体包括如下内容:
步骤401:分别确定所述目标神经网络和所述全连接层的定义;
Φ(x)=W2ELU(W1ELU(W0X+B0)+B1)+B2
网络的输入是将地形拟合向量、相位周期和人物运动姿态向量组合为一组互相制约的特征向量,用Q={Qf|f=1……F}表示一组由F个运动姿态构成的人工姿态向量,Qf表示在第f帧时刻的运动姿态。将运动姿态向量,相位周期,环境拟合向量进行连结后,得到一组由{Q|S|E}表示的多维度特征向量作为网络输入。
步骤402:在每两个全连接层之间均加入激活函数层;
其中,M是参数的总数、b是0均值的高斯噪音、ΦM是xM,对应的基函数列向量、表示点积,由于b服从高斯分布,所以公式定义的随机过程是一个高斯过程,网络的设计采用三层这样的结构,两个这样的结构中间,我们加入线性函数层:
ELU(x)=max(x,0)+exp(min(x,0))-1
步骤403:构建所述目标神经网络的目标函数,并优化所述目标神经网络,得到所述目标函数的最优解:
其中是估计出的未知参数,似然部分用来衡量合成的运动与未知运动的相似性,已经发生的合成运动作为先验知识,使其尽可能的靠近训练数据集。估计出未知参数后,固定某一参数,改变其他的参数为这个对象合成其他部分的运动姿态。
从上述描述可知,本发明的实施例提供的人工智能自适应障碍地形的行进动画生成方法,模拟目标角色的人员在运动过程中能够根据地形做出相应的运动姿态。包括:运动角色的地形信息,角色运动的物理信息:角色的运动速度、运动方向,以及角色的运动轨迹信息。角色能够根据地形、高度、障碍等信息对角色的运动进行调节,对角色整体的运动速度进行融合,减少或避免了速度的突变,使角色的运动更接近实际生活。
为进一步的说明本方案,参见图3,本发明还提供一种人工智能自适应障碍地形的行进动画生成方法的应用实例,具体包括如下内容:
本应用实例基于人工智能的神经网络,从大量高维度运动数据中学习角色的运动特征,将学习到的特征应用到动画制作中,在动画制作时将三维场景中角色所处的空间地形和地形中的障碍信息输入网络,将角色在一个时间段内的运动特征输入网络如角色是否是站立状态、是否处在行走中、这一段时间内速度是否有变化,在经过网络计算后得到角色的姿态,在给出运动轨迹后循环执行本方法就能实现了角色自适应的应对地形和地形中各种障碍的变化,轻松的在不同地形和障碍环境下生成不同的运动姿态,实现动画制作过程中的自动化过程。本方法解决了传统动画制作中生产效率低、工作繁重、需要制作人员具有较高专业水平的这一行业痛点。
(1)数据采集及处理:本应用实例通过运动捕捉系统采集真实场景下,人类行走的姿态变化,通过在人为场景中设置不同地形,从正常情况下以多种步态和朝向的动作捕捉开始,在后面逐渐添加了各种高度下的障碍物,从起伏的高坡到和人身高一致的墙、以及向下的坡道到具有一定凹陷路面,收集人面对不同障碍物的走、跑、跳、攀爬等动作姿态,捕获到运动数据包含运动的相位、步态的语义标签、身体轨迹以及沿着轨迹的地形高度信息,将这些数据进行预处理计算或进行人工标记。其中采集数据预处理是通过多帧之间的关节坐标变换,获取人体各个根关节点的运动方向,运动速度,运动加速度及关节的自由度。
其中的动作捕捉:本应用实例采集CMU运动捕捉数据,从多种步态和朝向的长时间动作捕捉开始,逐渐添加一些简单障碍,如坡道,平台和凹陷路面,收集以不同速度,不同路径通过这些障碍物的运动数据,并由人工加入语义标签,生成不同语义环境下的身体铰链模型。本发明训练利用到完整运动相位周期变化,因此,我们定义脚趾和脚跟关节离开地面直到再次落地为一个完整的相位周期,由人工将其进行标注为相位标签,一个完整的相位周期,用2π表示。完成一个相位周期所用时间,用时间t表示,对于站立姿态,本发明采用最小周期时间为~0.25t。其中,相位周期的相关介绍如下:
标记相位标签:相位标签的标定采用半自动方法,通过计算脚跟、脚趾关节的速度的量级并检测是否低于某个阀值来自动标记脚的接触次数。因为启发式搜索偶尔会失败,所以必须人工校验并纠正结果。一旦确定脚与地面的接触次数,就可以自动计算相位参数:检测右脚与地面接触的帧,分配为0相位;检测左脚与地面接触帧,分配相位π;在下一次右脚与地面接触的帧,分配相位2π;这之间的帧通过插值而产生。对于站立的情况,可以使用最小循环时间(~0.25s),作为相位的周期保持循环。我们用St表示步态标签。我们在系统中还提供了代表运动姿态的,表示为二元向量的语义标记。这样做有两个原因。首先,它们提供了一种消除歧义的方法,因为快速步行和慢速慢跑通常可以具有相同的轨迹,其次,游戏设计者或者用户时常希望在在特定场景(步行,慢跑,跳跃)中观察特定的运动等等)。这个过程是人工的,但可以大大简化:通过确保在捕获期间,表演者不会频繁改变步态,长时间的捕获只包含一种类型的步态,步态标签用Et表示。
其中的地形数据拟合:环境地形高度数据拟合是进行角色姿态估计必不可少的环节。由于通过运动捕捉系统同时采集人物运动姿态数据和环境地形高度数据难度较高,本发明提出一个能匹配从游戏地形引擎或其他虚拟环境中收集环境地形高度数据方法。通过离线处理过程,能够将地形数据与运动捕捉数据分离处理。数据匹配后,可以将地形几何形状参数作为系统数据控制变量。
在游戏地形引擎中,我们可以任意获取地形高度,再从高度图中随机采样40000个3m×3m的面片,用以拟合过程。拟合过程分为两个阶段。首先,我们对于运动数据中的每个运动循环,采用全局搜索方式匹配数据库中10个最佳的面片,尝试对每个面片进行拟合,并选择拟合错误函数最小的面片;其次,我们使用径向基函数网格编辑技术对选取的结果进行改进,编辑地形,使人物的脚在接触地面是恰好在地面之上。
其具体方法介绍如下:
在数据库每个运动周期内,建立左右脚跟关节集合(J∈{lh,rh,lt,rt}),计算每一帧中关节的高度以及是否与地面接触的判断变量并找出这些关节与地面接触时的平均位置,将每个面片居中放置在该位置。对于每个面片,计算该关节下垂线方向地形的高度
进行运动与地形面片数据的误差匹配计算:
关节数据与地形面片数据拟合的误差值计算分为脚与地面接触、脚与地面不接触(防止与地面交叉)和跳跃状态分别用变量Edown,Eup,Ejump表示,其中:
其中,当角色跳跃是,变量生效,以确保地形离脚的高度在限定范围内。匹配误差最终由Efit表示。
Efit=Edown+Eup+Ejump
在计算出每个面片的匹配误差后,选出误差最小的10个面片,通过二维径向基函数方法进行适配,调整地形高度图。
(2)网络设计:本发明需要将地形拟合向量、相位周期和人物运动姿态向量结合进行训练,其中,我们通过相位周期的改变,来限定运动姿态的变化范围。由此,我们构建出由三层全连接层及两层非线性层构成的神经网络,通过训练神经网络中的随机参数,是网络参数最优,生成训练模型。其网络构造参见图4;其中,网络部分的定义如下:
Φ(x)=W2ELU(W1ELU(W0X+B0)+B1)+B2
网络的输入是将地形拟合向量、相位周期和人物运动姿态向量组合为一组互相制约的特征向量,我们用Q={Qf|f=1……F}表示一组由F个运动姿态构成的人工姿态向量,Qf表示在第f帧时刻的运动姿态。将运动姿态向量,相位周期,环境拟合向量进行连结后,我们得到一组由{Q|S|E}表示的多维度特征向量作为网络输入,
神经网络中的全连接层定义为:
其中,M是参数的总数、b是0均值的高斯噪音、ΦM是xM,对应的基函数列向量、表示点积,由于b服从高斯分布,所以公式定义的随机过程是一个高斯过程,网络的设计采用三层这样的结构,两个这样的结构中间,我们加入线性函数层:
ELU(x)=max(x,0)+exp(min(x,0))-1
构建如下形式的目标函数,优化网络使网络参数求得最优解:
其中是估计出的未知参数,似然部分用来衡量合成的运动与未知运动的相似性,已经发生的合成运动作为先验知识,使其尽可能的靠近训练数据集。估计出未知参数后,我们固定某一参数,改变其他的参数为这个对象合成其他部分的运动姿态。
(3)姿态预测,将角色当前时刻(t)的信息:在这里有角色当前状态下关节点的位置、关节在这一时刻的速度、节点在这一时刻下所经历和将要经历的轨迹信息,这里包括对轨迹点采样后的空间信息(位置和高度)、以及我们的运动语义,例如是走还是跑,还是跳等信息。将这些信息输送到网络中,网络根据这些信息反馈,对角色下一时刻的姿态进行拟合,得到角色下一时刻的姿态(t+1)时刻的运动姿态。
(4)以及,通过特殊环境,在角色行进的过程中检测到特殊环境,触发网络相应的控制,角色运动状态慢慢开始从之前的速度过渡到通过障碍,沟壑等特殊环境下的通过速度,在障碍、沟壑等地方开始跳跃,或者攀爬,直至通过,然后运动速度又开始慢慢的恢复之前状态。这样一来运动和环境进行了很好的配合,极大的增加了动画的真实感。
从上述描述可知,参见图5至图16,本发明的目的是提供一种基于人工智能的自动行进动画生成方法,在三维环境里,角色在运动的过程中能够应对地形和障碍的变化,自适应的调整自身的运动姿态,角色(人)在虚拟世界中能够在角色遇到障碍物后根据障碍的大小,采用不同的运动姿态通过障碍。角色能对环境进行预判,在预判后过程中如果检测到障碍物如墙、沟壑、等信息,网络会根据相应的高度、距离等信息对角色的速度进行调整,对运动路径进行整体性规划,减少运动过程中的突变发生,使角色整体的运动达到令人满意的效果,以及在角色运动过程中能够根据地形做出相应的运动姿态。包括:运动角色的地形信息,角色运动的物理信息:角色的运动速度、运动方向,以及角色的运动轨迹信息。角色能够根据地形、高度、障碍等信息对角色的运动进行调节,对角色整体的运动速度进行融合,减少或避免了速度的突变,使角色的运动更接近我们实际生活场景,以及使用本方法在虚拟世界中角色可以模拟现实世界里人或者其他动物或者虚拟的动物的运动方式,自由或是有规划的去行走,极少量的人工干预就能生成具有很高质量的运动动画。
本发明的实施例二提供一种能够实现上述人工智能自适应障碍地形的行进动画生成方法中全部步骤的人工智能自适应障碍地形的行进动画生成系统的具体实施方式,参见图3,所述人工智能自适应障碍地形的行进动画生成系统具体包括如下内容:
运动姿态数据采集模块10,用于在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据。
运动姿态向量和相位周期获取模块20,用于根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期。
地形拟合向量获取模块30,用于获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量。
目标神经网络构建模块40,用于根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集。
目标角色的运动姿态输出模块50,用于在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态。
行进动画完成模块60,用于根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
本发明提供的人工智能自适应障碍地形的行进动画生成系统的实施例具体可以用于执行上述人工智能自适应障碍地形的行进动画生成方法的实施例的处理流程,其功能在此不再赘述,可以参照上述方法实施例的详细描述。
从上述描述可知,本发明采用人工智能的方法对角色的运动特征数据进行学习,学习后的系统能自适应的应对地形的变化,让角色能够在不同的运动地形中做出相应的运动姿态来适应运动的环境,以及利用人工智能方法的自我学习、特征提取、特征拟合等特性,实现一种广泛适用于动画中角色的运动姿态自动生成的方法,且角色在动画环境中遇到障碍后能够根据障碍物的特征采用不同姿态的通过障碍,并对运动数据的学习实现了在动画中根据角色所处环境的变化自动生成角色的运动姿态达到动画制作的目的。
本发明的实施例三提供能够实现上述人工智能自适应障碍地形的行进动画生成方法中全部步骤的一种电子设备的具体实施方式,参见图17,所述电子设备具体包括如下内容:
处理器(processor)601、存储器(memory)602、通信接口(CommunicationsInterface)603和总线604;
其中,所述处理器601、存储器602、通信接口603通过所述总线604完成相互间的通信;所述通信接口603用于实现目标神经网络及外部数据库等相关设备之间的信息传输;
所述处理器601用于调用所述存储器602中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例一中的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤100:在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据。
步骤200:根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期。
步骤300:获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量。
步骤400:根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集。
步骤500:在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态。
步骤600:根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
从上述描述可知,本发明的实施例提供的电子设备,能够准确、高效且自动化地在不同地形和障碍环境下生成符合环境变化的运动姿态的行进动画,有效提高了行进动画的生成效率和准确性,并减少了行进动画制作的时间成本和金钱成本,能够轻松的在不同地形和障碍环境下生成不同的运动姿态,实现动画制作过程中的自动化过程,能够解决传统的动画中通过制定角色的关键帧所带来的效率不高及工作量大的问题,进而解决了传统动画制作中生产效率低、工作繁重、需要制作人员具有较高专业水平的要求的问题。
本发明的实施例四提供能够实现上述人工智能自适应障碍地形的行进动画生成方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例一的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤100:在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据。
步骤200:根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期。
步骤300:获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量。
步骤400:根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集。
步骤500:在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态。
步骤600:根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍从上述描述可知,本发明的实施例提供的电子设备,能够准确、高效且自动化地在不同地形和障碍环境下生成符合环境变化的运动姿态的行进动画,有效提高了行进动画的生成效率和准确性,并减少了行进动画制作的时间成本和金钱成本,能够轻松的在不同地形和障碍环境下生成不同的运动姿态,实现动画制作过程中的自动化过程,能够解决传统的动画中通过制定角色的关键帧所带来的效率不高及工作量大的问题,进而解决了传统动画制作中生产效率低、工作繁重、需要制作人员具有较高专业水平的问题。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种人工智能自适应障碍地形的行进动画生成方法,其特征在于,所述行进动画生成方法包括:
S1:在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据;
S2:根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期;
S3:获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量;
S4:根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集;
S5:在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态;
S6:根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
2.根据权利要求1所述的行进动画生成方法,其特征在于,所述行进动画生成方法还包括:为所述运动姿态数据添加用于表示运动姿态的语义标签;
相对应的,所述S5包括:
在制作目标行进动画时,将三维场景中的目标角色所处的空间地形、所述空间地形中的障碍信息和所述运动姿态数据的语义标签输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,使得网络对所述目标角色的下一时刻的运动姿态进行拟合,得到角色在下一时刻的运动姿态。
3.根据权利要求1所述的行进动画生成方法,其特征在于,所述行进动画生成方法还包括:
目标角色在三维场景中的行进的过程中,若检测到特殊环境的出现,则触发所述目标神经网络进行相应的控制,使得所述目标角色的运动速度过渡为通过所述特殊环境的速度,以及在所述目标角色完全通过所述特殊环境后,控制所述目标角色的运动速度恢复到通过所述特殊环境之前的速度。
4.根据权利要求1所述的行进动画生成方法,其特征在于,所述S1包括:
应用运动捕捉系统采集现实场景下模拟目标角色的人员在不同环境地形中采用不同动作姿态及运动速度通过不同障碍物时的运动姿态数据。
5.根据权利要求1所述的行进动画生成方法,其特征在于,所述S2包括:
对所述运动姿态数据进行预处理,得到运动姿态向量,其中,所述运动姿态向量用于表示所述模拟目标角色的人员的各个关节点的运动方向、运动速度、运动加速度和关节点的自由度;
以及,以所述模拟目标角色的人员的两脚分别离开地面直至均落回地面作为一个完整的相位周期,为所述运动姿态数据添加相位标签,得到相位周期;
其中,一个完整的所述相位周期为:左脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上,以及,右脚的脚跟关节和脚尖关节单次离开地面直至再次落在地面上的总时间。
6.根据权利要求1所述的行进动画生成方法,其特征在于,所述S3包括:
在地形引擎或虚拟环境中提取地形标签及环境地形高度数据;
并将所述环境地形高度数据与角色的运动姿态数据进行拟合,以匹配所述运动捕捉系统采集到的角色的运动姿态数据对应的地形。
7.根据权利要求1所述的行进动画生成方法,其特征在于,所述目标神经网络由三层全连接层及两层非线性层构成,且通过训练所述目标神经网络中的随机参数,使得网络参数最优化,进而得到训练模型,相对应的,所述S4包括:
分别确定所述目标神经网络和所述全连接层的定义;
在每两个全连接层之间均加入激活函数层;
以及,构建所述目标神经网络的目标函数,并优化所述目标神经网络,得到所述目标函数的最优解。
8.一种人工智能自适应障碍地形的行进动画生成系统,其特征在于,所述行进动画生成系统包括:
运动姿态数据采集模块,用于在预设场景中采集模拟目标角色的人员在通过不同环境地形时的运动姿态数据;
运动姿态向量和相位周期获取模块,用于根据所述运动姿态数据获取所述模拟目标角色的人员的运动姿态向量和相位周期;
地形拟合向量获取模块,用于获取所述环境地形对应的环境地形高度数据,并对所述环境地形高度数据与角色的运动姿态数据进行拟合,得到地形拟合向量;
目标神经网络构建模块,用于根据所述模拟目标角色的人员的运动姿态向量、相位周期和地形拟合向量,构建所述目标神经网络并训练得到对应的训练数据集;
目标角色的运动姿态输出模块,用于在制作目标行进动画时,将三维场景中的目标角色所处的空间地形和所述空间地形中的障碍信息输入所述目标神经网络,以及,将目标角色当前时刻之前的若干时刻的运动信息输入目标神经网络,得到所述目标角色当前时刻的运动姿态;
行进动画完成模块,用于根据所述目标角色的运动轨迹,循环执行S5,使得所述目标角色在所述目标行进动画自适应通过空间地形和所述空间地形中的各种障碍。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述人工智能自适应障碍地形的行进动画生成方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述人工智能自适应障碍地形的行进动画生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711460357.8A CN108182719A (zh) | 2017-12-28 | 2017-12-28 | 人工智能自适应障碍地形的行进动画生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711460357.8A CN108182719A (zh) | 2017-12-28 | 2017-12-28 | 人工智能自适应障碍地形的行进动画生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108182719A true CN108182719A (zh) | 2018-06-19 |
Family
ID=62548337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711460357.8A Pending CN108182719A (zh) | 2017-12-28 | 2017-12-28 | 人工智能自适应障碍地形的行进动画生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108182719A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223170A (zh) * | 2020-01-07 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 动画生成方法、装置、电子设备和存储介质 |
CN111260762A (zh) * | 2020-01-19 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 一种动画实现方法、装置、电子设备和存储介质 |
CN111292401A (zh) * | 2020-01-15 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、计算机存储介质及电子设备 |
CN111583364A (zh) * | 2020-05-07 | 2020-08-25 | 江苏原力数字科技股份有限公司 | 一种基于神经网络的群组动画生成方法 |
CN112258608A (zh) * | 2020-10-22 | 2021-01-22 | 北京中科深智科技有限公司 | 一种基于数据驱动的动画自动生成方法及系统 |
CN113744373A (zh) * | 2020-05-15 | 2021-12-03 | 完美世界(北京)软件科技发展有限公司 | 一种动画生成方法、装置、设备 |
TWI752629B (zh) * | 2020-08-12 | 2022-01-11 | 英業達股份有限公司 | 訓練虛擬動物基於控制參數運動的方法 |
CN114495682A (zh) * | 2022-03-07 | 2022-05-13 | 郑州大学 | 一种基于机器学习的老年人智能教育系统 |
CN116071474A (zh) * | 2023-04-06 | 2023-05-05 | 山东捷瑞数字科技股份有限公司 | 基于三维引擎的运动姿态调整方法、装置、设备及介质 |
WO2024060833A1 (zh) * | 2022-09-23 | 2024-03-28 | 华为云计算技术有限公司 | 一种图像处理方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106937531A (zh) * | 2014-06-14 | 2017-07-07 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
-
2017
- 2017-12-28 CN CN201711460357.8A patent/CN108182719A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106937531A (zh) * | 2014-06-14 | 2017-07-07 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
Non-Patent Citations (1)
Title |
---|
DANIEL HOLDEN: "Phase-Functioned Neural Networks for Character Control", 《ACM TRANSACTIONS ON GRAPHICS》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223170A (zh) * | 2020-01-07 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 动画生成方法、装置、电子设备和存储介质 |
CN111223170B (zh) * | 2020-01-07 | 2022-06-10 | 腾讯科技(深圳)有限公司 | 动画生成方法、装置、电子设备和存储介质 |
KR20220025023A (ko) * | 2020-01-15 | 2022-03-03 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | 애니메이션 처리 방법 및 장치, 컴퓨터 저장 매체 그리고 전자 디바이스 |
CN111292401A (zh) * | 2020-01-15 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、计算机存储介质及电子设备 |
JP7407919B2 (ja) | 2020-01-15 | 2024-01-04 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 動画処理方法、動画処理装置、コンピュータプログラム及び電子機器 |
WO2021143289A1 (zh) * | 2020-01-15 | 2021-07-22 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、计算机存储介质及电子设备 |
US11790587B2 (en) | 2020-01-15 | 2023-10-17 | Tencent Technology (Shenzhen) Company Limited | Animation processing method and apparatus, computer storage medium, and electronic device |
KR102645536B1 (ko) * | 2020-01-15 | 2024-03-07 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | 애니메이션 처리 방법 및 장치, 컴퓨터 저장 매체 그리고 전자 디바이스 |
CN111292401B (zh) * | 2020-01-15 | 2022-05-03 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、计算机存储介质及电子设备 |
WO2021143261A1 (zh) * | 2020-01-19 | 2021-07-22 | 腾讯科技(深圳)有限公司 | 一种动画实现方法、装置、电子设备和存储介质 |
CN111260762A (zh) * | 2020-01-19 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 一种动画实现方法、装置、电子设备和存储介质 |
CN111260762B (zh) * | 2020-01-19 | 2023-03-28 | 腾讯科技(深圳)有限公司 | 一种动画实现方法、装置、电子设备和存储介质 |
US11928765B2 (en) | 2020-01-19 | 2024-03-12 | Tencent Technology (Shenzhen) Company Limited | Animation implementation method and apparatus, electronic device, and storage medium |
CN111583364A (zh) * | 2020-05-07 | 2020-08-25 | 江苏原力数字科技股份有限公司 | 一种基于神经网络的群组动画生成方法 |
CN113744373A (zh) * | 2020-05-15 | 2021-12-03 | 完美世界(北京)软件科技发展有限公司 | 一种动画生成方法、装置、设备 |
TWI752629B (zh) * | 2020-08-12 | 2022-01-11 | 英業達股份有限公司 | 訓練虛擬動物基於控制參數運動的方法 |
CN112258608B (zh) * | 2020-10-22 | 2021-08-06 | 北京中科深智科技有限公司 | 一种基于数据驱动的动画自动生成方法及系统 |
CN112258608A (zh) * | 2020-10-22 | 2021-01-22 | 北京中科深智科技有限公司 | 一种基于数据驱动的动画自动生成方法及系统 |
CN114495682B (zh) * | 2022-03-07 | 2023-08-15 | 郑州大学 | 一种基于机器学习的老年人智能教育系统 |
CN114495682A (zh) * | 2022-03-07 | 2022-05-13 | 郑州大学 | 一种基于机器学习的老年人智能教育系统 |
WO2024060833A1 (zh) * | 2022-09-23 | 2024-03-28 | 华为云计算技术有限公司 | 一种图像处理方法 |
CN116071474A (zh) * | 2023-04-06 | 2023-05-05 | 山东捷瑞数字科技股份有限公司 | 基于三维引擎的运动姿态调整方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108182719A (zh) | 人工智能自适应障碍地形的行进动画生成方法和装置 | |
Peng et al. | Deeploco: Dynamic locomotion skills using hierarchical deep reinforcement learning | |
CN111292401B (zh) | 动画处理方法、装置、计算机存储介质及电子设备 | |
Metoyer et al. | Reactive pedestrian path following from examples | |
Guerra-Filho et al. | The human motion database: A cognitive and parametric sampling of human motion | |
CN107423398A (zh) | 交互方法、装置、存储介质和计算机设备 | |
TWI473036B (zh) | The system and method of automatic adaptation of terrain to virtual terrain | |
CN111724459B (zh) | 一种面向异构人体骨骼的运动重定向的方法及系统 | |
CN113592895A (zh) | 一种运动信息确定方法、设备及计算机可读存储介质 | |
CN108376198A (zh) | 一种基于虚拟现实的人群仿真方法及系统 | |
Lin et al. | Balancing and reconstruction of segmented postures for humanoid robots in imitation of motion | |
CN117333646B (zh) | 一种ar地图联动跑步机的漫游方法 | |
Noser et al. | Playing games through the virtual life network | |
CN112991544A (zh) | 一种基于全景影像建模的群体疏散行为仿真方法 | |
CN109407826A (zh) | 球类运动模拟方法、装置、存储介质及电子设备 | |
CN115797517B (zh) | 虚拟模型的数据处理方法、装置、设备和介质 | |
Jiang et al. | Deep learning algorithm based wearable device for basketball stance recognition in basketball | |
Hao et al. | Cromosim: A deep learning-based cross-modality inertial measurement simulator | |
Zhao et al. | Classifying in-place gestures with end-to-end point cloud learning | |
CN115294228A (zh) | 基于模态引导的多图人体姿态生成方法及装置 | |
CN103077545B (zh) | 一种基于路径的人体运动编辑方法 | |
Tang | From agent to avatar | |
Berseth | Scalable deep reinforcement learning for physics-based motion control | |
CN116570921B (zh) | 虚拟对象的姿态控制方法、装置、计算机设备、存储介质 | |
Cong et al. | LaserHuman: Language-guided Scene-aware Human Motion Generation in Free Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180619 |