CN116392812A - 动作生成方法及虚拟人物动画生成方法 - Google Patents
动作生成方法及虚拟人物动画生成方法 Download PDFInfo
- Publication number
- CN116392812A CN116392812A CN202211538804.8A CN202211538804A CN116392812A CN 116392812 A CN116392812 A CN 116392812A CN 202211538804 A CN202211538804 A CN 202211538804A CN 116392812 A CN116392812 A CN 116392812A
- Authority
- CN
- China
- Prior art keywords
- sequence
- action
- noise
- sample
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 title claims abstract description 619
- 238000000034 method Methods 0.000 title claims abstract description 158
- 238000012549 training Methods 0.000 claims abstract description 65
- 238000005070 sampling Methods 0.000 claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims description 156
- 210000000988 bone and bone Anatomy 0.000 claims description 101
- 239000013598 vector Substances 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 28
- 238000003672 processing method Methods 0.000 claims description 20
- 230000006978 adaptation Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 8
- 210000003414 extremity Anatomy 0.000 description 70
- 230000000875 corresponding effect Effects 0.000 description 34
- LJROKJGQSPMTKB-UHFFFAOYSA-N 4-[(4-hydroxyphenyl)-pyridin-2-ylmethyl]phenol Chemical compound C1=CC(O)=CC=C1C(C=1N=CC=CC=1)C1=CC=C(O)C=C1 LJROKJGQSPMTKB-UHFFFAOYSA-N 0.000 description 22
- 238000010586 diagram Methods 0.000 description 17
- 230000009467 reduction Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 238000009792 diffusion process Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000003062 neural network model Methods 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000011946 reduction process Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本说明书实施例提供动作生成方法及虚拟人物动画生成方法,其中所述动作生成方法包括:获取随机采样得到的噪声序列;将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。根据噪声序列,利用动作生成模型,多次迭代解码得到目标动作序列,从零生成动作序列,不基于特定动作帧来进行动作补全,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列。
Description
技术领域
本说明书实施例涉及计算机数据处理技术领域,特别涉及一种动作生成方法。
背景技术
随着计算机技术的发展,虚拟对象在各种场景下得到广泛应用,例如,在虚拟现实/增强现实领域,以及视频中的虚拟对象、游戏中的虚拟角色、网络页面或者应用软件上的虚拟客服对象、电影动画制作中的虚拟人物等等。
只能静态展示的虚拟对象愈发难以满足人们对于虚拟对象生动、趣味的要求,因而,对于虚拟对象的运动进行控制,得到可以运动的虚拟对象,来提升虚拟对象的生动性和趣味性,是越来越普遍的需求。目前,对虚拟对象的运动进行控制主要是依赖于动作序列实现的,出于成本和效率的考虑,人工生成动作序列已被动作生成模型为代表的人工智能技术所替代。
然而,目前利用动作生成模型来生成动作序列,需要基于大量的样本动作序列来对动作生成模型进行预训练,由于样本动作序列的数量不足,难以保证对动作生成模型进行全面的预训练,导致动作生成模型生成的动作序列的针对性和丰富性不足。因而亟需一种生成动作更具针对性且更丰富的动作生成方法。
发明内容
有鉴于此,本说明书实施例提供了一种动作生成方法。本说明书一个或者多个实施例同时涉及一种虚拟人物动画生成方法,一种动作生成模型的数据处理方法,一种动作生成装置,一种虚拟人物动画生成装置,一种动作生成模型的数据处理装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种动作生成方法,包括:
获取随机采样得到的噪声序列;
将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。
根据本说明书实施例的第二方面,提供了一种虚拟人物动画生成方法,包括:
接收前端发送的虚拟人物动画生成请求,其中,虚拟人物动画生成请求携带噪声序列;
将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本人体肢体动作序列进行加噪得到;
基于人体肢体动作序列,生成虚拟人物动画发送至前端,以在前端显示虚拟人物动画。
根据本说明书实施例的第三方面,提供了一种动作生成模型的数据处理方法,包括:
获取样本动作序列;
对样本动作序列进行多次加噪处理,获得多个样本噪声序列;
将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;
基于预测动作序列和样本动作序列,计算损失值;
基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;
将动作生成模型的模型参数发送至端侧设备。
根据本说明书实施例的第四方面,提供了一种动作生成装置,包括:
第一获取模块,被配置为获取随机采样得到的噪声序列;
第一生成模块,被配置为将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。
根据本说明书实施例的第五方面,提供了一种虚拟人物动画生成装置,包括:
接收模块,被配置为接收前端发送的虚拟人物动画生成请求,其中,虚拟人物动画生成请求携带噪声序列;
第二生成模块,被配置为将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本人体肢体动作序列进行加噪得到;
第三生成模块,被配置为基于人体肢体动作序列,生成虚拟人物动画发送至前端,以在前端显示虚拟人物动画。
根据本说明书实施例的第六方面,提供了一种动作生成模型的数据处理装置,应用于云侧设备,包括:
第二获取模块,被配置为获取样本动作序列;
加噪模块,被配置为对样本动作序列进行多次加噪处理,获得多个样本噪声序列;
第四生成模块,被配置为将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;
计算模块,被配置为基于预测动作序列和样本动作序列,计算损失值;
训练模块,被配置为基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;
发送模块,被配置为将动作生成模型的模型参数发送至端侧设备。
根据本说明书实施例的第七方面,提供了一种计算设备,包括:存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的步骤。
根据本说明书实施例的第八方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的步骤。
根据本说明书实施例的第九方面,提供了一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的步骤。
本说明书一个或多个实施例中,获取随机采样得到的噪声序列;将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。将随机采样得到的噪声序列输入动作生成模型,重复进行去噪并进行下一次迭代,通过多次迭代解码得到目标动作序列,这样的推理生成方法可以从零生成动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练和动作生成,不与样本产生强关联,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列。
附图说明
图1是本说明书一个实施例提供的一种动作生成方法的流程图;
图2是本说明书一个实施例提供的一种虚拟人物动画生成方法的流程图;
图3是本说明书一个实施例提供的一种动作生成模型的数据处理方法的流程图;
图4是本说明书一个实施例提供的一种应用于动画电影制作的虚拟人物动画生成方法的处理过程流程图;
图5是本说明书一个实施例提供的一种动作生成方法的数据处理示意图;
图6是本说明书一个实施例提供的一种动作生成方法中动作生成模型的结构示意图;
图7是本说明书一个实施例提供的一种动作生成方法中骨骼自适应模块的数据处理示意图;
图8是本说明书一个实施例提供的一种虚拟人物动画生成方法的显示示意图;
图9是本说明书一个实施例提供的一种动作生成装置的结构示意图;
图10是本说明书一个实施例提供的一种虚拟人物动画生成装置的结构示意图;
图11是本说明书一个实施例提供的一种动作生成模型的数据处理装置的结构示意图;
图12是本说明书一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
CNN(Convolutional Neural Networks,卷积神经网络)模型:一种具有前向传播和反向传播的多层神经网络模型。
FFN(Feedforward Neural,前馈神经网络)模型:一种具有前馈传播功能的神经网络模型。
Transformer(翻译)模型:一种基于注意力机制的神经网络模型,通过注意力机制提取、分析数据的特征,可以用于对自然语言文本,也可以用于图像信息和音频信息等多模态信息。
BERT(Bidirectional Encoder Representations from Transformer,双向语义编码)模型:一种对Transformer的优化神经网络模型,通过注意力机制提取、分析自然语言文本、图像信息或者音频信息等多模态数据。
在本说明书中,提供了一种动作生成方法,本说明书同时涉及一种虚拟人物动画生成方法,一种动作生成模型的数据处理方法,一种动作生成装置,一种虚拟人物动画生成装置,一种动作生成模型的数据处理装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序,在下面的实施例中逐一进行详细说明。
参见图1,图1示出了本说明书一个实施例提供的一种动作生成方法的流程图,具体包括如下步骤。
步骤102:获取随机采样得到的噪声序列。
噪声序列为对应动作序列的参数格式的随机噪声特征参数。动作序列为虚拟对象的肢体关键点的特征参数的时间序列。肢体关键点包括五官特征点、骨骼特征点和关节特征点等。虚拟对象为视频片段中的数字虚拟对象,例如,游戏、电影、动画、视频中的人物、动物、机械等。以电影中的人物为例,该人物具有头部、脊椎部位、核心部位、四肢部位等肢体关键点,该人物在一个0.03s内的电影视频片段中具有3个视频动作帧,肢体关键点在3个视频动作帧中的特征参数分别为:第1帧:{头部:位置(x1,y1,z1),旋转角度:(α1,β1,γ1);脊椎部位:位置(x2,y2,z2),旋转角度:(α2,β2,γ2)……右脚:位置(x7,y7,z7),旋转角度:(α7,β7,γ7)};第2帧:{头部:位置(x8,y8,z8),旋转角度:(α8,β8,γ8);脊椎部位:位置(x9,y9,z9),旋转角度:(α9,β9,γ9)……右脚:位置(x14,y14,z14),旋转角度:(α14,β14,γ14)};第3帧:{头部:位置(x15,y15,z15),旋转角度:(α15,β15,γ15);脊椎部位:位置(x16,y16,z16),旋转角度:(α16,β16,γ16)……右脚:位置(x21,y21,z21),旋转角度:(α21,β21,γ21)}。噪声序列为对应动作序列格式的随机噪声特征参数,即,第1帧{头部:位置(randx,randy,randz),旋转角度:(randα,randβ,randγ);脊椎部位:位置(randx,randy,randz),旋转角度:(randα,randβ,randγ)……右脚:位置(randx,randy,randz),旋转角度:(randα,randβ,randγ)};第2帧……;第3帧……。
需要说明的是,随机采样的噪声序列可以为高斯噪声、瑞利噪声、伽马噪声、均匀分布噪声、指数分布噪声和脉冲噪声中的至少一种的时间序列,在此不作限定。
获取随机采样得到的噪声序列,具体方式为,根据动作序列的特征参数,对特征参数进行随机采样,得到噪声序列。
示例性地,根据动作序列的特征参数:第n帧:{头部:位置(x,y,z),旋转角度:(α,β,γ);脊椎部位:位置(x,y,z),旋转角度:(α,β,γ)……右脚:位置(x,y,z),旋转角度:(α,β,β)},对特征参数进行随机高斯噪声采样,得到高斯噪声序列XT:第1帧:{头部:位置(GaussRandx,GaussRandy,GaussRandz),旋转角度:(GaussRandα,GaussRandβ,GaussRandγ);脊椎部位:位置(GaussRandx,GaussRandy,GaussRandz),旋转角度:(GaussRandα,GaussRandβ,GaussRandγ)……右脚:位置(GaussRandx,GaussRandy,GaussRandz),旋转角度:(GaussRandα,GaussRandβ,GaussRandγ)};第2帧……;第M帧……。
通过获取随机采样得到的噪声序列,为后续生成下一次迭代的噪声序列奠定了数据基础,并为生成目标动作序列奠定了数据基础,同时避免了根据特定的动作帧进行后续的动作生成,提升了生成的目标动作序列的丰富性。
步骤104:将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。
动作生成模型为可以对噪声序列进行特征提取,对应生成动作序列的序列生成模型。动作生成模型具体通过其解码器对噪声序列进行降噪处理并基于预训练的条件概率,实现从随机噪声序列到目标动作序列的转换。动作生成模型为一种扩散模型,例如,DALL-E2模型、Imagen模型和DDPM模型(Denoising Diffusion Probabilistic Models,降噪扩散概率模型),本说明书实施例中以DDPM为例进行说明。扩散模型的预训练过程为具体样本动作序列先通过加噪,得到样本噪声序列,这样的过程称为扩散,再利用样本噪声序列进行预训练,这样的过程称为逆扩散或者降噪。同理,动作生成过程也是由噪声序列生成具体的动作序列,即逆扩散或者降噪。扩散和降噪的推理过程,实现了从零生成动作序列,摆脱了预训练样本之间的强关联,实现了无条件控制的动作生成,相比于传统基于给定的动作帧来进行动作补全,生成的动作序列更具针对性和丰富性。
目标动作序列为对虚拟对象进行驱动的、肢体关键点的特征参数的时间序列,目标动作序列对应有目标动作,例如,目标动作为“翻跟头”,目标动作序列中肢体关键点的特征参数随着时间变化,进而实现在多个动作帧的连续变化中呈现“翻跟头”的虚拟对象的驱动显示效果。基于目标动作对虚拟对象进行驱动,可以应用于电子商务的虚拟主播驱动、电子商务的虚拟对象视频生成、直播平台的虚拟主播驱动、视频平台的虚拟对象视频生成、广告传媒的虚拟对象视频生成、游戏的虚拟角色驱动等场景中。
将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,具体方式为,将噪声序列输入动作生成模型,经动作生成模型中解码器进行多次迭代的动作预测,基于多次迭代的预测结果,得到目标动作序列。
本说明书实施例中,获取随机采样得到的噪声序列;将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。将随机采样得到的噪声序列输入动作生成模型,重复进行去噪并进行下一次迭代,通过多次迭代解码得到目标动作序列,这样的推理生成方法可以从零生成动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练和动作生成,不与样本产生强关联,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列。
可选地,步骤104中对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,包括如下具体步骤:
基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列;
对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列。
预测动作序列为基于本次迭代输入的噪声序列,预测经过降噪后得到的动作序列。
基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列,具体方式为,基于预训练确定的条件概率,对本次迭代输入的噪声序列进行动作预测,获得预测动作序列。
对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列,具体方式为,基于本次迭代输入的噪声序列,确定预测动作序列对应的迭代噪声,基于预测动作序列和迭代噪声,确定下一次迭代输入的噪声序列。更进一步可选地,基于本次迭代输入的噪声序列对应的迭代降噪次数,对预测动作序列添加迭代降噪次数的随机噪声,得到确定下一次迭代输入的噪声序列;更进一步可选地,将预测动作序列和本次迭代输入的噪声序列输入预先训练的噪声添加模块,基于本次迭代输入的噪声序列,确定预测动作序列对应的迭代噪声,得到下一次迭代输入的噪声序列。
示例性地,基于预训练确定的条件概率P(t-1∣t),对本次迭代输入的噪声序列Xt进行动作预测,获得预测动作序列基于本次迭代输入的噪声序列Xt对应的迭代降噪次数t,对预测动作序列添加迭代降噪次数t的随机噪声,得到确定下一次迭代输入的噪声序列Xt-1。
基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列;对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列。在一次迭代解码过程中,通过确定预测动作序列,再对预测动作序列和本次迭代输入的噪声序列进行分析,保证了下一次迭代输入的噪声序列不会过快降噪,保留了当前预测动作序列的相关特征,提升了下一次迭代输入的噪声序列的准确度。
可选地,解码器包括第一骨骼自适应层、多头注意力层和第二骨骼自适应层;
对应地,基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列,包括如下具体步骤:
将本次迭代输入的噪声序列输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列进行归一化处理,获得骨骼特征序列;
将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列;
将骨骼注意力特征序列输入第二骨骼自适应层,经第二骨骼自适应层对骨骼注意力特征序列进行骨骼还原,得到预测动作序列。
在预训练过程中,不同样本动作序列对应的动作序列的骨骼特征不同,例如,部分样本的骨骼结构为T结构,即包括核心部位、脊椎部位、前臂部位(左、右)、大臂部位(左、右)、大腿部位(左、右),小腿部位(左、右)共10个骨骼,部分样本的骨骼结构为A结构,即包括核心部位、脊椎部位、手臂部位(左、右)、腿部位(左、右)共6个骨骼,两者对应的骨骼特征也存在差异,为了增加训练的样本数量,可以通过在动作生成模型的解码器输入和输出部位添加骨骼自适应层,实现对不同样本的归一化处理,提升了后续动作生成的针对性。同理,动作生成过程中,也可以对应不同的噪声序列来生成对应的目标动作序列,提升了目标动作序列的丰富性。
目前,通过人工设置骨骼归一化规则,实现对不同序列的骨骼特征实现归一化处理,然而,这样的人工设置方法,效率不足且成本较高。
骨骼自适应层为对输入的序列进行统一特征维度编解码的神经网络模型,可以为CNN、FNN等。具体地,骨骼自适应层通过对各骨骼特征点的旋转角度他添加额外旋转角度,实现对不同骨骼结构的骨骼旋转角度参数的归一化处理。骨骼自适应层包括置换矩阵模块,通过对骨骼自适应层的预训练,实现基于置换矩阵模块对不同骨骼结构的序列实现增删操作,对骨骼数量进行对齐。第一骨骼自适应层为对将不同骨骼结构的序列转换为统一特征维度的骨骼特征,第二骨骼自适应层为将统一特征维度的骨骼特征逆转换(还原)为不同骨骼结构的序列。多头注意力层为具有多维空间注意力机制的,通过多维空间注意力机制,可以提取得到更全面的骨骼特征的骨骼注意力特征序列。骨骼特征序列为虚拟对象的骨骼特征点的特征参数的时间序列,包括骨骼特征点的旋转角度和骨骼特征点的位姿数据。
将本次迭代输入的噪声序列输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列进行归一化处理,获得骨骼特征序列,具体方式为,将本次迭代输入的噪声序列输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列的骨骼特征进行归一化处理,获得骨骼特征序列。
将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列,具体方式为,基于骨骼特征序列,设置查询特征、键特征和值特征,经多头注意力层对查询特征、键特征和值特征进行多头注意力计算,得到骨骼注意力特征序列。
将骨骼注意力特征序列输入第二骨骼自适应层,经第二骨骼自适应层对骨骼注意力特征序列进行骨骼还原,得到预测动作序列,具体方式为,将骨骼注意力特征序列输入第二骨骼自适应层,经第二骨骼自适应层对统一特征维度的骨骼注意力特征序列进行骨骼特征还原,得到预测动作序列。
示例性地,将本次迭代输入的噪声序列Xt输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列XT的骨骼特征(T骨骼结构)进行归一化处理,获得骨骼特征序列Xt’,基于骨骼特征序列Xt’,设置查询特征Q、键特征K和值特征V,经多头注意力层对查询特征Q、键特征K和值特征V进行多头注意力计算,得到骨骼注意力特征序列Xt”,将骨骼注意力特征序列Xt”输入第二骨骼自适应层,经第二骨骼自适应层对统一特征维度的骨骼注意力特征序列Xt”进行骨骼特征还原,得到预测动作序列
将本次迭代输入的噪声序列输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列进行归一化处理,获得骨骼特征序列;将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列;将骨骼注意力特征序列输入第二骨骼自适应层,经第二骨骼自适应层对骨骼注意力特征序列进行骨骼还原,得到预测动作序列。提升了后续动作生成的针对性,提升了目标动作序列的丰富性,同时,避免了人工设定骨骼归一化规则,提升了效率且降低了成本。
可选地,在将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列之前,还包括如下具体步骤:
获得预设的噪声强度特征序列;
将骨骼特征序列与噪声强度特征序列相加,获得更新的骨骼特征序列。
目前,多头注意力层对于特征序列进行多头注意力计算,需要特征序列标注经过与位置特征序列的相加处理,序列位置对齐后,再进行计算,保证多头注意力计算的准确度,保证预测动作序列的准确度。由于本说明书实施例中,是对每次迭代的噪声序列不断去噪,因而,在输入多头注意力层之前,可以将骨骼特征序列与噪声强度特征序列相加,使得多头注意力层基于当前迭代的噪声序列对应的噪声强度特征,更准确地预测得到预测动作序列。
噪声强度特征序列为预先设定的,噪声强度特征序列表征了当前去噪处理的迭代次数,噪声强度特征序列与对动作生成模型进行预训练过程中添加噪声的迭代次数对应。例如,当前迭代次数为第n次,对噪声强度特征序列为当前去噪处理的迭代次数的特征序列Step_n。
示例性地,获得预设的噪声强度特征序列Step_t,将骨骼特征序列Xt’与噪声强度特征序列Step_n相加,获得更新的骨骼特征序列Xt’。
获得预设的噪声强度特征序列,将骨骼特征序列与噪声强度特征序列相加,获得更新的骨骼特征序列。提升了预测动作序列的准确度,进而提升了下一次迭代输入的噪声序列的准确度,提升了目标动作序列的生成准确度。
可选地,动作生成模型还包括编码器;
对应地,在将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列之前,还包括如下具体步骤:
获取指定引导信号;
将指定引导信号输入编码器,经编码器对指定引导信号进行特征编码,得到引导特征向量;
对应地,将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列,包括如下具体步骤:
将骨骼特征序列和引导特征向量输入多头注意力层,经多头注意力层对骨骼特征序列和引导特征向量进行多头注意力计算,得到骨骼注意力特征序列。
编码器为具有多模态特征提取功能和多头注意力机制的神经网络模型的编码器,例如,Transformer模型的编码器和BERT模型的编码器。
指定引导信号为目标动作对应的引导信号,包括文本格式的指定引导文本、音频格式的指定引导音频和图像格式的指定引导图像等多模态信息。例如,指定引导文本为“前滚翻”,指定引导图像为体操运动员前滚翻的视频。引导特征向量为指定引导信号对应的多模态特征向量。
将骨骼特征序列和引导特征向量输入多头注意力层,经多头注意力层对骨骼特征序列和引导特征向量进行多头注意力计算,得到骨骼注意力特征序列,具体方式为,将骨骼特征序列和引导特征向量输入多头注意力层,基于骨骼特征序列,确定查询特征,基于引导特征向量,确定键特征和值特征,经多头注意力层对查询特征、键特征和值特征进行多头注意力计算,得到骨骼注意力特征序列。
示例性地,获取指定引导文本Text,将指定引导文本Text输入Transformer模型的编码器,经Transformer模型的编码器对指定引导信号Text进行特征编码,得到引导特征向量Embedding_Text,将骨骼特征序列Xt’和引导特征向量Embedding_Text输入多头注意力层,基于骨骼特征序列Xt’,确定查询特征Q,基于引导特征向量Embedding_Text,确定键特征K和值特征V,经多头注意力层对查询特征Q、键特征K和值特征V进行多头注意力计算,得到骨骼注意力特征序列Xt”。
获取指定引导信号;将指定引导信号输入编码器,经编码器对指定引导信号进行特征编码,得到引导特征向量;将骨骼特征序列和引导特征向量输入多头注意力层,经多头注意力层对骨骼特征序列和引导特征向量进行多头注意力计算,得到骨骼注意力特征序列。基于编码器引入了指定引导特征,来引导得到骨骼注意力特征序列,使得推理生成过程中加入了指定生成对应动作序列的功能,提升了目标动作序列的针对性,同时,使得动作生成过程更具丰富性,得到更丰富的目标动作序列。
可选地,在对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列之前,还包括如下具体步骤:
接收用户输入的指定帧的目标骨骼位姿数据;
将预测动作序列中指定帧的骨骼位姿数据替换为目标骨骼位姿数据,得到更新的预测动作序列。
指定帧为预测动作序列中指定的动作帧。目标骨骼位姿数据为指定帧中虚拟对象的骨骼特征点的位姿特征参数,包括骨骼特征点的旋转角度和骨骼特征点的位置参数。
示例性地,接收用户输入的第2帧的目标骨骼位姿数据为:{头部:位置(X1,Y1,Z1),旋转角度:(α1,β1,γ1);脊椎部位:位置(x2,y2,z2),旋转角度:(α2,β2,γ2)……右脚:位置(x7,y7,z7),旋转角度:(α7,β7,γ7)},将预测动作序列中第2帧的骨骼位姿数据{头部:位置(x8,y8,z8),旋转角度:(α8,β8,γ8);脊椎部位:位置(x9,y9,z9),旋转角度:(α9,β9,γ9)……右脚:位置(x14,y14,z14),旋转角度:(α14,β14,γ14)}替换为目标骨骼位姿数据,得到更新的预测动作序列/>
接收用户输入的指定帧的目标骨骼位姿数据;将预测动作序列中指定帧的骨骼位姿数据替换为目标骨骼位姿数据,得到更新的预测动作序列。实现了在推理生成的过程中对最细粒度上直接对指定帧对应的动作进行替换,增强了生成的目标动作序列的针对性。
此外,在本说明书的另一种实现方式中,用户还可以指定一小段动作帧,一般情况下可以是动作的开始阶段和结束阶段,而中间阶段的动作帧需要由模型预测生成,因此,输入的序列可以由几小段拼接而成,例如,输入的序列由A、B、C三小段拼接而成,即输入的序列为[A,B,C],其中,A、C是用户指定的,而B是未知的,则在第一次迭代解码时(对应噪声强度T),设置B_T为完全的噪声,输入序列[A,B_T,C]至动作生成模型,通过模型预测得到B_T-1;再进行第二次迭代解码,输入序列[A,B_T-1,C]至动作生成模型,通过模型预测得到B_T-2;迭代直至得到B_0,[A,B_0,C]即是生成的动作序列。
可选地,在对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列之前,还包括如下具体步骤:
接收用户输入的骨骼指定部位的目标部位位姿数据;
将预测动作序列中各帧骨骼指定部位的位姿数据替换为目标部位位姿数据,得到更新的预测动作序列。
目标部位位姿数据为虚拟对象的指定骨骼特征点的位姿特征参数,包括指定骨骼特征点的旋转角度和指定骨骼特征点的位置参数。
示例性地,接收用户输入的头部和脊椎部位的目标部位位姿数据为:{头部:位置(X1,Y1,Z1),旋转角度:(α1,β1,γ1);脊椎部位:位置(x2,y2,z2),旋转角度:(α2,β2,γ2)},将预测动作序列中各帧骨骼指定部位的位姿数据:第1帧:{头部:位置(x1,y1,z1),旋转角度:(α1,β1,γ1);脊椎部位:位置(x2,y2,z2),旋转角度:(α2,β2,γ2)……右脚:位置(x7,y7,z7),旋转角度:(α7,β7,γ7)};第2帧:{头部:位置(x8,y8,z8),旋转角度:(α8,β8,γ8);脊椎部位:位置(x9,y9,z9),旋转角度:(α9,β9,γ9)……右脚:位置(x14,y14,z14),旋转角度:(α14,β14,γ14)};第3帧:{头部:位置(x15,y15,z15),旋转角度:(α15,β15,γ15);脊椎部位:位置(x16,y16,z16),旋转角度:(α16,β16,γ16)……右脚:位置(x21,y21,z21),旋转角度:(α21,β21,γ21)}替换为目标部位位姿数据,得到更新的预测动作序列/>
接收用户输入的骨骼指定部位的目标部位位姿数据;将预测动作序列中各帧骨骼指定部位的位姿数据替换为目标部位位姿数据,得到更新的预测动作序列。实现了在推理生成的过程中对最细粒度上直接对骨骼指定部位进行替换,增强了生成的目标动作序列的针对性。
可选地,在将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列之前,还包括:
获取样本动作序列;
对样本动作序列进行多次加噪处理,获得多个样本噪声序列;
将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;
基于预测动作序列和样本动作序列,计算损失值;
基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
样本动作序列为预先构建的虚拟对象的肢体关键点的特征参数的样本时间序列。样本动作序列可以为直接构建的,也可以为从视频片段中进行提取得到的,在此不作限定。
待训练动作生成模型的解码器与上述说明书实施例中的动作生成模型的解码器保持一致,在此不再赘述。
需要说明的是,样本噪声序列可以为对样本动作序列添加高斯噪声、瑞利噪声、伽马噪声、均匀分布噪声、指数分布噪声和脉冲噪声中的至少一种后得到噪声序列,在此不作限定。
训练停止条件为预先设定的迭代训练停止条件,可以为预设迭代训练次数,也可以预设损失值阈值。
基于预测动作序列和样本动作序列,计算损失值,具体方式为,基于预测动作序列和样本动作序列,利用损失值计算公式,计算得到损失值。更进一步地,损失值计算公式可以为交叉熵损失(CrossLoss)计算公式或者评价损失(DiceLoss)计算公式,损失值对应为交叉熵损失或者评价损失。
基于损失值调整解码器的模型参数,具体方式为,利用梯度更新法,根据损失值,调整解码器的模型参数。
示例性地,获取样本动作序列Y0,对样本动作序列Y0进行T次加噪处理,获得多个样本噪声序列Y1……YT,将多个样本噪声序列中的第一样本噪声序列Yt输入DDPM模型的解码器,经解码器对第一样本噪声序列Yt进行动作预测,获得预测动作序列基于预测动作序列/>和样本动作序列Y0,利用交叉熵损失值计算公式,计算得到交叉熵损失值,利用梯度更新法,根据交叉熵损失值,调整DDPM模型的解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列Yτ输入DDPM模型的解码器,经DDPM模型的解码器对第一样本噪声序列Yτ进行动作预测,获得预测动作序列/>的步骤,直至达到预设迭代次数T,获得训练后的DDPM模型。
获取样本动作序列;对样本动作序列进行多次加噪处理,获得多个样本噪声序列;将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;基于预测动作序列和样本动作序列,计算损失值;基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
可选地,在将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器之前,还包括如下具体步骤:
获取多个样本引导信号;
将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对第一样本引导信号进行特征编码,得到第一引导特征向量,其中,第一样本引导信号为多个样本引导信号中的任一个;
对应地,将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得第一预测动作序列,包括如下具体步骤:
将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器基于第一引导特征向量,对第一样本噪声序列进行动作预测,获得预测动作序列;
对应地,在基于第一预测动作序列和样本动作序列,计算损失值之后,还包括如下具体步骤:
基于损失值调整编码器的模型参数,并返回执行将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经编码器对第一样本引导信号进行特征编码,得到第一引导特征向量将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对第一样本引导信号进行特征编码,得到第一引导特征向量的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
样本引导信号为预先构建的样本动作对应的引导信号,包括文本格式的样本引导文本、音频格式的样本引导音频和图像格式的样本引导图像等多模态信息。
待训练动作生成模型的编码器与上述说明书实施例中的动作生成模型的编码器保持一致,在此不再赘述。
训练停止条件为预先设定的迭代训练停止条件,可以为预设迭代训练次数,也可以预设损失值阈值。
将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器基于第一引导特征向量,对第一样本噪声序列进行动作预测,获得预测动作序列,具体方式为,将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器基于第一引导特征向量,利用多头注意力机制,对第一样本噪声序列进行动作预测,获得预测动作序列。
基于损失值调整编码器的模型参数,具体方式为,利用梯度更新法,根据损失值,调整编码器的模型参数。
示例性地,获取多个样本引导信号Zn,将多个样本噪声序列Zn中的第一样本噪声序列Z1输入DDPM模型的编码器,经DDPM模型的编码器基于第一引导特征向量Z1,利用多头注意力机制,对第一样本噪声序列Z1进行动作预测,获得预测动作序列基于预测动作序列/>和样本动作序列Y0,利用交叉熵损失值计算公式,计算得到交叉熵损失值,利用梯度更新法,根据交叉熵损失值,调整DDPM模型的编码器的模型参数,并返回执行将多个样本引导信号中的第一样本引导信号Zτ输入DDPM模型的编码器,经DDPM模型的编码器对第一样本引导信号Zτ进行特征编码,得到第一引导特征向量/>的步骤,直至达到预设迭代次数T,获得训练后的DDPM模型。
获取多个样本引导信号;将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对第一样本引导信号进行特征编码,得到第一引导特征向量,其中,第一样本引导信号为多个样本引导信号中的任一个;将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器基于第一引导特征向量,对第一样本噪声序列进行动作预测,获得预测动作序列;基于损失值调整编码器的模型参数,并返回执行将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经编码器对第一样本引导信号进行特征编码,得到第一引导特征向量将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对第一样本引导信号进行特征编码,得到第一引导特征向量的步骤,直至达到训练停止条件,获得训练后的动作生成模型。通过对编码器进行迭代预训练,保证了编码器的编码性能,提升了编码得到第一引导特征向量的准确度,保证了后续根据指定引导信号生成更具针对性和丰富性的目标动作序列。
可选地,在获得训练后的动作生成模型之后,还包括如下具体步骤:
接收用户输入的指定动作序列;
对指定动作序列进行拆分,得到多个动作子序列;
对多个动作子序列中的第一动作子序列进行多次加噪处理;
基于加噪处理后的第一动作子序列和多个动作子序列中的第二动作子序列,构建目标噪声序列;
将目标噪声序列输入动作生成模型的解码器,经解码器对目标噪声序列进行动作预测,获得第二预测动作序列;
基于第二预测动作序列和指定动作序列,计算损失值;
基于损失值调整解码器的模型参数。
指定动作序列为虚拟对象的肢体关键点的指定特征参数的时间序列。指定动作序列根据时间可以划分为多个动作子序列,任一动作子序列包括至少一个动作帧。第一动作子序列和第二动作子序列为对指定动作序列拆分得到,其中,第一动作子序列包括在模型微调过程中用户不太关系的动作帧,第二动作子序列包括的是用户特定的参考动作帧,例如是指定动作序列的开始阶段和/或结束阶段的子序列。
对指定动作序列进行拆分,得到多个动作子序列,具体方式为,对指定动作序列进行时间拆分,得到多个动作子序列。
基于加噪处理后的第一动作子序列和第二动作子序列,构建目标噪声序列,具体方式为,对加噪处理后的第一动作子序列和第二动作子序列按时间进行拼接,构建目标噪声序列。
将目标噪声序列输入动作生成模型的解码器,经解码器对目标噪声序列进行动作预测,获得第二预测动作序列,具体方式为,将目标噪声序列输入动作生成模型的解码器,利用多头注意力机制,经解码器对目标噪声序列进行动作预测,获得第二预测动作序列。
示例性地,接收用户输入的指定动作序列W0;对指定动作序列W0进行时间拆分,得到20个动作子序列w0-w20;对20个动作子序列中的第一动作子序列wn进行多次加噪处理;对加噪处理后的第一动作子序列wn’和第二动作子序列wm进行时间拼接,构建目标噪声序列wn”;将目标噪声序列wn”输入DDPM模型的解码器,经解码器对目标噪声序列wn”进行动作预测,获得第二预测动作序列wn”’;基于第二预测动作序列wn”’和指定动作序列W0,计算交叉熵损失值,利用梯度更新法,基于交叉熵损失值调整DDPM模型的解码器的模型参数。
接收用户输入的指定动作序列;对指定动作序列进行拆分,得到多个动作子序列;对多个动作子序列中的第一动作子序列进行多次加噪处理;基于加噪处理后的第一动作子序列和第二动作子序列,构建目标噪声序列;将目标噪声序列输入动作生成模型的解码器,经解码器对目标噪声序列进行动作预测,获得第二预测动作序列;基于第二预测动作序列和指定动作序列,计算损失值;基于损失值调整解码器的模型参数。提升了模型对于动作序列的补全功能,提升了动作生成的适应度,提升了得到的目标动作序列的准确度。
参见图2,图2示出了本说明书一个实施例提供的一种虚拟人物动画生成方法的流程图,具体包括如下步骤。
步骤202:接收前端发送的虚拟人物动画生成请求,其中,虚拟人物动画生成请求携带噪声序列;
步骤204:将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本人体肢体动作序列进行加噪得到;
步骤206:基于人体肢体动作序列,生成虚拟人物动画发送至前端,以在前端显示虚拟人物动画。
前端为具有动画显示功能和数据交互功能的应用前端。
步骤204已经在上述图1实施例中详细说明,在此不再赘述。
基于人体肢体动作序列,生成虚拟人物动画,具体方式为,基于人体肢体动作序列,按照目标动作序列的时间顺序,控制预先生成的虚拟人物模型进行对应运动,生成虚拟人物动画。预设的虚拟人物模型为利用人物建模应用预先生成的,例如,人物网格模型。
本说明书实施例中,接收前端发送的虚拟人物动画生成请求,其中,虚拟人物动画生成请求携带噪声序列;将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本人体肢体动作序列进行加噪得到;基于人体肢体动作序列,生成虚拟人物动画发送至前端,以在前端显示虚拟人物动画。将随机采样得到的噪声序列输入动作生成模型,重复进行去噪并进行下一次迭代,通过多次迭代解码得到目标动作序列,这样的推理生成方法可以从零生成动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练和动作生成,不与样本产生强关联,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列,进而生成更具针对性和丰富性的虚拟人物动画,提升了用户体验。
可选地,在步骤204之前,还包括如下具体步骤:
接收用户发送的指定引导信号,其中,指定引导信号包括指定引导文本和/或指定引导音频;
对应地,步骤204包括如下具体步骤:
将指定引导信号和噪声序列输入动作生成模型,经动作生成模型中的编码器获得指定引导信号对应的引导特征向量,经动作生成模型中解码器对引导特征向量和噪声序列的多次迭代解码,得到人体肢体动作序列。
指定引导文本为目标动作对应的引导文本,指定引导音频为目标动作对应的引导音频。指定引导文本和指定引导音频可以为预先获取后发送的,也可以为用户直接输入并发送的,在此不作限定。
将指定引导信号和噪声序列输入动作生成模型,经动作生成模型中的编码器获得指定引导信号对应的引导特征向量,经动作生成模型中解码器对引导特征向量和噪声序列的多次迭代解码,得到人体肢体动作序列,具体方式为,将指定引导信号输入动作生成模型的编码器,对指定引导信号进行特征编码,得到引导特征向量,将噪声序列输入动作生成模型的解码器,经动作生成模型中解码器利用多头注意力机制,对噪声序列和引导特征向量进行多次迭代解码,得到人体肢体动作序列。
示例性地,将指定引导文本Text和指定引导音频Audio输入DDPM模型的编码器,对指定引导文本Text和指定引导音频Audio进行特征编码,得到引导特征向量Embedding,将噪声序列XT输入DDPM模型的解码器,DDPM模型的解码器利用多头注意力机制对噪声序列XT和引导特征向量Embedding进行多次迭代解码,得到人体肢体动作序列M0。
接收用户发送的指定引导信号,其中,指定引导信号包括指定引导文本和/或指定引导音频;将指定引导信号和噪声序列输入动作生成模型,经动作生成模型中的编码器获得指定引导信号对应的引导特征向量,经动作生成模型中解码器对引导特征向量和噪声序列的多次迭代解码,得到人体肢体动作序列。利用编码器对指定引导信号进行编码,引入了多模态的指定引导特征,来引导解码器多次迭代解码,得到人体肢体动作序列,使得推理生成过程中加入了指定生成对应人体肢体动作序列的功能,提升了人体肢体动作序列的针对性,同时,使得动作生成过程更具丰富性,得到更丰富的人体肢体动作序列,得到更丰富。
可选地,在步骤204之后,还包括如下具体步骤:
获取当前场景的场景信息;
根据场景信息,利用动作生成模型,对人体肢体动作序列进行调整,得到调整后的人体肢体动作序列。
场景信息为虚拟人物动画中的动画场景信息,包括场景人物信息、场景动物信息、场景地理信息、场景渲染信息、场景声音信息、场景氛围信息等。
根据场景信息,利用动作生成模型,对人体肢体动作序列进行调整,得到调整后的人体肢体动作序列,具体方式为,对人体肢体动作序列进行加噪处理,将场景信息和加噪后的人体肢体动作序列输入动作生成模型,经动作生成模型的编码器获的场景信息对应的引导特征向量,经动作生成模型中解码器对引导特征向量和加噪后的人体肢体动作序列进行多次迭代解码,得到调整后的人体肢体动作序列,更进一步地,将场景信息输入动作生成模型的编码器,对场景信息进行特征编码,得到引导特征向量,将加噪后的人体肢体动作序列输入动作生成模型的解码器,经动作生成模型中解码器利用多头注意力机制,对加噪后的人体肢体动作序列和引导特征向量进行多次迭代解码,得到调整后的人体肢体动作序列。需要说明的是,相比于噪声序列,对人体肢体动作序列添加的噪声强度较低,保证基于人体肢体动作序列可以实现动作生成且不会过度失真。
示例性地,获取当前游戏场景的场景信息SceneInfo,对虚拟游戏角色对应的人体肢体动作序列进行加噪处理,将场景信息SceneInfo输入DDPM模型的编码器,对场景信息SceneInfo进行特征编码,获得对应的引导特征向量Embedding_SceneInfo,将加噪后的人体肢体动作序列M0’输入DDPM模型的解码器,基于利用多头注意力机制,对场景信息对应的引导特征向量Embedding_SceneInfo和加噪后的人体肢体动作序列M0’,进行多次迭代解码,得到调整后的人体肢体动作序列M0”,基于调整后的人体肢体动作序列M0”,生成虚拟游戏角色的游戏动画。
获取当前场景的场景信息;根据场景信息,利用动作生成模型,对人体肢体动作序列进行调整,得到调整后的人体肢体动作序列。在获取到当前场景的场景信息后,利用动作生成模型再进行推理,使得人体肢体动作序列可以根据场景信息进行自适应调整,提升了人体肢体动作序列与当前场景之间的关联性,提升了虚拟人物动画与当前场景之间的关联性,提升了虚拟人物动画的准确度,提升了用户体验。
参见图3,图3示出了本说明书一个实施例提供的一种动作生成模型的数据处理方法的流程图,应用于云侧设备,具体包括如下步骤。
步骤302:获取样本动作序列。
步骤304:对样本动作序列进行多次加噪处理,获得多个样本噪声序列。
步骤306:将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个。
步骤308:基于预测动作序列和样本动作序列,计算损失值。
步骤310:基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;
步骤312:将动作生成模型的模型参数发送至端侧设备。
步骤302至步骤310已经在上述图1实施例中详细说明,在此不再赘述。
云侧设备为提供模型训练功能的网络云侧设备,为一种虚拟设备。端侧设备为具有数据存储和模型执行的终端设备,可以为具有动作生成功能的软件的客户端,也可以为具有动作生成功能的软件的服务端。
本说明书实施例中,获取样本动作序列;对样本动作序列进行多次加噪处理,获得多个样本噪声序列;将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;基于预测动作序列和样本动作序列,计算损失值;基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;将动作生成模型的模型参数发送至端侧设备。将加噪后的样本噪声序列输入动作生成模型,重复进行加噪并进行下一次迭代,通过多次迭代解码来对解码器进行迭代预训练,这样的推理预训练得到的动作生成模型不依赖于具体动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练,不与样本产生强关联,在满足了效率和成本要求的同时,保证了后续可以生成更具针对性和丰富性的目标动作序列。
下述结合附图4,以本说明书提供的虚拟人物动画生成方法在动画电影制作的应用为例,对所述虚拟人物动画生成方法进行进一步说明。其中,图4示出了本说明书一个实施例提供的一种应用于动画电影制作的虚拟人物动画生成方法的处理过程流程图,具体包括如下步骤。
步骤402:获取样本动作序列;
步骤404:对样本动作序列进行多次加噪处理,获得多个样本噪声序列;
步骤406:将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得第一预测动作序列;
步骤408:基于第一预测动作序列和样本动作序列,计算损失值;
步骤410:基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器的步骤,直至达到训练停止条件,获得训练后的动作生成模型;
步骤412:获取随机采样得到的噪声序列;
步骤414:将本次迭代输入的噪声序列输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列进行归一化处理,获得骨骼特征序列;
步骤416:将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列;
步骤418:将骨骼注意力特征序列输入第二骨骼自适应层,经第二骨骼自适应层对骨骼注意力特征序列进行骨骼还原,得到预测动作序列;
步骤420:对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列;
步骤422:经动作生成模型中解码器的多次迭代解码,得到目标动作序列;
步骤424:基于目标动作序列,控制预先生成的三维虚拟人物模型进行对应运动,生成虚拟人物动画电影片段。
本说明书实施例中,将随机采样得到的噪声序列输入动作生成模型,重复进行去噪并进行下一次迭代,通过多次迭代解码得到目标动作序列,这样的推理生成方法可以从零生成动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练和动作生成,不与样本产生强关联,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列,进而实现对动画电影中的三维虚拟人物模型更具针对性和丰富性的驱动控制,得到了更灵活准确的虚拟人物动画电影片段,提升了用户体验。
参见图5,图5示出了本说明书一个实施例提供的一种动作生成方法的数据处理示意图。
如图5所示,数据处理过程包括降噪过程和扩散过程。以降噪过程为例,将噪声序列输入动作生成模型的解码器,解码得到第1次迭代的噪声序列X(T-1),多次迭代解码后得到最后1次迭代的噪声序列X1,将最后1次迭代的噪声序列X1输入动作生成模型的解码器,解码得到目标动作序列X0。对于多次迭代解码过程中,任意一次,基于当前迭代的噪声序列Xt,进行动作预测,得到预测动作序列xT,基于当前迭代的噪声序列Xt和预测动作序列xT,进行分析,得到下一次迭代的噪声序列X(t-1)。扩散过程与降噪过程同理,在此不再赘述。
参见图6,图6示出了本说明书一个实施例提供的一种动作生成方法中动作生成模型的结构示意图。
如图6所示,将噪声序列输入解码器,将指定引导信号输入编码器。解码器的第一骨骼自适应层对噪声序列进行归一化处理,再经过前馈模块后,分别与噪声强度特征序列和位置特征序列相加,得到更新后的骨骼特征向量,基于骨骼特征向量设置查询特征Q、键特征K和值特征V,利用多头注意力层对查询特征Q、键特征K和值特征V进行多头注意力计算,得到骨骼注意力特征向量。编码器的嵌入模块对指定引导信号进行嵌入编码后,与位置特征序列相加,输入多头注意力层进行多头注意力计算,得到引导特征向量。将骨骼注意力特征向量设置为查询特征Q,将引导特征向量作为键特征K和值特征V,输入下一多头注意力层后,再经过前馈模块,与骨骼注意力特征向量在特征相加模块进行特征相加后,再经过前馈模块输入值第二骨骼自适应层,输出预测动作序列。
参见图7,图7示出了本说明书一个实施例提供的一种动作生成方法中骨骼自适应模块的数据处理示意图。
如图7所示,对特征点旋转角度参数(R0、R1、R2、R3、R4、R5)进行正向运动学计算,得到特征点位置参数(P0、P1、P2、P3、P4、P5),对特征点旋转参数进行矩阵乘法,得到可训练旋转补偿,进而确定特征点旋转角度参数(R0、R1’、R2’、R3’、R4’、R5’),根据旋转不变性(核心特征点在XZ平面上的速度、核心特征点在坐标轴Y上的角速度和核心特征点在XZ平面上的相对高度)得到修正后的特征点位置参数(P0、P1’、P2’、P3’、P4’、P5’),将特征点旋转角度参数和修正后的特征点位置参数分别输入骨骼自适应层的置换模组和增删模组,得到转换后的特征点旋转角度参数(R0、R1”、R2”、R3”……、R9”)和特征点位置参数(P0、P1”、P2”、P3”……P9”)。
参见图8,图8示出了本说明书一个实施例提供的一种虚拟人物动画生成方法的显示示意图。
如图8所示,通过基于目标动作序列,控制预设三维虚拟人物肢体进行跑步、行走和直立动作。
需要说明的是,上述方法实施例中所涉及的噪声序列、样本动作序列、指定引导信号等信息和数据,均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
与上述方法实施例相对应,本说明书还提供了动作生成装置实施例,图9示出了本说明书一个实施例提供的一种动作生成装置的结构示意图。如图9所示,该装置包括:
第一获取模块902,被配置为获取随机采样得到的噪声序列;
第一生成模块904,被配置为将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。
可选地,第一生成模块904被进一步配置为:
基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列;对预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列。
可选地,解码器包括第一骨骼自适应层、多头注意力层和第二骨骼自适应层;
对应地,第一生成模块904被进一步配置为:
将本次迭代输入的噪声序列输入第一骨骼自适应层,经第一骨骼自适应层对噪声序列进行归一化处理,获得骨骼特征序列;将骨骼特征序列输入多头注意力层,经多头注意力层对骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列;将骨骼注意力特征序列输入第二骨骼自适应层,经第二骨骼自适应层对骨骼注意力特征序列进行骨骼还原,得到预测动作序列。
可选地,该装置还包括:
第一更新模块,被配置为获得预设的噪声强度特征序列;将骨骼特征序列与噪声强度特征序列相加,获得更新的骨骼特征序列。
可选地,动作生成模型还包括编码器;
对应地,该装置还包括:
第一编码模块,被配置为获取指定引导信号;将指定引导信号输入编码器,经编码器对指定引导信号进行特征编码,得到引导特征向量;
对应地,第一生成模块904被进一步配置为:
将骨骼特征序列和引导特征向量输入多头注意力层,经多头注意力层对骨骼特征序列和引导特征向量进行多头注意力计算,得到骨骼注意力特征序列。
可选地,该装置还包括:
第二更新模块,被配置为接收用户输入的指定帧的目标骨骼位姿数据;将预测动作序列中指定帧的骨骼位姿数据替换为目标骨骼位姿数据,得到更新的预测动作序列。
可选地,该装置还包括:
第三更新模块,被配置为接收用户输入的骨骼指定部位的目标部位位姿数据;将预测动作序列中各帧骨骼指定部位的位姿数据替换为目标部位位姿数据,得到更新的预测动作序列。
可选地,该装置还包括:
第一预训练模块,被配置为获取样本动作序列;对样本动作序列进行多次加噪处理,获得多个样本噪声序列;将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;基于预测动作序列和样本动作序列,计算损失值;基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
可选地,该装置还包括:
第二编码模块,被配置为获取多个样本引导信号;将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对第一样本引导信号进行特征编码,得到第一引导特征向量,其中,第一样本引导信号为多个样本引导信号中的任一个;
对应地,第一预训练模块被进一步配置为:
将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器基于第一引导特征向量,对第一样本噪声序列进行动作预测,获得预测动作序列;
对应地,该装置还包括:
第二预训练模块,被配置为基于损失值调整编码器的模型参数,并返回执行将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经编码器对第一样本引导信号进行特征编码,得到第一引导特征向量将多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对第一样本引导信号进行特征编码,得到第一引导特征向量的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
可选地,该装置还包括:
微调模块,被配置为接收用户输入的指定动作序列;对指定动作序列进行拆分,得到多个动作子序列;对多个动作子序列中的第一动作子序列进行多次加噪处理;基于加噪处理后的第一动作子序列和多个动作子序列中的第二动作子序列,构建目标噪声序列;将目标噪声序列输入动作生成模型的解码器,经解码器对目标噪声序列进行动作预测,获得第二预测动作序列;基于第二预测动作序列和指定动作序列,计算损失值;基于损失值调整解码器的模型参数。
本说明书实施例中,获取随机采样得到的噪声序列;将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本动作序列进行加噪得到。将随机采样得到的噪声序列输入动作生成模型,重复进行去噪并进行下一次迭代,通过多次迭代解码得到目标动作序列,这样的推理生成方法可以从零生成动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练和动作生成,不与样本产生强关联,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列。
上述为本实施例的一种动作生成装置的示意性方案。需要说明的是,该动作生成装置的技术方案与上述的动作生成方法的技术方案属于同一构思,动作生成装置的技术方案未详细描述的细节内容,均可以参见上述动作生成方法的技术方案的描述。
与上述方法实施例相对应,本说明书还提供了虚拟人物动画生成装置实施例,图10示出了本说明书一个实施例提供的一种虚拟人物动画生成装置的结构示意图。如图10所示,该装置包括:
接收模块1002,被配置为接收前端发送的虚拟人物动画生成请求,其中,虚拟人物动画生成请求携带噪声序列;
第二生成模块1004,被配置为将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本人体肢体动作序列进行加噪得到;
第三生成模块1006,被配置为基于人体肢体动作序列,生成虚拟人物动画发送至前端,以在前端显示虚拟人物动画。
可选地,该装置还包括:
接收模块,被配置为接收用户发送的指定引导信号,其中,指定引导信号包括指定引导文本和/或指定引导音频;对应地,第二生成模块1004被进一步配置为:
将指定引导信号和噪声序列输入动作生成模型,经动作生成模型中的编码器获得指定引导信号对应的引导特征向量,经动作生成模型中解码器对引导特征向量和噪声序列的多次迭代解码,得到人体肢体动作序列。
可选地,该装置还包括:
调整模块,被配置为获取当前场景的场景信息;根据场景信息,利用动作生成模型,对人体肢体动作序列进行调整,得到调整后的人体肢体动作序列。
本说明书实施例中,接收前端发送的虚拟人物动画生成请求,其中,虚拟人物动画生成请求携带噪声序列;将噪声序列输入动作生成模型,经动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,动作生成模型基于样本噪声序列训练得到,样本噪声序列为对样本人体肢体动作序列进行加噪得到;基于人体肢体动作序列,生成虚拟人物动画发送至前端,以在前端显示虚拟人物动画。将随机采样得到的噪声序列输入动作生成模型,重复进行去噪并进行下一次迭代,通过多次迭代解码得到目标动作序列,这样的推理生成方法可以从零生成动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练和动作生成,不与样本产生强关联,在满足了效率和成本要求的同时,可以生成更具针对性和丰富性的目标动作序列,进而生成更具针对性和丰富性的虚拟人物动画,提升了用户体验。
上述为本实施例的一种虚拟人物动画生成装置的示意性方案。需要说明的是,该虚拟人物动画生成装置的技术方案与上述的虚拟人物动画生成方法的技术方案属于同一构思,虚拟人物动画生成装置的技术方案未详细描述的细节内容,均可以参见上述虚拟人物动画生成方法的技术方案的描述。
与上述方法实施例相对应,本说明书还提供了动作生成模型的数据处理装置实施例,图11示出了本说明书一个实施例提供的一种动作生成模型的数据处理装置的结构示意图。如图11所示,该装置包括:
第二获取模块1102,被配置为获取样本动作序列;
加噪模块1104,被配置为对样本动作序列进行多次加噪处理,获得多个样本噪声序列;
第四生成模块1106,被配置为将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;
计算模块1108,被配置为基于预测动作序列和样本动作序列,计算损失值;
训练模块1110,被配置为基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;
发送模块1112,被配置为将动作生成模型的模型参数发送至端侧设备。
本说明书实施例中,获取样本动作序列;对样本动作序列进行多次加噪处理,获得多个样本噪声序列;将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列,其中,第一样本噪声序列为多个样本噪声序列中的任一个;基于预测动作序列和样本动作序列,计算损失值;基于损失值调整解码器的模型参数,并返回执行将多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经解码器对第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;将动作生成模型的模型参数发送至端侧设备。将加噪后的样本噪声序列输入动作生成模型,重复进行加噪并进行下一次迭代,通过多次迭代解码来对解码器进行迭代预训练,这样的推理预训练得到的动作生成模型不依赖于具体动作序列,无需基于给定的动作帧来进行动作补全,由于使用噪声进行预训练,不与样本产生强关联,在满足了效率和成本要求的同时,保证了后续可以生成更具针对性和丰富性的目标动作序列。
上述为本实施例的一种动作生成模型的数据处理装置的示意性方案。需要说明的是,该动作生成模型的数据处理装置的技术方案与上述的动作生成模型的数据处理方法的技术方案属于同一构思,动作生成模型的数据处理装置的技术方案未详细描述的细节内容,均可以参见上述动作生成模型的数据处理方法的技术方案的描述。
图12示出了本说明书一个实施例提供的一种计算设备1200的结构框图。该计算设备1200的部件包括但不限于存储器1210和处理器1220。处理器1220与存储器1210通过总线1230相连接,数据库1250用于保存数据。
计算设备1200还包括接入设备1240,接入设备1240使得计算设备1200能够经由一个或多个网络1260通信。这些网络的示例包括PSTN(Public Switched TelephoneNetwork,公用交换电话网)、LAN(Local Area Network,局域网)、WAN(Wide Area Network,广域网)、PAN(Personal Area Network,个域网)或诸如因特网的通信网络的组合。接入设备1240可以包括有线或无线的任何类型的网络接口(例如,NIC(Network InterfaceController,网络接口卡))中的一个或多个,诸如IEEE802.12WLAN(Wireless Local AreaNetworks,无线局域网)无线接口、Wi-MAX(World Interoperability for MicrowaveAccess,全球微波互联接入)接口、以太网接口、USB(Universal Serial Bus,通用串行总线)接口、蜂窝网络接口、蓝牙接口、NFC(Near Field Communication,近场通信)接口,等等。
在本说明书的一个实施例中,计算设备1200的上述部件以及图12中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图12所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备1200可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备1200还可以是移动式或静止式的服务器。
其中,处理器1220用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的动作生成方法、虚拟人物动画生成方法和动作生成模型的数据处理方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的动作生成方法、虚拟人物动画生成方法和动作生成模型的数据处理方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的技术方案的描述。
本说明书一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述的动作生成方法、虚拟人物动画生成方法和动作生成模型的数据处理方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述动作生成方法、虚拟人物动画生成方法或者动作生成模型的数据处理方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书实施例并不受所描述的动作顺序的限制,因为依据本说明书实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书实施例的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。
Claims (16)
1.一种动作生成方法,包括:
获取随机采样得到的噪声序列;
将所述噪声序列输入动作生成模型,经所述动作生成模型中解码器的多次迭代解码,得到目标动作序列,其中,所述迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出目标动作序列,所述动作生成模型基于样本噪声序列训练得到,所述样本噪声序列为对样本动作序列进行加噪得到。
2.根据权利要求1所述的方法,所述对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,包括:
基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列;
对所述预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列。
3.根据权利要求2所述的方法,所述解码器包括第一骨骼自适应层、多头注意力层和第二骨骼自适应层;
所述基于本次迭代输入的噪声序列进行动作预测,获得预测动作序列,包括:
将本次迭代输入的噪声序列输入所述第一骨骼自适应层,经所述第一骨骼自适应层对所述噪声序列进行归一化处理,获得骨骼特征序列;
将所述骨骼特征序列输入所述多头注意力层,经所述多头注意力层对所述骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列;
将所述骨骼注意力特征序列输入所述第二骨骼自适应层,经所述第二骨骼自适应层对所述骨骼注意力特征序列进行骨骼还原,得到预测动作序列。
4.根据权利要求3所述的方法,在所述将所述骨骼特征序列输入所述多头注意力层,经所述多头注意力层对所述骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列之前,还包括:
获得预设的噪声强度特征序列;
将所述骨骼特征序列与所述噪声强度特征序列相加,获得更新的所述骨骼特征序列。
5.根据权利要求3所述的方法,所述动作生成模型还包括编码器;
在所述将所述骨骼特征序列输入所述多头注意力层,经所述多头注意力层对所述骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列之前,还包括:
获取指定引导信号;
将所述指定引导信号输入所述编码器,经所述编码器对所述指定引导信号进行特征编码,得到引导特征向量;
所述将所述骨骼特征序列输入所述多头注意力层,经所述多头注意力层对所述骨骼特征序列进行多头注意力计算,得到骨骼注意力特征序列,包括:
将所述骨骼特征序列和所述引导特征向量输入所述多头注意力层,经所述多头注意力层对所述骨骼特征序列和所述引导特征向量进行多头注意力计算,得到骨骼注意力特征序列。
6.根据权利要求2所述的方法,在所述对所述预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列之前,还包括:
接收用户输入的指定帧的目标骨骼位姿数据;
将所述预测动作序列中所述指定帧的骨骼位姿数据替换为所述目标骨骼位姿数据,得到更新的所述预测动作序列。
7.根据权利要求2所述的方法,在所述对所述预测动作序列和本次迭代输入的噪声序列进行分析,获得下一次迭代输入的噪声序列之前,还包括:
接收用户输入的骨骼指定部位的目标部位位姿数据;
将所述预测动作序列中各帧骨骼指定部位的位姿数据替换为所述目标部位位姿数据,得到更新的所述预测动作序列。
8.根据权利要求1-7中任一项所述的方法,在所述将所述噪声序列输入动作生成模型,经所述动作生成模型中解码器的多次迭代解码,得到目标动作序列之前,还包括:
获取样本动作序列;
对所述样本动作序列进行多次加噪处理,获得多个样本噪声序列;
将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经所述解码器对所述第一样本噪声序列进行动作预测,获得第一预测动作序列,其中,所述第一样本噪声序列为所述多个样本噪声序列中的任一个;
基于所述第一预测动作序列和所述样本动作序列,计算损失值;
基于所述损失值调整所述解码器的模型参数,并返回执行所述将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经所述解码器对所述第一样本噪声序列进行动作预测,获得第一预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
9.根据权利要求8所述的方法,在所述将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器之前,还包括:
获取多个样本引导信号;
将所述多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过所述编码器对所述第一样本引导信号进行特征编码,得到第一引导特征向量,其中,所述第一样本引导信号为所述多个样本引导信号中的任一个;
将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经所述解码器对所述第一样本噪声序列进行动作预测,获得第一预测动作序列,包括:
将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经所述解码器基于所述第一引导特征向量,对所述第一样本噪声序列进行动作预测,获得预测动作序列;
在所述基于所述第一预测动作序列和所述样本动作序列,计算损失值之后,还包括:
基于所述损失值调整所述编码器的模型参数,并返回执行所述将所述多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经所述编码器对所述第一样本引导信号进行特征编码,得到第一引导特征向量将所述多个样本引导信号中的第一样本引导信号输入待训练动作生成模型的编码器,经过数编码器对所述第一样本引导信号进行特征编码,得到第一引导特征向量的步骤,直至达到训练停止条件,获得训练后的动作生成模型。
10.根据权利要求8所述的方法,在所述获得训练后的动作生成模型之后,还包括:
接收用户输入的指定动作序列;
对所述指定动作序列进行拆分,得到多个动作子序列;
对所述多个动作子序列中的第一动作子序列进行多次加噪处理;
基于加噪处理后的所述第一动作子序列和所述多个动作子序列中的第二动作子序列,构建目标噪声序列;
将所述目标噪声序列输入所述动作生成模型的解码器,经所述解码器对所述目标噪声序列进行动作预测,获得第二预测动作序列;
基于所述第二预测动作序列和所述指定动作序列,计算损失值;
基于所述损失值调整所述解码器的模型参数。
11.一种虚拟人物动画生成方法,包括:
接收前端发送的虚拟人物动画生成请求,其中,所述虚拟人物动画生成请求携带噪声序列;
将所述噪声序列输入动作生成模型,经所述动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,其中,所述迭代解码包括对本次迭代输入的噪声序列进行去噪处理获得下一次迭代输入的噪声序列,直至最后一次迭代输出人体肢体动作序列,所述动作生成模型基于样本噪声序列训练得到,所述样本噪声序列为对样本人体肢体动作序列进行加噪得到;
基于所述人体肢体动作序列,生成虚拟人物动画发送至所述前端,以在所述前端显示所述虚拟人物动画。
12.根据权利要求11所述的方法,在所述将所述噪声序列输入动作生成模型,经所述动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列之前,还包括:
接收用户发送的指定引导信号,其中,所述指定引导信号包括指定引导文本和/或指定引导音频;
所述将所述噪声序列输入动作生成模型,经所述动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列,包括:
将所述指定引导信号和所述噪声序列输入动作生成模型,经所述动作生成模型中的编码器获得所述指定引导信号对应的引导特征向量,经所述动作生成模型中解码器对所述引导特征向量和所述噪声序列的多次迭代解码,得到人体肢体动作序列。
13.根据权利要求11或12所述的方法,在所述将所述噪声序列输入动作生成模型,经所述动作生成模型中解码器的多次迭代解码,得到人体肢体动作序列之后,还包括:
获取当前场景的场景信息;
根据所述场景信息,利用所述动作生成模型,对所述人体肢体动作序列进行调整,得到调整后的人体肢体动作序列。
14.一种动作生成模型的数据处理方法,应用于云侧设备,包括:
获取样本动作序列;
对所述样本动作序列进行多次加噪处理,获得多个样本噪声序列;
将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经所述解码器对所述第一样本噪声序列进行动作预测,获得预测动作序列,其中,所述第一样本噪声序列为所述多个样本噪声序列中的任一个;
基于所述预测动作序列和所述样本动作序列,计算损失值;
基于所述损失值调整所述解码器的模型参数,并返回执行所述将所述多个样本噪声序列中的第一样本噪声序列输入待训练动作生成模型的解码器,经所述解码器对所述第一样本噪声序列进行动作预测,获得预测动作序列的步骤,直至达到训练停止条件,获得训练后的动作生成模型;将所述动作生成模型的模型参数发送至端侧设备。
15.一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至10任意一项所述动作生成方法、权利要求11至13任意一项所述虚拟人物动画生成方法或者权利要求14所述动作生成模型的数据处理方法的步骤。
16.一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至10任意一项所述动作生成方法、权利要求11至13任意一项所述虚拟人物动画生成方法或者权利要求14所述动作生成模型的数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211538804.8A CN116392812A (zh) | 2022-12-02 | 2022-12-02 | 动作生成方法及虚拟人物动画生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211538804.8A CN116392812A (zh) | 2022-12-02 | 2022-12-02 | 动作生成方法及虚拟人物动画生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116392812A true CN116392812A (zh) | 2023-07-07 |
Family
ID=87011028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211538804.8A Pending CN116392812A (zh) | 2022-12-02 | 2022-12-02 | 动作生成方法及虚拟人物动画生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116392812A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116681810A (zh) * | 2023-08-03 | 2023-09-01 | 腾讯科技(深圳)有限公司 | 虚拟对象动作生成方法、装置、计算机设备和存储介质 |
CN116721186A (zh) * | 2023-08-10 | 2023-09-08 | 北京红棉小冰科技有限公司 | 绘画图像生成方法、装置、电子设备及存储介质 |
CN117115317A (zh) * | 2023-08-10 | 2023-11-24 | 北京百度网讯科技有限公司 | 虚拟形象驱动及模型训练方法、装置、设备和存储介质 |
CN117152208A (zh) * | 2023-09-01 | 2023-12-01 | 北京百度网讯科技有限公司 | 虚拟形象的生成方法、深度学习模型的训练方法及装置 |
CN117831126A (zh) * | 2024-01-02 | 2024-04-05 | 暗物质(北京)智能科技有限公司 | 语音驱动的3d数字人动作生成方法、系统、设备及介质 |
CN117880444A (zh) * | 2024-03-12 | 2024-04-12 | 之江实验室 | 一种长短时特征引导的人体康复运动视频数据生成方法 |
-
2022
- 2022-12-02 CN CN202211538804.8A patent/CN116392812A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116681810A (zh) * | 2023-08-03 | 2023-09-01 | 腾讯科技(深圳)有限公司 | 虚拟对象动作生成方法、装置、计算机设备和存储介质 |
CN116681810B (zh) * | 2023-08-03 | 2023-10-03 | 腾讯科技(深圳)有限公司 | 虚拟对象动作生成方法、装置、计算机设备和存储介质 |
CN116721186A (zh) * | 2023-08-10 | 2023-09-08 | 北京红棉小冰科技有限公司 | 绘画图像生成方法、装置、电子设备及存储介质 |
CN117115317A (zh) * | 2023-08-10 | 2023-11-24 | 北京百度网讯科技有限公司 | 虚拟形象驱动及模型训练方法、装置、设备和存储介质 |
CN116721186B (zh) * | 2023-08-10 | 2023-12-01 | 北京红棉小冰科技有限公司 | 绘画图像生成方法、装置、电子设备及存储介质 |
CN117152208A (zh) * | 2023-09-01 | 2023-12-01 | 北京百度网讯科技有限公司 | 虚拟形象的生成方法、深度学习模型的训练方法及装置 |
CN117831126A (zh) * | 2024-01-02 | 2024-04-05 | 暗物质(北京)智能科技有限公司 | 语音驱动的3d数字人动作生成方法、系统、设备及介质 |
CN117880444A (zh) * | 2024-03-12 | 2024-04-12 | 之江实验室 | 一种长短时特征引导的人体康复运动视频数据生成方法 |
CN117880444B (zh) * | 2024-03-12 | 2024-05-24 | 之江实验室 | 一种长短时特征引导的人体康复运动视频数据生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116392812A (zh) | 动作生成方法及虚拟人物动画生成方法 | |
CN112487182B (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN112789625A (zh) | 承诺信息速率变分自编码器 | |
KR20230003059A (ko) | 2d 이미지로부터 3d 객체 메시의 템플릿 기반 생성 | |
CN113822437B (zh) | 深度分层的变分自动编码器 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN109919221B (zh) | 基于双向双注意力机制图像描述方法 | |
CN115601485B (zh) | 任务处理模型的数据处理方法及虚拟人物动画生成方法 | |
CN111695698B (zh) | 用于模型蒸馏的方法、装置、电子设备及可读存储介质 | |
CN116246213B (zh) | 数据处理方法、装置、设备以及介质 | |
CN115293348A (zh) | 一种多模态特征提取网络的预训练方法及装置 | |
CN116740223A (zh) | 基于文本生成图像的方法 | |
CN116977457A (zh) | 一种数据处理方法、设备以及计算机可读存储介质 | |
CN116737895A (zh) | 一种数据处理方法及相关设备 | |
Sun et al. | MOSO: Decomposing motion, scene and object for video prediction | |
CN113779224A (zh) | 一种基于用户对话历史的个性化对话生成方法与系统 | |
CN117094365A (zh) | 图文生成模型的训练方法、装置、电子设备及介质 | |
CN117541683A (zh) | 图像生成方法、装置、设备及计算机可读存储介质 | |
CN113763232A (zh) | 图像处理方法、装置、设备及计算机可读存储介质 | |
CN116630479A (zh) | 图像生成方法、装置、电子设备及可读存储介质 | |
CN112950501B (zh) | 基于噪声场的图像降噪方法、装置、设备及存储介质 | |
WO2024066549A1 (zh) | 一种数据处理方法及相关设备 | |
CN117853678B (zh) | 基于多源遥感进行地理空间数据三维实体化改造的方法 | |
CN117373455B (zh) | 一种音视频的生成方法、装置、设备及存储介质 | |
AU2022279597B2 (en) | Training rate control neural networks through reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |