CN106952325A - 用于操作三维动画角色的方法和装置 - Google Patents
用于操作三维动画角色的方法和装置 Download PDFInfo
- Publication number
- CN106952325A CN106952325A CN201710188070.8A CN201710188070A CN106952325A CN 106952325 A CN106952325 A CN 106952325A CN 201710188070 A CN201710188070 A CN 201710188070A CN 106952325 A CN106952325 A CN 106952325A
- Authority
- CN
- China
- Prior art keywords
- attentively
- animation
- fragment
- sample
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了用于操作三维动画角色的方法和装置。该方法的一具体实施方式包括:获取三维动画角色的眼睛位置参数、三维动画角色的待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数;将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与机器学习模型相匹配的输入向量并输入至机器学习模型;根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段。该实施方式能自动生成逼真生动的三维动画角色注视动画片段。
Description
技术领域
本申请涉及计算机技术领域,具体涉及动画技术领域,尤其涉及用于操作三维动画角色的方法和装置。
背景技术
注视(gaze)行为是人类行为系统里面一个很重要的组成部分,人类有百分之八十左右的信息是通过视觉获得的。而在模仿人类行为的三维动画角色中,三维动画角色所执行的注视行为一定程度上影响着三维动画角色的表现力。
目前在生成三维动画角色作出注视行为的动画片段时,一般是通过反向动力学的方法调整相关的骨骼,使眼睛的朝向定位到目标位置点。然而,这种方案通常会导致通常僵硬,逼真度较差。
发明内容
本申请的目的在于提出一种改进的用于操作三维动画角色的方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种用于操作三维动画角色的方法,该方法包括:获取三维动画角色的眼睛位置参数、三维动画角色的待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数;将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与机器学习模型相匹配的输入向量并输入至机器学习模型,其中机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系;根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段。
在一些实施例中,机器学习模型是以下任一种:径向基函数神经网络模型、K近邻分类算法模型、超多面体模型。
在一些实施例中,当机器学习模型为径向基函数神经网络模型时,方法还包括径向基函数神经网络模型训练步骤,径向基函数神经网络模型训练步骤包括:针对样本注视动画片段序列中的各个样本注视动画片段,将样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数转换为第一向量,并根据样本注视动画片段在样本注视动画片段序列中的次序生成第二向量,其中,第二向量的维度是样本注视动画片段序列中样本注视动画片段的个数,且第二向量中与样本注视动画片段的次序对应的分量上置1,其它分量置0;将样本注视动画片段对应的第一向量与第二向量分别作为训练径向基函数神经网络模型时所使用的输入向量与输出向量,训练径向基函数神经网络模型。
在一些实施例中,在径向基函数神经网络模型训练步骤之前,上述方法还包括:根据样本注视动画片段中起始动画帧与末尾动画帧的动画数据,生成样本注视动画片段序列中各个样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数中的一项或多项。
在一些实施例中,上述根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数,包括:根据分量值大小从输出向量中的分量中选出多个分量;将多个分量分别在输出向量中的序号所对应的样本注视动画片段确定为融合用样本注视动画片段,并根据多个分量的分量值确定各个融合用样本注视动画片段的融合用融合权重系数;以及,上述按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段,包括:按照融合用融合权重系数,使用各个融合用样本注视动画片段进行融合,得到目标注视动画片段。
在一些实施例中,上述根据分量值大小从输出向量中的分量中选出多个分量,包括以下一项或多项:从输出向量中的分量中选出分量值最大的预设数目个分量;从输出向量中的分量中选出分量值大于第一分量阈值的分量;将输出向量中的分量按分量值从高到低的次序依次添加至所选分量中,直至所选分量的总分量值大于第二分量阈值。
在一些实施例中,上述按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段,包括:按照目标融合权重系数,对各个样本注视动画片段的时间长度进行加权平均;将样本注视动画片段序列中用于融合的样本注视动画片段统一缩放至加权平均所得到的时间长度;按照所确定的目标融合权重系数,对缩放后的样本注视动画片段进行融合,得到目标注视动画片段。
在一些实施例中,上述按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段,包括:按照所确定的目标融合权重系数,对样本注视动画片段序列中的样本注视动画片段的骨骼参数进行插值计算,得到目标注视动画片段的骨骼参数。
在一些实施例中,上述方法还包括:将目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至自编码神经网络模型,其中自编码神经网络模型用于表征无情绪注视动画片段的动画数据对应的矩阵与带情绪注视动画片段的动画数据对应的矩阵之间的映射关系;将自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,得到三维动画角色执行待执行注视操作的目标带情绪注视动画片段。
在一些实施例中,自编码神经网络模型中编码模型的参数与解码模型的参数不共享。
在一些实施例中,上述方法还包括:自编码神经网络模型训练步骤,自编码神经网络模型训练步骤包括:将多个无情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输入矩阵的列数与行数,并根据每个无情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输入矩阵中对应元素的元素值,生成训练用输入矩阵;将与多个无情绪样本注视动画片段对应的多个带情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输出矩阵的列数与行数,并根据每个带情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输出矩阵中对应元素的元素值,生成训练用输出矩阵;基于训练用输入矩阵以及训练用输出矩阵,训练自编码神经网络模型。
在一些实施例中,上述将目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至自编码神经网络模型,包括:将目标注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为矩阵的列数与行数,并根据每个样本带情绪注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所矩阵中对应元素的元素值,以转换成与自编码机器学习模型匹配的输入矩阵;以及,将自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,包括:根据自编码神经网络模型的输出矩阵中的各个元素的元素值确定目标带情绪注视动画片段中对应动画帧的对应自由度的自由度参数。
在一些实施例中,上述方法还包括:确定目标点在目标带情绪注视动画片段的末尾动画帧中所匹配的目标视线朝向参数;使用反向动力学调整末尾动画帧中三维动画角色的骨骼参数,以将末尾动画帧中动画角色的当前视线朝向参数调整至目标视线朝向参数;根据反向动力学调整的调整值,对目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,得到对三维动画角色进行视线修正后的目标带情绪注视动画片段。
在一些实施例中,上述根据反向动力学调整的调整值,对目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,包括:从目标带情绪注视动画片段的末尾动画帧开始向前,依次对当前动画帧所使用的调整值进行衰减后设置为前一个动画帧的调整值;使用为目标带情绪注视动画片段中的每个动画帧设置的调整值,对每个动画帧的骨骼参数进行调整。
第二方面,本申请实施例提供了一种用于操作三维动画角色的装置,装置包括:参数获取单元,用于获取三维动画角色的眼睛位置参数、三维动画角色待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数;第一输入单元,用于将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与预先训练的机器学习模型相匹配的输入向量并输入至机器学习模型,其中机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系;系数确定单元,用于根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;动画融合单元,用于按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段。
在一些实施例中,机器学习模型是以下任一种:径向基函数神经网络模型、K近邻分类算法模型、超多面体模型。
在一些实施例中,当机器学习模型为径向基函数神经网络模型时,装置还包括径向基函数神经网络模型训练单元,径向基函数神经网络模型训练单元用于:针对样本注视动画片段序列中的各个样本注视动画片段,将样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数转换为第一向量,并根据样本注视动画片段在样本注视动画片段序列中的次序生成第二向量,其中,第二向量的维度是样本注视动画片段序列中样本注视动画片段的个数,且第二向量中与样本注视动画片段的次序对应的分量上置1,其它分量置0;将样本注视动画片段对应的第一向量与第二向量分别作为训练径向基函数神经网络模型时所使用的输入向量与输出向量,训练径向基函数神经网络模型。
在一些实施例中,上述装置还包括:参数生成单元,用于根据样本注视动画片段中起始动画帧与末尾动画帧的动画数据,生成样本注视动画片段序列中各个样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数中的一项或多项。
在一些实施例中,系数确定单元,包括:选取子单元,用于根据分量值大小从输出向量中的分量中选出多个分量;系数确定子单元,用于将多个分量分别在输出向量中的序号所对应的样本注视动画片段确定为融合用样本注视动画片段,并根据多个分量的分量值确定各个融合用样本注视动画片段的融合用融合权重系数;以及,动画融合单元进一步用于:按照融合用融合权重系数,使用各个融合用样本注视动画片段进行融合,得到目标注视动画片段。
在一些实施例中,选取子单元进一步用于执行以下一项或多项:从输出向量中的分量中选出分量值最大的预设数目个分量;从输出向量中的分量中选出分量值大于第一分量阈值的分量;将输出向量中的分量按分量值从高到低的次序依次添加至所选分量中,直至所选分量的总分量值大于第二分量阈值。
在一些实施例中,动画融合单元进一步用于:按照目标融合权重系数,对各个样本注视动画片段的时间长度进行加权平均;将样本注视动画片段序列中用于融合的样本注视动画片段统一缩放至加权平均所得到的时间长度;按照所确定的目标融合权重系数,对缩放后的样本注视动画片段进行融合,得到目标注视动画片段。
在一些实施例中,动画融合单元进一步用于:按照所确定的目标融合权重系数,对样本注视动画片段序列中的样本注视动画片段的骨骼参数进行插值计算,得到目标注视动画片段的骨骼参数。
在一些实施例中,上述装置还包括:第二输入单元,用于将目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至自编码神经网络模型,其中自编码神经网络模型用于表征无情绪注视动画片段的动画数据对应的矩阵与带情绪注视动画片段的动画数据对应的矩阵之间的映射关系;转换单元,用于将自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,得到三维动画角色执行待执行注视操作的目标带情绪注视动画片段。
在一些实施例中,自编码神经网络模型中编码模型的参数与解码模型的参数不共享。
在一些实施例中,上述装置还包括:自编码神经网络模型训练单元,自编码神经网络模型训练单元用于:将多个无情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输入矩阵的列数与行数,并根据每个无情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输入矩阵中对应元素的元素值,生成训练用输入矩阵;将与多个无情绪样本注视动画片段对应的多个带情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输出矩阵的列数与行数,并根据每个带情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输出矩阵中对应元素的元素值,生成训练用输出矩阵;基于训练用输入矩阵以及训练用输出矩阵,训练自编码神经网络模型。
在一些实施例中,第二输入单元进一步用于:将目标注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为矩阵的列数与行数,并根据每个样本带情绪注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所矩阵中对应元素的元素值,以转换成与自编码机器学习模型匹配的输入矩阵;以及,转换单元进一步用于,包括:根据自编码神经网络模型的输出矩阵中的各个元素的元素值确定目标带情绪注视动画片段中对应动画帧的对应自由度的自由度参数。
在一些实施例中,上述装置还包括:参数确定单元,用于确定目标点在目标带情绪注视动画片段的末尾动画帧中所匹配的目标视线朝向参数;第一调整单元,用于使用反向动力学调整末尾动画帧中三维动画角色的骨骼参数,以将末尾动画帧中动画角色的当前视线朝向参数调整至目标视线朝向参数;第二调整单元,用于根据反向动力学调整的调整值,对目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,得到对三维动画角色进行视线修正后的目标带情绪注视动画片段。
在一些实施例中,第二调整单元进一步用于:从目标带情绪注视动画片段的末尾动画帧开始向前,依次对当前动画帧所使用的调整值进行衰减后设置为前一个动画帧的调整值;使用为目标带情绪注视动画片段中的每个动画帧设置的调整值,对每个动画帧的骨骼参数进行调整。
本申请提供的用于操作三维动画角色的方法和装置,通过三维动画角色的眼睛位置参数、待执行注视操作的视线朝向参数、待执行注视操作所注视的目标点的目标点位置参数以及机器学习模型得到使用样本注视动画片段融合目标注视动画片段的目标融合权重系数,并进而按照目标融合权重系数进行融合得到三维动画角色执行待执行注视操作的目标注视动画片段,实现了对三维动画角色执行注视操作的动画片段的自动生成,使得融合成的动画片段中三维动画角色表现更为逼真与生动。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于操作三维动画角色的方法的一个实施例的流程图;
图3是根据本申请的用于操作三维动画角色的方法的又一个实施例的流程图;
图4是根据本申请的用于操作三维动画角色的装置的一个实施例的结构示意图;
图5是适于用来实现本申请实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于操作三维动画角色的方法或用于操作三维动画角色的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如动画播放软件应用、即时通信工具、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上播放的动画提供数据支持的后台服务器。后台服务器可以对接收到的操作参数等数据进行分析等处理,并将处理结果(例如动画数据)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于操作三维动画角色的方法可以由终端设备101、102、103执行,也可以由服务器105执行,还可以由终端设备101、102、103执行与服务器105共同执行;相应地,用于操作三维动画角色的装置可以设置于终端设备101、102、103中,一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于操作三维动画角色的方法的一个实施例的流程200。该用于操作三维动画角色的方法,包括以下步骤:
步骤201,获取三维动画角色的眼睛位置参数、三维动画角色的待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数。
在本实施例中,用于操作三维动画角色的方法运行于其上的电子设备(例如图1所示的终端设备或服务器)可以获取三维动画角色的眼睛位置参数、三维动画角色的待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数。其中,待执行注视操作的视线朝向参数和目标点位置参数可以是根据用户对三维动画角色的操作命令而确定的。例如,用户可以在向应用发出执行注视操作的命令时输入视线朝向参数以及目标点位置参数。视线朝向参数还可以通过对三维动画角色当前动画帧的动画数据进行分析而得到。此外,三维动画角色的眼睛位置参数也可以通过对三维动画角色当前动画帧的动画数据进行分析而得到。
步骤202,将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与机器学习模型相匹配的输入向量并输入至机器学习模型。
在本实施例中,基于步骤201中获取到的眼睛位置参数、视线朝向参数以及目标点位置参数,上述电子设备(例如图1所示的终端设备或服务器)可以将这些参数转换成与机器学习模型相匹配的输入向量并输入至该机器学习模型。其中,机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系。可选的,眼睛位置参数、视线朝向参数以及目标点位置参数可以分别是三个维度的数值组成的。例如,眼睛位置参数、目标点位置参数可以是X轴、Y轴、Z轴上的坐标做成,视线朝向参数也可以是由X轴、Y轴、Z轴上的坐标差组成的。此时,眼睛位置参数、视线朝向参数以及目标点位置参数分别是三个维度的分参数组成时,机器学习模型的输入向量可以是9维向量。在将眼睛位置参数、视线朝向参数以及目标点位置参数转换成与机器学习模型匹配的输入向量时,可以分别将眼睛位置参数、视线朝向参数以及目标点位置参数中每个维度的分参数转换成9维向量中的每一个分量的分量值。例如,此外,当眼睛位置参数、视线朝向参数以及目标点位置参数分别表示为(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)时,则所转成的输入向量可以是(x1,y1,z1,x2,y2,z2,x3,y3,z3)。实践中,输入向量中各分量所对应的分参数还可以按其他顺序排列。此外,在将分参数转换到输入向量中对应的分量时,也可以进行一些数学变换,例如进行归一化操作等。机器学习模型中的输出向量中的每个分量与样本注视动画片段序列中的各个样本注视动画片段相对应,分量的分量值即可用于表征融合时对应的样本注视动画片段的融合权重系数。该权重融合系数用于指示融合时各个样本注视动画片段的使用比例。
步骤203,根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数。
在本实施例中,基于步骤202中向机器学习模型设置的输入向量,电子设备可以得到机器学习模型对应的输出向量。基于该输出向量中的各个分量,电子设备可以确定融合时对各个样本注视动画片段所使用的目标融合权重系数。实践中,可以直接将分量的分量值确定对应的样本注视动画片段的目标融合权重系数,也可以按照一定的规则仅选取其中一部分的融合权重系数或者对融合权重系数进行一定的数值变化而得到目标融合权重系数。
步骤204,按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段。
在本实施例中,基于步骤203对各个样本注视动画片段所确定的目标融合权重系数,电子设备可以按照该目标融合权重系数使用样本注视动画片段序列中的样本注视动画片段进行融合,从而得到三维动画角色执行待执行注视操作的目标注视动画片段。
在本实施例的一些可选的实现方式中,上述机器学习模型可以是以下任意一种:径向基函数神经网络模型、K近邻分类算法模型、超多面体模型。
径向基函数(RBF,Radial basis function)神经网络模型中,神经网络包括三层前向网络。其中,输入层由信号源结点组成,第二层为隐含层,隐单元数视所描述问题的需要而定,隐单元的变换函数是径向基函数,它是对中心点径向对称且衰减的非负非线性函数,第三层为输出层,它对输入模式的作用作出相应。从输入空间到隐含层空间的变换是非线性的,而从隐含层空间到输出层空间变换是线性的。RBF网络的基本思想是用径向基函数作为隐单元的“基”构成隐含层空间,这样就可以将输入矢量直接映射到隐空间,而不需要通过权连接。当RBF函数的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和,此处的权即为网络可调参数。从总体上看,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络的权就可由线性方程组直接解出,从而大大加快学习速度并避免局部极小问题。
K近邻(KNN,K-NearestNeighbor)分类算法模型的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。在使用KNN分类算法时,可以该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN分类算法在类别决策时,只与极少量的相邻样本有关。由于KNN分类算法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN分类算法较其他方法更为适合。在使用KNN分类算法模型时,各个样本注视动画片段的分量值表征各个样本注视动画片段的权值,该权值与样本注视动画片段中眼睛位置参数、视线朝向参数以及目标点位置参数对应的输入向量和三维动画角色执行待执行注视操作的参数眼睛位置参数、视线朝向参数以及目标点位置参数对应的输入向量的向量距离成反比。
使用超多面体模型时,模型可以如下方式进行训练:首先,可以将各个样本注视动画片段视为空间中的一个点,点的坐标可以是根据样本注视动画片段中的眼睛位置参数、视线朝向参数以及目标点位置参数所确定的。其次,将空间中邻近的多个点构成一个多边形。例如,可以把每四个位置最接近的点构成一个四边形。如此,所构成的不同多边形之间可能存在公共边或公共面,但不会存在空间上的重叠。在使用超多面体模型根据输入向量确定输出向量时,可以首先判断当前输入向量对应的目标点与各个多边形进行匹配,以判断目标点处于哪一个多边形中。之后,将目标点所落在的多边形的各个点表征的样本注视动画片段所对应的分量确定为需要赋值的分量,其中所赋的值可以根据目标点与多边形中的各个点的距离所确定,其他分量可以赋值为0。
在本实施例的一些可选的实现方式中,当机器学习模型为RBF神经网络模型时,上述方法还可以包括径向基函数神经网络模型训练步骤。其中,该径向基函数神经网络模型训练步骤按如下过程执行。首先,针对样本注视动画片段序列中的各个样本注视动画片段,将样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数转换为第一向量,并根据样本注视动画片段在样本注视动画片段序列中的次序生成第二向量,其中,第二向量的维度是样本注视动画片段序列中样本注视动画片段的个数,且第二向量中与样本注视动画片段的次序对应的分量上置1,其它分量置0。之后,将样本注视动画片段对应的第一向量与第二向量分别作为训练径向基函数神经网络模型时所使用的输入向量与输出向量,训练径向基函数神经网络模型。
其中,样本注视动画片段序列包括至少一个样本注视动画片段,且各个样本注视动画片段可以有对应的序号,例如样本注视动画片段序列包括样本注视动画片段1、样本注视动画片段2……样本注视动画片段n。在将样本注视动画片段的眼睛位置参数、视线朝向参数、目标点位置参数转换为第一向量时,转换方式可以参考步骤202中将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与机器学习模型相匹配的输入向量的方式,这里不再赘述。
在根据样本注视动画片段在动画片段序列中的次序生成第二向量时,第二向量的维度是样本注视动画片段序列中动画片段的个数,且第二向量中与样本注视动画片段的次序对应的分量上置1,其它分量置0。例如,当样本注视动画片段序列包括样本注视动画片段1、样本注视动画片段2……样本注视动画片段n时,样本注视动画片段的数量为n,则各个样本注视动画片段对应的第二向量的维度为n,即第二向量可以用(A1,A2……An)的形式表示。对于样本注视动画片段1,由于其序号为1,则在A1分量上置1,A2……An则置为0,即样本注视动画片段1对应的第二向量是(1,0……0)。对应的,样本注视动画片段2对应的第二向量是(0,1,0……0),样本注视动画片段n对应的第二向量是(0,0……0,1)。
待训练的RBF神经网络模型的输入层节点个数等于第一向量的维度,输出层的节点个数则等于第二向量的维度。训练RBF神经网络模型时,可以将样本注视动画片段对应的第一向量作为径向基函数神经网络模型的输入,并将样本注视动画片段对应的第二向量作为径向基函数神经网络模型的输出,对径向基函数神经网络模型进行训练。在训练的过程中,由于输入和输出是确定的,因此通过确定的输入和输出来不断调整中间隐含层中的RBF核参数。
在本实施例的一些可选实现方式中,在执行上述径向基函数神经网络模型训练步骤之前,上述方法还包括:根据样本注视动画片段中起始动画帧与末尾动画帧的动画数据,生成样本注视动画片段序列中各个样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数中的一项或多项。在该实现方式中,可以通过样本注视动画片段中起始动画帧与末尾动画帧的动画数据生成眼睛位置参数、视线朝向参数、目标点位置参数中的一项或多项。样本注视动画片段中可以通过一系列的动画帧来表现三维动画角色的注视操作。其中,样本注视动画片段的起始动画帧与末尾动画帧可以反映出三维动画角色作出注视操作之前和之后的状态,因此根据这两个动画帧的动画数据即可分析出眼睛位置参数、视线朝向参数、目标点位置参数。
在本实施例的一些可选实现方式中,步骤203可以具体包括:根据分量值大小从输出向量中的分量中选出多个分量;将多个分量分别在输出向量中的序号所对应的样本注视动画片段确定为融合用样本注视动画片段,并根据多个分量的分量值确定各个融合用样本注视动画片段的融合用融合权重系数。对应的,步骤204可以包括:按照融合用融合权重系数,使用各个融合用样本注视动画片段进行融合,得到目标注视动画片段。在该实现方式中,可以按照一定条件选出分量值较大的多个分量对应的样本注视动画片段作为融合用样本注视动画片段,从而不需要将对最终融合影响力较弱的样本注视动画片段用作后续融合操作,有利于减少融合计算的计算量,从而减少整体的处理时间。此外,在融合前可以先将选出的多个分量的原分量值进行归一化,将归一化所得到的各个分量值分别作为各自对应序号下样本注视动画片段的目标融合比例系数。
在本实施例的一些可选实现方式中,上述:根据分量值大小从输出向量中的分量中选出多个分量,可以包括以下任一项或多项:从输出向量中的分量中选出分量值最大的预设数目个分量;从输出向量中的分量中选出分量值大于第一分量阈值的分量;将输出向量中的分量按分量值从高到低的次序依次添加至所选分量中,直至所选分量的总分量值大于第二分量阈值。在执行多项时,可以首先分别选出符合各个单项标准的分量集合,再对多个分量集合求取并集而得到最终选取的多个分量。该实现方式中提供了多种选出分量的方案,第一种方案可以保证后续融合时参与融合的样本注视动画片段的数量固定,第二种方案可以保证融合时不引入对应分量的分量值较小的样本注视动画片段,第三种方案则可以在保证参与融合的样本注视动画片段整体对融合结果达到一定整体影响力的条件下尽量选出影响力较大的样本注视动画片段。
在本实施例的一些可选实现方式中,上述步骤204可以具体包括:按照目标融合权重系数,对各个样本注视动画片段的时间长度进行加权平均;将样本注视动画片段序列中用于融合的样本注视动画片段统一缩放至加权平均所得到的时间长度;按照所确定的目标融合权重系数,对缩放后的样本注视动画片段进行融合,得到目标注视动画片段。在本实现方式中,利用上述目标融合权重系数对各个样本注视动画片段中的时间片段的时长进行加权平均,以作为对各个融合用样本注视动画片段进行缩放时的目标时间长度,之后使用缩放后的样本注视动画片段进行融合,这样融合使用的各个样本注视动画片段的时间长度一致,便于融合时的操作。
在本实施例的一些可选实现方式中,上述步骤204可以具体包括:按照所确定的目标融合权重系数,对样本注视动画片段序列中的样本注视动画片段的骨骼参数进行插值计算,得到目标注视动画片段的骨骼参数。在本实施例中,针对骨骼动画,动画片段的每一个动画帧中三维动画角色的动作状态由与动作相关的一系列骨骼的骨骼参数决定。根节点的骨骼参数通常包括位置参数与旋转参数,非根节点的骨骼参数则通常为旋转参数,位置参数可以用三维向量表示,旋转参数可以用四维向量表示。在使用样本注视动画片段进行融合,可以对样本注视动画片段序列中的样本注视动画片段的骨骼参数进行插值计算,并将插值所得到的骨骼参数作为目标注视动画片段的骨骼参数,从而得以基于目标注视动画片段中三维动画角色的骨骼参数生成目标注视动画片段。
本申请的上述实施例提供的方法,通过三维动画角色的眼睛位置参数、待执行注视操作的视线朝向参数、待执行注视操作所注视的目标点的目标点位置参数以及机器学习模型得到使用样本注视动画片段融合目标注视动画片段的目标融合权重系数,并进而按照目标融合权重系数进行融合得到三维动画角色执行待执行注视操作的目标注视动画片段,实现了对三维动画角色执行注视操作的动画片段的自动生成,使得融合成的动画片段中三维动画角色表现更为逼真与生动。
进一步参考图3,其示出了用于操作三维动画角色的方法的又一个实施例的流程300。该用于操作三维动画角色的方法的流程300,包括以下步骤:
步骤301,获取三维动画角色的眼睛位置参数、三维动画角色的待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数。
在本实施例中,步骤301的具体处理可以参考图2对应实施例的步骤201,这里不再赘述。
步骤302,将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与机器学习模型相匹配的输入向量并输入至机器学习模型。
在本实施例中,步骤302的具体处理可以参考图2对应实施例的步骤202,这里不再赘述。
步骤303,根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数。
在本实施例中,步骤303的具体处理可以参考图2对应实施例的步骤203,这里不再赘述。
步骤304,按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段。
在本实施例中,步骤304的具体处理可以参考图2对应实施例的步骤204,这里不再赘述。
步骤305,将目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至自编码神经网络模型。
在本实施例中,基于步骤304融合成的目标注视动画片段,电子设备可以将目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至自编码神经网络模型,其中自编码神经网络模型用于表征无情绪注视动画片段的动画数据对应的矩阵与带情绪注视动画片段的动画数据对应的矩阵之间的映射关系。自编码神经网络模型包括编码模型与解码模型,编码模型是输入层到中间层的过程,解码模型则是中间层到输出层的过程。
步骤306,将自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,得到三维动画角色执行待执行注视操作的目标带情绪注视动画片段。
在本实施例中,基于步骤305对自编码神经网络模型设置的输入矩阵,电子设备可以得到自编码神经网络模型的输出矩阵,并可以将该输出矩阵转换成目标带情绪注视动画片段的动画数据。其中,将自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据的过程与将目标注视动画片段的动画数据转换成与自编码神经网络模型的输入矩阵的方式相同。
在本实施例的一些可选实现方式中,上述自编码神经网络模型中编码模型的参数与解码模型的参数不共享。在该实现方式中,编码模型可以通过公式Φ(X)=RELU(Ψ(X*W+b))表示。其中X是输入层的矩阵,W和b是这两层之间网络连接参数,W是卷积核参数矩阵,大小为m×d×w0(表示有m个卷积核,每个核大小为d×w0),*表示卷积操作,b大小为m,Ψ表示池化操作。在该网络中,池化操作可以是把每相邻两个元素中值最大的一个作为输出,操作后矩阵列数大小缩小一半。RELU(修正线性单元)则可以是在变量与0之间取较大值的操作,可以表示为RELU(x)=max(x,0)。Φ(X)则是编码模型中间层的输出。解码模型则可以通过公式Φ'(H)=(Ψ'(H)-b')*W'表示。其中,H设为编码模型中间层的输出,大小为n×m/2,W'和b'是这两层之间的网络连接参数,W'是卷积核参数矩阵,大小为d×m×w0,b'大小为m,Ψ'是反池化操作。其中,反池化操作可以是将H矩阵列数放大一倍,相邻的两个元素其中一个为原先H矩阵中对应位置的值,另外一个为0,两者随机决定。编码模型的参数与解码模型的参数不共享,是指编码模型所使用的公式中的各个参数与所使用的公式的各个参数不共享,需要分别计算。在训练自编码模型的过程,以优化损失函数为目标,损失函数可以表示为以下公式:
其中,θ即表示编码模型与解码模型分别对应的公式中的各个参数,α为预设系数,Y是训练样本的输出矩阵。采用随机梯度下降等方法,即可优化自编码神经网络中的参数。
在该实现方式中,由于自编码神经网络模型中编码模型的参数与解码模型的参数不共享,因此可以使得输入向量与输出向量不对称,从而可以使自编码神经网络模型的输入向量与输出向量分别与无情绪注视动画片段与带情绪注视动画片段对应。
在本实施例的一些可选实现方式中,上述方法还包括自编码神经网络模型训练步骤。其中,该自编码神经网络模型训练步骤可以具体包括:将多个无情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输入矩阵的列数与行数,并根据每个无情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输入矩阵中对应元素的元素值,生成训练用输入矩阵;将与多个无情绪样本注视动画片段对应的多个带情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输出矩阵的列数与行数,并根据每个带情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输出矩阵中对应元素的元素值,生成训练用输出矩阵;基于训练用输入矩阵以及训练用输出矩阵,训练自编码神经网络模型。在该实现方式中,训练自编码模型时,可以预先获取多个无情绪样本注视动画片段以及一一对应的带情绪样本注视动画片段。训练用输入矩阵的列数与行数可以分别设置为多个无情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输入矩阵。例如,当有k个无情绪样本注视动画片段,且每个无情绪样本注视动画片段的动画帧数分别是N1,N2,…Nk时,则矩阵的列数可以是N1+N2+…+Nk。自由度则可以是执行动作所涉及的各个骨骼的骨骼参数的分参数。对于注视动作,所涉及的骨骼通常可以包括眼睛、头部、颈部以及躯干等。通常,眼睛、头部、颈部作为骨骼动画的非根节点通常使用旋转参数表示;躯干作为根节点,通常需要使用旋转参数和位置参数表示。每个旋转参数分别有4个自由度,位置参数则有3个自由度,则三维动画角色的自由度数量则为4+4+4+4+3=15个自由度,即训练用输入矩阵的行数可以是15个。训练用输入矩阵则可以根据每个无情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置。对于训练用输出矩阵,则可以使用与训练用输出矩阵相同的转换方式对无情绪样本注视动画片段所对应的带情绪样本注视动画片段进行转换即可得到,这里不再赘述。实践中,也可以使用训练用输入矩阵的列数表示自由度数量,使用行数表示总帧数,只需要训练用输入矩阵以及步骤305和步骤306中按照相同的方式在矩阵和动画片段之间的动画数据之间进行转换即可。
在上一实现方式的一些可选实现方式中,步骤305可以具体包括:将目标注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为矩阵的列数与行数,并根据每个样本带情绪注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所述矩阵中对应元素的元素值,以转换成与自编码机器学习模型匹配的输入矩阵。对应的,步骤306可以具体包括:根据自编码神经网络模型的输出矩阵中的各个元素的元素值确定目标带情绪注视动画片段中对应动画帧的对应自由度的自由度参数。在本实现方式中,由于训练时采用了上一实现方式中所描述的矩阵与动画数据转换方案,该实现方式在使用训练后的自编码神经网络模型时,也是用相应的方案在矩阵与动画数据之间进行转换,基于最终所得到每个动画帧的每个自由度的自由度参数,即可以确定出目标带情绪注视动画片段。
在本实施例的一些可选实现方式中,上述方法还包括:确定目标点在目标带情绪注视动画片段的末尾动画帧中所匹配的目标视线朝向参数;使用反向动力学调整末尾动画帧中三维动画角色的骨骼参数,以将末尾动画帧中动画角色的当前视线朝向参数调整至目标视线朝向参数;根据反向动力学调整的调整值,对目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,得到对三维动画角色进行视线修正后的目标带情绪注视动画片段。在该实现方式中,考虑到步骤306所得到的目标带情绪注视动画片段中视线朝向可能不会落在目标点,本实现方式对当前目标带情绪注视动画片段中各动画帧中的视线朝向进行调整,以使其与目标点契合。在计算调整值时,通过反向动力学方法将当前的末尾动画帧中的目标视线朝向参数调整至目标视线朝向参数,再根据对末尾动画帧调整时对骨骼参数进行调整的调整值确定对其他动画帧的骨骼参数进行调整的调整值,并调整其他动画帧的骨骼参数。该种方式只需要在对末尾动画帧处理时使用反向动力学方法,避免了对其他动画帧使用反向动力学方法,有利于提高处理速度。
在本实施的一些可选实现方式中,上述根据反向动力学调整的调整值,对目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整可以具体包括:从目标带情绪注视动画片段的末尾动画帧开始向前,依次对当前动画帧所使用的调整值进行衰减后设置为前一个动画帧的调整值;使用为目标带情绪注视动画片段中的每个动画帧设置的调整值,对每个动画帧的骨骼参数进行调整。在该实现方式中,可以根据当前动画帧的调整值进行衰减来设置前一个动画帧的调整值,从而可以使得骨骼参数可以逐渐变化,提高不同动画帧之间变化的圆滑度,使得三维动画角色的动作更流畅。
从图3中可以看出,与图2对应的实施例相比,本实施例中的用于操作三维动画角色的方法的流程300进一步利用自编码神经网络模型转换成带情绪注视动画片段,从而使得最终生成的动画片段中三维动画角色带有情绪特征,生动性更强。
进一步参考图4,作为对上述各图所示方法的实现,本申请提供了一种用于操作三维动画角色的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的用于操作三维动画角色的装置400包括:参数获取单元401、第一输入单元402、系数确定单元403和动画融合单元404。其中,参数获取单元401用于获取三维动画角色的眼睛位置参数、三维动画角色待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数;第一输入单元402用于将眼睛位置参数、视线朝向参数以及目标点位置参数转换为与预先训练的机器学习模型相匹配的输入向量并输入至机器学习模型,其中机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系;系数确定单元403用于根据机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;而动画融合单元404用于按照所确定的目标融合权重系数,使用样本注视动画片段序列中的样本注视动画片段进行融合,得到三维动画角色执行待执行注视操作的目标注视动画片段。
在本实施例中,参数获取单元401、第一输入单元402、系数确定单元403和动画融合单元404的具体处理可以参考图2对应实施例的步骤201、步骤202、步骤203以及步骤204,这里不再赘述。
在本实施例的一些可选实现方式中,机器学习模型是以下任一种:径向基函数神经网络模型、K近邻分类算法模型、超多面体模型。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,当机器学习模型为径向基函数神经网络模型时,装置400还包括径向基函数神经网络模型训练单元(未示出),径向基函数神经网络模型训练单元用于:针对样本注视动画片段序列中的各个样本注视动画片段,将样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数转换为第一向量,并根据样本注视动画片段在样本注视动画片段序列中的次序生成第二向量,其中,第二向量的维度是样本注视动画片段序列中样本注视动画片段的个数,且第二向量中与样本注视动画片段的次序对应的分量上置1,其它分量置0;将样本注视动画片段对应的第一向量与第二向量分别作为训练径向基函数神经网络模型时所使用的输入向量与输出向量,训练径向基函数神经网络模型。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,装置400还包括:参数生成单元(未示出),用于根据样本注视动画片段中起始动画帧与末尾动画帧的动画数据,生成样本注视动画片段序列中各个样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数中的一项或多项。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,系数确定单元403包括:选取子单元,用于根据分量值大小从输出向量中的分量中选出多个分量;系数确定子单元,用于将多个分量分别在输出向量中的序号所对应的样本注视动画片段确定为融合用样本注视动画片段,并根据多个分量的分量值确定各个融合用样本注视动画片段的融合用融合权重系数。对应的,动画融合单元404可以进一步用于:按照融合用融合权重系数,使用各个融合用样本注视动画片段进行融合,得到目标注视动画片段。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,选取子单元进一步用于执行以下一项或多项:从输出向量中的分量中选出分量值最大的预设数目个分量;从输出向量中的分量中选出分量值大于第一分量阈值的分量;将输出向量中的分量按分量值从高到低的次序依次添加至所选分量中,直至所选分量的总分量值大于第二分量阈值。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,动画融合单元404进一步用于:按照目标融合权重系数,对各个样本注视动画片段的时间长度进行加权平均;将样本注视动画片段序列中用于融合的样本注视动画片段统一缩放至加权平均所得到的时间长度;按照所确定的目标融合权重系数,对缩放后的样本注视动画片段进行融合,得到目标注视动画片段。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,动画融合单元404进一步用于:按照所确定的目标融合权重系数,对样本注视动画片段序列中的样本注视动画片段的骨骼参数进行插值计算,得到目标注视动画片段的骨骼参数。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,装置400还包括:第二输入单元(未示出),用于将目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至自编码神经网络模型,其中自编码神经网络模型用于表征无情绪注视动画片段的动画数据对应的矩阵与带情绪注视动画片段的动画数据对应的矩阵之间的映射关系;转换单元(未示出),用于将自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,得到三维动画角色执行待执行注视操作的目标带情绪注视动画片段。该实现方式的具体处理可以参考图3对应实施例中相应的步骤,这里不再赘述。
在本实施例的一些可选实现方式中,自编码神经网络模型中编码模型的参数与解码模型的参数不共享。该实现方式的具体处理可以参考图2对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,装置400还包括自编码神经网络模型训练单元(未示出)。其中,该自编码神经网络模型训练单元用于:将多个无情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输入矩阵的列数与行数,并根据每个无情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输入矩阵中对应元素的元素值,生成训练用输入矩阵;将与多个无情绪样本注视动画片段对应的多个带情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输出矩阵的列数与行数,并根据每个带情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置训练用输出矩阵中对应元素的元素值,生成训练用输出矩阵;基于训练用输入矩阵以及训练用输出矩阵,训练自编码神经网络模型。该实现方式的具体处理可以参考图3对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,第二输入单元进一步用于:将目标注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为矩阵的列数与行数,并根据每个样本带情绪注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所矩阵中对应元素的元素值,以转换成与自编码机器学习模型匹配的输入矩阵。对应的,转换单元进一步用于,包括:根据自编码神经网络模型的输出矩阵中的各个元素的元素值确定目标带情绪注视动画片段中对应动画帧的对应自由度的自由度参数。该实现方式的具体处理可以参考图3对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,装置400还包括:参数确定单元(未示出),用于确定目标点在目标带情绪注视动画片段的末尾动画帧中所匹配的目标视线朝向参数;第一调整单元(未示出),用于使用反向动力学调整末尾动画帧中三维动画角色的骨骼参数,以将末尾动画帧中动画角色的当前视线朝向参数调整至目标视线朝向参数;第二调整单元(未示出),用于根据反向动力学调整的调整值,对目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,得到对三维动画角色进行视线修正后的目标带情绪注视动画片段。该实现方式的具体处理可以参考图3对应实施例中相应的实现方式,这里不再赘述。
在本实施例的一些可选实现方式中,第二调整单元进一步用于:从目标带情绪注视动画片段的末尾动画帧开始向前,依次对当前动画帧所使用的调整值进行衰减后设置为前一个动画帧的调整值;使用为目标带情绪注视动画片段中的每个动画帧设置的调整值,对每个动画帧的骨骼参数进行调整。该实现方式的具体处理可以参考图3对应实施例中相应的实现方式,这里不再赘述。
下面参考图5,其示出了适于用来实现本申请实施例的终端设备/服务器的计算机系统500的结构示意图。图5示出的终端设备/服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本申请的方法中限定的上述功能。附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括参数获取单元、第一输入单元、系数确定单元和动画融合单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,参数获取单元还可以被描述为“获取三维动画角色的眼睛位置参数、三维动画角色待执行注视操作的视线朝向参数以及待执行注视操作所注视的目标点的目标点位置参数的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取三维动画角色的眼睛位置参数、所述三维动画角色的待执行注视操作的视线朝向参数以及所述待执行注视操作所注视的目标点的目标点位置参数;将所述眼睛位置参数、所述视线朝向参数以及所述目标点位置参数转换为与机器学习模型相匹配的输入向量并输入至所述机器学习模型,其中所述机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系;根据所述机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;按照所确定的目标融合权重系数,使用所述样本注视动画片段序列中的样本注视动画片段进行融合,得到所述三维动画角色执行所述待执行注视操作的目标注视动画片段。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (17)
1.一种用于操作三维动画角色的方法,其特征在于,所述方法包括:
获取三维动画角色的眼睛位置参数、所述三维动画角色的待执行注视操作的视线朝向参数以及所述待执行注视操作所注视的目标点的目标点位置参数;
将所述眼睛位置参数、所述视线朝向参数以及所述目标点位置参数转换为与机器学习模型相匹配的输入向量并输入至所述机器学习模型,其中所述机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系;
根据所述机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;
按照所确定的目标融合权重系数,使用所述样本注视动画片段序列中的样本注视动画片段进行融合,得到所述三维动画角色执行所述待执行注视操作的目标注视动画片段。
2.根据权利要求1所述的方法,其特征在于,所述机器学习模型是以下任一种:径向基函数神经网络模型、K近邻分类算法模型、超多面体模型。
3.根据权利要求2所述的方法,其特征在于,当所述机器学习模型为径向基函数神经网络模型时,所述方法还包括径向基函数神经网络模型训练步骤,所述径向基函数神经网络模型训练步骤包括:
针对所述样本注视动画片段序列中的各个样本注视动画片段,将样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数转换为第一向量,并根据样本注视动画片段在所述样本注视动画片段序列中的次序生成第二向量,其中,第二向量的维度是所述样本注视动画片段序列中样本注视动画片段的个数,且第二向量中与样本注视动画片段的次序对应的分量上置1,其它分量置0;
将样本注视动画片段对应的第一向量与第二向量分别作为训练径向基函数神经网络模型时所使用的输入向量与输出向量,训练径向基函数神经网络模型。
4.根据权利要求3所述的方法,其特征在于,在所述径向基函数神经网络模型训练步骤之前,所述方法还包括:
根据样本注视动画片段中起始动画帧与末尾动画帧的动画数据,生成所述样本注视动画片段序列中各个样本注视动画片段中三维动画角色的眼睛位置参数、注视操作的视线朝向参数、注视操作的所注视的目标点的目标点位置参数中的一项或多项。
5.根据权利要求1所述的方法,其特征在于,所述根据所述机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数,包括:
根据分量值大小从所述输出向量中的分量中选出多个分量;
将所述多个分量分别在所述输出向量中的序号所对应的样本注视动画片段确定为融合用样本注视动画片段,并根据所述多个分量的分量值确定各个融合用样本注视动画片段的融合用融合权重系数;以及
所述按照所确定的目标融合权重系数,使用所述样本注视动画片段序列中的样本注视动画片段进行融合,得到所述三维动画角色执行所述待执行注视操作的目标注视动画片段,包括:
按照所述融合用融合权重系数,使用各个融合用样本注视动画片段进行融合,得到所述目标注视动画片段。
6.根据权利要求5所述的方法,其特征在于,所述根据分量值大小从所述输出向量中的分量中选出多个分量,包括以下一项或多项:
从所述输出向量中的分量中选出分量值最大的预设数目个分量;
从所述输出向量中的分量中选出分量值大于第一分量阈值的分量;
将所述输出向量中的分量按分量值从高到低的次序依次添加至所选分量中,直至所选分量的总分量值大于第二分量阈值。
7.根据权利要求1所述的方法,其特征在于,所述按照所确定的目标融合权重系数,使用所述样本注视动画片段序列中的样本注视动画片段进行融合,得到所述三维动画角色执行所述待执行注视操作的目标注视动画片段,包括:
按照所述目标融合权重系数,对各个样本注视动画片段的时间长度进行加权平均;
将所述样本注视动画片段序列中用于融合的样本注视动画片段统一缩放至加权平均所得到的时间长度;
按照所确定的目标融合权重系数,对缩放后的样本注视动画片段进行融合,得到所述目标注视动画片段。
8.根据权利要求1所述的方法,其特征在于,所述按照所确定的目标融合权重系数,使用所述样本注视动画片段序列中的样本注视动画片段进行融合,得到所述三维动画角色执行所述待执行注视操作的目标注视动画片段,包括:
按照所确定的目标融合权重系数,对所述样本注视动画片段序列中的样本注视动画片段的骨骼参数进行插值计算,得到所述目标注视动画片段的骨骼参数。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至所述自编码神经网络模型,其中所述自编码神经网络模型用于表征无情绪注视动画片段的动画数据对应的矩阵与带情绪注视动画片段的动画数据对应的矩阵之间的映射关系;
将所述自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,得到所述三维动画角色执行所述待执行注视操作的目标带情绪注视动画片段。
10.根据权利要求9所述的方法,其特征在于,所述自编码神经网络模型中编码模型的参数与解码模型的参数不共享。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:自编码神经网络模型训练步骤,所述自编码神经网络模型训练步骤包括:
将多个无情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输入矩阵的列数与行数,并根据每个无情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所述训练用输入矩阵中对应元素的元素值,生成所述训练用输入矩阵;
将与所述多个无情绪样本注视动画片段对应的多个带情绪样本注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为训练用输出矩阵的列数与行数,并根据每个带情绪样本注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所述训练用输出矩阵中对应元素的元素值,生成所述训练用输出矩阵;
基于所述训练用输入矩阵以及所述训练用输出矩阵,训练自编码神经网络模型。
12.根据权利要求11所述的方法,其特征在于,所述将所述目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至所述自编码神经网络模型,包括:
将所述目标注视动画片段中多个动画帧的总帧数以及三维动画角色的自由度数量分别作为矩阵的列数与行数,并根据每个样本带情绪注视动画片段中每个动画帧中三维动画角色的每个自由度参数设置所述矩阵中对应元素的元素值,以转换成与所述自编码机器学习模型匹配的输入矩阵;以及
所述将所述自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,包括:
根据所述自编码神经网络模型的输出矩阵中的各个元素的元素值确定目标带情绪注视动画片段中对应动画帧的对应自由度的自由度参数。
13.根据权利要求9-12之一所述的方法,其特征在于,所述方法还包括:
确定目标点在所述目标带情绪注视动画片段的末尾动画帧中所匹配的目标视线朝向参数;
使用反向动力学调整所述末尾动画帧中三维动画角色的骨骼参数,以将所述末尾动画帧中动画角色的当前视线朝向参数调整至所述目标视线朝向参数;
根据反向动力学调整的调整值,对所述目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,得到对所述三维动画角色进行视线修正后的目标带情绪注视动画片段。
14.根据权利要求13所述的方法,其特征在于,所述根据反向动力学调整的调整值,对所述目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,包括:
从所述目标带情绪注视动画片段的末尾动画帧开始向前,依次对当前动画帧所使用的调整值进行衰减后设置为前一个动画帧的调整值;
使用为所述目标带情绪注视动画片段中的每个动画帧设置的调整值,对每个动画帧的骨骼参数进行调整。
15.一种用于操作三维动画角色的装置,其特征在于,所述装置包括:
参数获取单元,用于获取三维动画角色的眼睛位置参数、所述三维动画角色待执行注视操作的视线朝向参数以及所述待执行注视操作所注视的目标点的目标点位置参数;
第一输入单元,用于将所述眼睛位置参数、所述视线朝向参数以及所述目标点位置参数转换为与预先训练的机器学习模型相匹配的输入向量并输入至所述机器学习模型,其中所述机器学习模型用于表征三维动画角色的眼睛位置参数、注视操作的视线朝向参数以及注视操作所注视的目标点的目标点位置参数所对应的向量与使用样本注视动画片段序列融合成三维动画角色执行注视操作的注视动画片段时各个样本注视动画片段的融合权重系数所对应的向量之间的映射关系;
系数确定单元,用于根据所述机器学习模型的输出向量中的各个分量确定融合时对各个样本注视动画片段所使用的目标融合权重系数;
动画融合单元,用于按照所确定的目标融合权重系数,使用所述样本注视动画片段序列中的样本注视动画片段进行融合,得到所述三维动画角色执行所述待执行注视操作的目标注视动画片段。
16.根据权利要求15所述的装置,其特征在于,所述装置还包括:
第二输入单元,用于将所述目标注视动画片段的动画数据转换成与预先训练的自编码神经网络模型匹配的输入矩阵并输入至所述自编码神经网络模型,其中所述自编码神经网络模型用于表征无情绪注视动画片段的动画数据对应的矩阵与带情绪注视动画片段的动画数据对应的矩阵之间的映射关系;
转换单元,用于将所述自编码神经网络模型的输出矩阵转换成目标带情绪注视动画片段的动画数据,得到所述三维动画角色执行所述待执行注视操作的目标带情绪注视动画片段。
17.根据权利要求16所述的装置,其特征在于,所述装置还包括:
参数确定单元,用于确定目标点在所述目标带情绪注视动画片段的末尾动画帧中所匹配的目标视线朝向参数;
第一调整单元,用于使用反向动力学调整所述末尾动画帧中三维动画角色的骨骼参数,以将所述末尾动画帧中动画角色的当前视线朝向参数调整至所述目标视线朝向参数;
第二调整单元,用于根据反向动力学调整的调整值,对所述目标带情绪注视动画片段中各个动画帧的骨骼参数进行调整,得到对所述三维动画角色进行视线修正后的目标带情绪注视动画片段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710188070.8A CN106952325B (zh) | 2017-03-27 | 2017-03-27 | 用于操作三维动画角色的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710188070.8A CN106952325B (zh) | 2017-03-27 | 2017-03-27 | 用于操作三维动画角色的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106952325A true CN106952325A (zh) | 2017-07-14 |
CN106952325B CN106952325B (zh) | 2020-07-21 |
Family
ID=59473176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710188070.8A Active CN106952325B (zh) | 2017-03-27 | 2017-03-27 | 用于操作三维动画角色的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106952325B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108961428A (zh) * | 2018-05-23 | 2018-12-07 | 网易(杭州)网络有限公司 | 一种三维动作的风格迁移方法、介质、装置和计算设备 |
CN109215092A (zh) * | 2018-09-10 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 仿真场景的生成方法及装置 |
CN109903362A (zh) * | 2019-01-10 | 2019-06-18 | 珠海金山网络游戏科技有限公司 | 基于Unity3D的2D坐标映射操作3D角色模型注视的方法及装置 |
CN111968191A (zh) * | 2019-05-20 | 2020-11-20 | 迪士尼企业公司 | 使用梳状神经网络架构的自动图像合成 |
CN111968191B (zh) * | 2019-05-20 | 2024-05-10 | 迪士尼企业公司 | 使用梳状神经网络架构的自动图像合成系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101149840A (zh) * | 2006-09-20 | 2008-03-26 | 清华大学 | 一种复杂表情仿真系统及其实现方法 |
JP4134191B2 (ja) * | 2006-04-17 | 2008-08-13 | 株式会社スクウェア・エニックス | ゲーム装置、キャラクタの表示方法、並びにプログラム及び記録媒体 |
CN105488834A (zh) * | 2015-12-01 | 2016-04-13 | 网易(杭州)网络有限公司 | 角色面部朝向的调整方法及装置 |
CN106447748A (zh) * | 2016-09-14 | 2017-02-22 | 厦门幻世网络科技有限公司 | 一种用于生成动画数据的方法和装置 |
CN106530377A (zh) * | 2016-12-16 | 2017-03-22 | 厦门幻世网络科技有限公司 | 用于操作三维动画角色的方法和装置 |
-
2017
- 2017-03-27 CN CN201710188070.8A patent/CN106952325B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4134191B2 (ja) * | 2006-04-17 | 2008-08-13 | 株式会社スクウェア・エニックス | ゲーム装置、キャラクタの表示方法、並びにプログラム及び記録媒体 |
CN101149840A (zh) * | 2006-09-20 | 2008-03-26 | 清华大学 | 一种复杂表情仿真系统及其实现方法 |
CN105488834A (zh) * | 2015-12-01 | 2016-04-13 | 网易(杭州)网络有限公司 | 角色面部朝向的调整方法及装置 |
CN106447748A (zh) * | 2016-09-14 | 2017-02-22 | 厦门幻世网络科技有限公司 | 一种用于生成动画数据的方法和装置 |
CN106530377A (zh) * | 2016-12-16 | 2017-03-22 | 厦门幻世网络科技有限公司 | 用于操作三维动画角色的方法和装置 |
Non-Patent Citations (2)
Title |
---|
程义民等: "一种人眼运动及表情的仿真方法", 《系统仿真学报》 * |
陈盈科等: "真实感眼部表情的一种实现方法", 《计算机与数字工程》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108961428A (zh) * | 2018-05-23 | 2018-12-07 | 网易(杭州)网络有限公司 | 一种三维动作的风格迁移方法、介质、装置和计算设备 |
CN108961428B (zh) * | 2018-05-23 | 2023-05-26 | 杭州易现先进科技有限公司 | 一种三维动作的风格迁移方法、介质、装置和计算设备 |
CN109215092A (zh) * | 2018-09-10 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 仿真场景的生成方法及装置 |
US11127168B2 (en) | 2018-09-10 | 2021-09-21 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for generating simulation scene |
US11887343B2 (en) | 2018-09-10 | 2024-01-30 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for generating simulation scene |
CN109903362A (zh) * | 2019-01-10 | 2019-06-18 | 珠海金山网络游戏科技有限公司 | 基于Unity3D的2D坐标映射操作3D角色模型注视的方法及装置 |
CN111968191A (zh) * | 2019-05-20 | 2020-11-20 | 迪士尼企业公司 | 使用梳状神经网络架构的自动图像合成 |
CN111968191B (zh) * | 2019-05-20 | 2024-05-10 | 迪士尼企业公司 | 使用梳状神经网络架构的自动图像合成系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106952325B (zh) | 2020-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106910247A (zh) | 用于生成三维头像模型的方法和装置 | |
CN107657651B (zh) | 表情动画生成方法和装置、存储介质及电子装置 | |
CN109902767B (zh) | 模型训练方法、图像处理方法及装置、设备和介质 | |
CN109816589A (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN107464554A (zh) | 语音合成模型生成方法和装置 | |
CN110766776B (zh) | 生成表情动画的方法及装置 | |
CN107609506A (zh) | 用于生成图像的方法和装置 | |
CN106981099A (zh) | 用于操作三维动画角色的方法和装置 | |
CN107480206A (zh) | 一种基于多模态低秩双线性池化的图像内容问答方法 | |
CN107741976A (zh) | 智能应答方法、装置、介质和电子设备 | |
US20190087683A1 (en) | Method and apparatus for outputting information | |
CA2436352A1 (en) | Process and system for developing a predictive model | |
CN106952325A (zh) | 用于操作三维动画角色的方法和装置 | |
CN106897662A (zh) | 基于多任务学习的人脸关键特征点的定位方法 | |
CN109872276A (zh) | 用于生成图像超分辨率模型的方法和装置 | |
Chang et al. | Redirection controller using reinforcement learning | |
CN108491808A (zh) | 用于获取信息的方法及装置 | |
JP2022513858A (ja) | 顔画像生成用のデータ処理方法、データ処理機器、コンピュータプログラム、及びコンピュータ機器 | |
CN110310247A (zh) | 图像处理方法、装置、终端及计算机可读存储介质 | |
CN107705782A (zh) | 用于确定音素发音时长的方法和装置 | |
CN107343206A (zh) | 支持多视角观看的视频生成方法、装置、介质和电子设备 | |
CN109978074A (zh) | 基于深度多任务学习的图像美感和情感联合分类方法及系统 | |
CN115914505A (zh) | 基于语音驱动数字人模型的视频生成方法及系统 | |
CN107798675A (zh) | 显示图像中拖影的检测方法及装置 | |
CN108268936A (zh) | 用于存储卷积神经网络的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20190528 Address after: 361000 Fujian Xiamen Torch High-tech Zone Software Park Innovation Building Area C 3F-A193 Applicant after: Xiamen Black Mirror Technology Co., Ltd. Address before: 361000 South Building 203-59, Torch Square, No. 56-58 Torch Road, Torch Garden, Xiamen High-tech Zone, Fujian Province Applicant before: XIAMEN HUANSHI NETWORK TECHNOLOGY CO., LTD. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |