CN115115753A - 动画视频处理方法、装置、设备及存储介质 - Google Patents
动画视频处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115115753A CN115115753A CN202210603271.0A CN202210603271A CN115115753A CN 115115753 A CN115115753 A CN 115115753A CN 202210603271 A CN202210603271 A CN 202210603271A CN 115115753 A CN115115753 A CN 115115753A
- Authority
- CN
- China
- Prior art keywords
- animation
- character
- target
- role
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种动画视频处理方法、装置、设备及存储介质,其中,该方法包括:获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。通过本申请可以提高动画视频的制作效率,并降低动画视频的制作复杂度。
Description
技术领域
本申请涉及互联网技术领域,尤其涉及一种动画视频处理方法、装置、设备及存储介质。
背景技术
目前,在制作动画视频的过程中,需要为每个动画角色定制素材,例如,想要为某个动画角色设置N个肢体动作和K个面部表情,N、K为正整数,如果想要不同肢体动作匹配不同的表情,则需要为该动画角色定制N*K个角色素材,导致动画视频的制作效率比较低,且动画视频的制作复杂度比较高。
发明内容
本申请实施例提供一种动画视频处理方法、装置、设备及存储介质,提高动画视频的制作效率,并降低动画视频的制作复杂度。
本申请实施例一方面提供一种动画视频处理方法,包括:
获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;
从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;所述角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与所述目标角色类型匹配的骨骼数据用于描述所述第一动画角色所具有的骨骼,所述目标角色类型对应的动画数据集合包括用于描述所述第一动画角色的姿态的候选动画数据;M为正整数;
从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;
根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。
本申请实施例一方面提供一种动画视频处理装置,包括:
获取模块,用于获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;
确定模块,用于从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;所述角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与所述目标角色类型匹配的骨骼数据用于描述所述第一动画角色所具有的骨骼,所述目标角色类型对应的动画数据集合包括用于描述所述第一动画角色的姿态的候选动画数据;M为正整数;
选择模块,用于从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;
添加模块,用于根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。
本申请实施例一方面提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现所述的方法的步骤。
本申请实施例一方面提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的方法的步骤。
本申请实施例一方面提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现所述的方法的步骤。
本申请中,通过将动画角色的角色素材拆分为骨骼数据、动画数据以及角色皮肤信息,并预先创建角色素材库,此处的角色素材库中包括M个骨骼数据以及M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,该动画数据集合包括候选肢体动作和候选面部表情等;可实现一种角色类型复用(即共享)一个骨骼数据、一个动画数据集合,提高角色素材的复用率。当需要制作某一种角色类型的动画角色时,只需要从角色素材库中获取该角色类型对应的骨骼数据以及动画数据集合,根据该骨骼数据、动画数据集合以及该动画角色的角色皮肤信息,生成包括该角色类型的动画角色的动画视频,不需要为该动画角色的定制角色素材,提高动画视频的制作效率,并降低动画视频的制作复杂度。同时,通过角色皮肤信息能够反映动画角色的个性化特征,提高动画角色的多样性,以及动画视频的制作灵活性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的一种动画视频处理系统的架构示意图;
图2是本申请提供的一种动画视频处理方法的流程示意图;
图3是本申请提供的一种选择动画角色的面部表情和肢体动作的场景示意图;
图4是本申请提供的一种计算机设备的操作系统层与动作制作引擎之间通信的流程示意图;
图5是本申请提供的一种更新动画角色的角色属性信息的流程示意图;
图6是本申请提供的一种视图更新模型与物件之间映射关系的示意图;
图7是本申请提供的一种动画视频处理方法的流程示意图;
图8是本申请提供的一种在动画视频中新增动画角色的流程示意图;
图9是本申请实施例提供的一种动画视频处理装置的结构示意图;
图10是本申请实施例提供的一种动画视频处理装置的结构示意图;
图11是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于更清楚理解本申请,首先介绍实现本申请的动画视频处理方法的动画视频处理系统,如图1所示,该动画视频处理系统中包括服务器10和终端集群,终端集群可以包括一个或者多个终端,这里将不对终端的数量进行限制。如图1所示,终端集群具体可以包括终端1、终端2、…、终端n;可以理解的是,终端1、终端2、终端3、…、终端n均可以与服务器10进行网络连接,以便于每个终端均可以通过网络连接与服务器10之间进行数据交互。
终端安装有为用户提供动画视频的动画视频平台,该动画视频平台可以包括但不限于:游戏制作平台、短视频平台、内容发布平台、音视频播放平台以及购物平台等等能够制作动画视频的平台,用户可以在终端中安装的动画视频平台中制作动画视频、播放动画视频等等。
可理解的是,服务器10可以是指用于为动画视频平台提供后端服务的设备,例如,服务器10可以用于生成动画角色的角色素材库,该角色素材库包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,服务器10还可以用于根据动画角色的骨骼数据、动画数据集合以及动画角色的角色皮肤信息,生成包括该动画角色的动画视频。
可理解的是,服务器可以是独立的一个物理服务器,也可以是至少两个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、中容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端具体可以是指智能手机、平板电脑、笔记本电脑、桌上型电脑、智能音箱、有屏音箱、智能手表、智能电视、车载终端等等,但并不局限于此。各个终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,同时,终端以及服务器的数量可以为一个或至少两个,本申请在此不做限制。
进一步地,请参见图2,是本申请实施例提供的一种动画视频处理方法的流程示意图。如图2所示,该方法可由图1中的终端来执行,也可以由图1中的服务器来执行,还可以由图1中的终端和服务器共同执行,本申请中用于执行该方法的设备可以统称为计算机设备。其中,该动画视频处理方法可以包括如下步骤S101~S104:
S101、计算机设备获取待添加至初始动画视频中的第一动画角色的角色描述信息;该角色描述信息包括角色皮肤信息以及目标角色类型。
本申请中,当某个用户需要在初始动画视频中添加某个动画角色时,所要添加的角色可以称为第一动画角色,该用户可以在动画视频平台中设置第一动画角色的角色描述信息。该初始动画视频中可以包括已经添加的一个或多个动画角色,该初始动画视频还可以包括音频数据、背景图像等等,特别地,初始动画视频中也可以不包括任何内容。相应地,计算机设备可以通过动画视频平台获取第一动画角色的角色描述信息,该角色描述信息包括角色皮肤信息和目标角色类型。目标角色类型可以是根据第一动画角色的体形确定。例如,目标角色类型包括人体、四肢爬行动物、车辆、飞行动物等等,目标角色类型为人体时,第一动画角色可以包括人、机器人、具有人体外形的移动物体等等。当目标角色类型为四肢爬行动物时,第一动画角色可以包括狗、猫、狼、老虎、狮子等等,当目标角色类型为车辆时,第一动画角色可以包括货车、客车、小汽车以及火车等等,当目标角色类型为飞行动物,第一动画角色可以包括海鸟、斑鸠等等。该角色皮肤描述信息包括用于描述第一动画角色的皮肤,如包括第一动画的毛发等等,当目标角色类型为人体时,该第一动画角色的皮肤还包括第一动画角色所穿的衣服,以及所戴的配饰等等。
S102、计算机设备从角色素材库中,确定与该目标角色类型匹配的骨骼数据,以及与该目标角色类型匹配的动画数据集合;该角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与该目标角色类型匹配的骨骼数据用于描述该第一动画角色所具有的骨骼,该目标角色类型对应的动画数据集合包括用于描述该第一动画角色的姿态的候选动画数据,M为正整数。
本申请中,计算机设备可以预先创建角色素材库,或者,从其他设备中获取角色素材库,该角色素材库中包括M个骨骼数据和M个动画数据集合,M为正整数,如M可以为1、2、3……等等,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,也就是说,一种角色类型的所有动画角色可以复用一种骨骼数据和一个动画数据集合,提高角色素材的复用率。进一步,计算机设备可以从角色素材库中,确定与该目标角色类型匹配的骨骼数据,以及与该目标角色类型匹配的动画数据集合。与该目标角色类型匹配的骨骼数据用于反映具有该目标角色类型的动画角色的骨骼,与该目标角色类型匹配的骨骼数据具体用于反映具有该目标角色类型的动画角色的各个身体部件图片所绑定的一根根相互作用且连接的骨骼。例如,骨骼数据包括头部骨骼、手部骨骼、脚部骨骼、腿部骨骼等等,以及这些骨骼之间的连接关系。通过动画数据集合中的候选动画数据来设置骨骼的位置、旋转方向以及放大、缩小,进而生成动画角色的面部表情、肢体动作等等动画,面部表情包括微笑、吃惊、沮丧、哭泣等等,肢体动作包括击掌、行走、点头、挠头、站立等等。角色皮肤信息用于对动画角色的骨骼的外表进行修饰,以展示动画角色的个性化特征。
S103、计算机设备从该目标角色类型对应的动画数据集合中选择候选动画数据,作为该第一动画角色的目标动画数据。
本申请中,通常目标角色类型的动画数据集合包括候选面部表情或候选肢体动作中的任一种或两种,计算机设备可以获取第一动画角色的台词,该第一动画的台词可以是由用户输入的,根据第一动画角色的台词,从该目标角色类型对应的动画数据集合中选择候选动画数据,作为第一动画角色的目标动画数据。例如,计算机设备可以获取第一动画角色的台词的语义信息,根据台词的语义信息,从该目标角色类型对应的动画数据集合中选择候选动画数据,作为第一动画角色的目标动画数据。此处该第一动画角色的台词的语义信息反映第一动画角色的情绪、演绎的内容等等。在一个实施例中,用户可以根据个人喜好、角色需求等等从该目标角色类型对应的动画数据集合中选择候选动画数据,计算机设备可以将用户所选择的候选动画数据作为该第一动画角色的目标动画数据。在一个实施例中,计算机设备可以获取计算机设备对应的对象(如人、动物等)的实际动画数据,该实际动画数据是通过计算设备的摄像装置对计算机设备对应的对象进行拍摄到的,获取该对象的实际动画数据与该目标角色类型对应的动画数据集合中的候选动画数据之间的相似度,将该目标角色类型对应的动画数据集合中,相似度大于相似度阈值的候选动画数据作为第一动画角色的目标动画数据。计算机设备对应的对象所属的对象类型与目标角色类型相同。
可选的,目标角色类型对应的动画数据集合中的候选动画数据包括候选面部表情以及候选肢体动作;上述步骤S103包括:当用户需要添加第一动画角色的面部表情时,可以向计算机设备发送针对该第一动画角色的表情获取指令;相应地,计算机设备响应于针对所述第一动画角色的表情获取指令,在动画视频平台中展示该目标角色类型对应的动画数据集合中的候选面部表情。该候选面部表情可以包括微笑、吃惊、沮丧、哭泣等等;该候选面部表情允许被选择,当动画数据集合中的任一候选面部表情被选择时,计算机设备响应于针对该动画数据集合中的候选面部表情的选择操作,将所选择的候选面部表情,确定为该第一动画角色的面部表情。同理,当用户需要添加第一动画角色的肢体动作时,可以向计算机设备发送针对该第一动画角色的动作获取指令;相应地,计算机设备响应于针对该第一动画角色的动作获取指令,在动画视频平台中展示该目标角色类型对应的动画数据集合中的候选肢体动作。该候选肢体动作包括击掌、行走、点头、挠头、站立等等,动画数据集合中的任一候选肢体动作允许被选择,当动画数据集合中的任一候选肢体动作被选择时,计算机设备响应于针对该动画数据集合中的候选肢体动作的选择操作,将所选择的候选肢体动作,确定为该第一动画角色的肢体动作。进一步,根据该第一动画角色的面部表情和肢体动作,生成该第一动画角色的目标动画数据,该目标动画数据除了包括第一动画角色的肢体动作和面部表情,还可以包括出现肢体动作的起始时间以及持续时长,以及出现面部表情的起始时间和持续时长。当第一动画角色包括台词时,该目标动画数据中还可以包括第一动画角色的嘴型,以及属性嘴型的起始时间以及持续时长。通过展示候选肢体动作和面部表情,有利于用户自主设计多种多样的动画角色,提高动画视频的制作灵活性。
例如,如图3所示,计算机设备可以在动画视频平台的视频制作界面31a中展示键盘选项32a、动作选项33a以及表情选项34a,键盘选项32a用于调用计算机设备中的键盘,以输入动画角色的台词,动作选项33a用于调用角色素材库中的候选肢体动作,表情选项34a用于调用角色素材库中的候选面部表情。视频制作界面31a中还包括预览动画视频35a,预览动画视频35a中包括两个动画角色,分别为动画角色36a和动画角色37a,动画角色36a和动画角色37a的角色类型均为人体,动画角色36a和动画角色37a可以复用一个骨骼数据,一个动画数据集合。用户可以为动画角色36a和动画角色37a分别设置角色皮肤信息,如图3所示,这里的角色皮肤信息包括动画角色的皮肤颜色、头发、以及衣服等等,通过角色皮肤信息的差异,将动画角色36a和动画角色37a修饰出具有不同外形特征的动画角色,如,动画角色36a为一个性别为女性的动画角色,动画角色37a为卡通人物角色。用户还可以通过键盘选项32a、动作选项33a以及表情选项34a对动画角色的台词、面部表情以及肢体动作进行调整。
具体的,当用户对需要为动画角色36a添加表情时,用户可以对表情选项34a执行触控操作,该触控操作可以是指点击、按压或滑动等,计算机设备检测到用户针对表情选项34a的触控操作,即确定接收到针对动画角色36a的表情获取指令,响应于该表情获取指令,在视频制作界面31a中展示角色素材中与人体角色类型匹配的候选面部表情38a。如图3所示,候选面部表情38a包括吃惊、生气、坏笑、眨眼、疑惑、凶、高兴、喜欢等表情,用户可以选择候选面部表情38a中的任一候选面部表情,作为动画角色36a(也可称为小陈)的面部表情,如用户选择高兴的表情,作为动画角色36a的面部表情。进一步,当用户对需要为动画角色36a添加肢体动作时,用户可以对动作选项33a执行触控操作,计算机设备检测到用户针对动作选项33a的触控操作,即确定接收到针对动画角色36a的动作获取指令,响应于该动作获取指令,在视频制作界面31a中展示角色素材中与人体角色类型匹配的候选肢体动作39a。如图3所示,候选肢体动作39a包括挥手、点头、挠头、耸肩、站立、行走、摇头、指点等动作,用户可以选择候选肢体动作39a中的任一候选肢体动作,作为动画角色36a(也可称为小陈)的肢体动作,如用户选择站立,作为动画角色36a的肢体动作。同理,用户还可以按照此方法为动画角色37a选择肢体动作和面部表情,重复之处不再赘述。当获取到动画角色37a、动画角色36a的肢体动作和面部表情后,计算机设备可以根据动画角色37a、动画角色36a的肢体动作和面部表情、角色皮肤信息以及骨骼数据生成动画视频40a,动画视频40a中展示了动画角色37a以及动画角色36a。
可理解的是,本申请中的动作制作引擎为用于制作动画视频的引擎,如该动画制作引擎可以为游戏引擎,游戏引擎,是指一些已编写好的可编辑电脑游戏系统或者一些交互式实时图像应用程序的核心组件,游戏引擎可以为游戏设计者提供各种编写游戏所需的各种工具,其目的在于让游戏设计者能容易和快速地做出游戏程式而不用由零开始,大部分游戏引擎都支持多种平台操作系统,如Linux、Windows。
S104、计算机设备根据该目标动画数据、与该目标角色类型匹配的骨骼数据以及该角色皮肤信息,将该第一动画角色添加至该初始动画视频中,得到目标动画视频。
本申请中,计算机设备可以根据该目标动画数据、与该目标角色类型匹配的骨骼数据以及该角色皮肤信息,将该第一动画角色添加至该初始动画视频中,得到包括第一动画角色的目标动画视频。在生成目标动画视频的过程中,第一动画角色通过复用与其具有相同角色类型的动画角色的骨骼数据和动画数据集合,不需要为第一动画角色定制角色素材,提高动画视频的制作效率,降低动画视频的制作复杂度。
可理解的是,在用户制作动画视频的过程中,计算机设备可以在视频制作界面实时展示预览动画视频,提供实时视频编辑预览,并支持导出动画视频。当计算机展示预览动画视频时,允许用户对预览动画视频中的动画角色的进行拖拽、缩放、镜像等交互操作,进而,根据用户的交互操作,对预览动画视频中的动画角色进行更新。
在一个实施例中,当计算机设备展示目标动画视频后,用户可以对目标动画视频中的第二动画角色的角色属性信息进行更新,第二动画角色可以是指目标动画视频中的任一动画角色,角色属性信息可以包括动画角色的皮肤、肢体动作、面部表情、台词、嘴型等等。相应地,计算机设备可以获取针对该目标动画视频中的第二动画角色的角色属性信息的更新操作,通过用于制作该初始动画视频的动画制作引擎,获取该更新操作对应的操作类型,此处的操作类型包括数据删除类型、数据修改类型以及数据添加类型等等。进一步,计算机设备可以根据该操作类型,对该目标动画视频中的第二动画角色的角色属性信息进行更新。特别地,用户还可以对目标动画视频中的其他内容进行更新,如其他内容可以是指背景音效、背景图像等等,对目标动画视频中的其他内容的更新操作的过程,可以参考对第二动画角色的角色属性信息的更新操作过程,重复之处不再赘述。
例如,如图4所示,计算机设备对第二动画角色的角色信息进行更新的过程包括步骤S41a~S43a:S41a、计算机设备的操作系统层传输数据,具体的,计算机设备的操作系统层可以将目标动画视频的动画角色的原始角色属性信息与待更新的角色属性信息进行比对,确定哪些数据有变更,按照数据转换格式,对变更的角色属性信息进行转换,得到转换后的角色属性信息,根据转换后的角色属性信息生成更新操作,将该更新操作传输给动画制作引擎。此处数据转换格式可以是指动画制作引擎能够识别的数据格式,如Json格式(一种轻量级的数据交换格式)或二进制等等。S42a、数据解析和分发,数据解析是指对更新操作中的数据进行解析,数据分发是指将解析后的数据传输至数据层。具体的,动画制作引擎在接收到更新操作后,将更新操作解析为三部分数据,分别为添加(Add)、修改(Modify)、删除(Delete),作为修改动作制作引擎的数据层的三种操作类型。进一步,按照字典数据结构格式,对解析到到数据进行封装,得到Key值和Value值,Key值为操作类型(Add、Modify、Delete);Value值为Json字符串,用于传递到下一层并再次解析。此处字典数据结构格式是指Key-Value格式。S43a、数据层,此处的数据层可以是指动画制作引擎中用于存储目标动画视频中的背景图像、背景音效、动画角色的角色属性信息等的存储层。当Key值和Value值传输值数据层后,可以根据Key值和Value值对数据层中存储的数据进行更新,进一步,根据数据层对动画视频程序文件、场景树、时间轴等进行更新。
可理解的是,数据层中的数据可以包括如下4种内容:(a)背景图像:存储了每一个分镜的背景数据,比如背景图片的存储地址;(b)背景音效:存储所有背景音效的数据,比如音频的存储地址,持续时间等;(c)角色属性信息:存储每一个动画角色的数据,比如角色皮肤的存储地址、位置、缩放、是否反转等;(d)角色语句:存储所有角色的语句,比如动作动画、表情动画、台词等。可理解的是,数据层中的每一种数据可以以物件(Component)的结构来进行存储,例如,数据层中存储的数据包括:(1)背景物件:存储背景图片的Url地址;Url地址是指统一资源定位符,用于反映对应数据的存储地址;(2)音频物件:存储音频的Url地址;(3)动作动画物件:存储动作动画的Url地址;(4)表情动画物件:存储表情动画的Url地址;(5)角色属性物件:存储角色的位置、缩放、是否翻转等数据;(6)角色皮肤物件:存储角色骨骼数据、皮肤json数据的Url地址;(7)角色台词物件:存储角色台词文字数据,台词音频的Url地址。
可理解的是,上述根据该操作类型,对该目标动画视频中的第二动画角色的角色属性信息进行更新,包括:若该操作类型为目标操作类型,则获取与该动画制作引擎关联的语句更新模型,以及第一事件处理器;该第一事件处理器为用于处理该目标操作类型的更新操作的处理器;该目标操作类型包括数据添加类型或数据删除类型;通过该语句更新模型,将该目标操作类型的更新操作通知给该第一事件处理器;通过该第一事件处理器,对该目标动画视频中的第二动画角色的角色属性信息执行该目标操作类型的更新操作。
当更新操作的操作类型为数据添加类型或数据删除类型时,动画制作引擎可以采用事件委托机制完成数据更新通知,事件委托机制是指动画制作引擎委托语句更新模块通知事件处理器执行数据更新操作的机制。具体的,计算机设备可以获取与该动画制作引擎关联的语句更新模型,以及第一事件处理器;该第一事件处理器为用于处理该目标操作类型的更新操作的处理器。通过该语句更新模型,将该目标操作类型的更新操作通知给该第一事件处理器,通过该第一事件处理器,对该目标动画视频中的第二动画角色的角色属性信息执行该目标操作类型的更新操作。通过语句更新模型通知更新第二动画角色的角色属性信息,不会对其他动画角色的角色属性信息造成影响,提高动画角色更新的准确度。
可理解的是,本申请中的场景树是用来描述动画角色之间的位置关系的树形结构,还用于结合很多算法(如动画视频程序文件、时间轴)来加速动画角色的渲染,当然也有可以拿来做一些逻辑处理方面的加速。一个场景树可以用来组织可见的物体(如动画角色),以及由一群物体组成的动画。本申请中的目标动画视频关联的目标场景树包括一个背景节点、一个音频节点以及多个角色节点,背景节点包括用于展示目标视频数据的背景图像的信息,音频节点包括用于播放音频的信息,一个角色节点与一个动画角色对应,角色节点包括角色属性信息,角色属性信息展示动画角色的样式。因此,当需要对第二动画角色的角色属性信息中的某些信息(如台词)执行删除操作,或者,需要向第二动画角色的角色属性信息中添加信息(如肢体动作)时,计算机设备可以通过该第一事件处理器,获取所述目标动画视频关联的该目标场景树,该目标场景树是指用于描述目标动画视频中的动画角色、背景图像、音频等信息的树形结构。进一步,可以根据该更新操作,对该目标场景树进行更新,得到更新后的目标场景树,根据该更新后的目标场景树,更新该第二动画角色在该目标动画视频中的角色属性信息。例如,该更新操作为第二动画角色添加行走的肢体动作,计算机设备可以所添加的肢体动作添加至第二动画角色在目标场景树中对应的角色节点中,对目标场景树中所添加的肢体动作进行渲染,得到更新后的第二动画角色。
例如,如图5所示,计算机设备接收针对目标动画视频的视频属性数据的更新操作,该更新操作的操作类型为数据添加类型或数据删除类型,视频属性数据可以是指背景图像、背景音效、角色属性信息等等。进一步,将该更新操作发送至动画制作引擎的场景树控制器,场景树控制器为用于管理(如更新、创建)场景树的模块。具体的,动画制作引擎的场景树控制器更新场景树的过程可以包括如下步骤S51a~S65c:S51a、数据更新回调,此处数据更新回调是指接收计算机设备的操作系统层所发送的更新操作,并判断该更新操作的操作类型,若操作类型为数据删除类型,则执行如下步骤S53b~S56b;若操作类型为数据添加类型,则执行如下步骤S52c~S65c。S53b、数据删除类型,即更新操作的操作类型为数据删除类型。S54b、数据类型,此处的数据类型可以是指视频属性数据的数据类型,包括背景图像、背景音效、角色属性等,当数据类型为背景图像时,该更新操作用于指示向目标动画视频中删除背景图像;当数据类型为背景音效时,该更新操作用于指示向目标动画视频中删除背景音频;当数据类型为角色属性时,该更新操作用于指示向目标动画视频中删除动画角色的角色属性信息,并执行S55b~S56b。S55b、角色节点是否创建,如果角色节点没有创建,则结束本次流程;如果角色节点已经创建,则执行S56b。S56b、删除角色节点以及子节点,子节点为用于反映动画角色的皮肤、面部表情、肢体动作等节点。
进一步,S52c、数据添加类型,即更新操作的操作类型为数据添加类型。S54c、数据类型,即确定更新操作对应的视频属性数据的数据类型,该数据类型包括背景图像、背景音效、角色属性等。当数据类型为背景图像时,该更新操作用于指示向目标动画视频中添加背景图像,并执行S55c~S56c;当数据类型为背景音效时,该更新操作用于指示向目标动画视频中添加背景图像,并执行S57c~S58c;当数据类型为角色属性时,该更新操作用于指示向目标动画视频中添加动画角色的角色属性信息,并执行S59c~S65c。S55c、背景节点是否创建,即判断目标场景树中是否包括反映背景图像的节点,若目标场景树中包括反映背景图像的节点,确定背景节点已创建,结束本次流程;若目标场景中不包括反映背景图像的节点,则确定背景节点未创建,则执行步骤S56c。S56c、创建背景节点,完成初始化,目标场景树中不包括反映背景图像的节点,创建背景节点,该背景节点用于反映如何渲染并展示背景图像。S57c、音乐节点是否创建,即判断目标场景树中是否包括反映背景音效的节点,若目标场景树中包括反映背景音效的节点,确定音乐节点已创建,结束本次流程;若目标场景中不包括反映背景音效的节点,则确定音乐节点未创建,则执行步骤S58c。S58c、创建音乐节点,添加音频资源组件,音频资源组件为用于提供音频资源的组件,如音频播放应用等,音乐节点用于生成目标动画视频中的背景音频。若该更新操作具体用于指示向目标动画视频中添加动画角色,则执行步骤S59c~S61c;若更新操作具体用于指示在目标动画视频中创建一个修饰框,则执行步骤S62c~S63c;若更新操作具体用于指示添加目标动画视频中的动画角色B的台词,则执行步骤S64c~S65c。S59c、角色节点是否创建,即更新操作用于指示在目标动画视频中创建一个动画角色,如动画角色A,即判断目标场景树中是否包括反映动画角色A的节点,若目标场景树中包括反映动画角色A的节点,确定动画角色A的角色节点已创建,结束本次流程;若目标场景中不包括反映动画角色A的节点,则确定动画角色A的角色节点未创建,则执行步骤S60c。
进一步,S60c、创建角色节点,完成初始化,如,创建用于反映动画角色A的角色节点。S61c、创建角色节点的子节点-皮肤节点、添加骨骼动画组件,此处骨骼动画组件是指生成动画角色的骨骼动画的组件,此处的骨骼动画是把动画角色的各部分身体部件图片绑定到一根根互相作用连接的“骨头”上,通过控制这些骨骼的位置、旋转方向和放大缩小而生成的动画。S62c、修饰节点是否创建,即更新操作用于指示在目标动画视频中创建一个修饰框,这时可判断目标场景树中是否包括反映动画角色所在画面的修饰框的节点,若目标场景树中包括反映动修饰框对应的节点,确定修饰节点已创建,结束本次流程;若目标场景中不包括反映修饰框的节点,则确定修饰框节点未创建,则执行步骤S63c。S63c、创建修饰框节点,完成初始化,即在目标场景树中创建渲染并展示修饰框的修饰框节点。S64c、台词节点是否创建,即更新操作用于指示添加目标动画视频中的动画角色B的台词,这时可判断目标场景树中是否包括反映动画角色B的台词的节点,若目标场景树中包括反映动画角色B的台词的节点,确定动画角色B的台词节点已创建,结束本次流程;若目标场景中不包括反映动画角色B的台词的节点,则确定动画角色B的台词节点未创建,则执行步骤S65c。S65c、创建动画角色B的台词节点,完成初始化,即在目标场景树中创建渲染并展示动画角色B的台词节点。通过上述方式更新目标场景树后,可以根据更新后的目标场景树更新目标动画视频。
可理解的是,上述根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:若该更新操作的操作类型为数据修改类型,则该更新操作指示更新第二动画角色的皮肤物件(即皮肤)、台词物件(即台词)、肢体动作物件(肢体动作)、面部表情物件(面部表情)。计算机设备可以获取该更新操作对应的更新物件;该更新物件属于所述第二动画角色的物件,即该更新物件可以是指皮肤物件、台词物件、肢体动作物件、面部表情物件中的一种或多种。计算机设备可以从映射表中,查询该更新物件关联的视图更新模型;该映射表用于反映物件与视图更新模型之间的关联关系,该更新物件关联的视图更新模型用于处理所述更新物件对应的更新操作。通过所述视图更新模型,将所述数据修改类型的更新操作通知给所述视图更新模型对应的第二事件处理器;通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作。
可理解的是,如图6所示,映射表中每一个物件都会有一个或者多个视图更新模型(View Model)与之对应,比如:背景物件,会有一个图像视图模型(Image View Model)与之对应,里面用一个命名为path的事件处理器(Event Handler)来负责通知背景图像的Url变更了;角色属性物件,会有一个角色属性视图模型(Role Property View Model)与之对应,里面包括4个事件处理器,分别为动画角色的缩放、位置x坐标、位置y坐标和是否翻转,并负责通知4个属性数据的变更。如图6中,假设目标动画视频中对应的映射表中包物件1、物件2,物件1与视图更新模型1、视图更新模型2相对应,物件2与视图更新模型n、视图更新模型n+1相对应。
具体的,若上述针对第二动画角色的角色属性信息的更新操作对应的更新物件为该第二动画角色的皮肤物件,则接收皮肤物件对应的视图更新模型所发送的更新操作,根据该更新操作,获取用于生成目标动画视频的目标动画视频程序文件。通过该皮肤物件对应的第二事件处理器,采用该更新操作携带的角色皮肤信息,更新该第二动画角色在所述目标动画视频程序文件中的角色皮肤信息,得到更新后的目标动画视频程序文件。进一步,根据该目标动画视频程序文件,更新该第二动画角色在该目标动画视频中的皮肤。可见,在更新第二动画角色的皮肤的过程中,只需要将新的角色皮肤信息,加载至目标动画视频程序文件中,不需要重新创建骨骼数据、动画数据,即更新后的第二动画角色可以复用更新前的第二动画角色的骨骼数据和动画数据,提高动画数据和骨骼数据的复用率,提高动画视频的制作效率,降低动画视频的制作复杂度。
本申请中,通过将动画角色的角色素材拆分为骨骼数据、动画数据以及角色皮肤信息,并预先创建角色素材库,此处的角色素材库中包括M个骨骼数据以及M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,该动画数据集合包括候选肢体动作和候选面部表情等;可实现一种角色类型复用(即共享)一个骨骼数据、一个动画数据集合,提高角色素材的复用率。当需要制作某一种角色类型的动画角色时,只需要从角色素材库中获取该角色类型对应的骨骼数据以及动画数据集合,根据该骨骼数据、动画数据集合以及该动画角色的角色皮肤信息,生成包括该角色类型的动画角色的动画视频,不需要为该动画角色的定制角色素材,提高动画视频的制作效率,并降低动画视频的制作复杂度。同时,通过角色皮肤信息能够反映动画角色的个性化特征,提高动画角色的多样性,以及动画视频的制作灵活性。
进一步地,请参见图7,是本申请实施例提供的一种动画视频处理方法的流程示意图。如图7所示,该方法可由图1中的终端来执行,也可以由图1中的服务器来执行,还可以由图1中的终端和服务器共同执行,本申请中用于执行该方法的设备可以统称为计算机设备。其中,该动画视频处理方法可以包括如下步骤S201~S208:
S201、计算机设备获取待添加至初始动画视频中的第一动画角色的角色描述信息;该角色描述信息包括角色皮肤信息以及目标角色类型。
S202、计算机设备从角色素材库中,确定与该目标角色类型匹配的骨骼数据,以及与该目标角色类型匹配的动画数据集合;该角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与该目标角色类型匹配的骨骼数据用于描述该第一动画角色所具有的骨骼,该目标角色类型对应的动画数据集合包括用于描述该第一动画角色的姿态的候选动画数据。
S203、计算机设备从该目标角色类型对应的动画数据集合中选择候选动画数据,作为该第一动画角色的目标动画数据。
S204、计算机设备获取用于制作所述初始动画视频的动画制作引擎,以及所述动画制作引擎中用于生成所述初始动画视频的动画视频程序文件、初始场景树和初始时间轴。
本申请中,该动画视频程序文件为用于渲染初始动画视频中的每个动画角色的程序,初始场景树用于反映初始动画视频中每个动画角色、背景图像等物件的属性信息,以及位置关系等等,以及用于反映如何展示初始动画视频中的每个动画角色、背景图像等等。初始时间轴用于反映初始动画视频中的动画角色的肢体动作、面部表情、嘴型、台词等出现的起始时间和持续时长。
S205、计算机设备根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段。
本申请中,根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段,即该角色程序片段为用于渲染第一动画角色的程序片段。
具体的,计算机设备可以从角色程序库中,获取第一程序模板,第二程序模板以及第三程序模板;该第一程序模板为用于描述与该目标角色类型匹配的骨骼数据,以及用于生成(即渲染)所述目标角色类型的动画角色的骨骼的程序片段,该第二程序模板为用于生成所述目标角色类型的动画角色的皮肤的程序片段,该第三程序模板为用于生成所述目标角色类型的动画角色的姿态的程序片段。进一步,计算机设备将该角色皮肤信息添加至所述第二程序模板中,得到用于生成所述第一动画角色的皮肤的程序片段,即采用该第一动画角色的角色皮肤信息替换第二程序模板中的初始皮肤信息,得到用于生成该第一动画角色的皮肤的程序片段。然后,将所述目标动画数据添加至所述第三程序模板中,得到用于生成所述第一动画角色的姿态的程序片段,即采用该第一动画角色的目标动画数据替换第二程序模板中的初始动画数据,得到用于生成该第一动画角色的姿态的程序片段。接着,计算机设备可以将该第一程序模板、用于生成该第一动画角色的皮肤的程序片段、用于生成该第一动画角色的姿态的程序片段进行关联,得到用于生成该第一动画角色的角色程序片段,换言之,皮肤对应的程序片段生成的皮肤修饰第一程序模板的生成骨骼,姿态对应的程序片段用于设置第一程序模板的生成的骨骼的姿态,如手部的位置等等。可见,一种角色类型复用一个第一程序模板、第二程序模板以及第三程序模板,不需要为每个动画角色单独编写应用程序,提高动画视频对应的程序文件的复用率,提高动画视频的制作效率。
S206、计算机设备将所述第一动画角色对应的角色程序片段添加至所述动画视频程序文件中,得到目标动画视频程序文件。
本申请中,计算机设备可以将该第一动画角色对应的角色程序片段添加至该动画视频程序文件中,得到第一动画角色关联的目标动画视频程序文件。
S207、计算机设备根据所述目标动画数据和角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴。
计算机设备可以根据该目标动画数据和角色皮肤信息更新该初始场景树,得到与该第一动画角色关联的目标场景树,根据该目标动画数据更新该初始时间轴,得到与该第一动画角色关联的目标时间轴,与第一动画角色关联的目标时间轴用于反映初始动画视频中的动画角色、背景图像、背景音频等的出现的起始时间以及持续时长,还包括第一动画角色出现的起始时间和持续时长。
可理解的是,上述目标动画数据包括动画剪辑;上述动画剪辑用于反映上述第一动画角色的姿态,以及该第一动画角色的姿态出现的起始时间和持续时长;该动画剪辑包括肢体动作对应的动画剪辑、面部表情对应的动画剪辑以及嘴型对应动画剪辑中的一种或多种。上述根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴,包括:计算机设备可以根据该目标动画数据和该角色皮肤信息,在该初始场景树中添加用于反映该第一动画角色的角色节点、与该角色节点关联的第一子节点以及第二子节点,得到与所述第一动画角色关联的场景树。该第一子节点用于反映该第一动画角色的姿态,该第二子节点用于反映该第一动画角色的皮肤。特别地,当第一动画角色具有台词时,可以在初始场景树中添加与第一动画角色的角色节点关联的台词子节点。然后,在该初始时间轴上添加与该角色节点关联的动画轨道,在该动画轨道上标识该第一动画角色的动画剪辑;根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴。可理解的是,轨道可以是指时间轴上用于绑定角色节点和放置剪辑的时间段,剪辑:时间轴上用于设置角色节点的属性以及姿态,以及反映动画角色的属性和姿态的出现的起始时间和持续时长。通过在初始时间轴上建立动画角色,可实现在一条平行时间线上的不同时间点展现不同动画角色的各个状态(如姿态、面部表情),从而构成完整的动画,不同动画角色之间互不干扰,提高动画视频的制作效率。
可理解的是,上述根据添加该动画轨道后的初始时间轴,确定与该第一动画角色关联的目标时间轴,包括:计算机设备可以获取该第一动画角色的属性剪辑、台词剪辑以及音频剪辑;该属性剪辑用于反映该第一动画角色的位置属性,以及该第一动画角色的位置属性出现的起始时间和持续时长;该台词剪辑用于反映所述第一动画角色的台词,以及所述第一动画角色的台词出现的起始时间和持续时长;位置属性用于反映第一动画角色在一个视频帧中的位置。该音频剪辑用于反映该第一动画角色对应的音频,以及该第一动画角色对应的音频出现的起始时间和持续时长。进一步,在添加该动画轨道后的初始时间轴上创建与该角色节点关联的台词轨道和属性轨道;在该台词轨道上标识所述第一动画角色的台词剪辑,在该属性轨道上标识所述第一动画角色的属性剪辑,在音频轨道上标识音频剪辑;将添加音频轨道所述动画轨道、所述属性轨道、台词轨道后的初始时间轴,确定为与所述第一动画角色关联的目标时间轴。可见,每一个动画角色都拥有自己专属的属性轨道、动画轨道、音频轨道、台词轨道,可实现同一个动画角色在台词、音频、动画等的叠加,即动画角色的台词、音频以及动画可以同时播放,丰富动画视频的播放效果。
可理解的是,当动画剪辑包括第一动画剪辑、第二动画剪辑以及第三动画剪辑;该第一动画剪辑为面部表情对应的动画剪辑,第二动画剪辑为肢体动作对应的动画剪辑,第三动画剪辑为嘴型对应的动画剪辑。具体的,该第一动画剪辑用于反映所述第一动画角色的面部表情,以及所述第一动画角色的面部表情出现的起始时间和持续时长,所述第二动画剪辑用于反映所述第一动画角色的肢体动作,以及所述第一动画角色的肢体动作出现的起始时间和持续时长;所述第三动画剪辑用于反映所述第一动画角色的嘴型,以及所述第一动画角色的嘴型出现的起始时间和持续时长。
上述在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑,包括:计算机设备可以在所述初始时间轴上添加与所述角色节点关联的第一动画轨道、第二动画轨道以及第三动画轨道;在所述第一动画轨道上标识所述第一动画剪辑,在所述第二动画轨道上标识所述第二动画剪辑,在所述第三动画轨道上标识所述第三动画剪辑;将所述第一动画轨道、所述第二动画轨道以及所述第三动画轨道,确定为与所述角色节点关联的动画轨道,将所述第一动画剪辑、所述第二动画剪辑以及所述第三动画剪辑确定为所述第一动画角色的动画剪辑。通过为第一动画角色的肢体动作、面部表情以及嘴型创建专属的动画轨道,可实现肢体动作、面部表情以及嘴型的三种动画的叠加,即可实现同时播放第一动画角色的多种动画动作,提高动画视频的播放效果。
例如,图8所示,在初始动画视频中创建一个带有面部表情、肢体动作以及台词的动画角色的基本流程包括步骤S81~S89:S81、新增动画角色;S82、创建角色节点,音频节点。S83、在时间轴上创建属性轨道,创建属性剪辑;S84、添加一句带有表情、动作动画的台词。S85、创建动画轨道1,创建表情动画剪辑,此处的动画轨道1为用于添加新增动画角色的表情动画剪辑的时间段,该动画轨道1是在初始动画视频的初始时间轴上创建的,动画轨道1对应的时间段的起始时刻可以与初始时间轴上的起始时刻对齐;此处的表情动画剪辑用于反映新增动画角色的面部表情,以及面部表情出现的起始时间和持续时长。S86、创建动画轨道2,创建动作动画剪辑,此处的动画轨道2为用于添加新增动画角色的动作动画剪辑的时间段,该动画轨道2是在初始动画视频的初始时间轴上创建的,动画轨道2对应的时间段的起始时刻可以与初始时间轴上的起始时刻对齐;此处的动作动画剪辑用于反映新增动画角色的肢体动作,以及肢体动作出现的起始时间和持续时长。S87、创建动画轨道3,创建嘴型动画剪辑,此处的动画轨道3为用于添加新增动画角色的嘴型动画剪辑的时间段,该动画轨道3是在初始动画视频的初始时间轴上创建的,动画轨道3对应的时间段的起始时刻可以与初始时间轴上的起始时刻对齐;此处的嘴型动画剪辑用于反映新增动画角色的嘴型,以及嘴型出现的起始时间和持续时长。S88、创建台词轨道,创建台词剪辑;该台词轨道为用于添加新增动画角色的台词剪辑的时间段,该台词轨道是在初始动画视频的初始时间轴上创建的,台词轨道对应的时间段的起始时刻可以与初始时间轴上的起始时刻对齐;此处的台词动画剪辑用于反映新增动画角色的台词,以及台词出现的起始时间和持续时长。S89、创建音频轨道、创建音频剪辑,音频轨道为用于添加新增动画角色的音频剪辑的时间段,该音频轨道是在初始动画视频的初始时间轴上创建的,音频轨道对应的时间段的起始时刻可以与初始时间轴上的起始时刻对齐;此处的音频剪辑用于反映新增动画角色对应的音频,以及音频出现的起始时间和持续时长,此处新增动画角色对应的音频为新增动画角色出现时所播放的音频。在步骤S81~S89中,当用户需要创建一个带有面部表情、肢体动作以及台词的动画角色时,终端可以向动画制作引擎发送关于新增动画角色的请求,动画制作引擎接收到该请求时,可以在初始动画视频的对应的场景树中创建反映新增动画角色的角色节点以及新增动画角色对应的音频节点。并在初始动画视频对应的初始时间轴上创建新增动画角色专属的动画轨道、台词轨道、属性轨道以及音频轨道,并在对应的轨道上标识剪辑,可实现,同一动画角色在音频、表情动画、嘴型动画、动作动画(即肢体动作)上的叠加,可同时播放同一动画角色的音频、表情动画、嘴型动画、动作动画(即肢体动作),提高动画视频的播放效果。
S208、计算机设备通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频。
可理解的是,上述通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频,包括:计算机设备可以按照目标时间轴和目标动画视频程序文件,依次渲染并播放目标场景树中的动画角色、背景图像以及音频数据、台词等等,通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行视频录制,得到视频帧;录制组件为用于录制视频和音频的组件,如Natcoder。通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行音频录制,得到音频帧;若所述目标场景树中的动画角色均播放完成,则对所述视频帧和所述音频帧进行合成,得到包括所述第一动画角色的目标动画视频。
本申请中,通过将动画角色的角色素材拆分为骨骼数据、动画数据以及角色皮肤信息,并预先创建角色素材库,此处的角色素材库中包括M个骨骼数据以及M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,该动画数据集合包括候选肢体动作和候选面部表情等;可实现一种角色类型复用(即共享)一个骨骼数据、一个动画数据集合,提高角色素材的复用率。当需要制作某一种角色类型的动画角色时,只需要从角色素材库中获取该角色类型对应的骨骼数据以及动画数据集合,根据该骨骼数据、动画数据集合以及该动画角色的角色皮肤信息,生成包括该角色类型的动画角色的动画视频,不需要为该动画角色的定制角色素材,提高动画视频的制作效率,并降低动画视频的制作复杂度。同时,通过角色皮肤信息能够反映动画角色的个性化特征,提高动画角色的多样性,以及动画视频的制作灵活性。
请参见图9,是本申请实施例提供的一种动画视频处理装置的结构示意图。如图9所示,该动画视频处理装置可以包括:获取模块911、确定模块912、选择模块913、添加模块914。
获取模块911,用于获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;
确定模块912,用于从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;所述角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与所述目标角色类型匹配的骨骼数据用于描述所述第一动画角色所具有的骨骼,所述目标角色类型对应的动画数据集合包括用于描述所述第一动画角色的姿态的候选动画数据;M为正整数;
选择模块913,用于从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;
添加模块914,用于根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。
根据本申请的一个实施例,图9所示的动画视频处理装置中的各个模块可以分别或全部合并为一个或若干个单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的至少两个子单元,可以实现同样的操作,而不影响本申请的实施例的技术效果的实现。上述模块是基于逻辑功能划分的,在实际应用中,一个模块的功能也可以由至少两个单元来实现,或者至少两个模块的功能由一个单元实现。在本申请的其它实施例中,动画视频处理装置也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由至少两个单元协作实现。
根据本申请的一个实施例,可以通过在包括中央处理单元(CPU)、随机存取存储介质(RAM)、只读存储介质(ROM)等处理组件和存储组件的例如计算机的通用计算机设备上运行能够执行如图2中所示的相应方法所涉及的各步骤的计算机程序(包括程序代码),来构造如图9中所示的动画视频处理装置,以及来实现本申请实施例的动画视频处理方法。上述计算机程序可以记载于例如计算机可读记录介质上,并通过计算机可读记录介质装载于上述计算设备中,并在其中运行。
本申请中,通过将动画角色的角色素材拆分为骨骼数据、动画数据以及角色皮肤信息,并预先创建角色素材库,此处的角色素材库中包括M个骨骼数据以及M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,该动画数据集合包括候选肢体动作和候选面部表情等;可实现一种角色类型复用(即共享)一个骨骼数据、一个动画数据集合,提高角色素材的复用率。当需要制作某一种角色类型的动画角色时,只需要从角色素材库中获取该角色类型对应的骨骼数据以及动画数据集合,根据该骨骼数据、动画数据集合以及该动画角色的角色皮肤信息,生成包括该角色类型的动画角色的动画视频,不需要为该动画角色的定制角色素材,提高动画视频的制作效率,并降低动画视频的制作复杂度。同时,通过角色皮肤信息能够反映动画角色的个性化特征,提高动画角色的多样性,以及动画视频的制作灵活性。
请参见图10,是本申请实施例提供的一种动画视频处理装置的结构示意图。如图10所示,该动画视频处理装置可以包括:添加模块111a、选择模块121b以及更新模块131c。
添加模块111a包括获取单元112a、确定单元113a、添加单元114a、更新单元115a以及生成单元116a。
获取单元112a,用于获取用于制作所述初始动画视频的动画制作引擎,以及所述动画制作引擎中用于生成所述初始动画视频的动画视频程序文件、初始场景树和初始时间轴;
确定单元113a,用于根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段;
添加单元114a,用于将所述第一动画角色对应的角色程序片段添加至所述动画视频程序文件中,得到目标动画视频程序文件;
更新单元115a,用于根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴;
生成单元116a,用于通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频。
可理解的是,确定单元113a根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段,包括:
从角色程序库中,获取第一程序模板,第二程序模板以及第三程序模板;所述第一程序模板为用于描述与所述目标角色类型匹配的骨骼数据,以及用于生成所述目标角色类型的动画角色的骨骼的程序片段,所述第二程序模板为用于生成所述目标角色类型的动画角色的皮肤的程序片段,所述第三程序模板为用于生成所述目标角色类型的动画角色的姿态的程序片段;
将所述角色皮肤信息添加至所述第二程序模板中,得到用于生成所述第一动画角色的皮肤的程序片段;
将所述目标动画数据添加至所述第三程序模板中,得到用于生成所述第一动画角色的姿态的程序片段;
将所述第一程序模板、用于生成所述第一动画角色的皮肤的程序片段、用于生成所述第一动画角色的姿态的程序片段进行关联,得到用于生成所述第一动画角色的角色程序片段。
可选的,所述目标动画数据包括动画剪辑;所述动画剪辑用于反映所述第一动画角色的姿态,以及所述第一动画角色的姿态出现的起始时间和持续时长;所述更新单元115a,用于根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴,包括:
根据所述目标动画数据和所述角色皮肤信息,在所述初始场景树中添加用于反映所述第一动画角色的角色节点、与所述角色节点关联的第一子节点以及第二子节点,得到与所述第一动画角色关联的场景树;所述第一子节点用于反映所述第一动画角色的姿态,所述第二子节点用于反映所述第一动画角色的皮肤;
在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑;
根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴。
可理解的是,更新单元115a,用于根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴,包括:
获取所述第一动画角色的属性剪辑、台词剪辑以及音频剪辑;所述属性剪辑用于反映所述第一动画角色的位置属性,以及所述第一动画角色的位置属性出现的起始时间和持续时长;所述台词剪辑用于反映所述第一动画角色的台词,以及所述第一动画角色的台词出现的起始时间和持续时长;所述音频剪辑用于反映所述第一动画角色对应的音频,以及所述第一动画角色对应的音频出现的起始时间和持续时长;
在添加所述动画轨道后的初始时间轴上创建与所述角色节点关联的台词轨道、属性轨道以及音频轨道;
在所述台词轨道上标识所述第一动画角色的台词剪辑,在所述属性轨道上标识所述第一动画角色的属性剪辑,在所述音频轨道上标识所述音频剪辑;
将添加所述动画轨道、所述属性轨道、所述台词轨道、所述音频轨道后的初始时间轴,确定为与所述第一动画角色关联的目标时间轴。
可理解的是,所述动画剪辑包括第一动画剪辑、第二动画剪辑以及第三动画剪辑;所述第一动画剪辑用于反映所述第一动画角色的面部表情,以及所述第一动画角色的面部表情出现的起始时间和持续时长,所述第二动画剪辑用于反映所述第一动画角色的肢体动作,以及所述第一动画角色的肢体动作出现的起始时间和持续时长;所述第三动画剪辑用于反映所述第一动画角色的嘴型,以及所述第一动画角色的嘴型出现的起始时间和持续时长;更新单元115a在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑,包括:
在所述初始时间轴上添加与所述角色节点关联的第一动画轨道、第二动画轨道以及第三动画轨道;
在所述第一动画轨道上标识所述第一动画剪辑,在所述第二动画轨道上标识所述第二动画剪辑,在所述第三动画轨道上标识所述第三动画剪辑;
将所述第一动画轨道、所述第二动画轨道以及所述第三动画轨道,确定为与所述角色节点关联的动画轨道,将所述第一动画剪辑、所述第二动画剪辑以及所述第三动画剪辑确定为所述第一动画角色的动画剪辑。
可理解的是,生成单元116a通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频,包括:
根据所述目标时间轴和所述目标动画视频程序文件,依次播放所述目标场景树中的动画角色;
通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行视频录制,得到视频帧;
通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行音频录制,得到音频帧;
若所述目标场景树中的动画角色均播放完成,则对所述视频帧和所述音频帧进行合成,得到包括所述第一动画角色的目标动画视频。
可理解的是,选择模块121b包括第一展示单元122b,第一选择单元123b、第二展示单元124b以及第二选择单元125b。
第一展示单元122b,用于响应于针对所述第一动画角色的表情获取指令,展示所述目标角色类型对应的动画数据集合中的候选面部表情;
第一选择单元123b,用于响应于针对所述动画数据集合中的候选面部表情的选择操作,将所选择的候选面部表情,确定为所述第一动画角色的面部表情;
第二展示单元124b,用于响应于针对所述第一动画角色的动作获取指令,展示所述目标角色类型对应的动画数据集合中的候选肢体动作;
响应于针对所述动画数据集合中的候选肢体动作的选择操作,将所选择的候选肢体动作,确定为所述第一动画角色的肢体动作;
第二选择单元125b,用于根据所述第一动画角色的面部表情和肢体动作,生成所述第一动画角色的目标动画数据。
可理解的是,更新模块131c,用于获取针对所述目标动画视频中的第二动画角色的角色属性信息的更新操作;通过用于制作所述初始动画视频的动画制作引擎,获取所述更新操作对应的操作类型;根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新。
可理解的是,所述更新模块131c根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:
若所述操作类型为目标操作类型,则获取与所述动画制作引擎关联的语句更新模型,以及第一事件处理器;所述第一事件处理器为用于处理所述目标操作类型的更新操作的处理器;所述目标操作类型包括数据添加类型或数据删除类型;
通过所述语句更新模型,将所述目标操作类型的更新操作通知给所述第一事件处理器;
通过所述第一事件处理器,对所述目标动画视频中的第二动画角色的角色属性信息执行所述目标操作类型的更新操作。
可选的,更新模块131c通过所述第一事件处理器,对所述目标动画视频中的第二动画角色的角色属性信息执行所述目标操作类型的更新操作,包括:
通过所述第一事件处理器,获取所述目标动画视频关联的所述目标场景树;
根据所述更新操作,对所述目标场景树进行更新,得到更新后的目标场景树;
根据所述更新后的目标场景树,更新所述第二动画角色在所述目标动画视频中的角色属性信息。
可理解的是,更新模块131c根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:
若所述操作类型为数据修改类型,则获取所述更新操作对应的更新物件;所述更新物件属于所述第二动画角色的物件;
从映射表中,查询所述更新物件关联的视图更新模型;所述映射表用于反映物件与视图更新模型之间的关联关系,所述更新物件关联的视图更新模型用于处理所述更新物件对应的更新操作;
通过所述视图更新模型,将所述数据修改类型的更新操作通知给所述视图更新模型对应的第二事件处理器;
通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作。
可理解的是,更新模块131c通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作,包括:
若所述更新物件为所述第二动画角色的皮肤物件,则获取用于生成目标动画视频的目标动画视频程序文件;
通过所述第二事件处理器,采用所述更新操作携带的角色皮肤信息,更新所述第二动画角色在所述目标动画视频程序文件中的角色皮肤信息,得到更新后的目标动画视频程序文件;
根据所述目标动画视频程序文件,更新所述第二动画角色在所述目标动画视频中的皮肤。
本申请中,通过将动画角色的角色素材拆分为骨骼数据、动画数据以及角色皮肤信息,并预先创建角色素材库,此处的角色素材库中包括M个骨骼数据以及M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,该动画数据集合包括候选肢体动作和候选面部表情等;可实现一种角色类型复用(即共享)一个骨骼数据、一个动画数据集合,提高角色素材的复用率。当需要制作某一种角色类型的动画角色时,只需要从角色素材库中获取该角色类型对应的骨骼数据以及动画数据集合,根据该骨骼数据、动画数据集合以及该动画角色的角色皮肤信息,生成包括该角色类型的动画角色的动画视频,不需要为该动画角色的定制角色素材,提高动画视频的制作效率,并降低动画视频的制作复杂度。同时,通过角色皮肤信息能够反映动画角色的个性化特征,提高动画角色的多样性,以及动画视频的制作灵活性。
请参见图11,是本申请实施例提供的一种计算机设备的结构示意图。如图11所示,上述计算机设备1000可以为终端或服务器,包括:处理器1001,网络接口1004和存储器1005,此外,上述计算机设备1000还可以包括:用户接口1003,和至少一条通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,在一些实施例中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非易失性的存储器(non-volatilememory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个在远离前述处理器1001的存储装置。如图11所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图11所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;
从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;所述角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与所述目标角色类型匹配的骨骼数据用于描述所述第一动画角色所具有的骨骼,所述目标角色类型对应的动画数据集合包括用于描述所述第一动画角色的姿态的候选动画数据;M为正整数;
从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;
根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频,包括:
获取用于制作所述初始动画视频的动画制作引擎,以及所述动画制作引擎中用于生成所述初始动画视频的动画视频程序文件、初始场景树和初始时间轴;
根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段;
将所述第一动画角色对应的角色程序片段添加至所述动画视频程序文件中,得到目标动画视频程序文件;
根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴;
通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段,包括:
从角色程序库中,获取第一程序模板,第二程序模板以及第三程序模板;所述第一程序模板为用于描述与所述目标角色类型匹配的骨骼数据,以及用于生成所述目标角色类型的动画角色的骨骼的程序片段,所述第二程序模板为用于生成所述目标角色类型的动画角色的皮肤的程序片段,所述第三程序模板为用于生成所述目标角色类型的动画角色的姿态的程序片段;
将所述角色皮肤信息添加至所述第二程序模板中,得到用于生成所述第一动画角色的皮肤的程序片段;
将所述目标动画数据添加至所述第三程序模板中,得到用于生成所述第一动画角色的姿态的程序片段;
将所述第一程序模板、用于生成所述第一动画角色的皮肤的程序片段、用于生成所述第一动画角色的姿态的程序片段进行关联,得到用于生成所述第一动画角色的角色程序片段。
可理解的是,所述目标动画数据包括动画剪辑;所述动画剪辑用于反映所述第一动画角色的姿态,以及所述第一动画角色的姿态出现的起始时间和持续时长;
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴,包括:
根据所述目标动画数据和所述角色皮肤信息,在所述初始场景树中添加用于反映所述第一动画角色的角色节点、与所述角色节点关联的第一子节点以及第二子节点,得到与所述第一动画角色关联的场景树;所述第一子节点用于反映所述第一动画角色的姿态,所述第二子节点用于反映所述第一动画角色的皮肤;
在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑;
根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴,包括:
获取所述第一动画角色的属性剪辑、台词剪辑以及音频剪辑;所述属性剪辑用于反映所述第一动画角色的位置属性,以及所述第一动画角色的位置属性出现的起始时间和持续时长;所述台词剪辑用于反映所述第一动画角色的台词,以及所述第一动画角色的台词出现的起始时间和持续时长;所述音频剪辑用于反映所述第一动画角色对应的音频,以及所述第一动画角色对应的音频出现的起始时间和持续时长;
在添加所述动画轨道后的初始时间轴上创建与所述角色节点关联的台词轨道、属性轨道以及音频轨道;
在所述台词轨道上标识所述第一动画角色的台词剪辑,在所述属性轨道上标识所述第一动画角色的属性剪辑,在所述音频轨道上标识所述音频剪辑;
将添加所述动画轨道、所述属性轨道、所述台词轨道、所述音频轨道后的初始时间轴,确定为与所述第一动画角色关联的目标时间轴。
可理解的是,所述动画剪辑包括第一动画剪辑、第二动画剪辑以及第三动画剪辑;所述第一动画剪辑用于反映所述第一动画角色的面部表情,以及所述第一动画角色的面部表情出现的起始时间和持续时长,所述第二动画剪辑用于反映所述第一动画角色的肢体动作,以及所述第一动画角色的肢体动作出现的起始时间和持续时长;所述第三动画剪辑用于反映所述第一动画角色的嘴型,以及所述第一动画角色的嘴型出现的起始时间和持续时长。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑,包括:
在所述初始时间轴上添加与所述角色节点关联的第一动画轨道、第二动画轨道以及第三动画轨道;
在所述第一动画轨道上标识所述第一动画剪辑,在所述第二动画轨道上标识所述第二动画剪辑,在所述第三动画轨道上标识所述第三动画剪辑;
将所述第一动画轨道、所述第二动画轨道以及所述第三动画轨道,确定为与所述角色节点关联的动画轨道,将所述第一动画剪辑、所述第二动画剪辑以及所述第三动画剪辑确定为所述第一动画角色的动画剪辑。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频,包括:
根据所述目标时间轴和所述目标动画视频程序文件,依次播放所述目标场景树中的动画角色;
通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行视频录制,得到视频帧;
通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行音频录制,得到音频帧;
若所述目标场景树中的动画角色均播放完成,则对所述视频帧和所述音频帧进行合成,得到包括所述第一动画角色的目标动画视频。
可理解的是,目标角色类型对应的动画数据集合中的候选动画数据包括候选面部表情以及候选肢体动作。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据,包括:
响应于针对所述第一动画角色的表情获取指令,展示所述目标角色类型对应的动画数据集合中的候选面部表情;
响应于针对所述动画数据集合中的候选面部表情的选择操作,将所选择的候选面部表情,确定为所述第一动画角色的面部表情;
响应于针对所述第一动画角色的动作获取指令,展示所述目标角色类型对应的动画数据集合中的候选肢体动作;
响应于针对所述动画数据集合中的候选肢体动作的选择操作,将所选择的候选肢体动作,确定为所述第一动画角色的肢体动作;
根据所述第一动画角色的面部表情和肢体动作,生成所述第一动画角色的目标动画数据。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:获取针对所述目标动画视频中的第二动画角色的角色属性信息的更新操作;
通过用于制作所述初始动画视频的动画制作引擎,获取所述更新操作对应的操作类型;
根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:
若所述操作类型为目标操作类型,则获取与所述动画制作引擎关联的语句更新模型,以及第一事件处理器;所述第一事件处理器为用于处理所述目标操作类型的更新操作的处理器;所述目标操作类型包括数据添加类型或数据删除类型;
通过所述语句更新模型,将所述目标操作类型的更新操作通知给所述第一事件处理器;
通过所述第一事件处理器,对所述目标动画视频中的第二动画角色的角色属性信息执行所述目标操作类型的更新操作。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现通过所述第一事件处理器,对所述目标动画视频中的第二动画角色的角色属性信息执行所述目标操作类型的更新操作,包括:
通过所述第一事件处理器,获取所述目标动画视频关联的所述目标场景树;
根据所述更新操作,对所述目标场景树进行更新,得到更新后的目标场景树;
根据所述更新后的目标场景树,更新所述第二动画角色在所述目标动画视频中的角色属性信息。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:
若所述操作类型为数据修改类型,则获取所述更新操作对应的更新物件;所述更新物件属于所述第二动画角色的物件;
从映射表中,查询所述更新物件关联的视图更新模型;所述映射表用于反映物件与视图更新模型之间的关联关系,所述更新物件关联的视图更新模型用于处理所述更新物件对应的更新操作;
通过所述视图更新模型,将所述数据修改类型的更新操作通知给所述视图更新模型对应的第二事件处理器;
通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作。
可理解的是,处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作,包括:
若所述更新物件为所述第二动画角色的皮肤物件,则获取用于生成目标动画视频的目标动画视频程序文件;
通过所述第二事件处理器,采用所述更新操作携带的角色皮肤信息,更新所述第二动画角色在所述目标动画视频程序文件中的角色皮肤信息,得到更新后的目标动画视频程序文件;
根据所述目标动画视频程序文件,更新所述第二动画角色在所述目标动画视频中的皮肤。
本申请中,通过将动画角色的角色素材拆分为骨骼数据、动画数据以及角色皮肤信息,并预先创建角色素材库,可实现一种角色类型复用(即共享)一个骨骼数据、一个动画数据集合,提高角色素材的复用率。此处的角色素材库中包括M个骨骼数据以及M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,该动画数据集合包括候选肢体动作和候选面部表情等。因此,当需要制作某一种角色类型的动画角色时,只需要从角色素材库中获取该角色类型的骨骼数据以及动画数据集合,根据该骨骼数据、动画数据集合以及该动画角色的角色皮肤信息,生成包括该角色类型的动画角色的动画视频,不需要为该动画角色的定制角色素材,提高动画视频的制作效率,并降低动画视频的制作复杂度。同时,通过角色皮肤信息能够反映动画角色的个性化特征,提高动画角色的多样性,以及动画视频的制作灵活性。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图2以及前文图7所对应实施例中对上述动画视频处理方法的描述,也可执行前文图9以及图10所对应实施例中对上述动画视频处理装置的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且上述计算机可读存储介质中存储有前文提及的动画视频处理装置所执行的计算机程序,且上述计算机程序包括程序指令,当上述处理器执行上述程序指令时,能够执行前文图2以及前文图7对应实施例中对上述动画视频处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
作为示例,上述程序指令可被部署在一个计算机设备上执行,或者被部署在一个地点的至少两个计算机设备上执行,又或者,在分布在至少两个地点且通过通信网络互连的至少两个计算机设备上执行,分布在至少两个地点且通过通信网络互连的至少两个计算机设备可以组成区块链网络。
上述计算机可读存储介质可以是前述任一实施例提供的动画视频处理装置或者上述计算机设备的中部存储单元,例如计算机设备的硬盘或中存。该计算机可读存储介质也可以是该计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(flash card)等。进一步地,该计算机可读存储介质还可以既包括该计算机设备的中部存储单元也包括外部存储设备。该计算机可读存储介质用于存储该计算机程序以及该计算机设备所需的其他程序和数据。该计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同媒体中容,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、装置、产品或设备固有的其他步骤单元。
可理解的是,本申请以上实施例如果需要用到用户信息等,需要获得用户许可或者同意,需要遵守相关国家和地区的相关法律法规。
本申请实施例还提供了一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现前文图2和图7对应实施例中对上述动画视频处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机程序产品的实施例中未披露的技术细节,请参照本申请方法实施例的描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例提供的方法及相关装置是参照本申请实施例提供的方法流程图和/或结构示意图来描述的,具体可由计算机程序指令实现方法流程图和/或结构示意图的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。这些计算机程序指令可提供到通用计算机、专用计算机、嵌入式处理机或其他可编程网络连接设备的处理器以产生一个机器,使得通过计算机或其他可编程网络连接设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程网络连接设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程网络连接设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或结构示意一个方框或多个方框中指定的功能的步骤。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (17)
1.一种动画视频处理方法,其特征在于,包括:
获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;
从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;所述角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与所述目标角色类型匹配的骨骼数据用于描述所述第一动画角色所具有的骨骼,所述目标角色类型对应的动画数据集合包括用于描述所述第一动画角色的姿态的候选动画数据;M为正整数;
从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;
根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。
2.如权利要求1所述的方法,其特征在于,所述根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频,包括:
获取用于制作所述初始动画视频的动画制作引擎,以及所述动画制作引擎中用于生成所述初始动画视频的动画视频程序文件、初始场景树和初始时间轴;
根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段;
将所述第一动画角色对应的角色程序片段添加至所述动画视频程序文件中,得到目标动画视频程序文件;
根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴;
通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频。
3.如权利要求2所述的方法,其特征在于,所述根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,确定用于生成所述第一动画角色的角色程序片段,包括:
从角色程序库中,获取第一程序模板,第二程序模板以及第三程序模板;所述第一程序模板为用于描述与所述目标角色类型匹配的骨骼数据,以及用于生成所述目标角色类型的动画角色的骨骼的程序片段,所述第二程序模板为用于生成所述目标角色类型的动画角色的皮肤的程序片段,所述第三程序模板为用于生成所述目标角色类型的动画角色的姿态的程序片段;
将所述角色皮肤信息添加至所述第二程序模板中,得到用于生成所述第一动画角色的皮肤的程序片段;
将所述目标动画数据添加至所述第三程序模板中,得到用于生成所述第一动画角色的姿态的程序片段;
将所述第一程序模板、用于生成所述第一动画角色的皮肤的程序片段、用于生成所述第一动画角色的姿态的程序片段进行关联,得到用于生成所述第一动画角色的角色程序片段。
4.如权利要求2所述的方法,其特征在于,所述目标动画数据包括动画剪辑;所述动画剪辑用于反映所述第一动画角色的姿态,以及所述第一动画角色的姿态出现的起始时间和持续时长;
所述根据所述目标动画数据和所述角色皮肤信息更新所述初始场景树,得到与所述第一动画角色关联的目标场景树,根据所述目标动画数据更新所述初始时间轴,得到与所述第一动画角色关联的目标时间轴,包括:
根据所述目标动画数据和所述角色皮肤信息,在所述初始场景树中添加用于反映所述第一动画角色的角色节点、与所述角色节点关联的第一子节点以及第二子节点,得到与所述第一动画角色关联的场景树;所述第一子节点用于反映所述第一动画角色的姿态,所述第二子节点用于反映所述第一动画角色的皮肤;
在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑;
根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴。
5.如权利要求4所述的方法,其特征在于,所述根据添加所述动画轨道后的初始时间轴,确定与所述第一动画角色关联的目标时间轴,包括:
获取所述第一动画角色的属性剪辑、台词剪辑以及音频剪辑;所述属性剪辑用于反映所述第一动画角色的位置属性,以及所述第一动画角色的位置属性出现的起始时间和持续时长;所述台词剪辑用于反映所述第一动画角色的台词,以及所述第一动画角色的台词出现的起始时间和持续时长;所述音频剪辑用于反映所述第一动画角色对应的音频,以及所述第一动画角色对应的音频出现的起始时间和持续时长;
在添加所述动画轨道后的初始时间轴上创建与所述角色节点关联的台词轨道、属性轨道以及音频轨道;
在所述台词轨道上标识所述第一动画角色的台词剪辑,在所述属性轨道上标识所述第一动画角色的属性剪辑,在所述音频轨道上标识所述音频剪辑;
将添加所述动画轨道、所述属性轨道、所述台词轨道、所述音频轨道后的初始时间轴,确定为与所述第一动画角色关联的目标时间轴。
6.如权利要求5所述的方法,其特征在于,所述动画剪辑包括第一动画剪辑、第二动画剪辑以及第三动画剪辑;所述第一动画剪辑用于反映所述第一动画角色的面部表情,以及所述第一动画角色的面部表情出现的起始时间和持续时长,所述第二动画剪辑用于反映所述第一动画角色的肢体动作,以及所述第一动画角色的肢体动作出现的起始时间和持续时长;所述第三动画剪辑用于反映所述第一动画角色的嘴型,以及所述第一动画角色的嘴型出现的起始时间和持续时长;
所述在所述初始时间轴上添加与所述角色节点关联的动画轨道,在所述动画轨道上标识所述第一动画角色的动画剪辑,包括:
在所述初始时间轴上添加与所述角色节点关联的第一动画轨道、第二动画轨道以及第三动画轨道;
在所述第一动画轨道上标识所述第一动画剪辑,在所述第二动画轨道上标识所述第二动画剪辑,在所述第三动画轨道上标识所述第三动画剪辑;
将所述第一动画轨道、所述第二动画轨道以及所述第三动画轨道,确定为与所述角色节点关联的动画轨道,将所述第一动画剪辑、所述第二动画剪辑以及所述第三动画剪辑确定为所述第一动画角色的动画剪辑。
7.如权利要求2所述的方法,其特征在于,所述通过所述动画制作引擎,基于所述目标动画视频程序文件、所述目标场景树以及目标时间轴,生成包括所述第一动画角色的目标动画视频,包括:
根据所述目标时间轴和所述目标动画视频程序文件,依次播放所述目标场景树中的动画角色;
通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行视频录制,得到视频帧;
通过所述动画制作引擎调用录制组件,对播放所述目标场景树中的动画角色的过程进行音频录制,得到音频帧;
若所述目标场景树中的动画角色均播放完成,则对所述视频帧和所述音频帧进行合成,得到包括所述第一动画角色的目标动画视频。
8.如权利要求1所述的方法,其特征在于,所述目标角色类型对应的动画数据集合中的候选动画数据包括候选面部表情以及候选肢体动作;
所述从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据,包括:
响应于针对所述第一动画角色的表情获取指令,展示所述目标角色类型对应的动画数据集合中的候选面部表情;
响应于针对所述动画数据集合中的候选面部表情的选择操作,将所选择的候选面部表情,确定为所述第一动画角色的面部表情;
响应于针对所述第一动画角色的动作获取指令,展示所述目标角色类型对应的动画数据集合中的候选肢体动作;
响应于针对所述动画数据集合中的候选肢体动作的选择操作,将所选择的候选肢体动作,确定为所述第一动画角色的肢体动作;
根据所述第一动画角色的面部表情和肢体动作,生成所述第一动画角色的目标动画数据。
9.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取针对所述目标动画视频中的第二动画角色的角色属性信息的更新操作;
通过用于制作所述初始动画视频的动画制作引擎,获取所述更新操作对应的操作类型;
根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新。
10.如权利要求9所述的方法,其特征在于,所述根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:
若所述操作类型为目标操作类型,则获取与所述动画制作引擎关联的语句更新模型,以及第一事件处理器;所述第一事件处理器为用于处理所述目标操作类型的更新操作的处理器;所述目标操作类型包括数据添加类型或数据删除类型;
通过所述语句更新模型,将所述目标操作类型的更新操作通知给所述第一事件处理器;
通过所述第一事件处理器,对所述目标动画视频中的第二动画角色的角色属性信息执行所述目标操作类型的更新操作。
11.如权利要求10所述的方法,其特征在于,所述通过所述第一事件处理器,对所述目标动画视频中的第二动画角色的角色属性信息执行所述目标操作类型的更新操作,包括:
通过所述第一事件处理器,获取所述目标动画视频关联的所述目标场景树;
根据所述更新操作,对所述目标场景树进行更新,得到更新后的目标场景树;
根据所述更新后的目标场景树,更新所述第二动画角色在所述目标动画视频中的角色属性信息。
12.如权利要求9所述的方法,其特征在于,所述根据所述操作类型,对所述目标动画视频中的第二动画角色的角色属性信息进行更新,包括:
若所述操作类型为数据修改类型,则获取所述更新操作对应的更新物件;所述更新物件属于所述第二动画角色的物件;
从映射表中,查询所述更新物件关联的视图更新模型;所述映射表用于反映物件与视图更新模型之间的关联关系,所述更新物件关联的视图更新模型用于处理所述更新物件对应的更新操作;
通过所述视图更新模型,将所述数据修改类型的更新操作通知给所述视图更新模型对应的第二事件处理器;
通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作。
13.如权利要求12所述的方法,其特征在于,所述通过所述第二事件处理器,对所述目标动画视频中的第二动画角色的更新物件,执行所述数据修改类型的更新操作,包括:
若所述更新物件为所述第二动画角色的皮肤物件,则获取用于生成目标动画视频的目标动画视频程序文件;
通过所述第二事件处理器,采用所述更新操作携带的角色皮肤信息,更新所述第二动画角色在所述目标动画视频程序文件中的角色皮肤信息,得到更新后的目标动画视频程序文件;
根据所述目标动画视频程序文件,更新所述第二动画角色在所述目标动画视频中的皮肤。
14.一种动画视频处理装置,其特征在于,包括:
获取模块,用于获取待添加至初始动画视频中的第一动画角色的角色描述信息;所述角色描述信息包括角色皮肤信息以及目标角色类型;
确定模块,用于从角色素材库中,确定与所述目标角色类型匹配的骨骼数据,以及与所述目标角色类型匹配的动画数据集合;所述角色素材库中包括M个骨骼数据和M个动画数据集合,一个骨骼数据、一个动画数据集合分别与一种角色类型匹配,与所述目标角色类型匹配的骨骼数据用于描述所述第一动画角色所具有的骨骼,所述目标角色类型对应的动画数据集合包括用于描述所述第一动画角色的姿态的候选动画数据;M为正整数;
选择模块,用于从所述目标角色类型对应的动画数据集合中选择候选动画数据,作为所述第一动画角色的目标动画数据;
添加模块,用于根据所述目标动画数据、与所述目标角色类型匹配的骨骼数据以及所述角色皮肤信息,将所述第一动画角色添加至所述初始动画视频中,得到目标动画视频。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至13中任一项所述的方法的步骤。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至13中任一项所述的方法的步骤。
17.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至13中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210603271.0A CN115115753A (zh) | 2022-05-30 | 2022-05-30 | 动画视频处理方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210603271.0A CN115115753A (zh) | 2022-05-30 | 2022-05-30 | 动画视频处理方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115115753A true CN115115753A (zh) | 2022-09-27 |
Family
ID=83326415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210603271.0A Pending CN115115753A (zh) | 2022-05-30 | 2022-05-30 | 动画视频处理方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115115753A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115129212A (zh) * | 2022-05-30 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 视频编辑方法、装置、计算机设备、存储介质及产品 |
CN115631286A (zh) * | 2022-12-21 | 2023-01-20 | 北京百度网讯科技有限公司 | 图像渲染方法、装置、设备和存储介质 |
-
2022
- 2022-05-30 CN CN202210603271.0A patent/CN115115753A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115129212A (zh) * | 2022-05-30 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 视频编辑方法、装置、计算机设备、存储介质及产品 |
CN115631286A (zh) * | 2022-12-21 | 2023-01-20 | 北京百度网讯科技有限公司 | 图像渲染方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10467792B1 (en) | Simulating communication expressions using virtual objects | |
CN108010112B (zh) | 动画处理方法、装置及存储介质 | |
CN107294838B (zh) | 社交应用的动画生成方法、装置、系统以及终端 | |
US20190004793A1 (en) | Application system that enables a plurality of runtime versions of an application | |
CN112598785B (zh) | 虚拟形象的三维模型生成方法、装置、设备及存储介质 | |
US10860345B2 (en) | System for user sentiment tracking | |
CN115115753A (zh) | 动画视频处理方法、装置、设备及存储介质 | |
KR101951761B1 (ko) | 모바일 환경에서 제공되는 서비스에서 아바타를 제공하는 아바타 서비스 시스템 및 방법 | |
CN110766776A (zh) | 生成表情动画的方法及装置 | |
CN108109209A (zh) | 一种基于增强现实的视频处理方法及其装置 | |
JP2021528714A (ja) | アバター生成装置およびコンピュータプログラム | |
US20230177755A1 (en) | Predicting facial expressions using character motion states | |
CN113810729B (zh) | 直播氛围特效匹配方法、装置、设备及介质 | |
US20140310335A1 (en) | Platform for creating context aware interactive experiences over a network | |
CN118176484A (zh) | 虚拟对象结构和相互关系 | |
KR101977893B1 (ko) | 영상컨텐츠 적용 디지털액터의 운용방법 | |
Preda et al. | Avatar interoperability and control in virtual Worlds | |
CN117519825A (zh) | 一种数字人分身交互方法、装置、电子设备和存储介质 | |
CN115220613A (zh) | 一种事件提示处理方法、装置、设备及介质 | |
KR102184162B1 (ko) | 반응형 웹툰 제작 시스템 및 방법 | |
CN113556578B (zh) | 视频生成方法、装置、终端及存储介质 | |
JP2013175066A (ja) | 3次元フィギアを構成するデータを配信するための方法、システム、サーバ装置、端末装置およびプログラム | |
CN115455230A (zh) | 一种舞蹈生成方法及系统 | |
CN112734949B (zh) | Vr内容的属性修改方法、装置、计算机设备及存储介质 | |
US20240062497A1 (en) | Method and system for generating virtual content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |