CN114140564A - 表情创建方法及装置 - Google Patents
表情创建方法及装置 Download PDFInfo
- Publication number
- CN114140564A CN114140564A CN202111481961.5A CN202111481961A CN114140564A CN 114140564 A CN114140564 A CN 114140564A CN 202111481961 A CN202111481961 A CN 202111481961A CN 114140564 A CN114140564 A CN 114140564A
- Authority
- CN
- China
- Prior art keywords
- expression
- editing
- model
- target
- target expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供表情创建方法及装置,其中所述表情创建方法包括:获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径;接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数;基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。使得角色扮演类游戏、CG影视动画、虚拟AI形象等行业的产业内容制作效率提升,开发成本降低,并且能重复利用已有的资源,最大程度上提高资源利用率和开发效率。生成的角色表情表现更加生动灵活,更能受到市场的欢迎,大众的接受度更高。
Description
技术领域
本申请涉及图形建模技术领域,特别涉及一种表情创建方法。本申请同时涉及一种表情创建装置、一种计算设备,以及一种计算机可读存储介质。
背景技术
随着互联网技术的发展,虚拟角色的剧情演出变得越加华丽和复杂,剧情演出从原本的立绘UI演出,演变为Live2D或3D场景中的即时演出。场景中的即时演出中有大量的细节,针对其中的角色表情,现有技术中,将角色表情拆分成多个模块,通过骨骼控制角色面部表情的制作,把每个表情通过3D建模软件一帧一帧的绘图,实现屏幕上的动画效果,最终在建模软件中显示的就是一个表情作为一个模型。然而,一帧一帧的绘制角色的表情,使得内容制作效率低下,开发成本变高,资源利用率和开发效率都不理想,并且通过骨骼控制角色面部表情的制作时,在骨骼数量有限的情况下,不能很好的表现角色的表情,在骨骼数量较多的情况下,相互融合控制表情的工作量会变得极大,出现资源损耗。
发明内容
有鉴于此,本申请实施例提供了一种表情创建方法,以解决现有技术中存在的技术缺陷。本申请实施例同时提供了一种表情创建装置,一种计算设备,以及一种计算机可读存储介质。
根据本申请实施例的第一方面,提供了一种表情创建方法,包括:
获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径;
接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数;
基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。
可选地,还包括:
基于所述目标表情模型的表情节点对所述目标表情模型进行划分,得到至少一个表情对象;
基于预设命名规则与至少一个表情对象的属性信息,对所述目标表情模型和所述至少一个表情对象分别进行命名;
建立所述目标表情模型和所述至少一个表情对象的映射关系;
其中,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数,包括:
基于所述编辑指令,编辑配置所述资源路径的所述目标表情模型中所述至少一个表情对象的表情参数。
可选地,所述基于所述目标表情模型的表情节点对所述目标表情模型进行划分,得到至少一个表情对象包括:
查询所述目标表情模型中的全部节点,并将全部节点中的参数可变化的节点确定为表情节点;
确定所述表情节点中相邻的表情节点,并将相邻的表情节点划分到同一个表情对象集合;
基于所述表情对象集合,确定所述目标表情模型的至少一个表情对象。
可选地,所述接收通过所述时间轴对应的编辑区域提交的编辑指令包括:
接收通过所述时间轴对应的编辑区域提交的点击指令;
基于所述点击指令确定所述时间轴上的一个时间点;
接收在所述时间点上提交的编辑指令。
可选地,所述基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数包括:
基于所述编辑指令确定所述目标表情模型中的编辑对象;
基于所述编辑指令确定所述编辑对象设定的目标值;
在所述编辑指令结束的情况下,基于编辑对象及所述目标值确定表情参数。
可选地,还包括:
在接收到针对状态辅助机提交的调用指令的情况下,响应于所述调用指令确定目标时间区间;
通过所述状态辅助机对所述目标时间区间的所述目标表情模型配置所述表情参数;
在所述表情参数配置完成的情况下,执行所述基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画步骤。
可选地,所述基于所述表情参数编辑结果对所述目标表情模型进行渲染包括:
针对所述目标表情模型配置材质;
确定所述目标表情模型关联的身体模型,并对所述身体模型和所述目标表情模型进行拼接;
确定拼接后的身体模型和目标表情模型位于的待渲染场景,针对所述待渲染场景中的渲染控件进行调整;
基于调整后的渲染控件,渲染包含拼接后的身体模型和目标表情模型的待渲染场景并展示。
根据本申请实施例的第二方面,提供了一种表情创建装置,包括:
获取模块,被配置为获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径;
接收模块,被配置为接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数;
渲染模块,被配置为基于所述表情参数编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。
根据本申请实施例的第三方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令实现权利要求1-7任意一项表情创建方法的步骤。
根据本申请实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-7任意一项表情创建方法的步骤。
根据本申请实施例的第五方面,提供了一种芯片,其存储有计算机程序,该计算机程序被芯片执行时实现所述表情创建方法的步骤。
本申请提供的表情创建方法,通过为获取的目标表情模型配置时间轴和资源路径,接收时间轴对应的编辑区域提交的编辑指令,根据资源路径查找编辑指令对应的目标表情模型,再根据编辑指令编辑目标表情模型的表情参数,并将编辑完成的目标表情模型进行渲染,生成目标表情模型的表情动画。使得角色扮演类游戏、CG影视动画、虚拟AI形象等行业的产业内容制作效率提升,开发成本降低,并且能重复利用已有的资源,最大程度上提高资源利用率和开发效率。生成的角色表情表现更加生动灵活,更能受到市场的欢迎,大众的接受度更高。
附图说明
图1是本申请一实施例提供的一种表情创建方法的流程图;
图2是本申请一实施例提供的一种应用于游戏场景的表情创建方法的处理流程图;
图3是本申请一实施例提供的一种表情创建方法的操作界面示意图;
图4是本申请一实施例提供的一种表情创建装置的结构示意图;
图5是本申请一实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
PBR(基于物理的渲染,英语:Physically Based Rendering),它指的是一些在不同程度上都基于与现实世界的物理原理更相符的基本理论所构成的渲染技术的集合。
SSS(次表面散射,英语:Sub-Surface-Scattering),用来描述光线穿过透明/半透明表面时发生散射的照明现象,是指光从表面进入物体经过内部散射,然后又通过物体表面的其他顶点出射的光线传递过程。
时间轴(英语:Timeline),是Flash的一大特点,在以往的动画制作中,通常是要绘制作出每一帧的图像,或是通过程序来制作,而Flash使用关键帧技术,通过对时间轴上的关键帧的制作,Flash会自动生成运动中的动画帧,节省了制作人员的大部分的时间,也提高了效率。在时间轴的上面有一个红色的线,那是播放的定位磁头,拖动磁头也可以实现动画的观察,这在制作当中是很重要的步骤。
FBX文件,是FilmBoX这套软件所使用的格式,后改称Motionbuilder,最大的用途是用在诸如在Max、Maya、Softimage等软件间进行模型、材质、动作和摄影机信息的互导,这样就可以发挥Max和Maya等软件的优势。
在本申请中,提供了一种表情创建方法。本申请同时涉及一种表情创建装置、一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1示出了根据本申请一实施例提供的一种表情创建方法的流程图,具体包括以下步骤:
步骤S102:获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径。
本申请应用于客户端,通过表情编辑程序对目标表情模型进行调用、编辑和渲染。
其中,时间轴为目标表情模型的表情变化提供时间维度的支持,使配置后的目标表情模型的每一帧具备先后顺序,以保证目标表情模型的表情变化具现化,表情编辑程序可基于时间轴查看并编辑每一帧的目标表情模型;资源路径为目标表情模型的单独存放路径,可用于统一管理,资源路径就作为该目标表情模型的唯一标识符,目标表情模型可通过资源路径去链接获取。
基于此,表情编辑程序获取至少一个表情模型,并为每一个表情模型配置资源路径,明确每一个表情模型的存储路径,那么所有的表情模型就能被统一管理,表情编辑程序可通过资源路径去链接获取任一表情模型,其中对于需要进行表情编辑的表情模型,被称作目标表情模型。对于被获取到的目标表情模型,表情编辑程序可以为其配置新的资源路径,以区分于其余表情模型。表情编辑程序对目标表情模型配置时间轴,使目标表情模型进行表情编辑时,表情编辑程序可具现化目标表情模型的表情变化过程,基于时间轴查看并编辑每一帧的目标表情模型。
进一步的,在几个目标表情模型的编辑中,几个目标表情模型不需要全部表情节点都进行变化,或是几个目标表情模型之间只有部分表情节点进行变化的情况下,若还是对所有的目标表情模型的所有表情节点都单独进行编辑,会极大的影响目标表情模型的处理效率,浪费系统资源。这时将目标表情模型进行划分,使各部分可以重复利用,自由组合就可以解决此类问题,本实施例中,具体实现方式如下:
基于所述目标表情模型的表情节点对所述目标表情模型进行划分,得到至少一个表情对象;基于预设命名规则与至少一个表情对象的属性信息,对所述目标表情模型和所述至少一个表情对象分别进行命名;建立所述目标表情模型和所述至少一个表情对象的映射关系。
其中,表情节点为目标表情模型中的可改变相对位置信息的节点,通过改变表情节点可以控制目标表情模型中的表情节点进行位置变化;表情对象为目标表情模型中相邻的表情节点的集合,例如人脸模型中的嘴巴、眼睛等;
基于此,表情编辑程序基于目标表情模型中的节点,查询出目标表情模型中的表情节点,并根据表情节点对目标表情模型进行划分,得到至少一个表情对象,而后对得到的至少一个表情对象进行命名,并根据得到的表情对象以及与其对应的目标表情模型建立映射关系。
举例说明,在目标表情模型的表情编辑过程中,表情编辑程序对一个人脸模型进行编辑,表情编辑程序对人脸模型上的表情节点进行查询,得到包括嘴唇、眼睛、鼻子、眉毛上的表情节点,之后依据这些表情节点对人脸模型进行划分,得到嘴唇、眼睛、鼻子、眉毛这四个表情对象。在表情编辑程序得到嘴唇、眼睛、鼻子、眉毛这四个表情对象之后,表情编辑程序对这些表情对象进行命名,得到mouth.fbx、eye.fbx、nose.fbx和eyebrow.fbx文件。
综上,对于目标表情模型进行划分,得到表情对象,使目标表情对象进行编辑的情况下,可以对资源进行重复利用,减少资源浪费,增加目标表情模型的编辑效率,且对目标表情模型的编辑更加自由与简单。
此外,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数,包括:
基于所述编辑指令,编辑配置所述资源路径的所述目标表情模型中所述至少一个表情对象的表情参数。
其中,由于表情对象与对应的目标表情模型建立了映射关系,那么在对目标表情模型进行编辑的时候,也可以根据映射关系找到待编辑的目标表情模型对应的表情对象,表情编辑程序可以对其中的需要进行表情参数编辑的表情对象进行针对性的编辑。
基于此,表情编辑程序对目标表情模型进行编辑的时候,根据目标表情模型以及对应的表情对象的映射关系,获取目标表情模型对应的表情对象,基于所述的编辑指令,确定需要进行表情参数编辑的表情对象,并对选中的表情对象进行编辑。
沿用上例,在表情编辑程序对人脸模型进行划分之后,得到了对应的表情对象,在之后的对人脸对象进行编辑的过程中,通过人脸对象的映射关系,得到对应的表情对象mouth.fbx、eye.fbx、nose.fbx和eyebrow.fbx;表情编辑程序基于接收到的编辑指令,确定需要进行表情参数编辑的表情对象为eye.fbx之后,基于编辑指令,对eye.fbx的表情参数进行编辑。
进一步的,表情对象的获取不仅仅局限于表情编辑程序对人脸划分,亦可以从其他系统或程序中获取已经划分完成的表情对象,例如表情编辑程序自表情对象编辑程序获取到表情对象eye.fbx,将其存储至表情制作引擎,并可对表情制作引擎内的表情对象eye.fbx进行编辑与渲染,需要说明的是,本实施例对获取表情对象的系统与程序不做限定。
而且表情编辑程序关于表情对象,还可以将基于同一表情对象的不同表情参数进行分别存储与编辑,例如同样的表情对象eye.fbx,因为具有不同的表情参数,可以分别存储为eye1.fbx、eye2.fbx,其中eye1.fbx可以代表笑脸中的眼睛,而eye2.fbx可以代表哭泣中的眼睛,表情编辑模型可以基于需求选择eye1.fbx、eye2.fbx中的任意一个进行编辑,并映射至人脸模型之上,需要说明的是,本实施例对于存储与编辑的表情对象的种类与参数数量不进行限制。
综上,通过对表情对象的获取途径的开放,使表情对象的获取更为多元,使表情编辑更加方便,并且通过对不同参数的表情对象进行存储、调用与编辑,使得资源进行重复利用,减少资源浪费,增加目标表情模型的编辑效率,且对目标表情模型的编辑更加自由与简单。
进一步的,表情编辑程序对目标表情模型进行划分,得到表情对象的过程中,需要将各个表情对象在目标表情模型对应关系确定,以保证准确划分,本实施例中,具体实现方式如下:
查询所述目标表情模型中的全部节点,并将全部节点中的参数可变化的节点确定为表情节点;确定所述表情节点中相邻的表情节点,并将相邻的表情节点划分到同一个表情对象集合;基于所述表情对象集合,确定所述目标表情模型的至少一个表情对象。
其中,表情对象集合为预设规则下对应的表情节点的集合。
基于此,表情编辑程序对目标表情模型中的所有节点进行查询,将其中可编辑表情参数的节点确定为表情节点,也就是说表情节点在人脸模型中是位置可发生变化的点,例如嘴角、眉梢等,基于表情节点的概念,可以得知,表情对象为目标表情模型中连续的表情节点组合而成,那么将相邻的表情节点划分至同一个表情对象集合,再根据每一个表情对象集合,得到目标表情模型中的各个表情对象。
举例说明,表情编辑程序对获取的目标表情模型中的所有节点a1,a2,……,b1,b2,……,c1,c2,……,d1,d2……进行查询,确定其中可以对表情参数进行编辑的节点为表情节点a2,a3,……,b3,b9,……,c2,c6,……,d7,d11……,将得到的表情节点中连续的表情节点划分到不同的表情对象集合U1,U2,U3,U4中,并基于表情对象集合U1,U2,U3,U4得到各个表情对象mouth.fbx、eye.fbx、nose.fbx和eyebrow.fbx。
综上,基于目标表情模型中的节点确定表情节点,再将表情节点中连续的部分确定为一个表情对象,通过这种方法可以清楚有效的得到目标表情模型中的表情对象。
步骤S104:接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数。
具体的,在为目标表情模型确定时间轴和资源路径后,表情编辑程序可以基于资源路径查询目标表情对象的位置信息并进行调用,然后基于目标表情模型配置的时间轴对目标表情模型的参数进行编辑。
其中,编辑指令中包含着目标表情模型的资源路径以及表情参数进行编辑的信息,时间轴对应的编辑区域为表情编辑程序对于目标表情模型进行编辑对应的时间区域。
基于此,表情编辑程序接收到对目标表情模型进行编辑的编辑指令,基于编辑指令中的对目标表情模型的对应时间区域内的表情参数进行编辑的信息,确定目标表情模型中需要进行编辑的时间区域,以及目标表情模型中需要进行编辑的表情参数,最终对目标表情模型进行编辑。
进一步的,在表情编辑程序获取到编辑指令后,从中确定了目标表情模型需要进行编辑的时间段信息,还需要针对此时间段信息选取目标表情模型的时间轴上的对应时间区域,本实施例中,具体实现方式如下所述:
接收通过所述时间轴对应的编辑区域提交的点击指令;基于所述点击指令确定所述时间轴上的一个时间点;接收在所述时间点上提交的编辑指令。
其中,点击指令为表情编辑程序针对目标表情模型中,基于编辑指令确定的时间区域信息进行选取的指令,此时间区域信息标记着目标表情模型需要进行表情参数编辑的时间段。
基于此,表情编辑程序获取点击指令,并根据此点击指令选取目标表情模型中的时间轴中对应的时间点,并基于此时间点,获取对应于此时间点的编辑指令。
举例说明,表情编辑程序接受到编辑指令,基于编辑指令中的携带的资源路径的信息确定需要编辑的目标表情模型为人脸模型,再确定人脸模型中的需要进行编辑的时间点T1、T2、……,表情编辑程序基于已知的时间点,将各个时间点对应的编辑指令引入。
综上,基于编辑指令,可以确定需要编辑的目标表情模型的中需要进行编辑的时间点,对时间点对应的编辑信息进行引入,可以精确的对目标表情模型中各个需要编辑的时间点内的表情参数进行编辑。做到节省系统的计算资源,进行针对性的表情参数编辑。
进一步的,在表情编辑程序选定了表情编辑模型需要进行编辑的时间轴对应区域后,需要基于编辑指令对表情参数模型进行编辑,本实施例中,具体实现方式如下所述:
基于所述编辑指令确定所述目标表情模型中的编辑对象;基于所述编辑指令确定所述编辑对象设定的目标值;在所述编辑指令结束的情况下,基于编辑对象及所述目标值确定表情参数。
其中,编辑对象为通过资源路径选定的目标表情模型中需要进行编辑的部分。
基于此表情编辑程序基于编辑指令选中目标表情模型中需要编辑的编辑对象,并基于编辑指令确定所述编辑对象中的表情参数需要设定的目标值,之后表情编辑程序基于目标值对目标表情模型的编辑对象的表情参数进行编辑。
举例说明,表情编辑程序通过编辑指令确定人脸图像上需要编辑的区域为编辑对象,再获取编辑指令中携带的对编辑对象的表情参数进行编辑的目标值,基于目标值对编辑对象的表情参数进行编辑。
综上,通过获取编辑指令中的目标值,可以对目标表情模型进行编辑,得到希望得到的表情参数的目标表情模型。
步骤S106:基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。
具体的,在目标表情模型中的表情参数已经编辑完成的情况下,还需要对目标表情模型进行渲染,使之成为一段表情动画。
表情编辑程序获取到基于编辑指令进行表情参数编辑的目标表情模型,对目标表情模型进行渲染,生成目标表情模型的表情动画。
进一步的,在动画制作过程中,经常会遇到许多循环的动画表情,例如说话和喘气等,若是所有的循环动画都需要进行制作,这无疑是工作量巨大的,影响动画制作效率,所以需要缓解循环动画重复制作工作的繁重,本实施例中,具体实现方式如下所述:
在接收到针对状态辅助机提交的调用指令的情况下,响应于所述调用指令确定目标时间区间;通过所述状态辅助机对所述目标时间区间的所述目标表情模型配置所述表情参数;在所述表情参数配置完成的情况下,执行所述基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画步骤。
其中,状态辅助机为辅助完成重复动画编辑得到程序脚本。
基于此,状态辅助机被调用后,对完成表情参数编辑的目标表情模型的重复时间区间进行确认,得到目标时间区间,根据此时间区间内的目标表情模型的参数变化,自动生成与其完全相同的几段目标表情模型,并将生成的几段目标表情模型进行拼接,形成一个重复目标时间区间内的目标表情模型表情参数变化的动画数据,然后将此数据进行渲染就得到了一个重复循环的表情动画。
也就是说,状态辅助机可以对播放模式进行设置,其中,播放模式包括循环与非循环模式,循环模式一般是用于说话之类的需要循环播放的表情,非循环模式一般是用于播放一次的表情。
举例说明,状态辅助机被调用,对完成表情参数编辑的人脸模型的重复时间区间进行确认,得知人脸模型的嘴部从开到合再到开,基于此,状态辅助机将此段时间轴上的人脸模型进行复制,并将复制得出的几个人脸模型的时间轴进行拼接,就得到了一个嘴部不断张合的人脸模型,对其进行渲染,得到了一个说话表情的人脸模型。
综上,经过状态辅助机的辅助,可以减轻重复循环表情动画的制作的工作量,提升工作效率。
进一步的,在表情动画的渲染过程中,由于动画人物所处的环境、场景不同,那么针对不同的环境、场景,会有不同的光影和明暗,所以在渲染过程中还要结合场景与环境因素,本实施例中,具体实现方式如下所述:
针对所述目标表情模型配置材质;确定所述目标表情模型关联的身体模型,并对所述身体模型和所述目标表情模型进行拼接;确定拼接后的身体模型和目标表情模型位于的待渲染场景,针对所述待渲染场景中的渲染控件进行调整;基于调整后的渲染控件,渲染包含拼接后的身体模型和目标表情模型的待渲染场景并展示。
其中,材质为目标表情模型呈现在人物头像上的头像参数,尤其是基于PBR与SSS渲染。
具体的,表情编辑程序针对场景信息与预设参数,针对目标表情模型呈现的人物头像配置材质,并且将人物头像与人物的身体模型进行拼接,确定拼接完成的人物形象,再根据场景信息,调整渲染场景中的渲染控件,其中,渲染控件包括但不限于灯光系统、相机系统,最终将拼接完成的人物形象在渲染场景中进行渲染,得到的动画在渲染场景中进行展示。
举例说明,表情编辑程序渲染表情参数已经编辑完成的人脸模型,设定人脸模型所在的人物头像相关的表面光线散射(PBR)与内部光线色散(SSS)参数,即对人物头像配置材质,之后将人物头像与人物的身体模型进行拼接,得到人物形象,根据场景信息,调整灯光系统与相机系统,最后将得到的人物模型进行渲染,得到预设表情的人物动画。
综上,通过以上的渲染过程,可以得到任意场景下的任意人物形象的表情动画。
本申请提供的表情创建方法,通过为获取的目标表情模型配置时间轴和资源路径,接收时间轴对应的编辑区域提交的编辑指令,根据资源路径查找编辑指令对应的目标表情模型,再根据编辑指令编辑目标表情模型的表情参数,并将编辑完成的目标表情模型进行渲染,生成目标表情模型的表情动画。使得角色扮演类游戏、CG影视动画、虚拟AI形象等行业的产业内容制作效率提升,开发成本降低,并且能重复利用已有的资源,最大程度上提高资源利用率和开发效率。生成的角色表情表现更加生动灵活,更能受到市场的欢迎,大众的接受度更高。
下述结合附图2,以本申请提供的表情创建方法对人脸模型动画的生成应用为例,对所述表情创建方法进行进一步说明。其中,图2示出了本申请一实施例提供的一种应用于游戏场景的表情创建方法的处理流程图,具体包括以下步骤:
步骤S202:查询所述目标表情模型中的全部节点,并将全部节点中的参数可变化的节点确定为表情节点。
具体的,表情编辑程序对获取的目标表情模型中的所有节点a1,a2,……,b1,b2,……,c1,c2,……进行查询,确定其中可以对表情参数进行编辑的节点为表情节点a2,a3,……,b3,b9,……,c2,c6,……。
步骤S204:确定所述表情节点中相邻的表情节点,并将相邻的表情节点划分到同一个表情对象集合。
具体的,表情编辑程序将得到的表情节点中连续的表情节点划分到不同的表情对象集合U1,U2,U3中。
步骤S206:基于所述表情对象集合,确定所述目标表情模型的至少一个表情对象。
具体的,表情编辑程序基于表情对象集合U1,U2,U3得到各个表情对象。
步骤S208:基于预设命名规则与至少一个表情对象的属性信息,对所述目标表情模型和所述至少一个表情对象分别进行命名。
具体的,表情编辑程序基于预设的命名规则将人脸模型与得到各个表情对象进行命名,其中,表情编辑程序确定人脸模型中各个表情对象的表情名不是专用的表情名,所以在没有专用表情名时使用统一表情名,因此,人脸模型中各个表情对象的表情名分别被配置为c.fbx以及c1.fbx、c2.fbx、c3.fbx。
其中,需要说明的是,表情分为通用表情和专用表情,专用表情为角色特殊的表情,例如特定人物的专有表情,而通用表情则是所有角色都可以应用的表情,并可以通过统一的表情名进行索引,这样在场景切换或是场景内的角色切换的情况下,除了专用表情需要进行重新设置,其余的通用表情不需要特地去调整其表情配置,例如角色A不具备专用表情,只能应用通用表情L1.fbx、L2.fbx、L3.fbx、L4.fbx、L5.fbx,在场景转换之后,角色从A变为B,此时知悉角色B具有专用表情BB.fbx,那么此时角色B可应用的表情为BB.fbx、L1.fbx、L2.fbx、L3.fbx、L4.fbx、L5.fbx,且在表情应用的时候,只需要对专用表情BB.fbx进行一定的表情配置,而通用表情在无特殊情况下,不需要进行额外的表情配置。
步骤S210:建立所述目标表情模型和所述至少一个表情对象的映射关系。
具体的,表情编辑程序判断表情对象c1.fbx、c2.fbx、c3.fbx为人脸模型c.fbx之中划分出来的,那么将表情对象c1.fbx、c2.fbx、c3.fbx与人脸模型c.fbx建立映射关系,如图3中所示的资源路径区的c.fbx与c1.fbx、c2.fbx、c3.fbx。
步骤S212:基于所述编辑指令确定所述编辑对象。
具体的,表情编辑程序确定人脸模型c.fbx上的编辑对象c1.fbx
步骤S214:接收通过所述时间轴对应的编辑区域提交的点击指令。
具体的,表情编辑程序接受到对表情对象c1.fbx的时间轴的对应的编辑区域的点击指令。
步骤S216:基于所述点击指令确定所述时间轴上的一个时间点。
具体的,表情编辑程序基于点击指令确定所述时间轴上的一个时间点T1,如图3时间轴区所示。
步骤S218:接收在所述时间点上提交的编辑指令。
具体的,表情编辑程序确定编辑指令中对于时间点T1上的表情对象c1.fbx的表情参数的编辑内容。
步骤S220:基于所述编辑指令确定所述编辑对象设定的目标值。
具体的,表情编辑程序基于编辑指令对时间点T1上的表情对象c1.fbx的表情参数进行编辑的目标值。
步骤S222:基于编辑对象及所述目标值确定表情参数。
具体的,表情编辑程序基于编辑指令对时间点T1上的表情对象c1.fbx的表情参数进行编辑的目标值,对时间点T1上的表情对象c1.fbx的表情参数进行编辑。如图3中参数编辑区所示。
步骤S224:在接收到针对状态辅助机提交的调用指令的情况下,响应于所述调用指令确定目标时间区间。
具体的,表情编辑程序确定编辑指令中对于表情对象c1.fbx的编辑是循环的,表情对象c2.fbx、表情对象c3.fbx的编辑是不循环的,此时表情编辑程序调用状态辅助机,使状态辅助机响应于表情对象c1.fbx循环编辑的时间区间。
步骤S226:通过所述状态辅助机对所述目标时间区间的所述目标表情模型配置所述表情参数。
具体的,表情编辑程序指示状态辅助机将表情对象c1.fbx循环编辑的时间区间进行复制,并将复制后的表情对象c1.fbx循环编辑的时间区间的时间轴进行拼接。得到表情对象c1.fbx的循环时间区间。
步骤S228:针对所述目标表情模型配置材质。
具体的,表情编辑程序为经过状态辅助机编辑的表情对象c1.fbx与正常编辑的表情对象c2.fbx、c3.fbx配置材质,得到人物头像。
步骤S230:确定所述目标表情模型关联的身体模型,并对所述身体模型和所述目标表情模型进行拼接。
具体的,表情编辑程序将人物头像与相关联的身体模型拼接,得到人物模型。
步骤S232:确定拼接后的身体模型和目标表情模型位于的待渲染场景,针对所述待渲染场景中的渲染控件进行调整。
具体的,表情编辑程序确定待渲染场景为空场景,针对所述待渲染场景中的灯光系统、相机系统进行调整。
步骤S234:基于调整后的渲染控件,渲染包含拼接后的身体模型和目标表情模型的待渲染场景并展示。
具体的,表情编辑程序在待渲染场景中对人物模型进行渲染与展示。渲染与展示所在位置如图3表情渲染区。
其中在进行表情对象c1.fbx的展示过程中,需要不显示表情对象c2.fbx的动作,那么此时屏蔽掉表情对象c2.fbx动作的时间轴,以此不显示表情对象c2.fbx的动作,而在一段时间后表情对象c1.fbx需要停止动作,表情对象c2.fbx需要开始动作,那么此时屏蔽表情对象c1.fbx的时间轴,展示表情对象c2.fbx的时间轴。
更进一步的,若c2.fbx为普通表情的嘴部动作,c1.fbx为说话表情的嘴部动作,也就是说,在游戏场景中,引擎运行时使用将角色脸部的表情节点分别挂到普通表情和说话表情的时间轴上,在角色说话时,屏蔽普通表情的嘴部动作c2.fbx,显示说话表情的嘴部动作c1.fbx,非说话状态则恢复普通表情的嘴部动作c2.fbx,并且屏蔽说话表情的嘴部动作c1.fbx。而在角色模型停止使用表情时,时间轴会停止运行节省运行资源开销。角色模型离开场景时,时间轴会置空,等待下一次被复用。考虑到在同一个场景中的角色模型可能多次使用表情,所以并不销毁控制系统,避免每次进入剧情时重复加载资源。销毁的时机在切换场景时进行。
本申请提供的表情创建方法,使得角色扮演类游戏、CG影视动画、虚拟AI形象等行业的产业内容制作效率提升,开发成本降低,并且能重复利用已有的资源,最大程度上提高资源利用率和开发效率。生成的角色表情表现更加生动灵活,更能受到市场的欢迎,大众的接受度更高。
与上述方法实施例相对应,本申请还提供了表情创建装置实施例,图4示出了本申请一实施例提供的一种表情创建装置的结构示意图。如图4所示,该装置包括:
获取模块402,被配置为获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径;
接收模块404,被配置为接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数;
渲染模块406,被配置为基于所述表情参数编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。
一个可选的实施例中,所述表情创建装置,还包括:
划分模块,被配置为基于所述目标表情模型的表情节点对所述目标表情模型进行划分,得到至少一个表情对象;基于预设命名规则与至少一个表情对象的属性信息,对所述目标表情模型和所述至少一个表情对象分别进行命名;建立所述目标表情模型和所述至少一个表情对象的映射关系;其中,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数,包括:基于所述编辑指令,编辑配置所述资源路径的所述目标表情模型中所述至少一个表情对象的表情参数。
一个可选的实施例中,所述划分模块进一步被配置为:
查询所述目标表情模型中的全部节点,并将全部节点中的参数可变化的节点确定为表情节点;确定所述表情节点中相邻的表情节点,并将相邻的表情节点划分到同一个表情对象集合;基于所述表情对象集合,确定所述目标表情模型的至少一个表情对象。
一个可选的实施例中,所述接收模块404进一步被配置为:
接收通过所述时间轴对应的编辑区域提交的点击指令;基于所述点击指令确定所述时间轴上的一个时间点;接收在所述时间点上提交的编辑指令。
一个可选的实施例中,所述接收模块404进一步被配置为:
基于所述编辑指令确定所述目标表情模型中的编辑对象;基于所述编辑指令确定所述编辑对象设定的目标值;在所述编辑指令结束的情况下,基于编辑对象及所述目标值确定表情参数。
一个可选的实施例中,所述表情创建装置还包括:
辅助模块,被配置为在接收到针对状态辅助机提交的调用指令的情况下,响应于所述调用指令确定目标时间区间;通过所述状态辅助机对所述目标时间区间的所述目标表情模型配置所述表情参数;在所述表情参数配置完成的情况下,执行所述基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画步骤。
一个可选的实施例中,所述渲染模块406进一步被配置为:
针对所述目标表情模型配置材质;确定所述目标表情模型关联的身体模型,并对所述身体模型和所述目标表情模型进行拼接;确定拼接后的身体模型和目标表情模型位于的待渲染场景,针对所述待渲染场景中的渲染控件进行调整;基于调整后的渲染控件,渲染包含拼接后的身体模型和目标表情模型的待渲染场景并展示。
本申请提供的表情创建装置,通过为获取的目标表情模型配置时间轴和资源路径,接收时间轴对应的编辑区域提交的编辑指令,根据资源路径查找编辑指令对应的目标表情模型,再根据编辑指令编辑目标表情模型的表情参数,并将编辑完成的目标表情模型进行渲染,生成目标表情模型的表情动画。使得角色扮演类游戏、CG影视动画、虚拟AI形象等行业的产业内容制作效率提升,开发成本降低,并且能重复利用已有的资源,最大程度上提高资源利用率和开发效率。生成的角色表情表现更加生动灵活,更能受到市场的欢迎,大众的接受度更高。
上述为本实施例的一种表情创建装置的示意性方案。需要说明的是,该表情创建装置的技术方案与上述的表情创建方法的技术方案属于同一构思,表情创建装置的技术方案未详细描述的细节内容,均可以参见上述表情创建方法的技术方案的描述。此外,装置实施例中的各组成部分应当理解为实现该程序流程各步骤或该方法各步骤所必须建立的功能模块,各个功能模块并非实际的功能分割或者分离限定。由这样一组功能模块限定的装置权利要求应当理解为主要通过说明书记载的计算机程序实现该解决方案的功能模块构架,而不应当理解为主要通过硬件方式实现该解决方案的实体装置。
图5示出了根据本申请一实施例提供的一种计算设备500的结构框图。该计算设备500的部件包括但不限于存储器510和处理器520。处理器520与存储器510通过总线530相连接,数据库550用于保存数据。
计算设备500还包括接入设备540,接入设备540使得计算设备500能够经由一个或多个网络560通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备540可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备500的上述部件以及图5中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图5所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备500可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备500还可以是移动式或静止式的服务器。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的表情创建方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述表情创建方法的技术方案的描述。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的表情创建方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述表情创建方法的技术方案的描述。
本申请一实施例还提供一种芯片,其存储有计算机程序,该计算机程序被芯片执行时实现所述表情创建方法的步骤。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。
Claims (10)
1.一种表情创建方法,其特征在于,包括:
获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径;
接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数;
基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。
2.根据权利要求1所述的方法,其特征在于,所述获取目标表情模型之前,还包括:
基于所述目标表情模型的表情节点对所述目标表情模型进行划分,得到至少一个表情对象;
基于预设命名规则与至少一个表情对象的属性信息,对所述目标表情模型和所述至少一个表情对象分别进行命名;
建立所述目标表情模型和所述至少一个表情对象的映射关系;
其中,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数,包括:
基于所述编辑指令,编辑配置所述资源路径的所述目标表情模型中所述至少一个表情对象的表情参数。
3.根据权利要求2所述的方法,其特征在于,所述基于所述目标表情模型的表情节点对所述目标表情模型进行划分,得到至少一个表情对象,包括:
查询所述目标表情模型中的全部节点,并将全部节点中的参数可变化的节点确定为表情节点;
确定所述表情节点中相邻的表情节点,并将相邻的表情节点划分到同一个表情对象集合;
基于所述表情对象集合,确定所述目标表情模型的至少一个表情对象。
4.根据权利要求1所述的方法,其特征在于,所述接收通过所述时间轴对应的编辑区域提交的编辑指令,包括:
接收通过所述时间轴对应的编辑区域提交的点击指令;
基于所述点击指令确定所述时间轴上的一个时间点;
接收在所述时间点上提交的编辑指令。
5.根据权利要求1所述的方法,其特征在于,所述基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数,包括:
基于所述编辑指令确定所述目标表情模型中的编辑对象;
基于所述编辑指令确定所述编辑对象设定的目标值;
在所述编辑指令结束的情况下,基于编辑对象及所述目标值确定表情参数。
6.根据权利要求1所述的方法,其特征在于,所述基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画之前,还包括:
在接收到针对状态辅助机提交的调用指令的情况下,响应于所述调用指令确定目标时间区间;
通过所述状态辅助机对所述目标时间区间的所述目标表情模型配置所述表情参数;
在所述表情参数配置完成的情况下,执行所述基于所述表情参数的编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画步骤。
7.根据权利要求1所述的方法,其特征在于,所述基于所述表情参数编辑结果对所述目标表情模型进行渲染,包括:
针对所述目标表情模型配置材质;
确定所述目标表情模型关联的身体模型,并对所述身体模型和所述目标表情模型进行拼接;
确定拼接后的身体模型和目标表情模型位于的待渲染场景,针对所述待渲染场景中的渲染控件进行调整;
基于调整后的渲染控件,渲染包含拼接后的身体模型和目标表情模型的待渲染场景并展示。
8.一种表情创建装置,其特征在于,包括:
获取模块,被配置为获取目标表情模型,并为所述目标表情模型配置时间轴与资源路径;
接收模块,被配置为接收通过所述时间轴对应的编辑区域提交的编辑指令,基于所述编辑指令编辑配置所述资源路径的所述目标表情模型的表情参数;
渲染模块,被配置为基于所述表情参数编辑结果对所述目标表情模型进行渲染,生成所述目标表情模型的表情动画。
9.一种计算设备,其特征在于,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令实现权利要求1-7任意一项表情创建方法的步骤。
10.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-7任意一项表情创建方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111481961.5A CN114140564A (zh) | 2021-12-06 | 2021-12-06 | 表情创建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111481961.5A CN114140564A (zh) | 2021-12-06 | 2021-12-06 | 表情创建方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114140564A true CN114140564A (zh) | 2022-03-04 |
Family
ID=80384183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111481961.5A Pending CN114140564A (zh) | 2021-12-06 | 2021-12-06 | 表情创建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114140564A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578493A (zh) * | 2022-10-20 | 2023-01-06 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN116485959A (zh) * | 2023-04-17 | 2023-07-25 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
-
2021
- 2021-12-06 CN CN202111481961.5A patent/CN114140564A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578493A (zh) * | 2022-10-20 | 2023-01-06 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN115578493B (zh) * | 2022-10-20 | 2023-05-30 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN116485959A (zh) * | 2023-04-17 | 2023-07-25 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102658960B1 (ko) | 얼굴 재연을 위한 시스템 및 방법 | |
KR102658104B1 (ko) | 템플릿-기반 개인화 비디오 생성 시스템 및 방법 | |
WO2020125567A1 (zh) | 一种动画自动生成方法及动画自动生成系统 | |
CN114140564A (zh) | 表情创建方法及装置 | |
CN110766776A (zh) | 生成表情动画的方法及装置 | |
KR20140024361A (ko) | 클라이언트 애플리케이션들에서 전이들의 애니메이션을 위한 메시 파일들의 이용 | |
US20230086807A1 (en) | Segmented differentiable optimization with multiple generators | |
CN105956995A (zh) | 一种基于实时视频本征分解的人脸外观编辑方法 | |
CN115606191A (zh) | 多媒体消息传送应用程序中可修改视频中的文本消息自定义 | |
CN111145318A (zh) | 一种基于ngui的渲染方法及装置 | |
CN111179391A (zh) | 一种三维动画制作方法、系统及存储介质 | |
US8462163B2 (en) | Computer system and motion control method | |
CN116389853B (zh) | 视频生成方法 | |
CN112988306A (zh) | 动画处理方法及装置 | |
CN112150592A (zh) | 动画文件的生成方法和装置、存储介质及电子设备 | |
KR101155564B1 (ko) | 협업적 영상 제작 관리 장치 | |
WO2024011733A1 (zh) | 3d图像实现方法及系统 | |
CN110310352A (zh) | 一种角色动作编辑方法及装置、计算设备及存储介质 | |
CN115544311A (zh) | 数据分析方法以及装置 | |
Jie et al. | Case Study of Short Animation with Facial Capture Technology Using Mobile | |
CN116193098B (zh) | 一种三维视频生成方法、装置、设备及存储介质 | |
CN111028338B (zh) | 一种基于Unity3D的图像绘制方法及装置 | |
CN116152398B (zh) | 一种三维动画控制方法、装置、设备及存储介质 | |
Carra et al. | gMotion: A spatio-temporal grammar for the procedural generation of motion graphics | |
KR101615371B1 (ko) | 삼차원 애니메이션 제작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |