CN107180445A - 一种动画模型的表情控制方法和装置 - Google Patents

一种动画模型的表情控制方法和装置 Download PDF

Info

Publication number
CN107180445A
CN107180445A CN201610136161.2A CN201610136161A CN107180445A CN 107180445 A CN107180445 A CN 107180445A CN 201610136161 A CN201610136161 A CN 201610136161A CN 107180445 A CN107180445 A CN 107180445A
Authority
CN
China
Prior art keywords
expression
animation
normal map
normal
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610136161.2A
Other languages
English (en)
Other versions
CN107180445B (zh
Inventor
王强
茹振超
陈晨
李岚
安柏霖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201610136161.2A priority Critical patent/CN107180445B/zh
Publication of CN107180445A publication Critical patent/CN107180445A/zh
Application granted granted Critical
Publication of CN107180445B publication Critical patent/CN107180445B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/16Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种动画模型的表情控制方法和装置,用于提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。本发明提供一种动画模型的表情控制方法,包括:根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示所述动画模型的一个表情动作;对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图;为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件;在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,并根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化。

Description

一种动画模型的表情控制方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种动画模型的表情控制方法和装置。
背景技术
随着计算机技术的发展,互联网络中各种应用程序不断涌现,例如,即时通讯程序、在线网络游戏以及流媒体等。其中,在线网络游戏已经成为电子游戏产业中增长最为迅速的游戏类型,也是目前受欢迎的商业模式,网络游戏的复合增长率远比互联网用户增长率高。而在网络游戏众多分类中,大型多人在线角色扮演游戏(英文全称:Massive Multip-layer Online Role-PlayingGames,英文简称:MMORPG)是主流类型。
在设计MMORPG游戏时为了展示角色的多样表情,需要针对角色进行多种不同表情的设计,这就会必然需要占用一定的美术资源,为了保证MMORPG游戏的流畅运行,在动画模型、骨骼动画、法线贴图(英文名称:Normal Map)等资源都有很多明确的规格和数量限制,而在MMORPG游戏中美术资源占了安装包非常大的空间,游戏运行是否流畅与美术资源的优化有很大关系,资源优化对游戏性能和用户体验非常重要。
目前有很多高品质的表情动画制作方法都是为了主机游戏而开发的,例如为了实现角色的表情设计,现有技术中存在如下的一种解决方案:在角色的动画模型中设置大量的控制顶点,将动画模型的面数大幅增加,即在动画模型上构造大量的多边形表示多个面,用主机游戏或者动画电影的方式来做表情的融合变形,这种方案在角色的表情细节和生动程度上都有很好的表现。但是上述现有技术主要是针对单机游戏或者动画电影来设计的,每个动画模型至少要做出60个不同的目标表情,这对MMORPG游戏而言会存在美术制作量很大的问题。并且设计出的动画模型的面数也大大超出规格限制,时间成本也非常高。另外该方案会和现有的骨骼动画机制冲突,因为表情系统开发时,通过对性能和技术的评估,如果使用变形动画会对整个动画机制造成影响,涉及到很多做好的动画资源都需要重新设计,美术的制作量非常大。
综上可知,现有技术中针对动画模型制作大量的变形目标表情的方案并不适用于MMORPG游戏,由于制作工作量大,时间成本高,在效能方面不符合游戏引擎的技术规格,在用户体验方面也存在延迟和卡顿的现象。
发明内容
本发明实施例提供了一种动画模型的表情控制方法和装置,用于提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。
为解决上述技术问题,本发明实施例提供以下技术方案:
第一方面,本发明实施例提供一种动画模型的表情控制方法,包括:
根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示所述动画模型的一个表情动作;
对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图;
为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件;
在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,并根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化。
第二方面,本发明实施例还提供一种动画模型的表情控制装置,包括:
法线贴图制作模块,用于根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示所述动画模型的一个表情动作;
法线贴图拼合模块,用于对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图;
表情动画配置模块,用于为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件;
表情控制模块,用于在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,并根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化。
从以上技术方案可以看出,本发明实施例具有以下优点:
在本发明实施例中,根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示动画模型的一个表情动作,对至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图,为动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件,最后在动画事件执行时将第二法线贴图叠加在动画模型上,并根据表情动画驱动叠加有第二法线贴图的动画模型进行表情变化。由于本发明实施例中至少两张的第一法线贴图可以被拼合到第二法线贴图中,该第二法线贴图相比于多张的第一法线贴图占用的美术资源更少,在动画游戏运行时数据加载速度可以得到很大提升,并且本发明实施例采用动画事件来触发表情动画,由该表情动画来驱动叠加有第二法线贴图的动画模型进行表情变化,实现了表情动画和法线贴图在动画模型上的综合运用,从而提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种动画模型的表情控制方法的流程方框示意图;
图2为本发明实施例提供的动画模型的表情控制方法的开发实现流程示意图;
图3-a为本发明实施例提供的4张第一法线贴图的表情示意图;
图3-b为本发明实施例提供的对第一法线贴图进行裁切的示意图;
图3-c为本发明实施例提供的第二法线贴图的示意图;
图4-a为本发明实施例提供的Morpheme软件中骨骼动画拓扑结构示意图;
图4-b为本发明实施例提供的Morpheme软件中动画事件配置图;
图5-a为本发明实施例提供的动画模型的示意图;
图5-b为本发明实施例中第二法线贴图和动画模型的叠加过程示意图;
图6-a为本发明实施例提供的一种动画模型的表情变化示意图;
图6-b为本发明实施例提供的另一种动画模型的表情变化示意图;
图6-c为本发明实施例提供的图6-b的局部放大示意图;
图6-d为本发明实施例提供的使用法线贴图前后动画模型的表情变化对比示意图;
图7-a为本发明实施例提供的一种动画模型的表情控制装置的组成结构示意图;
图7-b为本发明实施例提供的一种法线贴图拼合模块的组成结构示意图;
图7-c为本发明实施例提供的一种表情控制模块的组成结构示意图;
图7-d为本发明实施例提供的另一种表情控制模块的组成结构示意图;
图8为本发明实施例提供的动画模型的表情控制方法应用于终端的组成结构示意图。
具体实施方式
本发明实施例提供了一种动画模型的表情控制方法和装置,用于提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域的技术人员所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
以下分别进行详细说明。
本发明动画模型的表情控制方法的一个实施例,具体可以应用于MMORPG游戏中动画模型的表情加载过程中,请参阅图1所示,本发明一个实施例提供的动画模型的表情控制方法,可以包括如下步骤:
101、根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示动画模型的一个表情动作。
在本发明实施例中,采用法线贴图(英文名称:Normal Map)的方式来制作动画模型中人物角色的表情动作,其中,法线贴图大多是用在计算机图形学(英文全称:Computer Graphic,英文简称:CG)动画的渲染以及游戏画面的制作上,将具有高细节的模型通过映射烘焙出法线贴图,贴在低端模型的法线贴图通道上,使之拥有法线贴图的渲染效果。本发明实施例中采用法线贴图来表示动画模型的表情动作,可以大大降低渲染时需要的动画模型面数和计算内容,从而达到优化动画渲染和游戏渲染的效果。为了区别本发明实施例中多处出现的不同法线贴图,将为动画模型制作出的原始法线贴图定义为“第一法线贴图”,每一张的第一法线贴图作为通过美术编辑方式制作出的初始法线贴图可以表示动画模型的一个表情动作,当需要表示动画模型的多个表情动作时可以制作出多张的第一法线贴图,例如动画模型可以是一个人物角色,为了表现人物角色的哭、笑、喊、怒等多样表情,需要设计多张的第一法线贴图。
102、对至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图。
在本发明实施例中,通过前述步骤101制作出至少两张的第一法线贴图之后,需要对至少两张的第一法线贴图进行拼合,从而减少法线贴图占用的美术资源,实现对多张第一法线贴图的重新拼合,对至少两张的第一法线贴图进行拼合可以得到拼合后的第二法线贴图。其中,第二法线贴图是根据至少两张的第一法线贴图进行拼合得到的法线贴图,第二法线贴图相对于初始制作的第一法线贴图包含有多张第一法线贴图的表情动作。举例说明如下,以初始制作出的第一法线贴图为4张为例,可以对4张的第一法线贴图进行拼合,将4张的第一法线贴图拼合为2张的第二法线贴图,则每2张的第一法线贴图可以拼合出1张的第二法线贴图。又如可以对4张的第一法线贴图进行拼合,将4张的第一法线贴图拼合为1张的第二法线贴图,则该第二法线贴图可以包括前述4张第一法线贴图的表情动作。
在本发明的一些实施例中,步骤102对至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图,具体可以包括如下步骤:
A1、从每一张的第一法线贴图上分别裁切出一个面部表情区域,得到至少两个的面部表情区域,至少两个的面部表情区域分别对应于至少两张的第一法线贴图;
A2、获取至少两个的面部表情区域分别所在第一法线贴图的中心点坐标;
A3、将至少两个的面部表情区域拼接到同一张的第二法线贴图上,得到拼合后的第二法线贴图。
在本发明的上述实施例中,在制作出多张的第一法线贴图之后,可以针对每张的第一法线贴图进行裁切,从第一法线贴图上裁切出一个面部表情区域,其中,面部表情区域是根据影响表情的面部范围来确定的,例如可能会影响面部表情的可以是眼眉,鼻子,嘴巴,额头,下巴,当然对于不同的表情动作,需要确定的面部表情区域可以是不同的。例如,对于表情动作为哭,可能影响面部表情的是眼和嘴巴,对于表情动作为发怒,可能影响面部表情的是眼眉和嘴角等。通过第一法线贴图的裁切,可以得到面部表情区域,该面部表情区域相对于第一法线贴图占用的资源尺寸很小,例如第一法线贴图可以为1024×1024,裁切得到的面部表情区域可以是512×512,则面部表情区域相对于第一法线贴图,占用的资源尺寸只有四分之一。
当从每个第一法线贴图中裁切出面部表情区域之后,可以得到至少两个的面部表情区域,然后分别获取至少两个的面部表情区域分别所在第一法线贴图的中心点坐标,该中心点坐标表示了裁切得到的面部表情区域在第一法线贴图中的位置区域,面部表情区域的中心点坐标可以用于定位裁切得到的面部表情区域在原第一法线贴图中的位置。在步骤A3中,可以将至少两个的面部表情区域拼接到同一张的第二法线贴图上,从而得到拼合后的第二法线贴图。举例说明如下,共有四张第一法线贴图,每一张的第一法线贴图都为1024×1024,裁切得到的面部表情区域可以是512×512,则可以将这四张面部表情区域拼接在一张法线贴图上,从而得到一张1024×1024的第二法线贴图,则通过拼合得到的第二法线贴图占用的资源尺寸还是1024×1024,但是该第二法线贴图包含有4张第一法线贴图的所有表情动作,通过拼合过程,第二法线贴图相对于第一法线贴图,占用的资源尺寸只有四分之一,减少的资源尺寸可以达到75%。
103、为动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件。
在本发明实施例中,动画模型表示的人物角色需要展现不同表情时,可以为动画模型构建表情动画,表情动画可以特指游戏和影视动画中的人物表情动态效果,当动画模型需要展示多个不同表情时,需要为动画模型构建出多个表情动画,对于每一个构建完成的表情动画都添加动画事件(英文名称:Event),动画事件可以是在特定时间点需要执行的脚本文件,当表情动画中添加有动画事件之后,游戏引擎可以在动画执行到这个时间点上就会执行脚本对应的动画事件。本发明实施例中表情动画的构建可以依托于动画制作工具来完成,也可以在本发明实施例提供的动画模型的表情控制装置中添加表情动画配置模块来完成,具体实现方式不做限定。可以用于构建表情动画的动画软件可以是Morpheme,也可以是其它类似实现动画制作的软件工具,本发明实施例中不再逐一举例说明。
需要说明的是,在本发明的一些实施例中,步骤101和步骤102具有时序先后关系,但是步骤101和步骤103之间并没有时序或者逻辑顺序上的先后之分,图1中以先执行步骤101和102,然后再执行步骤103为例进行举例说明,不限定的是,本发明实施例中同样可以先执行步骤103,然后再执行步骤101,也可以同时执行步骤101和步骤103,具体实现方式不做限定,可结合具体应用场景进行实际配置。
需要说明的是,在本发明的一些实施例中,步骤103为动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件之后,本发明实施例提供的动画模型的表情控制方法还可以包括如下步骤:
B1、为构建完成的每个表情动画分别设置配置表,配置表包括:表情动画调用的第二法线贴图和在第二法线贴图中表情动画调用的法线贴图位置区域。
其中,为了实现表情动画的详细配置,还可以针对每个表情动画设置配置表,以便于在表情动画运行时根据该配置表进行运行,从而实现表情动画的精细化控制。具体的,本发明实施例中表情动画的配置表具体可以包括:表情动画调用的第二法线贴图和在第二法线贴图中表情动画调用的法线贴图位置区域,表情动画调用的第二法线贴图的名称和资源存储位置可以在配置表中预先配置好,并且还可以进一步的将表情动画需要调用第二法线贴图中的哪个法线贴图位置区域预先配置好,当需要运行表情动画时可以调用该配置表,按照配置表中的详细配置来运行表情动画。
进一步的,在本发明的另一些实施例中,步骤B1中为表情动画设置的配置表还可以包括如下的参数内容,举例说明,在本发明实施例中执行步骤A1至A3的实现场景下,该配置表还可以包括如下参数中的至少一种:面部表情区域的尺寸大小、面部表情区域所在第一法线贴图的中心点坐标、第二法线贴图的透明度。例如,面部表情区域的尺寸大小可以灵活配置的,具体采用的尺寸参数可以在配置表中写明,当面部表情区域的中心点坐标不是预置的默认值时,可以将该面部表情区域的中心点坐标在配置表中指出,另外对于第二法线贴图的强度控制参数即透明度也可以在配置表中配置完成。需要说明的是,在本发明的上述实施例中,对于配置表中已经配置好的参数,表情动画在运行时需要按照该配置表进行参数配置,对于没有在配置表中配置出的参数,可以按照默认配置,或者通过其它的指令来控制参数的具体配置。
104、在动画事件执行时将第二法线贴图叠加在动画模型上,并根据表情动画驱动叠加有第二法线贴图的动画模型进行表情变化。
在本发明实施例中,通过步骤103为表情动画设置动画事件之后,可以监控动画事件的触发条件是否发生,例如在动画事件指定的时间到达时可以执行该动画事件,动画事件的执行可以触发第二法线贴图在动画模型上的叠加操作运行,则动画模型上可以叠加有通过多张第一法线贴图拼合后得到的第二法线贴图,在动画事件执行时可以触发表情动画的播放,表情动画在播放时可以驱动叠加有第二法线贴图的动画模型进行表情变化,叠加有第二法线贴图的动画模型在表情动画的驱动下展示第二法线贴图中的表情动作,相对于当前动画事件之前的表情动画,动画模型表现了不同的表情,从而可以完成动画模型的表情控制。由于本发明实施例中叠加在动画模型上的第二法线贴图是由多张的第一法线贴图拼合得到,因此当动画模型需要展示不同的表情动作时无需重新叠加其它的法线贴图,还可以继续使用第二法线贴图,在动画游戏运行时数据加载速度可以得到很大提升,并且本发明实施例采用动画事件来触发表情动画,由该表情动画来驱动叠加有第二法线贴图的动画模型进行表情变化,实现了表情动画和法线贴图在动画模型上的综合运用,从而提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。
在本发明的一些实施例中,步骤104中的在动画事件执行时将第二法线贴图叠加在动画模型上,具体可以包括如下步骤:
C1、在动画事件执行时获取第一法线贴图的纹理贴图坐标、第一法线贴图对应的缩放参量和偏移参量;
C2、通过如下方式计算第二法线贴图的纹理贴图坐标:newUV=UV×scale+offset,其中,newUV表示第二法线贴图的纹理贴图坐标,UV表示第一法线贴图的纹理贴图坐标,scale表示第一法线贴图对应的缩放参量,offset表示第一法线贴图对应的偏移参量;
C3、将第二法线贴图的纹理贴图坐标映射到动画模型的多边形顶点上。
其中,第一法线贴图的纹理贴图坐标和第二法线贴图的纹理贴图坐标之间可以通过scale和offset进行转换,例如公式C2中记载的公式,不限定的是,本发明实施例中第一法线贴图的纹理贴图坐标和第二法线贴图的纹理贴图坐标之间还可以采用其它的计算方式进行映射关系的计算,例如对于newUV=UV×scale+offset,再添加上一些控制参量对newUV的取值进行修正,例如可以结合着色器(英文名称:Shader)中输出的控制参量,具体实现方式不做限定。在得到第二法线贴图的纹理贴图坐标之后,可以将第二法线贴图映射到动画模型上,例如将第二法线贴图的纹理贴图坐标映射到动画模型的多边形顶点上,把多边形的顶点和第二法线贴图的象素对应起来,这样才能在多边形表面上定位第二纹理贴图。其中,多边形是动画模型的表面,顶点是三维空间里含有位置信息的点,计算机图形学里用来描绘事物的最基础的单位。需要说明的是,步骤C1至步骤C3详细说明了第二法线贴图在动画模型上叠加的具体一种实现方式,不限的是,本发明实施例还可以采用其它的法线贴图叠加方式。
在本发明的一些实施例中,步骤104中的根据表情动画驱动叠加有第二法线贴图的动画模型进行表情变化,具体可以包括如下步骤:
D1、通过如下方式计算在当前的动画事件执行时当前运行的表情动画对应的表情法线值:normal Expression=lerp(srcNormal Expression,destNormalExpression,cross fade Weight)*expression Weight,其中,normal Expression是当前运行的表情动画对应的表情法线值,lerp()表示混合函数,srcNormalExpression是在当前的动画事件执行之前的源表情法线值,destNormalExpression是在当前的动画事件执行时输出的目标表情法线值,cross fadeWeight是表情法线差值权重,expression Weight是表情权重;
D2、根据当前运行的表情动画对应的表情法线值控制叠加有第二法线贴图的动画模型进行表情动作的变换。
其中,步骤D1中指出了表情法线值的计算方式,srcNormal Expression、destNormal Expression、cross fade Weight都可以通过当前执行的动画事件配置来得到,lerp()表示混合函数,该函数若具体lerp(srcNormal Expression,destNormal Expression,cross fade Weight),返回的值是srcNormal Expression+(destNormal Expression-srcNormal Expression)×cross fade Weight。另外,expressionWeight是表情动作从无到有的显示权重,这个参数主要用于表情从无到有和从有到无的时候。在计算出normal Expression之后,可以根据该normal Expression控制叠加有第二法线贴图的动画模型进行表情动作的变换,后续实施例中将对表情动作的变换过程进行举例说明。
通过以上实施例对本发明实施例的描述可知,在本发明实施例中,根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示动画模型的一个表情动作,对至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图,为动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件,最后在动画事件执行时将第二法线贴图叠加在动画模型上,并根据表情动画驱动叠加有第二法线贴图的动画模型进行表情变化。由于本发明实施例中至少两张的第一法线贴图可以被拼合到第二法线贴图中,该第二法线贴图相比于多张的第一法线贴图占用的美术资源更少,在动画游戏运行时数据加载速度可以得到很大提升,并且本发明实施例采用动画事件来触发表情动画,由该表情动画来驱动叠加有第二法线贴图的动画模型进行表情变化,实现了表情动画和法线贴图在动画模型上的综合运用,从而提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。
为便于更好的理解和实施本发明实施例的上述方案,下面举例相应的应用场景来进行具体说明。本发明实施例提供的动画模型的表情控制方法可以减少在MMORPG游戏中的美术资源占用,游戏运行流畅,使原本简单的骨骼动画在增加了Normal Map后呈现出丰富的表情变化,为资源的合理优化和动画的生动表现提供了完善的解决方案,解决了美术资源和游戏引擎效能的平衡问题。
如图2所示,为本发明实施例提供的动画模型的表情控制方法的开发实现流程示意图,首先,配置美术资源和程序,根据动画模型分别雕刻4张初始的第一法线贴图,如图3-a所示,为本发明实施例提供的4张第一法线贴图的表情示意图,图2中共包括4张表示不同表情动作的第一法线贴图,然后将这4张第一法线贴图拼合为一张的第二法线贴图,例如对4张第一法线贴图进行裁切和合并,如图3-b所示,为本发明实施例提供的对第一法线贴图进行裁切的示意图,把4张第一法线贴图中最有用的512×512面部表情区域裁切出来,图3-b中为裁切之后得到的面部表情区域,并记录该区域中心点坐标息,再把裁切好的4张512×512的面部表情区域拼合成一张1024×1024的第二法线贴图,如图3-c所示,为本发明实施例提供的第二法线贴图的示意图,图3-c中可以使用制图软件(例如Photoshop软件)把4张图拼接在一起。该第二法线贴图仍为1024×1024的像素,在图像精度上没有任何损失,而且贴图尺寸缩小了75%。极大的节省了资源尺寸。
在本发明实施例中,表情动画的配置表配置方式采用如下举例说明的方式,其中,采用的可扩展标记语言(英文全称:Extensible Markup Language,英文简称:XML)格式的配置表可以如下:
其中,mMakeupID="823"是表情NormalMap的美术资源标识(英文全称:IDentifier,英文简称:ID),mNormalFilePath="M_Face_Merge_N.dds"是所调用的NormalMap贴图资源,mNormalTexIntensity="1.0"表示NormalMap的强度控制,即透明度,<mTexSizeBias v="512"表示表情区域的尺寸大小,<mTexSizeBias v="3"表示所使用的贴图中的第3个部分贴图,<mTexSizeBiasv="512"和<mTexSizeBias v="613"表示的是该贴图在原来尺寸的贴图中的指标位置。
接下来以Morpheme软件来构建表情动画进行举例说明,在Morpheme软件中需要将表情动画的构建好,给每个表情动画设置动画事件(英文名称:Event)发生的时间。如图4-a所示,为本发明实施例提供的Morpheme软件中骨骼动画拓扑结构示意图,构建的表情动画分别为:F_Face_6001_Idle_01,F_Face_6001_Smile_005,F_Face_6001_Smile_nu,F_Face_6008_Ai_02,F_Face_6008_weixiao,F_Face_6008_Jingi_01,F_Face_6001_ai,F_Face_6001_ku,F_Face_6001_duzui,F_Face_6001_Juezui,对于土4-a中软件的各项配置参数可以参阅Morpheme软件的详细说明,此处不再赘述。如图4-b所示,为本发明实施例提供的Morpheme软件中动画事件配置图,图4-b中User Data表示表情变化所需要的时间,一个单位是0.01秒,所以图示的30就是0.3秒,当程序检查到表情变化的动画事件,当读到这个标记点的时候,法线贴图全部显示,这个时间长度是0.3秒,即当动画播放到0.3秒时,对应表情的法线贴图的透明度从0到100完全显示。
通过Morpheme动画配置,获得动画模型的脸部ID后,通过配置表信息,把第一法线贴图的对应缩放参量(英文名称:scale)和偏移参量(英文名称:offset)传入着色器,并在Shader里把(0~1)范围的纹理坐标映射到4合1之后的坐标,采用如下公式:newUV=UV*scale+offset。计算出newUV之后,根据newUV采样法线贴图,根据权重,来实现微妙的表情变化,同时不同的表情之间的切换需要cross fade weight对两张法线贴图进行采样,并叠加,实现表情的变化,其中,Normal Expression=lerp(srcNormal Expression,destNormal Expression,cross fade Weight)*expression Weight。其中,normalExpression是表情法线值,srcNormal Expression是源表情法线值,destNormal Expression是目标表情法线值,cross fade Weight是表情法线差值权重,expressionWeight是表情权重。比如当前的表情是笑,源法线就是笑,现在切换为哭,这时源表情贴图的显示权重就要从1变换到0,变换的时间就是事件的User Data,同时目标表情贴图的显示权重有0变换到1,expressionWeight是表情从无到有的显示权重,这个参数主要用于表情从无到有和从有到无的时候。
当动画事件配置完成之后,在动画事件执行时将第二法线贴图叠加在动画模型上,并根据表情动画驱动叠加有第二法线贴图的动画模型进行表情变化,如图5-a所示,为本发明实施例提供的动画模型的示意图,如图5-b所示,为本发明实施例中第二法线贴图和动画模型的叠加过程示意图,在第二法线贴图中包括了4张第一法线贴图的面部表情区域,当需要展示不同的表情动作时,第二法线贴图中的不同位置区域可以和动画模型进行叠加。因此,本发明实施例中,动画模型在表情变化时不需要多次叠加不同的法线贴图,而是叠加的第二法线贴图保持不变,只需要该第二法线贴图中的不同位置区域与动画模型叠加即可。本发明实施例中通过一张的第二法线贴图来实现4个表情的细节表现,并且这张第二法线贴图能适用于所有的同一性别的角色,做到了游戏引擎的负载平衡和美术的细节的表现。
如图6-a所示,为本发明实施例提供的一种动画模型的表情变化示意图,在三维软件中雕刻出表情的细节变化,能够更形象的展示人物角色的多种表情,用户体验到的人物角色更加真实。如图6-b所示,为本发明实施例提供的另一种动画模型的表情变化示意图,对于动画模型可以设置四种不同的表情动作,如图6-b的左下角部分所示,如图6-c所示,为本发明实施例提供的图6-b的局部放大示意图,在动画游戏的创角景中点击表情用户界面(英文全称:User Interface,英文简称:UI),就可以看到开发成果,减少了资源消耗,加载速度很快,表情播放很流畅。如图6-d所示,为本发明实施例提供的使用法线贴图前后动画模型的表情变化对比示意图,本发明实施例中为一个角色制作了4个表情,每个表情对应一张法线贴图,如果按照现有技术4张法线贴图就需要加载4次,按照本发明实施例拼合成一张后就只需要加载一次法线贴图,不用每个表情都加载,所有的同性别角色贴图是共用的,切换时也不需要再重新加载,4张法线贴图经过裁切后合并为1张法线贴图,数量和文件大小都减少了很多,以此类推表情的数量越多,该方案的效果越明显。
本发明实施例提供的动画模型的表情控制方法相比较传统做法,本方案的大大降低了贴图数据的尺寸大小,缩短了加载时间,例如,数据合并前后的大小对比,合并前:M_Face_NormalMap_01.dds、M_Face_NormalMap_02.dds、M_Face_NormalMap_03.dds、M_Face_NormalMap_04.dds,共占用5.33MB,而合并之后为一张的法线贴图:M_Face_NormalMap_merge.dds,可占用1.33MB。另外,本发明实施例在丰富性和性能方面做到了很好的平衡,玩家体验流畅自然。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
为便于更好的实施本发明实施例的上述方案,下面还提供用于实施上述方案的相关装置。
请参阅图7-a所示,本发明实施例提供的一种动画模型的表情控制装置700,可以包括:法线贴图制作模块701、法线贴图拼合模块702、表情动画配置模块703、表情控制模块704,其中,
法线贴图制作模块701,用于根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示所述动画模型的一个表情动作;
法线贴图拼合模块702,用于对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图;
表情动画配置模块703,用于为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件;
表情控制模块704,用于在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,并根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化。
在本发明的一些实施例中,请参阅如图7-b所示,所述法线贴图拼合模块702,包括:
法线贴图裁切子模块7021,用于从每一张的第一法线贴图上分别裁切出一个面部表情区域,得到至少两个的面部表情区域,所述至少两个的面部表情区域分别对应于所述至少两张的第一法线贴图;
坐标定位子模块7022,用于获取所述至少两个的面部表情区域分别所在第一法线贴图的中心点坐标;
区域拼接子模块7023,用于将所述至少两个的面部表情区域拼接到同一张的第二法线贴图上,得到所述拼合后的第二法线贴图。
在本发明的一些实施例中,所述表情动画配置模块703,还用于为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件之后,为所述构建完成的每个表情动画分别设置配置表,所述配置表包括:所述表情动画调用的第二法线贴图和在所述第二法线贴图中所述表情动画调用的法线贴图位置区域。
进一步的,在本发明的一些实施例中,所述配置表还包括如下参数中的至少一种:所述面部表情区域的尺寸大小、所述面部表情区域所在第一法线贴图的中心点坐标、所述第二法线贴图的透明度。
在本发明的一些实施例中,请参阅如图7-c所示,所述表情控制模块704,包括:
参量获取子模块7041,用于在所述动画事件执行时,获取所述第一法线贴图的纹理贴图坐标、所述第一法线贴图对应的缩放参量和偏移参量;
坐标计算子模块7042,用于通过如下方式计算所述第二法线贴图的纹理贴图坐标:newUV=UV×scale+offset,其中,所述newUV表示所述第二法线贴图的纹理贴图坐标,所述UV表示所述第一法线贴图的纹理贴图坐标,所述scale表示所述第一法线贴图对应的缩放参量,所述offset表示所述第一法线贴图对应的偏移参量;
坐标映射子模块7043,用于将所述第二法线贴图的纹理贴图坐标映射到所述动画模型的多边形顶点上。
在本发明的另一些实施例中,请参阅如图7-d所示,所述表情控制模块704,包括:
表情法线计算子模块7044,用于通过如下方式计算在当前的动画事件执行时当前运行的表情动画对应的表情法线值:normalExpression=lerp(srcNormal Expression,destNormal Expression,cross fadeWeight)*expression Weight,其中,所述normal Expression是当前运行的表情动画对应的表情法线值,所述lerp()表示混合函数,所述srcNormal Expression是在当前的动画事件执行之前的源表情法线值,所述destNormal Expression是在当前的动画事件执行时输出的目标表情法线值,所述cross fade Weight是表情法线差值权重,所述expression Weight是表情权重;
表情变换子模块7045,用于根据所述当前运行的表情动画对应的表情法线值控制叠加有所述第二法线贴图的动画模型进行表情动作的变换。
通过以上对本发明实施例的描述可知,根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示动画模型的一个表情动作,对至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图,为动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件,最后在动画事件执行时将第二法线贴图叠加在动画模型上,并根据表情动画驱动叠加有第二法线贴图的动画模型进行表情变化。由于本发明实施例中至少两张的第一法线贴图可以被拼合到第二法线贴图中,该第二法线贴图相比于多张的第一法线贴图占用的美术资源更少,在动画游戏运行时数据加载速度可以得到很大提升,并且本发明实施例采用动画事件来触发表情动画,由该表情动画来驱动叠加有第二法线贴图的动画模型进行表情变化,实现了表情动画和法线贴图在动画模型上的综合运用,从而提高动画模型的表情加载效率,保证表情加载的流畅性,缩短表情加载时间。
本发明实施例还提供了另一种终端,如图8所示,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该终端可以为包括手机、平板电脑、PDA(Personal DigitalAssistant,个人数字助理)、POS(Point of Sales,销售终端)、车载电脑等任意终端设备,以终端为手机为例:
图8示出的是与本发明实施例提供的终端相关的手机的部分结构的框图。参考图8,手机包括:射频(Radio Frequency,RF)电路88、存储器820、输入单元830、显示单元840、传感器850、音频电路860、无线保真(wirelessfidelity,WiFi)模块870、处理器880、以及电源890等部件。本领域技术人员可以理解,图8中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图8对手机的各个构成部件进行具体的介绍:
RF电路88可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器880处理;另外,将设计上行的数据发送给基站。通常,RF电路88包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low Noise Amplifier,LNA)、双工器等。此外,RF电路88还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global Systemof Mobile communication,GSM)、通用分组无线服务(General Packet RadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器820可用于存储软件程序以及模块,处理器880通过运行存储在存储器820的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器820可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器820可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元830可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元830可包括触控面板831以及其他输入设备832。触控面板831,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板831上或在触控面板831附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板831可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器880,并能接收处理器880发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板831。除了触控面板831,输入单元830还可以包括其他输入设备832。具体地,其他输入设备832可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元840可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元840可包括显示面板841,可选的,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-EmittingDiode,OLED)等形式来配置显示面板841。进一步的,触控面板831可覆盖显示面板841,当触控面板831检测到在其上或附近的触摸操作后,传送给处理器880以确定触摸事件的类型,随后处理器880根据触摸事件的类型在显示面板841上提供相应的视觉输出。虽然在图8中,触控面板831与显示面板841是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板831与显示面板841集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器850,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板841的亮度,接近传感器可在手机移动到耳边时,关闭显示面板841和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路860、扬声器861,传声器862可提供用户与手机之间的音频接口。音频电路860可将接收到的音频数据转换后的电信号,传输到扬声器861,由扬声器861转换为声音信号输出;另一方面,传声器862将收集的声音信号转换为电信号,由音频电路860接收后转换为音频数据,再将音频数据输出处理器880处理后,经RF电路88以发送给比如另一手机,或者将音频数据输出至存储器820以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块870可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图8示出了WiFi模块870,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器880是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器820内的软件程序和/或模块,以及调用存储在存储器820内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器880可包括一个或多个处理单元;优选的,处理器880可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器880中。
手机还包括给各个部件供电的电源890(比如电池),优选的,电源可以通过电源管理系统与处理器880逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本发明实施例中,该终端所包括的处理器880还具有控制执行以上由终端执行的动画模型的表情控制方法流程。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本发明而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
综上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照上述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对上述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (12)

1.一种动画模型的表情控制方法,其特征在于,包括:
根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示所述动画模型的一个表情动作;
对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图;
为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件;
在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,并根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化。
2.根据权利要求1所述的方法,其特征在于,所述对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图,包括:
从每一张的第一法线贴图上分别裁切出一个面部表情区域,得到至少两个的面部表情区域,所述至少两个的面部表情区域分别对应于所述至少两张的第一法线贴图;
获取所述至少两个的面部表情区域分别所在第一法线贴图的中心点坐标;
将所述至少两个的面部表情区域拼接到同一张的第二法线贴图上,得到所述拼合后的第二法线贴图。
3.根据权利要求1或2所述的方法,其特征在于,所述为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件之后,所述方法还包括:
为所述构建完成的每个表情动画分别设置配置表,所述配置表包括:所述表情动画调用的第二法线贴图和在所述第二法线贴图中所述表情动画调用的法线贴图位置区域。
4.根据权利要求3所述的方法,其特征在于,所述配置表还包括如下参数中的至少一种:所述面部表情区域的尺寸大小、所述面部表情区域所在第一法线贴图的中心点坐标、所述第二法线贴图的透明度。
5.根据权利要求1所述的方法,其特征在于,所述在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,包括:
在所述动画事件执行时获取所述第一法线贴图的纹理贴图坐标、所述第一法线贴图对应的缩放参量和偏移参量;
通过如下方式计算所述第二法线贴图的纹理贴图坐标:newUV=UV×scale+offset,其中,所述newUV表示所述第二法线贴图的纹理贴图坐标,所述UV表示所述第一法线贴图的纹理贴图坐标,所述scale表示所述第一法线贴图对应的缩放参量,所述offset表示所述第一法线贴图对应的偏移参量;
将所述第二法线贴图的纹理贴图坐标映射到所述动画模型的多边形顶点上。
6.根据权利要求1所述的方法,其特征在于,所述根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化,包括:
通过如下方式计算在当前的动画事件执行时当前运行的表情动画对应的表情法线值:normal Expression=lerp(srcNormal Expression,destNormalExpression,cross fade Weight)*expression Weight,其中,所述normal Expression是当前运行的表情动画对应的表情法线值,所述lerp()表示混合函数,所述srcNormal Expression是在当前的动画事件执行之前的源表情法线值,所述destNormal Expression是在当前的动画事件执行时输出的目标表情法线值,所述cross fade Weight是表情法线差值权重,所述expression Weight是表情权重;
根据所述当前运行的表情动画对应的表情法线值控制叠加有所述第二法线贴图的动画模型进行表情动作的变换。
7.一种动画模型的表情控制装置,其特征在于,包括:
法线贴图制作模块,用于根据动画模型制作至少两张的第一法线贴图,其中,每一张的第一法线贴图表示所述动画模型的一个表情动作;
法线贴图拼合模块,用于对所述至少两张的第一法线贴图进行拼合,得到拼合后的第二法线贴图;
表情动画配置模块,用于为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件;
表情控制模块,用于在所述动画事件执行时将所述第二法线贴图叠加在所述动画模型上,并根据所述表情动画驱动叠加有所述第二法线贴图的动画模型进行表情变化。
8.根据权利要求7所述的装置,其特征在于,所述法线贴图拼合模块,包括:
法线贴图裁切子模块,用于从每一张的第一法线贴图上分别裁切出一个面部表情区域,得到至少两个的面部表情区域,所述至少两个的面部表情区域分别对应于所述至少两张的第一法线贴图;
坐标定位子模块,用于获取所述至少两个的面部表情区域分别所在第一法线贴图的中心点坐标;
区域拼接子模块,用于将所述至少两个的面部表情区域拼接到同一张的第二法线贴图上,得到所述拼合后的第二法线贴图。
9.根据权利要求7或8所述的装置,其特征在于,所述表情动画配置模块,还用于为所述动画模型构建表情动画,并为构建完成的每个表情动画设置动画事件之后,为所述构建完成的每个表情动画分别设置配置表,所述配置表包括:所述表情动画调用的第二法线贴图和在所述第二法线贴图中所述表情动画调用的法线贴图位置区域。
10.根据权利要求9所述的装置,其特征在于,所述配置表还包括如下参数中的至少一种:所述面部表情区域的尺寸大小、所述面部表情区域所在第一法线贴图的中心点坐标、所述第二法线贴图的透明度。
11.根据权利要求7所述的装置,其特征在于,所述表情控制模块,包括:
参量获取子模块,用于在所述动画事件执行时,获取所述第一法线贴图的纹理贴图坐标、所述第一法线贴图对应的缩放参量和偏移参量;
坐标计算子模块,用于通过如下方式计算所述第二法线贴图的纹理贴图坐标:newUV=UV×scale+offset,其中,所述newUV表示所述第二法线贴图的纹理贴图坐标,所述UV表示所述第一法线贴图的纹理贴图坐标,所述scale表示所述第一法线贴图对应的缩放参量,所述offset表示所述第一法线贴图对应的偏移参量;
坐标映射子模块,用于将所述第二法线贴图的纹理贴图坐标映射到所述动画模型的多边形顶点上。
12.根据权利要求7所述的装置,其特征在于,所述表情控制模块,包括:
表情法线计算子模块,用于通过如下方式计算在当前的动画事件执行时当前运行的表情动画对应的表情法线值:normal Expression=lerp(srcNormalExpression,destNormal Expression,cross fade Weight)*expression Weight,其中,所述normal Expression是当前运行的表情动画对应的表情法线值,所述lerp()表示混合函数,所述srcNormal Expression是在当前的动画事件执行之前的源表情法线值,所述destNormal Expression是在当前的动画事件执行时输出的目标表情法线值,所述cross fade Weight是表情法线差值权重,所述expression Weight是表情权重;
表情变换子模块,用于根据所述当前运行的表情动画对应的表情法线值控制叠加有所述第二法线贴图的动画模型进行表情动作的变换。
CN201610136161.2A 2016-03-10 2016-03-10 一种动画模型的表情控制方法和装置 Active CN107180445B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610136161.2A CN107180445B (zh) 2016-03-10 2016-03-10 一种动画模型的表情控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610136161.2A CN107180445B (zh) 2016-03-10 2016-03-10 一种动画模型的表情控制方法和装置

Publications (2)

Publication Number Publication Date
CN107180445A true CN107180445A (zh) 2017-09-19
CN107180445B CN107180445B (zh) 2019-12-10

Family

ID=59829952

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610136161.2A Active CN107180445B (zh) 2016-03-10 2016-03-10 一种动画模型的表情控制方法和装置

Country Status (1)

Country Link
CN (1) CN107180445B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344126A (zh) * 2018-09-12 2019-02-15 网易(杭州)网络有限公司 贴图的处理方法、装置、存储介质和电子装置
CN110135226A (zh) * 2018-02-09 2019-08-16 腾讯科技(深圳)有限公司 表情动画数据处理方法、装置、计算机设备和存储介质
CN111028322A (zh) * 2019-12-18 2020-04-17 北京像素软件科技股份有限公司 游戏动画表情生成方法、装置及电子设备
CN111221459A (zh) * 2020-01-13 2020-06-02 吴克兵 一种图表制作平台
CN112684881A (zh) * 2019-10-17 2021-04-20 未来市股份有限公司 化身面部表情生成系统及化身面部表情生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080129738A1 (en) * 2006-12-02 2008-06-05 Electronics And Telecommunications Research Institute Method and apparatus for rendering efficient real-time wrinkled skin in character animation
CN101271593A (zh) * 2008-04-03 2008-09-24 石家庄市桥西区深度动画工作室 一种3Dmax动画辅助制作系统
CN103443826A (zh) * 2011-01-10 2013-12-11 杭州共形数字科技有限公司 网格动画
CN104217455A (zh) * 2014-09-05 2014-12-17 南京偶酷软件有限公司 人脸表情动作的动画制作方法
CN104574488A (zh) * 2014-12-08 2015-04-29 北京理工大学 一种用于移动增强现实浏览器的三维模型的优化方法
CN104616330A (zh) * 2015-02-10 2015-05-13 广州视源电子科技股份有限公司 一种图片的生成方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080129738A1 (en) * 2006-12-02 2008-06-05 Electronics And Telecommunications Research Institute Method and apparatus for rendering efficient real-time wrinkled skin in character animation
CN101271593A (zh) * 2008-04-03 2008-09-24 石家庄市桥西区深度动画工作室 一种3Dmax动画辅助制作系统
CN103443826A (zh) * 2011-01-10 2013-12-11 杭州共形数字科技有限公司 网格动画
CN104217455A (zh) * 2014-09-05 2014-12-17 南京偶酷软件有限公司 人脸表情动作的动画制作方法
CN104574488A (zh) * 2014-12-08 2015-04-29 北京理工大学 一种用于移动增强现实浏览器的三维模型的优化方法
CN104616330A (zh) * 2015-02-10 2015-05-13 广州视源电子科技股份有限公司 一种图片的生成方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHRISTOPHER OAT: "Animated Wrinkle Maps", 《ADVANCED REAL-TIME RENDERING IN 3D GRAPHICS AND GAMES COURSE》 *
梁海燕: "基于Kinect动作驱动的三维细微面部表情实时模拟", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135226A (zh) * 2018-02-09 2019-08-16 腾讯科技(深圳)有限公司 表情动画数据处理方法、装置、计算机设备和存储介质
CN110135226B (zh) * 2018-02-09 2023-04-07 腾讯科技(深圳)有限公司 表情动画数据处理方法、装置、计算机设备和存储介质
CN109344126A (zh) * 2018-09-12 2019-02-15 网易(杭州)网络有限公司 贴图的处理方法、装置、存储介质和电子装置
CN109344126B (zh) * 2018-09-12 2021-11-30 网易(杭州)网络有限公司 贴图的处理方法、装置、存储介质和电子装置
CN112684881A (zh) * 2019-10-17 2021-04-20 未来市股份有限公司 化身面部表情生成系统及化身面部表情生成方法
CN112684881B (zh) * 2019-10-17 2023-12-01 未来市股份有限公司 化身面部表情生成系统及化身面部表情生成方法
CN111028322A (zh) * 2019-12-18 2020-04-17 北京像素软件科技股份有限公司 游戏动画表情生成方法、装置及电子设备
CN111221459A (zh) * 2020-01-13 2020-06-02 吴克兵 一种图表制作平台

Also Published As

Publication number Publication date
CN107180445B (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
CN109598777B (zh) 图像渲染方法、装置、设备及存储介质
US11393154B2 (en) Hair rendering method, device, electronic apparatus, and storage medium
CN106504311B (zh) 一种动态流体效果的渲染方法和装置
US10332240B2 (en) Method, device and computer readable medium for creating motion blur effect
CN107180445A (zh) 一种动画模型的表情控制方法和装置
CN107180444B (zh) 一种动画生成方法、装置、终端和系统
CN108537889A (zh) 增强现实模型的调整方法、装置、存储介质和电子设备
CN106807087B (zh) 一种应用中模拟对象处理的方法以及移动终端
CN106127673B (zh) 一种视频处理方法、装置及计算机设备
CN107741809A (zh) 一种虚拟形象之间的互动方法、终端、服务器及系统
US20060100021A1 (en) Game console and emulator for the game console
CN107247548A (zh) 图像显示方法、图像处理方法及装置
CN109389664A (zh) 模型贴图渲染方法、装置及终端
CN108287744A (zh) 文字显示方法、装置及存储介质
CN108984087A (zh) 基于三维虚拟形象的社交互动方法及装置
CN110533755A (zh) 一种场景渲染的方法以及相关装置
CN110213504A (zh) 一种视频处理方法、信息发送方法及相关设备
CN112967367B (zh) 水波特效生成方法及装置、存储介质、计算机设备
CN108920053A (zh) 一种对齐方法及移动终端
US20060139358A1 (en) 3D graphic engine and method of providing graphics in mobile communication terminal
CN109753892A (zh) 人脸皱纹的生成方法、装置、计算机存储介质和终端
CN111580815A (zh) 一种页面元素的编辑方法及相关设备
CN110517346B (zh) 虚拟环境界面的展示方法、装置、计算机设备及存储介质
CN109902282A (zh) 一种文字排版方法、装置和存储介质
CN109126124A (zh) 引擎适配方法、相关设备以及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant