CN110766776A - 生成表情动画的方法及装置 - Google Patents
生成表情动画的方法及装置 Download PDFInfo
- Publication number
- CN110766776A CN110766776A CN201911038834.0A CN201911038834A CN110766776A CN 110766776 A CN110766776 A CN 110766776A CN 201911038834 A CN201911038834 A CN 201911038834A CN 110766776 A CN110766776 A CN 110766776A
- Authority
- CN
- China
- Prior art keywords
- face model
- model
- face
- facial
- expressions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 245
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000001815 facial effect Effects 0.000 claims abstract description 150
- 238000012545 processing Methods 0.000 claims abstract description 23
- 210000000988 bone and bone Anatomy 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 17
- 210000000697 sensory organ Anatomy 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000004397 blinking Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241000542420 Sphyrna tudes Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003054 facial bone Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Abstract
本公开提供一种表情动画的生成方法及装置、电子设备、存储介质;涉及图像处理技术领域。所述生成动画表情的方法包括:获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。本公开帮助提高了表情动画的生成效率,以及生成的表情动画的质量。
Description
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种生成表情动画的方法、生成表情动画的装置、电子设备以及计算机可读存储介质。
背景技术
随着图像处理技术的发展,用户对游戏、动漫、影视等在视觉体验上要求越来越高。用户希望看到角色具有丰富的表情,而不再是一副扑克脸。因此在游戏制作过程中,虚拟角色的表情动画设计越发重要。
通常一个虚拟角色可以拥有几十种表情,包括眨眼、微笑、生气等表情。制作虚拟角色的表情模型可以采用表情动画的方式,表情动画一般由顶点动画和骨骼构成,而生成顶点动画的方法是手动制作。因此如果采用传统方法一一手动制作出各表情模型,所耗费的时间和工作量是非常大的,那么一部游戏或者动画中的角色多达几十个甚至上百个,将会消耗大量的时间和资源。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种生成表情动画的方法、生成表情动画的装置、电子设备以及计算机可读存储介质,进而在一定程度上克服由于相关技术的限制和缺陷而导致的现有的表情动画生成效率低的问题。
根据本公开的第一方面,提供一种生成表情动画的方法,包括:
获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;
根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
在本公开的一种示例性实施例中,所述根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型,包括:
当所述第一面部模型与所述第二面部模型的拓扑结构一致时,将所述第二面部模型加入所述第一面部模型的基础表情中,得到第二面部模型表情;
播放所述第二面部模型表情,使得所述第一面部模型变形为所述第三面部模型。
在本公开的一种示例性实施例中,所述根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型,包括:
当所述第一面部模型与所述第二面部模型的拓扑结构不一致时,将所述第二面部模型包裹所述第一面部模型,得到第三面部模型。
在本公开的一种示例性实施例中,所述将所述第二面部模型包裹所述第一面部模型,得到第三面部模型之前,还包括:
对所述第一面部模型进行调整,以获得与所述第二面部模型匹配的第一面部模型。
在本公开的一种示例性实施例中,所述对所述第一面部模型进行调整,以获得与所述第二面部模型匹配的第一面部模型,包括:
通过同一套骨骼对所述第一面部模型及其多个基础表情分别进行蒙皮处理;
将所述第二面部模型叠加至所述第一面部模型上;
根据所述第二面部模型对所述第一面部模型的骨骼进行移动,以使得所述第一面部模型的多个基础表情的骨骼跟随所述第一面部模型的骨骼的移动而移动。
在本公开的一种示例性实施例中,所述通过同一套骨骼对所述第一面部模型及其多个基础表情分别进行蒙皮处理,包括:
将所述第一面部模型的多个基础表情分别归位至所述第一面部模型所在的位置;
通过同一套骨骼对归位的基础表情进行蒙皮处理。
在本公开的一种示例性实施例中,所述依次播放所述第一面部模型的多个基础表情,包括:
依次播放经过骨骼移动后的所述第一面部模型的多个基础表情。
在本公开的一种示例性实施例中,所述依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情,包括:
依次播放所述第一面部模型的多个基础表情,且每播放一个所述第一面部模型的基础表情时,复制一个带有播放的基础表情的第三面部模型,得到所述第三面部模型的多个基础表情。
在本公开的一种示例性实施例中,所述将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型,包括:
通过混合变形编辑器将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
根据本公开的第二个方面,提供一种生成表情动画的装置,包括:
模型获取模块,用于获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;
变形处理模块,用于根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
表情播放模块,用于依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
加载模块,用于将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
根据本公开的第三个方面,提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述任一项所述的方法。
根据本公开的第四个方面,提供一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的生成表情动画的方法中,获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。本发明通过根据第二面部模型对第一面部模型进行变形,再依次播放第一面部模型的基础模型,从而得到变形后的第一面部模型(第三面部模型)的多个基础表情,也即与第二面部模型匹配的多个基础表情(也即第三面部模型的多个基础表情),然后将与第二面部模型匹配的多个基础表情加入第二面部模型中,从而获得第二虚拟角色的具有多个表情动画的第二面部模型,整个过程实现简单,无需花费大量时间即可得到虚拟角色的丰富的表情动画;实现了准确、高效的生成高质量的表情动画的技术效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的一种生成表情动画的方法及装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的一个实施例的生成表情动画的方法的流程图;
图4-图6分别示意性示出了播放不同表情的第一面部模型;
图7-图14分别示意性示出了根据本公开的一实施例生成表情动画的方法获取第二面部模型的基础表情过程中的多张效果图;
图15-图18分别示意性示出了根据本公开的另一实施例生成表情动画的方法获取第二面部模型的基础表情过程中的多张效果图;
图19-图26分别示意性示出了根据本公开的另一实施例中生成表情动画的方法获取第二面部模型的基础表情过程中的多张效果图;
图27示意性示出了根据本公开的一个实施例的生成表情动画的装置的框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种生成表情动画的方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的生成表情动画的方法一般由服务器105执行,相应地,生成表情动画的装置一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的生成表情动画的方法也可以由终端设备101、102、103执行,相应的,生成表情动画的装置也可以设置于终端设备101、102、103中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,可以是用户通过终端设备101、102、103将待融合图像上传至服务器105,服务器通过本公开实施例所提供的生成表情动画的方法将待融合图像中的人脸融合到模板图像得到目标图像,并将目标图像传输给终端设备101、102、103等。
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。在一些实施例中,计算机系统200还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图3所示的各个步骤等。
以下对本公开实施例的技术方案进行详细阐述:
本示例实施方式提供了一种生成表情动画的方法。该生成表情动画的方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。参考图3所示,该生成表情动画的方法可以包括以下步骤S310至步骤S340:
步骤S310,获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;
步骤S320,根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
步骤S330,依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
步骤S340,将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
本公开的一示例实施方式所提供的生成表情动画的方法,本发明通过根据第二面部模型对第一面部模型进行变形,再依次播放第一面部模型的基础模型,从而得到变形后的第一面部模型(第三面部模型)的多个基础表情,也即与第二面部模型匹配的多个基础表情(也即第三面部模型的多个基础表情),然后将与第二面部模型匹配的多个基础表情加入第二面部模型中,从而获得第二虚拟角色的具有多个表情动画的第二面部模型,整个过程实现简单,无需花费大量时间即可得到虚拟角色的丰富的表情动画;实现了准确、高效的生成高质量的表情动画的技术效果。
图4-图6分别示意性示出了第一面部模型及在播放不同表情的第一面部模型;图7-图14分别示意性示出了根据本公开的一实施例中生成表情动画的方法获取第二面部模型的基础表情过程中的多张效果图;图15-图18分别示意性示出了根据本公开的另一实施例中生成表情动画的方法获取第二面部模型的基础表情过程中的多张效果图;图19-图26分别示意性示出了根据本公开的另一实施例中生成表情动画的方法获取第二面部模型的基础表情过程中的多张效果图。
下面将结合图4-图26对本公开的生成表情动画的方法进行详细说明:
在步骤S310中,获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情。
其中,第一虚拟角色是指包含有面部表情动画的角色,具有与其对应的第一面部模型,第一面部模型可以指具有基础脸型的模型,其可以包含多个基础表情,即多个blendshape模型,例如眨眼、微笑、生气等。通常面部模型中的基础表情数量越多,最后所呈现的虚拟角色的表情动态效果越真实生动。第二虚拟角色是指需要生成表情动画的角色,第二面部模型是指与第二虚拟角色对应的面部模型,第二面部模型也具有基础脸型。
例如,图4为第一虚拟角色的第一面部模型,图4可以为无任何面部表情,当将blendshape模型的属性值从0变为1时,第一面部模型的表情将发生变化。图5、图6为在播放不同表情的第一面部模型。其中图5的表情为眨眼,图6的表情为撇嘴。此外,第一面部模型还可以具有大笑、生气、悲伤等多个表情,数量可以达到50种,则包括基础脸型在内,第一面部模型表情的数量总计为51种。
此外,本示例实施例中所涉及的第一面部模型是指虚拟角色的脸部,包括脸部形状和起伏,五官位置和形状等。
本示例实施例中,可以根据第二虚拟角色的第二面部模型与第一面部模型的拓扑结构是否一致,将第二面部模型分为两种类型,包括拓扑结构一致(或者相近)与拓扑结构不一致。拓扑结构不一致的情况又可以包括第二面部模型与第一面部模型的脸型和五官相近与差异很大两种情况。
本公开所提供的应用本发明一实施例生成表情动画的方法参见图7-图14所示,所提供的第一面部模型可以如图7中710所示,提供的第二面部模型可以如图7中720所示。且图9中示出了显示其面部拓扑结构的模型图,可以看出,第二面部模型920的拓扑结构与第一面部模型910的拓扑结构一致。
本公开所提供的应用本发明另一实施例生成表情动画的方法参见图15-图18所示,所提供的第一面部模型可以如图15中1510所示,所提供的第二面部模型可以如图15中1520所示。且图15中显示了模型的面部拓扑结构,可以看出,第二面部模型的拓扑结构与第一面部模型的拓扑结构不一致,但脸型和五官相近。
本公开所提供的应用本发明另一实施例生成表情动画的方法参见图19-图26所示,所提供的第一面部模型可以如图19中1910所示,所提供的第二面部模型可以如图19中1920所示。此处,第二面部模型的拓扑结构与第一面部模型的拓扑结构不一致,且脸型和五官差异很大。
在步骤S320中,根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
在步骤S330中,依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
在本发明实施例中,将根据第二面部模型对第一面部模型进行变形处理后所得结果称为第三面部模型,因为在本发明中对第一面部模型的变形是根据第二面部模型处理的,所以变形后得到的第三面部模型与第二面部模型匹配,这里的匹配可以指第三面部模型与第二面部模型相同,第三面部模型的表情(基础表情)也可以作为第二面部模型的表情(基础)。
在本示例性实施例中,如何获得第三面部模型的多个基础表情,以丰富第二虚拟角色的表情动画,是本公开的方法的重点内容。具体的,可以根据第二面部模型与第一面部模型的在拓扑结构上、面部与五官的差异度上的不同而不同,以实现较好的制作效果。
在步骤S340中,将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
需要补充的是,本公开的一些实施例涉及到对模型进行加载,播放,变形,复制,融合等操作。通过基于Maya软件(玛雅软件)使用MEL语言(Maya EmbededLanguge,玛雅嵌入语言)进行模型的加载,播放,变形,复制,融合等操作,以实现将上述获取的第三面部模型的多个基础表情加载至第二面部模型中,为第二虚拟角色生成丰富的表情动画。其中Maya软件是一款三维动画软件,可以用于角色动画的制作。但本公开生成表情动画的方法并不限制于使用此款软件。
下面,将分别结合上述实施例对上述步骤进行详细阐述。
参见图7-图14。
为了减少非处理对象(头发、眉毛、面部涂鸦)等因素的干扰,实际处理过程中,可以排除其他干扰项,只对图8中的模型进行处理,以呈现出比较清晰的处理过程。通过对图8中的第一面部模型810与第二面部模型820进行对比,可以看到,第二面部模型与第一面部模型的脸型和五官存在差异,具体在脸颊、眉骨、鼻尖、嘴唇、耳朵等处存在一些差异。
进一步参见图9,图9中第二面部模型920与第一面部模型910的拓扑结构的布线是一致的。则在一示例性实施例中,上述步骤S320可以包括以下步骤:
当所述第一面部模型与所述第二面部模型的拓扑结构一致时,将所述第二面部模型加入所述第一面部模型的基础表情中,得到第二面部模型表情;
播放所述第二面部模型表情,使得所述第一面部模型变形为所述第三面部模型。
即首先将第二面部模型直接加载进第一面部模型中,使得第二面部模型变为第一面部模型的一个基础表情,即第二面部模型为第一面部模型的一个blendshape,可以设置blendshape的默认属性值为0,当第二面部模型的属性值变为1的时候,播放第二面部模型,从而使得第一面部模型的变换为第二面部模型的样子。如图10所示,第一面部模型1010已经变形为第二面部模型1020的样子,我们可以称为第三面部模型。
在此基础上,依次播放第一面部模型的多个基础表情时,相当于在第二面部模型上依次播放第一面部模型的多个基础表情,如图11所示的眨眼,即第二面部模型上显示眨眼的表情效果。
在本发明实施例中,可以对已经变换为第二面部模型样子的第一面部模型播放每一个表情时进行复制,则可以获得多个基于第二面部模型的多个表情模型。如图12中所示,图中S区域展示了复制出的多个表情模型,包括了第三面部模型的1个基础模型和50个表情模型,共计51个。
最后,将第三面部模型的多个所述表情模型加载进所述第二面部模型中,以生成带有多个表情的第二面部模型。具体的,可以通过混合变形编辑器将第三面部模型的多个基础表情加载至第二面部模型中,从而获得具有多个基础表情的第二面部模型,即第二面部模型具有多个blendshape。生成的带表情的第二面部模型的可以参见图13、图14所示。图13为带有微笑表情的第二面部模型,图14为带有睁大眼睛表情的第二面部模型。其中,可以根据目标模型表情的制作需求,选择性的复制全部或部分的第一面部模型的表情,以生成所需要的第二面部模型的基础表情,本公开在此不做特殊限定。
此外,在第二面部模型与第一面部模型的脸部布线的拓扑结构不一致时,但是二者的拓扑结构通过简单的调整可以达到一致,则可以调整第二面部模型和/或第一面部模型的脸部布线的拓扑结构,使第二面部模型与第一面部模型的脸部布线的拓扑结构一致,进而采用上述实施例的方法,进行第二面部模型表情的制作。
需要补充的是,在其他实施例中,可能会存在第二面部模型与第一面部模型的拓扑结构一致,但是脸型和五官差别很大的情况,在这种情况下,仍然可以使用上述实施例中提供的方法来获得第三面部模型。
另外,在第二面部模型与第一面部模型的脸部布线的拓扑结构不一致时,在一示例性实施例中,上述步骤S320可以包括以下步骤:
当所述第一面部模型与所述第二面部模型的拓扑结构不一致时,将所述第二面部模型包裹所述第一面部模型,得到第三面部模型。
本公开提供的另一实施例,参见图15-图18,所提供的第一面部模型可以如图15中1510所示,所提供的第二面部模型可以如图15中1520所示。
图15中第二面部模型与第一面部模型脸部拓扑结构的布线是不一致的。但是两者脸型和五官的差异不大,则可以将所述第二面部模型包裹所述第一面部模型,得到第三面部模型,该第三面部模型即为包裹了第一面部模型的第二面部模型。
如图16所示,第一面部模型的外层已经被第二面部模型包裹住,此处所述的包裹是指第二面部模型的拓扑结构的布线包裹并贴合在了第一面部模型脸部的外层。包裹的原理是第二面部模型当做布,被包裹的第一面部模型为被布包裹住的东西,只要被包裹的第一面部模型动一下,第二面部模型就会跟着动,从而第二面部模型可以随着第一面部模型脸部五官、表情的变化同步变化。
依次播放第一面部模型的多个表情,如图17所示的眨眼,则在操作播放每一个第一面部模型的表情时,其外层包裹的第二面部模型的拓扑结构的布线同样跟随变化。
可以在第一面部模型播放每一个表情时,复制当前包裹第一面部模型脸部的第二面部模型,则可以获得第三面部模型的多个基础表情,即第二面部模型的多个基础表情。如图18中所示,图中T区域展示了复制出的多个表情,包括了第三面部模型的1个基础模型和50个表情模型,共计51个。
最后,将第三面部模型的多个所述表情模型加载进所述第二面部模型中,以生成带有多个基础表情的第二面部模型。具体的,可以通过混合变形编辑器将第三面部模型的多个表情模型加载进第二面部模型中。
本公开提供的另一实施例,参见图19-图26所示,所提供的第一面部模型可以如图19中1910所示,所提供的第二面部模型可以如图19中1920所示。
在第二面部模型与第一面部模型的脸部布线的拓扑结构不一致时,且两者脸型和五官的差异也较大时,如果直接采用上述实施例中的包裹法,则在播放第一面部模型的各表情并复制基于第二面部模型的表情模型时,会由于脸型和五官的差异较大,所得到的基于第二面部模型的表情模型会丢失很多细节。例如:在第一面部模型为小眼睛,第二面部模型为大眼睛的情况下,则播放第一面部模型的闭眼表情时,第一面部模型的小眼睛已经全部闭合,但第二面部模型的大眼睛只闭合部分,会出现没有完全闭合的情况。
因此,为了解决包裹不准确的问题,在一示例性实施例中,所述将所述第二面部模型包裹所述第一面部模型,得到第三面部模型之前,还可以包括:
对所述第一面部模型进行调整,以获得与所述第二面部模型匹配的第一面部模型。
通过确定与第二面部模型匹配的第一面部模型,进而采用上述实施例中的包裹方法,进行表情模型的制作。
其中,调整第一面部模型可以包括:在第一面部模型的脸部架设骨骼,所述骨骼由多个骨骼点组成;通过调整各骨骼点的位置,调整所述第一面部模型的脸型及五官。
如图20所示,可以给第一面部模型的各个基础表情模型架设同一套骨骼。图20中的多个骨骼点组成了当前的一套面部骨骼。且骨骼点越多,所获得的面部细节也越丰富。
然后,可以将第二面部模型放置到第一面部模型的位置上,即将第二面部模型叠加至第一面部模型上,并调整第一面部模型的大小,使第一面部模型与第二面部模型重叠。
如图21所示。进一步的,根据第二面部模型,移动第一面部模型上面的骨骼点,以使第一面部模型的脸型及五官与第二面部模型的脸型及五官相同或相近,如图22所示。需要注意的是,经过调整后的第一面部模型仍然具有多个表情属性,即可以在变化脸型及五官后,依然可以播放多个表情。
再者,采用类似上述实施例的包裹方法,使用第二面部模型包裹住调整后的第一面部模型的脸部,依次播放被包裹后的第一面部模型的各表情,并在播放每一个表情时,复制当前包裹第一面部模型脸部的第二面部模型,以获得第二面部模型的多个基础表情。从而获得了第三面部模型的1个基础模型和50个表情模型,共计51个。
最后,将第三面部模型的多个所述表情模型加载进所述第二面部模型中,以生成带有多个基础表情的第二面部模型。具体的,可以通过混合变形将基于第二面部模型的多个表情模型加载进第二面部模型中。
所生成的带表情的第二面部模型的可以参见图23-图26所示。图23为带有基础脸型的第二面部模型,即无任何表情的第二面部模型,图24为带有微笑表情的第二面部模型,图25为带有睁大眼睛表情的第二面部模型,图26为带有闭眼表情的第二面部模型。
另外,还可以通过对第一面部模型架设骨骼及蒙皮、结合批量复制等方法制作第三面部模型及其表情模型。
在一示例性实施例中,上述对所述第一面部模型进行调整,以获得与所述第二面部模型匹配的第一面部模型,可以包括以下步骤:
通过同一套骨骼对所述第一面部模型及其多个基础表情分别进行蒙皮处理;
将所述第二面部模型叠加至所述第一面部模型上;
根据所述第二面部模型对所述第一面部模型的骨骼进行移动,以使得所述第一面部模型的多个基础表情的骨骼跟随所述第一面部模型的骨骼的移动而移动。
考虑到不同的面部模型的基础表情可能存在差异,因此,本示例性实施例可以通过同一套骨骼对第一面部模型及其多个基础表情分别进行蒙皮处理,进而可以将第二面部模型放置到第一面部模型的位置上,最后进行骨骼的移动。通过对第一面部模型以及多个基础表情分别进行蒙皮处理,在后续进行骨骼移动时,能够得到更为准确的基础表情。
在一示例性实施例中,上述通过同一套骨骼对所述第一面部模型及其多个基础表情分别进行蒙皮处理,可以包括以下步骤:
将所述第一面部模型的多个基础表情分别归位至所述第一面部模型所在的位置;
通过同一套骨骼对归位的基础表情进行蒙皮处理。
通常,基础表情的位置较为精细,因此,在进行蒙皮处理时,可以将第一面部模型的多个基础表情分别归位至第一面部模型所在的位置,通过确定基础表情对应的位置,可以使第二面部模型能够准确的叠加在第一面部模型中。
在一示例性实施例中,上述依次播放所述第一面部模型的多个基础表情,可以包括以下步骤:
依次播放经过骨骼移动后的所述第一面部模型的多个基础表情。
即在本示例性实施例中,对第一面部模型的多个基础表情模型分别进行骨骼移动后,在一次播放各个基础表情模型,从而可以及时获取有效、准确的第三面部模型的基础表情,以提高表情动画生成的准确性。
在一示例性实施例中,上述依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情,包括:
依次播放所述第一面部模型的多个基础表情,且每播放一个所述第一面部模型的基础表情时,复制一个带有播放的基础表情的第三面部模型,得到所述第三面部模型的多个基础表情。
在本发明实施例中调整第一面部模型的脸型及五官,以获得与第二面部模型的脸型及五官相匹配的第一面部模型;使用第二面部模型包裹住调整后的第一面部模型,我们称为第三面部模型,即第三面部模型为包裹住第一面部模型的第二面部模型,依次播放被包裹后的第一面部模型的各基础表情,并在播放每一个表情时,复制当前包裹第一面部模型脸部的第二面部模型,从而获得第三面部模型的多个基础表情。最后,将基于第三面部模型的多个所述表情模型加载进所述第二面部模型中,以生成带有多个表情的第三面部模型。本示例性实施例可以在需要制作的基础表情数量较大时,快速生成虚拟角色的表情动画,相比于现有技术,大大降低工作量,提高表情动画的生成效率。
综上所述,通过本公开提供的生成表情动画的方法,解决了利用现有模型及其表情模型资源,制作新的模型及其表情模型的技术问题。进一步的,在所制作的新模型与现有模型具有较大差异时,还能通过优化技术细节,制作出不丢失面部细节的新模型及其表情模型,从而实现了生成表情动画高质量、高效率的技术效果。
图27示意性示出了根据本公开的一个实施例的生成表情动画的装置2700的框图。
进一步的,本示例实施方式中,还提供了一种生成表情动画的装置2700。该生成表情动画的装置2700可以应用于一服务器或终端设备。参考图27所示,该生成表情动画的装置2700可以包括:
模型获取模块2710,用于获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;
变形处理模块2720,用于根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
表情播放模块2730,用于依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
加载模块2740,用于将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
上述生成表情动画的装置2700中各模块或单元的具体细节已经在对应的生成动画表情的方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (12)
1.一种生成表情动画的方法,其特征在于,包括:
获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;
根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型,包括:
当所述第一面部模型与所述第二面部模型的拓扑结构一致时,将所述第二面部模型加入所述第一面部模型的基础表情中,得到第二面部模型表情;
播放所述第二面部模型表情,使得所述第一面部模型变形为所述第三面部模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型,包括:
当所述第一面部模型与所述第二面部模型的拓扑结构不一致时,将所述第二面部模型包裹所述第一面部模型,得到第三面部模型。
4.根据权利要求3所述的方法,其特征在于,所述将所述第二面部模型包裹所述第一面部模型,得到第三面部模型之前,还包括:
对所述第一面部模型进行调整,以获得与所述第二面部模型匹配的第一面部模型。
5.根据权利要求4所述的方法,其特征在于,所述对所述第一面部模型进行调整,以获得与所述第二面部模型匹配的第一面部模型,包括:
通过同一套骨骼对所述第一面部模型及其多个基础表情分别进行蒙皮处理;
将所述第二面部模型叠加至所述第一面部模型上;
根据所述第二面部模型对所述第一面部模型的骨骼进行移动,以使得所述第一面部模型的多个基础表情的骨骼跟随所述第一面部模型的骨骼的移动而移动。
6.根据权利要求5所述的方法,其特征在于,所述通过同一套骨骼对所述第一面部模型及其多个基础表情分别进行蒙皮处理,包括:
将所述第一面部模型的多个基础表情分别归位至所述第一面部模型所在的位置;
通过同一套骨骼对归位的基础表情进行蒙皮处理。
7.根据权利要求5所述的方法,其特征在于,所述依次播放所述第一面部模型的多个基础表情,包括:
依次播放经过骨骼移动后的所述第一面部模型的多个基础表情。
8.根据权利要求1所述的方法,其特征在于,所述依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情,包括:
依次播放所述第一面部模型的多个基础表情,且每播放一个所述第一面部模型的基础表情时,复制一个带有播放的基础表情的第三面部模型,得到所述第三面部模型的多个基础表情。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型,包括:
通过混合变形编辑器将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
10.一种生成表情动画的装置,其特征在于,包括:
模型获取模块,用于获取第一虚拟角色的第一面部模型和第二虚拟角色的第二面部模型,其中,所述第一面部模型具有多个基础表情;
变形处理模块,用于根据所述第二面部模型对所述第一面部模型进行变形处理,得到第三面部模型;
表情播放模块,用于依次播放所述第一面部模型的多个基础表情,以获得所述第三面部模型的多个基础表情;
加载模块,用于将所述第三面部模型的多个基础表情加载至所述第二面部模型中,从而获得具有多个基础表情的第二面部模型。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-9任一项所述的方法。
12.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911038834.0A CN110766776B (zh) | 2019-10-29 | 2019-10-29 | 生成表情动画的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911038834.0A CN110766776B (zh) | 2019-10-29 | 2019-10-29 | 生成表情动画的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110766776A true CN110766776A (zh) | 2020-02-07 |
CN110766776B CN110766776B (zh) | 2024-02-23 |
Family
ID=69334366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911038834.0A Active CN110766776B (zh) | 2019-10-29 | 2019-10-29 | 生成表情动画的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110766776B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292427A (zh) * | 2020-03-06 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 骨骼位移信息获取方法、装置、设备及存储介质 |
CN111899319A (zh) * | 2020-08-14 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
CN112686978A (zh) * | 2021-01-07 | 2021-04-20 | 网易(杭州)网络有限公司 | 表情资源的加载方法、装置和电子设备 |
CN112807688A (zh) * | 2021-02-08 | 2021-05-18 | 网易(杭州)网络有限公司 | 游戏内表情设置方法、装置、处理器及电子装置 |
CN113470148A (zh) * | 2021-06-30 | 2021-10-01 | 完美世界(北京)软件科技发展有限公司 | 表情动画制作方法及装置、存储介质、计算机设备 |
CN113470149A (zh) * | 2021-06-30 | 2021-10-01 | 完美世界(北京)软件科技发展有限公司 | 表情模型的生成方法及装置、存储介质、计算机设备 |
CN115546868A (zh) * | 2022-10-25 | 2022-12-30 | 湖南芒果无际科技有限公司 | 面部动画采集设备、方法及可读存储介质 |
CN115578493A (zh) * | 2022-10-20 | 2023-01-06 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN116485959A (zh) * | 2023-04-17 | 2023-07-25 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
WO2023184357A1 (zh) * | 2022-03-31 | 2023-10-05 | 云智联网络科技(北京)有限公司 | 一种表情模型制作的方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN107657651A (zh) * | 2017-08-28 | 2018-02-02 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN110163063A (zh) * | 2018-11-28 | 2019-08-23 | 腾讯数码(天津)有限公司 | 表情处理方法、装置、计算机可读存储介质和计算机设备 |
-
2019
- 2019-10-29 CN CN201911038834.0A patent/CN110766776B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN107657651A (zh) * | 2017-08-28 | 2018-02-02 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN110163063A (zh) * | 2018-11-28 | 2019-08-23 | 腾讯数码(天津)有限公司 | 表情处理方法、装置、计算机可读存储介质和计算机设备 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292427A (zh) * | 2020-03-06 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 骨骼位移信息获取方法、装置、设备及存储介质 |
CN111899319A (zh) * | 2020-08-14 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
CN112686978A (zh) * | 2021-01-07 | 2021-04-20 | 网易(杭州)网络有限公司 | 表情资源的加载方法、装置和电子设备 |
CN112686978B (zh) * | 2021-01-07 | 2021-09-03 | 网易(杭州)网络有限公司 | 表情资源的加载方法、装置和电子设备 |
CN112807688A (zh) * | 2021-02-08 | 2021-05-18 | 网易(杭州)网络有限公司 | 游戏内表情设置方法、装置、处理器及电子装置 |
CN113470149A (zh) * | 2021-06-30 | 2021-10-01 | 完美世界(北京)软件科技发展有限公司 | 表情模型的生成方法及装置、存储介质、计算机设备 |
CN113470148A (zh) * | 2021-06-30 | 2021-10-01 | 完美世界(北京)软件科技发展有限公司 | 表情动画制作方法及装置、存储介质、计算机设备 |
CN113470149B (zh) * | 2021-06-30 | 2022-05-06 | 完美世界(北京)软件科技发展有限公司 | 表情模型的生成方法及装置、存储介质、计算机设备 |
WO2023184357A1 (zh) * | 2022-03-31 | 2023-10-05 | 云智联网络科技(北京)有限公司 | 一种表情模型制作的方法、装置及电子设备 |
CN115578493A (zh) * | 2022-10-20 | 2023-01-06 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN115578493B (zh) * | 2022-10-20 | 2023-05-30 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN115546868A (zh) * | 2022-10-25 | 2022-12-30 | 湖南芒果无际科技有限公司 | 面部动画采集设备、方法及可读存储介质 |
CN115546868B (zh) * | 2022-10-25 | 2023-05-16 | 湖南芒果无际科技有限公司 | 面部动画采集设备、方法及可读存储介质 |
CN116485959A (zh) * | 2023-04-17 | 2023-07-25 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110766776B (zh) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766776B (zh) | 生成表情动画的方法及装置 | |
JP7227292B2 (ja) | 仮想アバター生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
KR102658960B1 (ko) | 얼굴 재연을 위한 시스템 및 방법 | |
US10860838B1 (en) | Universal facial expression translation and character rendering system | |
CN110286756A (zh) | 视频处理方法、装置、系统、终端设备及存储介质 | |
CN111652828A (zh) | 人脸图像生成方法、装置、设备和介质 | |
CN113272870A (zh) | 用于逼真的实时人像动画的系统和方法 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
US11514638B2 (en) | 3D asset generation from 2D images | |
CN113362263A (zh) | 变换虚拟偶像的形象的方法、设备、介质及程序产品 | |
CN112221145A (zh) | 游戏脸模生成方法及装置、存储介质及电子设备 | |
Abdul‐Massih et al. | Motion style retargeting to characters with different morphologies | |
CN113763518A (zh) | 基于虚拟数字人的多模态无限表情合成方法及装置 | |
US20230177755A1 (en) | Predicting facial expressions using character motion states | |
Buttussi et al. | H-animator: a visual tool for modeling, reuse and sharing of X3D humanoid animations | |
KR20110045719A (ko) | 애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템 | |
Orvalho et al. | Transferring the rig and animations from a character to different face models | |
CN111739134B (zh) | 虚拟角色的模型处理方法、装置及可读存储介质 | |
US8237719B1 (en) | Pose-structured animation interface | |
WO2023064441A1 (en) | Inferred skeletal structure for practical 3d assets | |
CN113223128B (zh) | 用于生成图像的方法和装置 | |
CN111899321A (zh) | 一种虚拟角色表情展现的方法和装置 | |
CN111739135A (zh) | 虚拟角色的模型处理方法、装置及可读存储介质 | |
Limano | Realistic or iconic 3D animation (adaptation study with theory uncanny valley) | |
CN116071473B (zh) | 一种动画运动关键帧的获取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |