CN118015160A - 生成表情动画的方法、装置、存储介质及电子装置 - Google Patents
生成表情动画的方法、装置、存储介质及电子装置 Download PDFInfo
- Publication number
- CN118015160A CN118015160A CN202410311155.0A CN202410311155A CN118015160A CN 118015160 A CN118015160 A CN 118015160A CN 202410311155 A CN202410311155 A CN 202410311155A CN 118015160 A CN118015160 A CN 118015160A
- Authority
- CN
- China
- Prior art keywords
- expression
- data
- controller
- basic
- postures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 385
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000003860 storage Methods 0.000 title claims abstract description 37
- 230000036544 posture Effects 0.000 claims abstract description 103
- 210000000988 bone and bone Anatomy 0.000 claims description 85
- 238000004364 calculation method Methods 0.000 claims description 37
- 230000008451 emotion Effects 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 28
- 230000001815 facial effect Effects 0.000 claims description 21
- 210000003054 facial bone Anatomy 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 13
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000002996 emotional effect Effects 0.000 claims 2
- 238000004519 manufacturing process Methods 0.000 abstract description 33
- 230000008921 facial expression Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种生成表情动画的方法、装置、存储介质及电子装置。该方法包括:响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画。本申请解决了现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
Description
技术领域
本申请涉及计算机技术领域和电子游戏技术领域,具体而言,涉及一种生成表情动画的方法、装置、存储介质及电子装置。
背景技术
在为虚拟角色模型制作面部表情动画时,现有技术提供的方案通常包括:动画师手动控制虚拟角色面部的骨骼移动来制作动画,或者采用骨骼绑定的方式,通过虚拟控制器来控制其绑定的几个骨骼移动来制作动画,再或者通过软件将摄像头捕捉到的真人面部表情实时设置到虚拟角色的面部上从而制作动画。然而,上述方案各有缺陷,依赖动画师手动控制骨骼制作动画的方案人工成本过高,基于骨骼绑定制作动画的方案由于骨骼控制器数量较多、控制逻辑复杂其动画制作难度大、效率低,基于面部捕捉制作动画的方案中对真人演员的表情表演功底要求过高,且每个表情动画需要单独录制,效率过低。
由上可知,在制作表情动画的过程中如何有效地降低制作难度、节约制作成本并提升制作效率成为相关技术领域中的重要技术问题之一。针对上述的问题,目前尚未提出有效的解决方案。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请至少部分实施例提供了一种生成表情动画的方法、装置、存储介质及电子装置,以至少解决现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
根据本申请其中一实施例,提供了一种生成表情动画的方法,包括:响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画。
根据本申请其中一实施例,还提供了一种生成表情动画的装置,包括:获取模块,用于响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;调整模块,用于利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;生成模块,用于基于目标表情数据,生成第一虚拟模型对应的目标表情动画。
根据本申请其中一实施例,还提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述任一项中的生成表情动画的方法。
根据本申请其中一实施例,还提供了一种电子装置,包括:包括存储器和处理器,存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行上述任一项中的生成表情动画的方法。
在本申请至少部分实施例中,响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画。由此,本申请提出表情控制器来支持玩家或游戏开发者通过多个基础表情姿态的权重生成表情动画,基于不同权重组合能够生成丰富的表情动画,达到了通过简单的交互控制操作便捷地生成表情动画的目的,从而实现了降低表情动画制作难度、节约制作成本并提升制作效率的技术效果,进而解决了现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请其中一实施例的一种生成表情动画的方法的移动终端的硬件结构框图;
图2是根据本申请其中一实施例的一种生成表情动画的方法的流程图;
图3是根据本申请其中一实施例的一种可选的骨骼控制逻辑的示意图;
图4是根据本申请其中一实施例的一种可选的表情控制器的操作面板的示意图;
图5是根据本申请其中一实施例的一种可选的表情控制器的操作面板的示意图;
图6是根据本申请其中一实施例的一种可选的面部表情姿态的示意图;
图7是根据本申请其中一实施例的一种可选的表情控制器的操作面板的示意图;
图8是根据本申请其中一实施例的一种可选的面部表情姿态的示意图;
图9是根据本申请其中一实施例的一种可选的表情控制器的操作面板的示意图;
图10是根据本申请其中一实施例的一种可选的面部表情姿态的示意图;
图11是根据本申请其中一实施例的一种可选的面部表情姿态的示意图;
图12是根据本申请其中一实施例的一种可选的面部表情姿态的示意图;
图13是根据本申请其中一实施例的一种生成表情动画的装置的结构框图;
图14是根据本申请其中一实施例的一种电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本申请的说明书中,“例如”一词用来表示“用作例子、例证或说明”。本申请中被描述为“例如”的任何实施例不一定被解释为比其它实施例更优选或更具优势。为了使本领域任何技术人员能够实现和使用本申请,给出了以下描述。在以下描述中,为了解释的目的而列出了细节。应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其它实例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。
在本申请的一种可能的实施方式中,针对计算机技术领域下涉及电子游戏角色表情动画制作的场景中通常所采用的方案(如依赖动画师手动控制骨骼制作动画的方案,基于骨骼绑定制作动画的方案或者基于面部捕捉制作动画的方案),发明人经过实践并仔细研究后,仍然存在操作难度大、人力成本高、动画制作效率低的技术问题,基于此,本申请实施例提出了一种生成表情动画的方法,采用响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画的技术构思,实现了降低表情动画制作难度、节约制作成本并提升制作效率的技术效果,进而解决了现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
本申请涉及到的上述方法实施例,可以在终端设备(例如,移动终端、计算机终端或者类似的运算装置)中执行。以运行在移动终端上为例,该移动终端可以是智能手机、平板电脑、掌上电脑以及移动互联网设备、游戏机等终端设备。
图1是根据本申请其中一实施例的一种生成表情动画的方法的移动终端的硬件结构框图。如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102、存储器104、传输设备106、输入输出设备108以及显示设备110。以生成表情动画的方法通过该移动终端应用于电子游戏场景为例,处理器102调用并运行存储器104中存储的计算机程序以执行该生成表情动画的方法,所生成的电子游戏场景中的虚拟角色的表情动画通过传输设备106传输至输入输出设备108和/或显示设备110,进而将该表情动画提供给玩家。
仍然如图1所示,处理器102可以包括但不限于:中央处理器(Central ProcessingUnit,CPU)、图形处理器(Graphics Processing Unit,GPU)、数字信号处理(DigitalSignal Processing,DSP)芯片、微处理器(Microcontroller Unit,MCU)、可编程逻辑器件(Field Programmable Gate Array,FPGA)、神经网络处理器(Neural-Network ProcessingUnit,NPU)、张量处理器(Tensor Processing Unit,TPU)、人工智能(ArtificialIntelligence,AI)类型处理器等的处理装置。
本领域技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
在一些以游戏场景为主的可选实施例中,上述终端设备还可以提供具有触摸触敏表面的人机交互界面,该人机交互界面可以感应手指接触和/或手势来与图形用户界面(Graphical User Interface,GUI)进行人机交互,该人机交互功能可以包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读存储介质中。
本申请涉及到的上述方法实施例,还可以在服务器中执行。其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。以生成表情动画的方法通过电子游戏服务器应用于电子游戏场景为例,电子游戏服务器可基于该生成表情动画的方法生成电子游戏场景中虚拟角色的表情动画,并将该表情动画提供给玩家(例如,可以渲染显示在玩家终端的显示屏上,或者,通过全息投影提供给玩家等)。
根据本申请其中一实施例,提供了一种生成表情动画的方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种运行于上述移动终端的一种生成表情动画的方法,图2是根据本申请其中一实施例的一种生成表情动画的方法的流程图,如图2所示,该方法包括如下步骤:
步骤S21,响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;
步骤S22,利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;
步骤S23,基于目标表情数据,生成第一虚拟模型对应的目标表情动画。
上述第一虚拟模型为电子游戏场景中虚拟游戏角色的角色模型。上述电子游戏场景对应的游戏类型可以是:动作类(例如:第一人称或第三人称射击游戏、二维或三维格斗游戏、战争动作游戏和体育动作游戏等)、冒险类(例如:探险游戏、收藏游戏、解谜游戏等)、模拟类(例如:模拟沙盘游戏、模拟养成游戏、策略模拟游戏、城市建造模拟游戏、商业模拟游戏等)、角色扮演类和休闲类(例如:棋牌桌游游戏、休闲竞技游戏、音乐节奏游戏、换装养成游戏等)等。上述虚拟游戏角色为任何能够支持表情动画的角色,虚拟游戏角色的角色类型可以是人物角色、动物角色、非生物角色、神话角色(如神仙、妖怪、幽灵等)等。
上述表情控制器可以包括多个基础表情姿态对应的多个控制组件。在一种应用场景中,游戏开发者通过对表情控制器执行的控制操作来为多个基础表情姿态指定对应的权重数据,从而为虚拟角色生成丰富多变的表情动画,此过程操作简单、效率高。在另一种应用场景中,在游戏中将该表情控制器提供给玩家,玩家通过对表情控制器执行的控制操作来指定上述权重数据,从而为虚拟角色设计并生成自定义的表情动画,此过程能够满足玩家对游戏角色表情动画的个性化需求。
上述多组基础表情数据可以是多个基础表情姿态对应的骨骼偏转数据,该骨骼偏转数据可以包括骨骼偏移数据和骨骼偏转数据,该骨骼偏转数据可以是基于骨骼发生偏转时相对于初始位置的相对坐标确定的。
上述目标表情动画可以是多个基础表情姿态中的部分或全部混合得到的混合动画。上述权重数据用于确定将多个基础表情数据进行混合时每个基础表情数据的占比。
根据本申请实施例的上述执行步骤,提供一种通过表情控制器生成表情动画的方案。该方案的实现环境可以是3ds Max软件。在上述实现环境中,将表情控制器与游戏角色模型的骨骼控制器绑定后,利用表情控制器对游戏角色模型的面部骨骼进行便捷地控制。由此,玩家或者游戏开发者可以通过对表情控制器执行控制操作以控制游戏角色模型做出相应的表情,从而快速生成该游戏角色模型的表情动画。
在本申请实施例中,响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画。由此,本申请提出表情控制器来支持玩家或游戏开发者通过多个基础表情姿态的权重生成表情动画,基于不同权重组合能够生成丰富的表情动画,达到了通过简单的交互控制操作便捷地生成表情动画的目的,从而实现了降低表情动画制作难度、节约制作成本并提升制作效率的技术效果,进而解决了现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
以下以为虚拟人物角色制作面部表情动画为例,对本申请实施例提供的上述生成表情动画的方法进行进一步介绍。
可选地,多个基础表情姿态为多种情绪对应的预设表情姿态。
在一种示例性的应用场景中,上述多种情绪可以是根据游戏风格预先确定的常见情绪,例如,多种情绪包括:微笑、得意、不悦、愤怒、难过、惊讶、思索。在此基础上,技术人员可以针对每种情绪制作基础表情姿态,也即,为每种情绪制作一个基础面部表情动画。上述基础面部表情动画的制作方式可以是基于直接控制骨骼的方案制作面部表情动画,也可以是基于虚拟控制器控制骨骼的方式制作面部表情动画,本申请并不对此进行限定。
例如,基于直接控制骨骼的方案为多种情绪制作基础面部表情动画时,技术人员将骨骼分别摆出每种情绪对应的表情姿态,并将每个表情姿态下的骨骼数据记录在动画关键帧上。也就是说,每个基础表情姿态对应的每组基础表情数据包括该基础表情姿态下每根骨骼的骨骼位置数据(包括偏移和旋转)。
再例如,根据每种情绪分别基于虚拟控制器(如AnimCraft控制器)控制骨骼的方式为多种情绪制作基础面部表情动画时,基于如图3所示的骨骼控制逻辑,对每个控制器进行移动调整以使得骨骼摆出每种情绪对应的表情姿态。此时,每个基础表情姿态对应的每组基础表情数据包括该基础表情姿态下每个虚拟控制器的控制器参数。
具体地,如图3所示,在骨骼控制逻辑中,包含多个层级的虚拟控制器,每个小控制器对应控制一个骨骼,每个大控制器控制相互关联的至少两个小控制器,由此,在需要控制骨骼移动时可以仅通过调整大控制器来实现,由于大控制器的数量远小于骨骼数量,因此基于虚拟控制器控制骨骼的方案被认为是一种控制效率较高的方案。特别地,在对每个控制器进行移动调整以使得骨骼摆出每种情绪对应的表情姿态的过程中,调整操作中的大部分对大控制器进行,少部分对小控制器进行以起到辅助调整作用。
可选地,上述生成表情动画的方法还可以包括以下执行步骤:
步骤S24,对表情控制器与第一面部骨骼的骨骼控制器进行参数绑定。
上述表情控制器的第一参数用于控制多个基础表情姿态的权重。上述第一面部骨骼的骨骼控制器的第二参数用于控制第一面部骨骼的骨骼位置。将第一面部骨骼的骨骼控制器绑定至表情控制器,可以在第一参数与第二参数之间建立起关联关系,当对表情控制器进行控制操作以调整第一参数的值时,骨骼控制器的第二参数的值也相应变化,从而实现通过控制表情控制器来调整第一面部骨骼的骨骼位置的效果。
可选地,在步骤S21中,获取多个基础表情姿态对应的权重数据,可以包括以下执行步骤:
步骤S211,获取控制操作执行完毕后表情控制器的控制器参数;
步骤S212,根据控制器参数确定权重数据。
在应用场景中,对表情控制器执行的控制操作可以是一系列操作,例如,控制操作可以包括:对表情控制器中多个控件先后执行的多个操作以及用于确定控制操作执行完毕的完成操作。上述控制操作执行的过程中,可能存在对控制器参数的值的多次调节,当确定控制操作执行完成后,根据表情控制器中多个控件的当前状态,确定控制器参数的最终取值,进一步地,根据控制器参数的最终取值确定上述权重数据。
可选地,表情控制器包括多个基础表情姿态对应的多个子控制器;在步骤S21中,响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据,可以包括以下执行步骤:
步骤S213,响应对多个子控制器中的至少之一执行的控制操作,获取多个子控制器对应的多个子控制器参数;
步骤S214,根据多个子控制器参数确定权重数据,权重数据包括多个子控制器对应的多个表情权重,多个表情权重为根据多个基础表情姿态对第一面部骨骼进行位置调整时的调整权重。
可选地,多个自控制器中每个子控制器均为虚拟滑块调节器,自控制器的控制器参数包括虚拟滑块调节器的滑块位置和滑条长度。
在一种应用场景中,根据上述执行步骤,提供如图4所示的表情控制器的操作面板。如图4所示,表情控制器包括多个基础表情姿态(本例中也对应多种情绪)对应的多个子控制器。例如,在游戏开发场景中,开发人员对表情控制器中至少一个子控制器对应的滑块执行滑动操作,此时,确定控制操作执行完毕后每个子控制器对应的滑块位置(可以是滑块在滑条上的相对位置),进一步地,根据每个子控制器对应的滑块位置和滑条长度,确定该子控制器对应的表情姿态权重。比如,每个子控制器的滑条长度为10,某次控制操作执行完毕后,“微笑”对应的滑条上滑块位置为5,此时确定“微笑”对应的表情姿态权重为0.5;“惊讶”对应的滑条上滑块位置为10,此时确定“惊讶”对应的表情姿态权重为1。
由此,通过本申请提出的表情控制器,在应用场景中玩家或开发人员可以灵活地指定每一个基础表情姿态在目标表情动画中的贡献度,也即,灵活地控制拟生成的目标表情动画中每一个基础表情姿态的贡献度。
可选地,多个子控制器中每个子控制器包括多个区域控制器;对于多个子控制器中任一目标子控制器:目标子控制器对应的目标表情权重包括多个区域权重,多个区域权重为根据目标基础表情姿态对多个区域内的部分第一面部骨骼进行位置调整时的调整权重,目标基础表情姿态为多个基础表情姿态中目标子控制器对应的基础表情姿态,多个区域为第一虚拟模型的多个面部子区域。
可选地,区域控制器为虚拟滑块调节器,区域控制器的控制器参数包括虚拟滑块调节器的滑块位置和滑条长度。
为了生成更加丰富的表情动画,还提供如图5所示的一种表情控制器的操作面板。如图5所示,表情控制器内多个子控制器中的每个子控制器均可以包括两个区域控制器,本例中,两个区域控制器分别用于控制虚拟人物角色的面部上半区域和下半区域内的骨骼位置。比如,“微笑”对应的子控制器中,第一区域控制器(图5中“微笑”对应的两个区域控制器中靠上的一个)用于控制在对上半区域的面部骨骼进行位置调整时“微笑”对应的基础表情姿态的调整权重,第二区域控制器(图5中“微笑”对应的两个区域控制器中靠下的一个)用于控制在对下半区域的面部骨骼进行位置调整时“微笑”对应的基础表情姿态的调整权重。
在应用场景中,如图4或图5所示的虚拟控制器的操作面板可以采用3ds Max软件提供的Maxscript语言编写脚本开发得到。开发上述操作面板的脚本其主要逻辑包括:声明矩形框,定义矩形框的尺寸数据(如长度、宽度等);将矩形框放在表情控制器之下一起移动;根据预先定义的情绪名称设置控件名称;设置控件的坐标位置;设置控件相对表情控制器的缩放;设置空间线框颜色和圆滑度。
由此,在应用场景中,玩家或开发人员可以通过表情控制器对面部不同区域的骨骼进行灵活控制,在不同区域可以灵活组合不同的表情姿态权重。
可选地,多组基础表情数据为第二虚拟模型在多个基础表情姿态下第二面部骨骼的骨骼数据或骨骼控制器数据;在步骤S22中,根据多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据,可以包括以下执行步骤:
步骤S221,根据权重数据,对多组基础表情数据进行加权计算,得到计算结果;
步骤S222,按照计算结果对第一面部骨骼进行位置调整,得到目标表情数据。
上述第二虚拟模型可以是创建基础表情姿态时的基础模型。创建基础表情姿态时,可以直接基于第二面部骨骼的骨骼数据进行,也可以基于第二面部骨骼绑定的骨骼控制器数据进行。
在应用场景中,通过Float_Script控制脚本,能够实现将一个物体的运动交由另一个控制或者交由多个物体同时控制。具体地,对A物体添加Float_Script控制脚本后,在该Float_Script控制脚本内编写控制文本,并将B物体和C物体都添加到该控制文本内,比如,编写的控制文本为“2×B+3×C”,此时,如果B物体移动1cm,则会驱动A物体移动2cm;如果C物体移动1cm,则会驱动A物体移动3cm;如果B物体和C物体同时移动1cm,则会驱动A物体移动5cm。该控制文本中,2表示在驱动A物体移动时B物体对应的权重,3表示在驱动A物体移动时C物体对应的权重。基于此,通过Float_Script控制脚本,基于表情控制器确定的权重数据和对应的多组基础表情数据进行加权混合计算,得到计算结果,该计算结果可以作为对第一面部骨骼的位置调整依据。
可选地,在步骤S221中,根据权重数据,对多组基础表情数据进行加权计算,得到计算结果,可以包括以下执行步骤:
步骤S2211,基于多组基础表情数据,确定多个基础表情姿态对应的多组骨骼偏转数据,其中,多组骨骼偏转数据用于表征第二虚拟模型从模型初始姿态变换至多个基础表情姿态的过程中第二面部骨骼的偏转量;
步骤S2212,根据权重数据,对多组骨骼偏转数据进行加权计算,得到计算结果。
在应用场景中,通常需要为多种虚拟模型制作表情动画,这些虚拟模型的骨骼之间存在较大差异,比如尺寸和形状差距较大。对此,在本申请中进行动画制作时基于多个基础表情姿态对应的骨骼相对偏转量进行计算。具体地,上述多组基础表情姿态中多组骨骼偏转数据为:虚拟模型在执行基础表情姿态时骨骼位置相对初始位置发生的偏转量数据,该偏转量数据包括偏移量数据和旋转量数据。
进一步地,在进行加权混合计算时,可以针对偏移量数据和旋转量数据进行分别计算,例如,将多组骨骼偏转数据中每组骨骼偏移数据的偏移量数据与对应的表情姿态权重相乘再相加,得到偏移量计算结果;将多组骨骼偏转数据中每组骨骼旋转数据的旋转量数据与对应的表情姿态权重相乘再相加,得到旋转量计算结果。然后,根据偏移量计算结果对第一面部骨骼进行偏移调整,得到偏移调整结果;根据旋转量计算结果对偏移调整结果进行旋转调整,得到目标表情数据。
进一步地,得到了第一面部骨骼的目标表情数据后,采用动画生成工具根据该目标表情数据生成对应的表情动画。
以下以游戏开发场景下一种具体的实施方式为例,对本申请的上述方案进行详细说明。如图5所示,在表情控制器中,仅将“得意”情绪对应的两个区域控制器内的滑块调整至最大位置,此时,虚拟角色面部表情如图6所示,也即,虚拟角色面部表情动画仅包含“得意”情绪对应的基础表情姿态。
在需要对虚拟角色面部表情进行情绪混合生成动画时,将表情控制器调整至如图7所示的状态,将“得意”情绪对应的第二区域控制器内的滑块调整至最大位置,同时将“愤怒”情绪对应的第一区域控制器内的滑块调整至最大位置,此时,虚拟角色面部表情如图8所示,也即,虚拟角色面部表情动画中,虚拟角色面部的上半区域表现为“愤怒”情绪对应的基础表情姿态,虚拟角色面部的下半区域表现为“得意”情绪对应的基础表情姿态,也即,实现了两种不同情绪对应的表情姿态在虚拟角色面部的不同区域混合搭配的效果。
在另一种场景中,对多种情绪对应的基础表情姿态进行混合表现,将表情控制器调整至如图9所示的状态,将“得意”情绪对应的第一区域控制器内的滑块调整至最大位置,将“愤怒”情绪对应的第二区域控制器内的滑块调整至最大位置,将“难过”情绪对应的第一区域控制器内的滑块调整至最大位置,将“惊讶”情绪对应的第二区域控制器内的滑块调整至最大位置,此时,虚拟角色面部表情如图10所示,虚拟角色面部表情动画中,虚拟角色面部的上半区域表现为“得意”情绪对应的基础表情姿态(权重为1)和“难过”情绪对应的基础表情姿态(权重为1)的混合姿态,混合姿态中上半区域内面部骨骼的偏转量由“得意”情绪对应的基础表情姿态的骨骼偏转量与“难过”情绪对应的基础表情姿态的骨骼偏转量进行加权平均计算得到。虚拟角色面部表情动画中,虚拟角色面部的下半区域表现为“愤怒”情绪对应的基础表情姿态(权重为1)和“惊讶”情绪对应的基础表情姿态(权重为1)的混合姿态,混合姿态中下半区域内面部骨骼的偏转量由“愤怒”情绪对应的基础表情姿态的骨骼偏转量与“惊讶”情绪对应的基础表情姿态的骨骼偏转量进行加权平均计算得到。
此外,本申请中提供的表情控制器还可以与第一面部骨骼绑定的AnimCraft控制器叠加使用来控制第一面部骨骼的骨骼位置,比如,与如图5所示的表情控制器配置状态向叠加,玩家或开发人员通过AnimCraft控制器对第一面部骨骼进行移动控制后,第一虚拟模型的面部表情如图11所示,可见,在叠加控制时,即时是表情控制器的配置状态完全相同,也可能生成完全不同的表情姿态(如图6和图11)。由此,本申请能够支持玩家或开发人员更加灵活地制作表情动画。
在应用场景中,上述表情控制器还能够实现对纯骨骼控制的虚拟角色(未绑定骨骼控制器)进行面部骨骼控制。如图12所示,表情控制器绑定的虚拟角色未绑定骨骼控制器时,表情控制器通过控制脚本为虚拟角色自动生成控制器层级(如图12所示的多个方框)以实现对虚拟角色面部骨骼的位置调节。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
在本实施例中还提供了一种生成表情动画的装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图13是根据本申请其中一实施例的一种生成表情动画的装置的结构框图,如图13所示,该装置包括:
获取模块1301,用于响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;
调整模块1302,用于利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;
生成模块1303,用于基于目标表情数据,生成第一虚拟模型对应的目标表情动画。
可选地,上述生成表情动画的装置除包括上述所有模块外,还包括:绑定模块1304(图中未示出),用于对表情控制器与第一面部骨骼的骨骼控制器进行参数绑定。
可选地,上述获取模块1301,还用于:获取控制操作执行完毕后表情控制器的控制器参数;根据控制器参数确定权重数据。
可选地,表情控制器包括多个基础表情姿态对应的多个子控制器;上述获取模块1301,还用于:响应对多个子控制器中的至少之一执行的控制操作,获取多个子控制器对应的多个子控制器参数;根据多个子控制器参数确定权重数据,权重数据包括多个子控制器对应的多个表情权重,多个表情权重为根据多个基础表情姿态对第一面部骨骼进行位置调整时的调整权重。
可选地,上述生成表情动画的装置中,多个子控制器中每个子控制器包括多个区域控制器;对于多个子控制器中任一目标子控制器:目标子控制器对应的目标表情权重包括多个区域权重,多个区域权重为根据目标基础表情姿态对多个区域内的部分第一面部骨骼进行位置调整时的调整权重,目标基础表情姿态为多个基础表情姿态中目标子控制器对应的基础表情姿态,多个区域为第一虚拟模型的多个面部子区域。
可选地,上述生成表情动画的装置中,区域控制器为虚拟滑块调节器,区域控制器的控制器参数包括虚拟滑块调节器的滑块位置和滑条长度。
可选地,多组基础表情数据为第二虚拟模型在多个基础表情姿态下第二面部骨骼的骨骼数据或骨骼控制器数据;上述调整模块1302,还用于:根据权重数据,对多组基础表情数据进行加权计算,得到计算结果;按照计算结果对第一面部骨骼进行位置调整,得到目标表情数据。
可选地,上述调整模块1302,还用于:基于多组基础表情数据,确定多个基础表情姿态对应的多组骨骼偏转数据,其中,多组骨骼偏转数据用于表征第二虚拟模型从模型初始姿态变换至多个基础表情姿态的过程中第二面部骨骼的偏转量;根据权重数据,对多组骨骼偏转数据进行加权计算,得到计算结果。
可选地,上述生成表情动画的装置中,多个基础表情姿态为多种情绪对应的预设表情姿态。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;
S2,利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;
S3,基于目标表情数据,生成第一虚拟模型对应的目标表情动画。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:对表情控制器与第一面部骨骼的骨骼控制器进行参数绑定。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取控制操作执行完毕后表情控制器的控制器参数;根据控制器参数确定权重数据。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:表情控制器包括多个基础表情姿态对应的多个子控制器;响应对多个子控制器中的至少之一执行的控制操作,获取多个子控制器对应的多个子控制器参数;根据多个子控制器参数确定权重数据,权重数据包括多个子控制器对应的多个表情权重,多个表情权重为根据多个基础表情姿态对第一面部骨骼进行位置调整时的调整权重。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:多个子控制器中每个子控制器包括多个区域控制器;对于多个子控制器中任一目标子控制器:目标子控制器对应的目标表情权重包括多个区域权重,多个区域权重为根据目标基础表情姿态对多个区域内的部分第一面部骨骼进行位置调整时的调整权重,目标基础表情姿态为多个基础表情姿态中目标子控制器对应的基础表情姿态,多个区域为第一虚拟模型的多个面部子区域。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:区域控制器为虚拟滑块调节器,区域控制器的控制器参数包括虚拟滑块调节器的滑块位置和滑条长度。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:多组基础表情数据为第二虚拟模型在多个基础表情姿态下第二面部骨骼的骨骼数据或骨骼控制器数据;根据权重数据,对多组基础表情数据进行加权计算,得到计算结果;按照计算结果对第一面部骨骼进行位置调整,得到目标表情数据。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于多组基础表情数据,确定多个基础表情姿态对应的多组骨骼偏转数据,其中,多组骨骼偏转数据用于表征第二虚拟模型从模型初始姿态变换至多个基础表情姿态的过程中第二面部骨骼的偏转量;根据权重数据,对多组骨骼偏转数据进行加权计算,得到计算结果。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:多个基础表情姿态为多种情绪对应的预设表情姿态。
在上述实施例的计算机可读存储介质中,提供了一种实现生成表情动画的方法的技术方案。响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画。由此,本申请提出表情控制器来支持玩家或游戏开发者通过多个基础表情姿态的权重生成表情动画,基于不同权重组合能够生成丰富的表情动画,达到了通过简单的交互控制操作便捷地生成表情动画的目的,从而实现了降低表情动画制作难度、节约制作成本并提升制作效率的技术效果,进而解决了现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
在本申请的示例性实施例中,计算机可读存储介质上存储有能够实现本实施例上述方法的程序产品。在一些可能的实施方式中,本申请实施例的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本实施例上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的步骤。
根据本申请的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本申请实施例的程序产品不限于此,在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述程序产品可以采用一个或多个计算机可读介质的任意组合。该计算机可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列举)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
需要说明的是,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
本申请的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;
S2,利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;
S3,基于目标表情数据,生成第一虚拟模型对应的目标表情动画。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:对表情控制器与第一面部骨骼的骨骼控制器进行参数绑定。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:获取控制操作执行完毕后表情控制器的控制器参数;根据控制器参数确定权重数据。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:表情控制器包括多个基础表情姿态对应的多个子控制器;响应对多个子控制器中的至少之一执行的控制操作,获取多个子控制器对应的多个子控制器参数;根据多个子控制器参数确定权重数据,权重数据包括多个子控制器对应的多个表情权重,多个表情权重为根据多个基础表情姿态对第一面部骨骼进行位置调整时的调整权重。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:多个子控制器中每个子控制器包括多个区域控制器;对于多个子控制器中任一目标子控制器:目标子控制器对应的目标表情权重包括多个区域权重,多个区域权重为根据目标基础表情姿态对多个区域内的部分第一面部骨骼进行位置调整时的调整权重,目标基础表情姿态为多个基础表情姿态中目标子控制器对应的基础表情姿态,多个区域为第一虚拟模型的多个面部子区域。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:区域控制器为虚拟滑块调节器,区域控制器的控制器参数包括虚拟滑块调节器的滑块位置和滑条长度。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:多组基础表情数据为第二虚拟模型在多个基础表情姿态下第二面部骨骼的骨骼数据或骨骼控制器数据;根据权重数据,对多组基础表情数据进行加权计算,得到计算结果;按照计算结果对第一面部骨骼进行位置调整,得到目标表情数据。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:基于多组基础表情数据,确定多个基础表情姿态对应的多组骨骼偏转数据,其中,多组骨骼偏转数据用于表征第二虚拟模型从模型初始姿态变换至多个基础表情姿态的过程中第二面部骨骼的偏转量;根据权重数据,对多组骨骼偏转数据进行加权计算,得到计算结果。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:多个基础表情姿态为多种情绪对应的预设表情姿态。
在上述实施例的电子装置中,提供了一种实现生成表情动画的方法的技术方案。响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;利用多个基础表情姿态对应的多组基础表情数据和权重数据,对第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;基于目标表情数据,生成第一虚拟模型对应的目标表情动画。由此,本申请提出表情控制器来支持玩家或游戏开发者通过多个基础表情姿态的权重生成表情动画,基于不同权重组合能够生成丰富的表情动画,达到了通过简单的交互控制操作便捷地生成表情动画的目的,从而实现了降低表情动画制作难度、节约制作成本并提升制作效率的技术效果,进而解决了现有的表情制作方案其操作难度大、人力成本高、动画制作效率低的技术问题。
图14是根据本申请其中一实施例的一种电子装置的示意图。如图14所示,电子装置1400仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图14所示,电子装置1400以通用计算设备的形式表现。电子装置1400的组件可以包括但不限于:上述至少一个处理器1410、上述至少一个存储器1420、连接不同系统组件(包括存储器1420和处理器1410)的总线1430和显示器1440。
其中,上述存储器1420存储有程序代码,所述程序代码可以被处理器1410执行,使得处理器1410执行本申请实施例的上述方法部分中描述的根据本申请各种示例性实施方式的步骤。
存储器1420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)14201和/或高速缓存存储单元14202,还可以进一步包括只读存储单元(ROM)14203,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。
在一些实例中,存储器1420还可以包括具有一组(至少一个)程序模块14205的程序/实用工具14204,这样的程序模块14205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。存储器1420可进一步包括相对于处理器1410远程设置的存储器,这些远程存储器可以通过网络连接至电子装置1400。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
总线1430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理器1410或者使用多种总线结构中的任意总线结构的局域总线。
显示器1440可以例如触摸屏式的液晶显示器(Liquid Crystal Display,LCD),该液晶显示器可使得用户能够与电子装置1400的用户界面进行交互。
可选地,电子装置1400也可以与一个或多个外部设备1500(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子装置1400交互的设备通信,和/或与使得该电子装置1400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1450进行。并且,电子装置1400还可以通过网络适配器1460与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图14所示,网络适配器1460通过总线1430与电子装置1400的其它模块通信。应当明白,尽管图14中未示出,可以结合电子装置1400使用其它硬件和/或软件模块,可以包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays ofIndependent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
上述电子装置1400还可以包括:键盘、光标控制设备(如鼠标)、输入/输出接口(I/O接口)、网络接口、电源和/或相机。
本领域普通技术人员可以理解,图14所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子装置1400还可包括比图14中所示更多或者更少的组件,或者具有与图14所示不同的配置。存储器1420可用于存储计算机程序及对应的数据,如本申请实施例中的生成表情动画的方法对应的计算机程序及对应的数据。处理器1410通过运行存储在存储器1420内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的生成表情动画的方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM)、随机存取存储器(RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (12)
1.一种生成表情动画的方法,其特征在于,包括:
响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;
利用所述多个基础表情姿态对应的多组基础表情数据和所述权重数据,对所述第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;
基于所述目标表情数据,生成所述第一虚拟模型对应的目标表情动画。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述表情控制器与所述第一面部骨骼的骨骼控制器进行参数绑定。
3.根据权利要求1所述的方法,其特征在于,获取所述多个基础表情姿态对应的所述权重数据包括:
获取所述控制操作执行完毕后所述表情控制器的控制器参数;
根据所述控制器参数确定所述权重数据。
4.根据权利要求1所述的方法,其特征在于,所述表情控制器包括所述多个基础表情姿态对应的多个子控制器;响应对所述第一虚拟模型对应的所述表情控制器执行的所述控制操作,获取所述多个基础表情姿态对应的所述权重数据包括:
响应对所述多个子控制器中的至少之一执行的所述控制操作,获取所述多个子控制器对应的多个子控制器参数;
根据所述多个子控制器参数确定所述权重数据,所述权重数据包括所述多个子控制器对应的多个表情权重,所述多个表情权重为根据所述多个基础表情姿态对所述第一面部骨骼进行位置调整时的调整权重。
5.根据权利要求4所述的方法,其特征在于,所述多个子控制器中每个子控制器包括多个区域控制器;
对于所述多个子控制器中任一目标子控制器:
所述目标子控制器对应的目标表情权重包括多个区域权重,所述多个区域权重为根据目标基础表情姿态对多个区域内的部分所述第一面部骨骼进行位置调整时的调整权重,所述目标基础表情姿态为所述多个基础表情姿态中所述目标子控制器对应的基础表情姿态,所述多个区域为所述第一虚拟模型的多个面部子区域。
6.根据权利要求5所述的方法,其特征在于,所述区域控制器为虚拟滑块调节器,所述区域控制器的控制器参数包括所述虚拟滑块调节器的滑块位置和滑条长度。
7.根据权利要求1所述的方法,其特征在于,所述多组基础表情数据为第二虚拟模型在所述多个基础表情姿态下第二面部骨骼的骨骼数据或骨骼控制器数据;根据所述多个基础表情姿态对应的所述多组基础表情数据和所述权重数据,对所述第一虚拟模型的所述第一面部骨骼进行位置调整,得到所述目标表情数据包括:
根据所述权重数据,对所述多组基础表情数据进行加权计算,得到计算结果;
按照所述计算结果对所述第一面部骨骼进行位置调整,得到所述目标表情数据。
8.根据权利要求7所述的方法,其特征在于,根据所述权重数据,对所述多组基础表情数据进行加权计算,得到所述计算结果包括:
基于所述多组基础表情数据,确定所述多个基础表情姿态对应的多组骨骼偏转数据,其中,所述多组骨骼偏转数据用于表征所述第二虚拟模型从模型初始姿态变换至所述多个基础表情姿态的过程中所述第二面部骨骼的偏转量;
根据所述权重数据,对所述多组骨骼偏转数据进行加权计算,得到所述计算结果。
9.根据权利要求1所述的方法,其特征在于,所述多个基础表情姿态为多种情绪对应的预设表情姿态。
10.一种生成表情动画的装置,其特征在于,包括:
获取模块,用于响应对第一虚拟模型对应的表情控制器执行的控制操作,获取多个基础表情姿态对应的权重数据;
调整模块,用于利用所述多个基础表情姿态对应的多组基础表情数据和所述权重数据,对所述第一虚拟模型的第一面部骨骼进行位置调整,得到目标表情数据;
生成模块,用于基于所述目标表情数据,生成所述第一虚拟模型对应的目标表情动画。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为被处理器运行时执行权利要求1至9任一项中所述的生成表情动画的方法。
12.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至9任一项中所述的生成表情动画的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410311155.0A CN118015160A (zh) | 2024-03-15 | 2024-03-15 | 生成表情动画的方法、装置、存储介质及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410311155.0A CN118015160A (zh) | 2024-03-15 | 2024-03-15 | 生成表情动画的方法、装置、存储介质及电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118015160A true CN118015160A (zh) | 2024-05-10 |
Family
ID=90958615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410311155.0A Pending CN118015160A (zh) | 2024-03-15 | 2024-03-15 | 生成表情动画的方法、装置、存储介质及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118015160A (zh) |
-
2024
- 2024-03-15 CN CN202410311155.0A patent/CN118015160A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Perlin et al. | Improv: A system for scripting interactive actors in virtual worlds | |
US6285380B1 (en) | Method and system for scripting interactive animated actors | |
CN110689604B (zh) | 个性化脸部模型显示方法、装置、设备及存储介质 | |
CN111028317B (zh) | 虚拟对象的动画生成方法、装置、设备及存储介质 | |
CN113826147A (zh) | 动画角色的改进 | |
CN117203675A (zh) | 用于捕获面部表情并生成网格数据的人工智能 | |
WO1998006043A1 (en) | A method and system for scripting interactive animated actors | |
CN114026524B (zh) | 用于动画化人脸的方法、系统、以及计算机可读介质 | |
Fu et al. | Real-time multimodal human–avatar interaction | |
CN118015160A (zh) | 生成表情动画的方法、装置、存储介质及电子装置 | |
CN114419211A (zh) | 控制虚拟角色骨骼的方法、装置、存储介质及电子装置 | |
US20220172431A1 (en) | Simulated face generation for rendering 3-d models of people that do not exist | |
CN115526967A (zh) | 虚拟模型的动画生成方法、装置、计算机设备及存储介质 | |
Terzopoulos et al. | Facial animation (panel) past, present and future | |
JP3558288B1 (ja) | ゲーム環境内にオブジェクトをタグ付けすることによって動画制御を行うシステムおよび方法 | |
CN118079399A (zh) | 生成动画的方法、装置、存储介质及电子装置 | |
US20220319088A1 (en) | Facial capture artificial intelligence for training models | |
CN117339212A (zh) | 控制虚拟游戏角色交互的方法、存储介质及电子装置 | |
Lan | Simulation of Animation Character High Precision Design Model Based on 3D Image | |
JP2022159519A (ja) | コンポーネントを操作する方法、電子機器、記憶媒体及びプログラム | |
CN118247404A (zh) | 模型渲染方法、装置、存储介质及电子装置 | |
Badler et al. | Digital humans: what roles will they play? | |
CN117934670A (zh) | 制作动画的方法、装置、存储介质及电子装置 | |
CN117315104A (zh) | 动画生成方法、装置、存储介质及电子装置 | |
CN117710576A (zh) | 虚拟营业厅的处理方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |