WO2022033206A1 - 动画对象的表情生成方法和装置、存储介质及电子设备 - Google Patents
动画对象的表情生成方法和装置、存储介质及电子设备 Download PDFInfo
- Publication number
- WO2022033206A1 WO2022033206A1 PCT/CN2021/102775 CN2021102775W WO2022033206A1 WO 2022033206 A1 WO2022033206 A1 WO 2022033206A1 CN 2021102775 W CN2021102775 W CN 2021102775W WO 2022033206 A1 WO2022033206 A1 WO 2022033206A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- facial expression
- animation
- expression
- target
- display parameters
- Prior art date
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 137
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000008921 facial expression Effects 0.000 claims abstract description 375
- 230000004044 response Effects 0.000 claims abstract description 29
- 230000003993 interaction Effects 0.000 claims abstract description 7
- 210000001508 eye Anatomy 0.000 claims description 66
- 210000004709 eyebrow Anatomy 0.000 claims description 58
- 230000002452 interceptive effect Effects 0.000 claims description 33
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims 1
- 230000001815 facial effect Effects 0.000 abstract description 5
- 238000004519 manufacturing process Methods 0.000 description 22
- 230000000694 effects Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 239000000203 mixture Substances 0.000 description 13
- 210000005252 bulbus oculi Anatomy 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 206010041243 Social avoidant behaviour Diseases 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001680 brushing effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Abstract
一种动画对象的表情生成方法和装置、存储介质及电子设备。该方法包括:在第一动画应用中对目标动画对象进行面部绑定(S302);在第一动画应用中获取目标动画对象的第一面部表情,其中,第一面部表情为面部表情集合中的面部表情,面部表情集合包括在第二动画应用中生成的目标动画对象的不同面部表情(S304);响应于在第一动画应用中获取到的第一交互操作,在第一动画应用中对第一面部表情的显示参数进行调整,得到第二面部表情,其中,第二面部表情为目标动画对象在目标动画的一帧图像中的面部表情,目标动画对象用于生成目标动画(S306)。
Description
相关申请的交叉引用
本申请基于申请号为202010820517.0、申请日为2020年08月14日的中国专利申请提出,并要求该中国专利申请的优先权,该中国专利申请的全部内容在此引入本申请作为参考。
本申请涉及计算机领域,涉及但不限于一种动画对象的表情生成方法和装置、存储介质及电子设备。
在一些游戏中,需要对游戏角色制作表情,例如,市面上的所有的战棋类手游中,在角色表情制作的时候,做法通常都是3Ds MAX或者Maya里建立很多的骨骼点并蒙皮,并利用骨骼的缩放,旋转,位移来改变脸的外形。
但是,在制作表情时由于是手动控制,一来在前期设计的时候难以直接对最终效果进行判定以及调整,二来在后期制作的时候难以精准把每个表情调整到位,更不可能在做同一个表情时,把那么多点调整到一模一样的位置,不仅浪费很多时间,效果也不一定好。如图1所示,为利用骨骼的缩放,旋转,位移来改变脸的外形的示意图,图1中在脸上会有很多骨骼点参与蒙皮,每一个点,只控制脸上一小部分的肌肉。在角色表情制作时,存在表情调整效率低、效果差的问题。
发明内容
本申请实施例提供了一种动画对象的表情生成方法和装置、存储介质及电子设备,能够提高角色表情制作的制作效率,并提升角色表情的制作效果。
本申请实施例提供一种动画对象的表情生成方法,应用于电子设备,包括:在第一动画应用中对目标动画对象进行面部绑定;在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;响应于在上 述第一动画应用中获取到的第一交互操作,对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
本申请实施例提供一种动画对象的表情生成装置,包括:第一处理单元,配置为在第一动画应用中对目标动画对象进行面部绑定;第一获取单元,配置为在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;第二处理单元,配置为响应于在上述第一动画应用中获取到的第一交互操作,对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
本申请实施例提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述动画对象的表情生成方法。
本申请实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器被设置为通过上述计算机程序执行上述动画对象的表情生成方法。
通过本申请实施例,在制作目标动画对象的面部表情时,首先,在第一动画应用中对目标动画对象进行面部绑定,然后,在第一动画应用中获取该目标动画对象的第一面部表情,其中,该第一面部表情是面部表情集合中的面部表情,并且该一组表情包括在第二动画应用中生成的上述目标动画对象的不同面部表情;最后,当在第一动画应用中获取到第一交互操作时,响应第一交互操作,在第一动画应用中对第一面部表情的显示参数进行调整,来得到第二面部表情,在第一动画应用中待生成的目标动画中的一帧图像中,该第二面部表情可以作为目标动画对象的面部表情。采用上述技术方案,可以获取在第二动画应用中制作好目标动画对象的面部表情集合,然后在第一动画应用中对目标动画对象的第一面部表情的显示参数进行调整,得到第二面部表情,使得第二面部表情可以用于待生成的目标动画中的一帧图像中的上述目标动画对象的面部表情,这种通过调整第一面部表情的显示参数来得到第二面部表情的方式,提高了面部表情制作的效率,并且,第二面部表情是基于第一面部表情的细微调整而生成的,可以使第二面部表 情与第一面部表情之间的差别较小,使得待生成的目标动画的一帧图像中目标动画对象的面部表情变化更加流畅,提高了动画的流畅度,并且能够提升显示效果。
图1是相关技术中制作游戏角色表情的骨骼点的示意图;
图2是本申请实施例提供的一种动画对象的表情生成方法的应用环境的示意图;
图3是本申请实施例提供的一种动画对象的表情生成方法的流程示意图;
图4是本申请实施例提供的一种面部表情集合的示意图;
图5是本申请实施例提供的第一面部表情和第二面部表情的示意图(一);
图6是本申请实施例提供的第一面部表情和第二面部表情的示意图(二);
图7是本申请实施例提供的第一面部表情和第二面部表情的示意图(三);
图8是本申请实施例提供的面部表情集合和面部表情集合的参考图的示意图;
图9是本申请实施例提供的一种绑定目标动画对象的面部的示意图;
图10是本申请实施例提供的一种标准面部表情的示意图;
图11是本申请实施例提供的另一种动画对象的表情生成方法的流程示意图;
图12是本申请实施例提供的一种第二面部表情的示意图;
图13是本申请实施例提供的一种目标动画对象需要绑定的骨骼的示意图;
图14是本申请实施例提供的一种动画对象的表情生成装置的结构示意图;
图15是本申请实施例提供的一种电子设备的结构示意图。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形, 意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例中涉及到的技术术语包括:
1、战棋游戏:战棋游戏是回合制的、角色扮演的、在地图上按格移动人物进行作战的游戏。因为这种游戏就像是在下棋一样,故称为回合制战棋游戏,正式名称应该是战略角色扮演(战略RPG、SRPG、S·RPG)。一般支持PC\Mac\Ubuntu多端同步体验。战棋游戏侧重于策略,节奏较缓,耗时较长,但游戏大多制作精美,画面绚丽,人物、技能较多,对玩家反应力要求不高。
2、3Ds MAX:3D Studio Max,常简称为3D Max或3Ds MAX,是Discreet公司开发的(后被Autodesk公司合并)基于PC系统的三维动画渲染和制作软件。其前身是基于DOS操作系统的3D Studio系列软件。应用于三维建模渲染和动画制作。
3、Maya(或译作玛雅),是相当高阶而且复杂的三维计算机图形软件,被广泛用于电影、电视、广告、电脑游戏和电视游戏等的数码特效创作。Maya功能完善,工作灵活,易学易用,制作效率极高,渲染真实感极强,是电影级别的高端制作软件。它不仅包括一般三维和视觉效果制作的功能,而且还与先进的建模、数字化布料模拟、毛发渲染、运动匹配技术相结合。
4、Blend Shape:是制作面部表情动画的工具软件,它能通过使用一系列的目标形状物体(Target)使基础物体得到非常平顺、高精度的变形效果。它在角色动画的时候非常受用,尤其是在表情的制作,基本上都是用它来完成。在角色运动的过程中,也可以使用Blend Shape来控制运动时关节处肌肉的形变,比起单纯的刷权重加晶格变形控制来方便得多。
本申请实施例提供的动画对象的表情生成方法可以但不限于应用于如图2所示的应用环境中。如图2所示,在终端设备102的第一动画应用中对目标动画对象进行面部绑定;在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情;在终端设备102的上述第一动画应用中获取第一交互操作,服务器104响应于在上述第一动画应用中获取到的第一交互操作,对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。其中,服务器106用于存储上述面部表情集合,上述面部表情集合包括在第二 动画应用中生成的上述目标动画对象的不同面部表情。可理解,以上仅为一种示例,本申请实施例在此不作限定。
本申请实施例中的方法可以应用于游戏产品中,如移动端(如手机端)的游戏产品中,包含但不限于所有手持便携式游戏设备的游戏产品中。
在本申请实施例中,上述终端设备可以是配置有目标客户端的终端设备,可以包括但不限于以下至少之一:手机(如Android手机、iOS手机等)、笔记本电脑、平板电脑、掌上电脑、MID(Mobile Internet Devices,移动互联网设备)、PAD、台式电脑、智能电视等。目标客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等。上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述只是一种示例,本申请实施例对此不做任何限定。
本申请实施例提供的动画对象的表情生成方法可以由服务器执行,也可以由终端设备执行,或者由服务器和终端设备共同执行,本申请实施例中,以由终端设备(例如,上述终端设备102)执行为例进行说明。如图3所示,上述动画对象的表情生成方法的流程可以包括步骤:
步骤S302,在第一动画应用中对目标动画对象进行面部绑定。
步骤S304,在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情。
步骤S306,响应于在上述第一动画应用中获取到的第一交互操作,对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
在一些实施例中,上述第一动画应用可以为三维动画渲染和制作软件3Ds Max。上述第二动画应用可以为三维计算机图形软件Maya。
上述目标动画对象可以理解为一种虚拟的游戏角色。如图4所示,上述第一面部表情可以为常规的喜悦,愤怒,哀伤,快乐,惊讶等,如果目标动画对象在游戏产品中是比较重要的角色,还会加上带有该目标动画对象的角色特征的其他小表情,例如害羞,兴奋,贪食等等。可理解,本申请实施例中对该第一面部表情不作任何限定。
在制作目标动画对象的面部表情时,需要先在第一动画应用中对目标动画对象进行绑定。
然后,在第一动画应用3Ds Max中获取目标动画对象的第一面部表情,其中,第一面部表情是面部表情集合中的其中一个面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;最后,当在第一动画应用中获取到第一交互操作时,响应该第一交互操作,在第一动画应用中对第一面部表情的显示参数进行调整,从而得到第二面部表情,当制作待生成的目标动画时,可以将该第二面部表情作为待生成的目标动画的一帧图像中的目标动画对象的面部表情。
举例来说,如图5所示,可以在第一动画应用中对第一面部表情(愤怒)501进行调整,得到第二面部表情(愤怒)502,可以看出,第二面部表情502和第一面部表情501相比,第二面部表情502中的嘴巴比第一面部表情501的嘴巴开口大小要小一些,第二面部表情502和第一面部表情501的下眼睑的弧度也会有细微的不同,第二面部表情502的下眼睑的弧度更加柔和一些。
如图6所示,可以在第一动画应用中对第一面部表情(喜悦)601进行调整,得到第二面部表情(喜悦)602,可以看出,第二面部表情602和第一面部表情601相比,第二面部表情602中的嘴巴比第一面部表情601的嘴巴开口大小要小一些,第二面部表情602和第一面部表情601的眼球的位置和眼白的大小也会有细微的不同,第二面部表情602的眼白部分更大一些。
如图7所示,可以在第一动画应用中对第一面部表情(悲伤)701进行调整,得到第二面部表情(悲伤)702,可以看出,第二面部表情702和第一面部表情701相比,第二面部表情702中的嘴巴比第一面部表情701的嘴巴向下弯曲的弧度更加大一些。
需要说明的是,图5中第一面部表情501和第二面部表情502均表示目标动画对象的愤怒状态,图6中第一面部表情601和第二面部表情602均表示目标动画对象的喜悦状态,图7中第一面部表情701和第二面部表情702均表示目标动画对象的悲伤状态,只是第一面部表情和第二面部表情在眉毛、眼睛、嘴巴的细节上有细微的差别,如嘴巴开口的大小、弯曲的弧度等,眉毛的弯曲度、长短等,眼睛的眼球的位置,眼白的大小等。
举例来说,可以在第一动画应用中对第一面部表情进行调整,得到相应地第二面部表情,当制作待生成的目标动画时,可以将该第二面部表情作为待生成的目标动画的一帧图像中的目标动画对象的面部表情。如图8所示,图8左边部分可以为第一面部表情 801,图8右边部分可以为第二面部表情802在目标动画的一帧图像中的目标动画对象的面部表情。
可理解,以上仅为一种示例,本申请实施例在此不作任何限定。
通过本申请实施例,制作目标动画对象的面部表情的过程中,首先,在第一动画应用中对目标动画对象进行面部绑定,然后,在第一动画应用中获取该目标动画对象的第一面部表情,其中,该第一面部表情是面部表情集合中的面部表情,并且该一组表情包括在第二动画应用中生成的上述目标动画对象的不同面部表情;最后,当在第一动画应用中获取到第一交互操作时,响应第一交互操作,中对第一面部表情的显示参数进行调整,来得到第二面部表情,在第一动画应用中待生成的目标动画中的一帧图像中,该第二面部表情可以作为目标动画对象的面部表情。采用上数据技术方案,可以获取在第二动画应用中制作好目标动画对象的面部表情集合,然后在第一动画应用中对目标动画对象的第一面部表情的显示参数进行调整,得到第二面部表情,使得第二面部表情可以用于待生成的目标动画中的一帧图像中的上述目标动画对象的面部表情,这种通过调整第一面部表情的显示参数来得到第二面部表情的方式,提高了面部表情制作的效率,并且,第二面部表情是基于第一面部表情的细微调整而生成的,可以使第二面部表情与第一面部表情之间的差别较小,使得待生成的目标动画的一帧图像中目标动画对象的面部表情变化更加流畅,提高了动画的流畅度,显示效果也更加好。
在本申请实施例中,在上述第一动画应用中获取上述目标动画对象的第一面部表情,包括:在上述第一动画应用中加载上述第一面部表情的第一表情文件,其中,上述第一表情文件为上述第二动画应用导出的表情文件;在上述第一动画应用中显示上述第一表情文件所指示的上述第一面部表情,并在上述第一动画应用中的操作面板上显示上述第一面部表情的显示参数以及上述显示参数的当前取值。
在一些实施例中,在第一动画应用中对目标动画对象的面部绑定好之后,可以按照以下方式在第一动画应用中获取目标动画对象的第一面部表情:
在第二动画应用中导出用于表示第一面部表情的第一表情文件,然后在第一动画应用中加载第一面部表情的第一表情文件。
然后,在第一动画应用中显示第一表情文件所指示的第一面部表情,并在第一动画应用中的操作面板上显示第一面部表情的显示参数以及上述显示参数的当前取值。
如图9所示,可以在第一动画应用中对目标动画对象的面部进行绑定,例如,对目标对象的头部、眼球和眼部高光进行绑定。
可以通过第一动画应用中自带的编辑器Morpher,响应于针对编辑器Morpher中pi ck object按钮的点击或触控操作,确定要增加进去的表情(如第一面部表情)对应的文件(如第一表情文件)。进而可以得到第一表情文件所指示的第一面部表情的显示参数以及上述显示参数的当前取值。例如,可以得到一个如图10所示的表情所有值为0的一个标准normal表情。
可理解,上述仅为一种示例,本申请实施例在此不作任何限定。
通过本申请实施例,可以将从第二动画应用中导出的第一表情文件加载到第一动画应用中,并且在第一动画应用中显示第一面部表情的显示参数,可以直观的看到第一面部表情的当前取值,为后续通过第一动画应用对第一面部表情的调整了基础,极大地提高了便利性。
在本申请实施例中,上述显示参数可以包括嘴巴显示参数、眉毛显示参数和眼睛显示参数的至少之一,对应地在上述第一动画应用中对上述第一面部表情的显示参数进行调整,在实现可以按照以下至少之一实现:在上述第一动画应用中对上述第一面部表情的嘴巴显示参数进行调整,其中,上述嘴巴显示参数用于确定上述目标动画对象的嘴巴的显示位置和显示曲线的至少之一;
在上述第一动画应用中对上述第一面部表情的眉毛显示参数进行调整,其中,上述眉毛显示参数用于确定上述目标动画对象的眉毛的显示位置和显示曲线的至少之一;
上述第一动画应用中对上述第一面部表情的眼睛显示参数进行调整,其中,上述眼睛显示参数用于确定上述目标动画对象的眼睛的显示位置和显示曲线的至少之一。
在一些实施例中,在对第一动画应用中的第一面部表情的显示参数进行调整时,可以选择对第一面部表情的嘴巴部位、眉毛部位和眼睛部位至少之一进行调整。其中,鼻子对面部表情的呈现影响极小,可以选择不对鼻子进行调整。
在一些实施例中,在上述第一动画应用中对上述第一面部表情的嘴巴显示参数进行调整,其中,上述显示参数包括上述嘴巴显示参数,上述嘴巴显示参数用于确定上述目标动画对象的嘴巴的显示位置和显示曲线的至少之一。其中,目标动画对象的嘴巴的显示位置可以理解为嘴巴在整个第一面部表情中的所在位置,目标动画对象的嘴巴的显示曲线可以理解为嘴巴的弯曲程度,向上弯曲还是向下弯曲,嘴巴的开口大小,等等,本申请实施例对此不作任何限定。
在一些实施例中,在上述第一动画应用中对上述第一面部表情的眉毛显示参数进行调整,其中,上述显示参数包括上述眉毛显示参数,上述眉毛显示参数用于确定上述目 标动画对象的眉毛的显示位置和显示曲线的至少之一。其中,目标动画对象的眉毛的显示位置可以理解为眉毛在整个第一面部表情中的所在位置,目标动画对象的眉毛的显示曲线可以理解为眉毛的弯曲程度,向上弯曲还是向下弯曲,眉毛的长度,等等,本申请实施例对此不作任何限定。
在一些实施例中,在上述第一动画应用中对上述第一面部表情的眼睛显示参数进行调整,其中,上述显示参数包括上述眼睛显示参数,上述眼睛显示参数用于确定上述目标动画对象的眼睛的显示位置和显示曲线的至少之一。其中,目标动画对象的眼睛的显示位置可以理解为眼睛在整个第一面部表情中的所在位置,目标动画对象的眼睛的显示曲线可以理解为眼睛的眼球和眼白的布局,等等,本申请实施例对此不作任何限定。
可以对第一面部表情的显示参数进行调整,可以对第一面部表情的以下参数进行调整。例如,可以对第一面部表情的嘴巴显示参数mouth_aoyi_B、mouth_aoyi_D、mouth_F、mouth_C、mouth_A、mouth_A02进行调整。可以对第一面部表情的眉毛显示参数eyebrow_ping、eyebrow_up、eyebrow_think进行调整。可以对第一面部表情的眼睛显示参数eye_aoyi进行调整。
通过本申请实施例,在对第一动画应用中的第一面部表情的显示参数进行调整时,可以选择对第一面部表情的嘴巴部位、眉毛部位和眼睛部位的至少之一进行调整,方便灵活,极大地提高了表情制作的灵活性、便利性。
为了更加清楚的说明如何第一面部表情的显示参数进行调整,以下提供了几种可能的实施例。
第一种:在上述显示参数包括上述嘴巴显示参数的情况下,在上述第一动画应用中对上述第一面部表情的嘴巴显示参数进行调整,包括:在上述第一动画应用中将上述第一面部表情的嘴巴显示参数从第一取值调整至第二取值,其中,按照上述第二取值所显示的上述嘴巴与按照上述第一取值所显示的上述嘴巴之间的变化幅度小于第一阈值。
在一些实施例中,在第一动画应用中,可以将第一面部表情的嘴巴显示参数从第一取值(如60)调整为第二取值(70),其中,按照上述第二取值所显示的上述嘴巴与按照上述第一取值所显示的上述嘴巴之间的变化幅度小于第一阈值。第一阈值是为了保证第一面部表情的嘴巴和第二面部表情的嘴巴之间的变化幅度不会太大。
在嘴巴为闭合的情况下,嘴巴之间的变化幅度可以理解为嘴巴向上弯曲的弧度、嘴巴向下弯曲的弧度、嘴巴的倾斜程度、嘴角的倾斜角度、弯曲程度的至少之一,本申请实施例在此不作任何限定。
在嘴巴的张开的情况下,嘴巴之间的变化幅度可以理解为嘴巴张开的大小,嘴巴向上弯曲的弧度、嘴巴向下弯曲的弧度、嘴巴的倾斜程度、嘴角的倾斜角度、弯曲程度,的至少之一,本申请实施例在此不作任何限定。
通过本申请实施例,可以通过上述方式对第一面部表情的嘴巴显示参数进行调整,方便灵活,极大地提高了表情制作的灵活性、便利性。
第二种:在上述显示参数包括上述眉毛显示参数的情况下,在上述第一动画应用中对上述第一面部表情的眉毛显示参数进行调整,包括:在上述第一动画应用中将上述第一面部表情的眉毛显示参数从第三取值调整至第四取值,其中,按照上述第四取值所显示的上述眉毛与按照上述第三取值所显示的上述眉毛之间的变化幅度小于第二阈值。
在一些实施例中,在第一动画应用中,可以将第一面部表情的眉毛显示参数从第三取值(如50)调整为第四取值(45),其中,按照上述第四取值所显示的上述眉毛与按照上述第三取值所显示的上述眉毛之间的变化幅度小于第二阈值。第二阈值是为了保证第一面部表情的眉毛和第二面部表情的眉毛之间的变化幅度不会太大。
眉毛之间的变化幅度可以理解为眉毛向上弯曲的弧度、眉毛向下弯曲的弧度、眉毛的倾斜程度、眉毛的粗细的至少之一,本申请实施例在此不作任何限定。
通过本申请实施例,可以通过上述方式对第一面部表情的眉毛显示参数进行调整,方便灵活,极大地提高了表情制作的灵活性、便利性。
第三种:在上述显示参数包括上述眼睛显示参数的情况下,在上述第一动画应用中对上述第一面部表情的眼睛显示参数进行调整,包括:在上述第一动画应用中将上述第一面部表情的眼睛显示参数从第五取值调整至第六取值,其中,按照上述第六取值所显示的上述眼睛与按照上述第五取值所显示的上述眼睛之间的变化幅度小于第三阈值。
在一些实施例中,在第一动画应用中,可以将第一面部表情的眼睛显示参数从第五取值(如80)调整为第六取值(70),其中,按照上述第六取值所显示的上述眼睛与按照上述第五取值所显示的上述眼睛之间的变化幅度小于第三阈值。第三阈值是为了保证第一面部表情的眼睛和第二面部表情的眼睛之间的变化幅度不会太大。
在眼睛为闭合的情况下,眼睛之间的变化幅度可以理解为眼睛向下弯曲的弧度、眼睛的倾斜程度、眼睛的弯曲程度的至少之一,本申请实施例在此不作任何限定。
在眼睛的张开的情况下,眼睛之间的变化幅度可以理解为眼睛张开的大小、上眼睑向下弯曲的弧度、下眼睑向上弯曲的弧度、眼睛的倾斜程度、眼白的大小、眼球的大小的至少之一,本申请实施例在此不作任何限定。
通过本申请实施例,可以通过上述方式对第一面部表情的眼睛显示参数进行调整,方便灵活,极大地提高了表情制作的灵活性、便利性。
在对第一面部表情进行调整之前,还需要通过第二动画应用制作上述面部表情集合,实现过程如下:
响应于在上述第二动画应用中获取到的第二交互操作,在上述第二动画应用中生成上述目标动画对象的标准面部表情;响应于在上述第二动画应用中获取到的一组交互操作,在上述第二动画应用中生成上述面部表情集合,其中,上述一组交互操作用于对上述标准面部表情的显示参数进行调整。
在一些实施例中,在第二动画应用(如Maya)中当获取到第二交互操作时,响应于该第二交互操作,在第二动画应用中生成目标动画对应的标准面部表情(如图10所示的面部表情),然后,在第二动画应用中,通过响应获取到的一组交互操作,对标准面部表情的显示参数进行调整,来生成上述面部表情集合。
例如,在设计角色(如目标动画对象)表情的时候,可以直接在Maya中用Blend Shape做好该角色(如目标动画对象)需要的所有表情,这些表情包括常规的喜悦,愤怒,哀伤,快乐,惊讶等,如果该角色(如目标动画对象)在游戏中是比较重要的角色,还会加上带有该角色特征的其他小表情,例如害羞,兴奋,贪食等等。
以爱德华(如目标动画对象)举例,首先默认正常眼睛,鼻子,嘴巴的normal表情(如标准面部表情),在channel list的值都为0。如图10所示,为角色爱德华表情所有值为0的一个标准normal表情。然后在此基础上,用Blend Shape做出该表情在游戏里会出现的所有表情,可参考动画片中角色出现过的表情,这样直接可以直观的看到最终效果,在动画参与制作之前,就能看到效果的好坏以及是否被采用,这样可直接进行表情的筛选工作。如图8所示,图8左边部分可以为各个第一面部表情801,可以是在Maya中用Blend Shape预先做好的表情,右边部分为各个第一面部表情对应的第二面部表情802,第二面部表情可以为素材动画片中目标动画对象的表情截图。通过这种方式,可以使角色的还原度高达90%以上,很直观的看到表情在游戏中的表现效果,不需要将表情合成到游戏中,就可以完成表情在游戏中的表现效果的判定。
通过本申请实施例,在制作目标动画对象的面部表情集合时,可以参考目标动画对象在动画片中该目标动画对象出现过的表情,这样直接可以直观的看到最终效果,在目标动画参与制作之前,就能看到效果的好坏以及是否被采用,这样可直接进行表情的筛选工作,提高了工作效率。
在本申请实施例中,响应于在上述第二动画应用中获取到的一组交互操作,在上述第二动画应用中生成上述面部表情集合,包括:响应于在上述第二动画应用中获取到的一组交互操作,在目标取值范围内对上述标准面部表情的显示参数进行调整,得到上述面部表情集合,其中,上述目标取值范围的下限值为上述标准面部表情的显示参数的初始取值,上述目标取值范围的上限值为预设的目标值,上述目标值用于表示上述目标动画对象的极限表情。
在一些实施例中,当在第二动画应用中获取到一组交互操作时,可以响应于这一组交互操作,在目标取值范围内对标准面部表情的显示参数进行调整,来得到上述面部表情集合。其中,目标取值范围的下限值是标准面部表情的显示参数的初始取值,目标取值范围的上限值是预设的目标值,目标值表示的是目标动画对象的极限表情。在对标准面部表情的显示参数进行调整时,显示参数的值与表情的变化幅度是正相关的,也就是是显示参数的值越大,得到的面部表情与标准表情相比的差异越大。
例如,在战棋类游戏的角色表情中,用Blend Shape在Maya中制作出所有脸的表情设计,从目标取值范围(Min 0-Max 100)的数据跨度来表现角色的表情,Min 0就是正常normal表情,Max 100就是该表情在其角色心情状况下的极限表现,这些心情表情有愤怒,哀伤,喜悦,惊讶等等。以嘴巴为例,如图10可以看出,在标准表情中,嘴巴是闭合的,嘴巴参数为0,假设嘴巴的极限表现为图12中的愤怒表情1205,此时嘴巴参数为100,如图12的喜悦表情1202中,嘴巴是张开的,此时嘴巴参数的取值可以是0到100之间的取值,例如可以是75,而图12中的惊讶表情1204中,嘴巴也是张开的,但张开的幅度小于喜悦表情1202,此时嘴巴参数可以是30。
通过本申请实施例,可以使得第一动画应用使用第二动画应用制作好的面部表情集合,只需要在第一动画应用中调整数值来进行目标动画对象的面部表情的动画制作,既规范又准确,效率也高,风险相对也小。
以下结合示例对动画对象的表情生成方法的流程进行说明。如图11所示,该方法包括以下步骤:
步骤S1101,运行Maya调用Blend Shape制作表情。
在实现时,首先确定角色(目标动画对象)需要的表情,然后调用Maya里的blen d shape来制作相应表情。如图4所示,为角色(目标动画对象)所需要的面部表情集合。
步骤S1102,将文件导入3Ds Max。
在实现时,获取Maya(第二动画应用)模型制作好blend shape文件,然后将blen d shape文件导入到3Ds Max。
步骤S1103,在3Ds Max对目标动画对象进行面部绑定。
3Ds Max对应其他实施例中的第一动画应用。如图9所示,绑定好角色(目标动画对象)的头部,然后绑定角色(目标动画对象)的眼球和眼部高光等。
步骤S1104,运行Morpher编辑器。
在需要制作表情动画时,首先要通过触发启动操作,响应于启动操作,打开3Ds Max(第一动画应用)自带的编辑器Morpher。
步骤S1105,添加新表情文件。
在实现时,响应于针对编辑器Morpher中的pick object按钮的点击操作,选择要增加进去的表情,此时可以得到增加进去的表情的显示参数,从而得到要添加的新表情文件。
步骤S1106,修改命名。
如果需要对增加进去的的表情的显示参数改名,只需要对增加进去的的表情的显示参数重命名即可。
步骤S1107,开始制作表情。
做完以上操作,接下来就可以制作表情动画了,可以排列组合式的做很多需要的表情动画,如图12所示,可以得到通过上述方式得到的一系列表情。其中,以图12中的的表情1201为例,该表情的参数为mouth_F=70,eyebrow_ping=70,其余参数均等于0。
在本申请实施例中,通过调用Maya里的blend shape来预先制作多个不同表情,然后再将表情文件导入到3Ds Max中,通过调整参数来制作表情动画,从而不需要大量骨骼点的配合即可得到一系列多样化的表情。
动画开始制作的过程中,如图13所示,对于角色(目标动画对象)需要的骨骼只有头,左右眼球,左右眼白5个即可。
由于所需要的骨骼信息很少,这使绑定以及动画制作更加方便。在角色绑定好后,制作的方式即在3Ds Max里用Morpher控制器,在制作面板channel list里调节该角色的表情来制作表情动画。可以看到该控制器的参数是min0-max100的区间,数字越大越趋于该角色表情的极限表情动画,相反,数字越小越接近该角色的正常待机表情动画。这样,就可以做出如图12所示的不同情绪的表情动画。类似这样的,可以排列组合出多种多样的表情,而这些表情都是基于Blend Shape之后,用参数的方式来调节的。
通过本申请实施例,所有新表情在设计时就可以通过Maya里Blend Shape看到最终效果,动作制作时不再继续用调节点的传统方式做表情动画,只需要很少的骨骼点,最终在3Ds MAX里调节Morpher控制器来制作角色表情动画,提高了制作效率,提高了显示效果。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
本申请实施例提供一种动画对象的表情生成装置,如图14所示,该装置包括:
第一处理单元1402,配置为在第一动画应用中对目标动画对象进行面部绑定;第一获取单元1404,配置为在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;第二处理单元1406,配置为响应于在上述第一动画应用中获取到的第一交互操作,对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
通过本申请实施例,制作目标动画对象的面部表情的过程中,首先,在第一动画应用中对目标动画对象进行面部绑定,然后,在第一动画应用中获取该目标动画对象的第一面部表情,其中,该第一面部表情是面部表情集合中的面部表情,并且该一组表情包括在第二动画应用中生成的上述目标动画对象的不同面部表情;最后,当在第一动画应用中获取到第一交互操作时,响应第一交互操作,在第一动画应用中对第一面部表情的显示参数进行调整,来得到第二面部表情,在第一动画应用中待生成的目标动画中的一帧图像中,该第二面部表情可以作为目标动画对象的面部表情。采用上数据技术方案,可以获取在第二动画应用中制作好目标动画对象的面部表情集合,然后在第一动画应用中对目标动画对象的第一面部表情的显示参数进行调整,得到第二面部表情,使得第二面部表情可以用于待生成的目标动画中的一帧图像中的上述目标动画对象的面部表情,这种通过调整第一面部表情的显示参数来得到第二面部表情的方式,提高了面部表情制作的效率,并且,第二面部表情是基于第一面部表情的细微调整而生成的,可以使第二面部表情与第一面部表情之间的差别较小,使得待生成的目标动画的一帧图像中目标动 画对象的面部表情变化更加流畅,提高了动画的流畅度,显示效果也更加好。
在一些实施例中,上述第一获取单元,包括:第一处理模块,配置为在上述第一动画应用中加载上述第一面部表情的第一表情文件,其中,上述第一表情文件为上述第二动画应用导出的用于表示上述第一面部表情的表情文件;显示模块,配置为在上述第一动画应用中显示上述第一表情文件所指示的上述第一面部表情,并在上述第一动画应用中的操作面板上显示上述第一表情文件所指示的上述第一面部表情的显示参数以及上述显示参数的当前取值。
在一些实施例中,上述显示参数包括嘴巴显示参数、眉毛显示参数和眼睛显示参数的至少之一,上述第二处理单元,包括以下至少之一:第一调整模块,配置为对上述第一面部表情的嘴巴显示参数进行调整,其中,上述嘴巴显示参数用于确定上述目标动画对象的嘴巴的显示位置和显示曲线的至少之一;第二调整模块,配置为对上述第一面部表情的眉毛显示参数进行调整,其中,上述眉毛显示参数用于确定上述目标动画对象的眉毛的显示位置和显示曲线的至少之一;第三调整模块,配置为对上述第一面部表情的眼睛显示参数进行调整,其中,上述眼睛显示参数用于确定上述目标动画对象的眼睛的显示位置和显示曲线的至少之一。
在一些实施例中,上述第一调整模块,还配置为将上述第一面部表情的嘴巴显示参数从第一取值调整至第二取值,其中,按照上述第二取值所显示的上述嘴巴与按照上述第一取值所显示的上述嘴巴之间的变化幅度小于第一阈值。
在一些实施例中,上述第二调整模块,还配置为在将上述第一面部表情的眉毛显示参数从第三取值调整至第四取值,其中,按照上述第四取值所显示的上述眉毛与按照上述第三取值所显示的上述眉毛之间的变化幅度小于第二阈值。
在一些实施例中,上述第三调整模块,还配置为将上述第一面部表情的眼睛显示参数从第五取值调整至第六取值,其中,按照上述第六取值所显示的上述眼睛与按照上述第五取值所显示的上述眼睛之间的变化幅度小于第三阈值。
在一些实施例中,上述装置还包括:第三处理单元,配置为响应于在上述第二动画应用中获取到的第二交互操作,在上述第二动画应用中生成上述目标动画对象的标准面部表情;第四处理单元,配置为响应于在上述第二动画应用中获取到的一组交互操作,在上述第二动画应用中生成上述面部表情集合,其中,上述一组交互操作用于对上述标准面部表情的显示参数进行调整。
在一些实施例中,上述第四处理单元,还配置为响应于在上述第二动画应用中获取 到的一组交互操作,在目标取值范围内对上述标准面部表情的显示参数进行调整,得到上述面部表情集合,其中,上述目标取值范围的下限值为上述标准面部表情的显示参数的初始取值,上述目标取值范围的上限值为预设的目标值,上述目标值用于表示上述目标动画对象的极限表情。
本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
在本申请实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,在第一动画应用中对目标动画对象进行面部绑定;
S2,在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;
S3,响应于在上述第一动画应用中获取到的第一交互操作,对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
在本申请实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来命令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、ROM(Read-Only Memory,只读存储器)、RAM(Random Access Memory,随机存取器)、磁盘或光盘等。
本申请实施例提供一种用于实施上述动画对象的表情生成方法的电子设备,该电子设备可以是图2所示的服务器或图2所示的终端设备。本申请实施例以该电子设备为终端设备为例来说明。如图15所示,该电子设备包括存储器1502和处理器1504,该存储器1502中存储有计算机程序,该处理器1504被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
在本申请实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,在第一动画应用中对目标动画对象进行面部绑定;
S2,在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;
S3,响应于在上述第一动画应用中获取到的第一交互操作,对上述第一面部表情的 显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
本领域普通技术人员可以理解,图15所示的结构仅为示意,其并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图15中所示更多或者更少的组件(如网络接口等),或者具有与图15所示不同的配置。
其中,存储器1502可用于存储软件程序以及模块,如本申请实施例中的动画对象的表情生成方法和装置对应的程序命令/模块,处理器1504通过运行存储在存储器1502内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的动画对象的表情生成方法。存储器1502可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1502可进一步包括相对于处理器1504远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。作为一种示例,如图15所示,上述存储器1502中可以但不限于包括上述动画对象的表情生成装置中的第一处理单元1402,第一获取单元1404、第二处理单元1406。此外,还可以包括但不限于上述动画对象的表情生成装置中的其他模块单元,本示例中不再赘述。
在一些实施例中,上述的传输装置1506用于经由一个网络接收或者发送数据。上述的网络可包括有线网络及无线网络。在一个实例中,传输装置1506包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1506为射频(Radio F requency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1508,用于显示上述第一面部表情;连接总线1510,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Pee r)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
在本申请实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来命令终端设备相关的硬件来完成,该程序可以存储于一计 算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干命令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
本申请提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述动画对象的表情生成方法的各种实现方式中提供的方法。
在本申请实施例中,上述计算机程序产品或计算机程序可以被设置为执行以下步骤:
S1,在第一动画应用中对目标动画对象进行面部绑定;
S2,在上述第一动画应用中获取上述目标动画对象的第一面部表情,其中,上述第一面部表情为面部表情集合中的面部表情,上述面部表情集合包括在第二动画应用中生成的上述目标动画对象的不同面部表情;
S3,响应于在上述第一动画应用中获取到的第一交互操作,在上述第一动画应用中对上述第一面部表情的显示参数进行调整,得到第二面部表情,其中,上述第二面部表情为上述目标动画对象在目标动画的一帧图像中的面部表情,上述目标动画对象用于生成上述目标动画。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本申请实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上上述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (15)
- 一种动画对象的表情生成方法,应用于电子设备,包括:在第一动画应用中对目标动画对象进行面部绑定;在所述第一动画应用中获取所述目标动画对象的第一面部表情,其中,所述第一面部表情为面部表情集合中的面部表情,所述面部表情集合包括在第二动画应用中生成的所述目标动画对象的不同面部表情;响应于在所述第一动画应用中获取到的第一交互操作,对所述第一面部表情的显示参数进行调整,得到第二面部表情,其中,所述第二面部表情为所述目标动画对象在目标动画的一帧图像中的面部表情,所述目标动画对象用于生成所述目标动画。
- 根据权利要求1所述的方法,其中,所述在所述第一动画应用中获取所述目标动画对象的第一面部表情,包括:在所述第一动画应用中加载所述第一面部表情的第一表情文件,其中,所述第一表情文件为从所述第二动画应用导出的表情文件;在所述第一动画应用中显示所述第一表情文件所指示的所述第一面部表情,并在所述第一动画应用中的操作面板上显示所述第一面部表情的显示参数和所述显示参数的当前取值。
- 根据权利要求1所述的方法,其中,所述显示参数包括嘴巴显示参数、眉毛显示参数和眼睛显示参数至少之一,对应地,所述对所述第一面部表情的显示参数进行调整,包括以下至少之一:对所述第一面部表情的嘴巴显示参数进行调整,其中,所述嘴巴显示参数用于确定所述目标动画对象的嘴巴的显示位置和显示曲线的至少之一;对所述第一面部表情的眉毛显示参数进行调整,其中,所述眉毛显示参数用于确定所述目标动画对象的眉毛的显示位置和显示曲线的至少之一;对所述第一面部表情的眼睛显示参数进行调整,其中,所述眼睛显示参数用于确定所述目标动画对象的眼睛的显示位置和显示曲线的至少之一。
- 根据权利要求3所述的方法,其中,在所述显示参数包括所述嘴巴显示参数的情况下,所述对所述第一面部表情的嘴巴显示参数进行调整,包括:将所述第一面部表情的嘴巴显示参数从第一取值调整至第二取值,其中,按照所 述第二取值所显示的所述嘴巴与按照所述第一取值所显示的所述嘴巴之间的变化幅度小于第一阈值。
- 根据权利要求3所述的方法,其中,在所述显示参数包括所述眉毛显示参数的情况下,所述对所述第一面部表情的眉毛显示参数进行调整,包括:将所述第一面部表情的眉毛显示参数从第三取值调整至第四取值,其中,按照所述第四取值所显示的所述眉毛与按照所述第三取值所显示的所述眉毛之间的变化幅度小于第二阈值。
- 根据权利要求3所述的方法,其中,在所述显示参数包括所述眼睛显示参数的情况下,所述对所述第一面部表情的眼睛显示参数进行调整,包括:将所述第一面部表情的眼睛显示参数从第五取值调整至第六取值,其中,按照所述第六取值所显示的所述眼睛与按照所述第五取值所显示的所述眼睛之间的变化幅度小于第三阈值。
- 根据权利要求1所述的方法,其中,所述方法还包括:响应于在所述第二动画应用中获取到的第二交互操作,在所述第二动画应用中生成所述目标动画对象的标准面部表情;响应于在所述第二动画应用中获取到的一组交互操作,在所述第二动画应用中生成所述面部表情集合,其中,所述一组交互操作用于对所述标准面部表情的显示参数进行调整。
- 根据权利要求7所述的方法,其中,所述响应于在所述第二动画应用中获取到的一组交互操作,在所述第二动画应用中生成所述面部表情集合,包括:响应于在所述第二动画应用中获取到的一组交互操作,在目标取值范围内对所述标准面部表情的显示参数进行调整,得到所述面部表情集合,其中,所述目标取值范围的下限值为所述标准面部表情的显示参数的初始取值,所述目标取值范围的上限值为预设的目标值,所述目标值用于表示所述目标动画对象的极限表情。
- 一种动画对象的表情生成装置,包括:第一处理单元,配置为在第一动画应用中对目标动画对象进行面部绑定;第一获取单元,配置为在所述第一动画应用中获取所述目标动画对象的第一面部表情,其中,所述第一面部表情为面部表情集合中的面部表情,所述面部表情集合包括在第二动画应用中生成的所述目标动画对象的不同面部表情;第二处理单元,配置为响应于在所述第一动画应用中获取到的第一交互操作,在所述第一动画应用中对所述第一面部表情的显示参数进行调整,得到第二面部表情,其中,所述第二面部表情为目标动画的一帧图像中的所述目标动画对象的面部表情,所述目标动画对象用于生成所述目标动画。
- 根据权利要求9所述的装置,其中,所述第一获取单元,包括:第一处理模块,配置为在所述第一动画应用中加载所述第一面部表情的第一表情文件,其中,所述第一表情文件为从所述第二动画应用导出的表情文件;显示模块,配置为在所述第一动画应用中显示所述第一表情文件所指示的所述第一面部表情,并在所述第一动画应用中的操作面板上显示所述第一面部表情的显示参数和所述显示参数的当前取值。
- 根据权利要求9所述的装置,其中,所述显示参数包括嘴巴显示参数、眉毛显示参数和眼睛显示参数的至少之一,所述第二处理单元,包括以下至少之一:第一调整模块,配置为对所述第一面部表情的嘴巴显示参数进行调整,其中,所述嘴巴显示参数用于确定所述目标动画对象的嘴巴的显示位置和显示曲线的至少之一;第二调整模块,配置为对所述第一面部表情的眉毛显示参数进行调整,其中所述眉毛显示参数用于确定所述目标动画对象的眉毛的显示位置和显示曲线的至少之一;第三调整模块,配置为对所述第一面部表情的眼睛显示参数进行调整,其中,所述眼睛显示参数用于确定所述目标动画对象的眼睛的显示位置和显示曲线的至少之一。
- 根据权利要求11所述的装置,其中,所述第一调整模块,还配置为将所述第一面部表情的嘴巴显示参数从第一取值调整至第二取值,其中,按照所述第二取值所显示的所述嘴巴与按照所述第一取值所显示的所述嘴巴之间的变化幅度小于第一阈值。
- 根据权利要求11所述的装置,其中,所述第二调整模块,还配置为将所述第一面部表情的眉毛显示参数从第三取值调整至第四取值,其中,按照所述第四取值所显示的所述眉毛与按照所述第三取值所显示的所述眉毛之间的变化幅度小于第二阈值。
- 一种计算机可读存储介质,所述计算机可读存储介质包括存储的程序,所述 程序运行时执行上述权利要求1至8任一项中所述的动画对象的表情生成方法。
- 一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至8任一项中所述的动画对象的表情生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/880,615 US11978145B2 (en) | 2020-08-14 | 2022-08-03 | Expression generation for animation object |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010820517.0 | 2020-08-14 | ||
CN202010820517.0A CN111899319B (zh) | 2020-08-14 | 2020-08-14 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/880,615 Continuation US11978145B2 (en) | 2020-08-14 | 2022-08-03 | Expression generation for animation object |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022033206A1 true WO2022033206A1 (zh) | 2022-02-17 |
Family
ID=73229479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2021/102775 WO2022033206A1 (zh) | 2020-08-14 | 2021-06-28 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11978145B2 (zh) |
CN (1) | CN111899319B (zh) |
WO (1) | WO2022033206A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485959A (zh) * | 2023-04-17 | 2023-07-25 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
WO2023169023A1 (zh) * | 2022-03-11 | 2023-09-14 | 腾讯科技(深圳)有限公司 | 表情模型的生成方法、装置、设备及介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899319B (zh) | 2020-08-14 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
CN113610992B (zh) * | 2021-08-04 | 2022-05-20 | 北京百度网讯科技有限公司 | 骨骼驱动系数确定方法、装置、电子设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819856A (zh) * | 2012-07-10 | 2012-12-12 | 广东工业大学 | 一种根据中文对白生成连贯嘴型动画的方法 |
US8860731B1 (en) * | 2009-12-21 | 2014-10-14 | Lucasfilm Entertainment Company Ltd. | Refining animation |
CN111899319A (zh) * | 2020-08-14 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1345179A3 (en) * | 2002-03-13 | 2004-01-21 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for computer graphics animation |
US8207971B1 (en) * | 2008-12-31 | 2012-06-26 | Lucasfilm Entertainment Company Ltd. | Controlling animated character expressions |
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
WO2017101094A1 (en) * | 2015-12-18 | 2017-06-22 | Intel Corporation | Avatar animation system |
CN107180446B (zh) * | 2016-03-10 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN107657650B (zh) * | 2017-08-18 | 2021-12-17 | 深圳市谜谭动画有限公司 | 基于Maya软件的动画模型角色绑定方法以及系统 |
CN107657651B (zh) | 2017-08-28 | 2019-06-07 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN109949390B (zh) * | 2017-12-21 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 图像生成方法、动态表情图像生成方法及装置 |
CN110490958B (zh) * | 2019-08-22 | 2023-09-01 | 腾讯科技(深圳)有限公司 | 动画绘制方法、装置、终端及存储介质 |
CN110766776B (zh) * | 2019-10-29 | 2024-02-23 | 网易(杭州)网络有限公司 | 生成表情动画的方法及装置 |
-
2020
- 2020-08-14 CN CN202010820517.0A patent/CN111899319B/zh active Active
-
2021
- 2021-06-28 WO PCT/CN2021/102775 patent/WO2022033206A1/zh active Application Filing
-
2022
- 2022-08-03 US US17/880,615 patent/US11978145B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8860731B1 (en) * | 2009-12-21 | 2014-10-14 | Lucasfilm Entertainment Company Ltd. | Refining animation |
CN102819856A (zh) * | 2012-07-10 | 2012-12-12 | 广东工业大学 | 一种根据中文对白生成连贯嘴型动画的方法 |
CN111899319A (zh) * | 2020-08-14 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
Non-Patent Citations (2)
Title |
---|
BIAN, FANGMING: "Skilful Use of Facial Expression in Animation – An Introduction of Combined Production of FaceGen Modeller and Maya)", TELEVISION CAPTION EFFECTS ANIMATION, 15 September 2007 (2007-09-15), pages 39 - 41, XP055900359 * |
QIN, CHUNLEI ET AL.: "Design and Implementation of 3DSMax Based on Expression Animation for Coalmine Accident Rescue Game-Based Training System", PROCEEDINGS OF THE AECC SYMPOSIUM, vol. 20, 1 August 2007 (2007-08-01), pages 7, XP055900368 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023169023A1 (zh) * | 2022-03-11 | 2023-09-14 | 腾讯科技(深圳)有限公司 | 表情模型的生成方法、装置、设备及介质 |
CN116485959A (zh) * | 2023-04-17 | 2023-07-25 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111899319B (zh) | 2021-05-14 |
US11978145B2 (en) | 2024-05-07 |
US20220375150A1 (en) | 2022-11-24 |
CN111899319A (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022033206A1 (zh) | 动画对象的表情生成方法和装置、存储介质及电子设备 | |
CN107154069B (zh) | 一种基于虚拟角色的数据处理方法及系统 | |
CN108874114B (zh) | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 | |
CN107294838A (zh) | 社交应用的动画生成方法、装置、系统以及终端 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
KR102374307B1 (ko) | 애니메이팅된 캐릭터의 수정 | |
WO2022252866A1 (zh) | 一种互动处理方法、装置、终端及介质 | |
CN109621419B (zh) | 游戏角色表情的生成装置方法及装置、存储介质 | |
US20220254086A1 (en) | Animated faces using texture manipulation | |
KR101996973B1 (ko) | 비디오 생성 시스템 및 방법 | |
US20220172431A1 (en) | Simulated face generation for rendering 3-d models of people that do not exist | |
CN115526967A (zh) | 虚拟模型的动画生成方法、装置、计算机设备及存储介质 | |
GB2606173A (en) | Computer-implemented method for controlling a virtual avatar | |
CN113989463A (zh) | 一种会议显示方法、装置、系统和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21855259 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 04.07.2023) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21855259 Country of ref document: EP Kind code of ref document: A1 |