CN117576275A - 动画生成方法、装置、存储介质及电子装置 - Google Patents
动画生成方法、装置、存储介质及电子装置 Download PDFInfo
- Publication number
- CN117576275A CN117576275A CN202311523935.3A CN202311523935A CN117576275A CN 117576275 A CN117576275 A CN 117576275A CN 202311523935 A CN202311523935 A CN 202311523935A CN 117576275 A CN117576275 A CN 117576275A
- Authority
- CN
- China
- Prior art keywords
- animation
- virtual character
- index
- attribute information
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000014509 gene expression Effects 0.000 claims abstract description 47
- 230000008921 facial expression Effects 0.000 claims abstract description 45
- 238000004519 manufacturing process Methods 0.000 claims abstract description 19
- 238000004590 computer program Methods 0.000 claims description 26
- 230000006978 adaptation Effects 0.000 claims description 12
- 210000000988 bone and bone Anatomy 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 description 12
- 230000008451 emotion Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 206010011469 Crying Diseases 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 206010033372 Pain and discomfort Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004399 eye closure Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种动画生成方法、装置、存储介质及电子装置。该方法包括:获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的第一肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。本申请解决了相关技术中在生成虚拟角色的大量面部表情时耗费的动画资源庞大、制作成本高昂的技术问题。
Description
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种动画生成方法、装置、存储介质及电子装置。
背景技术
在二维(Two-dimensional,2D)游戏中,为了丰富虚拟角色的剧情或者过场动画的表现,需要在播放虚拟角色动画的同时,根据情节的需要展示相应的面部表情。相关技术中实现角色面部表情的方案大致有两种:一种是使用序列帧将角色面部表情直接绘制在虚拟角色上,在播放虚拟角色的肢体动作动画时展示面部表情;另一种是使用2D骨骼动画软件(spine)将面部表情动画和肢体动作动画制作在同一个游戏动画当中,然后对该游戏动画进行播放,从而达到面部表情动画和肢体动作动画同时播放的效果。但是,无论是使用序列帧还是spine动画,在虚拟角色拥有大量的面部表情时,都需要以穷举的方式,将不同肢体动作动画和面部表情动画相结合,然后输出一份动画资源。若需要对所有肢体动作动画配全面部表情动画,最终的游戏动画数量则为肢体动作动画的数量乘以面部表情动画的数量,由此会导致游戏的动画资源非常多,游戏体积随之递增,同时也会导致游戏动画的制作成本急剧增加。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请至少部分实施例提供了一种动画生成方法、装置、存储介质及电子装置,以至少解决相关技术中在生成虚拟角色的大量面部表情时耗费的动画资源庞大、制作成本高昂的技术问题。
根据本申请其中一实施例,提供了一种动画生成方法,包括:获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的第一肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
根据本申请其中一实施例,还提供了一种动画生成装置,包括:第一获取模块,用于获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;第二获取模块,用于基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;生成模块,用于将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
根据本申请其中一实施例,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述任一项中的动画生成方法。
根据本申请其中一实施例,还提供了一种电子装置,包括存储器和处理器,存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行上述任一项中的动画生成方法。
在本申请至少部分实施例中,通过获取第一对象对应的第一索引,进而基于第一索引,获取第一虚拟角色的第一属性信息,最后将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,达到了快速生成具有丰富面部表情的组合动画的目的,从而实现了节约动画资源、降低制作成本的技术效果,进而解决了相关技术中在生成虚拟角色的大量面部表情时耗费的动画资源庞大、制作成本高昂的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请其中一实施例的一种动画生成方法的移动终端的硬件结构框图;
图2是根据本申请其中一实施例的一种动画生成方法的流程图;
图3是根据本申请其中一实施例的一种肢体动画的示意图;
图4是根据本申请其中一实施例的又一种肢体动画的示意图;
图5是根据本申请其中一实施例的一种表情动画的示意图;
图6是根据本申请其中一实施例的一种组合动画的示意图;
图7是根据本申请其中一实施例的又一种组合动画的示意图;
图8是根据本申请其中一实施例的又一种组合动画的示意图;
图9是根据本申请其中一实施例的一种动画生成装置的结构框图;
图10是根据本申请其中一实施例的一种电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本公开涉及到的上述方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在移动终端上为例,该移动终端可以是智能手机、平板电脑、掌上电脑以及移动互联网设备、PAD、游戏机等终端设备。图1是本申请实施例的一种动画生成方法的移动终端的硬件结构框图。如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于中央处理器(CPU)、图形处理器(GPU)、数字信号处理(DSP)芯片、微处理器(MCU)、可编程逻辑器件(FPGA)、神经网络处理器(NPU)、张量处理器(TPU)、人工智能(AI)类型处理器等的处理装置)和用于存储数据的存储器104,在本申请其中一实施例中,还可以包括:输入输出设备108以及显示设备110。
在一些以游戏场景为主的可选实施例中,上述设备还可以提供具有触摸触敏表面的人机交互界面,该人机交互界面可以感应手指接触和/或手势来与图形用户界面(GUI)进行人机交互,该人机交互功能可以包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读存储介质中。
本领域技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
根据本申请其中一实施例,提供了一种动画生成方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图2是根据本申请其中一实施例的动画生成方法的流程图,如图2所示,该方法包括如下步骤:
步骤S21,获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的第一肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;
步骤S22,基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;
步骤S23,将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
示例性的,上述第一对象可以为利用Spine创建的游戏对象(Actor),能够承载和展示游戏中的内容和功能,第一对象可以用于在虚拟游戏场景中播放第一虚拟角色相适配的第一肢体动画。上述第一对象、第二对象还可以为二维动画中的虚拟对象,本申请实施例仅给出一种在游戏领域内的应用示例,但不构成具体限制。
示例性的,在Spine中,创建的Actor能够通过播放Spine肢体动画来实现动画效果。具体的,使用Spine编辑器创建并导出Spine动画数据,然后在游戏引擎中创建Actor对象,在Actor对象中加载Spine动画数据,通常是通过引擎提供的Spine相关应用程序接口进行加载;随后创建动画状态对象,并设置要播放的动画名称,还可以根据需要设置循环播放、播放速度等属性;接着在每一帧更新时,更新动画状态,让动画播放到相应的帧;根据动画状态中的骨骼和插槽信息,对角色进行骨骼动画的计算和渲染,以及根据动画状态的循环属性,判断是否需要循环播放动画。如果需要循环播放,则继续更新动画状态和渲染动画;否则,结束动画播放。通过以上实现过程,Actor可以根据加载的Spine动画数据,播放肢体动画并实现相应的动画效果。
上述第一虚拟角色是二维游戏或者二维动画中的任意一个虚拟角色,具体可以是玩家控制的角色或是游戏中的非玩家角色,第一虚拟角色通常会有对应的外观、特点和技能。
上述第一肢体动画是指第一虚拟角色身体部分的动作和动态表现。例如,第一肢体动画可以但不限于为第一虚拟角色的手臂挥动动画、腿部运动动画、身体姿势动画、手指动作动画中的一项或者多项,其中,在手臂挥动动画中,第一虚拟角色的手臂可以做出各种动作,如挥手、举起物体、拍手等;在腿部运动动画中,第一虚拟角色的腿部可以做出行走、跑步、跳跃、踢腿等动作;在身体姿势动画中,第一虚拟角色的身体可以做出各种姿势,如弯腰、趴下、伸展等;在手指动作动画中,第一虚拟角色的手指可以做出各种动作,如接触物体、比划数字等。通过播放第一肢体动画,第一虚拟角色可以更生动地展现出各种虚拟场景和情感。
上述第一索引为第一虚拟角色的脸部骨骼插槽索引,脸部骨骼插槽为脸部骨骼的子节点,可用于绑定表情图像,从而控制第一虚拟角色脸部表情动画的关键点,例如眼睛、嘴巴、眉毛等部位。基于第一索引获取第一虚拟角色的第一属性信息,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置和旋转角度,从而控制虚拟角色的表情。不同的脸部骨骼位置和旋转角度可以产生不同的面部表情,通过改变脸部骨骼的位置和旋转角度,可以实现角色表情的变化,进而能够表现虚拟角色不同的情绪。例如,微笑表情可以表达开心、愉悦和幸福的情绪;哭泣表情可以表达悲伤、伤心和失落的情绪;生气表情可以表达愤怒、愤慨和不满的情绪;惊讶表情可以表达吃惊、惊奇和震惊的情绪;恐惧表情可以表达害怕、恐惧和紧张的情绪;惊恐表情可以表达恐慌、恐怖和惊恐的情绪;中立表情可以表达中立、平静和无表情的状态;疑惑表情可以表达困惑、迷茫和疑问的情绪;痛苦表情可以表达痛苦、痛楚和不适的情绪;疲倦表情可以表达疲惫、困倦和无精打采的情绪。
通过将第一属性信息同步至第二对象,从而生成第一虚拟角色的组合动画,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
基于上述步骤S21至步骤S23,通过获取第一对象对应的第一索引,进而基于第一索引,获取第一虚拟角色的第一属性信息,最后将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,达到了快速生成具有丰富面部表情的组合动画的目的,从而实现了节约动画资源、降低制作成本的技术效果,进而解决了相关技术中在生成虚拟角色的大量面部表情时耗费的动画资源庞大、制作成本高昂的技术问题。
下面对本申请实施例中的动画生成方法进行进一步介绍。
可选地,在步骤S21,获取第一对象对应的第一索引包括:利用第一虚拟角色的脸部骨骼插槽名称,获取第一对象对应的第一索引,其中,第一虚拟角色的不同部位骨骼插槽名称与不同索引之间存在预先设定的对应关系。
具体的,在动画存储文件中存储有第一虚拟角色的不同部位骨骼插槽名称(faceslot name)与不同索引之间预先设定的对应关系,该预先设定的对应关系可以通过列表(list)格式进行存储,利用第一虚拟角色的脸部骨骼插槽名称在list中进行查找,从而匹配到对应的脸部骨骼插槽索引。
基于上述可选实施例,通过利用第一虚拟角色的脸部骨骼插槽名称,能够快速获取第一对象对应的脸部骨骼插槽索引。
可选地,在步骤S22,基于第一索引,获取第一虚拟角色的第一属性信息包括:
步骤S221,基于第一索引,获取第二索引,其中,第二索引为第一虚拟角色的脸部骨骼索引,第二索引为第一索引对应的父骨骼索引;
步骤S222,通过第二索引获取第一虚拟角色的第一属性信息。
具体的,基于脸部骨骼插槽索引确定对应的父骨骼索引,也即获取到脸部骨骼索引,进而可以根据脸部骨骼索引获取所述第一虚拟角色的脸部骨骼的位置与旋转角度。
基于上述可选实施例,通过基于第一索引获取第二索引,进而通过第二索引获取第一虚拟角色的第一属性信息,能够简化数据访问、减少动画资源占用的存储空间。
可选地,本申请实施例中的动画生成方法还包括:利用二维动画制作工具分别绘制表情动画与肢体动画。
示例性的,利用二维动画制作工具绘制表情动画与肢体动画的实现方式有所不同。
对于表情动画,可以通过绘制不同表情的关键帧来实现。首先,需要确定虚拟角色的基本表情,如开心、生气、惊讶等,然后在二维动画制作工具中创建一个新的关键帧,并在每个关键帧中对虚拟角色的面部表情进行绘制。通过在不同的关键帧之间进行平滑过渡,可以实现虚拟角色在不同表情之间的过渡动画。
对于肢体动画,可以使用骨骼动画实现。首先,需要绘制角色的不同身体部位的不同姿势,然后在二维动画制作工具中创建一个骨骼系统,并将不同身体部位的绘制与骨骼系统关联起来。通过对骨骼系统进行动画关键帧的设置,可以实现角色在不同姿势之间的平滑过渡。
在实际制作过程中,可以使用二维动画制作工具中提供的帧间插值功能来实现关键帧之间的平滑过渡。此外,还可以使用曲线编辑器来调整动画的速度和加速度,以达到更好的动画效果。
基于上述可选实施例,利用二维动画制作工具分别绘制表情动画与肢体动画,能够根据需求和创意进行更多的绘制和动画效果的实现,创造出丰富多样的表情动画和肢体动画。
可选地,肢体动画中包含默认面部表情。
肢体动画中的默认面部表情用于表达虚拟角色的默认情绪状态,具体的,默认面部表情是指在没有特定情感或表情要求的情况下,虚拟角色的面部表情会呈现出一种默认的表情,这种默认的面部表情可以是中立的、轻微的微笑或者其他适合虚拟角色身份和虚拟角色性格的表情。
通过包含默认面部表情,肢体动画可以更加生动地展示虚拟角色的情感和状态,使得观众能够更好地理解和感受虚拟角色的内心世界。默认面部表情可以帮助观众更容易地和虚拟角色产生共鸣,并提供更多的情感细节,增强虚拟角色的可信度和可塑性。同时,通过默认面部表情也可以为虚拟角色塑造一个独特的形象和特点,使其更加鲜明和易于辨识。
可选地,本申请实施例中的动画生成方法还包括:基于第一索引,调节第一虚拟角色的脸部骨骼插槽的透明度,以隐藏默认面部表情。
具体的,根据面部骨骼插槽索引确定待调节的脸部骨骼插槽,进而将脸部骨骼插槽的RGB颜色值进行调节。其中,当RGB颜色值为(255,255,255,255),该颜色为不透明的白色,当RGB颜色值为(0,0,0,255),该颜色为不透明的黑色,当RGB颜色值为(255,255,255,0),也就是将第一虚拟角色的脸部骨骼插槽的透明度设为0,从而能够实现对于默认面部表情的隐藏。
基于上述可选实施例,基于第一索引,调节第一虚拟角色的脸部骨骼插槽的透明度,以隐藏默认面部表情,能够使第一虚拟角色更加适应不同的场景或用户需求,让用户在使用第一虚拟角色时能够自由表达自己的情感或意愿,而不受预设的默认面部表情限制。
可选地,本申请实施例中的动画生成方法还包括:创建第一虚拟角色相适配的第一对象与第二对象。
例如,当二维动画制作工具为spine时,可以创建两个Actor,分别命名为角色(Character)和面部(Face),分别用来播放spine肢体动画和spine表情动画。当每一帧画面中,若只需要渲染一个虚拟角色,则为该虚拟角色创建两个Actor;若需要在一帧画面中同时渲染多个虚拟角色,就需要为每个虚拟角色分别创建两个Actor。
可选地,本申请实施例中的动画生成方法还包括:
步骤S31,获取第三对象对应的第三索引,其中,第三对象用于在虚拟场景中播放第二虚拟角色相适配的第二肢体动画,第三索引为第二虚拟角色的脸部骨骼插槽索引;
步骤S32,基于第三索引,获取第二虚拟角色的第二属性信息,其中,第二属性信息用于确定第二虚拟角色的脸部骨骼的位置与旋转角度;
步骤S33,将第二属性信息同步至第二对象,生成第二虚拟角色的组合动画。
基于上述可选实施例,通过获取第三对象对应的第三索引,进而基于第三索引,获取第二虚拟角色的第二属性信息,最后将第二属性信息同步至第二对象,生成第二虚拟角色的组合动画,能够灵活切换不同虚拟角色的表情,进一步降低制作成本。
可选地,本申请实施例中的动画生成方法还包括:响应于第二对象调整为播放第一虚拟角色相适配的第二表情动画,将第一属性信息同步至第二对象以更新第一虚拟角色的组合动画。
基于上述可选实施例,通过在第二对象调整为播放第一虚拟角色相适配的第二表情动画时,将第一属性信息同步至第二对象以更新第一虚拟角色的组合动画,能够灵活实现表情同一虚拟角色的表情切换。
下面结合附图举例对本申请实施例中的动画生成方法进行说明。
图3是根据本申请其中一实施例的一种肢体动画示意图,如图3所示的是第一虚拟角色走路的肢体动画,该肢体动画包含的默认面部表情为张嘴目视前方。图4是根据本申请其中一实施例的又一种肢体动画示意图,如图4所示的是第一虚拟角色摔倒趴在地上时的肢体动画,该肢体动画包含的默认面部表情为闭眼哭泣。图5是根据本申请其中一实施例的一种表情动画示意图,如图5所示的表情动画为哭泣表情。通过获取哭泣表情中脸部骨骼的位置与旋转角度等属性信息,并将该属性信息同步给图3或者图4所示的肢体动画进行动画组合,从而能够获得如图6所示的第一虚拟角色边走边哭的动画效果,以及如图7所示的第一虚拟角色摔倒趴在地上哭泣的动画效果。此外,图5哭泣表情中脸部骨骼的位置与旋转角度等属性信息还可以同步给第二虚拟角色,从而能够实现图8所示的第二虚拟角色边走边哭的动画效果。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
在本实施例中还提供了一种动画生成装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图9是根据本申请其中一实施例的动画生成装置的结构框图,如图9所示,该装置包括:
第一获取模块901,用于获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;
第二获取模块902,用于基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;
生成模块903,用于将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
可选地,第一获取模块901还用于:利用第一虚拟角色的脸部骨骼插槽名称,获取第一对象对应的第一索引,其中,第一虚拟角色的不同部位骨骼插槽名称与不同索引之间存在预先设定的对应关系。
可选地,第二获取模块902还用于:基于第一索引,获取第二索引,其中,第二索引为第一虚拟角色的脸部骨骼索引,第二索引为第一索引对应的父骨骼索引;通过第二索引获取第一虚拟角色的第一属性信息。
可选地,动画生成装置还包括:绘制模块904,用于利用二维动画制作工具分别绘制表情动画与肢体动画。
可选地,肢体动画中包含默认面部表情。
可选地,动画生成装置还包括:调节模块905,用于基于第一索引,调节第一虚拟角色的脸部骨骼插槽的透明度,以隐藏默认面部表情。
可选地,动画生成装置还包括:创建模块906,用于创建第一虚拟角色相适配的第一对象与第二对象。
可选地,第一获取模块901还用于获取第三对象对应的第三索引,其中,第三对象用于在虚拟场景中播放第二虚拟角色相适配的第二肢体动画,第三索引为第二虚拟角色的脸部骨骼插槽索引;第二获取模块902还用于基于第三索引,获取第二虚拟角色的第二属性信息,其中,第二属性信息用于确定第二虚拟角色的脸部骨骼的位置与旋转角度;生成模块903还用于将第二属性信息同步至第二对象,生成第二虚拟角色的组合动画。
可选地,动画生成装置还包括:同步模块907,用于响应于第二对象调整为播放第一虚拟角色相适配的第二表情动画,将第一属性信息同步至第二对象以更新第一虚拟角色的组合动画。
需要说明的是,上述各个单元、模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的第一肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;
S2,基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;
S3,将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:利用第一虚拟角色的脸部骨骼插槽名称,获取第一对象对应的第一索引,其中,第一虚拟角色的不同部位骨骼插槽名称与不同索引之间存在预先设定的对应关系。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于第一索引,获取第二索引,其中,第二索引为第一虚拟角色的脸部骨骼索引,第二索引为第一索引对应的父骨骼索引;通过第二索引获取第一虚拟角色的第一属性信息。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:利用二维动画制作工具分别绘制表情动画与肢体动画。
可选地,肢体动画中包含默认面部表情。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于第一索引,调节第一虚拟角色的脸部骨骼插槽的透明度,以隐藏默认面部表情。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:创建第一虚拟角色相适配的第一对象与第二对象。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取第三对象对应的第三索引,其中,第三对象用于在虚拟场景中播放第二虚拟角色相适配的第二肢体动画,第三索引为第二虚拟角色的脸部骨骼插槽索引;基于第三索引,获取第二虚拟角色的第二属性信息,其中,第二属性信息用于确定第二虚拟角色的脸部骨骼的位置与旋转角度;将第二属性信息同步至第二对象,生成第二虚拟角色的组合动画。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:响应于第二对象调整为播放第一虚拟角色相适配的第二表情动画,将第一属性信息同步至第二对象以更新第一虚拟角色的组合动画。
在该实施例的计算机可读存储介质中,通过获取第一对象对应的第一索引,进而基于第一索引,获取第一虚拟角色的第一属性信息,最后将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,达到了快速生成具有丰富面部表情的组合动画的目的,从而实现了节约动画资源、降低制作成本的技术效果,进而解决了相关技术中在生成虚拟角色的大量面部表情时耗费的动画资源庞大、制作成本高昂的技术问题。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
在本申请的示例性实施例中,计算机可读存储介质上存储有能够实现本实施例上述方法的程序产品。在一些可能的实施方式中,本申请实施例的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本实施例上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的步骤。
根据本申请的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本申请实施例的程序产品不限于此,在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述程序产品可以采用一个或多个计算机可读介质的任意组合。该计算机可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列举)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
需要说明的是,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
本申请的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取第一对象对应的第一索引,其中,第一对象用于在虚拟场景中播放第一虚拟角色相适配的第一肢体动画,第一索引为第一虚拟角色的脸部骨骼插槽索引;
S2,基于第一索引,获取第一虚拟角色的第一属性信息,其中,第一属性信息用于确定第一虚拟角色的脸部骨骼的位置与旋转角度;
S3,将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,其中,第二对象用于在虚拟场景中播放第一虚拟角色相适配的第一表情动画。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:利用第一虚拟角色的脸部骨骼插槽名称,获取第一对象对应的第一索引,其中,第一虚拟角色的不同部位骨骼插槽名称与不同索引之间存在预先设定的对应关系。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:基于第一索引,获取第二索引,其中,第二索引为第一虚拟角色的脸部骨骼索引,第二索引为第一索引对应的父骨骼索引;通过第二索引获取第一虚拟角色的第一属性信息。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:利用二维动画制作工具分别绘制表情动画与肢体动画。
可选地,肢体动画中包含默认面部表情。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:基于第一索引,调节第一虚拟角色的脸部骨骼插槽的透明度,以隐藏默认面部表情。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:创建第一虚拟角色相适配的第一对象与第二对象。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:获取第三对象对应的第三索引,其中,第三对象用于在虚拟场景中播放第二虚拟角色相适配的第二肢体动画,第三索引为第二虚拟角色的脸部骨骼插槽索引;基于第三索引,获取第二虚拟角色的第二属性信息,其中,第二属性信息用于确定第二虚拟角色的脸部骨骼的位置与旋转角度;将第二属性信息同步至第二对象,生成第二虚拟角色的组合动画。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:响应于第二对象调整为播放第一虚拟角色相适配的第二表情动画,将第一属性信息同步至第二对象以更新第一虚拟角色的组合动画。
在该实施例的电子装置中,通过获取第一对象对应的第一索引,进而基于第一索引,获取第一虚拟角色的第一属性信息,最后将第一属性信息同步至第二对象,生成第一虚拟角色的组合动画,达到了快速生成具有丰富面部表情的组合动画的目的,从而实现了节约动画资源、降低制作成本的技术效果,进而解决了相关技术中在生成虚拟角色的大量面部表情时耗费的动画资源庞大、制作成本高昂的技术问题。
图10是根据本申请实施例的一种电子装置的示意图。如图10所示,电子装置1000仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图10所示,电子装置1000以通用计算设备的形式表现。电子装置1000的组件可以包括但不限于:上述至少一个处理器1010、上述至少一个存储器1020、连接不同系统组件(包括存储器1020和处理器1010)的总线1030和显示器1040。
其中,上述存储器1020存储有程序代码,所述程序代码可以被处理器1010执行,使得处理器1010执行本申请实施例的上述方法部分中描述的根据本申请各种示例性实施方式的步骤。
存储器1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)10201和/或高速缓存存储单元10202,还可以进一步包括只读存储单元(ROM)10203,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。
在一些实例中,存储器1020还可以包括具有一组(至少一个)程序模块10205的程序/实用工具10204,这样的程序模块10205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。存储器1020可进一步包括相对于处理器1010远程设置的存储器,这些远程存储器可以通过网络连接至电子装置1000。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理器1010或者使用多种总线结构中的任意总线结构的局域总线。
显示器1040可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与电子装置1000的用户界面进行交互。
可选地,电子装置1000也可以与一个或多个外部设备1100(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子装置1000交互的设备通信,和/或与使得该电子装置1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子装置1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图10所示,网络适配器1060通过总线1030与电子装置1000的其它模块通信。应当明白,尽管图10中未示出,可以结合电子装置1000使用其它硬件和/或软件模块,可以包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
上述电子装置1000还可以包括:键盘、光标控制设备(如鼠标)、输入/输出接口(I/O接口)、网络接口、电源和/或相机。
本领域普通技术人员可以理解,图10所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子装置1000还可包括比图10中所示更多或者更少的组件,或者具有与图1所示不同的配置。存储器1020可用于存储计算机程序及对应的数据,如本申请实施例中的动画生成方法对应的计算机程序及对应的数据。处理器1010通过运行存储在存储器1020内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的动画生成方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (12)
1.一种动画生成方法,其特征在于,包括:
获取第一对象对应的第一索引,其中,所述第一对象用于在虚拟场景中播放第一虚拟角色相适配的第一肢体动画,所述第一索引为所述第一虚拟角色的脸部骨骼插槽索引;
基于所述第一索引,获取所述第一虚拟角色的第一属性信息,其中,所述第一属性信息用于确定所述第一虚拟角色的脸部骨骼的位置与旋转角度;
将所述第一属性信息同步至第二对象,生成所述第一虚拟角色的组合动画,其中,所述第二对象用于在所述虚拟场景中播放所述第一虚拟角色相适配的第一表情动画。
2.根据权利要求1所述的动画生成方法,其特征在于,获取所述第一对象对应的所述第一索引包括:
利用所述第一虚拟角色的脸部骨骼插槽名称,获取所述第一对象对应的所述第一索引,其中,所述第一虚拟角色的不同部位骨骼插槽名称与不同索引之间存在预先设定的对应关系。
3.根据权利要求1所述的动画生成方法,其特征在于,基于所述第一索引,获取所述第一虚拟角色的所述第一属性信息包括:
基于所述第一索引,获取第二索引,其中,所述第二索引为所述第一虚拟角色的脸部骨骼索引,所述第二索引为所述第一索引对应的父骨骼索引;
通过所述第二索引获取所述第一虚拟角色的所述第一属性信息。
4.根据权利要求1所述的动画生成方法,其特征在于,所述动画生成方法还包括:
利用二维动画制作工具分别绘制所述表情动画与所述肢体动画。
5.根据权利要求4所述的动画生成方法,其特征在于,所述肢体动画中包含默认面部表情。
6.根据权利要求5所述的动画生成方法,其特征在于,所述动画生成方法还包括:
基于所述第一索引,调节所述第一虚拟角色的脸部骨骼插槽的透明度,以隐藏所述默认面部表情。
7.根据权利要求1所述的动画生成方法,其特征在于,所述动画生成方法还包括:
创建所述第一虚拟角色相适配的所述第一对象与所述第二对象。
8.根据权利要求1所述的动画生成方法,其特征在于,所述动画生成方法还包括:
获取第三对象对应的第三索引,其中,所述第三对象用于在所述虚拟场景中播放第二虚拟角色相适配的第二肢体动画,所述第三索引为所述第二虚拟角色的脸部骨骼插槽索引;
基于所述第三索引,获取所述第二虚拟角色的第二属性信息,其中,所述第二属性信息用于确定所述第二虚拟角色的脸部骨骼的位置与旋转角度;
将所述第二属性信息同步至所述第二对象,生成所述第二虚拟角色的组合动画。
9.根据权利要求1所述的动画生成方法,其特征在于,所述动画生成方法还包括:
响应于所述第二对象调整为播放所述第一虚拟角色相适配的第二表情动画,将所述第一属性信息同步至所述第二对象以更新所述第一虚拟角色的组合动画。
10.一种动画生成装置,其特征在于,包括:
第一获取模块,用于获取第一对象对应的第一索引,其中,所述第一对象用于在虚拟场景中播放第一虚拟角色相适配的肢体动画,所述第一索引为所述第一虚拟角色的脸部骨骼插槽索引;
第二获取模块,用于基于所述第一索引,获取所述第一虚拟角色的第一属性信息,其中,所述第一属性信息用于确定所述第一虚拟角色的脸部骨骼的位置与旋转角度;
生成模块,用于将所述第一属性信息同步至第二对象,生成所述第一虚拟角色的组合动画,其中,所述第二对象用于在所述虚拟场景中播放所述第一虚拟角色相适配的第一表情动画。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为被处理器运行时执行权利要求1至9任一项中所述的动画生成方法。
12.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至9任一项中所述的动画生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311523935.3A CN117576275A (zh) | 2023-11-14 | 2023-11-14 | 动画生成方法、装置、存储介质及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311523935.3A CN117576275A (zh) | 2023-11-14 | 2023-11-14 | 动画生成方法、装置、存储介质及电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117576275A true CN117576275A (zh) | 2024-02-20 |
Family
ID=89894716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311523935.3A Pending CN117576275A (zh) | 2023-11-14 | 2023-11-14 | 动画生成方法、装置、存储介质及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576275A (zh) |
-
2023
- 2023-11-14 CN CN202311523935.3A patent/CN117576275A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107154069B (zh) | 一种基于虚拟角色的数据处理方法及系统 | |
Stark | Facial recognition, emotion and race in animated social media | |
US11679334B2 (en) | Dynamic gameplay session content generation system | |
KR101851356B1 (ko) | 3d 디지털액터에 의한 지능형 사용자 인터페이스 제공방법 | |
Manovich | Cinema as a Cultural Interface (1997) | |
WO2022252866A1 (zh) | 一种互动处理方法、装置、终端及介质 | |
CN113706666A (zh) | 动画数据处理方法、非易失性存储介质及电子装置 | |
CN112528936B (zh) | 视频序列编排方法、装置、电子设备及存储介质 | |
KR20160134883A (ko) | 영상컨텐츠 적용 디지털액터의 운용방법 | |
CN118015160A (zh) | 生成表情动画的方法、装置、存储介质及电子装置 | |
CN117576275A (zh) | 动画生成方法、装置、存储介质及电子装置 | |
CN116017082A (zh) | 一种信息处理方法和电子设备 | |
Chow et al. | Enduring interaction: an approach to analysis and design of animated gestural interfaces in creative computing systems | |
CN113318430B (zh) | 虚拟角色的姿态调整方法、装置、处理器及电子装置 | |
CN113318439B (zh) | 起步动画的处理方法、装置、处理器和电子装置 | |
Chang | Catching the ghost: the digital gaze of motion capture | |
CN112333473B (zh) | 一种交互方法、装置以及计算机存储介质 | |
CN112807688A (zh) | 游戏内表情设置方法、装置、处理器及电子装置 | |
Gallud et al. | Gesture-based interaction: Concept map and application scenarios | |
CN111899321A (zh) | 一种虚拟角色表情展现的方法和装置 | |
US20220319088A1 (en) | Facial capture artificial intelligence for training models | |
Lin et al. | Emotion Caster: Tangible emotion sharing device and multimedia display platform for intuitive interactions | |
Kovacic | Cyborg in Idology Studies: Symbiosis of Animating Humans and Machines | |
US20240226750A1 (en) | Avatar generation using an image of a person with modifier description | |
US20240335740A1 (en) | Translation of sign language in a virtual environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |