CN113470148A - 表情动画制作方法及装置、存储介质、计算机设备 - Google Patents
表情动画制作方法及装置、存储介质、计算机设备 Download PDFInfo
- Publication number
- CN113470148A CN113470148A CN202110743189.3A CN202110743189A CN113470148A CN 113470148 A CN113470148 A CN 113470148A CN 202110743189 A CN202110743189 A CN 202110743189A CN 113470148 A CN113470148 A CN 113470148A
- Authority
- CN
- China
- Prior art keywords
- model
- expression
- target
- animation
- target character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种表情动画制作方法及装置、存储介质、计算机设备,该方法包括:获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
Description
技术领域
本申请涉及动画制作技术领域,尤其是涉及到一种表情动画制作方法及装置、存储介质、计算机设备。
背景技术
在三维影视、游戏动画项目中,表情控制一直是个很重要的环节,该环节决定了动画的质量和效率。现有技术中,一般利用角色模型去更改骨骼,通过将骨骼里面的部位移动到模型中的相应位置,或者为每节骨骼调节权重值后选择IK的控制手柄,以实现骨骼绑定,从而依赖绑定的骨骼,制作表情动画。这种通过骨骼绑定方式进行人脸表情模仿的方式,生成的表情动画面部肌肉的表现力较弱,真实性较低,难以适应日益提升的动画制作需求。
发明内容
有鉴于此,本申请提供了一种表情动画制作方法及装置、存储介质、计算机设备。
根据本申请的一个方面,提供了一种表情动画制作方法,包括:
获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
可选地,所述获取目标角色模型,具体包括:
获取第一样本角色模型,其中,所述第一样本角色模型包括多个第二表情单元;将所述第一样本角色模型的第二表情单元传递给所述目标角色模型,并依据所述第一表情单元与所述第二表情单元的对应关系,对所述目标角色模型进行表情单元转换,以得到包含所述第一表情单元的目标角色模型;或,
获取第二样本角色模型,其中,所述第二样本角色模型包括多个第一表情单元;将所述第二样本角色模型的第一表情单元传递给所述目标角色模型,以得到包含所述第一表情单元的目标角色模型;或,
获取第一初始角色模型,并在所述第一初始角色模型上添加所述第一表情单元,以得到所述目标角色模型;或,
获取第二初始角色模型,并基于接收到的对所述第二初始角色模型的雕刻数据,雕刻所述第二初始角色模型,以得到所述目标角色模型,其中所述雕刻数据包括所述第一表情单元。
可选地,所述第一表情单元包括所述目标角色模型的脸部表情单元,所述目标角色模型包括头部模型以及第一附带模型,所述第一附带模型包括所述目标角色模型的睫毛模型、眉毛模型、上牙模型中至少一种;所述获取目标角色模型之后,所述方法还包括:
确定所述第一附带模型上的第一附带模型关键点以及与所述第一附带模型关键点对应的第一约束位置;
将所述第一附带模型关键点约束到所述第一约束位置上,并创建所述第一附带模型对应的临时骨骼;
对所述临时骨骼进行蒙皮,以使所述目标角色模型的运动受所述临时骨骼驱动;
分别确定与每个所述第一表情单元对应的附带表情单元,并对所述附带表情单元与所述第一表情单元进行合并,得到所述目标角色模型对应的第三表情单元;
依据所述第三表情单元更新所述目标角色模型,以使更新后的目标角色模型包括多个所述第三表情单元。
可选地,所述目标角色模型还包括第二附带模型,所述第二附带模型包括所述目标角色模型的下牙模型;所述分别确定与每个所述第一表情单元对应的附带表情单元之前,所述方法还包括:
确定所述第一表情单元中与所述第二附带模型对应的约束表情单元,并在所述约束表情单元中添加所述第二附带模型对应的驱动表达式,以使所述第二附带模型跟随所述约束表情单元对应的动作。
可选地,所述依据所述第三表情单元更新所述目标角色模型,具体包括:
获取所述目标角色模型对应的无表情初始模型;
将所述第三表情单元传递至所述无表情初始模型中,以更新所述目标角色模型。
可选地,所述将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色动画数据,具体包括:
对所述动画关键帧进行修复后,将修复后的动画关键帧烘焙到所述目标角色模型上,得到所述目标角色表情动画数据;
将所述目标角色表情动画数据导入至动画引擎中,以通过所述动画引擎生成动画。
根据本申请的另一方面,提供了一种表情动画制作装置,包括:
模型获取模块,用于获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
表情捕捉模块,用于将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
参数传递模块,用于绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
烘焙模块,用于将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
可选地,所述模型获取模块,具体用于:
获取第一样本角色模型,其中,所述第一样本角色模型包括多个第二表情单元;将所述第一样本角色模型的第二表情单元传递给所述目标角色模型,并依据所述第一表情单元与所述第二表情单元的对应关系,对所述目标角色模型进行表情单元转换,以得到包含所述第一表情单元的目标角色模型;或,
获取第二样本角色模型,其中,所述第二样本角色模型包括多个第一表情单元;将所述第二样本角色模型的第一表情单元传递给所述目标角色模型,以得到包含所述第一表情单元的目标角色模型;或,
获取第一初始角色模型,并在所述第一初始角色模型上添加所述第一表情单元,以得到所述目标角色模型;或,
获取第二初始角色模型,并基于接收到的对所述第二初始角色模型的雕刻数据,雕刻所述第二初始角色模型,以得到所述目标角色模型,其中所述雕刻数据包括所述第一表情单元。
可选地,所述第一表情单元包括所述目标角色模型的脸部表情单元,所述目标角色模型包括头部模型以及第一附带模型,所述第一附带模型包括所述目标角色模型的睫毛模型、眉毛模型、上牙模型中至少一种;所述装置还包括:
第一驱动模块,用于所述获取目标角色模型之后,确定所述第一附带模型上的第一附带模型关键点以及与所述第一附带模型关键点对应的第一约束位置;将所述第一附带模型关键点约束到所述第一约束位置上,并创建所述第一附带模型对应的临时骨骼;对所述临时骨骼进行蒙皮,以使所述目标角色模型的运动受所述临时骨骼驱动;分别确定与每个所述第一表情单元对应的附带表情单元,并对所述附带表情单元与所述第一表情单元进行合并,得到所述目标角色模型对应的第三表情单元;依据所述第三表情单元更新所述目标角色模型,以使更新后的目标角色模型包括多个所述第三表情单元。
可选地,所述目标角色模型还包括第二附带模型,所述第二附带模型包括所述目标角色模型的下牙模型;所述装置还包括:
第二驱动模块,用于所述分别确定与每个所述第一表情单元对应的附带表情单元之前,确定所述第一表情单元中与所述第二附带模型对应的约束表情单元,并在所述约束表情单元中添加所述第二附带模型对应的驱动表达式,以使所述第二附带模型跟随所述约束表情单元对应的动作。
可选地,所述第一驱动模块,具体用于:获取所述目标角色模型对应的无表情初始模型;将所述第三表情单元传递至所述无表情初始模型中,以更新所述目标角色模型。
可选地,所述烘焙模块,具体用于:
对所述动画关键帧进行修复后,将修复后的动画关键帧烘焙到所述目标角色模型上,得到所述目标角色表情动画数据;
将所述目标角色表情动画数据导入至动画引擎中,以通过所述动画引擎生成动画。
依据本申请又一个方面,提供了一种存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述表情动画制作方法。
依据本申请再一个方面,提供了一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述表情动画制作方法。
借由上述技术方案,本申请提供的一种表情动画制作方法及装置、存储介质、计算机设备,将包含多个第一表情单元的目标角色模型导入动作捕捉系统中,从而通过动作捕捉系统进行人脸表情采集,将采集到的人脸表情解析为与第一表情单元对应的表情单元参数,得到与目标角色模型匹配的人脸表情的表情数据,而后将目标角色模型与表情控制器绑定,将表情数据烘焙到表情控制器中,得到与上述表情数据对应的目标角色模型的动画关键帧,再将动画关键帧烘焙到目标角色模型上,从而导出目标角色表情动画数据,以供动画引擎制作表情动画。本申请实施例相比于现有技术通过绑定骨骼制作表情动画的方式,驱动目标角色模型的表情单元录制动画关键帧,利用表情单元表现真实人脸表情,有助于更多的表现面部肌肉的变化,得到更加真实的人脸表情表现效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1示出了本申请实施例提供的一种表情动画制作方法的流程示意图;
图2示出了本申请实施例提供的另一种表情动画制作方法的流程示意图;
图3示出了本申请实施例提供的一种表情动画制作装置的结构示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本申请。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
在本实施例中提供了一种表情动画制作方法,如图1所示,该方法包括:
步骤101,获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
本申请实施例中,目标角色模型具体为包含多个第一表情单元的游戏角色模型或动画角色模型,目标角色模型可以只包含角色的头部模型,也可以包含头部模型以及身体其他部分的模型。另外,在具体应用场景中,表情单元具体可以为Maya软件(Maya软件是Autodesk旗下的著名三维建模和动画软件))中的Blendshape,Blendshape指模型顶点动画的变形目标,可以在不绑定骨骼的前提下使角色模型顶点按照指定好的变形目标发生位移,例如,第一表情单元具体可以为51个ARKit(ARKit是苹果在2017年WWDC推出的AR开发平台)对应的变形目标。
步骤102,将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
得到带有第一表情单元的目标角色模型之后,通过动作捕捉系统进行表情动画录制,为使录制的表情动画与目标角色模型的表情单元匹配,首先将目标角色模型导入动作捕捉系统中,用目标角色模型替换动作捕捉系统中原有的角色模型,接着开始对镜头前的人脸表情进行采集,而后对动作捕捉系统捕捉到的人脸表情进行分析,确定人脸表情对应的、与第一表情单元匹配的表情数据,表情数据具体为各第一表情单元对应的表情单元参数,例如第一表情单元包括左眉毛抬高,表情数据包括左眉毛抬高的高度,其中,表情数据具体可以为FBX文件。
步骤103,绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
步骤104,将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
上述实施例中,可以通过Maya软件将采集到的表情数据处理为目标角色的动画数据,以供动画引擎利用动画数据制作目标角色的表情动画。先将目标角色模型与Maya中的表情控制器进行绑定,然后将人脸表情对应的表情数据导入到Maya中,将表情数据烘焙到表情控制器上,烘焙后表情控制器可以按照表情数据驱动目标角色模型对应的各变形目标,生成目标角色模型对应的动画关键帧,最后再将动画关键帧烘焙到目标角色模型上,并导出目标角色表情动画数据,供动画引擎进行动画制作。
在本申请实施例中,为提升目标角色模型的表情动画表现效果,可选地,步骤104具体可以包括:对所述动画关键帧进行修复后,将修复后的动画关键帧烘焙到所述目标角色模型上,得到所述目标角色表情动画数据;将所述目标角色表情动画数据导入至动画引擎中,以通过所述动画引擎生成动画。
在该实施例中,得到动画关键帧之后,技术人员可以对动画关键帧进行修复,以使动画关键帧更符合技术人员需求的表现效果,之后再将修复后的动画关键帧烘焙到目标角色模型上,并修复好的目标角色的表情动画数据至动画引擎,以供动画引擎制作该目标角色的表情动画,提升表情动画表现效果。
通过应用本实施例的技术方案,将包含多个第一表情单元的目标角色模型导入动作捕捉系统中,从而通过动作捕捉系统进行人脸表情采集,将采集到的人脸表情解析为与第一表情单元对应的表情单元参数,得到与目标角色模型匹配的人脸表情的表情数据,而后将目标角色模型与表情控制器绑定,将表情数据烘焙到表情控制器中,得到与上述表情数据对应的目标角色模型的动画关键帧,再将动画关键帧烘焙到目标角色模型上,从而导出目标角色表情动画数据,以供动画引擎制作表情动画。本申请实施例相比于现有技术通过绑定骨骼制作表情动画的方式,驱动目标角色模型的表情单元录制动画关键帧,利用表情单元表现真实人脸表情,有助于更多的表现面部肌肉的变化,得到更加真实的人脸表情表现效果。
进一步的,作为上述实施例具体实施方式的细化和扩展,为了完整说明本实施例的具体实施过程,提供了另一种表情动画制作方法,如图2所示,该方法包括:
步骤201,获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
本申请实施例中,可选地,步骤201具体可以通过以下步骤201-1至步骤201-4中任意一种方式实现:
步骤201-1,获取第一样本角色模型,其中,所述第一样本角色模型包括多个第二表情单元;将所述第一样本角色模型的第二表情单元传递给所述目标角色模型,并依据所述第一表情单元与所述第二表情单元的对应关系,对所述目标角色模型进行表情单元转换,以得到包含所述第一表情单元的目标角色模型。
在该实施例中,可以从已有的第一样本角色模型为基础,制作目标角色模型的表情单元,其中,第一样本角色模型为包含多个变形目标即第二表情单元的角色头部模型,例如第一样本角色模型为基于IFVT系统的模型,第二表情单元为IFVT系统自带的FACS表情模板,即310个表情。本申请实施例中要做出ARKit所需的51个表情,具体可以先将第一样本角色模型的310个表情传递给目标角色模型,在利用形变编辑器,通过创建混合变形,根据310个表情与51个表情的对应关系,根据310个表情一一调出对应要求的51个表情,然后将51个表情复制出来重新向目标角色模型传递,即将51个表情复制出来后传递给无表情的目标角色模型,得到包含51个表情单元的目标角色模型。以实现利用具有310个表情单元的样本角色模型,制作具有51个表情单元的目标角色模型。
步骤201-2,获取第二样本角色模型,其中,所述第二样本角色模型包括多个第一表情单元;将所述第二样本角色模型的第一表情单元传递给所述目标角色模型,以得到包含所述第一表情单元的目标角色模型。
在该实施例中,如果已有一个与目标角色模型头部UV相同,且已经做好51个变形目标的模型,那么可以通过seUVBlendShape插件快速传递51个变形目标,即在第二样本角色模型与目标角色模型的头部UV相同,且第二样本角色模型已制作好第一表情单元的情况下,可以通过上述插件直接向目标角色模型传递第一表情单元。其中,seUVBlendShape插件是一款Maya插件,可以在两个模型UV对应的前提下传递变形目标。如果项目的各个角色头部UV不会发生太大改动,用此插件可以快速传递表情。另外此插件也可以和IFTV流程配合使用,当对模型进行小修改后(例如加减线,微调模型脸部)也可以不必重新制作变形目标,直接用此插件可以快速传递给修改后的头部。无需模型师支援,传递速度极快,但是对模型UV有限制,不同角色长相差异过大也会有一定影响。角色可以有不同造型和不同拓扑,但UV必须对应,尤其是眼睛鼻子嘴这些关键点要对应。单个模型的UV不可以有重合,在确保不重合的前提下,模型的眉毛睫毛牙齿舌头可以不必与头部分离。
步骤201-3,获取第一初始角色模型,并在所述第一初始角色模型上添加所述第一表情单元,以得到所述目标角色模型。
在该实施例中,也可以直接在无表情的初始模型上制作第一表情单元,在实际应用场景中,可以利用FaceIT插件实现变形目标制作,FaceIT插件是针对FACS流程中制作面部表情所设计的Blender插件,特别用于生成Apple ARkit的51个变形目标。该插件的优点是适用模型范围广,无需对模型二次拓扑。支持眉毛,牙齿,舌头眼球的表情生成,方便,直接针对FACS表情组生成。
步骤201-4,获取第二初始角色模型,并基于接收到的对所述第二初始角色模型的雕刻数据,雕刻所述第二初始角色模型,以得到所述目标角色模型,其中所述雕刻数据包括所述第一表情单元。
在该实施例中,对于直接在无表情的初始模型上制作第一表情单元的方式,除了借助FaceIT插件外,也可以通过雕刻方式实现。51个变形目标看似数量众多工作量庞大,其实大部分都是左右对称的表情,如果团队中有经验丰富的ZB雕刻师,那么就可以考虑用纯美术的方式生产变形目标,没有复杂的工作流程。表情的质量,生产效率与建模师水平直接挂钩。每个角色表情风格都会带有建模师自己的理解。适合高质量的游戏、动画作品,且对模型结构没有特殊要求。在具体应用场景中,接收对无表情的第二初始角色模型的雕刻数据,将第二初始角色模型雕刻成包含51个变形单元的目标角色模型。
步骤202,确定所述第一附带模型上的第一附带模型关键点以及与所述第一附带模型关键点对应的第一约束位置;
步骤203,将所述第一附带模型关键点约束到所述第一约束位置上,并创建所述第一附带模型对应的临时骨骼;
步骤204,对所述临时骨骼进行蒙皮,以使所述目标角色模型的运动受所述临时骨骼驱动;
步骤205,确定所述第一表情单元中与所述第二附带模型对应的约束表情单元,并在所述约束表情单元中添加所述第二附带模型对应的驱动表达式,以使所述第二附带模型跟随所述约束表情单元对应的动作。
步骤206,分别确定与每个所述第一表情单元对应的附带表情单元,并对所述附带表情单元与所述第一表情单元进行合并,得到所述目标角色模型对应的第三表情单元;
步骤207,依据所述第三表情单元更新所述目标角色模型,以使更新后的目标角色模型包括多个所述第三表情单元;
本申请实施例中,得到至少包含头部模型的目标角色模型之后,还可以在头部模型上添加附带模型,以使模型的表情更加真实生动,其中,附带模型包括睫毛、眉毛、牙齿、舌头等等附着于头部模型上的模型,步骤202至步骤207中提供了一种在头部模型上添加附带模型的方式。其中,第一附带模型包括可以直接约束在头部模型表面的模型,例如眉毛、睫毛、上牙、面具疤痕、角膜泪腺等随头部模型表面某一点运动即可,第二附带模型包括通过表达式约束的模型,例如角色张嘴时,下牙需要跟随运动,在ARKit的变形目标中,只有jawOpen这个表情需要带动下牙,其他表情例如mouthLowerDown等表情是用来表现嘴唇动作的,不必带动下牙,因此下牙的动画适合用表达式的方式驱动。
在上述实施例中,第一附带模型可以通过point on poly驱动实现,point onpoly功能在Maya中的实现方式是先选第一附带模型的约束点,即第一附带模型关键点,再选约束点对应的第一约束位置,将第一附带模型的约束点约束在头部模型的第一约束位置上,通过constraint->point on poly可以locator约束到模型表面的点上。约束第一附带模型之后,创建第一附带模型对应的临时骨骼,这里创建的临时骨骼的目的是为了后续导出附带模型文件,与最终游戏中的骨骼动画绑定无关,创建临时骨骼之后,将临时骨骼对应的模型进行蒙皮,以使临时骨骼可以驱动模型产生相应的表情动作,其中,如果想让舌头被某些动画驱动,舌头模型可以单独创建一串骨骼进行绑定。这套操作在IFVT插件中有快速实现方式,只需要选择好头部模型的线条,起好名字,就可以批量创建骨骼。另外,IFVT生成的骨骼数量非常多,如果不便于蒙皮操作,可以选择少量骨骼参与蒙皮,效果不会受影响。
第二附带模型可以通过表达式驱动实现,以下牙模型为例,可以在控制下牙的骨骼旋转属性中添加表达式:DownTooth_S.rotateZ=0+bs.jawOpen*-15,变形目标组的名字bs.jawOpen可以在形变编辑器中找到,从而实现牙齿驱动的效果。
创建临时骨骼,并添加第二附带模型的驱动表达式后,第一附带模型、第二附带模型就会受到目标角色模型中第一表情单元的控制,为合并头部模型与第一附带模型和第二附带模型的表情,本申请实施例先导出附带模型的附带表情单元,再将附带表情单元与目标角色模型原有的第一表情单元进行合并得到第三表情单元,以使第三表情单元不仅能够表现达原有的第一表情单元的表情特征,还能够表现出附带模型的表情特征。在具体应用场景中,可以依次将每个第一表情单元对应的附带模型全部导出obj文件即附带表情单元对应的文件,具体可以通过建立Maya批处理脚本实现文件导出,思路是依次将头部模型的变形目标设置成1,导出各部分附带模型的obj文件并做好命名,得到附加模型数量×51个obj文件。全部导出之后,新建一个Maya文件,把刚才导出的obj文件按照命名导入并分组,每个表情对应一个组,组中包含头部,睫毛,眉毛,牙齿等附带模型。然后把每组表情(即一个第一表情单元与该第一表情单元对应的附带表情单元)执行合并操作,合并之后的模型需要将轴心归零到世界坐标原点。另外,导出附带表情单元之后,还可以将每个变形目标的变形权重再设置为0,额外导出一组面无表情的模型,用来作为变形目标的传递对象,即导出目标角色模型对应的无表情初始模型。
而后,将合并后的第三表情单元传递给目标角色模型,以使目标角色模型包含第三表情单元,可选地,获取所述目标角色模型对应的无表情初始模型;将所述第三表情单元传递至所述无表情初始模型中,以更新所述目标角色模型。即将51个合并后的第三表情单元作为变形目标传递给无表情的模型,得到最终ARKit需要的目标角色模型。其中,这个模型不带有任何骨骼绑定,利用该模型制作动画时,需要将其与身体骨骼蒙皮,替换掉角色原来的头部。
步骤208,将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
步骤209,绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
步骤210,对所述动画关键帧进行修复后,将修复后的动画关键帧烘焙到所述目标角色模型上,得到所述目标角色表情动画数据;将所述目标角色表情动画数据导入至动画引擎中,以通过所述动画引擎生成动画。
在上述实施例中,先将目标角色模型与Maya中的表情控制器进行绑定,然后将人脸表情对应的表情数据导入到Maya中,将表情数据烘焙到表情控制器上,烘焙后表情控制器可以按照表情数据驱动目标角色模型对应的各变形目标,生成目标角色模型对应的动画关键帧,技术人员可以对动画关键帧进行修复后,最后再将修复后的动画关键帧烘焙到目标角色模型上,并导出目标角色表情动画数据,供动画引擎进行动画制作。
进一步的,作为图1方法的具体实现,本申请实施例提供了一种表情动画制作装置,如图3所示,该装置包括:
模型获取模块,用于获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
表情捕捉模块,用于将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
参数传递模块,用于绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
烘焙模块,用于将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
可选地,所述烘焙模块,具体用于:
对所述动画关键帧进行修复后,将修复后的动画关键帧烘焙到所述目标角色模型上,得到所述目标角色表情动画数据;
将所述目标角色表情动画数据导入至动画引擎中,以通过所述动画引擎生成动画。
可选地,所述模型获取模块,具体用于:
获取第一样本角色模型,其中,所述第一样本角色模型包括多个第二表情单元;将所述第一样本角色模型的第二表情单元传递给所述目标角色模型,并依据所述第一表情单元与所述第二表情单元的对应关系,对所述目标角色模型进行表情单元转换,以得到包含所述第一表情单元的目标角色模型;或,
获取第二样本角色模型,其中,所述第二样本角色模型包括多个第一表情单元;将所述第二样本角色模型的第一表情单元传递给所述目标角色模型,以得到包含所述第一表情单元的目标角色模型;或,
获取第一初始角色模型,并在所述第一初始角色模型上添加所述第一表情单元,以得到所述目标角色模型;或,
获取第二初始角色模型,并基于接收到的对所述第二初始角色模型的雕刻数据,雕刻所述第二初始角色模型,以得到所述目标角色模型,其中所述雕刻数据包括所述第一表情单元。
可选地,所述第一表情单元包括所述目标角色模型的脸部表情单元,所述目标角色模型包括头部模型以及第一附带模型,所述第一附带模型包括所述目标角色模型的睫毛模型、眉毛模型、上牙模型中至少一种;所述装置还包括:
第一驱动模块,用于所述获取目标角色模型之后,确定所述第一附带模型上的第一附带模型关键点以及与所述第一附带模型关键点对应的第一约束位置;将所述第一附带模型关键点约束到所述第一约束位置上,并创建所述第一附带模型对应的临时骨骼;对所述临时骨骼进行蒙皮,以使所述目标角色模型的运动受所述临时骨骼驱动;分别确定与每个所述第一表情单元对应的附带表情单元,并对所述附带表情单元与所述第一表情单元进行合并,得到所述目标角色模型对应的第三表情单元;依据所述第三表情单元更新所述目标角色模型,以使更新后的目标角色模型包括多个所述第三表情单元。
可选地,所述目标角色模型还包括第二附带模型,所述第二附带模型包括所述目标角色模型的下牙模型;所述装置还包括:
第二驱动模块,用于所述分别确定与每个所述第一表情单元对应的附带表情单元之前,确定所述第一表情单元中与所述第二附带模型对应的约束表情单元,并在所述约束表情单元中添加所述第二附带模型对应的驱动表达式,以使所述第二附带模型跟随所述约束表情单元对应的动作。
可选地,所述第一驱动模块,具体用于:依次将每个第一表情单元对应的变形权重设置为1,并导出每个所述第一表情单元对应的附带表情单元。
可选地,所述第一驱动模块,具体用于:获取所述目标角色模型对应的无表情初始模型;将所述第三表情单元传递至所述无表情初始模型中,以更新所述目标角色模型。
需要说明的是,本申请实施例提供的一种表情动画制作装置所涉及各功能单元的其他相应描述,可以参考图1至图2方法中的对应描述,在此不再赘述。
基于上述如图1至图2所示方法,相应的,本申请实施例还提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述如图1至图2所示的表情动画制作方法。
基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施场景所述的方法。
基于上述如图1至图2所示的方法,以及图3所示的虚拟装置实施例,为了实现上述目的,本申请实施例还提供了一种计算机设备,具体可以为个人计算机、服务器、网络设备等,该计算机设备包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述如图1至图2所示的表情动画制作方法。
可选地,该计算机设备还可以包括用户接口、网络接口、摄像头、射频(RadioFrequency,RF)电路,传感器、音频电路、WI-FI模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard)等,可选用户接口还可以包括USB接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如蓝牙接口、WI-FI接口)等。
本领域技术人员可以理解,本实施例提供的一种计算机设备结构并不构成对该计算机设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储介质中还可以包括操作系统、网络通信模块。操作系统是管理和保存计算机设备硬件和软件资源的程序,支持信息处理程序以及其它软件或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与该实体设备中其它硬件和软件之间通信。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本申请可以借助软件加必要的通用硬件平台的方式来实现,也可以通过硬件实现将包含多个第一表情单元的目标角色模型导入动作捕捉系统中,从而通过动作捕捉系统进行人脸表情采集,将采集到的人脸表情解析为与第一表情单元对应的表情单元参数,得到与目标角色模型匹配的人脸表情的表情数据,而后将目标角色模型与表情控制器绑定,将表情数据烘焙到表情控制器中,得到与上述表情数据对应的目标角色模型的动画关键帧,再将动画关键帧烘焙到目标角色模型上,从而导出目标角色表情动画数据,以供动画引擎制作表情动画。本申请实施例相比于现有技术通过绑定骨骼制作表情动画的方式,驱动目标角色模型的表情单元录制动画关键帧,利用表情单元表现真实人脸表情,有助于更多的表现面部肌肉的变化,得到更加真实的人脸表情表现效果。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本申请所必须的。本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
上述本申请序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本申请的几个具体实施场景,但是,本申请并非局限于此,任何本领域的技术人员能思之的变化都应落入本申请的保护范围。
Claims (10)
1.一种表情动画制作方法,其特征在于,包括:
获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
2.根据权利要求1所述的方法,其特征在于,所述获取目标角色模型,具体包括:
获取第一样本角色模型,其中,所述第一样本角色模型包括多个第二表情单元;将所述第一样本角色模型的第二表情单元传递给所述目标角色模型,并依据所述第一表情单元与所述第二表情单元的对应关系,对所述目标角色模型进行表情单元转换,以得到包含所述第一表情单元的目标角色模型;或,
获取第二样本角色模型,其中,所述第二样本角色模型包括多个第一表情单元;将所述第二样本角色模型的第一表情单元传递给所述目标角色模型,以得到包含所述第一表情单元的目标角色模型;或,
获取第一初始角色模型,并在所述第一初始角色模型上添加所述第一表情单元,以得到所述目标角色模型;或,
获取第二初始角色模型,并基于接收到的对所述第二初始角色模型的雕刻数据,雕刻所述第二初始角色模型,以得到所述目标角色模型,其中所述雕刻数据包括所述第一表情单元。
3.根据权利要求1所述的方法,其特征在于,所述第一表情单元包括所述目标角色模型的脸部表情单元,所述目标角色模型包括头部模型以及第一附带模型,所述第一附带模型包括所述目标角色模型的睫毛模型、眉毛模型、上牙模型、角膜泪腺模型中至少一种;所述获取目标角色模型之后,所述方法还包括:
确定所述第一附带模型上的第一附带模型关键点以及与所述第一附带模型关键点对应的第一约束位置;
将所述第一附带模型关键点约束到所述第一约束位置上,并创建所述第一附带模型对应的临时骨骼;
对所述临时骨骼进行蒙皮,以使所述目标角色模型的运动受所述临时骨骼驱动;
分别确定与每个所述第一表情单元对应的附带表情单元,并对所述附带表情单元与所述第一表情单元进行合并,得到所述目标角色模型对应的第三表情单元;
依据所述第三表情单元更新所述目标角色模型,以使更新后的目标角色模型包括多个所述第三表情单元。
4.根据权利要求3所述的方法,其特征在于,所述目标角色模型还包括第二附带模型,所述第二附带模型包括所述目标角色模型的下牙模型;所述分别确定与每个所述第一表情单元对应的附带表情单元之前,所述方法还包括:
确定所述第一表情单元中与所述第二附带模型对应的约束表情单元,并在所述约束表情单元中添加所述第二附带模型对应的驱动表达式,以使所述第二附带模型跟随所述约束表情单元对应的动作。
5.根据权利要求3所述的方法,其特征在于,所述依据所述第三表情单元更新所述目标角色模型,具体包括:
获取所述目标角色模型对应的无表情初始模型;
将所述第三表情单元传递至所述无表情初始模型中,以更新所述目标角色模型。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色动画数据,具体包括:
对所述动画关键帧进行修复后,将修复后的动画关键帧烘焙到所述目标角色模型上,得到所述目标角色表情动画数据;
将所述目标角色表情动画数据导入至动画引擎中,以通过所述动画引擎生成动画。
7.一种表情动画制作装置,其特征在于,包括:
模型获取模块,用于获取目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
表情捕捉模块,用于将所述目标角色模型导入至动作捕捉系统中,通过所述动作捕捉系统采集人脸表情,并分析所述人脸表情对应的表情数据,其中,所述表情数据包括至少一个第一表情单元对应的表情单元参数;
参数传递模块,用于绑定表情控制器与所述目标角色模型,并将所述表情数据烘焙到所述表情控制器上,以使所述表情控制器依据所述表情数据驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的动画关键帧;
烘焙模块,用于将所述动画关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
8.根据权利要求7所述的装置,其特征在于,所述模型获取模块,具体用于:
获取第一样本角色模型,其中,所述第一样本角色模型包括多个第二表情单元;将所述第一样本角色模型的第二表情单元传递给所述目标角色模型,并依据所述第一表情单元与所述第二表情单元的对应关系,对所述目标角色模型进行表情单元转换,以得到包含所述第一表情单元的目标角色模型;或,
获取第二样本角色模型,其中,所述第二样本角色模型包括多个第一表情单元;将所述第二样本角色模型的第一表情单元传递给所述目标角色模型,以得到包含所述第一表情单元的目标角色模型;或,
获取第一初始角色模型,并在所述第一初始角色模型上添加所述第一表情单元,以得到所述目标角色模型;或,
获取第二初始角色模型,并基于接收到的对所述第二初始角色模型的雕刻数据,雕刻所述第二初始角色模型,以得到所述目标角色模型,其中所述雕刻数据包括所述第一表情单元。
9.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法。
10.一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110743189.3A CN113470148B (zh) | 2021-06-30 | 2021-06-30 | 表情动画制作方法及装置、存储介质、计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110743189.3A CN113470148B (zh) | 2021-06-30 | 2021-06-30 | 表情动画制作方法及装置、存储介质、计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113470148A true CN113470148A (zh) | 2021-10-01 |
CN113470148B CN113470148B (zh) | 2022-09-23 |
Family
ID=77877020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110743189.3A Active CN113470148B (zh) | 2021-06-30 | 2021-06-30 | 表情动画制作方法及装置、存储介质、计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113470148B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876549A (zh) * | 2024-02-02 | 2024-04-12 | 广州一千零一动漫有限公司 | 基于三维角色模型和动作捕捉的动画生成方法与系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
US20170091529A1 (en) * | 2015-09-29 | 2017-03-30 | Disney Enterprises, Inc. | Methods and systems of performing performance capture using an anatomically-constrained local model |
CN107657651A (zh) * | 2017-08-28 | 2018-02-02 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN108305309A (zh) * | 2018-04-13 | 2018-07-20 | 腾讯科技(成都)有限公司 | 基于立体动画的人脸表情生成方法和装置 |
CN110490958A (zh) * | 2019-08-22 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 动画绘制方法、装置、终端及存储介质 |
CN110766776A (zh) * | 2019-10-29 | 2020-02-07 | 网易(杭州)网络有限公司 | 生成表情动画的方法及装置 |
CN111028322A (zh) * | 2019-12-18 | 2020-04-17 | 北京像素软件科技股份有限公司 | 游戏动画表情生成方法、装置及电子设备 |
CN111530087A (zh) * | 2020-04-17 | 2020-08-14 | 完美世界(重庆)互动科技有限公司 | 一种在游戏中生成实时表情包的方法和装置 |
US20210043000A1 (en) * | 2019-05-15 | 2021-02-11 | Zhejiang Sensetime Technology Development Co., Ltd. | Method, apparatus and device for processing deformation of virtual object, and storage medium |
CN112906494A (zh) * | 2021-01-27 | 2021-06-04 | 浙江大学 | 一种面部捕捉方法、装置、电子设备及存储介质 |
CN112927331A (zh) * | 2021-03-31 | 2021-06-08 | 腾讯科技(深圳)有限公司 | 角色模型的动画生成方法和装置、存储介质及电子设备 |
-
2021
- 2021-06-30 CN CN202110743189.3A patent/CN113470148B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
US20170091529A1 (en) * | 2015-09-29 | 2017-03-30 | Disney Enterprises, Inc. | Methods and systems of performing performance capture using an anatomically-constrained local model |
CN107657651A (zh) * | 2017-08-28 | 2018-02-02 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN108305309A (zh) * | 2018-04-13 | 2018-07-20 | 腾讯科技(成都)有限公司 | 基于立体动画的人脸表情生成方法和装置 |
US20210043000A1 (en) * | 2019-05-15 | 2021-02-11 | Zhejiang Sensetime Technology Development Co., Ltd. | Method, apparatus and device for processing deformation of virtual object, and storage medium |
CN110490958A (zh) * | 2019-08-22 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 动画绘制方法、装置、终端及存储介质 |
CN110766776A (zh) * | 2019-10-29 | 2020-02-07 | 网易(杭州)网络有限公司 | 生成表情动画的方法及装置 |
CN111028322A (zh) * | 2019-12-18 | 2020-04-17 | 北京像素软件科技股份有限公司 | 游戏动画表情生成方法、装置及电子设备 |
CN111530087A (zh) * | 2020-04-17 | 2020-08-14 | 完美世界(重庆)互动科技有限公司 | 一种在游戏中生成实时表情包的方法和装置 |
CN112906494A (zh) * | 2021-01-27 | 2021-06-04 | 浙江大学 | 一种面部捕捉方法、装置、电子设备及存储介质 |
CN112927331A (zh) * | 2021-03-31 | 2021-06-08 | 腾讯科技(深圳)有限公司 | 角色模型的动画生成方法和装置、存储介质及电子设备 |
Non-Patent Citations (7)
Title |
---|
HAYATO ONIZUKA ET AL: "Landmark-Guided Deformation Transfer of Template Facial Expressions for Automatic Generation of Avatar Blendshapes", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOP (ICCVW)》 * |
于钦密: "Maya 三维动画角色头部搭建技术简述", 《科技资讯》 * |
孙治: "动画人物面部表情的快速设计与实现", 《中国优秀硕士学位论文全文数据库电子期刊 信息科技辑》 * |
张俊 等: "《MAYA 2012入门到精通》", 31 January 2012, 北京:中国青年出版社 * |
赵忠波 等: "《中国美术 动画设计1》", 28 February 2014, 沈阳:辽宁美术出版社 * |
路朝龙: "《Unity 3D游戏开发从入门到精通》", 30 November 2013, 北京:中国铁道出版社 * |
陈建生: "面向移动平台的人脸三维表情动画仿真设计与实现", 《中国优秀硕士学位论文全文数据库电子期刊 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876549A (zh) * | 2024-02-02 | 2024-04-12 | 广州一千零一动漫有限公司 | 基于三维角色模型和动作捕捉的动画生成方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113470148B (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274466A (zh) | 一种实时全身动作捕捉的方法、装置和系统 | |
CN110766776B (zh) | 生成表情动画的方法及装置 | |
CN110599573B (zh) | 一种基于单目相机的人脸实时交互动画的实现方法 | |
CN101324961B (zh) | 计算机虚拟世界中人脸部三维贴图方法 | |
CN107248195A (zh) | 一种增强现实的主播方法、装置和系统 | |
CN111833236B (zh) | 产生模拟用户的三维脸部模型的方法及装置 | |
CN107248185A (zh) | 一种虚拟仿真偶像实时直播方法及系统 | |
CN111899319B (zh) | 动画对象的表情生成方法和装置、存储介质及电子设备 | |
CN109621419A (zh) | 游戏角色表情的生成装置方法及装置、存储介质 | |
CN111383642B (zh) | 基于神经网络的语音应答方法、存储介质以终端设备 | |
CN113470148B (zh) | 表情动画制作方法及装置、存储介质、计算机设备 | |
CN112221145A (zh) | 游戏脸模生成方法及装置、存储介质及电子设备 | |
CN114053696B (zh) | 图像渲染处理方法、装置及电子设备 | |
CN104574480A (zh) | 一种三维动画中角色发型的快速生成方法 | |
JP4011327B2 (ja) | 表示オブジェクト提供装置、表示オブジェクト提供方式及び表示オブジェクト提供プログラム | |
CN114299205A (zh) | 表情动画制作方法及装置、存储介质、计算机设备 | |
CN110310352A (zh) | 一种角色动作编辑方法及装置、计算设备及存储介质 | |
CN113209626B (zh) | 一种游戏画面渲染方法及装置 | |
CN110610533B (zh) | 一种基于人脸三维网格模型进行表情捕捉的方法和设备 | |
CN111899321A (zh) | 一种虚拟角色表情展现的方法和装置 | |
Huang et al. | A process for the semi-automated generation of life-sized, interactive 3D character models for holographic projection | |
KR20200134623A (ko) | 3차원 가상 캐릭터의 표정모사방법 및 표정모사장치 | |
CN117197302A (zh) | 虚拟资源处理方法及装置 | |
WO2023128079A1 (ko) | 모션 기반 3d 아바타의 표정 재현 장치 및 방법 | |
CN111009022B (zh) | 一种模型动画生成的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |