CN115908646A - 动画的表情控制方法及装置、存储介质、终端 - Google Patents
动画的表情控制方法及装置、存储介质、终端 Download PDFInfo
- Publication number
- CN115908646A CN115908646A CN202111159931.2A CN202111159931A CN115908646A CN 115908646 A CN115908646 A CN 115908646A CN 202111159931 A CN202111159931 A CN 202111159931A CN 115908646 A CN115908646 A CN 115908646A
- Authority
- CN
- China
- Prior art keywords
- skeleton
- expression
- full
- model
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种动画的表情控制方法及装置、存储介质、终端,涉及动画制作技术领域,主要目的在于解决现有动画的表情控制效率较低的问题。包括:在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。主要用于动画的表情控制。
Description
技术领域
本发明涉及一种动画制作技术领域,特别是涉及一种动画的表情控制方法及装置、存储介质、终端。
背景技术
随着网络游戏的快速发展,游戏中动画角色的制作越来越精细化、逼真化,对于动画角色的表情控制的需求也越来越灵活。
目前,现有对游戏角色的表情控制通常基于构建的骨骼模型进行蒙皮,得到角色表情,并通过控制骨骼模型中的各个骨骼点进行表情控制,如对骨骼模型的旋转、缩放、位移控制面部表情,以将角色表情导入游戏引擎中进行动画制作。但是,由于骨骼模型为完整模型,在部分游戏引擎中进行表情控制时,各个骨骼带动骨骼模型的点、边、面进行运动,每一帧都要计算骨骼模型中各点、边、面被其他骨骼点影响了多少范围,有多少骨骼点参与,并进行单独编程开发,需要大量的运算量,增加游戏引擎的运行负担,浪费大量的数据、系统资源,导致动画的表情控制效率较低。
发明内容
有鉴于此,本发明提供一种动画的表情控制方法及装置、存储介质、终端,主要目的在于解决现有动画的表情控制效率较低的问题。
依据本发明一个方面,提供了一种动画的表情控制方法,包括:
在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;
确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;
基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
进一步地,在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型之前,所述方法还包括:
基于3Dmax中的骨骼辅助组件创建所述目标动画对象的基础骨骼模型,所述基础骨骼模型中包含基于骨骼链连接的骨骼点;
在所述3Dmax中对所述基础骨骼模型中的骨骼链进行阻断处理,生成全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点的骨骼参数;
按照目标文件格式存储所述全骨骼模型,以按照所述目标文件格式加载所述全骨骼模型。
进一步地,所述生成全骨骼模型之后,所述方法还包括:
基于骨骼控制需求信息为所述全骨骼模型中各骨骼点绑定骨骼控制器,所述骨骼控制需求信息用于表征各个骨骼的控制约束内容,以基于所述骨骼控制器对所述骨骼点进行约束控制;
为所述全骨骼模型中各骨骼点配置绑定的所述骨骼控制器的控制参数。
进一步地,所述确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系包括:
基于所述全骨骼模型中各骨骼点的身份标识在捏脸系统中识别所述骨骼点;
基于所述捏脸系统识别骨骼表情匹配关系中与所述骨骼点对应的表情特征部位,确定所述骨骼点与所述表情特征部位之间的连接关系,所述表情特征部位包括基于面部器官所产生表情所对应的特征部位。
进一步地,所述方法还包括:
通过表情捕捉系统捕捉基础表情数据,并在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情。
进一步地,所述在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情包括:
在3Dmax中识别所述基础表情数据对应的表情内容,并基于所述表情内容调整所述全骨骼模型中各骨骼点对应骨骼控制器的控制参数;
根据调整各骨骼点对应骨骼控制器的控制参数后的全骨骼模型生成目标基础表情。
进一步地,所述基于所述连接关系对所述目标动画对象进行表情控制包括:
导入所述目标基础表情;
确定所述目标基础表情的各骨骼点的骨骼控制器对应的第一控制参数;
基于所述第一控制参数对所述目标动画对象的各骨骼点的骨骼控制器对应的第二控制参数进行表情控制。
依据本发明另一个方面,提供了一种动画的表情控制装置,包括:
导入模块,用于在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;
确定模块,用于确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;
控制模块,用于基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
进一步地,所述装置还包括:
创建模块,用于基于3Dmax中的骨骼辅助组件创建所述目标动画对象的基础骨骼模型,所述基础骨骼模型中包含基于骨骼链连接的骨骼点;
生成模块,用于在所述3Dmax中对所述基础骨骼模型中的骨骼链进行阻断处理,生成全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点的骨骼参数;
存储模块,用于按照目标文件格式存储所述全骨骼模型,以按照所述目标文件格式加载所述全骨骼模型。
进一步地,所述装置还包括;
绑定模块,用于基于骨骼控制需求信息为所述全骨骼模型中各骨骼点绑定骨骼控制器,所述骨骼控制需求信息用于表征各个骨骼的控制约束内容,以基于所述骨骼控制器对所述骨骼点进行约束控制;
配置模块,用于为所述全骨骼模型中各骨骼点配置绑定的所述骨骼控制器的控制参数。
进一步地,所述确定模块包括:
识别单元,用于基于所述全骨骼模型中各骨骼点的身份标识在捏脸系统中识别所述骨骼点;
确定单元,用于基于所述捏脸系统识别骨骼表情匹配关系中与所述骨骼点对应的表情特征部位,确定所述骨骼点与所述表情特征部位之间的连接关系,所述表情特征部位包括基于面部器官所产生表情所对应的特征部位。
进一步地,所述装置还包括:
修正模块,用于通过表情捕捉系统捕捉基础表情数据,并在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情。
进一步地,所述修正模块包括:
调整单元,用于在3Dmax中识别所述基础表情数据对应的表情内容,并基于所述表情内容调整所述全骨骼模型中各骨骼点对应骨骼控制器的控制参数;
生成单元,用于根据调整各骨骼点对应骨骼控制器的控制参数后的全骨骼模型生成目标基础表情。
进一步地,所述控制模块包括:
导入单元,用于导入所述目标基础表情;
调整单元,用于确定所述目标基础表情的各骨骼点的骨骼控制器对应的第一控制参数;
控制单元,用于基于所述第一控制参数对所述目标动画对象的各骨骼点的骨骼控制器对应的第二控制参数进行表情控制。
根据本发明的又一方面,提供了一种存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述动画的表情控制方法对应的操作。
根据本发明的再一方面,提供了一种终端,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述动画的表情控制方法对应的操作。
借由上述技术方案,本发明实施例提供的技术方案至少具有下列优点:
本发明提供了一种动画的表情控制方法及装置、存储介质、终端,与现有技术相比,本发明实施例通过在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画,大大减少基于骨骼模型进行表情控制动画制作的运算量,降低游戏引擎动画制作的系统资源消耗,使得基于骨骼模型进行表情控制更为精准,从而提高动画表情控制的效率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的第一种动画的表情控制方法流程图;
图2示出了本发明实施例提供的第二种动画的表情控制方法流程图;
图3示出了本发明实施例提供的第三种动画的表情控制方法流程图;
图4示出了本发明实施例提供的第四种动画的表情控制方法流程图;
图5示出了本发明实施例提供的第五种动画的表情控制方法流程图;
图6示出了本发明实施例提供的一种动画的表情控制装置组成框图;
图7示出了本发明实施例提供的一种终端的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
由于游戏角色的表情控制通常基于构建的骨骼模型进行蒙皮,得到角色表情,并通过控制骨骼模型中的各个骨骼点进行表情控制,但是,由于骨骼模型为完整模型,在部分游戏引擎中进行表情控制时,各个骨骼带动骨骼模型的点、边、面进行运动,每一帧都要计算骨骼模型中各点、边、面被其他骨骼点影响了多少范围,有多少骨骼点参与,并进行单独编程开发,需要大量的运算量,增加游戏引擎的运行负担,浪费大量的数据、系统资源,导致动画的表情控制效率较低,因此,本发明实施例提供了一种动画的表情控制方法,如图1所示,该方法包括:
101、在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型。
本发明实施例中的动画对象适用于不同类型游戏中的游戏角色、游戏场景物、NPC(Non-Player Character,非玩家角色)等,创建对动画对象的动画表情,可以基于动画对象的骨骼模型进行制作,即构建角色的面部骨骼模型,以进行在游戏引擎中对骨骼模型进行捏脸,实现不同表情的控制。其中,本发明实施例中的全骨骼模型中包含具有独立关系的各骨骼点,即全骨骼模型中所包括的骨骼点之间不具有相关关联的关系,例如,一个骨骼点进行旋转、缩放、位移,不会引起其他骨骼点的旋转、缩放、位移。
需要说明的是,对骨骼模型进行创建、操作等操作是在三维计算机动画制作软件3Dmax(3D Studio Max)中实现的,如在3Dmax中创建目标动画对象的全骨骼模型,导入至当前游戏引擎中进行动画的表情控制操作,即在UE4引擎中导入,从而在UE4引擎中进行表情控制。另外,本发明实施例中的UE4引擎可以适用于大型网络游戏的制作,也可以将在UE4引擎中制作的表情控制动画内容用于影视动画渲染,本发明实施例不做具体限定。
102、确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系。
本发明实施例中,由于全骨骼模型中各个骨骼点之间是相互独立的,并为了避免表情控制中因不同表情所产生的面部拖拽效果,因此,确定不同表情特征部位与全骨骼模型中各骨骼点之间的连接关系,此连接关系用于在进行表情控制时,基于骨骼点来控制调整不同的表情。其中,表情特征部位用于表征面部五官体现表情控制的各个器官,例如,眼睛、眉毛、嘴、脸颊等,以便与各个骨骼点之间确定连接关系,具体的,一个表情特征部位可以与多个骨骼点之间具有连接关系,一个表情特征部位也可以与一个骨骼点之间具有连接关系,本发明实施例不做具体限定。进一步地,由于不同表情特征部位的在实现逼真的表情控制时,针对不同表情特征部位,可以基于表情特征部位的轮廓模型的顶点数据与骨骼点之间对应,从而使连接关系更为细致,以实现表情的精准控制。
需要说明的是,由于不同的面部表情需要不同表情特征部位进行牵动,因此,在捏脸过程中,需要依据不同表情内容来建立不同表情特征部位与各骨骼点之间的连接关系,例如笑的表情,需要建立嘴、眼睛与各个骨骼点之间的连接关系,从而在进行表情控制时,选取骨骼点后依据连接关系控制表情实现。另外,本发明实施例中,在进行不同的表情控制时,为了快速、便捷的将各骨骼点与表情特征部位进行对应,开发人员可以预先配置骨骼点与表情特征部位之前的连接对应表,以便当前游戏引擎进行读取确定。
103、基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
本发明实施例中,为了实现不同的表情控制效果,在确定连接关系后,对目标动画对象进行表情控制。具体的,可以控制对表情特征部位的移动,结合连接关系来移动骨骼点,然后进行蒙皮处理;还可以控制以完成蒙皮的各骨骼点的移动,结合连接关系来移动表情特征部位,例如,针对骨骼点的移动,以连接关系为基础,动态的控制眼睛、嘴巴进行表情调整,从而实现动画表情的控制,在当前游戏系统中进行表情动画制作。本发明实施例中的表情包括但不限于微笑、哭泣、难过、惊讶等,以使在基于全骨骼模型中各骨骼点进行表情控制时,大大减少了运算量。
在一个本发明实施例中,为了进一步限定及说明,如图2所示,步骤101在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型之前,所述方法还包括:201、基于3Dmax中的骨骼辅助组件创建所述目标动画对象的基础骨骼模型;202、在所述3Dmax中对所述基础骨骼模型中的骨骼链进行阻断处理,生成全骨骼模型;203、按照目标文件格式存储所述全骨骼模型。
为了减少对骨骼模型中各骨骼之间基于骨骼链的联动计算量,创建各骨骼点独立存在的全骨骼模型,以对目标动画对象进行表情控制,基于3Dmax中的骨骼辅助组件创建基础骨骼模型,以对基础骨骼模型中各骨骼链进行阻断,得到全骨骼模型。其中,3Dmax为构建目标动画对象模型的应用软件,本发明实施例中,基于3Dmax的骨骼辅助组件首先创建目标动画对象的基础骨骼模型。具体的,骨骼辅助组件包括但不限于辅助对象组件、曲线控制器、链接关系组件、层级关系组件,以创建基础骨骼模型,创建的基础骨骼模型中包含基于骨骼链连接的骨骼点。本发明实施例中,为了得到全骨骼模型,在3Dmax中对基础骨骼模型的各骨骼链进行阻断处理,从而使得全骨骼模型中各个骨骼点之间无层级连接,即使得各个骨骼点之间相互独立。同时,由于构建的全骨骼模型中各个骨骼点相互独立,因此,全骨骼模型中还包含具有独立关系的各骨骼点的骨骼参数,以作为独立进行控制的数据基础。
需要说明的是,由于全骨骼模型为基于3Dmax进行创建,为了获取全骨骼模型以在特定游戏引擎中进行表情控制(如捏脸)等操作,按照目标文件格式存储全骨骼模型,以按照目标文件格式加载全骨骼模型,例如,在3Dmax中创建全骨骼模型后,存储为fbx格式,以导入到当前游戏引擎,如UE4引擎中进行捏脸,本发明实施例不做具体限定。
在一个本发明实施例中,为了进一步限定及说明,如图3所示,步骤202生成全骨骼模型之后,所述方法还包括:301、基于骨骼控制需求信息为所述全骨骼模型中各骨骼点绑定骨骼控制器;302、为所述全骨骼模型中各骨骼点配置绑定的所述骨骼控制器的控制参数。
由于对动画对象进行表情控制需要对骨骼点进行位移、旋转、缩放等操作,为了实现基于全骨骼模型进行表情控制,因此,对全骨骼模型对各骨骼点绑定骨骼控制器,并为各骨骼点绑定的骨骼控制器配置控制参数。具体的,在绑定骨骼控制器时,由于各个骨骼点之间是相互独立的,因此,需要基于骨骼控制需求信息进行限定,骨骼控制需求信息用于表征各个骨骼的控制约束内容,包括但不限于对一个骨骼控制器所控制骨骼点的个数、骨骼控制器对骨骼点控制的方式(如位移、旋转、缩放)等,此骨骼控制需求信息可以根据不同游戏场景、不同游戏角色进行配置,以基于骨骼控制器对各骨骼点进行约束控制。
另外,由于一个骨骼控制器可以被一个骨骼点进行绑定,也可以被多个骨骼点进行绑定,因此,为了实现灵活化的控制效果,使全骨骼模型中各骨骼点可以精确地进行表情控制,因此,为各骨骼点所绑定的骨骼控制器配置控制参数,以使基于控制参数的调整来驱动骨骼控制器对各骨骼点进行控制,本发明实施例不做具体限定。
在一个本发明实施例中,为了进一步限定及说明,如图4所示,步骤102确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系包括:1041、基于所述全骨骼模型中各骨骼点的身份标识在捏脸系统中识别所述骨骼点;1042、基于所述捏脸系统识别骨骼表情匹配关系中与所述骨骼点对应的表情特征部位,确定所述骨骼点与所述表情特征部位之间的连接关系。
由于全骨骼模型中各骨骼点是独立的,为了通过骨骼控制器进行表情控制,需要确定表情特征部位与各骨骼点之间的连接关系,从而进行准确的表情控制。具体的,在实现捏脸场景时,基于当前游戏引擎中的捏脸系统识别骨骼点,即在构建全骨骼模型时,对每个骨骼点定义各自的身份标识,然后引入捏脸系统中按照各个身份标识对骨骼点进行识别。同时,在捏脸系统中,预先配置骨骼表情匹配关系,作为不同表情与不同骨骼点之间的匹配关系,以数据列表形式存储,以便捏脸系统进行识别。另外,本发明是实施例中的表情特征部位包括基于面部器官所产生表情所对应的特征部位,例如,微笑表情所对应的特征部位包括眼睛、眉毛、嘴,因此,捏脸系统可以从骨骼表情匹配关系中识别眼睛、眉毛、嘴所对应的骨骼点,从而确定出连接关系。
在一个本发明实施例中,为了进一步限定及说明,还包括:通过表情捕捉系统捕捉基础表情数据,并在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情。
为了在捏脸场景中,更好地实现逼真的表情控制,并减少骨骼模型的计算量,可以基于表情捕捉系统捕捉真实人物的基础表情,作为捏脸或者表情控制的参照基础。具体的,可以通过如面部捕捉应用AR Face对真实人物的面部进行拍摄,得到基础表情数据,基础表情数据包括但不限于微笑、愤怒、平静、大笑等表情图像数据,本发明实施例不做具体限定。同时,为了得到适用于动画制作或者捏脸操作的目标基础表情,将得到的基础表情数据在3Dmax中对全骨骼模型进行修正,从而的目标基础表情。
需要说明的是,本发明实施例中,针对不同的应用场景,为了满足不同表情精细化控制,对基础表情数据的捕捉,可以按照表情业务需求来确定捕捉作为基础表情数据的表情内容、表情个数等,例如,针对大型网络游戏,对角色表情的展现需求较大,因此,可以捕捉并对全骨骼模型修正得到30个或50个的目标基础表情,从而使在进行捏脸时作为参考,当然的,若对角色表的展现需求较小,则可以捕捉并对全骨骼模型修正得到5个或10个的目标基础表情,本发明实施例不做具体限定。
在一个本发明实施例中,为了进一步限定及说明,所述在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情包括:在3Dmax中识别所述基础表情数据对应的表情内容,并基于所述表情内容调整所述全骨骼模型中各骨骼点对应骨骼控制器的控制参数;根据调整各骨骼点对应骨骼控制器的控制参数后的全骨骼模型生成目标基础表情。
为了实现目标基础表情的生成,通过在3Dmax中将基础表情数据与全骨骼模型进行表情修正,识别基础表情数据的表情内容,即识别捕捉得到的表情内容,此时,可以基于表情捕捉系统在捕捉基础表情数据时直接确定表情内容,以在3Dmax中识别基础表情数据的表情内容。同时,为了得到准确地、生动地表情效果,按照表情内容调整全骨骼模型中各骨骼点对应骨骼控制器的控制参数,使得在对骨骼点进行控制时,更加精细化,更加逼真。
需要说明的是,由于通过基础表情数据对全骨骼模型对应的骨骼控制器的控制参数进行修正调整,可以在3Dmax中制作出具有联动效果的目标基础表情,从而在实现捏脸时,控制一处脸部部位,则带动其他部位进行联动。在3Dmax中,通过对全骨骼模型的各骨骼点的骨骼控制器的控制参数修正,例如,制作出眼睛联动效果,即上眼皮、下眼皮跟随眼球骨骼点一起运动;制作出张嘴联动效果,即下嘴唇、嘴角、上嘴角跟随张嘴骨骼点运动,同时鼻翼、苹果肌、颧骨、笑肌、咬肌、脸颊、下颌跟随张嘴骨骼点一起运动;制作出嘴角上扬联动效果,即上嘴唇、下嘴唇跟随嘴角骨骼点一起运动。其中,脸部左右的各个骨骼点所对应的骨骼控制器具备对称控制效果,并且,除以上控制脸部部位以外,还可以添加其他脸部部位控制,本发明实施例不做具体限定。
在一个本发明实施例中,为了进一步限定及说明,如图5所示,步骤基于所述连接关系对所述目标动画对象进行表情控制包括:1051、导入所述目标基础表情;1052、确定所述目标基础表情的各骨骼点的骨骼控制器对应的第一控制参数;1053、基于所述第一控制参数对所述目标动画对象的各骨骼点的骨骼控制器对应的第二控制参数进行表情控制。
针对基于目标基础表情对目标动画对象进行表情控制的场景,为了实现灵活、逼真的面部表情的控制效果,游戏引擎中可以导入已经生成好的目标基础表情,从而进行面部表情补充的控制实现。具体的,如在游戏引擎中导入已经在3Dmax制作好的目标基础表情后,用户可以通过对目标基础表情进行选取,然后,确定目标基础表情的各个骨骼点的骨骼控制器的第一控制参数,从而通过此第一控制参数来对目标动画对象的各骨骼点的骨骼控制器所对应的第二控制参数进行表情控制,即实现将目标基础表情作为表情补充内容融入目标动画对象的表情中,大大减少了表情控制的运算处理量。其中,基于第一控制参数对第二控制参数进行表情控制所实现的效果包含对目标动画对象的表情特部位的直接调整,而对于各骨骼点,当控制参数变化后,可以实现对骨骼点的旋转、位移等调整,本发明实施例不做具体限定。
本发明实施例提供了一种动画的表情控制方法,与现有技术相比,本发明实施例通过在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画,大大减少基于骨骼模型进行表情控制动画制作的运算量,降低游戏引擎动画制作的系统资源消耗,使得基于骨骼模型进行表情控制更为精准,从而提高动画表情控制的效率。
进一步的,作为对上述图1所示方法的实现,本发明实施例提供了一种动画的表情控制装置,如图6所示,该装置包括:
导入模块61,用于在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;
确定模块62,用于确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;
控制模块63,用于基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
进一步地,所述装置还包括:
创建模块,用于基于3Dmax中的骨骼辅助组件创建所述目标动画对象的基础骨骼模型,所述基础骨骼模型中包含基于骨骼链连接的骨骼点;
生成模块,用于在所述3Dmax中对所述基础骨骼模型中的骨骼链进行阻断处理,生成全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点的骨骼参数;
存储模块,用于按照目标文件格式存储所述全骨骼模型,以按照所述目标文件格式加载所述全骨骼模型。
进一步地,所述装置还包括;
绑定模块,用于基于骨骼控制需求信息为所述全骨骼模型中各骨骼点绑定骨骼控制器,所述骨骼控制需求信息用于表征各个骨骼的控制约束内容,以基于所述骨骼控制器对所述骨骼点进行约束控制;
配置模块,用于为所述全骨骼模型中各骨骼点配置绑定的所述骨骼控制器的控制参数。
进一步地,所述确定模块包括:
识别单元,用于基于所述全骨骼模型中各骨骼点的身份标识在捏脸系统中识别所述骨骼点;
确定单元,用于基于所述捏脸系统识别骨骼表情匹配关系中与所述骨骼点对应的表情特征部位,确定所述骨骼点与所述表情特征部位之间的连接关系,所述表情特征部位包括基于面部器官所产生表情所对应的特征部位。
进一步地,所述装置还包括:
修正模块,用于通过表情捕捉系统捕捉基础表情数据,并在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情。
进一步地,所述修正模块包括:
调整单元,用于在3Dmax中识别所述基础表情数据对应的表情内容,并基于所述表情内容调整所述全骨骼模型中各骨骼点对应骨骼控制器的控制参数;
生成单元,用于根据调整各骨骼点对应骨骼控制器的控制参数后的全骨骼模型生成目标基础表情。
进一步地,所述控制模块包括:
导入单元,用于导入所述目标基础表情;
调整单元,用于确定所述目标基础表情的各骨骼点的骨骼控制器对应的第一控制参数;
控制单元,用于基于所述第一控制参数对所述目标动画对象的各骨骼点的骨骼控制器对应的第二控制参数进行表情控制。
本发明实施例提供了一种动画的表情控制装置,与现有技术相比,本发明实施例通过在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画,大大减少基于骨骼模型进行表情控制动画制作的运算量,降低游戏引擎动画制作的系统资源消耗,使得基于骨骼模型进行表情控制更为精准,从而提高动画表情控制的效率。根据本发明一个实施例提供了一种存储介质,所述存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的动画的表情控制方法。
图7示出了根据本发明一个实施例提供的一种终端的结构示意图,本发明具体实施例并不对终端的具体实现做限定。
如图7所示,该终端可以包括:处理器(processor)702、通信接口(CommunicationsInterface)704、存储器(memory)706、以及通信总线708。
其中:处理器702、通信接口704、以及存储器706通过通信总线708完成相互间的通信。
通信接口704,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器702,用于执行程序710,具体可以执行上述动画的表情控制方法实施例中的相关步骤。
具体地,程序710可以包括程序代码,该程序代码包括计算机操作指令。
处理器702可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。终端包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器706,用于存放程序710。存储器706可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序710具体可以用于使得处理器702执行以下操作:
在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;
确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;
基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (10)
1.一种动画的表情控制方法,其特征在于,包括:
在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;
确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;
基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
2.根据权利要求1所述的方法,其特征在于,所述在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型之前,所述方法还包括:
基于3Dmax中的骨骼辅助组件创建所述目标动画对象的基础骨骼模型,所述基础骨骼模型中包含基于骨骼链连接的骨骼点;
在所述3Dmax中对所述基础骨骼模型中的骨骼链进行阻断处理,生成全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点的骨骼参数;
按照目标文件格式存储所述全骨骼模型,以按照所述目标文件格式加载所述全骨骼模型。
3.根据权利要求2所述的方法,其特征在于,所述生成全骨骼模型之后,所述方法还包括:
基于骨骼控制需求信息为所述全骨骼模型中各骨骼点绑定骨骼控制器,所述骨骼控制需求信息用于表征各个骨骼的控制约束内容,以基于所述骨骼控制器对所述骨骼点进行约束控制;
为所述全骨骼模型中各骨骼点配置绑定的所述骨骼控制器的控制参数。
4.根据权利要求1所述的方法,其特征在于,所述确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系包括:
基于所述全骨骼模型中各骨骼点的身份标识在捏脸系统中识别所述骨骼点;
基于所述捏脸系统识别骨骼表情匹配关系中与所述骨骼点对应的表情特征部位,确定所述骨骼点与所述表情特征部位之间的连接关系,所述表情特征部位包括基于面部器官所产生表情所对应的特征部位。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过表情捕捉系统捕捉基础表情数据,并在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情。
6.根据权利要求5所述的方法,其特征在于,所述在3Dmax中将所述基础表情数据与所述全骨骼模型进行表情修正,得到目标基础表情包括:
在3Dmax中识别所述基础表情数据对应的表情内容,并基于所述表情内容调整所述全骨骼模型中各骨骼点对应骨骼控制器的控制参数;
根据调整各骨骼点对应骨骼控制器的控制参数后的全骨骼模型生成目标基础表情。
7.根据权利要求6所述的方法,其特征在于,所述基于所述连接关系对所述目标动画对象进行表情控制包括:
导入所述目标基础表情;
确定所述目标基础表情的各骨骼点的骨骼控制器对应的第一控制参数;
基于所述第一控制参数对所述目标动画对象的各骨骼点的骨骼控制器对应的第二控制参数进行表情控制。
8.一种动画的表情控制装置,其特征在于,包括:
导入模块,用于在UE4引擎中导入基于3Dmax创建目标动画对象的全骨骼模型,所述全骨骼模型中包含具有独立关系的各骨骼点;
确定模块,用于确定所述目标动画对象的表情特征部位与所述全骨骼模型中各骨骼点之间的连接关系;
控制模块,用于基于所述连接关系对所述目标动画对象进行表情控制,制作表情动画。
9.一种存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的动画的表情控制方法对应的操作。
10.一种终端,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的动画的表情控制方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111159931.2A CN115908646A (zh) | 2021-09-30 | 2021-09-30 | 动画的表情控制方法及装置、存储介质、终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111159931.2A CN115908646A (zh) | 2021-09-30 | 2021-09-30 | 动画的表情控制方法及装置、存储介质、终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115908646A true CN115908646A (zh) | 2023-04-04 |
Family
ID=86495248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111159931.2A Pending CN115908646A (zh) | 2021-09-30 | 2021-09-30 | 动画的表情控制方法及装置、存储介质、终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115908646A (zh) |
-
2021
- 2021-09-30 CN CN202111159931.2A patent/CN115908646A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270489B2 (en) | Expression animation generation method and apparatus, storage medium, and electronic apparatus | |
US20200302668A1 (en) | Expression animation data processing method, computer device, and storage medium | |
CN108335345B (zh) | 面部动画模型的控制方法及装置、计算设备 | |
CN110766776B (zh) | 生成表情动画的方法及装置 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
CN111652123B (zh) | 图像处理和图像合成方法、装置和存储介质 | |
CN110555507B (zh) | 虚拟机器人的交互方法、装置、电子设备及存储介质 | |
JP2012519333A (ja) | 画像変換システムおよび方法 | |
CN109151540A (zh) | 视频图像的交互处理方法及装置 | |
CN109621419B (zh) | 游戏角色表情的生成装置方法及装置、存储介质 | |
CN113689538B (zh) | 一种视频生成方法、装置、电子设备及存储介质 | |
CN112221145B (zh) | 游戏脸模生成方法及装置、存储介质及电子设备 | |
WO2022033206A1 (zh) | 动画对象的表情生成方法和装置、存储介质及电子设备 | |
CN110148191A (zh) | 视频虚拟表情生成方法、装置及计算机可读存储介质 | |
CN114202615A (zh) | 人脸表情的重建方法、装置、设备和存储介质 | |
WO2022257766A1 (zh) | 图像处理方法、装置、设备及介质 | |
CN111599002A (zh) | 用于生成图像的方法和装置 | |
CN114026524B (zh) | 用于动画化人脸的方法、系统、以及计算机可读介质 | |
CN116843809A (zh) | 针对虚拟角色的处理方法和装置 | |
CN115908646A (zh) | 动画的表情控制方法及装置、存储介质、终端 | |
CN115937371B (zh) | 人物模型的生成方法和系统 | |
CN117195563A (zh) | 动画生成方法以及装置 | |
CN117726725A (zh) | 一种3d宠物角色生成控制方法及相关设备 | |
CN113908553A (zh) | 游戏角色表情生成方法、装置、电子设备及存储介质 | |
CN115908645A (zh) | 动画的制作方法及装置、存储介质、终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |