CN107657650B - 基于Maya软件的动画模型角色绑定方法以及系统 - Google Patents
基于Maya软件的动画模型角色绑定方法以及系统 Download PDFInfo
- Publication number
- CN107657650B CN107657650B CN201710710186.3A CN201710710186A CN107657650B CN 107657650 B CN107657650 B CN 107657650B CN 201710710186 A CN201710710186 A CN 201710710186A CN 107657650 B CN107657650 B CN 107657650B
- Authority
- CN
- China
- Prior art keywords
- model
- tool
- facial
- expression
- binding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于Maya软件的动漫模型角色绑定方法,包括如下步骤:构建虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;在所述身体模型和所述面部模型上分别添加;将存储在表情修型数据库中的面部表情信息赋予所述角色表情,对产生的角色表情进行修正;将存储在身体修型数据库中的身体动作信息赋予所述角色动作,对产生的角色动作进行修正。本发明提供的角色绑定方法包括身体模型和面部模型两套独立的绑定方法,能够精细地控制面部表情和身体动作,确保角色表情和角色动作更加丰富、更具有真实感。
Description
技术领域
本发明涉及3D动画制作领域,尤其涉及一种基于Maya软件的动漫模型角色绑定方法以及系统。
背景技术
虚拟动漫模型的综合绑定在制作动画的过程中是最常用的,只要是有角色的动画,一定需要对该角色的动画模型进行综合绑定。
目前,传统的动漫制作方法中,人物绑定是通过添加人物骨骼和关键位置的控制器来完成,操作复杂。且绑定执行步僵化,需等待角色模型全部绑定完成后才能给到下一制作环节进行动画制作,而进行一个角色模型的绑定需耗费多个工作日,就会导致下一制作环节由于需要等待角色模型的绑定结果而无法正常开展工作,造成资源浪费;现阶段虽然有些基于Maya软件开发的小插件可以帮助加快动漫模型的绑定工作,但是这些小插件都是零散的,互相之间不能贯通使用,导致总耗时仍然很长。
因此,急需一种和现有数字化动漫电影生产相契合的动漫模型角色绑定方法以及系统。
发明内容
本发明要解决的技术问题是:针对现有技术中动漫模型角色绑定方法复杂,步骤僵化等问题,提供一种简单高效、执行步骤灵活的动漫模型角色绑定方法以及系统。
本发明就上述技术问题而提出的技术方案如下:一方面,提供一种基于Maya软件的动漫模型角色绑定方法,包括如下步骤:
S1:构建与动漫角色等比例尺的虚拟数学三维模型,形成虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;
S2:在所述身体模型上绑定身体骨骼系统,所述身体骨骼系统和所述身体控制器用于驱动所述身体模型产生角色动作;
S3:在所述面部模型上绑定面部骨骼系统,所述面部骨骼系统和所述面控制器用于驱动所述面部模型产生角色表情;
S4:依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正;
S5:依据RBF修型球设置,将存储在修型球中的身体动作信息赋予所述身体模型,对所述身体模型产生的角色动作进行修正。
其中,所述表情修型数据库中存储的面部表情信息和所述身体修型数据库中存储的身体动作信息均设置为最高级别的控制点,用于完全覆盖所述面部骨骼系统和所述面控制器驱动所述面部模型产生的角色表情和所述身体骨骼系统和所述身体控制器驱动所述身体模型产生的角色动作。
其中,所述步骤S2还包括如下步骤:
S20:导入所述身体骨骼系统到Maya场景中,并调整所述身体骨骼系统对齐到所述身体模型的相应位置;
S21:依据用户自定义的绑定执行步指令,在所述身体模型上自动绑定所述身体骨骼系统。
其中,每一所述身体模型上的点同时绑定给至少两个所述身体骨骼系统中的身体骨骼;每一所述面部模型上的点同时绑定给至少两个所述面部骨骼系统中的面部骨骼。
其中,所述步骤S4还包括如下步骤:
S41:运用BlendShape变形处理创建表情修型体并存储到表情修型数据库中,每一所述表情修型体均包含一面部表情信息;
S42:运用关键帧动画设置,在所述面控制器的属性参数与所述表情修型体之间建立驱动关系;
S43:调整所述面控制器的属性参数驱动所述面部模型产生角色表情,依据所述驱动关系,当所述面控制器的属性参数达到一设定值时,将所述表情修型体包含的面部表情信息赋予所述角色表情,修正所述角色表情。
其中,所述步骤S5还包括如下步骤:
S51:创建身体修型体并存储到身体修型数据库中,每一所述身体修型体均包含一身体动作信息;
S52:在所述身体骨骼系统的关键部位创建修型球,每一所述修型球均对应一所述身体动作信息;
S53:利用RBF定位技术,对所述身体控制器属性参数和所述修型球进行匹配;
S54:调整所述身体控制器的属性参数驱动所述身体模型产生角色动作,依据所述修型球,当所述身体控制器的属性参数达到设定值时,将所述修型球包含的所述身体动作信息赋予所述角色动作,修正所述角色动作。
其中,所述步骤S41还包括如下步骤:
S411:多次复制所述面部模型,得到面部模型a、面部模型b和面部模型c;
S412:将需要的角色表情分别分解到所述面部模型a、所述面部模型b、所述面部模型c进行修改,通过BlendShape变形处理合并所述修改得到所述表情修型体并存储到所述表情修型数据库中。
另一方面,提供一种基于Maya软件开发的模块化动漫模型角色绑定系统,所述绑定系统包括:
基础模型模块,用于构建与动漫角色等比例尺的虚拟数学三维模型,形成虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;
身体绑定模块,用于在所述身体模型上绑定身体骨骼系统,所述身体骨骼系统和所述身体控制器用于驱动所述身体模型产生角色动作;
表情绑定模块,用于在所述面部模型上绑定面部骨骼系统,所述面部骨骼系统和所述面控制器用于驱动所述面部模型产生角色表情,并依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正;
身体修型模块,用于依据RBF修型球设置,将存储在修型球中的身体动作信息赋予所述身体模型,对所述身体模型产生的角色动作进行修正。
其中,所述身体绑定模块包括身体绑定主界面、第一工具模块和第二工具模块;
所述身体绑定主界面包括用于导入身体模型的工具、用于在所述身体模型上添加绑定的工具和用于连接所述身体修型模型的工具;
所述第一工具模块包括身体骨骼调节模块和身体控制器调节模块;
所述身体骨骼调节模块包括用于显示所述身体骨骼轴向的工具、用于选择所述身体骨骼的工具、用于存储所述身体骨骼位置信息的工具、用于导入所述身体骨骼位置信息的工具、用于在所述身体骨骼上添加参考球的工具以及用于删除所述参考球的工具;
所述身体控制器调节模块包括用于存储所述身体控制器形状信息的工具、用于导入所述身体控制器形状信息的工具、用于分别从不同方位镜像所述身体控制器的工具以及工具;
所述第二工具模块包括用于锁定所述身体模型的工具、用于解锁所述身体模型的工具、用于隐藏所述身体骨骼位置信息的工具以及用于显示所述身体骨骼位置信息的工具。
其中,所述表情绑定模块包括用于导入所述面部模型的工具、用于在所述面部模型上添加绑定的工具、用于设定关键帧动画的工具、用于创建表情修型数据库的工具、用于修改所述关键帧动画的工具、用于修改存储于所述表情修型数据库中的表情修型体的工具以及综合信息显示模块;
所述身体修型模块包括用于创建修型球的工具、用于创建身体修型数据库的工具、用于修改所述修型球设置的工具以及用于修改存储于所述身体修型数据库中的身体修型体的工具。
本发明提供的一种基于Maya软件的动漫模型角色绑定方法以及系统具有以下技术效果:所述角色绑定方法包括身体模型和面部模型两套独立的绑定方法,能够精细地控制面部表情动作和身体动作,确保角色表情和角色动作更加丰富、更具有真实感;同时,步骤S1~S5之间相互独立,每次执行步骤S1~S5后的绑定结果都可以给到动画师制作动画,即动漫模型绑定的同时可以进行动画制作,方便各个制作小组之间的工作配合,提高制作效率。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明提供的动漫模型角色绑定方法的流程图;
图2是本发明提供的身体模型绑定后的结果示意图;
图3是本发明提供的面部模型绑定后的结果示意图;
图4是本发明提供的身体绑定模块的操作界面示意图;
图5是本发明提供的表情绑定模块的操作界面示意图;
图6是本发明提供的身体修型模块的操作界面示意图。
具体实施方式
为了使本发明的技术目的、技术方案以及技术效果更加清楚,以便于本领域技术人员理解和实施本发明,下面将结合附图及具体实施例对本发明做进一步详细的说明。
本发明是基于Maya软件平台实现动漫模型的综合绑定,Maya软件是三维动画软件的后起之秀,深受业界的欢迎和喜爱。Maya集成了最先近的动画及数字效果技术,它不仅包括一般三维和视觉效果的制作功能,而且还结合了最先进的建模和运动匹配技术。
实施例一:
图1所示为本发明提供的动漫模型角色绑定方法的流程图,包括如下步骤:
S1:构建与动漫角色等比例尺的虚拟数学三维模型,形成虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;
S2:在所述身体模型上绑定身体骨骼系统,所述身体骨骼系统和所述身体控制器用于驱动所述身体模型产生角色动作;
S3:在所述面部模型上绑定面部骨骼系统,所述面部骨骼系统和所述面控制器用于驱动所述面部模型产生角色表情;
S4:依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正;
S5:依据RBF修型球设置,将存储在修型球中的身体动作信息赋予所述身体模型,对所述身体模型产生的角色动作进行修正。
为了精细的控制所述虚拟动漫模型的角色动作和角色表情,本发明提供了骨骼系统和控制器相结合的控制方法,通过对骨骼做位移、旋转、缩放,或者修改控制器的属性参数,都可以驱动虚拟动漫模型上点的位移从产生角色动作或者角色表情。
在实际应用中,所述身体模型和所述面部模型导入Maya场景中后,能够实现自动在所述身体模型和所述面部模型的相应部位分别添加所述身体控制器和所述面控制器,大大提高了制作效率。
进一步地,在执行所述身体模型的绑定时,需要对齐所述身体骨骼系统到所述身体模型的相应位置,且该对位要求比较严格,需要通过不断的调节使得所述身体骨骼系统中骨骼的轴向与所述身体模型中的肢体方向保持一致。
由于人类真实的皮肤往往同时会受很多地方的影响,若一个虚拟动漫模型上的点只给一个骨骼控制,动画效果相对生硬。因此,本发明通过蒙皮的方式将所述虚拟动漫模型上的点绑定于骨骼系统上,其中,每一所述虚拟动漫模型上的点同时绑定给至少两个骨骼,同时还需要对所绑定的骨骼作比重分配,才能达到自然的动作和表情效果。
因此,所述步骤S2还包括如下步骤:
S20:导入所述身体骨骼系统到Maya场景中,并调整所述身体骨骼系统对齐到所述身体模型的相应位置;
S21:依据用户自定义的绑定执行步指令,在所述身体模型上自动绑定所述身体骨骼系统。
参见图2为所述身体模型绑定后的结果示意图。
当然,用户可以自定义所述虚拟模型上的点所述绑定的骨骼数量,通过计算影响所述虚拟模型上点的不同骨骼的影响加权和就可以得到该虚拟动漫模型上点的正确位置。
由于人的面部表情相当丰富,涉及到多个面部器官的协调运动,要展现一个高仿真的人脸表情是一个非常复杂的过程。因此,本发明提供的角色绑定方法将虚拟动漫模型分为身体模型和面部模型两个部分,在所述面部模型导入到Maya场景中后,依据所述面部模型建立一套独立的表情控制方法,能够精细地控制面部表情动作,确保所述面部模型产生的角色表情更加丰富、更具有真实感。
同理的,所述步骤S3通过蒙皮的方式将所述面部模型上的点绑定于所述面部骨骼系统上,其中,每一所述面部模型上的点同时绑定给至少两个面部骨骼,同时还需要对同一所述面部模型上的点所绑定的面部骨骼作比重分配,才能达到自然的角色表情,当然,用户可以自定义所述面部模型上的点所绑定的面部骨骼数量。参见图3为所述面部模型绑定后的结果示意图。
因此,在所述面部模型添加绑定所述面部骨骼系统后,通过移动面部骨骼或者修改面控制器属性参数即可驱动所述面部模型产生角色表情。进一步地,为了弥补角色表情细节的缺失,所述角色绑定方法还包括步骤S4:依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正。具体的,所述步骤S4还包括如下步骤:
S41:运用BlendShape变形处理创建表情修型体并存储到表情修型数据库中,每一所述表情修型体均包含一面部表情信息;
S42:运用关键帧动画设置,在所述面控制器的属性参数与所述表情修型体之间建立驱动关系;
S43:调整所述面控制器的属性参数驱动所述面部模型产生角色表情,依据所述驱动关系,当所述面控制器的属性参数达到一设定值时,将所述表情修型体包含的面部表情信息赋予所述角色表情,修正所述角色表情。
在实际应用中,当所述面控制器的属性参数达到设定值时,便会将所述表情修型体包含的面部表情信息赋予所述角色表情,形成一个与所述表情修型体一致的角色表情,消除了直接调整控制器属性参数或移动面部骨骼产生的面部模型严重拉伸或穿插等问题。
进一步地,步骤S41还包括如下步骤:
S411:多次复制所述面部模型,得到面部模型a、面部模型b和面部模型c;
S412:将需要的角色表情分别分解到所述面部模型a、所述面部模型b、所述面部模型c进行修改,通过BlendShape变形处理合并所述修改得到所述表情修型体并存储到所述表情修型数据库中。
可以理解的是,通过BlendShape变形处理可以制作丰富细微的角色表情(尤其是皱纹)并存储到所述表情修型数据库中,用于辅助所述面控制器和面部骨骼系统,使得角色表情有更多的细节,更具有真实性。
进一步地,本发明依据RBF修型球设置,将存储在身体修型数据库中的身体动作信息赋予所述角色动作,对所述角色动作进行修正。具体的,所述步骤S5还包括如下步骤:
S51:创建身体修型体并存储到身体修型数据库中,每一所述身体修型体均包含一身体动作信息;
S52:在所述身体骨骼系统的关键部位创建修型球,每一所述修型球均对应一所述身体动作信息;
S53:利用RBF定位技术,对所述身体控制器属性参数和所述修型球进行匹配;
S54:调整所述身体控制器的属性参数驱动所述身体模型产生角色动作,依据所述修型球,当所述身体控制器的属性参数达到设定值时,将所述修型球包含的所述身体动作信息赋予所述角色动作,修正所述角色动作。
需要说明的是,本实施例中所述表情修型数据库和所述身体修型数据库均设置为最高级别的控制节点,无论是先创建修型数据库还是先绑定虚拟动漫模型,都不影响修型数据库的节点优先顺序,即所述表情修型数据库和所述身体修型数据库中存储的角色表情信息和角色动作信息能够完全覆盖面控制器和面部骨骼系统驱动产生的角色表情和者身体控制器和身体骨骼系统驱动产生的角色动作。
实施例二
根据本发明实施例一提供的技术方案,实施例二提供了一种基于Maya软件开发的模块化动漫模型角色绑定系统,并以嵌入式的方式在Maya软件上创建所述角色绑定系统的操作界面。
所述角色绑定系统包括:基础模型模块,用于构建与动漫角色等比例尺的虚拟数学三维模型,形成虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;
身体绑定模块,用于在所述身体模型上绑定身体骨骼系统,所述身体骨骼系统和所述身体控制器用于驱动所述身体模型产生角色动作;
表情绑定模块,用于在所述面部模型上绑定面部骨骼系统,所述面部骨骼系统和所述面控制器用于驱动所述面部模型产生角色表情,并依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正;
身体修型模块,用于依据RBF修型球设置,将存储在修型球中的身体动作信息赋予所述身体模型,对所述身体模型产生的角色动作进行修正。
进一步地,图4所示为所述身体绑定模块的操作界面示意图,所述身体绑定模块包括身体绑定主界面1、第一工具模块2和第二工具模块3。
身体绑定主界面1包括用于导入所述身体模型的工具11、用于在所述身体模型上添加绑定的工具12和用于连接所述身体修型模型的工具13;
第一工具模块2包括身体骨骼调节模块和身体控制器调节模块,所述骨骼调节模块包括用于显示所述身体骨骼轴向的工具21、用于选择所述身体骨骼的工具22、用于存储书所述身体骨骼位置信息的工具23、用于导入所述身体骨骼位置信息的工具24、用于在所述身体骨骼上添加参考球的工具25以及用于删除所述参考球的工具26。
所述身体控制器调节模块包括用于存储所述身体控制器形状信息的工具211、用于导入所述身体控制器形状信息的工具212、用于将所述身体控制器从左边镜像到右边的工具213以及用于将所述身体控制器从右边镜像到左边的工具214。
第二工具模块3包括用于锁定所述身体模型的工具31、用于解锁所述身体模型的工具32、用于隐藏所述身体骨骼位置信息的工具33以及用于显示所述身体骨骼位置信息的工具34。
具体地,在导入所述身体骨骼系统到Maya场景中后,通过工具22选择所有身体骨骼,并通过工具21显示所有身体骨骼的轴向,用于检查每一身体骨骼的轴向是否与所述身体模型的肢体方向一致,如果所述身体骨骼的轴向有错误,可以通过手动的方式修改所述身体骨骼的轴向。在修改之前,通过工具23先存储所有身体骨骼的位置信息,这样就可以通过工具24将存储的所述身体骨骼位置信息直接导入恢复,防止因修改不当而造成所述身体骨骼位置信息的丢失。
优选地,在修改之前,通过工具31锁定所述身体模型,防止所述身体模型位移而导致所述身体骨骼系统的对位失败,所述工具32用于解锁所述身体模型。
所述身体模型是按照人体生理结构创建的,沿人体中轴线方向呈左右对称,因此,在身体模型上的相应位置手动设定身体控制器时,只需完成身体模型的左半边或者右半边的身体控制器设定,然后通过镜像完成身体模型全部的身体控制器设定。为了防止过程中误操作造成身体控制器的形状信息丢失,可先通过工具211存储所述身体控制器的形状信息,过程中可通过工具212直接导入恢复先前存储的身体控制器的形状信息。身体控制器设定过程中,也可通过工具213将设定于身体模型左半边的身体控制器直接镜像到右边,也可通过调取工具214将设定于身体模型右半边的身体控制器直接镜像到左边。
在身体模型的相应位置设定身体控制器之前,也可通过工具33隐藏身体骨骼的位置信息,防止身体骨骼系统在身体控制器设定过中偏离指定位置,工具34用于显示身体骨骼位置信息。
进一步地,图5所示为所述表情绑定模块的操作界面示意图,所述表情绑定模块包括用于导入所述面部模型的工具41、用于在所述面部模型上添加绑定的工具42、用于设定关键帧动画的工具43、用于创建表情修型数据库的工具44、用于修改所述关键帧动画的工具45、用于修改存储于所述表情修型数据库中的表情修型体的工具46以及综合信息显示模块47。
综合信息显示模块47用于显示或隐藏所述面部骨骼系统以及所述面部控制器的具体信息。
具体地,在通过工具41将用户自定义的面部模型导入到Maya场景中后,
通过工具42将所述面部模型上的点绑定于面部骨骼系统上,同时还需要对同一所述面部模型上点所绑定的面部骨骼作比重分配,才能达到自然的表情效果。
进一步地,通过工具43运用关键帧动画设置,在所述面控制器的属性参数与表情修型体之间建立驱动关系,可以实现当一个物体到达门前时,门自动打开的效果。所述表情修型体存储于工具44创建的表情修型数据库中。
优选地,可通过工具45修改关键帧动画设置,通过工具46对存储于所述表情修型数据库中的表情修型体进行修改。
进一步地,图6所示为所述身体修型模块的操作界面示意图,所述身体修型模块包括用于创建修型球的工具51、用于创建身体修型数据库的工具52、用于修改所述修型球设置的工具53以及用于修改存储于所述身体修型数据库中身体修型体的工具54。
具体地,可通过工具52依据所述身体模型创建身体修型体并存储到所述身体修型数据库中,每一所述身体修型体均包含一身体动作信息;再通过工具51创建修型球,所述修型球存储有所述身体控制器属性参数与所述身体修型体之间的匹配关系;优选地,可通过工具53修改所述匹配关系,通过工具54修改所述身体修型体。
综上所述,本发明基于Maya软件平台、关键帧动画设置、RBF定位技术等一系列核心技术,提供一种模块化设计的动漫模型角色绑定方法,其中,步骤S1~S5之间相互独立,每次执行步骤S1~S5后生成的动漫模型绑定结果都可以给到动画师制作动画,实现动漫模型绑定的同时可以进行动画制作,不需要等待动漫模型完成全部绑定后才能开始动画制作,方便各个制作小组之间的工作配合,同时提高制作效率;且本发明提供的角色绑定方法包括身体模型和面部模型两套独立的绑定方法,能够精细地控制面部表情动作和身体动作,确保角色表情和角色动作更加丰富、更具有真实感。
另外,本发明依据所述角色绑定方法开发了一种基于Maya软件的模块化动漫模型角色绑定系统,功能齐全,不仅能够完成高质量动漫模型绑定,且缩短了大量的制作时间。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (8)
1.一种基于Maya软件的动漫模型角色绑定方法,其特征在于,包括如下步骤:
S1:构建与动漫角色等比例尺的虚拟数学三维模型,形成虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;
S2:在所述身体模型上绑定身体骨骼系统,所述身体骨骼系统和所述身体控制器用于驱动所述身体模型产生角色动作;
S3:在所述面部模型上绑定面部骨骼系统,所述面部骨骼系统和所述面控制器用于驱动所述面部模型产生角色表情;
S4:依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正;
具体包括如下步骤:
S41:运用BlendShape变形处理创建表情修型体并存储到表情修型数据库中,每一所述表情修型体均包含一面部表情信息;
进一步地,S41还包括如下步骤:
S411:多次复制所述面部模型,得到面部模型a、面部模型b和面部模型c;
S412:将需要的角色表情分别分解到所述面部模型a、所述面部模型b、所述面部模型c进行修改,通过BlendShape变形处理合并所述修改得到所述表情修型体并存储到所述表情修型数据库中;
S42:运用关键帧动画设置,在所述面控制器的属性参数与所述表情修型体之间建立驱动关系;
S43:调整所述面控制器的属性参数驱动所述面部模型产生角色表情,依据所述驱动关系,当所述面控制器的属性参数达到一设定值时,将所述表情修型体包含的面部表情信息赋予所述角色表情,修正所述角色表情;
S5:依据RBF修型球设置,将存储在修型球中的身体动作信息赋予所述身体模型,对所述身体模型产生的角色动作进行修正;
步骤S1~S5之间相互独立,每次执行步骤S1~S5后的绑定结果都可以给到动画师制作动画。
2.根据权利要求1所述的角色绑定方法,其特征在于,所述表情修型数据库中存储的面部表情信息和身体修型数据库中存储的身体动作信息均设置为最高级别的控制点,用于完全覆盖所述面部骨骼系统和所述面控制器驱动所述面部模型产生的角色表情和所述身体骨骼系统和所述身体控制器驱动所述身体模型产生的角色动作。
3.根据权利要求1所述的角色绑定方法,其特征在于,所述步骤S2还包括如下步骤:
S20:导入所述身体骨骼系统到Maya场景中,并调整所述身体骨骼系统对齐到所述身体模型的相应位置;
S21:依据用户自定义的绑定执行步指令,在所述身体模型上自动绑定所述身体骨骼系统。
4.根据权利要求3所述的角色绑定方法,其特征在于,每一所述身体模型上的点同时绑定给至少两个所述身体骨骼系统中的身体骨骼;每一所述面部模型上的点同时绑定给至少两个所述面部骨骼系统中的面部骨骼。
5.根据权利要求1所述的角色绑定方法,其特征在于,所述步骤S5还包括如下步骤:
S51:创建身体修型体并存储到身体修型数据库中,每一所述身体修型体均包含一身体动作信息;
S52:在所述身体骨骼系统的关键部位创建修型球,每一所述修型球均对应一所述身体动作信息;
S53:利用RBF定位技术,对所述身体控制器属性参数和所述修型球进行匹配;
S54:调整所述身体控制器的属性参数驱动所述身体模型产生角色动作,依据所述修型球,当所述身体控制器的属性参数达到设定值时,将所述修型球包含的所述身体动作信息赋予所述角色动作,修正所述角色动作。
6.一种基于Maya软件开发的模块化动漫模型角色绑定系统,应用于权利要求1所述的动漫模型角色绑定方法中,其特征在于,所述绑定系统包括:
基础模型模块,用于构建与动漫角色等比例尺的虚拟数学三维模型,形成虚拟动漫模型,所述虚拟动漫模型包括具有多个身体控制器的身体模型和具有多个面控制器的面部模型;
身体绑定模块,用于在所述身体模型上绑定身体骨骼系统,所述身体骨骼系统和所述身体控制器用于驱动所述身体模型产生角色动作;
表情绑定模块,用于在所述面部模型上绑定面部骨骼系统,所述面部骨骼系统和所述面控制器用于驱动所述面部模型产生角色表情,并依据关键帧动画设置,将存储在表情修型数据库中的面部表情信息赋予所述面部模型,对所述面部模型产生的角色表情进行修正;
身体修型模块,用于依据RBF修型球设置,将存储在修型球中的身体动作信息赋予所述身体模型,对所述身体模型产生的角色动作进行修正。
7.根据权利要求6所述的角色绑定系统,其特征在于,所述身体绑定模块包括身体绑定主界面(1)、第一工具模块(2)和第二工具模块(3);
所述身体绑定主界面(1)包括用于导入所述身体模型的工具(11)、用于在所述身体模型上添加绑定的工具(12)和用于连接所述身体修型模块的工具(13);
所述第一工具模块(2)包括身体骨骼调节模块和身体控制器调节模块;
所述身体骨骼调节模块包括用于显示所述身体骨骼轴向的工具(21)、用于选择所述身体骨骼的工具(22)、用于存储所述身体骨骼位置信息的工具(23)、用于导入所述身体骨骼位置信息的工具(24)、用于在所述身体骨骼上添加参考球的工具(25)以及用于删除所述参考球的工具(26);
所述身体控制器调节模块包括用于存储所述身体控制器形状信息的工具(211)、用于导入所述身体控制器形状信息的工具(212)、用于分别从不同方位镜像所述身体控制器的工具(213)以及工具(214);
所述第二工具模块(3)包括用于锁定所述身体模型的工具(31)、用于解锁所述身体模型的工具(32)、用于隐藏所述身体骨骼位置信息的工具(33)以及用于显示所述身体骨骼位置信息的工具(34)。
8.根据权利要求7所述的角色绑定系统,其特征在于,所述表情绑定模块包括用于导入所述面部模型的工具(41)、用于在所述面部模型上添加绑定的工具(42)、用于设定关键帧动画的工具(43)、用于创建表情修型数据库的工具(44)、用于修改所述关键帧动画的工具(45)、用于修改存储于所述表情修型数据库中的表情修型体的工具(46)以及综合信息显示模块(47);
所述身体修型模块包括用于创建修型球的工具(51)、用于创建身体修型数据库的工具(52)、用于修改所述修型球设置的工具(53)以及用于修改存储于所述身体修型数据库中的身体修型体的工具(54)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710710186.3A CN107657650B (zh) | 2017-08-18 | 2017-08-18 | 基于Maya软件的动画模型角色绑定方法以及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710710186.3A CN107657650B (zh) | 2017-08-18 | 2017-08-18 | 基于Maya软件的动画模型角色绑定方法以及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107657650A CN107657650A (zh) | 2018-02-02 |
CN107657650B true CN107657650B (zh) | 2021-12-17 |
Family
ID=61127713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710710186.3A Active CN107657650B (zh) | 2017-08-18 | 2017-08-18 | 基于Maya软件的动画模型角色绑定方法以及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107657650B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805963B (zh) * | 2018-05-21 | 2023-03-24 | 网易(杭州)网络有限公司 | 三维模型的处理方法和装置、及存储介质和终端 |
CN109447043A (zh) * | 2018-12-23 | 2019-03-08 | 广东腾晟信息科技有限公司 | 一种人脸自动建模方法 |
CN110415321B (zh) * | 2019-07-06 | 2023-07-25 | 深圳市山水原创动漫文化有限公司 | 一种动画动作处理方法及其系统 |
CN110689596B (zh) * | 2019-09-16 | 2023-05-16 | 华强方特(深圳)动漫有限公司 | Maya动画角色制作的Yeti毛发的绑定控制缩放方法 |
CN111292427B (zh) * | 2020-03-06 | 2021-01-01 | 腾讯科技(深圳)有限公司 | 骨骼位移信息获取方法、装置、设备及存储介质 |
CN111462286B (zh) * | 2020-03-23 | 2023-02-14 | 华强方特(深圳)动漫有限公司 | 一种实现三维动画穿插检测的方法 |
CN111899319B (zh) * | 2020-08-14 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 动画对象的表情生成方法和装置、存储介质及电子设备 |
CN113332726A (zh) * | 2021-06-11 | 2021-09-03 | 网易(杭州)网络有限公司 | 虚拟角色的处理方法、装置、电子设备和存储介质 |
CN116012499B (zh) * | 2022-10-20 | 2023-11-03 | 武汉两点十分文化传播有限公司 | 一种快速生成maya三维角色动画的方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060199167A1 (en) * | 2004-12-21 | 2006-09-07 | Yang Ung Y | User interface design and evaluation system and hand interaction based user interface design and evaluation system |
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
CN103729871A (zh) * | 2012-10-16 | 2014-04-16 | 林世仁 | 云动漫制作方法 |
CN104102487A (zh) * | 2014-07-17 | 2014-10-15 | 福建天趣网络科技有限公司 | 一种3D游戏角色Avatar的可视化编辑方法及编辑器 |
CN105654537A (zh) * | 2015-12-30 | 2016-06-08 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
-
2017
- 2017-08-18 CN CN201710710186.3A patent/CN107657650B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060199167A1 (en) * | 2004-12-21 | 2006-09-07 | Yang Ung Y | User interface design and evaluation system and hand interaction based user interface design and evaluation system |
CN103377484A (zh) * | 2012-04-28 | 2013-10-30 | 上海明器多媒体科技有限公司 | 用于三维动画制作的角色表情信息控制方法 |
CN103729871A (zh) * | 2012-10-16 | 2014-04-16 | 林世仁 | 云动漫制作方法 |
CN104102487A (zh) * | 2014-07-17 | 2014-10-15 | 福建天趣网络科技有限公司 | 一种3D游戏角色Avatar的可视化编辑方法及编辑器 |
CN105654537A (zh) * | 2015-12-30 | 2016-06-08 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107657650A (zh) | 2018-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107657650B (zh) | 基于Maya软件的动画模型角色绑定方法以及系统 | |
CN110599573B (zh) | 一种基于单目相机的人脸实时交互动画的实现方法 | |
EP2043049B1 (en) | Facial animation using motion capture data | |
US20090153569A1 (en) | Method for tracking head motion for 3D facial model animation from video stream | |
CN106548392B (zh) | 一种基于webGL技术的虚拟试衣实现方法 | |
CN111292402B (zh) | 数据处理的方法、装置、设备及计算机可读存储介质 | |
US6628286B1 (en) | Method and apparatus for inserting external transformations into computer animations | |
Maraffi | Maya character creation: modeling and animation controls | |
Orvalho et al. | Transferring the rig and animations from a character to different face models | |
CN114998488A (zh) | 一种适用于手语信息传播的虚拟人模型制作方法 | |
CN111973988B (zh) | 游戏中模型的处理方法、装置、设备及存储介质 | |
CN116843809A (zh) | 针对虚拟角色的处理方法和装置 | |
CN114026524B (zh) | 用于动画化人脸的方法、系统、以及计算机可读介质 | |
CN110853131A (zh) | 一种用于行为识别的虚拟视频数据生成方法 | |
CN114912574A (zh) | 角色面部表情拆分方法、装置、计算机设备及存储介质 | |
CN115035269A (zh) | 基于变分自编码器的三维服装变形预测方法 | |
CN116797696A (zh) | 一种角色动画的骨骼驱动方法及设备 | |
CN113436299B (zh) | 动画生成方法、装置、存储介质及电子设备 | |
US9128516B1 (en) | Computer-generated imagery using hierarchical models and rigging | |
Singh | Future of Animated Narrative and the Effects of Ai on Conventional Animation Techniques | |
Kwon et al. | Rubber-like exaggeration for character animation | |
US11587277B2 (en) | Weight maps to generate off-center split maps of a shape | |
CN207424937U (zh) | 一种动漫模型角色绑定装置 | |
CN115690283A (zh) | 基于体感技术的二维动画制作方法及装置 | |
CN107274467A (zh) | 一种基于Unity3D的模型动画联动方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |