CN113781611B - 一种动画制作方法、装置、电子设备及存储介质 - Google Patents

一种动画制作方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113781611B
CN113781611B CN202110982200.1A CN202110982200A CN113781611B CN 113781611 B CN113781611 B CN 113781611B CN 202110982200 A CN202110982200 A CN 202110982200A CN 113781611 B CN113781611 B CN 113781611B
Authority
CN
China
Prior art keywords
expression
model
facial
animation
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110982200.1A
Other languages
English (en)
Other versions
CN113781611A (zh
Inventor
易律
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shell Wood Software Co ltd
Original Assignee
Beijing Shell Wood Software Co ltd
Filing date
Publication date
Application filed by Beijing Shell Wood Software Co ltd filed Critical Beijing Shell Wood Software Co ltd
Priority to CN202110982200.1A priority Critical patent/CN113781611B/zh
Publication of CN113781611A publication Critical patent/CN113781611A/zh
Application granted granted Critical
Publication of CN113781611B publication Critical patent/CN113781611B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本申请提供一种动画制作方法、装置、电子设备及存储介质,该方法包括:获取动画角色的面部骨骼模型;根据预设标准表情对面部骨骼模型进行调整,获得表情定义模型;获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线;对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。通过使用表情分量数据转换为表情定义模型的权重曲线,并调整表情定义模型的权重曲线来获得面部动画,从而可以复用已经转换的表情定义模型,只需要表情分量数据来计算表情定义模型的权重曲线即可,增加了表情定义模型的复用率,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。

Description

一种动画制作方法、装置、电子设备及存储介质
技术领域
本申请涉及图像处理、三维建模和计算机动画制作的技术领域,具体而言,涉及一种动画制作方法、装置、电子设备及存储介质。
背景技术
传统的动画制作流程中,动画工程师通常需要对动画角色的顶点或骨骼,逐个建立特定时刻的关键帧,编辑模型在每个关键帧的图像位置,再由计算机对各个关键帧之间的时刻进行插值计算,最终获得制作出该动画角色的面部动画。由此可见,通过现有的动画编辑软件难以直接对捕捉后的表情进行二次编辑和加工,传统工具需要动画工程师对动画角色的顶点或骨骼进行关键帧制作,才能获得动画角色的面部动画,因此,使用上述的方式获得动画角色的面部动画的效率低下。
发明内容
本申请实施例的目的在于提供一种动画制作方法、装置、电子设备及存储介质,用于改善获得动画角色的面部动画的效率低下的问题。
本申请实施例提供了一种动画制作方法,包括:获取动画角色的面部骨骼模型;根据预设标准表情对面部骨骼模型进行调整,获得表情定义模型;获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线;对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。在上述的实现过程中,通过使用表情分量数据转换为表情定义模型的权重曲线,并调整表情定义模型的权重曲线来获得面部动画,从而可以复用已经转换的表情定义模型,只需要表情分量数据来计算表情定义模型的权重曲线即可,增加了表情定义模型的复用率,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。
可选地,在本申请实施例中,获取动画角色的面部骨骼模型,包括:获取动画角色的面部模型和动画角色的面部骨骼;将面部模型绑定至面部骨骼,获得面部骨骼模型。在上述的实现过程中,通过获取动画角色的面部模型和动画角色的面部骨骼,并将面部模型绑定至面部骨骼,从而获得了面部骨骼模型,有效地提高了获得面部骨骼模型的效率。
可选地,在本申请实施例中,获取动画角色的面部模型和动画角色的面部骨骼,包括:使用数字内容创作软件制作动画角色的面部模型和动画角色的面部骨骼;或者,读取面部模型和面部骨骼,面部模型和面部骨骼是使用数字内容创作软件制作的。
可选地,在本申请实施例中,获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线,包括:使用表情动画记录工具捕捉演员面部表演的表情分量数据;使用表情编辑工具将表情分量数据转换为表情定义模型的权重曲线。在上述的实现过程中,通过使用表情动画记录工具捕捉演员面部表演的表情分量数据,并使用表情编辑工具将表情分量数据转换为表情定义模型的权重曲线,从而避免了使用关键帧或者顶点来制作动画导致不直观且难以数据迁移等问题,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。
可选地,在本申请实施例中,使用表情编辑工具将表情分量数据转换为表情定义模型的权重曲线,包括:使用表情编辑工具提取表情分量数据中的表情定义权重;对表情定义权重进行构建,获得表情定义模型的权重曲线。在上述的实现过程中,通过使用表情编辑工具提取表情分量数据中的表情定义权重,并对表情定义权重进行构建,获得表情定义模型的权重曲线,从而避免了使用关键帧或者顶点来制作动画导致不直观且难以数据迁移等问题,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。
本申请实施例还提供了一种动画制作装置,包括:骨骼模型获取模块,用于获取动画角色的面部骨骼模型;表情模型获得模块,用于根据预设标准表情对面部骨骼模型进行调整,获得表情定义模型;权重曲线获得模块,用于获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线;面部动画获得模块,用于对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。
可选地,在本申请实施例中,骨骼模型获取模块,包括:面部数据获取模块,用于获取动画角色的面部模型和动画角色的面部骨骼;模型绑定骨骼模块,用于将面部模型绑定至面部骨骼,获得面部骨骼模型。
可选地,在本申请实施例中,面部数据获取模块,包括:面部数据制作模块,用于使用数字内容创作软件制作动画角色的面部模型和动画角色的面部骨骼;或者,面部数据读取模块,用于读取面部模型和面部骨骼,面部模型和面部骨骼是使用数字内容创作软件制作的。
可选地,在本申请实施例中,权重曲线获得模块,包括:表情数据捕捉模块,用于使用表情动画记录工具捕捉演员面部表演的表情分量数据;表情数据转换模块,用于使用表情编辑工具将表情分量数据转换为表情定义模型的权重曲线。
可选地,在本申请实施例中,表情数据转换模块,包括:表情权重提取模块,用于使用表情编辑工具提取表情分量数据中的表情定义权重;表情权重构建模块,用于对表情定义权重进行构建,获得表情定义模型的权重曲线。
本申请实施例还提供了一种电子设备,包括:处理器和存储器,存储器存储有处理器可执行的机器可读指令,机器可读指令被处理器执行时执行如上面描述的方法。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上面描述的方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出的本申请实施例提供的动画制作方法的流程示意图;
图2示出的本申请实施例提供的表情编辑工具构建权重曲线的示意图;
图3示出的本申请实施例提供的权重曲线调整后的表情定义模型的示意图;
图4示出的本申请实施例提供的动画制作装置的结构示意图;
图5示出的本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述。
在介绍本申请实施例提供的动画制作方法之前,先介绍本申请实施例中所涉及的一些概念:
数字内容创作(Digital Content Creation,DCC)软件,又被称为三维美术模型制作软件,是指针对计算机中的数字内容进行创作的软件,这里的DCC软件包括但不限于:3Dmax、Maya和Blender等计算机动画(Computer Graphics,CG)处理软件。
需要说明的是,本申请实施例提供的动画制作方法可以被电子设备执行,这里的电子设备是指具有执行计算机程序功能的设备终端或者上述的服务器,设备终端例如:智能手机、个人电脑、平板电脑、个人数字助理(personal digital assistant,PDA)或者移动上网设备(mobile Internet device,MID)等。服务器是指通过网络提供计算服务的设备,服务器例如:x86服务器以及非x86服务器,非x86服务器包括:大型机、小型机和UNIX服务器。
下面介绍该动画制作方法适用的应用场景,这里的应用场景包括但不限于:使用该动画制作方法通过调整表情定义模型的权重曲线,从而获得动画角色的面部动画等,可以复用已经转换的表情定义模型,增加了表情定义模型的复用率,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。
请参见图1示出的本申请实施例提供的动画制作方法的流程示意图;该动画制作方法的主要思路是,通过使用表情分量数据转换为表情定义模型的权重曲线,并调整表情定义模型的权重曲线来获得面部动画,从而可以复用已经转换的表情定义模型,只需要表情分量数据来计算表情定义模型的权重曲线即可,增加了表情定义模型的复用率,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。上述的动画制作方法可以包括:
步骤S110:获取动画角色的面部骨骼模型。
上述步骤S110中的面部骨骼模型获取方式有很多种,包括但不限于:
第一种获取方式,从头开始制作并绑定获得骨骼模型,该获取方式包括:
步骤S111:获取动画角色的面部模型和动画角色的面部骨骼。
上述步骤S111的实施方式有很多种,包括但不限于:第一种实施方式,使用软件制作面部模型和面部骨骼,该实施方式例如:使用数字内容创作(DCC)软件制作动画角色的面部模型和动画角色的面部骨骼。第二种实施方式,获取预先存储的面部模型和面部骨骼,具体例如:从文件系统中获取面部模型和面部骨骼,或者从数据库中获取面部模型和面部骨骼,或者从移动存储设备中获取面部模型和面部骨骼;上述的面部模型和面部骨骼是使用数字内容创作软件制作的。
步骤S112:将面部模型绑定至面部骨骼,获得面部骨骼模型。
第二种获得方式,接收其它终端设备发送的动画角色的面部骨骼模型,具体例如:动画工程师使用DCC软件(如3Dmax或者Maya)制作出动画角色的面部模型和动画角色的面部骨骼,并将面部模型绑定至面部骨骼,获得面部骨骼模型;然后,将动画角色的面部骨骼模型存储至文件系统、数据库或移动存储设备中。
第三种获得方式,获取预先存储的动画角色的面部骨骼模型,具体例如:从文件系统中获取动画角色的面部骨骼模型,或者从数据库中获取动画角色的面部骨骼模型,或者从移动存储设备中获取动画角色的面部骨骼模型等等。
在步骤S110之后,执行步骤S120:根据预设标准表情对面部骨骼模型进行调整,获得表情定义模型。
预设标准表情,是指符合预设标准的表情,具体例如:符合Apple AR Kit技术框架标准的表情。具体可以使用IPhone设备的前置摄像头识别和捕捉人脸的表情信息数据,并将表情信息数据返回给应用程序,以使应用程序对面部骨骼模型进行调整,获得符合AppleAR Kit技术框架标准的表情。
上述步骤S120的实施方式例如:使用基于Apple AR Kit技术框架标准开发的表情动画记录工具,对面部骨骼模型进行调整,以使面部骨骼模型满足Apple AR Kit的标准表情定义,从而获得满足Apple AR Kit的标准表情定义数据,并将满足Apple AR Kit的标准表情定义数据保存为预设格式(例如3d Max Morph Target),从而获得表情定义模型。
在步骤S120之后,执行步骤S130:获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线。
表情分量数据是指基于不同的器官、肌肉部位带的表情分量。具体例如:“左眼球向外移动的幅度”、“右眼的开闭程度”、“左嘴角上扬程度”……等等。每个表情分量的数字越大,则表现为对应的表情幅度越强,反之,表情分量的数字越小,则表现为对应的表情幅度越弱。在具体应用时,可以将所有不同的表情分量融合起来,最终形成完整的面部表情,具体例如:将人脸的形态(假设是当前帧)转换为多个标准表情的加权值,假设共有N个标准表情,且每个标准表情都会有一个权重,标准表情1*权重1+标准表情2*权重2+…+标准表情N*权重N=当前帧的表情定义模型,此处由权重1、权重2、……、权重N构成的权重集合,就可以理解为上面的一个表情分量数据。上述的表情定义模型可以使用公式表示为其中,e表示表情定义模型(可以理解为网状拓扑mesh),/>表示多个标准表情中的第i个标准表情,δi表示多个权重中的第i个权重,/>
上述步骤S130的实施方式可以包括:
步骤S131:使用表情动画记录工具捕捉演员面部表演的表情分量数据。
上述步骤S131的实施方式例如:使用表情动画记录工具捕捉演员面部表演的表情分量数据,此处的表情分量数据可以理解为演员表情中每个标准表情定义的权重。在具体实践过程中,可以每隔预设时长捕捉记录一次,具体例如:使用表情动画记录工具每0.01秒记录一次,那么每秒记录100次,当然也可以根据具体情况调整为每秒记录60次。在表情动画记录工具捕捉演员面部表演的表情分量数据之后,针对每个表情分量数据就构成了基于时间强弱变化的权重曲线,即表情分量数据的数量与权重曲线的数量相等。其中,表情动画记录工具是基于Apple AR Kit技术框架标准的应用程序接口(Application ProgrammingInterface,API)开发的移动应用程序。
步骤S132:使用表情编辑工具将表情分量数据转换为表情定义模型的权重曲线。
请参见图2示出的本申请实施例提供的表情编辑工具构建权重曲线的示意图;上面步骤的作用是将表情分量数据(可以理解为各个标准表情的权重数据)在表情编辑工具(软件)中转换为表情定义模型的权重曲线,即将权重数据换一种表达形式,以曲线的方式来体现权重数据。表情编辑工具的左侧是模型展示区域,用于展示实时调整权重曲线前后模型的变化;表情编辑工具的右侧是控制面板,控制面板用于被用户进行各种操作,这些操作例如:点击重载(reload)按钮来重载面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线后,可以点击应用曲线(apply curve)按钮来使用已经调整好的曲线等等。
上述步骤S132的实施方式例如:使用表情编辑工具提取表情分量数据中的表情定义权重;对表情定义权重进行构建(即将每个表情定义构建成为一条权重曲线),获得表情定义模型的权重曲线,该权重曲线在二维坐标轴上的X轴代表时间,Y轴代表权重值。其中,表情编辑工具是运行在个人电脑(personal computer,PC)上的应用程序工具,同时,该表情编辑工具也是可以处理软件记录数据的应用程序工具,即表情编辑工具为表情定义模型的每条权重曲线提供了基于图形用户界面(Graphical User Interface,GUI)的控制面板,即用户可以通过控制面板对表情定义模型的每条权重曲线进行编辑。
可以理解的是,使用表情分量数据来表达动画角色的面部表情,再由面部表情来形成多帧动画,实际上保存的是在时间帧序列上的面部表情的表情分量数据。具体来说,表情分量数据中的每个权重对应的是每个特定表情分量(即“左眼球向外移动的幅度”、“右眼的开闭程度”、“左嘴角上扬程度”等等)的强弱程度。将某时刻的所有表情分量数据组成的全集,映射到面部各个部位构成的表情合集,就能够完整地表达出动画角色在该时刻下的完整表情。
在步骤S130之后,执行步骤S140:对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。
请参见图3示出的本申请实施例提供的权重曲线调整后的表情定义模型的示意图;上述步骤S140的实施方式例如:根据剧本台词需要表达的内容来对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。假设剧本台词需要动画角色闭嘴(即下颌关闭),那么用户可以使用表情编辑工具调整表情定义模型中名称为下颌张开(jaw open)的权重曲线,将权重曲线的原始分量由大于0点(即曲线状态)调整为0点(即水平横线),即可让动画角色闭嘴。因此,用户可以使用表情捕捉设备来辅助制作带有面部表情的面部动画,可以在较短的时间内制作出大量的高精度面部动画。
当然,在具体实践过程中,还可以设置更多按钮和更多权重曲线来控制动画角色和动画制作过程,此处更多按钮例如:应用曲线到文件中(Apply Curve 2File)、数据零初始化开始(Data Zero Start)和散开(Loose Out)等等按钮。通过修改某个表情分量的权重曲线,即可调整该表情分量在不同时刻的强度或者有无,具体例如:假设需要将动画中“眨眼”的动作去掉,那么可以将表示“闭眼”分量的权重曲线幅度调至恒为“无”(通常为0)即可;上述更多的权重曲线例如:左眼里看(eyeLookIn_L)、右眼里看(eyeLookIn_R)、左眼下看(eyeLookDown_L)、右眼下看(eyeLookDown_R)、左眼外看(eyeLookOut_L)、右眼外看(eyeLookOut_R)、下颌向前(jaw Forward)、下颌向左(jaw Left)、下颌向右(jaw Right)、嘴巴闭合(mouth Close)、嘴角左酒窝(mouthDimple_L)、嘴角右酒窝(mouthDimple_R)、嘴角左皱纹(mouthFrown_L)、嘴角右皱纹(mouthFrown_R)、嘴巴左移(mouth Left)和嘴巴右移(mouth Right)等等。
在上述的实现过程中,首先,根据预设标准表情对面部骨骼模型进行调整,获得表情定义模型;然后,获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线;最后,对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。
上述的动画制作方法相比于传统的基于关键帧或者顶点动画制作方法更加直观理解,且更加容易迁移,其中直观理解是指在对表情定义模型进行编辑时,只需要调整对应表情分量数据的权重曲线即可,这些表情分量数据都是有感官上的语义信息的,而非无语义的顶点数据;动画工程师可以基于感官信息(如嘴唇、眼球、下巴)等进行编辑和保存,对于动画工程师来说更加直观。上述的更加容易迁移是指感官数据可以在不同的五官模型中迁移适配,具体如基于“张大嘴巴”语义的表情能适配胖瘦方圆等不同脸型;然而,传统的基于顶点动画制作方式是强依赖于模型建模方式的,因此,传统的基于关键帧或者顶点动画制作方法是无法在不同模型中进行迁移的。
在上述的实现过程中,通过使用表情分量数据转换为表情定义模型的权重曲线,并调整表情定义模型的权重曲线来获得面部动画,从而可以复用已经转换的表情定义模型,只需要表情分量数据来计算表情定义模型的权重曲线即可,增加了表情定义模型的复用率,有效地减少了获得动画角色的面部动画的时间,从而提高了获得动画角色的面部动画的效率。
请参见图4示出的本申请实施例提供的动画制作装置的结构示意图;本申请实施例提供了一种动画制作装置200,包括:
骨骼模型获取模块210,用于获取动画角色的面部骨骼模型。
表情模型获得模块220,用于根据预设标准表情对面部骨骼模型进行调整,获得表情定义模型。
权重曲线获得模块230,用于获取面部表演的表情分量数据,并将表情分量数据转换为表情定义模型的权重曲线。
面部动画获得模块240,用于对表情定义模型的权重曲线进行调整,获得动画角色的面部动画。
可选地,在本申请实施例中,骨骼模型获取模块,包括:
面部数据获取模块,用于获取动画角色的面部模型和动画角色的面部骨骼。
模型绑定骨骼模块,用于将面部模型绑定至面部骨骼,获得面部骨骼模型。
可选地,在本申请实施例中,面部数据获取模块,包括:
面部数据制作模块,用于使用数字内容创作软件制作动画角色的面部模型和动画角色的面部骨骼;
或者,面部数据读取模块,用于读取面部模型和面部骨骼,面部模型和面部骨骼是使用数字内容创作软件制作的。
可选地,在本申请实施例中,权重曲线获得模块,包括:
表情数据捕捉模块,用于使用表情动画记录工具捕捉演员面部表演的表情分量数据。
表情数据转换模块,用于使用表情编辑工具将表情分量数据转换为表情定义模型的权重曲线。
可选地,在本申请实施例中,表情数据转换模块,包括:
表情权重提取模块,用于使用表情编辑工具提取表情分量数据中的表情定义权重。
表情权重构建模块,用于对表情定义权重进行构建,获得表情定义模型的权重曲线。
应理解的是,该装置与上述的动画制作方法实施例对应,能够执行上述方法实施例涉及的各个步骤,该装置具体的功能可以参见上文中的描述,为避免重复,此处适当省略详细描述。该装置包括至少一个能以软件或固件(firmware)的形式存储于存储器中或固化在装置的操作系统(operating system,OS)中的软件功能模块。
请参见图5示出的本申请实施例提供的电子设备的结构示意图。本申请实施例提供的一种电子设备300,包括:处理器310和存储器320,存储器320存储有处理器310可执行的机器可读指令,机器可读指令被处理器310执行时执行如上的方法。
本申请实施例还提供了一种计算机可读存储介质330,该计算机可读存储介质330上存储有计算机程序,该计算机程序被处理器310运行时执行如上的方法。
其中,计算机可读存储介质330可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。
本申请实施例提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其他的方式实现。以上所描述的装置实施例仅是示意性的,例如,附图中的流程图和框图显示了根据本申请实施例的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以和附图中所标注的发生顺序不同。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这主要根据所涉及的功能而定。
另外,在本申请实施例中的各个实施例的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上的描述,仅为本申请实施例的可选实施方式,但本申请实施例的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请实施例揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请实施例的保护范围之内。

Claims (9)

1.一种动画制作方法,其特征在于,包括:
获取动画角色的面部骨骼模型;
根据预设标准表情对所述面部骨骼模型进行调整,获得表情定义模型,所述预设标准表情是符合Apple AR Kit技术框架标准的表情;
获取面部表演的表情分量数据,并将所述表情分量数据转换为所述表情定义模型的权重曲线,所述表情分量数据具有感官上的语义信息;
对所述表情定义模型的权重曲线进行调整,获得所述动画角色的面部动画;
其中,所述获取面部表演的表情分量数据,并将所述表情分量数据转换为所述表情定义模型的权重曲线,包括:使用表情动画记录工具捕捉演员面部表演的表情分量数据;使用表情编辑工具将所述表情分量数据转换为所述表情定义模型的权重曲线,所述表情动画记录工具是基于所述Apple AR Kit技术框架标准的应用程序接口开发的移动应用程序。
2.根据权利要求1所述的方法,其特征在于,所述获取动画角色的面部骨骼模型,包括:
获取所述动画角色的面部模型和所述动画角色的面部骨骼;
将所述面部模型绑定至所述面部骨骼,获得所述面部骨骼模型。
3.根据权利要求2所述的方法,其特征在于,所述获取所述动画角色的面部模型和所述动画角色的面部骨骼,包括:
使用数字内容创作软件制作所述动画角色的面部模型和所述动画角色的面部骨骼;
或者,
读取所述面部模型和所述面部骨骼,所述面部模型和所述面部骨骼是使用数字内容创作软件制作的。
4.根据权利要求1所述的方法,其特征在于,所述使用表情编辑工具将所述表情分量数据转换为所述表情定义模型的权重曲线,包括:
使用所述表情编辑工具提取所述表情分量数据中的表情定义权重;
对所述表情定义权重进行构建,获得所述表情定义模型的权重曲线。
5.一种动画制作装置,其特征在于,包括:
骨骼模型获取模块,用于获取动画角色的面部骨骼模型;
表情模型获得模块,用于根据预设标准表情对所述面部骨骼模型进行调整,获得表情定义模型,所述预设标准表情是符合Apple AR Kit技术框架标准的表情;
权重曲线获得模块,用于获取面部表演的表情分量数据,并将所述表情分量数据转换为所述表情定义模型的权重曲线,所述表情分量数据具有感官上的语义信息;
面部动画获得模块,用于对所述表情定义模型的权重曲线进行调整,获得所述动画角色的面部动画;
其中,所述获取面部表演的表情分量数据,并将所述表情分量数据转换为所述表情定义模型的权重曲线,包括:使用表情动画记录工具捕捉演员面部表演的表情分量数据;使用表情编辑工具将所述表情分量数据转换为所述表情定义模型的权重曲线,所述表情动画记录工具是基于Apple AR Kit技术框架标准的应用程序接口开发的移动应用程序。
6.根据权利要求5所述的装置,其特征在于,所述骨骼模型获取模块,包括:
面部数据获取模块,用于获取所述动画角色的面部模型和所述动画角色的面部骨骼;
模型绑定骨骼模块,用于将所述面部模型绑定至所述面部骨骼,获得所述面部骨骼模型。
7.根据权利要求6所述的装置,其特征在于,所述面部数据获取模块,包括:
面部数据制作模块,用于使用数字内容创作软件制作所述动画角色的面部模型和所述动画角色的面部骨骼;或者,
面部数据读取模块,用于读取所述面部模型和所述面部骨骼,所述面部模型和所述面部骨骼是使用数字内容创作软件制作的。
8.一种电子设备,其特征在于,包括:处理器和存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述机器可读指令被所述处理器执行时执行如权利要求1至4任一所述的方法。
9.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至4任一所述的方法。
CN202110982200.1A 2021-08-25 一种动画制作方法、装置、电子设备及存储介质 Active CN113781611B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110982200.1A CN113781611B (zh) 2021-08-25 一种动画制作方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110982200.1A CN113781611B (zh) 2021-08-25 一种动画制作方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113781611A CN113781611A (zh) 2021-12-10
CN113781611B true CN113781611B (zh) 2024-06-25

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599309A (zh) * 2015-01-09 2015-05-06 北京科艺有容科技有限责任公司 一种基于元表情的三维动画角色的表情生成方法
CN107657651A (zh) * 2017-08-28 2018-02-02 腾讯科技(上海)有限公司 表情动画生成方法和装置、存储介质及电子装置
CN108564642A (zh) * 2018-03-16 2018-09-21 中国科学院自动化研究所 基于ue引擎的无标记表演捕捉系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599309A (zh) * 2015-01-09 2015-05-06 北京科艺有容科技有限责任公司 一种基于元表情的三维动画角色的表情生成方法
CN107657651A (zh) * 2017-08-28 2018-02-02 腾讯科技(上海)有限公司 表情动画生成方法和装置、存储介质及电子装置
CN108564642A (zh) * 2018-03-16 2018-09-21 中国科学院自动化研究所 基于ue引擎的无标记表演捕捉系统

Similar Documents

Publication Publication Date Title
US11170558B2 (en) Automatic rigging of three dimensional characters for animation
US11062494B2 (en) Electronic messaging utilizing animatable 3D models
CN109377544B (zh) 一种人脸三维图像生成方法、装置和可读介质
CN108335345B (zh) 面部动画模型的控制方法及装置、计算设备
US20200020173A1 (en) Methods and systems for constructing an animated 3d facial model from a 2d facial image
CN113272870A (zh) 用于逼真的实时人像动画的系统和方法
CN110517337B (zh) 动画角色表情生成方法、动画制作方法及电子设备
CN109035415B (zh) 虚拟模型的处理方法、装置、设备和计算机可读存储介质
US20220156987A1 (en) Adaptive convolutions in neural networks
KR20230097157A (ko) 개인화된 3d 헤드 모델 변형을 위한 방법 및 시스템
JP7401606B2 (ja) 仮想オブジェクトリップ駆動方法、モデル訓練方法、関連装置及び電子機器
CN112150594B (zh) 表情制作的方法、装置和电子设备
WO2023221684A1 (zh) 数字人生成方法和装置及存储介质
CN115100334B (zh) 一种图像描边、图像动漫化方法、设备及存储介质
CN114202615A (zh) 人脸表情的重建方法、装置、设备和存储介质
KR20230085931A (ko) 얼굴 이미지에서 색상을 추출하기 위한 방법 및 시스템
CN114730480A (zh) 基于体积捕获和网格跟踪的机器学习
CN116342782A (zh) 生成虚拟形象渲染模型的方法和装置
CN113313631B (zh) 图像渲染方法和装置
US11741650B2 (en) Advanced electronic messaging utilizing animatable 3D models
CN112714337A (zh) 视频处理方法、装置、电子设备和存储介质
CN113781611B (zh) 一种动画制作方法、装置、电子设备及存储介质
CN111476868B (zh) 基于深度学习的动画生成模型训练、动画生成方法及装置
CN113781611A (zh) 一种动画制作方法、装置、电子设备及存储介质
US20240135616A1 (en) Automated system for generation of facial animation rigs

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant