CN112150594B - 表情制作的方法、装置和电子设备 - Google Patents
表情制作的方法、装置和电子设备 Download PDFInfo
- Publication number
- CN112150594B CN112150594B CN202011012478.8A CN202011012478A CN112150594B CN 112150594 B CN112150594 B CN 112150594B CN 202011012478 A CN202011012478 A CN 202011012478A CN 112150594 B CN112150594 B CN 112150594B
- Authority
- CN
- China
- Prior art keywords
- expression
- target
- deformation data
- basic
- vertex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种表情制作的方法、装置和电子设备。其中,该方法包括:获取预设的基础面部模型以及基础顶点变形数据;从目标视频中获取目标对象的表情变形数据;根据目标对象的表情变形数据和基础面部模型对应的基础顶点变形数据,获得基础面部模型中对应的表情组件的目标顶点变形数据;根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。该方式中,可以根据表情变形数据确定目标顶点变形数据;顶点序列相同的基础面部模型之间可以通用上述目标顶点变形数据,无需为模型添加骨骼点或者细微调整模型的每个顶点,可以大大降低模型的制作周期和制作成本。
Description
技术领域
本发明涉及面部捕捉技术领域,尤其是涉及一种表情制作的方法、装置和电子设备。
背景技术
传统的虚拟角色动画制作方法有两种,第一种方法是统一制作身体动画和表情动画,其中需要制作骨骼以保证虚拟角色动画更加自然和生动。这种方法需要在虚拟角色的面部添加很多骨骼点,并由动画师频繁地细微调整骨骼点的位置,因此需要耗费很多的时间,增加制作成本。第二种方法是顶点变形方法,这种方法需要模型师和动画师配合进行,动画师绘制初步的表情,再由模型师细微调整表情中的每个顶点以达到最终需要的效果,因此也需要耗费很多的时间,增加制作成本。
综上,上述两种传统的虚拟角色动画制作方法均需要进行非常多的细微调整,需要耗费大量的时间,导致角色动画的制作周期较长、制作成本较高。
发明内容
有鉴于此,本发明的目的在于提供一种表情制作的方法、装置和电子设备,以降低角色动画的制作周期和制作成本。
第一方面,本发明实施例提供了一种表情制作的方法,方法包括:获取预设的基础面部模型以及基础顶点变形数据,基础顶点变形数据用于表示基础面部模型中各表情组件的顶点变形范围;基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,表情变形数据用于表示目标对象呈现目标表情时对应的表情组件的状态数据;根据目标对象的表情变形数据和基础面部模型对应的基础顶点变形数据,获得基础面部模型中对应的表情组件的目标顶点变形数据;根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
在本发明较佳的实施例中,上述根据目标对象的表情变形数据和基础面部模型对应的基础顶点变形数据,获得基础面部模型中对应的表情组件的目标顶点变形数据,包括:根据目标对象的表情变形数据确定基础面部模型中待变化的表情组件,作为目标表情组件;获取目标表情组件对应的基础顶点变形数据;根据目标表情组件对应的表情变形数据和基础顶点变形数据,获得目标表情组件的目标顶点变形数据。
在本发明较佳的实施例中,上述根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型,包括:根据目标顶点变形数据调整基础面部模型的控制器中对应的控制组件;控制器包括两个以上的控制组件,两个以上的控制组件分别用于控制基础面部模型的每个表情组件的顶点的移动;根据控制组件的变化调整对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
在本发明较佳的实施例中,上述方法还包括:响应于针对控制器中目标控制组件的调整操作,调整目标控制组件;根据目标控制组件的变化调整对应的表情组件的顶点移动。
在本发明较佳的实施例中,上述根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型,包括:根据目标顶点变形数据分别控制两个以上点序相同的基础面部模型中对应的表情组件的顶点移动,得到两个以上的包含目标表情的基础面部模型。
在本发明较佳的实施例中,上述方法还包括:将目标顶点变形数据保存至预先建立的表情库中。
在本发明较佳的实施例中,上述将目标顶点变形数据保存至预先建立的表情库中,包括:基于目标表情确定目标顶点变形数据对应的目标表情标签;将目标表情标签和目标顶点变形数据保存至预先建立的表情库中。
在本发明较佳的实施例中,上述方法还包括:响应于目标表情标签选择操作,确定目标表情标签;从表情库中查找目标表情标签对应的目标顶点变形数据。
第二方面,本发明实施例还提供一种表情制作的装置,装置包括:基础面部模型获取模块,用于获取预设的基础面部模型以及基础顶点变形数据,基础顶点变形数据用于表示基础面部模型中各表情组件的顶点变形范围;表情变形数据确定模块,用于基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,表情变形数据用于表示目标对象呈现目标表情时对应的表情组件的状态数据;目标顶点变形数据确定模块,用于根据目标对象的表情变形数据和基础面部模型对应的基础顶点变形数据,获得基础面部模型中对应的表情组件的目标顶点变形数据;基础面部模型制作模块,用于根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
第三方面,本发明实施例还提供一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的计算机可执行指令,处理器执行计算机可执行指令以上述表情制作的方法的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述表情制作的方法的步骤。
本发明实施例带来了以下有益效果:
本发明实施例提供的一种表情制作的方法、装置和电子设备,面部捕捉模块从目标视频中获取目标对象的表情变形数据,根据上述表情变形数据和基础面部模型对应的基础顶点变形数据确定基础面部模型中对应的表情组件的目标顶点变形数据,并根据目标顶点变形数据生成包含目标表情的基础面部模型。该方式中,可以通过面部捕捉技术快速确定目标对象的表情变形数据,从而可以根据表情变形数据确定基础面部模型的目标顶点变形数据;顶点序列相同的基础面部模型之间可以通用上述目标顶点变形数据,从而实现基础面部模型的目标表情,无需为模型添加骨骼点或者细微调整模型的每个顶点,可以大大降低模型的制作周期和制作成本。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基础面部模型的示意图;
图2为本发明实施例提供的一种表情制作的方法的流程图;
图3为本发明实施例提供的另一种表情制作的方法的流程图;
图4为本发明实施例提供的一种基础面部模型的制作方式示意图;
图5为本发明实施例提供的另一种基础面部模型的示意图;
图6为本发明实施例提供的一种表情制作的装置的结构示意图;
图7为本发明实施例提供的另一种表情制作的装置的结构示意图;
图8为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,传统的虚拟角色动画制作方法均需要进行非常多的细微调整,耗费大量的时间,因此导致角色动画的制作周期较长、制作成本较高。为了降低角色动画的制作周期和制作成本,本发明实施例提供的一种表情制作的方法、装置和电子设备,该技术可以应用于服务器、电脑、手机、平板电脑等可以实现人机交互的电子设备上,尤其可以适用于制作虚拟角色动画的场景中。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种表情制作的方法进行详细介绍。
本实施例提供了一种表情制作的方法,应用于电子设备。其中,本实施例中的电子设备可以为服务器、手机、电脑、平板电脑、笔记本电脑等可以进行人机交互的电子设备。在电子设备后中可以预先存储基础面部模型。参见图1所示的一种基础面部模型的示意图,基础面部模型携带有多个表情组件,通过调整表情组件可以调解面部中不同的五官,以使基础面部模型做出不同的表情。例如:左边上挑眉、右边上挑眉、左嘴角翘起、右嘴角翘起等。
每个表情组件都有其对应的基础顶点变形数据。基础顶点变形数据可以理解为基础面部模型中各表情组件的顶点变形范围,例如:对于表征嘴巴的表情组件,基础顶点变形数据可以为0-1,其中,0可以代表完全闭合,1可以代表完全张开,根据用户的需要从0-1的范围内选择合适的顶点变形数据,顶点变形数据越接近0则嘴巴越接近闭合,顶点变形数据越接近1则嘴巴越接近张开。
基于上述描述,参见图2所示的一种表情制作的方法的流程图,该一种表情制作的方法包括如下步骤:
步骤S202,获取预设的基础面部模型以及基础顶点变形数据,基础顶点变形数据用于表示基础面部模型中各表情组件的顶点变形范围。
在电子设备中可以预先存储有基础面部模型,基础面部模型携带有多个表情组件,每个表情组件都有其对应的基础顶点变形数据。用户想要制作基础面部模型时,可以先从电子设备中获取预设的基础面部模型,并同时获取该基础面部模型对应的基础顶点变形数据。其中,左眉、右眉、嘴巴,鼻子、左眼、右眼等都可以称为一个表情组件,表情组件可以用于表现表情的面部部位。
步骤S204,基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,表情变形数据用于表示目标对象呈现目标表情时对应的表情组件的状态数据。
面部捕捉技术是指使用机械装置、相机等设备记录目标对象面部表情和动作,将之转换为一系列参数数据的过程。通过面部捕捉技术可以确定目标视频中目标对象的包含的目标表情,以将上述目标表情移植于基础面部模型。
本实施例中的目标对象可以为人脸、或者动物的脸,本实施例中以人脸为例,目标视频可以为真实人脸视频。真实人脸视频可以为用户采用摄像头、相机等摄像设备录制的包含真实人脸的视频,用户可以在录制真实人脸视频时可以做出各种各样的指定表情,例如:高兴、悲伤、沮丧等,目标表情可以因此被记录在真实人脸视频中。
以人脸为例,基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,可以为通过面部捕捉模块获取真实人脸视频中人脸的各个五官的形貌,并可以确定表情变形数据。例如,如果面部捕捉模块将闭嘴定义为0,张嘴定义为1,那么表情变形数据可以为0或1,当电子设备接收到0时,可以确认接收到一个闭嘴的指令,需要控制基础面部模型展示一个闭嘴的表情。
本实施例中的面部捕捉模块可以发出表情对应的指令,具体表情的幅度都是与基础面部模型相关的,因此可以较好的实现目标表情与基础面部模型的匹配,从而提高基础面部模型的美观性。
传统骨骼表情动画方案包含骨架与模型,其中骨架包含了骨骼与关节,以及每一帧骨骼与关节的坐标信息,每个坐标信息的时间节点及权重数值。而本实施例提供的方法中的表情变形数据只有模型数据而没有骨架,储存的是数据是浮点型,只需要记录本身的权重数值。相比之下,本实施例简化了骨骼动画,且可以在引擎表情系统中通过调用顶点变形数据来实现角色表情共通性。
步骤S206,根据目标对象的表情变形数据和基础面部模型对应的基础顶点变形数据,获得基础面部模型中对应的表情组件的目标顶点变形数据。
在确定表情变形数据后,电子设备可以根据表情变形数据和顶点变形数据确定目标顶点变形数据,例如:电子设备接收到面部捕捉模块获取的表征嘴巴的表情组件的表情变形数据。表征嘴巴的表情组件的基础顶点变形数据可以为(0,0,0)到(0,2,0),其中,(0,0,0)表示闭嘴,(0,2,0)表示嘴巴全张开。
当接收到的表情变形数据是0时,表示需要做闭嘴的表情,确定目标表情对应的目标顶点变形数据为(0,0,0),当接收到的表情变形数据是1时,表示需要做嘴巴全张的表情,确定目标表情对应的目标顶点变形数据为(0,2,0),当接收到的表情变形数据是0.5时,表示需要做半张嘴半闭嘴的表情,确定目标表情对应的目标顶点变形数据为(0,1,0),(0,1,0)可以根据(0,0,0)到(0,2,0)计算获得。
步骤S208,根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
在确定目标顶点变形数据后,基础面部模型中对应的表情组件就可以根据目标顶点变形数据控制顶点进行位置的移动,从而使基础面部模型做出目标表情,可以获得包含目标表情的基础面部模型。
本发明实施例提供的一种表情制作的方法,面部捕捉模块从目标视频中获取目标对象的表情变形数据,根据上述表情变形数据和基础面部模型对应的基础顶点变形数据确定基础面部模型中对应的表情组件的目标顶点变形数据,并根据目标顶点变形数据生成包含目标表情的基础面部模型。该方式中,可以通过面部捕捉技术快速确定目标对象的表情变形数据,从而可以根据表情变形数据确定基础面部模型的目标顶点变形数据;顶点序列相同的基础面部模型之间可以通用上述目标顶点变形数据,从而实现基础面部模型的目标表情,无需为模型添加骨骼点或者细微调整模型的每个顶点,可以大大降低模型的制作周期和制作成本。
本实施例提供了另一种表情制作的方法,该方法在上述实施例的基础上实现;本实施例获取目标顶点变形的具体实施方式。如图3所示的另一种表情制作的方法的流程图,本实施例中的表情制作的方法包括如下步骤:
步骤S302,获取预设的基础面部模型以及基础顶点变形数据,基础顶点变形数据用于表示基础面部模型中各表情组件的顶点变形范围。
步骤S304,基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,表情变形数据用于表示目标对象呈现目标表情时对应的表情组件的状态数据。
本实施例中可以通过能够实时面部捕捉的轻量级面部捕捉AI(ArtificialIntelligence,人工智能)从目标视频中获取目标对象的表情变形数据。在面部捕捉AI捕捉目标表情前,可以为基础面部模型准备多个调节组件,如图1所示,可以在基础面部模型的脸型上架设一套方便制作表情骨骼的表情组件。本实施例提供的方法可以在IDE(Integrated Development Environment,集成开发环境)中实现,且可以在任意支持该实施例提供的方法的软件和引擎中实施。下述例子均在IDE软件3dsMax和AI面部捕捉软件AlxFace环境中测试。此外,本实施例中可以由用户通过摄像头、相机等采集目标视频以确定目标表情。
在获取目标视频后,面部捕捉模块可以从目标视频中获取目标对象的表情变形数据,例如,表情变形数据可以表征在目标视频中目标对象的面部五官的变化幅度。
具体来说,面部捕捉模块可以按照时间顺序获取目标视频的视频帧,对每个视频帧进行处理,从视频帧中识别目标对象,确定该视频帧下的目标对象的表情变形数据。
例如:假设一个目标视频有30秒,面部捕捉模块可以每隔0.5秒获取目标视频的视频帧。间隔时间是由用户自身确定的,如果间隔时间较少,则获取的视频帧更多,可以获得更多时间的表情变形数据,表情变形数据选择的余地更多,最后获得的基础面部模型更加逼真;如果间隔时间较长,获取的视频帧虽然较少,但是可以更加快速地确定表情变形数据,从而更快地获得包含目标表情的基础面部模型。
此外,如果想要获得固定目标表情的基础面部模型,可以从一个视频帧中确定目标对象的表情变形数据;如果想要获得目标表情不断变化的基础面部模型,则可以从多个视频帧中确定目标对象的多个表情变形数据,并据此制作基础面部模型。
步骤S306,根据目标对象的表情变形数据确定基础面部模型中待变化的表情组件,作为目标表情组件。
目标对象的表情变形数据可以表示目标对象呈现目标表情时对应的表情组件的状态数据。因此,在获取表情变形数据时可以获取其对应的表情组件,例如:表情变形数据的形式可以为15-1;其中,15可以表征表情组件的编号,1可以表征表情变形数据的具体数值。可以将上述编号对应的表情组件称为目标表情组件,目标表情组件即基础面部模型中待变化的表情组件。
如果一个表情组件是目标表情组件,则该表情组件是在本次制作表情的过程中需要对顶点变形数据进行调整的表情组件;如果一个表情组件不是目标表情组件,则该表情组件是在本次制作表情的过程中不需要对顶点变形数据进行调整的表情组件。
步骤S308,获取目标表情组件对应的基础顶点变形数据。
由于基础面部模型携带的多个表情组件均对应有预设的基础顶点变形数据,为了对目标表情组件的顶点变形数据进行调整,在确定目标表情组件后可以确定目标表情组件对应的基础顶点变形数据。
举例来说,基础面部模型携带有53个表情组件,上述53个表情组件有各自对应的基础顶点变形数据,每个基础顶点变形数据表征该表情组件的顶点变形范围。假设编号16的表情组件为目标表情组件,在调整该目标表情组件的顶点变形数据时,需要预先获取该目标表情组件的顶点变形范围。
步骤S310,根据目标表情组件对应的表情变形数据和基础顶点变形数据,获得目标表情组件的目标顶点变形数据。
对于每个表情组件,均可以通过函数的形式来表征表情变形数据、基础顶点变形数据和目标顶点变形数据的关系,其中,表情变形数据可以表征目标顶点变形数据的取值范围,表情变形数据可以为自变量,目标顶点变形数据可以为因变量。
例如,目标表情组件对应的函数可以为y=f(x),y表示表情变形数据,x表示目标顶点变形数据,y的取值范围即表情变形数据的范围。例如,目标顶点变形数据为0.5,表情变形数据为(0,0,0)到(0,2,0),函数为线性函数,则目标顶点变形数据为(0,1,0)。
步骤S312,根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
确定每个目标表情组件的目标顶点变形数据后,电子设备可以根据目标顶点变形数据对基础面部模型进行调整,即通过调整顶点变形数据使得表情组件的顶点移动。调整表情组件时电子设备可以自动调整,也可以响应用户的操作进行调整。对于自动调整,可以通过步骤A1-步骤A2执行:
步骤A1,根据目标顶点变形数据调整基础面部模型的控制器中对应的控制组件;控制器包括两个以上的控制组件,两个以上的控制组件分别用于控制基础面部模型的每个表情组件的顶点的移动。
电子设备可以根据目标顶点变形数据调整控制器中控制组件的数值,从而控制基础面部模型的每个表情组件的顶点的移动。参见图4所示的一种基础面部模型的制作方式示意图,图4中右侧包含有53个滑块,每个滑块都是一个控制组件,通过滑块可以调节基础面部模型的表情组件的顶点的移动;左侧为目标视频的一个视频帧,中间为制作得到的基础面部模型,可以看出左侧的目标视频和中间的基础面部模型都具有相同的表情“撇嘴”。
一般来说,一个表情组件可以对应至少一个控制组件,即一般通过至少一个控制组件调整一个表情组件。例如:想要将表情组件的坐标由(0,0,0)调整至(1,0,0),可以有3个控制组件分别用于调整该表情组件的横坐标、纵坐标和竖坐标。此时只需要调整该表情组件的横坐标对应的控制组件即可。
然而,也并不是说表情组件对应的控制组件的数量与表情组件的坐标的种类一致,例如:将表情组件的坐标为(1,1,1),然而该组件坐标的纵坐标固定为1,此时可以只有两个控制组件分别对应该表情组件的横坐标和竖坐标。
步骤A2,根据控制组件的变化调整对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
通过调整控制组件,基础面部模型的表情组件的顶点也会进行相应地移动,从而对面部模型的表情进行修改,已得到包含目标表情的基础面部模型。
除了由电子设备自动调整控制组件之外,电子设备还可以通过步骤B1-步骤B2响应用户的操作调整控制组件:
步骤B1,响应于针对控制器中目标控制组件的调整操作,调整目标控制组件;
用户可以通过鼠标、键盘的部件发起目标控制组件的调整操作,目标控制组件可以为控制器中的一个组件。如图4所示,假设编号22的控制组件为目标控制组件,目标控制组件的调整操作可以为调节目标控制组件(即滑块)的位置,电子设备可以响应于调整操作,调整目标控制组件。
步骤B2,根据目标控制组件的变化调整对应的表情组件的顶点移动。
当电子设备根据目标控制组件的变化调整对应的表情组件的顶点移动时,用户可以在电子设备的显示屏上观看调整后的基础面部模型,并继续发起目标控制组件的调整操作,继续调整基础面部模型,以获得包含目标表情的基础面部模型。
如果存在两个以上的点序相同的基础面部模型,本实施例中的目标顶点变形数据可以同时应用于上述至少两个基础面部模型中,例如:根据目标顶点变形数据分别控制两个以上点序相同的基础面部模型中对应的表情组件的顶点移动,得到两个以上的包含目标表情的基础面部模型。
两个基础面部模型的点序相同,可以为两个基础面部模型的顶点具有相同的分布方式,面部标准模型与基础面部模型的调节组件相互对应且位置关系相同。因此,目标顶点变形数据可以同时应用于上述两个基础面部模型中。此外,两个点序相同的基础面部模型并不一定完全相同,参见图5所示的另一种基础面部模型的示意图,如图5所示,基础面部模型A和基础面部模型B并不相同,但是点序相同。因此,同一个目标顶点变形数据可以分别控制基础面部模型A和基础面部模型B对应的表情组件的顶点移动,得到包含目标表情的基础面部模型A和基础面部模型B。
由于顶点变形数据不用记录骨骼的相关数据,从而简化了骨骼动画。顶点变形数据可以记录权重数值,不仅仅可以应用在基础面部模型上,也可以应用到其他的模型上,具有角色表情共通性。因此可以建立一个表情库,表情库可以存储目标顶点变形数据,以便后续继续使用存储的目标顶点变形数据,因此,上述方法还包括:将目标顶点变形数据保存至预先建立的表情库中。
在确定目标表情的顶点变形数据后,如果该顶点变形数据具有良好的通用性和效果,可以将该顶点变形数据保存在表情库中,表情库也称为引擎表情系统。
表情库可以设置在电子设备中,也可以与电子设备通信连接,表情库用于保存目标顶点变形数据。当电子设备或者其他与表情库通信连接的电子设备需要使用目标顶点变形数据时,可以从表情库中进行查找。
为了方便查找,可以在存储目标顶点变形数据时输入对应的目标表情标签,例如:基于目标表情确定目标顶点变形数据对应的目标表情标签;将目标表情标签和目标顶点变形数据保存至预先建立的表情库中。
目标表情标签可以采用文字、数字或者字母的形式,用于表征目标顶点变形数据对应的目标表情。举例来说,可以将高兴的目标顶点变形数据保存至表情库中,并对该目标顶点变形数据添加高兴的目标表情标签。当其他用户想要制作具有高兴表情的其他模型时,可以从表情库中查找携带高兴标签的目标顶点变形数据,直接调用携带高兴标签的目标顶点变形数据并应用到上述其他模型中,可以节约模型制作的时间。
其中,电子设备确定并保存目标顶点变形数据之后,可以由其他电子设备建立其他基础面部模型。本实施例中的其他电子设备可以为服务器、手机、电脑、平板电脑、笔记本电脑等可以进行人机交互的电子设备。其他电子设备可以与电子设备为相同设备,也可以与电子设备为不同设备。在其他电子设备中可以预先存储有至少一个基础面部模型,基础面部模型是指为虚拟角色建立的表情模型,如果想要对虚拟角色X建立表情模型,就需要首先建立虚拟角色X的面部标准模型,并在虚拟角色X的面部标准模型上进行调整。
其他电子设备可以通过下述步骤调用目标顶点变形数据:响应于目标表情标签选择操作,确定目标表情标签;从表情库中查找目标表情标签对应的目标顶点变形数据。
目标表情标签选择操作由用户发起,用户可以输入目标表情标签的编号,用于从表情库中查找目标表情标签对应的目标顶点变形数据。例如:用户想要获取高兴对应的目标顶点变形数据,可以输入编号01(编号01可以对应高兴的标签),可以从表情库中查找对应的目标顶点变形数据。
本发明实施例提供的上述方法,通过面部捕捉AI快速面捕模型的顶点变形数据并保存在引擎表情系统。顶点变形数据具有良好的通用性,可以简化表情动画的制作流程,降低表情动画的制作成本。通过面部捕捉AI调用顶点变形组件可以更快达到目标表情效果,也可以减少后期因为适配其他脸型而进行的二次修改。
本发明实施例提供的上述方法,在资源占用上使用的顶点变形数据文件(也称为anim文件)只有几KB,而骨骼动画制作的表情动画最终每个anim文件则有几百KB以上(该anim文件的数据浮动受调用的骨骼数量影响)。因此在资源占用上,本发明实施例提供的上述方法能够将资源压缩数百倍,而且在资源调用上通过单一命令可在多模型上进行重复调用,同时也可以极大的降低性能消耗和制作成本。
需要说明的是,上述各方法实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
对应于上述方法实施例,本发明实施例提供了一种表情制作的装置;如图6所示的一种表情制作的装置的结构示意图,该表情制作的装置包括:
基础面部模型获取模块61,用于获取预设的基础面部模型以及基础顶点变形数据,基础顶点变形数据用于表示基础面部模型中各表情组件的顶点变形范围;
表情变形数据确定模块62,用于基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,表情变形数据用于表示目标对象呈现目标表情时对应的表情组件的状态数据;
目标顶点变形数据确定模块63,用于根据目标对象的表情变形数据和基础面部模型对应的基础顶点变形数据,获得基础面部模型中对应的表情组件的目标顶点变形数据;
基础面部模型制作模块64,用于根据目标顶点变形数据控制基础面部模型中对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
本发明实施例提供的一种表情制作的装置,面部捕捉模块从目标视频中获取目标对象的表情变形数据,根据上述表情变形数据和基础面部模型对应的基础顶点变形数据确定基础面部模型中对应的表情组件的目标顶点变形数据,并根据目标顶点变形数据生成包含目标表情的基础面部模型。该方式中,可以通过面部捕捉技术快速确定目标对象的表情变形数据,从而可以根据表情变形数据确定基础面部模型的目标顶点变形数据;顶点序列相同的基础面部模型之间可以通用上述目标顶点变形数据,从而实现基础面部模型的目标表情,无需为模型添加骨骼点或者细微调整模型的每个顶点,可以大大降低模型的制作周期和制作成本。
上述目标顶点变形数据确定模块,用于根据目标对象的表情变形数据确定基础面部模型中待变化的表情组件,作为目标表情组件;获取目标表情组件对应的基础顶点变形数据;根据目标表情组件对应的表情变形数据和基础顶点变形数据,获得目标表情组件的目标顶点变形数据。
上述基础面部模型制作模块,用于根据目标顶点变形数据调整基础面部模型的控制器中对应的控制组件;控制器包括两个以上的控制组件,两个以上的控制组件分别用于控制基础面部模型的每个表情组件的顶点的移动;根据控制组件的变化调整对应的表情组件的顶点移动,获得包含目标表情的基础面部模型。
上述基础面部模型制作模块,还用于响应于针对控制器中目标控制组件的调整操作,调整目标控制组件;根据目标控制组件的变化调整对应的表情组件的顶点移动。
上述基础面部模型制作模块,用于根据目标顶点变形数据分别控制两个以上点序相同的基础面部模型中对应的表情组件的顶点移动,得到两个以上的包含目标表情的基础面部模型。
参见图7所示的另一种表情制作的装置的结构示意图,该表情制作的装置还包括:表情库保存模块65,上述表情库保存模块65与目标顶点变形数据确定模块63连接,用于将目标顶点变形数据保存至预先建立的表情库中。
上述表情库保存模块,用于基于目标表情确定目标顶点变形数据对应的目标表情标签;将目标表情标签和目标顶点变形数据保存至预先建立的表情库中。
上述表情库保存模块,还用于响应于目标表情标签选择操作,确定目标表情标签;从表情库中查找目标表情标签对应的目标顶点变形数据。
本发明实施例还提供了一种电子设备,用于运行上述表情制作的方法;参见图8所示的一种电子设备的结构示意图,该电子设备包括存储器100和处理器101,其中,存储器100用于存储一条或多条计算机指令,一条或多条计算机指令被处理器101执行,以实现上述表情制作的方法。
进一步地,图8所示的电子设备还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。
其中,存储器100可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述表情制作的方法,具体实现可参见方法实施例,在此不再赘述。
本发明实施例所提供的一种表情制作的方法、装置和电子设备的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和/或装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (9)
1.一种表情制作的方法,其特征在于,所述方法包括:
获取预设的基础面部模型以及基础顶点变形数据,所述基础顶点变形数据用于表示所述基础面部模型中各表情组件的顶点变形范围;
基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,所述表情变形数据用于表示所述目标对象呈现目标表情时对应的表情组件的状态数据;
根据所述目标对象的表情变形数据确定所述基础面部模型中待变化的表情组件,作为目标表情组件;获取所述目标表情组件对应的基础顶点变形数据;根据所述目标表情组件对应的表情变形数据和基础顶点变形数据,获得所述目标表情组件的目标顶点变形数据;
根据所述目标顶点变形数据调整所述基础面部模型的控制器中对应的控制组件;所述控制器包括两个以上的控制组件,所述两个以上的控制组件分别用于控制所述基础面部模型的每个表情组件的顶点的移动;根据所述控制组件的变化调整对应的表情组件的顶点移动,获得包含所述目标表情的基础面部模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于针对所述控制器中目标控制组件的调整操作,调整所述目标控制组件;
根据所述目标控制组件的变化调整对应的表情组件的顶点移动。
3.根据权利要求1所述的方法,其特征在于,根据所述目标顶点变形数据控制所述基础面部模型中对应的表情组件的顶点移动,获得包含所述目标表情的基础面部模型,包括:
根据所述目标顶点变形数据分别控制两个以上点序相同的所述基础面部模型中对应的表情组件的顶点移动,得到两个以上的包含所述目标表情的基础面部模型。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述目标顶点变形数据保存至预先建立的表情库中。
5.根据权利要求4所述的方法,其特征在于,将所述目标顶点变形数据保存至预先建立的表情库中,包括:
基于所述目标表情确定所述目标顶点变形数据对应的目标表情标签;
将所述目标表情标签和所述目标顶点变形数据保存至预先建立的表情库中。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
响应于目标表情标签选择操作,确定所述目标表情标签;
从所述表情库中查找所述目标表情标签对应的目标顶点变形数据。
7.一种表情制作的装置,其特征在于,所述装置包括:
基础面部模型获取模块,用于获取预设的基础面部模型以及基础顶点变形数据,所述基础顶点变形数据用于表示所述基础面部模型中各表情组件的顶点变形范围;
表情变形数据确定模块,用于基于面部捕捉模块从目标视频中获取目标对象的表情变形数据,所述表情变形数据用于表示所述目标对象呈现目标表情时对应的表情组件的状态数据;
目标顶点变形数据确定模块,用于根据所述目标对象的表情变形数据确定所述基础面部模型中待变化的表情组件,作为目标表情组件;获取所述目标表情组件对应的基础顶点变形数据;根据所述目标表情组件对应的表情变形数据和基础顶点变形数据,获得所述目标表情组件的目标顶点变形数据;
基础面部模型制作模块,用于根据所述目标顶点变形数据调整所述基础面部模型的控制器中对应的控制组件;所述控制器包括两个以上的控制组件,所述两个以上的控制组件分别用于控制所述基础面部模型的每个表情组件的顶点的移动;根据所述控制组件的变化调整对应的表情组件的顶点移动,获得包含所述目标表情的基础面部模型。
8.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的计算机可执行指令,所述处理器执行所述计算机可执行指令以实现权利要求1-6任一项所述的表情制作的方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现权利要求1-6任一项所述的表情制作的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011012478.8A CN112150594B (zh) | 2020-09-23 | 2020-09-23 | 表情制作的方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011012478.8A CN112150594B (zh) | 2020-09-23 | 2020-09-23 | 表情制作的方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112150594A CN112150594A (zh) | 2020-12-29 |
CN112150594B true CN112150594B (zh) | 2023-07-04 |
Family
ID=73896477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011012478.8A Active CN112150594B (zh) | 2020-09-23 | 2020-09-23 | 表情制作的方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112150594B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112862936B (zh) * | 2021-03-16 | 2023-08-08 | 网易(杭州)网络有限公司 | 表情模型处理方法及装置、电子设备、存储介质 |
CN113470149B (zh) * | 2021-06-30 | 2022-05-06 | 完美世界(北京)软件科技发展有限公司 | 表情模型的生成方法及装置、存储介质、计算机设备 |
CN117237487A (zh) * | 2023-11-15 | 2023-12-15 | 北京蔚领时代科技有限公司 | 创建与编辑BlendShape节点的方法、装置、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009075880A (ja) * | 2007-09-20 | 2009-04-09 | Nippon Hoso Kyokai <Nhk> | 仮想顔モデル変形装置及び仮想顔モデル変形プログラム |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN109034099A (zh) * | 2018-08-14 | 2018-12-18 | 华中师范大学 | 一种表情识别方法及装置 |
CN110517337A (zh) * | 2019-08-29 | 2019-11-29 | 成都数字天空科技有限公司 | 动画角色表情生成方法、动画制作方法及电子设备 |
CN110610533A (zh) * | 2019-08-07 | 2019-12-24 | 重庆灵翎互娱科技有限公司 | 一种基于人脸三维网格模型进行表情捕捉的方法和设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11249636A (ja) * | 1998-03-05 | 1999-09-17 | Fujitsu Ltd | 表情画像再生装置及び表情画像再生方法 |
-
2020
- 2020-09-23 CN CN202011012478.8A patent/CN112150594B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009075880A (ja) * | 2007-09-20 | 2009-04-09 | Nippon Hoso Kyokai <Nhk> | 仮想顔モデル変形装置及び仮想顔モデル変形プログラム |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN109034099A (zh) * | 2018-08-14 | 2018-12-18 | 华中师范大学 | 一种表情识别方法及装置 |
CN110610533A (zh) * | 2019-08-07 | 2019-12-24 | 重庆灵翎互娱科技有限公司 | 一种基于人脸三维网格模型进行表情捕捉的方法和设备 |
CN110517337A (zh) * | 2019-08-29 | 2019-11-29 | 成都数字天空科技有限公司 | 动画角色表情生成方法、动画制作方法及电子设备 |
Non-Patent Citations (5)
Title |
---|
《基于2D几何与纹理信息分离模型的表情分析与合成》;林学阂等;《电子学报》;全文 * |
《虚拟人面部行为的合成》;高文等;《计算机学报》;全文 * |
基于Kinect与网格几何变形的人脸表情动画;张满囤;霍江雷;单新媛;王小芳;吴鸿韬;;计算机工程与应用(第14期);全文 * |
基于模型的面部图像生成方法;张静波,张桂林;计算机与数字工程(第03期);全文 * |
结合像素模式和特征点模式的实时表情识别;梁华刚;易生;茹锋;;中国图象图形学报(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112150594A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112150594B (zh) | 表情制作的方法、装置和电子设备 | |
JP7286684B2 (ja) | 顔に基づく特殊効果発生方法、装置および電子機器 | |
CN108010112B (zh) | 动画处理方法、装置及存储介质 | |
US20210174072A1 (en) | Microexpression-based image recognition method and apparatus, and related device | |
CN108335345B (zh) | 面部动画模型的控制方法及装置、计算设备 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
KR102491773B1 (ko) | 이미지 변형 제어 방법, 장치 및 하드웨어 장치 | |
US11816926B2 (en) | Interactive augmented reality content including facial synthesis | |
WO2023024442A1 (zh) | 检测方法、训练方法、装置、设备、存储介质和程序产品 | |
CN108564641A (zh) | 基于ue引擎的表情捕捉方法及装置 | |
KR20230098244A (ko) | 적응형 골격 관절 원활화 | |
US20220319060A1 (en) | Facial synthesis in augmented reality content for advertisements | |
US20240104954A1 (en) | Facial synthesis in augmented reality content for online communities | |
WO2022212503A1 (en) | Facial synthesis in augmented reality content for third party applications | |
CN113763518A (zh) | 基于虚拟数字人的多模态无限表情合成方法及装置 | |
US20240062500A1 (en) | Generating ground truths for machine learning | |
CN109816744B (zh) | 一种基于神经网络的二维特效图片生成方法和装置 | |
CN111506184A (zh) | 化身呈现方法及电子设备 | |
CN111507139A (zh) | 图像效果生成方法、装置和电子设备 | |
CN113781611A (zh) | 一种动画制作方法、装置、电子设备及存储介质 | |
CN113763517A (zh) | 人脸表情编辑方法及电子设备 | |
CN115714888B (zh) | 视频生成方法、装置、设备与计算机可读存储介质 | |
CN110390716A (zh) | 基于信号分析的虚拟模型建造系统 | |
Lim et al. | 3D caricature generation system on the mobile handset using a single photograph | |
US12002160B2 (en) | Avatar generation method, apparatus and device, and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |