CN110874869A - 生成虚拟动画表情的方法和装置 - Google Patents
生成虚拟动画表情的方法和装置 Download PDFInfo
- Publication number
- CN110874869A CN110874869A CN201811014199.8A CN201811014199A CN110874869A CN 110874869 A CN110874869 A CN 110874869A CN 201811014199 A CN201811014199 A CN 201811014199A CN 110874869 A CN110874869 A CN 110874869A
- Authority
- CN
- China
- Prior art keywords
- expression
- grid
- base
- emotional
- basic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Architecture (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了生成虚拟动画表情的方法和装置。该生成虚拟动画表情的方法包括:获取人脸视频的当前帧;获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。该方法通过情感表情标签的方式来生成说话过程中的情感化表情动画,可以使得动画生动、逼真,提升了动画效果,并减少了人工操作。
Description
技术领域
本申请涉及计算机技术领域,具体涉及计算机网络技术领域,尤其涉及生成虚拟动画表情的方法和装置。
背景技术
为了获得更丰富的表情动作,需要虚拟动画的形象在说话时融合一些特殊的情感表情。例如,微笑着说话,悲伤地说话,俏皮地说话等等。此外,我们需要合成带有多种情感表情的面部动作,例如“鄙视地笑”这个动作既有带有“鄙视”又带有“笑”的情感表情。“带有愤怒的惊讶”则带有“惊讶”和“愤怒”的这两种情感表情。
目前在合成形象时,如果要在说话过程中加入情感表情,通常采用以下两种方式来实现:一种方式是通过美术人员在3D建模软件(例如Autodesk Maya、blender等)里对已经合成的说话时的3D模型进行模型调整,对动画的每一帧进行手工操作,形成关键帧。另一种方式是采集发言人在不同情感表情时的说话数据(图像或者音频数据),重新训练模型来得到人物形象说话过程中在不同情感表情状态下的表情基系数。
然而,通过手工调整的方式,需要美术人员进行大量的人工操作,工作效率低,人工成本高,并且生成的3D模型往往不可复用。通过数据采集训练模型的方式,由于情感表情和表情基之间的耦合,需要采集在每一种情感表情状态下的说话动作,作为样本,才能进行训练。由于情感表情跟说话动作之间的组合多种多样,因此需要发言人在不同表情下进行说话,对发言人的要求很高,同时采集的数据量也很大。
发明内容
本申请实施例提供了生成虚拟动画表情的方法和装置。
第一方面,本申请实施例提供了一种生成虚拟动画表情的方法,包括:获取人脸视频的当前帧;获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
在一些实施例中,所述基础表情基网格采用基础表情基特征向量表示;以及所述情感表情网格采用情感表情特征向量表示。
在一些实施例中,所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示。
在一些实施例中,所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示包括:采用最小二乘法将所述情感表情特征向量投影至由所述基础表情特征向量组成的线性空间中,得到所述情感表情特征向量的投影表示;基于以下约束条件确定所述情感表情特征向量投影至所述投影表示的投影系数:所述情感表情特征向量与所述投影表示在空间上的直线距离为最小值;以及所述投影系数在0与1之间。
在一些实施例中,所述基础表情基网格采用基础表情基特征向量表示包括:采用主成分分析算法降维所述基础表情基网格的顶点维度,得到基础表情基网格降维后的基础表情基特征向量。
在一些实施例中,所述情感表情网格采用情感表情特征向量表示包括:采用主成分分析算法降维所述情感表情网格的顶点维度,得到情感表情网格降维后的情感表情特征向量。
第二方面,本申请实施例提供了一种生成虚拟动画表情的装置,包括:视频帧获取单元,被配置成获取人脸视频的当前帧;系数标签获取单元,被配置成获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;情感系数确定单元,被配置成基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;人脸网格确定单元,被配置成将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
在一些实施例中,所述系数标签获取单元中的所述基础表情基网格采用基础表情基特征向量表示;以及所述情感系数确定单元中的所述情感表情网格采用情感表情特征向量表示。
在一些实施例中,所述情感系数确定单元中的所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示。
在一些实施例中,所述情感系数确定单元中的所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示包括:采用最小二乘法将所述情感表情特征向量投影至由所述基础表情特征向量组成的线性空间中,得到所述情感表情特征向量的投影表示;基于以下约束条件确定所述情感表情特征向量投影至所述投影表示的投影系数:所述情感表情特征向量与所述投影表示在空间上的直线距离为最小值;以及所述投影系数在0与1之间。
在一些实施例中,所述系数标签获取单元中所述基础表情基网格采用基础表情基特征向量表示包括:采用主成分分析算法降维所述基础表情基网格的顶点维度,得到基础表情基网格降维后的基础表情基特征向量。
在一些实施例中,所述情感系数确定单元中的所述情感表情网格采用情感表情特征向量表示包括:采用主成分分析算法降维所述情感表情网格的顶点维度,得到情感表情网格降维后的情感表情特征向量。
第三方面,本申请实施例提供了一种设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上任一所述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一所述的方法。
本申请实施例提供的生成虚拟动画表情的方法和装置,首先,获取人脸视频的当前帧;之后,获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;之后,基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;最后,将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。在这一过程中,通过情感表情标签的方式来生成说话过程中的情感化表情动画,可以使得动画生动、逼真。与现有技术中通过手工调整需要美术人员进行大量的人工操作、生成的3D模型往往不可复用相比,或者与现有技术中通过数据采集训练模型需要采集在每一种情感表情状态下的说话动作作为样本,由于情感表情跟说话动作之间的组合多种多样,需要发言人在不同表情下进行说话,对发言人的要求很高、采集的数据量很大相比,提升了动画效果,并减少了人工操作。
附图说明
通过阅读参照以下附图所作的对非限制性实施例详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的生成虚拟动画表情的方法的一个实施例的流程示意图;
图2.1为图2中的生成虚拟动画表情的方法的一个实施例的正常表情的三维模型的实施例示意图;
图2.2、2.3、2.4、2.5分别为图2中的生成虚拟动画表情的方法的一个实施例的基础表情基的三维模型的实施例示意图;
图2.6为图2中的生成虚拟动画表情的方法的一个实施例的情感表情的三维模型的实施例示意图;
图3是根据本申请实施例的生成虚拟动画表情的方法的一个应用场景示意图;
图4是根据本申请的生成虚拟动画表情的方法的又一个实施例的流程示意图;
图5是本申请的生成虚拟动画表情的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。本领域技术人员还将理解的是,虽然本文中可使用用语“第一”、“第二”来描述权重系数,但是这些权重系数不应被这些用语限制。这些用语仅用于将一个权重系数与其它权重系数区分开。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频采集类应用、视频播放类应用、即时通信工具、邮箱客户端、社交平台软件、搜索引擎类应用、购物类应用等。
终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105、106可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对终端提交的数据进行分析、存储或计算等处理,并将分析、存储或计算结果推送给终端设备。
需要说明的是,在实践中,本申请实施例所提供的生成虚拟动画表情的方法一般由服务器105、106执行,相应地,生成虚拟动画表情的装置一般设置于服务器105、106中。然而,当终端设备的性能可以满足该方法的执行条件或该设备的设置条件时,本申请实施例所提供的生成虚拟动画表情的方法也可以由终端设备101、102、103执行,生成虚拟动画表情的装置也可以设置于终端设备101、102、103中。
应该理解,图1中的终端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络和服务器。
继续参考图2,示出了根据本申请的生成虚拟动画表情的方法的一个实施例的流程200。该生成虚拟动画表情的方法,包括以下步骤:
步骤201,获取人脸视频的当前帧。
在本实施例中,上述生成虚拟动画表情的方法运行于其上的电子设备(例如图1所示的服务器或终端)可以从视频库或其它终端获取发言人或配音人的视频。对于视频中的视频帧,可以依序分别进行处理。当前处理的视频帧即为当前帧。
步骤202,获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签。
在本实施例中,当前帧的脸部表情网格可以采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。这里的正常表情,是指自然表情。这里的基础表情基,是指自然表情在局部范围内的变形,为预先针对特定的人物或者动物形象建立的3D模型。
在一个示例中,将带某种情感的说话表情动作E,分解为正常表情网格En、情感表情网格MEk(k=0,1,…K-1)和基础表情网格AUi(i=0,1,…N-1)的线性加权。如下方公式所示:
其中,αk为情感表情网格MEk的第一权重系数,0≤αk≤1.0。βi为基础表情网格AUi的第二权重系数,0≤βk≤1.0。
在实现脸部表情网格时所采用的各个基础表情基网格的权重,为第一权重系数。当前帧的脸部表情网格的情感标签,可以采用人工进行识别或采用人工智能进行识别得到。
在这里,确定基础表情基及其对应的第一权重系数的方法,可以为现有技术中或未来发展的技术中用于确定各个基础表情网格的权重系数的方法,本申请对此不作限定。例如,可以采用基于样例的面部表情基生成方法等来确定各个基础表情网格的权重系数。
在一个示例中,预先建立基础表情基的3D模型库AUi(i=0,1,…N-1),N=51。这51个基础表情基形象,表示了形象的基础表情动作。
示例性地,图2.1展示了一位女性形象的正常表情的三维模型的实施例示意图。图2.2、2.3、2.4和2.5分别示出了4个基础表情基的三维模型的实施例示意图,分别为闭右眼、闭左眼、向左撇嘴和嘟嘴。
步骤203,基于情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数。
在本实施例中,可以根据情感标签来融合多个情感表情网格。情感表情网格可以为预先针对基础表情基的形象建立的情感表情的3D模型。
在一个示例中,预先建立情感表情的3D模型库MEk(k=0,1,…K-1),K为大于1的自然数。例如:微笑,大笑,悲伤,愤怒等。图2.6展示了一位女性形象的微笑情感表情的三维模型的实施例示意图。
步骤204,将第一权重系数和第二权重系数分别输入脸部表情模型,确定脸部表情网格。
在本实施例中,脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
在确定第一权重系数和第二权重系数之后,将这些权重系数及其对应的网格输入脸部表情模型,可以得到脸部表情网格。
以下结合图3,描述本申请的生成虚拟动画表情的方法的示例性应用场景。
如图3所示,图3示出了根据本申请的生成虚拟动画表情的方法的一个应用场景的示意性流程图。
如图3所示,生成虚拟动画表情的方法300运行于电子设备310中,可以包括:
首先,获取人脸视频的当前帧301;
之后,获取当前帧301的脸部表情网格302对应各个基础表情基网格303的第一权重系数304和情感表情标签305;
之后,基于情感表情标签305,确定当前帧304的脸部表情网格302对应各个情感表情网格306的第二权重系数307;
最后,将第一权重系数304和第二权重系数307分别输入脸部表情模型308,确定脸部表情网格302。其中,脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
应当理解,上述图3中所示出的生成虚拟动画表情的方法的应用场景,仅为对于生成虚拟动画表情的方法的示例性描述,并不代表对该方法的限定。例如,上述图3中示出的各个步骤,可以进一步采用更为细节的实现方法。
本申请上述实施例提供的生成虚拟动画表情的方法,首先获取人脸视频的当前帧;之后,获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;之后,基于情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;最后,将第一权重系数和第二权重系数分别输入脸部表情模型,确定脸部表情网格。在这一过程中,通过情感表情标签的方式来生成说话过程中的情感化表情动画,可以使得动画生动、逼真。与现有技术中通过手工调整需要美术人员进行大量的人工操作、生成的3D模型往往不可复用相比,或者与现有技术中通过数据采集训练模型需要采集在每一种情感表情状态下的说话动作作为样本,由于情感表情跟说话动作之间的组合多种多样,需要发言人在不同表情下进行说话,对发言人的要求很高、采集的数据量很大相比,提升了动画效果,并减少了人工操作。
请参考图4,其示出了根据本申请的生成虚拟动画表情的方法的又一个实施例的流程图。
如图4所示,本实施例的生成虚拟动画表情的方法的流程400,可以包括以下步骤:
在步骤401中,获取人脸视频的当前帧。
在本实施例中,上述生成虚拟动画表情的方法运行于其上的电子设备(例如图1所示的服务器或终端)可以从视频库或其它终端获取发言人或配音人的视频。对于视频中的视频帧,可以依序分别进行处理。当前处理的视频帧即为当前帧。
在步骤402中,获取当前帧的脸部表情网格对应各个采用基础表情基特征向量表示的基础表情基网格的第一权重系数和情感表情标签。
在本实施例中,当前帧的脸部表情网格可以采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。这里的正常表情,是指特定的人物或者动物形象(虚拟动画形象)的自然表情。这里的基础表情基,是指自然表情在局部范围内的变形,为预先针对特定的人物或者动物形象建立的3D模型。
在一个示例中,将带某种情感的说话表情动作E,分解为正常表情网格En、情感表情网格MEk(k=0,1,…K-1)和基础表情网格AUi(i=0,1,…N-1)的线性加权。如下方公式所示:
其中,αk为情感表情网格MEk的第一权重系数,0≤αk≤1.0。βi为基础表情网格AUi的第二权重系数,0≤βk≤1.0。
在实现脸部表情网格时所采用的各个基础表情基网格的权重,为第一权重系数。当前帧的脸部表情网格的情感标签,可以采用人工进行识别或采用人工智能进行识别得到。
在这里,确定基础表情基及其对应的第一权重系数的方法,可以为现有技术中或未来发展的技术中用于确定各个基础表情网格的权重系数的方法,本申请对此不作限定。例如,可以采用基于样例的面部表情基生成方法等来确定各个基础表情网格的权重系数。
在一个示例中,预先建立基础表情基的3D模型库AUi(i=0,1,…N-1),N=51。这51个基础表情基形象,表示了形象的基础表情动作。
示例性地,图2.1展示了一位女性形象的正常表情的三维模型的实施例示意图。图2.2、2.3、2.4和2.5分别示出了4个基础表情基的三维模型的实施例示意图,分别为闭右眼、闭左眼、向左撇嘴和嘟嘴。
在此基础上,可以通过对基础表情基网格降维来确定基础表情特征向量。例如采用局部线性嵌入算法(LLE)、拉普拉斯特征映射算法等对基础表情基网格降维来确定基础表情特征向量。
在本实施例的一些可选实现方式中,基础表情基网格采用基础表情基特征向量表示包括:采用主成分分析算法降维基础表情基网格的顶点维度,得到基础表情基网格降维后的基础表情基特征向量。
在本实现方式中,可以采用主成分分析CPCA或NPCA来确定情感表情特征向量。其中,CPCA基于网格模型的顶点统计属性而得到投影矩阵,NPCA基于网格模型的表面法向量统计属性而得到投影矩阵。
在一个具体的示例中,对于基础表情基网格AUi,采用CPCA对AUi的顶点维度进行降维,AUi降维后的特征向量为bsi:
bsi=Q×AUi
其中Q为AUi的CPCA算法得到的投影矩阵。
在步骤403中,基于情感表情标签,确定当前帧的脸部表情网格对应各个采用情感表情特征向量表示的情感表情网格的第二权重系数。
在本实施例中,可以根据情感标签来融合多个情感表情网格。情感表情网格可以为预先针对基础表情基的形象建立的情感表情的3D模型。这里的情感表情,是指特定的人物或者动物形象的情感表情,例如:微笑,大笑,悲伤,愤怒等。
在一个示例中,预先建立情感表情的3D模型库MEk(k=0,1,…K-1),K为大于1的自然数。例如:微笑,大笑,悲伤,愤怒等。图2.6展示了一位女性形象的微笑情感表情的三维模型的实施例示意图。
在此基础上,可以通过对情感表情网格将维来确定情感表情特征向量。应当理解,此处的降维方法应当与上述对基础表情基网格降维的方法相同。
在本实施例的一些可选实现方式中,情感表情网格采用情感表情特征向量表示包括:采用主成分分析算法降维情感表情网格的顶点维度,得到情感表情网格降维后的情感表情特征向量。
在本实现方式中,由于在对基础表情基网格降维时已得到投影矩阵,可以采用该投影矩阵降维情感表情网格的定点维度,得到情感表情网格降维后的情感表情特征向量。
在一个具体的示例中,通过上述降维表情基网格的投影矩阵Q,可以将情感表情MEk进行投影获得Esk:
Esk=Q×MEk
在本实施例的一些可选实现方式中,情感表情特征向量采用预定数量的基础表情基特征向量的线性加权结果表示。
在本实现方式中,可以采用最小二乘法将情感表情特征向量投影至由基础表情特征向量组成的线性空间中,得到情感表情特征向量的投影表示;并基于以下约束条件确定情感表情特征向量投影至投影表示的投影系数:情感表情特征向量与投影表示在空间上的直线距离为最小值;以及投影系数在0与1之间。
在一个具体的示例中,情感表情特征向量Esk通过基础表情基特征向量bsi的线性加权来进行表示,采用最小二乘法将Esk投影到由bsi组成的线性空间中。此时,约束投影系数γki在0.0到1.0之间,最小化投影误差的2范数。
st.0≤γi≤1.0
因此,Esk可以由线性空间bsi表示:
在步骤404中,将第一权重系数和第二权重系数分别输入脸部表情模型,确定脸部表情网格。
在本实施例中,脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
在确定第一权重系数和第二权重系数之后,将这些权重系数及其对应的网格输入脸部表情模型,可以得到脸部表情网格。
在一个具体的示例中,基于上述采用bsi表示的AUi、采用bsi表示的MEk,可以得到采用bsi表示的脸部表情模型:
本申请上述实施例的生成虚拟动画表情的方法,通过降维后的基础表情基特征向量、情感表情基特征向量来实现基础表情基网格和情感表情基网格,减少了数据计算量,并将情感表情融合至说话表情中,使得虚拟动画表情可以融合多种情感表情,更为生动、逼真。
在部分实现方式中,进一步将情感表情基特征向量采用基础表情基特征向量表示,解耦了情感表情网格与基础表情网格,无需采集在每一种情感表情状态下的说话动作作为样本,即可进行训练,减少了发言人或配音人在不同表情下进行说话的难度。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种生成虚拟动画表情的装置的一个实施例,该装置实施例与图2-图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的生成虚拟动画表情的装置500可以包括:视频帧获取单元510,被配置成获取人脸视频的当前帧;系数标签获取单元520,被配置成获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;情感系数确定单元530,被配置成基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;人脸网格确定单元540,被配置成将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
在本实施例的一些可选实现方式中,所述系数标签获取单元中的所述基础表情基网格采用基础表情基特征向量表示;以及所述情感系数确定单元中的所述情感表情网格采用情感表情特征向量表示。
在本实施例的一些可选实现方式中,所述情感系数确定单元中的所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示。
在本实施例的一些可选实现方式中,所述情感系数确定单元中的所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示包括:采用最小二乘法将所述情感表情特征向量投影至由所述基础表情特征向量组成的线性空间中,得到所述情感表情特征向量的投影表示;基于以下约束条件确定所述情感表情特征向量投影至所述投影表示的投影系数:所述情感表情特征向量与所述投影表示在空间上的直线距离为最小值;以及所述投影系数在0与1之间。
在本实施例的一些可选实现方式中,所述系数标签获取单元中所述基础表情基网格采用基础表情基特征向量表示包括:采用主成分分析算法降维所述基础表情基网格的顶点维度,得到基础表情基网格降维后的基础表情基特征向量。
在本实施例的一些可选实现方式中,所述情感系数确定单元中的所述情感表情网格采用情感表情特征向量表示包括:采用主成分分析算法降维所述情感表情网格的顶点维度,得到情感表情网格降维后的情感表情特征向量。
应当理解,装置500中记载的诸单元可以与参考图2-图4描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括视频帧获取单元、系数标签获取单元、情感系数确定单元和人脸网格确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,视频帧获取单元还可以被描述为“获取人脸视频的当前帧的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取人脸视频的当前帧;获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种生成虚拟动画表情的方法,包括:
获取人脸视频的当前帧;
获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;
基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;
将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
2.根据权利要求1所述的方法,其中,所述基础表情基网格采用基础表情基特征向量表示;以及
所述情感表情网格采用情感表情特征向量表示。
3.根据权利要求2所述的方法,其中,所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示。
4.根据权利要求3所述的方法,其中,所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示包括:
采用最小二乘法将所述情感表情特征向量投影至由所述基础表情特征向量组成的线性空间中,得到所述情感表情特征向量的投影表示;
基于以下约束条件确定所述情感表情特征向量投影至所述投影表示的投影系数:所述情感表情特征向量与所述投影表示在空间上的直线距离为最小值;以及所述投影系数在0与1之间。
5.根据权利要求2所述的方法,其中,所述基础表情基网格采用基础表情基特征向量表示包括:
采用主成分分析算法降维所述基础表情基网格的顶点维度,得到基础表情基网格降维后的基础表情基特征向量。
6.根据权利要求2所述的方法,其中,所述情感表情网格采用情感表情特征向量表示包括:
采用主成分分析算法降维所述情感表情网格的顶点维度,得到情感表情网格降维后的情感表情特征向量。
7.一种生成虚拟动画表情的装置,包括:
视频帧获取单元,被配置成获取人脸视频的当前帧;
系数标签获取单元,被配置成获取当前帧的脸部表情网格对应各个基础表情基网格的第一权重系数和情感表情标签;
情感系数确定单元,被配置成基于所述情感表情标签,确定当前帧的脸部表情网格对应各个情感表情网格的第二权重系数;
人脸网格确定单元,被配置成将所述第一权重系数和所述第二权重系数分别输入脸部表情模型,确定脸部表情网格,其中,所述脸部表情模型将脸部表情网格采用正常表情网格、预定数量的基础表情基网格的线性加权结果和预设数量的情感表情网格的线性加权结果表示。
8.根据权利要求7所述的装置,其中,所述系数标签获取单元中的所述基础表情基网格采用基础表情基特征向量表示;以及
所述情感系数确定单元中的所述情感表情网格采用情感表情特征向量表示。
9.根据权利要求8所述的装置,其中,所述情感系数确定单元中的所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示。
10.根据权利要求9所述的装置,其中,所述情感系数确定单元中的所述情感表情特征向量采用预定数量的所述基础表情基特征向量的线性加权结果表示包括:
采用最小二乘法将所述情感表情特征向量投影至由所述基础表情特征向量组成的线性空间中,得到所述情感表情特征向量的投影表示;
基于以下约束条件确定所述情感表情特征向量投影至所述投影表示的投影系数:所述情感表情特征向量与所述投影表示在空间上的直线距离为最小值;以及所述投影系数在0与1之间。
11.根据权利要求8所述的装置,其中,所述系数标签获取单元中所述基础表情基网格采用基础表情基特征向量表示包括:
采用主成分分析算法降维所述基础表情基网格的顶点维度,得到基础表情基网格降维后的基础表情基特征向量。
12.根据权利要求8所述的装置,其中,所述情感系数确定单元中的所述情感表情网格采用情感表情特征向量表示包括:
采用主成分分析算法降维所述情感表情网格的顶点维度,得到情感表情网格降维后的情感表情特征向量。
13.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811014199.8A CN110874869B (zh) | 2018-08-31 | 2018-08-31 | 生成虚拟动画表情的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811014199.8A CN110874869B (zh) | 2018-08-31 | 2018-08-31 | 生成虚拟动画表情的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110874869A true CN110874869A (zh) | 2020-03-10 |
CN110874869B CN110874869B (zh) | 2020-11-13 |
Family
ID=69715424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811014199.8A Active CN110874869B (zh) | 2018-08-31 | 2018-08-31 | 生成虚拟动画表情的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110874869B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598979A (zh) * | 2020-04-30 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 虚拟角色的面部动画生成方法、装置、设备及存储介质 |
CN113163155A (zh) * | 2021-04-30 | 2021-07-23 | 咪咕视讯科技有限公司 | 用户头像生成方法、装置、电子设备及存储介质 |
US11762457B1 (en) | 2019-09-27 | 2023-09-19 | Apple Inc. | User comfort monitoring and notification |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385691A (zh) * | 2010-08-31 | 2012-03-21 | 财团法人资讯工业策进会 | 脸部表情辨识系统、辨识装置及辨识方法 |
CN104217454A (zh) * | 2014-08-21 | 2014-12-17 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN104599309A (zh) * | 2015-01-09 | 2015-05-06 | 北京科艺有容科技有限责任公司 | 一种基于元表情的三维动画角色的表情生成方法 |
CN106060572A (zh) * | 2016-06-08 | 2016-10-26 | 乐视控股(北京)有限公司 | 视频播放方法及装置 |
CN106228119A (zh) * | 2016-07-13 | 2016-12-14 | 天远三维(天津)科技有限公司 | 一种表情捕捉及动画自动生成系统和方法 |
CN106485774A (zh) * | 2016-12-30 | 2017-03-08 | 当家移动绿色互联网技术集团有限公司 | 基于语音实时驱动人物模型的表情和姿态的方法 |
US20170301125A1 (en) * | 2013-06-07 | 2017-10-19 | Faceshift Ag | Online modeling for real-time facial animation |
WO2018142228A2 (en) * | 2017-01-19 | 2018-08-09 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
-
2018
- 2018-08-31 CN CN201811014199.8A patent/CN110874869B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385691A (zh) * | 2010-08-31 | 2012-03-21 | 财团法人资讯工业策进会 | 脸部表情辨识系统、辨识装置及辨识方法 |
US20170301125A1 (en) * | 2013-06-07 | 2017-10-19 | Faceshift Ag | Online modeling for real-time facial animation |
CN104217454A (zh) * | 2014-08-21 | 2014-12-17 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN104599309A (zh) * | 2015-01-09 | 2015-05-06 | 北京科艺有容科技有限责任公司 | 一种基于元表情的三维动画角色的表情生成方法 |
CN106060572A (zh) * | 2016-06-08 | 2016-10-26 | 乐视控股(北京)有限公司 | 视频播放方法及装置 |
CN106228119A (zh) * | 2016-07-13 | 2016-12-14 | 天远三维(天津)科技有限公司 | 一种表情捕捉及动画自动生成系统和方法 |
CN106485774A (zh) * | 2016-12-30 | 2017-03-08 | 当家移动绿色互联网技术集团有限公司 | 基于语音实时驱动人物模型的表情和姿态的方法 |
WO2018142228A2 (en) * | 2017-01-19 | 2018-08-09 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
Non-Patent Citations (2)
Title |
---|
GUAN-BO BAO: "Fast Multi-Operator Image Resizing and Evaluation", 《JOURNAL OF COMPUTER SCIENCE AND TECHNOLOGY》 * |
高娅莉: "基于Blendshape的人脸表情动画生成的研究与实现", 《万方数据库》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11762457B1 (en) | 2019-09-27 | 2023-09-19 | Apple Inc. | User comfort monitoring and notification |
CN111598979A (zh) * | 2020-04-30 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 虚拟角色的面部动画生成方法、装置、设备及存储介质 |
CN111598979B (zh) * | 2020-04-30 | 2023-03-31 | 腾讯科技(深圳)有限公司 | 虚拟角色的面部动画生成方法、装置、设备及存储介质 |
CN113163155A (zh) * | 2021-04-30 | 2021-07-23 | 咪咕视讯科技有限公司 | 用户头像生成方法、装置、电子设备及存储介质 |
CN113163155B (zh) * | 2021-04-30 | 2023-09-05 | 咪咕视讯科技有限公司 | 用户头像生成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110874869B (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255830B (zh) | 三维人脸重建方法和装置 | |
CN107633218B (zh) | 用于生成图像的方法和装置 | |
CN107578017B (zh) | 用于生成图像的方法和装置 | |
CN108961369B (zh) | 生成3d动画的方法和装置 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN107609506B (zh) | 用于生成图像的方法和装置 | |
US8923392B2 (en) | Methods and apparatus for face fitting and editing applications | |
CN108280451B (zh) | 语义分割及网络训练方法和装置、设备、介质 | |
CN110876024A (zh) | 确定虚拟形象唇部动作的方法和装置 | |
CN109740167B (zh) | 用于生成信息的方法和装置 | |
CN110298319B (zh) | 图像合成方法和装置 | |
CN110874869B (zh) | 生成虚拟动画表情的方法和装置 | |
CN115049799B (zh) | 3d模型和虚拟形象的生成方法和装置 | |
CN113688907A (zh) | 模型训练、视频处理方法,装置,设备以及存储介质 | |
JP2022172173A (ja) | 画像編集モデルのトレーニング方法および装置、画像編集方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
CN113380269B (zh) | 视频图像生成方法、装置、设备、介质和计算机程序产品 | |
CN113052962B (zh) | 模型训练、信息输出方法,装置,设备以及存储介质 | |
CN112634413B (zh) | 生成模型和生成3d动画的方法、装置、设备和存储介质 | |
US20240013464A1 (en) | Multimodal disentanglement for generating virtual human avatars | |
CN111260756B (zh) | 用于发送信息的方法和装置 | |
CN112308950A (zh) | 视频生成方法及装置 | |
CN113240780B (zh) | 生成动画的方法和装置 | |
CN114529649A (zh) | 图像处理方法和装置 | |
CN114419182A (zh) | 图像处理方法和装置 | |
CN111866609B (zh) | 用于生成视频的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |