CN107610209A - 人脸表情合成方法、装置、存储介质和计算机设备 - Google Patents
人脸表情合成方法、装置、存储介质和计算机设备 Download PDFInfo
- Publication number
- CN107610209A CN107610209A CN201710708218.6A CN201710708218A CN107610209A CN 107610209 A CN107610209 A CN 107610209A CN 201710708218 A CN201710708218 A CN 201710708218A CN 107610209 A CN107610209 A CN 107610209A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- expression
- point position
- faceforms
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种人脸表情合成方法、装置、存储介质和计算机设备。获取源视频和目标视频中的图像,源视频中的图像包含待合成至目标视频中的图像的表情,对图像中的人脸进行人脸特征点定位。对经过人脸特征点定位后的图像进行3D人脸建模,得到3D人脸模型,在3D人脸模型的形状层面,将源视频中图像的表情对应转移至目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型,对转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成脸模型。将2D人脸图像转换为3D人脸模型,这样能够将脸部的姿态与其形状分离开,用模型参数对表情、形状等部分用参数进行限定。所以对图像进行3D人脸建模可以便捷地实现保持人脸基本特征一致而改变表情的效果。
Description
技术领域
本发明涉及计算机视觉和计算机图形学技术领域,特别是涉及一种人脸表 情合成方法、装置、存储介质和计算机设备。
背景技术
近年来,一些研究者提出了“表情转移”技术,即捕捉视频中人脸表情后将其 转移予虚拟形象以完成动画制作。这些工作实现了虚拟人物的仿真化,赋予了 动画角色更加丰富生动的表情,有效地增添了动画作品的趣味性,提高了视觉 效果的真实感。而Thies J与他的同事们则走得更远一步,提出了在不同的真人 个体间进行表情转移,其工作内容是:同时获取两个视频,源视频与目标视频, 首先捕捉源视频中的人物表情,然后将该表情重现在目标视频中另一个人物的 脸上,达到操控目标人物表情的效果。该项技术可以被应用在视频会议、译制 片等场景中,将翻译人员的表情转移到说话者的脸上,可以使得嘴型神态与发 音更好地匹配,从而带来更加自然舒适的观感体验。但是传统的表情转移方法 并不能处理源视频与目标视频中人物姿态不同时的表情转移。
发明内容
基于此,有必要针对上述技术问题,提供一种人脸表情合成方法、装置、 存储介质和计算机设备。
一种人脸表情合成方法,所述方法包括:
获取源视频和目标视频中的图像,所述源视频中的图像包含待合成至所述 目标视频中的图像的表情;
对所述图像中的人脸进行人脸特征点定位;
对经过人脸特征点定位后的所述图像进行3D人脸建模,得到3D人脸模型;
在所述3D人脸模型的形状层面,将所述源视频中图像的表情对应转移至所 述目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型;
对所述转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成脸模 型。
在其中一个实施例中,所述对所述图像中的人脸进行人脸特征点定位,包 括:
通过Haar分类器进行人脸检测,获得人脸的矩形标记框,所述Haar分类器 包含级联的多个强分类器,所述强分类器是由弱分类器组合构成的;
对所述矩形标记框中的人脸进行人脸特征点定位。
在其中一个实施例中,所述对所述矩形标记框中的人脸进行人脸特征点定 位,包括:
从训练模型中得到人脸的平均特征点位置;
将所述平均特征点位置进行等比放缩,将等比放缩后得到的特征点位置放 置于所述矩形标记框中;
对所述特征点位置进行优化,得到优化后的特征点位置,所述优化后的特 征点位置能够与所述矩形标记框中的人脸吻合。
在其中一个实施例中,所述对经过人脸特征点定位后的所述图像进行人脸 建模,得到人脸模型,包括:
将经过人脸特征点定位后的所述图像通过SFM模型进行模型拟合,得到人 脸模型。
在其中一个实施例中,所述将经过人脸特征点定位后的所述图像通过SFM 模型进行模型拟合得到人脸模型,包括:
采用黄金标准算法计算得到投影矩阵;
获取SFM模型中的初始化网格,所述初始化网格为无表情的平均脸;
根据所述初始化网格中的特征点与人脸特征点定位后的所述图像中的点进 行匹配,对所述投影矩阵进行更新;
根据所述无表情的平均脸、人脸特征点定位后的所述图像计算得到表情系 数及形状系数;
根据所述相机矩阵、所述表情系数及所述形状系数对人脸特征点定位后的 图像进行建模,得到整个人脸的人脸网格。
一种人脸表情合成装置,所述装置包括:
获取图像模块,用于获取源视频和目标视频中的图像,所述源视频中的图 像包含待合成至所述目标视频中的图像的表情;
人脸特征点定位模块,用于对所述图像中的人脸进行人脸特征点定位;
人脸建模模块,用于对经过人脸特征点定位后的所述图像进行3D人脸建 模,得到3D人脸模型;
表情转移模块,用于在所述3D人脸模型的形状层面,将所述源视频中图像 的表情对应转移至所述目标视频中的图像,生成表情转移后的目标视频中的图 像的3D人脸模型;
纹理贴图模块,用于对所述转移后的3D人脸模型进行纹理贴图,得到表情 转移后的合成脸模型。
在其中一个实施例中,所述人脸特征点定位模块包括:
人脸检测模块,用于通过Haar分类器进行人脸检测,获得人脸的矩形标记 框,所述Haar分类器包含级联的多个强分类器,所述强分类器是由弱分类器组 合构成的;
定位模块,用于对所述矩形标记框中的人脸进行人脸特征点定位。
在其中一个实施例中,所述定位模块包括:
平均特征点位置获取模块,用于从训练模型中得到人脸的平均特征点位置;
平均特征点位置等比放缩模块,用于将所述平均特征点位置进行等比放缩, 将等比放缩后得到的特征点位置放置于所述矩形标记框中;
优化模块,用于对所述特征点位置进行优化,得到优化后的特征点位置, 所述优化后的特征点位置能够与所述矩形标记框中的人脸吻合。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行 时实现以下步骤:
获取源视频和目标视频中的图像,所述源视频中的图像包含待合成至所述 目标视频中的图像的表情;
对所述图像中的人脸进行人脸特征点定位;
对经过人脸特征点定位后的所述图像进行3D人脸建模,得到3D人脸模型;
在所述3D人脸模型的形状层面,将所述源视频中图像的表情对应转移至所 述目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型;
对所述转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成脸模 型。
一种计算机设备,所述计算机设备包括存储器,处理器及存储在所述存储 器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序 时实现以下步骤:
获取源视频和目标视频中的图像,所述源视频中的图像包含待合成至所述 目标视频中的图像的表情;
对所述图像中的人脸进行人脸特征点定位;
对经过人脸特征点定位后的所述图像进行3D人脸建模,得到3D人脸模型;
在所述3D人脸模型的形状层面,将所述源视频中图像的表情对应转移至所 述目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型;
对所述转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成脸模 型。
上述人脸表情合成方法、装置、存储介质和计算机设备,首先,从源视频 和目标视频中获取图像,分别对获取的图像进行人脸特征点定位。分别对经过 人脸特征点定位后的图像进行3D人脸建模,得到3D人脸模型。然后,对3D 人脸模型先在形状层面进行表情转移,之后再进行纹理贴图。最终,得到了表 情转移后的合成脸模型。将图像经过人脸特征点定位可以得到不同角度、不同 姿态的人脸信息。对经过人脸特征点定位后的图像进行3D人脸建模,得到3D 人脸模型。将2D人脸图像转换为3D人脸模型,这样能够将脸部的姿态与其形状分离开,用模型参数对表情、形状等部分用参数进行限定。所以对图像进行 3D人脸建模可以便捷地实现保持人脸基本特征一致而改变表情的效果。在3D 人脸模型上进行表情转移,之后再进行纹理贴图,由纹理贴图处理得到的图像 的纹理效果更加细致、真实。
附图说明
图1为一个实施例中服务器的内部结构图;
图2为一个实施例中人脸表情合成方法的流程图;
图3为一个实施例中人脸特征点分布示意图;
图4为一个实施例中六种表情变形示意图;
图5为一个实施例中表情转移的形状变化示意图;
图6为一个实施例中对图像中人脸特征点定位方法的流程图;
图7为一个实施例中对矩形标记框中的人脸进行人脸特征点定位方法的流 程图;
图8为一个实施例中初始平均特征点位置和最终定位特征点位置的示意图;
图9为一个实施例中不同姿态表情下的最终定位特征点位置的示意图;
图10为一个实施例中人脸表情合成方法的流程图;
图11为一个实施例中通过SFM模型得到人脸模型方法的流程图;
图12为一个实施例中人脸表情合成装置的结构示意图;
图13为图12中人脸特征点定位模块的结构示意图;
图14为图13中定位模块的结构示意图;
图15为图12中人脸建模模块的结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对 本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以 便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实 施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发 明不受下面公开的具体实施的限制。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术 领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术 语只是为了描述具体的实施例的目的,不是旨在于限制本发明。以上实施例的 各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技 术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛 盾,都应当认为是本说明书记载的范围。
在一个实施例中,如图1所示,还提供了一种服务器,该服务器包括通过 系统总线连接的处理器、非易失性存储介质、内存储器、网络接口,非易失性 存储介质中存储有操作系统和一种人脸表情合成装置,该人脸表情合成装置用 于执行一种人脸表情合成方法。该处理器用于提高计算和控制能力,支撑整个 服务器的运行。内存储器用于为非易失性存储介质中的人脸表情合成装置的运 行提供环境,该内存储器中可储存有计算机可读指令,该计算机可读指令被处 理器执行时,可使得该处理器执行一种人脸表情合成方法。网络接口用于与终 端进行网络通信,接收或发送数据,例如接收终端发送的人脸表情合成的请求,以及向终端发送人脸表情合成后的图片等。
本发明实施例可以实现将从一个视频中捕捉到的人物表情渲染到另一个视 频中的人脸上,以达到表情转移的效果。例如,该项技术可以被应用在视频会 议、译制片等场景中,将翻译人员的表情转移到说话者的脸上,可以使得嘴型 神态与发音更好地匹配,从而带来更加自然舒适的观感体验。当然,也可以使 用在动画制作等领域,将从一个视频中捕捉人脸表情后将其转移予另一视频中 的虚拟形象以完成动画制作。这些工作实现了虚拟人物的仿真化,赋予了动画 角色更加丰富生动的表情,有效地增添了动画作品的趣味性,提高了视觉效果 的真实感。
在一个实施例中,如图2所示,提供了一种人脸表情合成方法,以该方法 应用于图1中的服务器为例进行说明,包括:
步骤210,获取源视频和目标视频中的图像,源视频中的图像包含待合成至 目标视频中的图像的表情。
图1中的服务器可以分别捕捉源视频和目标视频中的图像。源视频中包含 了一些具有目标表情的图像,目标表情即为待合成至目标视频中的图像的表情。 具体的,目标表情可以为生气、讨厌、恐惧、开心、悲伤、惊讶等各种表情。 需要将上述目标表情合成至目标视频中的图像中,使得目标视频中的图像能够 具有目标表情。例如,在视频会议、译制片等场景中时,源视频可以是翻译人 员的视频。
目标视频为需要对其中的图像进行表情合成的视频。例如,在视频会议、 译制片等场景中时,目标视频可以为说话者的视频。
步骤220,对图像中的人脸进行人脸特征点定位。
对捕捉的源视频和目标视频中的图像,通过Haar分类器进行人脸检测,获 得人脸的矩形标记框,Haar分类器包含级联的多个强分类器,强分类器是由弱 分类器组合构成的。再进一步对矩形标记框中的人脸进行人脸特征点定位。人 脸特征点定位又称为人脸对齐(face alignment),其目的是在人脸检测的基础上, 进一步确定脸部特征点,如眉毛、眼睛、鼻尖、嘴角、脸部轮廓等的位置。具 体的,本实施例中人脸特征点为68个,请参见图3所示,为人脸特征点分布示 意图。
对矩形标记框中的人脸进行人脸特征点定位,具体的,包括:从训练模型 中得到人脸的平均特征点位置。将平均特征点位置进行等比放缩,将等比放缩 后得到的特征点位置放置于矩形标记框中。对特征点位置进行优化,得到优化 后的特征点位置,优化后的特征点位置能够与矩形标记框中的人脸吻合。
步骤230,对经过人脸特征点定位后的图像进行3D人脸建模,得到3D人 脸模型。
分别获得了能够与源视频中的图像吻合的特征点位置,能够与目标视频中 的图像吻合的特征点位置。对经过人脸特征点定位后的图像进行3D人脸建模, 具体为,对经过人脸特征点定位后的图像通过SFM模型进行模型拟合,得到人 脸模型。SFM(Surrey FaceModel)模型由英国萨里大学的图像、语音与信号处 理中心(Centre of Vision,Speechand Signal Processing at the University of Surrey) 所建立的3D人脸形变模型,是一种可使用的开源模型。该模型有四种不同的规 模,分别包含有29387、16759、3448、1724个顶点,每种规模既有仅仅包含形 状的模型,也有形状与颜色均包含在内的模型。
SFM的训练集有169个人,既包含十几岁少年也包含六十岁以上老人,以 20-29岁间青年居多。其中,欧洲白种人有101人,剩余为亚洲人、非洲人、拉 丁美洲人。因为SFM模型中包含全球各种人种的人,所以拟合的效果比较满意。 SFM由两部分组成:一个PCA形状模型,一个PCA颜色模型。形状和颜色信 息用式(4-1)的两个向量分别表示:
s=(x1,y1,z1,…,xm,ym,zm)T (1)
t=(r1,g1,b1,…,rm,gm,bm)T
这些顶点(xj,yj,zj)∈R3都各自拥有其对应的颜色(rj,gj,bj)∈[0,1]3,于是一张脸可以用上述(1)中两个长度为3m的向量表示。
每一个PCA模型是由式(2)的平均值、标准差和主要成分组成,新的人脸可 用式(4-3)描述。
Ms=(μs,σs,Us)、Mt=(μt,σt,Ut) (2)
其中μ是平均值,σ是标准差,U=[u1,…,un]是主要成分(principal components)的n个正交基。由此,任何一个新的人脸模型可以通过主要成分的 线性组合来表示:
s(α)=μs+Usdiag(σs)α (3)
t(β)=μt+Utdiag(σt)β
通过改变形状系数α和β可以模拟出长宽胖瘦各异、性别年龄肤色不同的 各种人脸模型。但它们的不同之处在于,SFM还对脸部常用特征点,即图3中 的68个点进行了标注,有助于应用。更重要的是,SFM还额外提供了六种表情 变形(blendshape),它们分别是生气(anger)、厌恶(disgust)、害怕(fear)、开心(happy)、 沮丧(sad)和惊讶(surprised),如图4所示。由于图4中的图片没有颜色信息,所 以各种表情并不是非常直观,但依然能分辨出大致不同。则在用式(3)确定了一 个特定人脸形状s(α)之后,我们可以通过调整下式(4)中的表情参数p∈R6得到 该人脸在不同表情下的模型:
s′=s+[bangerbdisgustbfearbhappybsadbsurprised]p (4)
表情参数p的引入,显然会使得后续表情转移的工作更加的简单易操作。
步骤240,在3D人脸模型的形状层面,将源视频中图像的表情对应转移至 目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型。
将身份信息与表情信息均考虑在内,该网格可以用式(3)与式(4)的结合进行 表示,即:
s(α)=μs+Usdiag(σs)α+[bangerbdisgustbfearbhappybsadbsurprised]p (5)
其中α是形状系数,控制了人脸基本形状,决定了该模型的身份信息;而p∈R6为表情系数,控制了人脸表情变化,决定了该模型的表情信息。于是, 显然地,我们可以通过保留目标人物的形状系数α,替换表情系数p来达到情 转移的目的,用数学表达如下:
s′synthesized(α)=μs+Usdiag(σs)αdst+bpsrc (6)
式子中的下标src表示源(source),dst表示目标(destination)。利用源视频和目标视频中经过人脸特征点定位后的图像分别作为源图片与目标图片,对源图 片与目标图片均进行建模,然后利用上述过程得到合成人脸网格。如图5所示, 获取的源视频中的表情嘴巴张大,头微微抬起,而目标视频中的表情为抿嘴微 笑,头基本完全正对镜头。用式(6)计算后,得到的形状如图5中右边的网格所 示。右边的人脸网格与镜头的相对位置几乎和目标视频中图像的网格相同,但 嘴巴呈现张开状,与源视频中的表情相似。显然,我们已经在形状层面上实现 了表情的转移。
步骤250,对转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成 脸模型。
为了生成经过表情转移之后看起来真实自然的新视频,因此在形状层面上 实现了表情的转移之后,需要进一步考虑如何将颜色信息,即人脸的纹理信息 进行复现,从而达到渲染出逼真人脸的效果。
纹理(texture)是另一种为3D物体添加外表色彩的方式,它是一张2D图片, 通过将该图片“无缝”地贴合在3D模型上,即可以使得物体拥有有色彩有质感的 外表,从而避免了大量为大量顶点指定足够多颜色而产生的额外开销,并且保 留更多的细节。纹理贴图,有时也叫作纹理映射(Texture Mapping),正是将纹理 贴到三维物体表面的过程。为了贴图,每个顶点需要指定一个纹理坐标(Texture Coordinate),用来标明从纹理图像取样的位置。
在贴图之前,我们首先构造纹理。在本发明实施例中构造的纹理图像是对 齐的,即对于不同的人脸图片,构造的纹理图像中,某特征点对应位置固定不 动。在SFM中,每个顶点的纹理坐标已经预先确定。构造纹理图像时,首先找 到各个三维顶点在平面图像上的对应点。然后通过纹理坐标找到上述对应点在 纹理图像上的对应位置,并将图像上的颜色赋值到纹理图像上,不与任何顶点 对应的位置,采用插值法(线性插值、双线性插值或最邻近插值均可)填补, 最终可以得到纹理图像。
纹理坐标是定义在x轴与y轴上,范围在0到1之间的坐标。采样(Sampling) 是在纹理坐标基础上获取纹理颜色的过程。具体的,只要确定了纹理坐标, openGL规范的函数库通常都能够自动进行纹理贴图。显然,对图像进行纹理贴 图得到的纹理效果更加细致、真实。
本实施例中,首先,从源视频和目标视频中获取图像,分别对获取的图像 进行人脸特征点定位。分别对经过人脸特征点定位后的图像进行3D人脸建模, 得到3D人脸模型。然后,对3D人脸模型先在形状层面进行表情转移,之后再 进行纹理贴图。最终,得到了表情转移后的合成脸模型。将图像经过人脸特征 点定位可以得到不同角度、不同姿态的人脸信息。对经过人脸特征点定位后的 图像进行3D人脸建模,得到3D人脸模型。将2D人脸图像转换为3D人脸模型, 这样能够将脸部的姿态与其形状分离开,用模型参数对表情、形状等部分用参 数进行限定。所以对图像进行3D人脸建模可以便捷地实现保持人脸基本特征一 致而改变表情的效果。在3D人脸模型上进行表情转移,之后再进行纹理贴图, 由纹理贴图处理得到的图像的纹理效果更加细致、真实。
在一个实施例中,如图6所示,对图像中的人脸进行人脸特征点定位,包 括:
步骤222,通过Haar分类器进行人脸检测,获得人脸的矩形标记框,Haar 分类器包含级联的多个强分类器,强分类器是由弱分类器组合构成的。
本发明实施例中采用AdaBoost算法,将一系列弱分类器(weak classifier)加 权线性组合,从而构造了一个强分类器(strong classifier):
h(x)=sign(∑jαjhj(x)) (7)
其中,每一个弱分类器实际都是一个基于特征fj的阈值函数:
阈值θ、极值sj和系数α都通过训练得出。
经过以上的步骤,我们可以得到一个强分类器,然而由于人脸检测受到尺 度、方位、姿势、表情、光照等多变因素的影响,仅仅凭借一个强分类器仍然 难以保证正确率,事实上,AdaBoost训练出来的强分类器虽然一般具有较小的 误识率(几乎不会把非人脸误认为作人脸),但是它的检测率却并不是很高。于 是,我们可以将多个强分类器级联起来,通过增加分类器的个数来提高检测率。 级联分类器的训练如以下伪代码所示:
1)设定每一层最大可接受的误识率f,最小可接受检测率d;
2)设定最终级联分类器的目标误识别率Ftarget;
3)用P表示人脸训练样本集,N表示非人脸训练样本集;
4)while Fi>Ftarget://当目前误识率仍然高于目标误识率时
i++;
ni=0;Fi=Fi-1;
while Fi>f*Fi-1:
ni++;
利用AdaBoost算法在样本集P、N上训练ni个弱分类器组合得到的强分类 器;
衡量当前级联分类器的误识率Fi和检测率Di;
减小第i个强分类器的阈值,直到当前级联分类器的检测率至少为d*Di-1;
if Fi>Ftarget then:
利用当前级联分类器检测非人脸图像,将误识的图像放入N。
由此,我们可以得到一个Haar分类器来实现图像人脸探测。通过Haar分类 器进行人脸检测,准确获得人脸的矩形标记框。
步骤224,对矩形标记框中的人脸进行人脸特征点定位。
采用SDM(监督下降方法,Supervised Descent Method)模型进行训练,训练 时的训练集为一系列人脸图片,并且已知这一系列人脸图片的特征点正确位置。 通过对这一系列人脸图片进行训练得到人脸的平均特征点位置,将平均特征点 位置进行等比放缩,将等比放缩后得到的特征点位置放置于矩形标记框中。最 后对特征点位置进行优化,得到优化后的特征点位置,优化后的特征点位置能 够与矩形标记框中的人脸吻合。
在本实施例中,由于人脸检测受到尺度、方位、姿势、表情、光照等多变 因素的影响,仅仅凭借一个强分类器难以保证正确率,因此,我们可以将多个 强分类器级联起来,通过增加分类器的个数来提高检测率。通过SDM模型对 已知特征点正确位置的人脸图片进行训练,得到人脸的平均特征点位置。在对 平均特征点位置放置于本次实测的人脸图像中进行调整,进而得到与本次实测 的人脸图像吻合的特征点位置。对训练集进行训练这样得出的人脸的平均特征 点位置更加准确,进而使得最终得到的与本次实测的人脸图像吻合的特征点位 置更加准确。
在一个实施例中,如图7所示,对矩形标记框中的人脸进行人脸特征点定 位,包括:
步骤224a,从训练模型中得到人脸的平均特征点位置。
训练模型为:SDM(监督下降方法,Supervised Descent Method)。该训练模 型的主要思想为:从训练数据中学习梯度下降的方向,并建立相应的回归模型, 然后再利用训练所得模型进行梯度方向估计,从而在较低的计算复杂度下解决 了最小二乘问题。
在SDM中,采用的是一种监督的方法,直接学习Δx与(h(I(x0)-h(I(x*))之 间的线性回归关系。注意到,h(I(x*))实际上是一个固定量,所以我们简单把它 当作常数,故将Δx与特征向量间的关系假定为线性关系,记为:
Δx1=R0h(I(x0))+b0 (9)
通常来讲,仅仅一次更新并不能得到最优参数解,与第一步迭代类似,我 们假设第k+1次迭代中参数的更新量为:
Δxk+1=Rkh(I(xk))+bk (10)
训练时,训练集为一系列人脸图片,记为{Ii},并且已知这一系列人脸图片 的特征点正确位置{x*i}。于是,学习R0和b0等同于求解:
这是一个非常典型的线性最小二乘问题,容易求解。之后,根据式(10)的更 新法则,很容易求解到新的数据集,则与上同理,学习Rk和bk等同于求解:
通过训练,SDM模型可以在最优化过程的迭代中学习{Rk}和{bk}的值,从 而学会如何从初始位置x0逐步收敛到最佳位置x*,由此我们可以实现特征点的 自动定位。从而从训练模型中得到人脸的初始平均特征点位置。
步骤224b,将平均特征点位置进行等比放缩,将等比放缩后得到的特征点 位置放置于矩形标记框中。
步骤224c,对特征点位置进行优化,得到优化后的特征点位置,优化后的 特征点位置能够与矩形标记框中的人脸吻合。
对特征点进行迭代地优化。具体为,选取迭代次数为6次,每次迭代时, 对当前特征点位置提取HOG特征(在每个特征点附近处取5x5大小的细胞单 元,直方图的梯度值划分为4x4个直方,则每个特征点的HOG特征向量长度 为400,68个特征点的总特征长度为27200),利用式(9),代入已经学习到的 Rk和bk,更新当前参数,即优化后的特征点位置。如图8所示,图中(a)为初始 平均特征点位置,图中(b)为最终定位的特征点位置。更多不同姿态、光照、表 情下的例子如图9中标记点所示。
在本实施例中,通过SDM模型对已知特征点正确位置的人脸图片进行训练, 得到人脸的平均特征点位置。在对平均特征点位置放置于本次实测的人脸图像 中进行调整,进而得到与本次实测的人脸图像吻合的特征点位置。对训练集进 行训练这样得出的人脸的平均特征点位置更加准确,进而使得最终得到的与本 次实测的人脸图像吻合的特征点位置更加准确。
在一个实施例中,如图10所示,对经过人脸特征点定位后的图像进行人脸 建模,得到人脸模型,包括:
步骤232,将经过人脸特征点定位后的图像通过SFM模型进行模型拟合, 得到人脸模型。
分别获得了能够与源视频中的图像吻合的特征点位置,能够与目标视频中 的图像吻合的特征点位置。对经过人脸特征点定位后的图像进行3D人脸建模, 具体为,对经过人脸特征点定位后的图像通过SFM模型进行模型拟合,得到人 脸模型。SFM(Surrey FaceModel)模型由英国萨里大学的图像、语音与信号处 理中心(Centre of Vision,Speechand Signal Processing at the University of Surrey) 所建立的3D人脸形变模型,是一种可使用的开源模型。该模型有四种不同的规 模,分别包含有29387、16759、3448、1724个顶点,每种规模既有仅仅包含形 状的模型,也有形状与颜色均包含在内的模型。
SFM的训练集有169个人,既包含十几岁少年也包含六十岁以上老人,以 20-29岁间青年居多。其中,欧洲白种人有101人,剩余为亚洲人、非洲人、拉 丁美洲人。因为SFM模型中包含全球各种人种的人,所以拟合的效果比较满意。 SFM由两部分组成:一个PCA形状模型,一个PCA颜色模型。形状和颜色信 息用式(4-1)的两个向量分别表示:
s=(x1,y1,z1,…,xm,ym,zm)T (1)
t=(r1,g1,b1,…,rm,gm,bm)T
这些顶点(xj,yj,zj)∈R3都各自拥有其对应的颜色(rj,gj,bj)∈[0,1]3,于是一张脸可以用上述(4-1)中两个长度为3m的向量表示。
每一个PCA模型是由式(4-2)的平均值、标准差和主要成分组成,新的人脸 可用式(4-3)描述。
Ms=(μs,σs,Us)、Mt=(μt,σt,Ut) (2)
其中μ是平均值,σ是标准差,U=[u1,…,un]是主要成分(principal components)的n个正交基。由此,任何一个新的人脸模型可以通过主要成分的 线性组合来表示:
s(α)=μs+Usdiag(σs)α (3)
t(β)=μt+Utdiag(σt)β
通过改变形状系数α和β可以模拟出长宽胖瘦各异、性别年龄肤色不同的 各种人脸模型。但它们的不同之处在于,SFM还对脸部常用特征点,即图3中 的68个点进行了标注,有助于应用。更重要的是,SFM还额外提供了六种表情 变形(blendshape),它们分别是生气(anger)、厌恶(disgust)、害怕(fear)、开心(happy)、 沮丧(sad)和惊讶(surprised),如图4所示。由于图4中的图片没有颜色信息,所 以各种表情并不是非常直观,但依然能分辨出大致不同。则在用式(3)确定了一 个特定人脸形状s(α)之后,我们可以通过调整下式(4)中的表情参数p∈R6得到 该人脸在不同表情下的模型:
s′=s+[bangerbdisgustbfearbhappybsadbsurprised]p (4)
在本实施例中,通过SFM对人脸进行3D建模,如上式所示,最终的人脸 模型等于无表情的人脸加上六种基本表情的人脸的加权叠加,这个加权叠加值 就是表情系数。因为SFM的训练集中既有欧洲人、也有亚洲人、非洲人、拉丁 美洲人的图像,所以通过SFM对人脸进行3D建模的结果更加准确。
在一个实施例中,如图11所示,将经过人脸特征点定位后的图像通过SFM 模型进行模型拟合得到人脸模型,包括:
步骤232a,采用黄金标准算法计算得到投影矩阵。
假设已知n≥4对以上模型与图片间对应点组其中Xi∈R4,xi∈R3,均是用齐次坐标(homogeneous coordinates)表示。我们的目标是求得3x4 投影矩阵P,满足:
并且根据仿射约束,P的第三行为(0,0,0,1)。具体算法如下:
(1)标准化(Normalization):用一个相似变换T来标准化图片上的点,用另 一个相似变换U来标准化空间中的点。假设变换之后xi’=Txi,Xi’=UXi。现在 我们希望得到P’满足xi’=P’Xi’,并且其第三行依旧为(0,0,0,1)。
(2)对于每一组对应我们都可以建立得到一个等式:
则将所有的对应点对组合起来,可以得到2n x 8的矩阵X,满足Xk=x, 其中k是一个长度为8的向量,并且对应期望的表达xi’=P’Xi’可知,k的前 4个数即是P’的第一行,而后4个数是P’的第二行。
(3)求解k可以看作一个线性最小二乘问题,我们可以利用第二章中提及过 的SVD分解法求得X的伪逆X+,从而解得k近似等于X+x。再考虑到P’row3=(0, 0,0,1),从而可以得到P’。
(4)去标准化(Denormalization):目前的计算都是基于标准化后的数据进行 的,最后一步需要将现在的数据转换到原来的坐标系中,由于xi’=P’Xi’,即Txi=P’UXi。所以,我们需要求解的P可以用下式计算得到:
P=T-1P′U
(15)
于是,我们在模拟拟合过程的开始时,先用平均脸得到初始模型,并找到 当前图像与模型上的68组对应特征点,利用上述算法简单快速地得到了现在的 相机矩阵(cameramatrix)P,方便后续使用。
步骤232b,获取SFM模型中的初始化网格,初始化网格为无表情的平均脸。
步骤232c,根据初始化网格中的特征点与人脸特征点定位后的图像中的点 进行匹配,对投影矩阵进行更新。
步骤232d,根据无表情的平均脸、人脸特征点定位后的图像计算得到表情 系数及形状系数。
由于SFM只有形状没有颜色,所以模型拟合本质就是在形状拟合(shapefitting),目标是调整当前人脸网格(mesh)的形状,使得其在屏幕上的投影极大与 原图片相似。
我们定义X(α)为长度4n的向量,存储了当前形状s(α)的特征点齐次坐标, 其中α是式(3)中的形状系数,n是特征点的数量;定义x(α)为长度为3n长的 向量,存储了特征点在图片上的齐次坐标;定义B是4n x 6大小的矩阵,存储 了6个blendshape分别在特征点位置的齐次坐标;为了方便计算,再定义一个 矩阵P*,它的对角线上放置上述步骤计算得来的P,其余为0。
则用数学公式表达,形状拟合即是需要求得形状系数α和表情参数p满足:
argminα,p||P*(X(α)+Bp)-x||2 s.t.p≥0 (16)
我们采用迭代的方法,分别求解最佳的形状系数α和表情参数p。
步骤232e,根据相机矩阵、表情系数及形状系数对人脸特征点定位后的图 像进行建模,得到整个人脸的人脸网格。
根据相机矩阵(camera matrix)P、形状系数α和表情参数p对人脸特征点定 位后的图像进行建模,得到整个人脸的人脸网格。
在本实施例中,通过黄金标准算法计算得到投影矩阵,在计算机图形学中 把3D模型变成2D图片都需要经过投影矩阵处理。根据相机矩阵(camera matrix) P、形状系数α和表情参数p对人脸特征点定位后的图像进行建模,得到整个人 脸的人脸网格。这样能够将脸部的姿态与其形状分离开,用模型参数对表情、 形状等部分用参数进行限定。所以对图像进行3D人脸建模之后可以便捷地实现 保持人脸基本特征一致而改变表情的效果。
在一个实施例中,如图12所示,还提供了一种人脸表情合成装置300,该 装置包括:获取图像模块310、人脸特征点定位模块320、人脸建模模块330、 表情转移模块340及纹理贴图模块350。
获取图像模块310,用于获取源视频和目标视频中的图像,源视频中的图像 包含待合成至目标视频中的图像的表情。
人脸特征点定位模块320,用于对图像中的人脸进行人脸特征点定位。
人脸建模模块330,用于对经过人脸特征点定位后的图像进行3D人脸建模, 得到3D人脸模型。
表情转移模块340,用于在3D人脸模型的形状层面,将源视频中图像的表 情对应转移至目标视频中的图像,生成表情转移后的目标视频中的图像的3D人 脸模型。
纹理贴图模块350,用于对转移后的3D人脸模型进行纹理贴图,得到表情 转移后的合成脸模型。
在一个实施例中,如图13所示,人脸特征点定位模块320包括:人脸检测 模块322及定位模块324。
人脸检测模块322,用于通过Haar分类器进行人脸检测,获得人脸的矩形 标记框,Haar分类器包含级联的多个强分类器,强分类器是由弱分类器组合构 成的;
定位模块324,用于对矩形标记框中的人脸进行人脸特征点定位。
在一个实施例中,如图14所示,定位模块324包括:平均特征点位置获取 模块324a、平均特征点位置等比放缩模块324b及优化模块324c。
平均特征点位置获取模块324a,用于从训练模型中得到人脸的平均特征点 位置;
平均特征点位置等比放缩模块324b,用于将平均特征点位置进行等比放缩, 将等比放缩后得到的特征点位置放置于矩形标记框中;
优化模块324c,用于对特征点位置进行优化,得到优化后的特征点位置, 优化后的特征点位置能够与矩形标记框中的人脸吻合。
在一个实施例中,人脸建模模块330还用于将经过人脸特征点定位后的图 像通过SFM模型进行模型拟合,得到人脸模型。
在一个实施例中,如图15所示,人脸建模模块330包括:投影矩阵计算模 块331、初始化网格获取模块332、投影矩阵更新模块333、表情系数及形状系 数计算模块334及人脸网格获取模块335。
投影矩阵计算模块331,用于采用黄金标准算法计算得到投影矩阵;
初始化网格获取模块332,用于获取SFM模型中的初始化网格,初始化网 格为无表情的平均脸;
投影矩阵更新模块333,用于根据初始化网格中的特征点与人脸特征点定位 后的图像中的点进行匹配,对投影矩阵进行更新;
表情系数及形状系数计算模块334,用于根据无表情的平均脸、人脸特征点 定位后的图像计算得到表情系数及形状系数;
人脸网格获取模块335,用于根据相机矩阵、表情系数及形状系数对人脸特 征点定位后的图像进行建模,得到整个人脸的人脸网格。
在一个实施例中,还提供了一种计算机可读存储介质,其上存储有计算机 程序,该程序被处理器执行时实现以下步骤:
获取源视频和目标视频中的图像,源视频中的图像包含待合成至目标视频 中的图像的表情;对图像中的人脸进行人脸特征点定位;对经过人脸特征点定 位后的图像进行3D人脸建模,得到3D人脸模型;在3D人脸模型的形状层面, 将源视频中图像的表情对应转移至目标视频中的图像,生成表情转移后的目标 视频中的图像的3D人脸模型;对转移后的3D人脸模型进行纹理贴图,得到表 情转移后的合成脸模型。
在一个实施例中,上述程序被处理器执行时还实现以下步骤:通过Haar分 类器进行人脸检测,获得人脸的矩形标记框,Haar分类器包含级联的多个强分 类器,强分类器是由弱分类器组合构成的;对矩形标记框中的人脸进行人脸特 征点定位。
在一个实施例中,上述程序被处理器执行时还实现以下步骤:从训练模型 中得到人脸的平均特征点位置;将平均特征点位置进行等比放缩,将等比放缩 后得到的特征点位置放置于矩形标记框中;对特征点位置进行优化,得到优化 后的特征点位置,优化后的特征点位置能够与矩形标记框中的人脸吻合。
在一个实施例中,上述程序被处理器执行时还实现以下步骤:将经过人脸 特征点定位后的图像通过SFM模型进行模型拟合,得到人脸模型。
在一个实施例中,上述程序被处理器执行时还实现以下步骤:采用黄金标 准算法计算得到投影矩阵;获取SFM模型中的初始化网格,初始化网格为无表 情的平均脸;根据初始化网格中的特征点与人脸特征点定位后的图像中的点进 行匹配,对投影矩阵进行更新;根据无表情的平均脸、人脸特征点定位后的图 像计算得到表情系数及形状系数;根据相机矩阵、表情系数及形状系数对人脸 特征点定位后的图像进行建模,得到整个人脸的人脸网格。
在一个实施例中,还提供了一种计算机设备,该计算机设备包括存储器, 处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算 机程序时实现以下步骤:
获取源视频和目标视频中的图像,源视频中的图像包含待合成至目标视频 中的图像的表情;对图像中的人脸进行人脸特征点定位;对经过人脸特征点定 位后的图像进行3D人脸建模,得到3D人脸模型;在3D人脸模型的形状层面, 将源视频中图像的表情对应转移至目标视频中的图像,生成表情转移后的目标 视频中的图像的3D人脸模型;对转移后的3D人脸模型进行纹理贴图,得到表 情转移后的合成脸模型。
在一个实施例中,上述处理器执行计算机程序时还实现以下步骤:通过Haar 分类器进行人脸检测,获得人脸的矩形标记框,Haar分类器包含级联的多个强 分类器,强分类器是由弱分类器组合构成的;对矩形标记框中的人脸进行人脸 特征点定位。
在一个实施例中,上述处理器执行计算机程序时还实现以下步骤:从训练 模型中得到人脸的平均特征点位置;将平均特征点位置进行等比放缩,将等比 放缩后得到的特征点位置放置于矩形标记框中;对特征点位置进行优化,得到 优化后的特征点位置,优化后的特征点位置能够与矩形标记框中的人脸吻合。
在一个实施例中,上述处理器执行计算机程序时还实现以下步骤:将经过 人脸特征点定位后的图像通过SFM模型进行模型拟合,得到人脸模型。
在一个实施例中,上述处理器执行计算机程序时还实现以下步骤:采用黄 金标准算法计算得到投影矩阵;获取SFM模型中的初始化网格,初始化网格为 无表情的平均脸;根据初始化网格中的特征点与人脸特征点定位后的图像中的 点进行匹配,对投影矩阵进行更新;根据无表情的平均脸、人脸特征点定位后 的图像计算得到表情系数及形状系数;根据相机矩阵、表情系数及形状系数对 人脸特征点定位后的图像进行建模,得到整个人脸的人脸网格。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程, 是可以通过计算机程序来指令相关的硬件来完成,程序可存储于一非易失性的 计算机可读取存储介质中,如本发明实施例中,该程序可存储于计算机系统的 存储介质中,并被该计算机系统中的至少一个处理器执行,以实现包括如上述 各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体 (Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM) 等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述 实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特 征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细, 但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的 普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改 进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权 利要求为准。
Claims (10)
1.一种人脸表情合成方法,所述方法包括:
获取源视频和目标视频中的图像,所述源视频中的图像包含待合成至所述目标视频中的图像的表情;
对所述图像中的人脸进行人脸特征点定位;
对经过人脸特征点定位后的所述图像进行3D人脸建模,得到3D人脸模型;
在所述3D人脸模型的形状层面,将所述源视频中图像的表情对应转移至所述目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型;
对所述转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成脸模型。
2.根据权利要求1所述的方法,其特征在于,所述对所述图像中的人脸进行人脸特征点定位,包括:
通过Haar分类器进行人脸检测,获得人脸的矩形标记框,所述Haar分类器包含级联的多个强分类器,所述强分类器是由弱分类器组合构成的;
对所述矩形标记框中的人脸进行人脸特征点定位。
3.根据权利要求2所述的方法,其特征在于,所述对所述矩形标记框中的人脸进行人脸特征点定位,包括:
从训练模型中得到人脸的平均特征点位置;
将所述平均特征点位置进行等比放缩,将等比放缩后得到的特征点位置放置于所述矩形标记框中;
对所述特征点位置进行优化,得到优化后的特征点位置,所述优化后的特征点位置能够与所述矩形标记框中的人脸吻合。
4.根据权利要求1所述的方法,其特征在于,所述对经过人脸特征点定位后的所述图像进行人脸建模,得到人脸模型,包括:
将经过人脸特征点定位后的所述图像通过SFM模型进行模型拟合,得到人脸模型。
5.根据权利要求1所述的方法,其特征在于,所述将经过人脸特征点定位后的所述图像通过SFM模型进行模型拟合得到人脸模型,包括:
采用黄金标准算法计算得到投影矩阵;
获取SFM模型中的初始化网格,所述初始化网格为无表情的平均脸;
根据所述初始化网格中的特征点与人脸特征点定位后的所述图像中的点进行匹配,对所述投影矩阵进行更新;
根据所述无表情的平均脸、人脸特征点定位后的所述图像计算得到表情系数及形状系数;
根据所述相机矩阵、所述表情系数及所述形状系数对人脸特征点定位后的图像进行建模,得到整个人脸的人脸网格。
6.一种人脸表情合成装置,其特征在于,所述装置包括:
获取图像模块,用于获取源视频和目标视频中的图像,所述源视频中的图像包含待合成至所述目标视频中的图像的表情;
人脸特征点定位模块,用于对所述图像中的人脸进行人脸特征点定位;
人脸建模模块,用于对经过人脸特征点定位后的所述图像进行3D人脸建模,得到3D人脸模型;
表情转移模块,用于在所述3D人脸模型的形状层面,将所述源视频中图像的表情对应转移至所述目标视频中的图像,生成表情转移后的目标视频中的图像的3D人脸模型;
纹理贴图模块,用于对所述转移后的3D人脸模型进行纹理贴图,得到表情转移后的合成脸模型。
7.根据权利要求6所述的装置,其特征在于,所述人脸特征点定位模块包括:
人脸检测模块,用于通过Haar分类器进行人脸检测,获得人脸的矩形标记框,所述Haar分类器包含级联的多个强分类器,所述强分类器是由弱分类器组合构成的;
定位模块,用于对所述矩形标记框中的人脸进行人脸特征点定位。
8.根据权利要求7所述的装置,其特征在于,所述定位模块包括:
平均特征点位置获取模块,用于从训练模型中得到人脸的平均特征点位置;
平均特征点位置等比放缩模块,用于将所述平均特征点位置进行等比放缩,将等比放缩后得到的特征点位置放置于所述矩形标记框中;
优化模块,用于对所述特征点位置进行优化,得到优化后的特征点位置,所述优化后的特征点位置能够与所述矩形标记框中的人脸吻合。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权1至5中任一项所述的人脸表情合成方法。
10.一种计算机设备,所述计算机设备包括存储器,处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权1至5中任一项所述的人脸表情合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710708218.6A CN107610209A (zh) | 2017-08-17 | 2017-08-17 | 人脸表情合成方法、装置、存储介质和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710708218.6A CN107610209A (zh) | 2017-08-17 | 2017-08-17 | 人脸表情合成方法、装置、存储介质和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107610209A true CN107610209A (zh) | 2018-01-19 |
Family
ID=61064506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710708218.6A Pending CN107610209A (zh) | 2017-08-17 | 2017-08-17 | 人脸表情合成方法、装置、存储介质和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107610209A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062785A (zh) * | 2018-02-12 | 2018-05-22 | 北京奇虎科技有限公司 | 面部图像的处理方法及装置、计算设备 |
CN108537881A (zh) * | 2018-04-18 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种人脸模型处理方法及其设备、存储介质 |
CN108564659A (zh) * | 2018-02-12 | 2018-09-21 | 北京奇虎科技有限公司 | 面部图像的表情控制方法及装置、计算设备 |
CN108573527A (zh) * | 2018-04-18 | 2018-09-25 | 腾讯科技(深圳)有限公司 | 一种表情图片生成方法及其设备、存储介质 |
CN108765529A (zh) * | 2018-05-04 | 2018-11-06 | 北京比特智学科技有限公司 | 视频生成方法和装置 |
CN108985241A (zh) * | 2018-07-23 | 2018-12-11 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN109376575A (zh) * | 2018-08-20 | 2019-02-22 | 奇酷互联网络科技(深圳)有限公司 | 对图像中人体美化的方法、移动终端和存储介质 |
CN109727303A (zh) * | 2018-12-29 | 2019-05-07 | 广州华多网络科技有限公司 | 视频展示方法、系统、计算机设备、存储介质和终端 |
CN109948454A (zh) * | 2019-02-25 | 2019-06-28 | 深圳大学 | 表情数据库的增强方法、训练方法、计算设备及存储介质 |
CN110267079A (zh) * | 2018-03-30 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 待播放视频中人脸的替换方法和装置 |
CN110399825A (zh) * | 2019-07-22 | 2019-11-01 | 广州华多网络科技有限公司 | 面部表情迁移方法、装置、存储介质及计算机设备 |
CN110490959A (zh) * | 2019-08-14 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 |
CN110503703A (zh) * | 2019-08-27 | 2019-11-26 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN110517185A (zh) * | 2019-07-23 | 2019-11-29 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111290568A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN111291151A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN111290682A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN111460945A (zh) * | 2020-03-25 | 2020-07-28 | 亿匀智行(深圳)科技有限公司 | 一种基于人工智能获取rgb视频中3d表情的算法 |
CN111553267A (zh) * | 2020-04-27 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 图像处理方法、图像处理模型训练方法及设备 |
CN111599002A (zh) * | 2020-05-15 | 2020-08-28 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN111652121A (zh) * | 2020-06-01 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
CN112463017A (zh) * | 2020-12-17 | 2021-03-09 | 中国农业银行股份有限公司 | 一种互动元素合成方法和相关装置 |
CN113792705A (zh) * | 2021-09-30 | 2021-12-14 | 北京跳悦智能科技有限公司 | 一种视频表情迁移方法及系统、计算机设备 |
CN114549711A (zh) * | 2022-04-27 | 2022-05-27 | 广州公评科技有限公司 | 一种基于表情肌定位的视频智能渲染方法和系统 |
CN115002391A (zh) * | 2022-05-16 | 2022-09-02 | 中国第一汽车股份有限公司 | 一种车载随动虚拟形象视频会议系统及控制方法 |
CN115294622A (zh) * | 2022-06-15 | 2022-11-04 | 北京邮电大学 | 语音驱动说话人头动视频合成增强方法、系统和存储介质 |
CN116563451A (zh) * | 2022-01-29 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 人脸三维结果的生成方法、装置、电子设备,及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1920886A (zh) * | 2006-09-14 | 2007-02-28 | 浙江大学 | 基于视频流的三维动态人脸表情建模方法 |
CN102934144A (zh) * | 2010-06-09 | 2013-02-13 | 微软公司 | 脸部表情的实时动画 |
CN103198464A (zh) * | 2013-04-09 | 2013-07-10 | 北京航空航天大学 | 一种基于单个参考视频的人脸视频光影迁移生成方法 |
CN103268623A (zh) * | 2013-06-18 | 2013-08-28 | 西安电子科技大学 | 一种基于频域分析的静态人脸表情合成方法 |
CN104008564A (zh) * | 2014-06-17 | 2014-08-27 | 河北工业大学 | 一种人脸表情克隆方法 |
-
2017
- 2017-08-17 CN CN201710708218.6A patent/CN107610209A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1920886A (zh) * | 2006-09-14 | 2007-02-28 | 浙江大学 | 基于视频流的三维动态人脸表情建模方法 |
CN102934144A (zh) * | 2010-06-09 | 2013-02-13 | 微软公司 | 脸部表情的实时动画 |
CN103198464A (zh) * | 2013-04-09 | 2013-07-10 | 北京航空航天大学 | 一种基于单个参考视频的人脸视频光影迁移生成方法 |
CN103268623A (zh) * | 2013-06-18 | 2013-08-28 | 西安电子科技大学 | 一种基于频域分析的静态人脸表情合成方法 |
CN104008564A (zh) * | 2014-06-17 | 2014-08-27 | 河北工业大学 | 一种人脸表情克隆方法 |
Non-Patent Citations (4)
Title |
---|
吕培等: "表情数据库无关的人脸表情转移", 《计算机辅助设计与图形学学报》 * |
孙晨: "表演驱动的实时人脸表情动画合成", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
张剑: "融合 SFM 和动态纹理映射的视频流三维表情重建", 《计算机辅助设计与图形学学报》 * |
肖业清: "真实感三维头部建模及面部表情合成研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062785A (zh) * | 2018-02-12 | 2018-05-22 | 北京奇虎科技有限公司 | 面部图像的处理方法及装置、计算设备 |
CN108564659A (zh) * | 2018-02-12 | 2018-09-21 | 北京奇虎科技有限公司 | 面部图像的表情控制方法及装置、计算设备 |
CN110267079B (zh) * | 2018-03-30 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 待播放视频中人脸的替换方法和装置 |
CN110267079A (zh) * | 2018-03-30 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 待播放视频中人脸的替换方法和装置 |
CN108573527A (zh) * | 2018-04-18 | 2018-09-25 | 腾讯科技(深圳)有限公司 | 一种表情图片生成方法及其设备、存储介质 |
US11257299B2 (en) | 2018-04-18 | 2022-02-22 | Tencent Technology (Shenzhen) Company Limited | Face model processing for facial expression method and apparatus, non-volatile computer-readable storage-medium, and electronic device |
CN108573527B (zh) * | 2018-04-18 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 一种表情图片生成方法及其设备、存储介质 |
CN108537881A (zh) * | 2018-04-18 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种人脸模型处理方法及其设备、存储介质 |
CN108765529A (zh) * | 2018-05-04 | 2018-11-06 | 北京比特智学科技有限公司 | 视频生成方法和装置 |
CN108985241A (zh) * | 2018-07-23 | 2018-12-11 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN109376575A (zh) * | 2018-08-20 | 2019-02-22 | 奇酷互联网络科技(深圳)有限公司 | 对图像中人体美化的方法、移动终端和存储介质 |
CN111290682A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN111291151A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN111290568A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN109727303A (zh) * | 2018-12-29 | 2019-05-07 | 广州华多网络科技有限公司 | 视频展示方法、系统、计算机设备、存储介质和终端 |
CN109948454B (zh) * | 2019-02-25 | 2022-11-22 | 深圳大学 | 表情数据库的增强方法、训练方法、计算设备及存储介质 |
CN109948454A (zh) * | 2019-02-25 | 2019-06-28 | 深圳大学 | 表情数据库的增强方法、训练方法、计算设备及存储介质 |
CN110399825A (zh) * | 2019-07-22 | 2019-11-01 | 广州华多网络科技有限公司 | 面部表情迁移方法、装置、存储介质及计算机设备 |
WO2021012590A1 (zh) * | 2019-07-22 | 2021-01-28 | 广州华多网络科技有限公司 | 面部表情迁移方法、装置、存储介质及计算机设备 |
CN110517185A (zh) * | 2019-07-23 | 2019-11-29 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN110517185B (zh) * | 2019-07-23 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN110490959A (zh) * | 2019-08-14 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 |
CN110490959B (zh) * | 2019-08-14 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 |
CN110503703B (zh) * | 2019-08-27 | 2023-10-13 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN110503703A (zh) * | 2019-08-27 | 2019-11-26 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN111460945A (zh) * | 2020-03-25 | 2020-07-28 | 亿匀智行(深圳)科技有限公司 | 一种基于人工智能获取rgb视频中3d表情的算法 |
CN111553267B (zh) * | 2020-04-27 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 图像处理方法、图像处理模型训练方法及设备 |
CN111553267A (zh) * | 2020-04-27 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 图像处理方法、图像处理模型训练方法及设备 |
CN111599002A (zh) * | 2020-05-15 | 2020-08-28 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN111652121B (zh) * | 2020-06-01 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
JP7482242B2 (ja) | 2020-06-01 | 2024-05-13 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 表情トランスファーモデルの訓練方法、表情トランスファー方法及び装置並びにコンピュータ装置及びプログラム |
CN111652121A (zh) * | 2020-06-01 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
WO2021244217A1 (zh) * | 2020-06-01 | 2021-12-09 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
JP2023517211A (ja) * | 2020-06-01 | 2023-04-24 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 表情トランスファーモデルの訓練方法、表情トランスファー方法及び装置並びにコンピュータ装置及びプログラム |
CN112463017A (zh) * | 2020-12-17 | 2021-03-09 | 中国农业银行股份有限公司 | 一种互动元素合成方法和相关装置 |
CN112463017B (zh) * | 2020-12-17 | 2021-12-14 | 中国农业银行股份有限公司 | 一种互动元素合成方法和相关装置 |
CN113792705A (zh) * | 2021-09-30 | 2021-12-14 | 北京跳悦智能科技有限公司 | 一种视频表情迁移方法及系统、计算机设备 |
CN113792705B (zh) * | 2021-09-30 | 2024-04-23 | 北京跳悦智能科技有限公司 | 一种视频表情迁移方法及系统、计算机设备 |
CN116563451A (zh) * | 2022-01-29 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 人脸三维结果的生成方法、装置、电子设备,及存储介质 |
CN114549711A (zh) * | 2022-04-27 | 2022-05-27 | 广州公评科技有限公司 | 一种基于表情肌定位的视频智能渲染方法和系统 |
CN115002391A (zh) * | 2022-05-16 | 2022-09-02 | 中国第一汽车股份有限公司 | 一种车载随动虚拟形象视频会议系统及控制方法 |
CN115294622A (zh) * | 2022-06-15 | 2022-11-04 | 北京邮电大学 | 语音驱动说话人头动视频合成增强方法、系统和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107610209A (zh) | 人脸表情合成方法、装置、存储介质和计算机设备 | |
CN111354079B (zh) | 三维人脸重建网络训练及虚拟人脸形象生成方法和装置 | |
US10169905B2 (en) | Systems and methods for animating models from audio data | |
US10559111B2 (en) | Systems and methods for generating computer ready animation models of a human head from captured data images | |
CN103914699B (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN110807364B (zh) | 三维人脸与眼球运动的建模与捕获方法及系统 | |
WO2016011834A1 (zh) | 一种图像处理方法及系统 | |
CN108229269A (zh) | 人脸检测方法、装置和电子设备 | |
CN107358648A (zh) | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 | |
JP6207210B2 (ja) | 情報処理装置およびその方法 | |
CN110738161A (zh) | 一种基于改进生成式对抗网络的人脸图像矫正方法 | |
CN109685713B (zh) | 化妆模拟控制方法、装置、计算机设备及存储介质 | |
CN109086798A (zh) | 一种数据标注方法和标注装置 | |
JP2018055470A (ja) | 表情認識方法、表情認識装置、コンピュータプログラム及び広告管理システム | |
CN115335865A (zh) | 虚拟图像构建方法、装置、设备及存储介质 | |
CN109410119A (zh) | 面具图像变形方法及其系统 | |
CN112183198A (zh) | 肢体骨架和头手部件轮廓融合的手势识别方法 | |
CN109886153A (zh) | 一种基于深度卷积神经网络的实时人脸检测方法 | |
CN110288513A (zh) | 用于改变人脸属性的方法、装置、设备和存储介质 | |
CN108960093A (zh) | 脸部转动角度的识别方法及设备 | |
CN110110603A (zh) | 一种基于面部生理信息的多模态唇读方法 | |
KR20230085931A (ko) | 얼굴 이미지에서 색상을 추출하기 위한 방법 및 시스템 | |
JP2024506170A (ja) | 個人化された3d頭部モデルおよび顔モデルを形成するための方法、電子装置、およびプログラム | |
Agarwal et al. | Synthesis of realistic facial expressions using expression map | |
CN111080754A (zh) | 一种头部肢体特征点连线的人物动画制作方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180119 |
|
RJ01 | Rejection of invention patent application after publication |