CN106056650A - 基于快速表情信息提取和泊松融合的人脸表情合成方法 - Google Patents

基于快速表情信息提取和泊松融合的人脸表情合成方法 Download PDF

Info

Publication number
CN106056650A
CN106056650A CN201610312142.0A CN201610312142A CN106056650A CN 106056650 A CN106056650 A CN 106056650A CN 201610312142 A CN201610312142 A CN 201610312142A CN 106056650 A CN106056650 A CN 106056650A
Authority
CN
China
Prior art keywords
expression
pixel
image
neutral
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610312142.0A
Other languages
English (en)
Inventor
田春娜
李海洋
高新波
袁博
王秀美
李明郎君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201610312142.0A priority Critical patent/CN106056650A/zh
Publication of CN106056650A publication Critical patent/CN106056650A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于快速表情信息提取和泊松融合的人脸表情合成方法,主要解决现有技术不能快速有效提取表情细节信息,且不能将其信息合成到目标人脸上的问题。实现步骤是:1)依据脸部特征点数据得到对应表情模板;2)依据目标对象的表情形状模板将目标对象的中性表情图像和源对象的非中性表情图像变形到目标对象的非中性表情形状下;3)在频域提取源人物表情图像块形变后的表情细节信息;4)使用泊松融合的方法对提取的源对象表情细节进行滤波;5)对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变表情上,得到最终的合成结果。本发明所需样本量少,合成结果自然、逼真,可用于人物动画渲染、视频会议和人机交互。

Description

基于快速表情信息提取和泊松融合的人脸表情合成方法
技术领域
本发明属于计算机视觉与计算机图形学领域,特别涉及一种人脸表情合成方法。可用于人物动画渲染、视频会议和人机交互。
背景技术
面部表情是内在主观情绪的外部体现形式之一,具有丰富的表达力。由于人脸表情的多样性和复杂性,人脸表情合成不仅要考虑面部特征的整体运动和形变,还要考虑局部细微的表情纹理变化,这些表情细节往往能更好的反应人脸的表情变化,但是这些表情细节信息往往难以通过表情模拟来得到,可通过表情合成的方式得到逼真的表情细节。如何从源对象复杂的表情中提取表情细节纹理,并将其有效的合成到其他对象脸上,使得合成结果更加的自然、逼真仍然是一个有待探索的问题。
总体而言,现有表情合成方法主要包含基于网格变形的合成方法以及基于数据驱动的合成方法两大类。针对人脸结构的特殊性,所谓基于网格变形的表情合成技术,可以简单的概括为通过系统建模对人脸的三维网格进行变形处理,从而实现人脸表情的合成。这类方法从人脸表情形成的根本机理出发,充分模拟人脸形成表情时脸部结构单元的运动变化,其能产生丰富、自然的表情变化。但是这类方法存在一些缺点,在使用时,如果用少量的参数来模拟人脸表情,会丢失很多重要的表情细节信息,使得表情合成的结果不够真实;如果使用大量的参数来全方位的模拟人脸表情的变化,又会使得计算量过大和模型结构过于复杂,以致实用性比较差。针对这些问题,在实际使用中需要根据特定的要求来合理的构建人脸表情模型。其中典型的方法有德克萨斯A&M大学的Parke等人在文献“Parke F,WatersK.Computer facial animation.CRC Press,2008”中提出第一个参数化的虚拟人脸,其使用了两类参数,即脸部表情控制参数和特定人脸识别参数来分别描述人脸的动态表情和静态特征,通过这些参数的调整来实现表情的合成变化,由于选择的参数过于简单,使得这种方法模拟的人脸表情变化会丢失很多的细节纹理信息。
第二类是基于数据驱动的表情合成方法。其主要是利用已有的人脸表情数据来生成新的表情,或者从已有的表情数据中提取丰富的表情细节信息,再将这些表情细节信息合成至其他目标对象人脸上来模拟表情。典型的方法如微软的Zicheng Liu等人在文献“Liu Z,Shan Y,Zhang Z.Expressive expression mapping with ratio images.In:Proceedings of the 28th annual conference on Computer graphics andinteractive techniques,271-276,2001”中,从图像域提取表情比例图,并将此表情比例图合成到形变后的目标对象人脸上,这种方法能很好的提取表情纹理信息,实现逼真的表情合成,但是其缺点就是对光照的变化比较敏感。
这些表情合成方法主要依靠有效的从源带表情对象提取表情细节信息并将其充分的融合到目标对象这两方面。大多数方法都是在图像域实现表情细节信息的提取和合成。但是,基于图像域的处理方法易受光照和噪声的影响,提取出来的表情信息不够丰富;此外,这些方法经常需要源对象的一个中性表情人脸图像来作为提取表情细节信息的参考,这需要对齐源对象中性表情和非中性表情图像;并且这些方法大都通过简单的加权实现源对象表情细节和目标对象面部特征的融合,导致表情细节的丢失较为严重。为此,上述方法合成的面部表情效果往往不够显著,从而影响图像的视觉逼真度。
发明内容
本发明目的在于克服上述已有技术的不足,提出一种基于快速表情信息提取和泊松融合的人脸表情合成方法,以使合成的表情不仅能保持目标对象所特有的脸部特征,而且能够包含更多的源对象所特有的表情细节信息,达到自然、逼真的合成效果。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)依据源对象的中性表情和非中性表情的人脸显著特征点的位置差异,得到目标对象在非中性表情下的人脸显著特征点形状模板:
(1a)从未标注的多表情人脸数据集中得到人脸的外轮廓、眉毛、眼睛、鼻子和嘴轮廓的显著特征点位置数据,并将这些显著特征点位置数据信息标注在人脸对应的各区域的轮廓上,依据标注结果对数据集进行筛选,得到标注准确的多表情数据集;
(1b)从标注准确的多表情数据集中选择一组源对象和目标对象,根据源对象的中性表情和非中性表情的人脸显著特征点的位置差异计算相应的表情差异向量D:
D=Se-Sn
其中,Se和Sn分别为源对象对应非中性表情图像和中性表情图像的人脸显著特征点位置信息;
(1c)根据表情差异向量D和目标对象中性表情图像对应的人脸显著特征点位置信息Tn,得到目标对象在非中性表情下的形状模板Te
Te=D*Tn
(2)依据目标对象的表情形状模板Te将目标对象的中性表情图像和源对象的非中性表情图像变形到目标对象的非中性表情形状下;
(3)通过快速傅立叶变换方法将形变后的源对象的非中性表情图像变换到频域,在频域提取该形变后源对象的表情细节;
(4)使用泊松融合的方法对提取的源对象表情细节进行滤波,减少合成结果中鼻子区域的重影;
(5)对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变表情上,得到最终的合成结果。
本发明与已有的人脸表情合成方法相比,具有以下优点:
1)本发明由于直接根据源对象非中性表情和中性表情人脸显著特征点的位置差异计算相应的表情差异向量,将其与目标对象中性表情人脸显著特征点位置信息相结合,得到目标对象在非中性表情下的形状模板,减少了样本数量,克服了传统方法需要大量的训练样本来得到每个表情下的平均表情形状的缺点;
2)本发明由于从图像的频域特性出发来分析和提取源非中性表情对象的表情纹理细节信息,相比基于图像域的表情细节提取方法,该方法能提取更多、更精细的表情细节信息。
3)本发明由于考虑了对提取的表情细节信息使用泊松融合的方法进行滤波处理,使得处理后的表情细节更加的鲁棒,减少了合成结果中鼻子区域的重影,有效的保持了目标对象人脸的光照和肤色信息。
4)本发明由于使用了泊松融合的方法将提取的源对象的表情细节信息合成到目标对象上,使得合成的目标对象的表情不仅能有效的保留目标对象特有的脸部特征,而且还包含了源对象的丰富表情细节信息。
附图说明
图1是本发明的实现总流程图;
图2是本发明对多表情人脸图像进行形状标记和Delaunay三角划分的示意图;
图3是本发明使用泊松融合的方法对表情细节信息滤波处理后的示意图;
图4是本发明中使用泊松融合的方法进行表情合成的子流程图。
具体实施方式
下面将结合附图对本发明的具体实例和效果进行详细描述。
参照图1,本发明基于快速表情信息提取和泊松融合的人脸表情合成方法主要包括如下步骤:
步骤一,依据源对象的中性表情和非中性表情的人脸显著特征点的位置差异,得到目标对象在非中性表情下的人脸显著特征点形状模板。
本发明使用Multi-PIE数据集作为多表情人脸数据集,Milti-PIE数据集中包含337个对象,每个对象有15种姿态信息和20种光照条件,根据采集时间的不同,每个采集时间节点采集了不同的表情图像。本发明选取了Multi-PIE数据集中的400个表情序列,每个表情序列都包括人脸中性表情和非中性表情,其中高兴的表情序列100个,惊讶的表情序列100个,厌恶的表情序列100个,尖叫的表情序列100个。
利用上述数据集,本步骤的实现如下:
(1a)从未标注的多表情人脸数据集中得到人脸的外轮廓、眉毛、眼睛、鼻子和嘴轮廓的显著特征点位置数据,并将这些显著特征点位置数据信息标注在人脸对应的各区域的轮廓上,依据标注结果对数据集进行筛选,得到标注准确的多表情数据集:
(1b)从标注准确的多表情数据集中选择一组源对象和目标对象,根据源对象的中性表情和非中性表情的人脸显著特征点的位置差异计算相应的表情差异向量D:
D=Se-Sn
其中,Se和Sn分别为源对象对应非中性表情图像和中性表情图像的人脸显著特征点位置信息;
(1c)根据表情差异向量D和目标对象中性表情图像对应的人脸显著特征点位置信息Tn,得到目标对象在非中性表情下的形状模板Te
Te=D*Tn.
步骤二,依据目标对象的表情形状模板Te将目标对象的中性表情图像和源对象的非中性表情图像变形到目标对象的非中性表情形状下。
根据图像特征基元的不同,图像变形的方法主要分三类:基于点的变形、基于线的变形和基于面的变形,其中,基于点的变形的主要思想是通过学习像素点形变前后之间的映射关系,得到对应特征点之间的空间映射函数,依据空间映射函数实现图像变形,这种基于点的变形方法的代表性方法是基于径向基函数的变形算法,基于线的变形方法的主要思想是用建立起来的那些特征线对表示图像上对应像素点的位置,这些像素点到特征线的距离及其综合后的结果距离决定每个像素点在图像的偏移量,这种基于线的变形方法的代表性方法是基于特征线对的图像变形算法,基于面的变形的主要思想是将整幅图像切分为若干个四边形或三角形,用各个小块的变形结果拼接在一起组成一个整体结果来操作整幅图像的变形,这种基于面的变形方法的代表性方法是基于三角剖分的变形算法,结合人脸图像的结构信息,本实例采用的是基于面的变形算法中的Delaunay三角剖分的变形算法,其步骤如下:
(2a)取目标对象中性表情图像和源对象的非中性表情图像,根据人脸显著特征点位置数据分别进行Delaunay三角划分,将人脸表示成若干三角形所组成的网格,其中目标对象中性表情图像的三角划分结果如附图2(a)所示;
(2b)按照目标对象中性表情和目标对象非中性表情形状模板的三角形之间的对应关系,通过仿射变换将目标对象的中性表情图像映射到目标对象的非中性表情形状下,得到目标对象的中性表情形变图,如附图2(b)所示。
(2c)按照源对象非中性表情和目标对象非中性表情形状模板的三角形之间的对应关系,通过仿射变换将源对象的非中性表情图像映射到目标对象的非中性表情形状下,得到源对象的非中性表情形变图。
步骤三,通过快速傅立叶变换方法将形变后的源对象的非中性表情图像变换到频域,在频域提取该形变后源对象的表情细节。
目前对于细节信息的提取方法主要分为基于图像域的细节信息提取方法和基于变换域的细节信息提取方法,基于图像域的细节信息提取方法的主要思想是通过源对象非中性表情图像和源对象中性表情形变后的图像在图像域做差,得到的差值就是提取出来的表情细节信息,这种方法得到的结果会包含很多的噪声信息,并且提取的表情细节信息不够全面,不能很好的应用到表情合成中,基于变换域的表情细节信息提取方法的主要思想将源对象非中性表情图像变换到其他图像域,在变换后的图像域中提取表情细节信息,这种方法的代表性方法是基于小波变换的信息提取方法和基于快速傅立叶变换的信息提取方法,基于小波变换的信息提取方法的处理速度比较慢,本实例使用基于变换域的表情细节信息提取方法中的基于快速傅里叶变换FFT细节信息的提取,其步骤如下:
(3a)对源对象非中性表情图像按目标对象表情模板形变后得到的源对象的非中性表情形变图进行快速傅里叶变换FFT,以得到表情图像的频谱图:
F(u,v)=FFT(f(x,y)),
其中,f(x,y)表示源对象的非中性表情形变图,F(u,v)代表源对象的非中性表情形变图对应的频谱图;
(3b)选定表情图像频谱图的截止频率ε,该截止频率ε的理想取值范围是ε∈(0.3,5),本实例统一取截止频率ε为等于1的常量,依据截止频率ε在频域提取表情图像的表情细节信息;
(3c)对频域提取得到的源对象表情细节信息频谱图进行傅里叶逆变换IFFT,得到源对象在图像域中的表情细节信息。
步骤四,使用泊松融合的方法对提取的源对象表情细节进行滤波,减少合成结果中鼻子区域的重影。
常用的图像滤波去噪算法通常可以分为两大类,一类是对图像进行全局处理,一类是使用局部算子,全局处理的主要思想是先对图像进行数学变换,然后再在变换域中进行滤波,最后进行逆变换得到去噪后的图像,使用局部算子的方法的主要思想是对含噪图像的某一像素进行处理,仅对该像素使用的局部算子,适用于无法或不便估计噪声模型的情况,这类方法主要包括传统的领域平均法、中值滤波算法、模板平滑算法和泊松融合的方法,其中领域平均法、中值滤波算法和模板平滑算法这些传统方法的一个共同缺点就是有效滤除图像中噪声的同时,会使图像的边缘及细节变得较为模糊,这在一定程度上影响了图像的处理效果,不符合保持尽量多的细节信息的初衷,考虑到光照因素在表情细节图像中的空间位置信息,本实例使用局部算子方法中的泊松融合的方法对提取的源对象表情细节进行滤波,其步骤如下:
(4a)依据得到的人脸表情模板提取出人脸鼻子处的特征点位置数据;
(4b)由得到的特征点位置数据在表情细节图像中确定一个矩形框区域,如附图3(a)所示;
(4c)对表情细节图像的矩形框区域,计算它的指导梯度场投影值
v p q n = α β | f p n - f q n | - β · ( f p n - f q n ) ,
其中α为等于0.05的常量,β为等于0.6的常量,p为矩形框区域内的像素点,q为矩形框区域内像素点p的领域像素点,为表情细节图像矩形框区域内像素点p和领域像素点q的指导梯度场投影值,为表情细节图像在矩形框区域内像素点p处的像素值,为表情细节图像在矩形框区域内像素点q处的像素值;
(4d)依据表情细节图像的矩形框区域的指导梯度场投影值将表情细节图像滤波问题转化为求解如下最小化问题:
min f | &Omega; &Sigma; < p , q > &cap; &Omega; &NotEqual; 0 ( f p - f q - v p q n ) 2 ,
其中Ω为表情细节图像需要滤波的矩形框区域,为矩形框区域Ω的边界,<p,q>为矩形框区域Ω的像素点p和像素点q组成的邻域像素对,fp表示待求的滤波后的表情细节图像在像素点p处的像素值,fq表示待求的滤波后的表情细节图像在像素点q处的像素值,表示整幅表情图像在矩形框区域Ω外的图像在像素点p处的像素值,对于像素点满足
(4e)在(4d)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最小化问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:
| N p | f p - &Sigma; q &Element; N p &cap; &Omega; f q = &Sigma; q &Element; N p &cap; &part; &Omega; f q * + &Sigma; q &Element; N p v p q n ,
其中表示整幅表情图像除去区域Ω后的图像在像素点的q处的像素值,Np为区域Ω内像素点p的四邻域;
(4f)使用Guass-Seidel迭代法来求解(4e)的联立线性等式,得到滤波后表情细节图像在像素点p处的像素值fp,使用像素值fp来更新区域Ω中p处的像素值,得到滤波后的表情细节图像,如附图3(b)所示。
步骤五,对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变表情上,得到最终的合成结果。
目前,对于表情细节信息和目标对象形变表情图像的融合,主要是在图像域或者在空间域先利用表情细节图像计算一个平衡因子,再用平衡因子分别处理表情细节图像和目标对象形变表情图像,最后直接将这两部分相加,得到最终的表情合成图像,考虑到表情细节信息的结构性,本实例使用泊松融合的方法先计算表情细节图像的梯度场投影值,再用该梯度场投影值来指导目标对象中性表情形变后图像的插值,得到最终的表情合成结果。
参照图4,本步骤的具体实现如下:
(5a)计算滤波后表情细节图像的梯度场投影值
v p 1 q 1 * = f p 1 - f q 1 ,
其中p1为滤波后表情细节图像的像素点,q1为像素点p1的领域像素点,表示滤波后表情细节图像在像素点p1处的像素值,表示滤波后表情细节图像在像素点q1处的像素值;
(5b)依据滤波后表情细节图像的梯度场投影值将人脸表情合成问题转化为求解如下最小化问题:
min g | &Omega; * &Sigma; < p 1 , q 1 > &cap; &Omega; * &NotEqual; 0 ( g p 1 - g q 1 - v * p 1 q 1 ) 2 ,
其中Ω*为形变后目标对象图像需要合成的区域,为区域Ω*的边界,g为形变后的目标对象图像,<p1,q1>为区域Ω*的像素点p1和领域像素点q1组成的邻域像素对,表示待求的表情合成图像在像素点p1处的像素值,表示待求的表情合成图像在像素点q1处的像素值,表示形变后的目标对象图像在区域Ω*大小外的图像在像素点的p1处的像素值,对于像素点满足
(5c)对(5b)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最小化问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:
| N p 1 | g p 1 - &Sigma; q 1 &Element; N p 1 &cap; &Omega; * g q 1 = &Sigma; q 1 &Element; N p 1 &cap; &part; &Omega; * g q 1 * + &Sigma; q 1 &Element; N p 1 v * p 1 q 1 ,
其中表示形变后的目标对象图像除去区域Ω*后的图像在像素点的q1处的像素值,为区域Ω*内像素点p1的四邻域;
(5d)使用Guass-Seidel迭代法求解(5c)的联立线性等式,得到目标对象的表情合成图在像素点p1处的像素值使用像素值更新目标对象区域Ω*中p1处的像素值,得到最终的合成结果,
以上实例仅用以说明本发明的技术方案而非限制,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神范围,如将步骤三中用快速傅立叶变换FFT替换为离散傅立叶变换DFT进行频域分析的方法,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.基于快速表情信息提取和泊松融合的人脸表情合成方法,其特征在于:包括:
(1)依据源对象的中性表情和非中性表情的人脸显著特征点的位置差异,得到目标对象在非中性表情下的人脸显著特征点形状模板:
(1a)从未标注的多表情人脸数据集中得到人脸的外轮廓、眉毛、眼睛、鼻子和嘴轮廓的显著特征点位置数据,并将这些显著特征点位置数据信息标注在人脸对应的各区域的轮廓上,依据标注结果对数据集进行筛选,得到标注准确的多表情数据集;
(1b)从标注准确的多表情数据集中选择一组源对象和目标对象,根据源对象的中性表情和非中性表情的人脸显著特征点的位置差异计算相应的表情差异向量D:
D=Se-Sn
其中,Se和Sn分别为源对象对应非中性表情图像和中性表情图像的人脸显著特征点位置信息;
(1c)根据表情差异向量D和目标对象中性表情图像对应的人脸显著特征点位置信息Tn,得到目标对象在非中性表情下的形状模板Te
Te=D*Tn
(2)依据目标对象的表情形状模板Te将目标对象的中性表情图像和源对象的非中性表情图像变形到目标对象的非中性表情形状下;
(3)通过快速傅立叶变换方法将形变后的源对象的非中性表情图像变换到频域,在频域提取该形变后源对象的表情细节;
(4)使用泊松融合的方法对提取的源对象表情细节进行滤波,减少合成结果中鼻子区域的重影;
(5)对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变表情上,得到最终的合成结果。
2.根据权利要求1所述的一种快速表情信息提取和泊松融合的人脸表情合成方法,其特征在于:所述步骤(3)按如下步骤进行:
(3a)对源对象表情图像按目标对象表情模板形变后对应的表情图像进行快速傅里叶变换FFT,以得到表情图像的频谱图;
(3b)选定表情图像频谱图的截止频率,在频域提取表情图像的表情细节信息;
(3c)对频域提取得到的源对象表情细节信息频谱图进行傅里叶逆变换IFFT,得到源对象在图像域中的表情细节信息。
3.根据权利要求1所述的快速表情信息提取和泊松融合的人脸表情合成方法,其特征在于:所述步骤(4)中使用泊松融合的方法对提取的源对象表情细节进行滤波,按如下步骤进行:
(4a)依据得到的目标对象人脸表情模板提取出人脸鼻子处的特征点位置数据;
(4b)由得到的特征点位置数据在表情细节图像中确定一个矩形框区域;
(4c)对表情细节图像的矩形框区域,计算它的指导梯度场投影值
v p q n = &alpha; &beta; | f p n - f q n | - &beta; &CenterDot; ( f p n - f q n )
其中α为等于0.05的常量,β为等于0.6的常量,p为矩形框区域内的像素点,q为矩形框区域内像素点p的领域像素点,为表情细节图像矩形框区域内像素点p和领域像素点q的指导梯度场投影值,为表情细节图像在矩形框区域内像素点p处的像素值,为表情细节图像在矩形框区域内像素点q处的像素值;
(4d)依据表情细节图像的矩形框区域的指导梯度场投影值将表情细节图像滤波问题转化为求解如下最小化问题:
min f | &Omega; &Sigma; < p , q > &cap; &Omega; &NotEqual; 0 ( f p - f q - v p q n ) 2
其中Ω为表情细节图像需要滤波的矩形框区域,为矩形框区域Ω的边界,<p,q>为矩形框区域Ω的像素点p和像素点q组成的邻域像素对,fp表示待求的滤波后的表情细节图像在像素点p处的像素值,fq表示待求的滤波后的表情细节图像在像素点q处的像素值,表示整幅表情图像在矩形框区域Ω外的图像在像素点p处的像素值,对于像素点满足
(4e)对(4d)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最小化问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:
| N p | f p - &Sigma; q &Element; N p &cap; &Omega; f q = &Sigma; q &Element; N p &cap; &part; &Omega; f q * + &Sigma; q &Element; N p v p q n
其中表示整幅表情图像除去区域Ω后的图像在像素点的q处的像素值,Np为区域Ω内像素点p的四邻域;
(4f)使用Guass-Seidel迭代法来求解(4e)的联立线性等式,得到滤波后表情细节图像在像素点p处的像素值fp,使用像素值fp来更新区域Ω中p处的像素值,得到滤波后的表情细节图像。
4.根据权利要求1所述的一种快速表情信息提取和泊松融合的人脸表情合成方法,其特征在于:所述步骤(5)按如下步骤进行:
(5a)计算滤波后表情细节图像的梯度场投影值
v p 1 q 1 * = f p 1 - f q 1
其中p1为滤波后表情细节图像的像素点,q1为像素点p1的领域像素点,表示滤波后表情细节图像在像素点p1处的像素值,表示滤波后表情细节图像在像素点q1处的像素值;
(5b)依据滤波后表情细节图像的梯度场投影值将人脸表情合成问题转化为求解如下最小化问题:
min g | &Omega; * &Sigma; < p 1 , q 1 > &cap; &Omega; * &NotEqual; 0 ( g p 1 - g q 1 - v * p 1 q 1 ) 2
其中Ω*为形变后目标对象图像需要合成的区域,为区域Ω*的边界,g为形变后的目标对象图像,<p1,q1>为区域Ω*的像素点p1和领域像素点q1组成的邻域像素对,表示待求的表情合成图像在像素点p1处的像素值,表示待求的表情合成图像在像素点q1处的像素值,表示形变后的目标对象图像在区域Ω*大小外的图像在像素点的p1处的像素值,对于像素点满足
(5c)对(5b)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最小化问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:
| N p 1 | g p 1 - &Sigma; q 1 &Element; N p 1 &cap; &Omega; * g q 1 = &Sigma; q 1 &Element; N p 1 &cap; &part; &Omega; * g q 1 * + &Sigma; q 1 &Element; N p 1 v * p 1 q 1
其中表示形变后的目标对象图像除去区域Ω*后的图像在像素点的q1处的像素值,为区域Ω*内像素点p1的四邻域;
(5d)使用Guass-Seidel迭代法求解(5c)的联立线性等式,得到目标对象的表情合成图在像素点p1处的像素值使用像素值更新目标对象区域Ω*中p1处的像素值,得到最终的合成结果。
CN201610312142.0A 2016-05-12 2016-05-12 基于快速表情信息提取和泊松融合的人脸表情合成方法 Pending CN106056650A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610312142.0A CN106056650A (zh) 2016-05-12 2016-05-12 基于快速表情信息提取和泊松融合的人脸表情合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610312142.0A CN106056650A (zh) 2016-05-12 2016-05-12 基于快速表情信息提取和泊松融合的人脸表情合成方法

Publications (1)

Publication Number Publication Date
CN106056650A true CN106056650A (zh) 2016-10-26

Family

ID=57176848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610312142.0A Pending CN106056650A (zh) 2016-05-12 2016-05-12 基于快速表情信息提取和泊松融合的人脸表情合成方法

Country Status (1)

Country Link
CN (1) CN106056650A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919899A (zh) * 2017-01-18 2017-07-04 北京光年无限科技有限公司 基于智能机器人的模仿人脸表情输出的方法和系统
CN108257162A (zh) * 2016-12-29 2018-07-06 北京三星通信技术研究有限公司 合成脸部表情图像的方法和装置
CN108876879A (zh) * 2017-05-12 2018-11-23 腾讯科技(深圳)有限公司 人脸动画实现的方法、装置、计算机设备及存储介质
WO2019024751A1 (zh) * 2017-07-31 2019-02-07 腾讯科技(深圳)有限公司 一种面部表情合成方法、装置、电子设备及存储介质
CN109829930A (zh) * 2019-01-15 2019-05-31 深圳市云之梦科技有限公司 人脸图像处理方法、装置、计算机设备及可读存储介质
CN109937434A (zh) * 2017-10-18 2019-06-25 腾讯科技(深圳)有限公司 图像处理方法、装置、终端和存储介质
CN110163054A (zh) * 2018-08-03 2019-08-23 腾讯科技(深圳)有限公司 一种人脸三维图像生成方法和装置
CN111860056A (zh) * 2019-04-29 2020-10-30 北京眼神智能科技有限公司 基于眨眼的活体检测方法、装置、可读存储介质及设备
CN113763517A (zh) * 2020-06-05 2021-12-07 华为技术有限公司 人脸表情编辑方法及电子设备
CN114549711A (zh) * 2022-04-27 2022-05-27 广州公评科技有限公司 一种基于表情肌定位的视频智能渲染方法和系统
US11688105B2 (en) 2016-12-29 2023-06-27 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103035022A (zh) * 2012-12-07 2013-04-10 大连大学 基于特征点的人脸表情合成方法
CN104616347A (zh) * 2015-01-05 2015-05-13 掌赢信息科技(上海)有限公司 一种表情迁移方法、电子设备及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103035022A (zh) * 2012-12-07 2013-04-10 大连大学 基于特征点的人脸表情合成方法
CN104616347A (zh) * 2015-01-05 2015-05-13 掌赢信息科技(上海)有限公司 一种表情迁移方法、电子设备及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
KEVIN DALE等: "Video Face Replacement", 《ACM TRANSACTIONS ON GRAPHICS》 *
PATRICK PEREZ等: "Poisson Image Editing", 《ACM TRANSACTIONS ON GRAPHICS》 *
吴 渊等: "一种参数化的表情映射方法", 《计算机应用研究》 *
宋明黎等: "基于拉普拉斯微分的脸部细节迁移", 《计算机辅助设计与图形学学报》 *
浦倩: "人脸表情迁移与分析方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257162A (zh) * 2016-12-29 2018-07-06 北京三星通信技术研究有限公司 合成脸部表情图像的方法和装置
US11688105B2 (en) 2016-12-29 2023-06-27 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
CN108257162B (zh) * 2016-12-29 2024-03-05 北京三星通信技术研究有限公司 合成脸部表情图像的方法和装置
CN106919899B (zh) * 2017-01-18 2020-07-28 北京光年无限科技有限公司 基于智能机器人的模仿人脸表情输出的方法和系统
CN106919899A (zh) * 2017-01-18 2017-07-04 北京光年无限科技有限公司 基于智能机器人的模仿人脸表情输出的方法和系统
CN108876879A (zh) * 2017-05-12 2018-11-23 腾讯科技(深圳)有限公司 人脸动画实现的方法、装置、计算机设备及存储介质
CN108876879B (zh) * 2017-05-12 2022-06-14 腾讯科技(深圳)有限公司 人脸动画实现的方法、装置、计算机设备及存储介质
US11087519B2 (en) 2017-05-12 2021-08-10 Tencent Technology (Shenzhen) Company Limited Facial animation implementation method, computer device, and storage medium
CN109325988A (zh) * 2017-07-31 2019-02-12 腾讯科技(深圳)有限公司 一种面部表情合成方法、装置及电子设备
KR20200027030A (ko) * 2017-07-31 2020-03-11 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 얼굴 표정 합성 방법과 장치, 전자 기기, 및 저장 매체
US11030439B2 (en) 2017-07-31 2021-06-08 Tencent Technology (Shenzhen) Company Limited Facial expression synthesis method and apparatus, electronic device, and storage medium
KR102304674B1 (ko) * 2017-07-31 2021-09-23 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 얼굴 표정 합성 방법과 장치, 전자 기기, 및 저장 매체
WO2019024751A1 (zh) * 2017-07-31 2019-02-07 腾讯科技(深圳)有限公司 一种面部表情合成方法、装置、电子设备及存储介质
CN109937434A (zh) * 2017-10-18 2019-06-25 腾讯科技(深圳)有限公司 图像处理方法、装置、终端和存储介质
US11120535B2 (en) 2017-10-18 2021-09-14 Tencent Technology (Shenzhen) Company Limited Image processing method, apparatus, terminal, and storage medium
CN110163054A (zh) * 2018-08-03 2019-08-23 腾讯科技(深圳)有限公司 一种人脸三维图像生成方法和装置
CN109829930A (zh) * 2019-01-15 2019-05-31 深圳市云之梦科技有限公司 人脸图像处理方法、装置、计算机设备及可读存储介质
CN111860056A (zh) * 2019-04-29 2020-10-30 北京眼神智能科技有限公司 基于眨眼的活体检测方法、装置、可读存储介质及设备
CN111860056B (zh) * 2019-04-29 2023-10-20 北京眼神智能科技有限公司 基于眨眼的活体检测方法、装置、可读存储介质及设备
WO2021244040A1 (zh) * 2020-06-05 2021-12-09 华为技术有限公司 人脸表情编辑方法及电子设备
CN113763517A (zh) * 2020-06-05 2021-12-07 华为技术有限公司 人脸表情编辑方法及电子设备
CN113763517B (zh) * 2020-06-05 2024-04-12 华为技术有限公司 人脸表情编辑方法及电子设备
CN114549711A (zh) * 2022-04-27 2022-05-27 广州公评科技有限公司 一种基于表情肌定位的视频智能渲染方法和系统

Similar Documents

Publication Publication Date Title
CN106056650A (zh) 基于快速表情信息提取和泊松融合的人脸表情合成方法
CN105184249B (zh) 用于人脸图像处理的方法和装置
CN104067311B (zh) 数字化妆
CN105374007B (zh) 融合骨架笔画和纹理特征的铅笔画生成方法和装置
CN103456010B (zh) 一种基于特征点定位的人脸卡通画生成方法
CN103268623B (zh) 一种基于频域分析的静态人脸表情合成方法
CN101551911B (zh) 人脸素描肖像画自动生成方法
CN103824253B (zh) 一种基于图像局部精确变形的人物五官变形方法
CN108305312A (zh) 3d虚拟形象的生成方法和装置
CN109675315A (zh) 游戏角色模型的生成方法、装置、处理器及终端
CN109325988A (zh) 一种面部表情合成方法、装置及电子设备
CN104063888B (zh) 一种基于非真实感的波谱艺术风格绘制方法
CN109377557A (zh) 基于单帧人脸图像的实时三维人脸重建方法
CN101556699A (zh) 一种基于脸型的人脸衰老图像合成方法
CN101098241A (zh) 虚拟形象实现方法及其系统
CN110097626A (zh) 一种基于rgb单目图像的浅浮雕物体识别处理方法
CN110458752A (zh) 一种基于局部遮挡条件下的图像换脸方法
CN111161137A (zh) 一种基于神经网络的多风格国画花生成方法
CN103258343A (zh) 一种基于图像编辑的眼部图像处理方法
CN103914862A (zh) 基于边缘正切流的模拟铅笔素描画方法
CN109712223A (zh) 一种基于纹理合成的三维模型自动上色方法
CN111046763A (zh) 一种人像卡通化的方法和装置
CN109410119A (zh) 面具图像变形方法及其系统
DE102015000377A1 (de) Bereitstellen einer Zeichenhilfe unter Nutzung einer Merkmalserfassung und eines semantischen Kennzeichnens
Thalmann et al. Modeling of populations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161026

WD01 Invention patent application deemed withdrawn after publication