CN106250813A - 一种面部表情迁移方法及设备 - Google Patents
一种面部表情迁移方法及设备 Download PDFInfo
- Publication number
- CN106250813A CN106250813A CN201610565586.5A CN201610565586A CN106250813A CN 106250813 A CN106250813 A CN 106250813A CN 201610565586 A CN201610565586 A CN 201610565586A CN 106250813 A CN106250813 A CN 106250813A
- Authority
- CN
- China
- Prior art keywords
- vector
- face
- image
- feature
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000013598 vector Substances 0.000 claims abstract description 256
- 239000012636 effector Substances 0.000 claims abstract description 92
- 230000005012 migration Effects 0.000 claims abstract description 13
- 238000013508 migration Methods 0.000 claims abstract description 13
- 230000014509 gene expression Effects 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 21
- 238000012512 characterization method Methods 0.000 abstract description 2
- 230000009467 reduction Effects 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241001125929 Trisopterus luscus Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 241000288673 Chiroptera Species 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 210000001215 vagina Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种面部表情迁移的方法及设备,用以保证面部表情迁移的准确性并降低实现成本、提高处理效率。方法为:获得控制者当前面部图像;确定控制者当前面部图像中的关键特征点,并根据该关键特征点确定用于表征控制者当前面部表情的第一特征向量;确定采用控制者的面部图像样本对应的第二特征向量线性表示第一特征向量所需的系数向量;根据所述系数向量以及被控者的面部图像样本对应的第三特征向量,确定用于表征迁移后所述被控者面部表情的第四特征向量。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种面部表情迁移方法及设备。
背景技术
人脸表情捕获是真实感图形学的重要组成部分,目前已经被广泛应用于电影、动画、游戏、网络聊天以及教育等领域。基于人脸表情迁移的人脸动画,是系统捕获用户的表情并将该表情映射到另一个目标图像上。
现有技术中,人脸表情迁移的实现方式主要有以下几种:
第一,在人体上佩戴能够准确跟踪以及捕获人脸表情的传感器。该方法需要昂贵的硬件设备支持,无法广泛应用于普通用户,且在人体上佩戴传感器导致用户体验差。
第二,目前常用的为采用Kinect设备实现人脸表情跟踪以及捕获,该Kinect设备能够通过普通摄像头得到图像二维信息,以及通过红外摄像头获得图像的深度信息,根据该图像二维信息以及该图像的深度信息能够很好捕捉人脸的信息变化。该方法成本较高,并且当人头部发生剧烈变化时,由于Kinect设备处理速度限制导致捕获的人脸表情不准确。
基于此,需要寻求一种人脸表情迁移的方法,以保证人脸表情迁移的准确性并降低实现成本、提高处理效率。
发明内容
本发明实施例提供一种面部表情迁移的方法及设备,用以保证面部表情迁移的准确性并降低实现成本、提高处理效率。
本发明实施例提供的具体技术方案如下:
第一方面,本发明实施例提供了一种面部表情迁移方法,包括:
获得控制者当前面部图像,其中,所述面部图像为二维图像;
确定所述控制者当前面部图像的关键特征点,并根据所述关键特征点确定第一特征向量,其中,所述第一特征向量用于表征所述控制者当前面部表情,所述第一特征向量为二维列向量;
确定采用所述控制者的面部图像样本对应的第二特征向量线性表示所述第一特征向量所需的系数向量,其中,所述第二特征向量用于反映所述控制者的面部图像样本的面部表情,所述控制者的面部图像样本为二维图像;
根据所述系数向量以及被控者的面部图像样本对应的第三特征向量确定第四特征向量,其中,所述第三特征向量用于反映所述被控者的面部图像样本的面部表情,所述第四特征向量用于表征迁移后所述被控者面部表情,所述被控者的面部图像样本为二维图像。
第二方面,本发明实施例中提供了一种设备,包括:
获取模块,用于获得控制者当前面部图像,其中,所述面部图像为二维图像;
第一处理模块,用于确定所述控制者当前面部图像的关键特征点,并根据所述关键特征点确定第一特征向量,其中,所述第一特征向量用于表征所述控制者当前面部表情,所述第一特征向量为二维列向量;
第二处理模块,用于确定采用所述控制者的面部图像样本对应的第二特征向量线性表示所述第一特征向量所需的系数向量,其中,所述第二特征向量用于反映所述控制者的面部图像样本的面部表情,所述控制者的面部图像样本为二维图像;
第三处理模块,用于根据所述系数向量以及被控者的面部图像样本对应的第三特征向量确定第四特征向量,其中,所述第三特征向量用于反映所述被控者的面部图像样本的面部表情,所述第四特征向量用于表征迁移后所述被控者面部表情,所述被控者的面部图像样本为二维图像。
基于上述技术方案,本发明实施例中,获得控制者当前面部图像后,确定采用所述控制者的面部图像样本对应的第二特征向量,线性表示所述控制者当前面部表情的第一特征向量所需的系数向量,将该系数向量作用于被控者的面部图像样本对应的第三特征向量后,即可得到用于表征迁移后所述被控者面部表情的第四特征向量。该方式不需要额外的硬件设备支持,降低了实现成本,并且能够保证表情迁移的准确性,实现过程简单,提高了处理效率。
附图说明
图1为本发明实施例中面部表情迁移的过程示意图;
图2为本发明实施例中稀疏表示模型的示意图;
图3为本发明实施例中被控者的一张面部图像示意图;
图4为本发明实施例中被控者的面部图像样本库示意图;
图5为本发明实施例中对被控者的面部图像样本库中的每幅面部图像进行特征提取的示意图;
图6为本发明实施例中控制者当前的面部图像示意图;
图7为本发明实施例中表情迁移后被控者的面部图像示意图;
图8为本发明实施例中设备结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例中,面部表情迁移是指将控制者的面部表情迁移到被控者的面部,使被控者呈现与控制者相同的面部表情。
本发明实施例中,需要预先建立控制者的面部图像样本库以及被控者的面部图像样本库。
优选地,控制者的面部图像样本库与被控者的面部图像样本库中包含的面部图像样本的个数相同;控制者的面部图像样本库中第N个面部图像样本对应的面部表情的类型,与被控者的面部图像样本库中第N个面部图像样本对应的面部表情的类型相同,示例的,对应的面部表情的类型可以为张嘴、微笑、抬眉毛、厌恶、挤左眼、挤右眼、愤怒、向左歪嘴、向右歪嘴、露齿笑、嘟嘴、噘嘴、翻嘴唇、鼓嘴、闭嘴、闭眼等中的一种,其中,N不小于1且不大于控制者或被控者面部图像样本库中包含的面部图像的总数。
例如,采集控制者面部的基本表情组成控制者的面部图像样本库,以及采集被控者面部的基本表情组成被控者的面部图像样本库,控制者或被控者的面部图像样本库中包括48个面部图像样本,该48个面部图像样本为在三个不同的拍摄角度下分别拍摄16种基本表情得到。示例的,该16种基本表情为:张嘴、微笑、抬眉毛、厌恶、挤左眼、挤右眼、愤怒、向左歪嘴、向右歪嘴、露齿笑、嘟嘴、噘嘴、翻嘴唇、鼓嘴、闭嘴、闭眼。示例的,该三个不同的拍摄角度可以是左侧偏转30度、右侧偏转30度和正面拍摄。
分别对控制者面部图像样本库以及对被控者面部图像样本库进行以下处理:
分别对每幅图像进行关键特征点提取,该关键特征点用于反映面部表情。针对任意一幅图像,将该图像的关键特征点保存在一个特征向量中,该特征向量由两个一维列向量组成,该图像的关键特征点的横坐标(即X轴坐标)组成该特征向量中的第一维列向量,表示为X,该图像的关键特征点的纵坐标(即Y轴坐标)组成该特征向量中的第二维列向量,表示为Y。
对于图像中的任意一个关键特征点,该关键特征点的横坐标在第一维列向量中的位置,与该关键特征点的纵坐标在第二维列向量中的位置相同,即将第一维列向量的第A行的值作为横坐标的值,以及将第二维列向量的第A行作为纵坐标的值,可以确定一个关键特征点的横坐标和纵坐标。
根据控制者面部图像样本库中每个面部图像样本的第一维列向量确定第一字典,表示为DX1=(X1,X2,X3…),其中Xa表示第a个面部图像样本对应的第一维列向量;以及根据控制者面部图像样本库中每个面部图像样本的第二维列向量确定第二字典,表示为DY1=(Y1,Y2,Y3…),其中,Yb表示第b个面部图像样本对应的第二维列向量。通过DX1和DY1可以表示控制者的每个表情。
同理,根据被控者面部图像样本库中每个面部图像样本的第一维列向量确定第一字典,表示为DX2=(X1,X2,X3…),其中Xa表示第a个面部图像对应的第一维列向量;以及根据控制者面部图像样本库中每个面部图像样本的第二维列向量确定第二字典,表示为DY2=(Y1,Y2,Y3…),其中,Yb表示第b个面部图像样本对应的第二维列向量。通过DX2和DY2可以表示被控者的每个表情。
本发明实施例中,如图1所示,面部表情迁移的具体过程如下:
步骤101:获得控制者当前面部图像,其中,该面部图像为二维图像。
具体地,通过摄像头获得控制者当前面部图像;或者,从图片库中获取控制者的面部图像作为当前面部图像。
步骤102:确定控制者当前面部图像的关键特征点,并根据该关键特征点确定第一特征向量,其中,该第一特征向量用于表征控制者当前面部表情,该第一特征向量为二维列向量。
实际应用中,确定控制者当前面部图像中用于反映控制者当前面部表情的关键特征点的方式有多种,包括但不限于以下列举的方式:人工标定的方式;通过特征点提取算法提取关键特征点。其中,特征点提取算法包括但不限于:基于级联姿态回归(Cascaded PoseRegression,CPR)的人脸特征点检测方法;基于约束局部模型(Constrained Local Model,CLM)的人脸特征点检测方法;基于回归树的人脸特征点检测方法等。
优选地,控制者当前面部图像中、控制者的面部图像样本库中每个面部图像样本中以及被控者的面部图像样本库中每个面部图像样本中,对于面部的同一个部位,所包含的关键特征点的个数相同。
较佳地,按照预先约定的面部的每个部位所包含的关键特征点的个数,确定控制者当前面部图像中用于反映控制者当前面部表情的关键特征点。
具体地,确定第一特征向量的具体过程如下:根据用于反映控制者当前面部表情的关键特征点的横坐标,确定第一特征向量的第一维列向量,以及根据用于反映控制者当前面部表情的关键特征点的纵坐标,确定第一特征向量的第二维列向量。
例如,在控制者当前面部图像中、控制者的面部图像样本库中的任意一个面部图像样本中、被控者的面部图像样本库中的任意一个面部图像样本中,位于左侧的眉毛部位均有5个关键特征点,位于右侧的眉毛部位均有6个关键特征点等。
步骤103:确定采用控制者的面部图像样本对应的第二特征向量线性表示第一特征向量所需的系数向量,其中,第二特征向量用于反映控制者的面部图像样本对应的面部表情,控制者的面部图像样本为二维图像。
优选地,该系数向量为能够线性表示第一特征向量的最稀疏解。
具体地,确定系数向量的具体过程为:
确定采用控制者的面部图像样本对应的第二特征向量的第一维列向量,线性表示第一特征向量的第一维列向量所需的第一维系数向量,其中,第一维列向量为根据该面部图像的关键特征点的横坐标确定;以及
确定采用控制者的面部图像样本对应的第二特征向量的第二维列向量,线性表示第一特征向量的第二维列向量所需的第二维系数向量,其中,第二维列向量为根据面部图像的关键特征点的纵坐标确定;
其中,第一维系数向量和第二维系数向量组成该系数向量。
具体地,计算稀疏向量的过程描述如下:
假设反映控制者当前面部表情的第一维列向量或第二维列向量表示y,控制者的面部图像样本库表示为D1=[d1,d2,d3,...,dn],D1为m×n维的向量,其中,m小于n。D1中的每一列di表示控制者的面部图像样本库中一个面部图像样本的第一维列向量或第二维列向量,di为m×1维的向量。反映控制者当前面部表情的第一维列向量y1可以表示为公式1:
y1≈D1·x1=x11·d1+x12·d2...+x1n·dn (公式1)
公式1中,di表示控制者的面部图像样本库中一个面部图像样本的第一维列向量。对于公式1,由于m远远小于n,因此在y1和D1已知的情况下,公式1为一个欠定方程。欠定方程有无数解,这里计算该方程的最稀疏解,最稀疏解中包含的非零值的个数最少,从而将欠定方程转换为对0范数的求解。因此,稀疏表示模型为公式2所示:
如图2所示为稀疏表示模型的示意图,其中,每个小方块代表一个元素,各元素的取值不完全相同,白色小方块表示该元素取值为零,x1中白色小方块越多则x1越稀疏。可以采用最小二乘法等求解公式(2)得到最稀疏解x1,即第一维系数向量。
反映控制者当前面部表情的第二维列向量y2可以表示为公式3:
y2≈D1·x2=x21·d1+x22·d2...+x2n·dn (公式3)
公式3中,di表示控制者的面部图像样本库中一个面部图像样本的第二维列向量。同理,将公式(3)转换为公式(4)所示的稀疏表示模型:
可以采用最小二乘法等求解公式(4)得到最稀疏解x2,即第二维系数向量。
步骤104:根据系数向量以及被控者的面部图像样本对应的第三特征向量,确定第四特征向量,其中,第三特征向量用于反映被控者的面部图像样本的面部表情,第四特征向量用于表征迁移后被控者面部表情,被控者的面部图像样本为二维图像。
具体地,确定第四特征向量的具体过程为:
根据被控者的面部图像样本对应的第三特征向量的第一维列向量以及第一维系数向量,确定第四特征向量的第一维列向量;以及
根据被控者的面部图像样本对应的第三特征向量的第二维列向量以及第二维系数向量,确定第四特征向量的第二维列向量。
具体地,第四特征向量的计算过程如下:
假设第四特征向量的第一维列向量表示为y3,控制者的面部图像样本库表示为D2=[d1,d2,d3,...,dn],D2为m×n维的向量,其中,m小于n。D2中的每一列di表示控制者的一个面部图像样本的第一维列向量或第二维列向量,di为m×1维的向量。则第四特征向量的第一维列向量y3可以表示为公式5:
y3≈D2·x1=x11·d1+x12·d2...+x1n·dn (公式5)
将步骤103计算得到的第一维系数向量x1以及被控者的面部图像样本库中每个面部图像的第一维列向量代入公式5中,可以得到第四特征向量的第一维列向量y3。
同理,假设第四特征向量的第二维列向量表示为y4,则第四特征向量的第二维列向量y4可以表示为公式6:
y4≈D2·x1=x11·d1+x12·d2...+x1n·dn (公式6)
将步骤103计算得到的第二维系数向量x2以及被控者的面部图像样本库中每个面部图像样本的第二维列向量代入公式6中,可以得到第四特征向量的第二维列向量y4。
其中,第四特征向量的第一维列向量y3由反映面部表情的关键特征点的横坐标组成,第四特征向量的第二维列向量y4由反映面部表情的关键特征点的纵坐标组成。即y3中的第i行与y4中的第i行组成一个关键特征点,据此可以确定迁移后被控者面部表情的每个关键特征点的坐标。
本发明实施例中,根据第四特征向量的第一维列向量以及第四特征向量的第二维列向量,确定迁移后被控者的面部图像。
具体地,根据第四特征向量的第一维列向量以及第四特征向量的第二维列向量,确定迁移后被控者面部表情的每个关键特征点的坐标,基于迁移后被控者面部表情的每个关键特征点的坐标进行三角剖分和纹理映射,从而得到表情迁移后被控者的面部图像。
其中,三角剖分是代数拓扑学里最基本的研究方法。以曲面为例,采用三角剖分将曲面剖开成一块块碎片,要求满足下面条件:(1)每块碎片都是曲边三角形;(2)曲面上任何两个曲边三角形,要么不相交,要么恰好相交于一条公共边,不能同时有两条或两条以上的边相交。目前比较常用的是Delaunay三角剖分方法。
其中,纹理映射是指在得到的三角剖分图中添加纹理信息,即给每个像素赋予像素值。
优选地,对控制者当前面部图像、控制者的面部图像样本库中每个面部图像样本以及被控者的面部图像样本库中每个面部图像样本中的关键特征点进行归一化处理。具体地,针对任意一幅面部图像,对该面部图像中的关键特征点进行归一化处理的过程为:
按照公式7对该面部图像中的关键特征点的X坐标值进行归一化处理,公式7为:
其中ki为第i个关键特征点的X坐标的值,为该面部图像中所有关键特征点的X坐标的平均值,ki'为新得到的归一化处理的关键特征点的X坐标的值。
同理,按照公式7对该面部图像中的关键特征点的Y坐标值进行归一化处理,此时公式7中的ki为第i个关键特征点的Y坐标的值,为该面部图像中所有关键特征点的Y坐标的平均值,ki'为新得到的归一化处理的关键特征点的Y坐标的值。
以下通过一个具体实施例对面部表情迁移的具体过程进行举例说明。
第一步,如图3所示给定的被控者的一张面部图像,希望通过控制者的表情变化对该被控者的表情进行控制,实现表情迁移;
第二步,获取包含被控者的基本表情的面部图像样本库,如图4所示为该面部图像样本库的示意图;
第三步,如图5所示,针对被控者的面部图像样本库中的每幅面部图像,进行以下处理:对该面部图像进行关键特征点提取,将每个关键特征点按照预设的顺序排序后,将每个关键特征点的X轴坐标存储于第一维列向量,将每个关键特征点的Y轴坐标存储于第二维列向量;
第四步,根据被控者的面部图像样本库中的每幅面部图像样本的第一维列向量和第二维列向量,建立两个字典,分别表示为DX和DY,通过该两个字典可以表示被控者的各种面部表情,其中,DX表示为(X1,X2,X3…),DY表示为(Y1,Y2,Y3…),X1表示被控者的面部图像样本库中第一幅面部图像样本的第一维列向量,Y1表示被控者的面部图像样本库中第一幅面部图像样本的第二维列向量,依次类推;
第五步,按照公式7对被控者的面部图像样本库中每个面部图像样本中的关键特征点进行归一化处理;
第六步,按照步骤第二步至第五步的方式为控制者建立基本表情的图像样本库,具体参见第二步至第五步的描述,此处不再重复;
第七步,通过摄像头获得控制者当前的面部图像,如图6所示为控制者当前的面部图像示意图,并提取该面部图像中的关键特征点,并确定包含该面部图像中的关键特征点的X轴坐标的第一维列向量y1,以及确定包含该面部图像中的关键特征点的Y轴坐标的第二维列向量y2,则y1可以表示为公式1,y2可以表示为公式3,通过求解公式1中x1的最小0范数得到稀疏解x1,即第一维系数向量,以及通过求解公式3中x2的最小0范数得到稀疏解x2,即第二维系数向量;
第八步,按照公式5以及公式6确定将控制者当前的面部图像中的表情迁移到被控者后,被控者面部图像中反映面部表情的关键特征点的坐标;
第九步,基于迁移后被控者面部表情的每个关键特征点的坐标进行三角剖分和纹理映射,从而得到表情迁移后被控者的面部图像,如图7所示为表情迁移后被控者的面部图像示意图。
其中,第七步中,采用分段匹配跟踪的方式求解公式1中x1的最小0范数得到稀疏解x1的过程如下:
已知输入参数为:稀疏解x1的稀疏度K,控制者的表情字典D1,y1以及阈值需求解的参数为稀疏解x1。
步骤a,初始化各参数:x1=0,初始化残差r0=y1,索引集Λ0=φ,迭代计数t=1,其中,φ为D1中每个列向量的索引值的集合
步骤b,将残差rt-1分别与索引集Λt-1中的每个列向量进行内积运算,从索引集Λt-1中选择内积所得的结果大于阈值的所有列向量的索引,得到选出索引集Jt,
步骤c,更新索引集:Λt=Λt-1∪{Jt};
步骤d,更新残差:
步骤e,判断是否满足迭代停止条件,若满足,停止迭代过程,并输出若不满足,则更新t=t+1,并转去执行步骤b。其中,迭代停止条件为残差小于设定阈值,该设定阈值根据实际需求设定,例如,该设定阈值为0.02。
采用分段匹配跟踪的方式求解公式1中x1的最小0范数得到稀疏解x1的总体思路为:每次迭代中,将上一次得到的残差与D1中的列向量分别做内积运算,然后选出内积所得的结果大于阈值的列向量,并将选出的列向量所对应的列数索引保存到Λt中,然后用Λt中的索引组成新的字典并求出稀疏解x1和残差,反复迭代,直到满足终止条件,输出x1。
基于同一发明构思,本发明实施例中提供了一种设备,该设备的具体实施可参见方法实施例部分的描述,重复之处不再赘述,如图8所示,该设备主要包括:
获取模块801,用于获得控制者当前面部图像,其中,所述面部图像为二维图像;
第一处理模块802,用于确定所述控制者当前面部图像的关键特征点,并根据所述关键特征点确定第一特征向量,其中,所述第一特征向量用于表征所述控制者当前面部表情,所述第一特征向量为二维列向量;
第二处理模块803,用于确定采用所述控制者的面部图像样本对应的第二特征向量线性表示所述第一特征向量所需的系数向量,其中,所述第二特征向量用于反映所述控制者的面部图像样本的面部表情,所述控制者的面部图像样本为二维图像;
第三处理模块804,用于根据所述系数向量以及被控者的面部图像样本对应的第三特征向量确定第四特征向量,其中,所述第三特征向量用于反映所述被控者的面部图像样本的面部表情,所述第四特征向量用于表征迁移后所述被控者面部表情,所述被控者的面部图像样本为二维图像。
可能的实施方式中,所述第一处理模块具体用于:
根据所述关键特征点的横坐标确定所述第一特征向量的第一维列向量,以及根据所述关键特征点的纵坐标确定所述第一特征向量的第二维列向量。
可能的实施方式中,所述第二处理模块具体用于:
确定采用所述第二特征向量的第一维列向量,线性表示所述第一特征向量的第一维列向量所需的第一维系数向量;以及
确定采用所述第二特征向量的第二维列向量,线性表示所述第一特征向量的第二维列向量所需的第二维系数向量;
其中,所述第一维系数向量和所述第二维系数向量组成所述系数向量。
可能的实施方式中,所述第三处理模块具体用于:
根据所述第三特征向量的第一维列向量以及所述第一维系数向量,确定所述第四特征向量的第一维列向量;以及
根据所述第三特征向量的第二维列向量以及所述第二维系数向量,确定所述第四特征向量的第二维列向量。
基于上述技术方案,本发明实施例中,获得控制者当前面部图像后,确定采用所述控制者的面部图像样本对应的第二特征向量,线性表示所述控制者当前面部表情的第一特征向量所需的系数向量,将该系数向量作用于被控者的面部图像样本对应的第三特征向量后,即可得到用于表征迁移后所述被控者面部表情的第四特征向量。该方式不需要额外的硬件设备支持,降低了实现成本,并且能够保证表情迁移的准确性,实现过程简单,提高了处理效率。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (12)
1.一种面部表情迁移方法,其特征在于,包括:
获得控制者当前面部图像,其中,所述面部图像为二维图像;
确定所述控制者当前面部图像的关键特征点,并根据所述关键特征点确定第一特征向量,其中,所述第一特征向量用于表征所述控制者当前面部表情,所述第一特征向量为二维列向量;
确定采用所述控制者的面部图像样本对应的第二特征向量线性表示所述第一特征向量所需的系数向量,其中,所述第二特征向量用于反映所述控制者的面部图像样本的面部表情,所述控制者的面部图像样本为二维图像;
根据所述系数向量以及被控者的面部图像样本对应的第三特征向量确定第四特征向量,其中,所述第三特征向量用于反映所述被控者的面部图像样本的面部表情,所述第四特征向量用于表征迁移后所述被控者面部表情,所述被控者的面部图像样本为二维图像。
2.如权利要求1所述的方法,其特征在于,所述系数向量为能够线性表示所述第一特征向量的最稀疏解。
3.如权利要求1所述的方法,其特征在于,根据所述关键特征点确定第一特征向量,包括:
根据所述关键特征点的横坐标确定所述第一特征向量的第一维列向量,以及根据所述关键特征点的纵坐标确定所述第一特征向量的第二维列向量。
4.如权利要求3所述的方法,其特征在于,确定采用所述控制者的面部图像样本对应的第二特征向量线性表示所述第一特征向量所需的系数向量,包括:
确定采用所述第二特征向量的第一维列向量,线性表示所述第一特征向量的第一维列向量所需的第一维系数向量;以及
确定采用所述第二特征向量的第二维列向量,线性表示所述第一特征向量的第二维列向量所需的第二维系数向量;
其中,所述第一维系数向量和所述第二维系数向量组成所述系数向量。
5.如权利要求4所述的方法,其特征在于,根据所述系数向量以及被控者的面部图像样本对应的第三特征向量确定第四特征向量,包括:
根据所述第三特征向量的第一维列向量以及所述第一维系数向量,确定所述第四特性向量的第一维列向量;以及
根据所述第三特征向量的第二维列向量以及所述第二维系数向量,确定所述第四特征向量的第二维列向量。
6.如权利要求5所述的方法,其特征在于,所述方法还包括:
根据所述第四特征向量的第一维列向量以及所述第四特征向量的第二维列向量,确定迁移后所述被控者的面部图像。
7.如权利要求1-6任一项所述的方法,其特征在于,所述控制者的面部图像样本与所述被控者的面部图像样本的个数相同;
所述控制者的第N个面部图像样本对应的面部表情的类型,与所述被控者的第N个面部图像样本对应的面部表情的类型相同,所述N不小于1且不大于所述控制者或所述被控者面部图像样本的总数。
8.如权利要求7所述的方法,其特征在于,所述控制者当前面部图像中、所述控制者的面部图像样本中以及所述被控者的面部图像样本中,对于面部的同一个部位,所包含的关键特征点的个数相同。
9.一种设备,其特征在于,包括:
获取模块,用于获得控制者当前面部图像,其中,所述面部图像为二维图像;
第一处理模块,用于确定所述控制者当前面部图像的关键特征点,并根据所述关键特征点确定第一特征向量,其中,所述第一特征向量用于表征所述控制者当前面部表情,所述第一特征向量为二维列向量;
第二处理模块,用于确定采用所述控制者的面部图像样本对应的第二特征向量线性表示所述第一特征向量所需的系数向量,其中,所述第二特征向量用于反映所述控制者的面部图像样本的面部表情,所述控制者的面部图像样本为二维图像;
第三处理模块,用于根据所述系数向量以及被控者的面部图像样本对应的第三特征向量确定第四特征向量,其中,所述第三特征向量用于反映所述被控者的面部图像样本的面部表情,所述第四特征向量用于表征迁移后所述被控者面部表情,所述被控者的面部图像样本为二维图像。
10.如权利要求9所述的设备,其特征在于,所述第一处理模块具体用于:
根据所述关键特征点的横坐标确定所述第一特征向量的第一维列向量,以及根据所述关键特征点的纵坐标确定所述第一特征向量的第二维列向量。
11.如权利要求10所述的设备,其特征在于,所述第二处理模块具体用于:
确定采用所述第二特征向量的第一维列向量,线性表示所述第一特征向量的第一维列向量所需的第一维系数向量;以及
确定采用所述第二特征向量的第二维列向量,线性表示所述第一特征向量的第二维列向量所需的第二维系数向量;
其中,所述第一维系数向量和所述第二维系数向量组成所述系数向量。
12.如权利要求11所述的设备,其特征在于,所述第三处理模块具体用于:
根据所述第三特征向量的第一维列向量以及所述第一维系数向量,确定所述第四特征向量的第一维列向量;以及
根据所述第三特征向量的第二维列向量以及所述第二维系数向量,确定所述第四特征向量的第二维列向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610565586.5A CN106250813B (zh) | 2016-07-18 | 2016-07-18 | 一种面部表情迁移方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610565586.5A CN106250813B (zh) | 2016-07-18 | 2016-07-18 | 一种面部表情迁移方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106250813A true CN106250813A (zh) | 2016-12-21 |
CN106250813B CN106250813B (zh) | 2020-02-11 |
Family
ID=57613368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610565586.5A Expired - Fee Related CN106250813B (zh) | 2016-07-18 | 2016-07-18 | 一种面部表情迁移方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106250813B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985241A (zh) * | 2018-07-23 | 2018-12-11 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110399825A (zh) * | 2019-07-22 | 2019-11-01 | 广州华多网络科技有限公司 | 面部表情迁移方法、装置、存储介质及计算机设备 |
CN111599002A (zh) * | 2020-05-15 | 2020-08-28 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN112927328A (zh) * | 2020-12-28 | 2021-06-08 | 北京百度网讯科技有限公司 | 表情迁移方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976453A (zh) * | 2010-09-26 | 2011-02-16 | 浙江大学 | 一种基于gpu的三维人脸表情合成方法 |
CN103324914A (zh) * | 2013-05-31 | 2013-09-25 | 长安大学 | 一种基于稀疏系数的人脸图像多表情相互转换方法 |
-
2016
- 2016-07-18 CN CN201610565586.5A patent/CN106250813B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976453A (zh) * | 2010-09-26 | 2011-02-16 | 浙江大学 | 一种基于gpu的三维人脸表情合成方法 |
CN103324914A (zh) * | 2013-05-31 | 2013-09-25 | 长安大学 | 一种基于稀疏系数的人脸图像多表情相互转换方法 |
Non-Patent Citations (1)
Title |
---|
XIANG MA等: "Robust Framework of Single-Frame Face Superresolution Across Head Pose, Facial Expression, and Illumination Variations", 《IEEE TRANSACTIONS ON HUMAN-MACHINE SYSTEMS》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985241A (zh) * | 2018-07-23 | 2018-12-11 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110399825A (zh) * | 2019-07-22 | 2019-11-01 | 广州华多网络科技有限公司 | 面部表情迁移方法、装置、存储介质及计算机设备 |
CN111599002A (zh) * | 2020-05-15 | 2020-08-28 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
CN112927328A (zh) * | 2020-12-28 | 2021-06-08 | 北京百度网讯科技有限公司 | 表情迁移方法、装置、电子设备及存储介质 |
CN112927328B (zh) * | 2020-12-28 | 2023-09-01 | 北京百度网讯科技有限公司 | 表情迁移方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106250813B (zh) | 2020-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
US10860838B1 (en) | Universal facial expression translation and character rendering system | |
US20200257891A1 (en) | Face Reconstruction from a Learned Embedding | |
US20170199580A1 (en) | Grasping virtual objects in augmented reality | |
WO2016011834A1 (zh) | 一种图像处理方法及系统 | |
CN112819947A (zh) | 三维人脸的重建方法、装置、电子设备以及存储介质 | |
CN109887003A (zh) | 一种用于进行三维跟踪初始化的方法与设备 | |
CN106250813A (zh) | 一种面部表情迁移方法及设备 | |
CN115943436A (zh) | 快速和深度脸部变形 | |
CN107239216A (zh) | 基于触摸屏的绘制处理方法和装置 | |
CN113129450A (zh) | 虚拟试衣方法、装置、电子设备和介质 | |
CN115147558A (zh) | 三维重建模型的训练方法、三维重建方法及装置 | |
CN115578515B (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN102360513A (zh) | 基于梯度操作的对象光照迁移方法 | |
CN115239888B (zh) | 用于重建三维人脸图像的方法、装置、电子设备和介质 | |
US10269165B1 (en) | Facial animation models | |
US10559116B2 (en) | Interactive caricature generation from a digital image | |
US9892485B2 (en) | System and method for mesh distance based geometry deformation | |
CN112657176A (zh) | 一种结合人像行为信息的双目投影人机交互方法 | |
Boom et al. | Interactive light source position estimation for augmented reality with an RGB‐D camera | |
CN113313631B (zh) | 图像渲染方法和装置 | |
JP7183414B2 (ja) | 画像処理の方法及び装置 | |
CN110490165B (zh) | 一种基于卷积神经网络的动态手势跟踪方法 | |
CN108038900A (zh) | 倾斜摄影模型单体化方法、系统及计算机可读存储介质 | |
CN114049678B (zh) | 一种基于深度学习的面部动作捕捉方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200211 |