CN110458752B - 一种基于局部遮挡条件下的图像换脸方法 - Google Patents
一种基于局部遮挡条件下的图像换脸方法 Download PDFInfo
- Publication number
- CN110458752B CN110458752B CN201910647968.6A CN201910647968A CN110458752B CN 110458752 B CN110458752 B CN 110458752B CN 201910647968 A CN201910647968 A CN 201910647968A CN 110458752 B CN110458752 B CN 110458752B
- Authority
- CN
- China
- Prior art keywords
- image
- face
- exp
- human face
- omega
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000006870 function Effects 0.000 claims abstract description 38
- 230000008569 process Effects 0.000 claims abstract description 21
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 238000005457 optimization Methods 0.000 claims description 36
- 230000036544 posture Effects 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 15
- 230000001815 facial effect Effects 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 9
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 210000004709 eyebrow Anatomy 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 208000006440 Open Bite Diseases 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 3
- 210000004556 brain Anatomy 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 210000000887 face Anatomy 0.000 claims description 3
- 230000008921 facial expression Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 210000000056 organ Anatomy 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 11
- 238000007500 overflow downdraw method Methods 0.000 abstract description 7
- 230000004048 modification Effects 0.000 abstract description 2
- 238000012986 modification Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 23
- 238000012360 testing method Methods 0.000 description 6
- 230000000903 blocking effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 241000838698 Togo Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 102000055501 telomere Human genes 0.000 description 1
- 108091035539 telomere Proteins 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于局部遮挡条件下的图像换脸方法,输入人脸图像和目标人脸图像由二维特征点进行描述,在输入图像和目标图像上做相关人脸区域的划分,建立起人脸区域对应的像素特征函数,并在人脸区域迁移的过程中无缝融合消除拼接边界。利用图像分层叠加的思路,通过拉普拉斯金字塔重建来合成最终输出图像。本发明最终合成的图像无明显修改拼接痕迹。通过与目前图像换脸常用的泊松融合方法对比,很好的还原遮挡物体边缘的图像效果,特别是当遮挡物体在人脸区域有投射阴影的时候,遮挡物边缘区域细节与泊松融合方法对比差异明显,整体图像换脸后的图像效果协调自然,无明显瑕疵。
Description
技术领域
本发明涉及图像处理和计算机图形学技术领域,主要涉及一种基于局部遮挡条件下的目标图像换脸方法。
背景技术
图像换脸技术是指将输入图像中的用户人脸自动移植到目标图像中,替换掉目标图像中的指定人脸,从而使图像人脸自动融合到目标图像中。图像换脸的过程要求保持输入图像的人脸容貌特征及表情特征不变,但要与目标人脸姿态相匹配,并且最终合成的人脸图像要有自然的整体效果,即要求换脸后的输入人脸的肤色、妆容以及光照环境能够与目标图像相匹配。这一技术可以使输入图像的用户具有代入感,增加图像交互式体验。目前该技术存在的主要问题是目标人脸图像可能存在一些局部遮挡,例如眼镜、头发、衣物或配饰等,由于在人脸图像中的局部遮挡具有复杂性和不可预料性,基于局部遮挡条件下的图像换脸技术需要还原遮挡物体与人脸过渡区域的图像效果,提高目标人脸图像之间的移植鲁棒性,使得到的合成照片真实感更强。
发明内容
为了克服现有技术的不足,本发明提供一种基于局部遮挡条件下的图像换脸方法。在给定人脸替换的目标图像的条件下,将输入人脸图像的主要面部区域进行人脸的替换。由于输入人脸图像和目标人脸图像是由二维特征点进行描述的,在进行人脸替换时需要考虑图像的空间姿态对齐问题,依据人脸低分辨率三维模型进行图像姿态的调整。在输入图像和目标图像上做相关人脸区域的划分,建立起人脸区域对应的像素特征函数,并在人脸区域迁移的过程中无缝融合消除拼接边界。在进行人脸图像的换脸过程中,由于目标图像中可能存在遮挡条件,换脸过程需要保持遮挡物不变,并替换遮挡物后的人脸区域,因此在进行人脸替换时需要充分考虑遮挡物叠加的平滑性。本发明利用图像分层叠加的思路,通过拉普拉斯金字塔重建来合成最终输出图像,并对遮挡物所产生的混合边缘和投射阴影进行优化,得到的换脸后的输出图像很好的还原了目标图像的效果,整体效果协调自然。
本发明解决其技术问题所采用的技术方案的步骤如下:
步骤1:对输入图像及目标图像进行预处理;
对输入图像IS及目标图像IT中的遮挡物进行标注,然后利用标注点对遮挡物做遮挡物提取,即将遮挡物按其轮廓分割,分别对输入图像IS及目标图像IT进行遮挡物及人脸区域分割,无遮挡物时,则不进行遮挡物分割只进行人脸区域分割,当人脸图像存在人脸本身之外的图像遮挡物时,以遮挡物外形为分割轮廓,将遮挡物进行抠图分割,由此分割出遮挡物区域及人脸区域;人脸区域的分割以人脸外形的平滑轮廓为分割标准,按面部轮廓进行人脸区域抠图提取,保证将面部主要器官如眼睛、眉毛、鼻嘴区域包括在人脸区域内;人脸区域划分为无遮挡区域B0与遮挡区域Boc;
步骤2:采用基于图像的人脸三维低分辨率模型进行人脸姿态的配准,利用双线性模型优化算法建立输入图像人脸三维的低分辨率模型FS与目标图像人脸三维的低分辨率模型FT,其中人脸低分辨率模型的建立步骤如下:
标注输入图像IS及目标图像IT中的人脸特征点及FaceWarehouse数据库中的三维人脸模型中的人脸特征点,由此给定FaceWarehouse数据库中的三维人脸模型的张量核Cr,图像中人脸的三维几何模型F表示为:
F=R×(Cr×ωid×ωexp)+T (1)
其中:ωid与ωexp分别为当前人脸的身份特征向量与表情特征向量,R与T分别表示当前人脸在空间中的旋转矩阵与平移向量,投影后的人脸表面每个像素的位置与该点的深度以及相机焦距有关,投影计算表示为:
其中f表示相机焦距,Fx,Fy,Fz分别表示三维几何模型F中顶点的x坐标,y 坐标与z坐标,Px与Py表示三维几何模型F中顶点投影后的二维坐标,对三维几何模型F投影后表示为:
F2D=Q(f)·(R·(Cr×ωid×ωexp)+T (3)
其中Q(f)表示公式(2)中的投影集合形式,F2D表示对三维几何模型F进行投影后的人脸模型函数,{qi}为输入图像中人脸特征点的2D坐标集合,则由{qi}与F2D建立模型特征目标函数:
其中i为坐标集{qi}中第i个人脸特征点,R,T,f,ωid,ωexp为未知参数,L表示特征点的个数,从二维特征点重建三维人脸模型即求该目标函数最小化的最优解:
其中R*,T*,f*,分别表示R,T,f,ωid,ωexp参数的待求最佳值,将待求解的变量分为四组,即{R,T},{f},{ωid}以及{ωexp},对四组变量进行初始化,固定其中任意三组变量,仅对一组变量进行优化求解,更新所求得的一组变量值后,再依次对其余三组变量进行循环迭代,将已求出的此组变量进行固定,对其余待求变量进行求解,在对ωid与ωexp变量进行求解时,加入关于ωid与ωexp的规则化项,进一步对ωid与ωexp约束,以避免出现畸形人脸;ωid与ωexp的规则化项为:
加入规则化项后的人脸身份特征ωid与表情特征ωexp计算避免出现人脸畸变,为参数最优解;
则图像中人脸的三维几何模型F的优化函数表示为:
其中w1与w2分别对应规则化项Ereg_id与Ereg_exp的权重;
图像中人脸的三维几何模型F的优化函数的具体计算步骤如下:
其中fc,ωid,c与ωexp,c分别为固定{R,T}变量后的当前计算结果,在计算出人脸姿态 R与T之后,再依次对ωid与ωexp优化计算,首先计算ωid,固定R,T,f,ωexp后,优化问题为:
其中Bexp,c=Cr×expωexp,c,表示张量核与当前人脸表情特征向量的模乘,此时三阶张量Cr收缩为二维矩阵Bexp,c;同理可得关于ωexp的优化结果为:
最后对焦距f进行优化,优化问题为:
其中Sc=Cr×idωid,c×expωexp,c,上式为关于f的线性优化,f具有最小二乘解,重复计算公式(9)、(10)、(11)、(12),当公式(8)的图像中人脸的三维几何模型F的优化函数下降至低于阈值或超过最大迭代次数时,停止迭代,得到人脸姿态R与T,相机焦距f与人脸身份特征ωid和表情特征ωexp的最优解,即人脸低分辨率模型的各个参数;
步骤3:姿态变换及局部变形处理;
将输入图像IS及目标图像IT分别输入步骤2得到人脸低分辨率模型FS与FT,分别得到人脸姿态(RS,TS)与(RT,TT),相机参数fS与fT,将输入图像IS的人脸姿态函数记为HS=(RS,TS,fS),目标图像IT的人脸姿态函数记为HT=(RT,TT,fT);其中,Rs、Ts分别表示步骤2求得的输入图像的人脸低分辨率模型在空间中的旋转矩阵与平移向量, RT、TT分别表示步骤2求得的目标图像的人脸低分辨率模型在空间中的旋转矩阵与平移向量,fS与fT分别为输入图像与目标图像的相机参数;
利用人脸姿态函数HS将FS投影至图像空间,使输入图像的人脸低分辨率模型FS与输入图像IS中的人脸重合;对于输入图像IS人脸区域的每个像素,利用人脸低分辨率模型FS的人脸姿态函数,生成纹理模型TS,将TS按照目标人脸姿态与相机参数HT进行坐标投影,将投影的TS与目标图像IT中的人脸区域进行重合,得到姿态变换后的人脸图像I′S,完成人脸姿态变换;
为进一步建立输入人脸与目标人脸的像素对应关系,需要对人脸区域变形,在遮挡区域标注稀疏控制点,通过对目标图像IT的控制点坐标变换,变换后将I′T与I′S的二维特征点重合,则各图像中人脸五官与轮廓基本对齐;遮挡物轮廓标注点表示遮挡物体控制点,输入图像与目标图像中人脸特征点重合的点为不动控制点,在变形过程中遮挡物体控制点与不动控制点不发生位移,经控制点变形后,人脸特征区域已基本对齐。
所述控制点的坐标变换的步骤如下:
对目标图像中的像素点p定义全局变形函数f(p),即将像素点p坐标生成坐标集合函数,当图像中的控制点{pi}移动时,在目标人脸特征点影响下像素点p发生位移,其新坐标p′由变形函数f(p)决定,即p′=f(p),则对p′的求解转化为对f(p)解析表达式的求解,f(p)应满足的约束条件:
其中qi表示控制点pi位移后的新坐标,最小化||f(pi)-qi||2表示f(p)满足控制点pi产生的变形;当存在多个控制点时,该约束变为加权最小二乘,wi即对应的权重,f(p) 大小与像素点p到pi的距离成反比;f(p)最优变形为f(p)=Mp+T,其中M表示二维反射变换矩阵,T表示二维平移向量,f(p)为关于p的线性函数,将f(p)=Mp+T代入式(13),得到关于M与T的最小二乘约束:
在求解得到M与T后,即得到像素p变形后的新坐标p′=Mp+T,假设已得到变形后的图像,其像素坐标p′为整数坐标,而控制点由{qi}反向移动至{pi},经反向计算后,得到p′对应变形前的坐标p;
步骤4:局部遮挡条件下的拉普拉斯金字塔重建;
对于局部遮挡条件下的图像换脸,当I′T的人脸区域存在遮挡时,图像换脸过程需要保持遮挡物的不变,并用拉普拉斯金字塔重建方法替换遮挡物下面的人脸;遮挡物的人脸替换将目标图像分为三层,顶层图像为遮挡物体,其区域范围Boc由图像预处理步骤获得,中层为预处理后的输入图像中的人脸区域,底层图像为预处理后的目标图像中的人脸外围区域,将三层图像叠加,再将叠加后图像通过拉普拉斯金字塔重建得到Iout,最终合成图像IBad;
所述拉普拉斯金字塔重建合成的具体步骤如下:
对I′S与I′T分别按照公式(15)进行拉普拉斯金字塔分解,得到各层拉普拉斯图像;拉普拉斯金字塔的前n-1层,分别对应图像中不同频带上的人脸特征;当人脸区域存在遮挡物体时,Iout的细节特征分为两部分,一部分是无遮挡的人脸区域,该区域的人脸特征来源于I′S中的人脸特征;另外一部分是遮挡区域,图像人脸特征来源于I′T中遮挡物体的自身人脸特征;对得到的拉普拉斯金字塔各层进行高斯滤波,同时根据标记的图像分割结果Boc,利用公式(15)的频带叠加对遮挡区域的频带特征分量进行提取,最后将RT与各层平滑拼接,得到合成输出图像IBad。
步骤4中所述平滑拼接的具体步骤为:
对遮挡物边缘区域进行定义,利用拉普拉斯金字塔重建方法对存在遮挡物的图像的拉普拉斯分量进行分层单独计算,通过各层拉普拉斯图像与遮挡边缘区域的分量相加得到,经拉普拉斯分量分层处理后,得到合成输出图像;
所述遮挡物边缘区域的拉普拉斯分量分层处理计算详细步骤如下:
其中Gspecial(2i)表示经高斯滤波后的高斯金字塔图像,Gspecial(2i)中每个像素是局部加权平均后的结果,高斯滤波处理后的图像像素值只与遮挡物体外围区域有关,不受遮挡物自身像素值影响,将Gspecial(2i)从中去除后,即可得到
本发明的有益效果在于对输入图像与存在遮挡物的目标人脸图像进行测试,通过手工操作对图像遮挡物进行预处理标记,划分出遮挡物区域及人脸区域,利用人脸低分辨率模型实现图像中的人脸姿态调整,匹配输入图像与目标图像之间的像素分布及细节对比度,使输入图像的颜色分布与细节对比度与目标图像相匹配。利用图像分割分离出目标图像中的遮挡物与图像之间的人脸区域,经拉普拉斯金字塔融合技术使得到换脸后的遮挡物边缘与人脸自然融合,最终合成的图像无明显修改拼接痕迹。通过与目前图像换脸常用的泊松融合方法对比(具体对比效果参见图10),本发明很好的还原遮挡物体边缘的图像效果,特别是当遮挡物体在人脸区域有投射阴影的时候,遮挡物边缘区域细节与泊松融合方法对比差异明显,整体图像换脸后的图像效果协调自然,无明显瑕疵。
附图说明
图1是图像中人脸特征点的定义标准图。
图2是原始三维人脸模型特征点的定义标准图。
图3是输入人脸图像姿态变换图。
图4是目标人脸图像变形过程图,其中,图(4)(a)为目标图像人脸控制点标注图,图(4) (b)为目标图像,图(4)(c)为输入图像中分割出来的人脸区域图,图(4)(d)为将输入图像分割出的人脸区域按目标图像姿态替换后的图。
图5是遮挡条件下的脸部合成流程示意过程图,其中图5(a)为输入图像IS,图5(b)为目标图像IT,图5(c)为图像分割后的遮挡物区域Boc,图5(d)I′S中的人脸区域,图5(e)为人脸外围区域I′T,图5(f)为三层图像叠加得到的图像。
图6是遮挡区域的拉普拉斯金字塔合成流程图。
图7是合成图像与目标图像对比图。
图9是遮挡物边缘区域的拉普拉斯分层计算过程图。
图10是输入及目标图像局部遮挡条件下的图像换脸测试结果,其中图(a)为输入人脸图像,图(b)为目标人脸图像,图(b)右上角为遮挡物区域的二值图像,图(c)为泊松融合方法得到的换脸结果,图(d)为本发明得到的换脸结果。图(e)与图(f)中分别对图(c)与图(d)的遮挡物区域的放大图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
选择测试图像分辨率大小统一为800×600,相应硬件测试环境为内存16G,CPU4.0Hz,开发平台Matlab。
步骤1:对输入图像及目标图像进行预处理;
对输入图像IS及目标图像IT中的遮挡物进行标注,然后利用标注点对遮挡物做遮挡物提取,即将遮挡物按其轮廓分割,分别对输入图像IS及目标图像IT进行遮挡物及人脸区域分割,无遮挡物时,则不进行遮挡物分割只进行人脸区域分割,当人脸图像存在人脸本身之外的图像遮挡物时,以遮挡物外形为分割轮廓,将遮挡物进行抠图分割,由此分割出遮挡物区域及人脸区域;人脸区域的分割以人脸外形的平滑轮廓为分割标准,按面部轮廓进行人脸区域抠图提取,保证将面部主要器官如眼睛、眉毛、鼻嘴区域包括在人脸区域内;
人脸区域划分为无遮挡区域B0与遮挡区域Boc,无遮挡区域B0如图5中(c)所示,遮挡区域Boc如图五中(d)图所示;
步骤2:由于输入图像IS及目标图像IT之间在人脸姿态上存在不同,因此要实现图像的融合换脸首先要解决的技术问题是如何实现输入图像与目标图像之间的人脸姿态配准。
采用基于图像的人脸三维低分辨率模型进行人脸姿态的配准,利用双线性模型优化算法建立输入图像人脸三维的低分辨率模型FS与目标图像人脸三维的低分辨率模型FT,其中人脸低分辨率模型的建立步骤如下:
标注输入图像IS及目标图像IT中的人脸特征点及FaceWarehouse数据库中的三维人脸模型中的人脸特征点,由此给定FaceWarehouse数据库中的三维人脸模型的张量核Cr,图像中人脸的三维几何模型F表示为:
F=R×(Cr×ωid×ωexp)+T (1)
其中:ωid与ωexp分别为当前人脸的身份特征向量与表情特征向量,R与T分别表示当前人脸在空间中的旋转矩阵与平移向量,投影后的人脸表面每个像素的位置与该点的深度以及相机焦距有关,投影计算表示为:
其中f表示相机焦距,Fx,Fy,Fz分别表示三维几何模型F中顶点的x坐标,y 坐标与z坐标,Px与Py表示三维几何模型F中顶点投影后的二维坐标,对三维几何模型F投影后表示为:
F2D=Q(f)·(R·(Cr×ωid×ωexp)+T (3)
其中Q(f)表示公式(2)中的投影集合形式,F2D表示对三维几何模型F进行投影后的人脸模型函数,{qi}为输入图像中人脸特征点的2D坐标集合,则由{qi}与F2D建立模型特征目标函数:
其中i为坐标集{qi}中第i个人脸特征点,R,T,f,ωid,ωexp为未知参数,L表示特征点的个数,从二维特征点重建三维人脸模型即求该目标函数最小化的最优解:
其中R*,T*,f*,分别表示R,T,f,ωid,ωexp参数的待求最佳值,将待求解的变量分为四组,即{R,T},{f},{ωid}以及{ωexp},对四组变量进行初始化,固定其中任意三组变量,仅对一组变量进行优化求解,更新所求得的一组变量值后,再依次对其余三组变量进行循环迭代,将已求出的此组变量进行固定,对其余待求变量进行求解,在对ωid与ωexp变量进行求解时,加入关于ωid与ωexp的规则化项,进一步对ωid与ωexp约束,以避免出现畸形人脸;ωid与ωexp的规则化项为:
加入规则化项后的人脸身份特征ωid与表情特征ωexp计算避免出现人脸畸变,为参数最优解;
则图像中人脸的三维几何模型F的优化函数表示为:
其中w1与w2分别对应规则化项Ereg_id与Ereg_exp的权重,经测试选取w1=0.001与 w2=0.005;
图像中人脸的三维几何模型F的优化函数的具体计算步骤如下:
其中fc,ωid,c与ωexp,c分别为固定{R,T}变量后的当前计算结果,在计算出人脸姿态 R与T之后,再依次对ωid与ωexp优化计算,首先计算ωid,固定R,T,f,ωexp后,优化问题为:
其中Bexp,c=Cr×expωexp,c,表示张量核与当前人脸表情特征向量的模乘,此时三阶张量Cr收缩为二维矩阵Bexp,c;同理可得关于ωexp的优化结果为:
最后对焦距f进行优化,优化问题为:
其中Sc=Cr×idωid,c×expωexp,c,上式为关于f的线性优化,f具有最小二乘解,重复计算公式(9)、(10)、(11)、(12),当公式(8)的图像中人脸的三维几何模型F的优化函数下降至低于阈值或超过最大迭代次数时,停止迭代,得到人脸姿态R与T,相机焦距f与人脸身份特征ωid和表情特征ωexp的最优解,即人脸低分辨率模型的各个参数;
步骤3:姿态变换及局部变形处理;
将输入图像IS及目标图像IT分别输入步骤2得到人脸低分辨率模型FS与FT,分别得到人脸姿态(RS,TS)与(RT,TT),相机参数fS与fT,将输入图像IS的人脸姿态函数记为HS=(RS,TS,fS),目标图像IT的人脸姿态函数记为HT=(RT,TT,fT);其中,Rs、Ts分别表示步骤2求得的输入图像的人脸低分辨率模型在空间中的旋转矩阵与平移向量, RT、TT分别表示步骤2求得的目标图像的人脸低分辨率模型在空间中的旋转矩阵与平移向量,fS与fT分别为输入图像与目标图像的相机参数;
利用人脸姿态函数HS将FS投影至图像空间,使输入图像的人脸低分辨率模型FS与输入图像IS中的人脸重合;对于输入图像IS人脸区域的每个像素,利用人脸低分辨率模型FS的人脸姿态函数,生成纹理模型TS,将TS按照目标人脸姿态与相机参数HT进行坐标投影,将投影的TS与目标图像IT中的人脸区域进行重合,得到姿态变换后的人脸图像I′S,完成人脸姿态变换,人脸姿态变换结果如图(3);
为进一步建立输入人脸与目标人脸的像素对应关系,需要对人脸区域变形,由于目标图像IT的局部变形通过二维特征点控制实现,在遮挡区域标注稀疏控制点,通过对目标图像IT的控制点坐标变换,变换后将I′T与I′S的二维特征点重合,则各图像中人脸五官与轮廓基本对齐;图像中输入图像和目标图像的人脸区域特征点的分布如图(4) 所示,遮挡物轮廓标注点表示遮挡物体控制点,输入图像与目标图像中人脸特征点重合的点为不动控制点,在变形过程中遮挡物体控制点与不动控制点不发生位移,黑色控制点为目标人脸特征点,白色控制点则表示人脸特征点的新位置,经控制点变形后,新的目标人脸图像如图(4)(b),I′T与I′S的重叠效果如图(4)(d)所示,看出人脸特征区域已基本对齐。
所述控制点的坐标变换的步骤如下:
对目标图像中的像素点p定义全局变形函数f(p),即将像素点p坐标生成坐标集合函数,当图像中的控制点{pi}移动时,在目标人脸特征点影响下像素点p发生位移,其新坐标p′由变形函数f(p)决定,即p′=f(p),则对p′的求解转化为对f(p)解析表达式的求解,f(p)应满足的约束条件:
其中qi表示控制点pi位移后的新坐标,最小化||f(pi)-qi||2表示f(p)满足控制点pi产生的变形;当存在多个控制点时,该约束变为加权最小二乘,wi即对应的权重,f(p) 大小与像素点p到pi的距离成反比;为保证变形的平滑性,f(p)最优变形为 f(p)=Mp+T,其中M表示二维反射变换矩阵,T表示二维平移向量,f(p)为关于p 的线性函数,将f(p)=Mp+T代入式(13),得到关于M与T的最小二乘约束:
在求解得到M与T后,即得到像素p变形后的新坐标p′=Mp+T,假设已得到变形后的图像,其像素坐标p′为整数坐标,而控制点由{qi}反向移动至{pi},经反向计算后,得到p′对应变形前的坐标p;
步骤4:局部遮挡条件下的拉普拉斯金字塔重建;
对于局部遮挡条件下的图像换脸,其输入图像IS与目标图像IT,以及预处理后的图像I′S与I′T分别如图(5)所示;当I′T的人脸区域存在遮挡时,图像换脸过程需要保持遮挡物的不变,并用拉普拉斯金字塔重建方法替换遮挡物下面的人脸;遮挡物的人脸替换将目标图像分为三层,顶层图像为遮挡物体,其区域范围Boc由图像预处理步骤获得,中层为预处理后的输入图像中的人脸区域,底层图像为预处理后的目标图像中的人脸外围区域,将三层图像叠加,再将叠加后图像通过拉普拉斯金字塔重建得到Iout,最终合成图像IBad。
所述拉普拉斯金字塔重建合成的流程如图(6)所示,具体步骤如下:
首先保证合成图像Iout中人脸的光照与颜色分布保持不变,Iout的拉普拉斯金字塔顶层(低通分量)即为目标图像的旋转矩阵分量RT,为保持图像Iout人脸特征细节与输入人脸I′S一致,Iout的带通分量为对应Iout金字塔的前n-1层;将各频带分量叠加,得到Iout:
对I′S与I′T分别按照公式(15)进行拉普拉斯金字塔分解,得到各层拉普拉斯图像;拉普拉斯金字塔的前n-1层,分别对应图像中不同频带上的人脸特征;当人脸区域存在遮挡物体时,Iout的细节特征分为两部分,一部分是无遮挡的人脸区域,该区域的人脸特征来源于I′S中的人脸特征;另外一部分是遮挡区域,图像人脸特征来源于I′T中遮挡物体的自身人脸特征。对得到的拉普拉斯金字塔各层进行高斯滤波,同时根据标记的图像分割结果Boc,参照公式(15)的频带叠加对遮挡区域的频带特征分量进行提取,最后将RT与各层平滑拼接,得到合成输出图像IBad,本次设计经测试选择拉普拉斯金字塔层数为8层,在保证图像清晰度的同时也能很好的进行图像各区域的叠加操作。
步骤4中所述平滑拼接的具体步骤为:
由于在进行遮挡物的分层分割时会造成一定程度的遮挡物边缘细节缺失,因此需要对遮挡物边缘区域做进一步处理。此步对遮挡物边缘区域进行定义,利用拉普拉斯金字塔重建方法对存在遮挡物的图像的拉普拉斯分量进行分层单独计算,最后合成图像Iout,通过各层拉普拉斯图像与遮挡边缘区域的分量相加得到。经拉普拉斯分量分层处理后最大程度的还原遮挡物边缘的细节变化,恢复了边缘区域上的阴影细节,并修补缺失的遮挡物边缘。
所述遮挡物边缘区域的拉普拉斯分量分层处理计算详细步骤如下:
其中Gspecial(2i)表示经高斯滤波后的高斯金字塔图像,Gspecial(2i)中每个像素是局部加权平均后的结果,高斯滤波处理后的图像像素值只与遮挡物体外围区域有关,不受遮挡物自身像素值影响,将其从中去除后,即可得到换脸过程的目标是替换人脸的拉普拉斯分量,将替换为其中,为目标图像人脸区域的拉普拉斯金字塔图像的带通分量,为目标图像去处高斯滤波后图像特征的带通分量,为输入图像人脸区域的带通分量,为:
图1为三维人脸模型中的特征点定义标准,以人脸外轮廓及眼、口、鼻、眉处共 73处定为人脸特征点。当人脸姿态偏转为侧面时,原始定义的轮廓点被遮挡,则将侧面人脸的最大可见轮廓点定义为特征点,如图中最右侧图像所示。
图2为原始三维人脸模型特征点的定义标准图,最右侧图像为当人脸模型为非正面时选取的可见轮廓特征点。
图3为输入人脸图像姿态变换模型图,其中左边三个图像为输入人脸图像的纹理模型TS,右侧图像为姿态变换后的人脸图像I′S。
图4为目标人脸图像变形过程,图(4)(a)为目标图像人脸控制点标注图,图(4)(b)为目标图像,图(4)(c)为输入图像中分割出来的人脸区域图,图(4)(d)为将输入图像分割出的人脸区域按目标图像姿态替换后的图,其中控制点的分布如图(4)(a)所示,遮挡物轮廓标注点表示遮挡物体控制点,在变形过程中该控制点不发生位移,黑色控制点为目标人脸特征点,白色控制点则表示人脸特征点的新位置。变形后的目标人脸图像如图(4)(b),分层重叠效果如图(4)(d)所示,可以看出人脸特征区域已基本对齐。
图5为遮挡条件下的脸部分层合成过程,其中(a)输入图像IS,(b)为目标图像IT,(c)为图像分割后的遮挡物区域Boc,中层为(d)I′S中的人脸区域,底层图像为(e)I′T中的人脸外围区域,将该三层图像叠加,得到的图像如(f)所示。
图6为遮挡区域的拉普拉斯金字塔合成流程示意图,其中I′T的拉普拉斯图像如图中第一行所示,计算出与后,对进行增益调整,调整后的结果为如图中第三行所示,根据手工标记的图像分割结果Boc,对中遮挡区域的图像细节进行抽取,抽取后的结果记为输出图像的拉普拉斯金字塔前n-1 层图像由与拼接得到,如图中第四行,将RT与各层相加,得到合成图像IBad。
图7为合成图像与目标图像对比图,其中第一行为合成后的图像及其拉普拉斯分量,第二行为目标图像及其拉普拉斯分量。
图8为遮挡物边缘区域及边界的定义图,其中左侧图中白色区域1表示遮挡物边缘区域右侧图中与分别表示区域上的两种不同边界。其中表示遮挡物边缘区域边界与遮挡物区域Boc的重叠部分,即图中区域2,表示边界与人脸区域的重叠部分,即图中区域3,遮挡物区域Boc为图中区域4。
图9为遮挡物边缘区域的拉普拉斯分层计算过程图,图中第一列为彩色图像,后三列为对应的各层拉普拉斯图像,其中第一行为合成后的图像IBad及其拉普拉斯分量第二行为目标图像IT及其拉普拉斯图像第三行为对遮挡物边缘区域单独分层计算后的输出图像Iout及各层拉普拉斯分量图
图10为局部遮挡条件下的输入及目标图像换脸测试结果。图中(a)为输入人脸图像,(b)为目标人脸图像,其中(b)右上角为遮挡物区域的二值图像,(c)为泊松融合方法得到的换脸结果,(d)为本发明得到的换脸结果。图中(e)与(f)中分别对(c)与(d)的遮挡物区域进行放大,其中(e)与(f)中的红色框图为局部放大图。
图10是用本发明进行的测试,其中图10的(e)与(f)图分别为目前换脸主流用的泊松融合方法和本发明生成的图像结果图,可以看出,(e)中局部放大框图放大后,在眼镜遮挡物与人脸交接边缘出现了遮挡物粘连,边缘不够清晰,(f)中本发明生成的结果放大则没有此瑕疵。
Claims (2)
1.一种基于局部遮挡条件下的图像换脸方法,其特征在于包括下述步骤:
步骤1:对输入图像及目标图像进行预处理;
对输入图像IS及目标图像IT中的遮挡物进行标注,然后利用标注点对遮挡物做遮挡物提取,即将遮挡物按其轮廓分割,分别对输入图像IS及目标图像IT进行遮挡物及人脸区域分割,无遮挡物时,则不进行遮挡物分割只进行人脸区域分割,当人脸图像存在人脸本身之外的图像遮挡物时,以遮挡物外形为分割轮廓,将遮挡物进行抠图分割,由此分割出遮挡物区域及人脸区域;人脸区域的分割以人脸外形的平滑轮廓为分割标准,按面部轮廓进行人脸区域抠图提取,保证将面部主要器官如眼睛、眉毛、鼻嘴区域包括在人脸区域内;人脸区域划分为无遮挡区域B0与遮挡区域Boc;
步骤2:采用基于图像的人脸三维低分辨率模型进行人脸姿态的配准,利用双线性模型优化算法建立输入图像人脸三维的低分辨率模型FS与目标图像人脸三维的低分辨率模型FT,其中人脸低分辨率模型的建立步骤如下:
标注输入图像IS及目标图像IT中的人脸特征点及FaceWarehouse数据库中的三维人脸模型中的人脸特征点,由此给定FaceWarehouse数据库中的三维人脸模型的张量核Cr,图像中人脸的三维几何模型F表示为:
F=R×(Cr×ωid×ωexp)+T (1)
其中:ωid与ωexp分别为当前人脸的身份特征向量与表情特征向量,R与T分别表示当前人脸在空间中的旋转矩阵与平移向量,投影后的人脸表面每个像素的位置与该点的深度以及相机焦距有关,投影计算表示为:
其中f表示相机焦距,Fx,Fy,Fz分别表示三维几何模型F中顶点的x坐标,y坐标与z坐标,Px与Py表示三维几何模型F中顶点投影后的二维坐标,对三维几何模型F投影后表示为:
F2D=Q(f)·(R·(Cr×ωid×ωexp)+T (3)
其中Q(f)表示公式(2)中的投影集合形式,F2D表示对三维几何模型F进行投影后的人脸模型函数,{qi}为输入图像中人脸特征点的2D坐标集合,则由{qi}与F2D建立模型特征目标函数:
其中i为坐标集{qi}中第i个人脸特征点,R,T,f,ωid,ωexp为未知参数,L表示特征点的个数,从二维特征点重建三维人脸模型即求该目标函数最小化的最优解:
其中R*,T*,f*,分别表示R,T,f,ωid,ωexp参数的待求最佳值,将待求解的变量分为四组,即{R,T},{f},{ωid}以及{ωexp},对四组变量进行初始化,固定其中任意三组变量,仅对一组变量进行优化求解,更新所求得的一组变量值后,再依次对其余三组变量进行循环迭代,将已求出的此组变量进行固定,对其余待求变量进行求解,在对ωid与ωexp变量进行求解时,加入关于ωid与ωexp的规则化项,进一步对ωid与ωexp约束,以避免出现畸形人脸;ωid与ωexp的规则化项为:
加入规则化项后的人脸身份特征ωid与表情特征ωexp计算避免出现人脸畸变,为参数最优解;
则图像中人脸的三维几何模型F的优化函数表示为:
其中w1与w2分别对应规则化项Ereg_id与Ereg_exp的权重;
图像中人脸的三维几何模型F的优化函数的具体计算步骤如下:
其中fc,ωid,c与ωexp,c分别为固定{R,T}变量后的当前计算结果,在计算出人脸姿态R与T之后,再依次对ωid与ωexp优化计算,首先计算ωid,固定R,T,f,ωexp后,优化问题为:
其中Bexp,c=Cr×expωexp,c,表示张量核与当前人脸表情特征向量的模乘,此时张量核Cr收缩为二维矩阵Bexp,c;同理可得关于ωexp的优化结果为:
最后对焦距f进行优化,优化问题为:
其中Sc=Cr×idωid,c×expωexp,c,上式为关于f的线性优化,f具有最小二乘解,重复计算公式(9)、(10)、(11)、(12),当公式(8)的图像中人脸的三维几何模型F的优化函数下降至低于阈值或超过最大迭代次数时,停止迭代,得到人脸姿态R与T,相机焦距f与人脸身份特征ωid和表情特征ωexp的最优解,即人脸低分辨率模型的各个参数;
步骤3:姿态变换及局部变形处理;
将输入图像IS及目标图像IT分别输入步骤2得到人脸低分辨率模型FS与FT,分别得到人脸姿态(RS,TS)与(RT,TT),相机参数fS与fT,将输入图像IS的人脸姿态函数记为HS=(RS,TS,fS),目标图像IT的人脸姿态函数记为HT=(RT,TT,fT);其中,Rs、Ts分别表示步骤2求得的输入图像的人脸低分辨率模型在空间中的旋转矩阵与平移向量,RT、TT分别表示步骤2求得的目标图像的人脸低分辨率模型在空间中的旋转矩阵与平移向量,fS与fT分别为输入图像与目标图像的相机参数;
利用人脸姿态函数HS将FS投影至图像空间,使输入图像的人脸低分辨率模型FS与输入图像IS中的人脸重合;对于输入图像IS人脸区域的每个像素,利用人脸低分辨率模型FS的人脸姿态函数,生成纹理模型TS,将TS按照目标人脸姿态与相机参数HT进行坐标投影,将投影的TS与目标图像IT中的人脸区域进行重合,得到姿态变换后的人脸图像I′S,完成人脸姿态变换;
为进一步建立输入人脸与目标人脸的像素对应关系,需要对人脸区域变形,在遮挡区域标注稀疏控制点,通过对目标图像IT的控制点坐标变换,变换后将I′T与I′S的二维特征点重合,则各图像中人脸五官与轮廓基本对齐;遮挡物轮廓标注点表示遮挡物体控制点,输入图像与目标图像中人脸特征点重合的点为不动控制点,在变形过程中遮挡物体控制点与不动控制点不发生位移,经控制点变形后,人脸特征区域已基本对齐;
所述控制点的坐标变换的步骤如下:
对目标图像中的像素点p定义全局变形函数f(p),即将像素点p坐标生成坐标集合函数,当图像中的控制点{pi}移动时,在目标人脸特征点影响下像素点p发生位移,其新坐标p′由变形函数f(p)决定,即p′=f(p),则对p′的求解转化为对f(p)解析表达式的求解,f(p)应满足的约束条件:
其中qi表示控制点pi位移后的新坐标,最小化||f(pi)-qi||2表示f(p)满足控制点pi产生的变形;当存在多个控制点时,该约束变为加权最小二乘,wi即对应的权重,f(p)大小与像素点p到pi的距离成反比;f(p)最优变形为f(p)=Mp+T,其中M表示二维反射变换矩阵,T表示二维平移向量,f(p)为关于p的线性函数,将f(p)=Mp+T代入式(13),得到关于M与T的最小二乘约束:
在求解得到M与T后,即得到像素p变形后的新坐标p′=Mp+T,假设已得到变形后的图像,其像素坐标p′为整数坐标,而控制点由{qi}反向移动至{pi},经反向计算后,得到p′对应变形前的坐标p;
步骤4:局部遮挡条件下的拉普拉斯金字塔重建;
对于局部遮挡条件下的图像换脸,当I′T的人脸区域存在遮挡时,图像换脸过程需要保持遮挡物的不变,并用拉普拉斯金字塔重建方法替换遮挡物下面的人脸;遮挡物的人脸替换将目标图像分为三层,顶层图像为遮挡物体,其区域范围Boc由图像预处理步骤获得,中层为预处理后的输入图像中的人脸区域,底层图像为预处理后的目标图像中的人脸外围区域,将三层图像叠加,再将叠加后图像通过拉普拉斯金字塔重建得到Iout,最终合成图像IBad;
所述拉普拉斯金字塔重建合成的具体步骤如下:
2.根据权利要求1所述的一种基于局部遮挡条件下的图像换脸方法,,其特征在于:步骤4中所述平滑拼接的具体步骤为:
对遮挡物边缘区域进行定义,利用拉普拉斯金字塔重建方法对存在遮挡物的图像的拉普拉斯分量进行分层单独计算,通过各层拉普拉斯图像与遮挡边缘区域的分量相加得到,经拉普拉斯分量分层处理后,得到合成输出图像;
所述遮挡物边缘区域的拉普拉斯分量分层处理计算详细步骤如下:
其中Gspecial(2i)表示经高斯滤波后的高斯金字塔图像,Gspecial(2i)中每个像素是局部加权平均后的结果,高斯滤波处理后的图像像素值只与遮挡物体外围区域有关,不受遮挡物自身像素值影响,将Gspecial(2i)从中去除后,即可得到
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910647968.6A CN110458752B (zh) | 2019-07-18 | 2019-07-18 | 一种基于局部遮挡条件下的图像换脸方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910647968.6A CN110458752B (zh) | 2019-07-18 | 2019-07-18 | 一种基于局部遮挡条件下的图像换脸方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110458752A CN110458752A (zh) | 2019-11-15 |
CN110458752B true CN110458752B (zh) | 2022-11-11 |
Family
ID=68481365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910647968.6A Active CN110458752B (zh) | 2019-07-18 | 2019-07-18 | 一种基于局部遮挡条件下的图像换脸方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110458752B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929651B (zh) * | 2019-11-25 | 2022-12-06 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111091624B (zh) * | 2019-12-19 | 2021-09-28 | 南京大学 | 一种从单张图片生成高精度可驱动人脸三维模型的方法 |
CN111325667B (zh) * | 2020-03-09 | 2023-05-30 | Oppo广东移动通信有限公司 | 图像处理方法及相关产品 |
CN111738930A (zh) * | 2020-05-12 | 2020-10-02 | 北京三快在线科技有限公司 | 人脸图像的合成方法、装置、电子设备及存储介质 |
CN111950432B (zh) * | 2020-08-07 | 2024-03-08 | 武汉理工大学 | 一种基于区域风格一致性的妆容风格迁移方法及系统 |
CN112991278B (zh) * | 2021-03-01 | 2023-01-31 | 华南理工大学 | RGB空域特征与LoG时域特征结合的Deepfake视频检测方法及系统 |
CN113225606B (zh) * | 2021-04-30 | 2022-09-23 | 上海哔哩哔哩科技有限公司 | 视频弹幕处理方法及装置 |
CN113808272B (zh) * | 2021-08-25 | 2024-04-12 | 西北工业大学 | 三维虚拟人头脸建模中的纹理映射方法 |
CN116386122B (zh) * | 2023-06-02 | 2023-08-29 | 中国科学技术大学 | 高保真换脸方法、系统、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770649A (zh) * | 2008-12-30 | 2010-07-07 | 中国科学院自动化研究所 | 一种人脸图像自动合成方法 |
CN107463920A (zh) * | 2017-08-21 | 2017-12-12 | 吉林大学 | 一种消除局部遮挡物影响的人脸识别方法 |
CN107610202A (zh) * | 2017-08-17 | 2018-01-19 | 北京觅己科技有限公司 | 基于人脸图像替换的营销方法、设备及存储介质 |
CN108062791A (zh) * | 2018-01-12 | 2018-05-22 | 北京奇虎科技有限公司 | 一种重建人脸三维模型的方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8208717B2 (en) * | 2009-02-25 | 2012-06-26 | Seiko Epson Corporation | Combining subcomponent models for object image modeling |
US9679192B2 (en) * | 2015-04-24 | 2017-06-13 | Adobe Systems Incorporated | 3-dimensional portrait reconstruction from a single photo |
-
2019
- 2019-07-18 CN CN201910647968.6A patent/CN110458752B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770649A (zh) * | 2008-12-30 | 2010-07-07 | 中国科学院自动化研究所 | 一种人脸图像自动合成方法 |
CN107610202A (zh) * | 2017-08-17 | 2018-01-19 | 北京觅己科技有限公司 | 基于人脸图像替换的营销方法、设备及存储介质 |
CN107463920A (zh) * | 2017-08-21 | 2017-12-12 | 吉林大学 | 一种消除局部遮挡物影响的人脸识别方法 |
CN108062791A (zh) * | 2018-01-12 | 2018-05-22 | 北京奇虎科技有限公司 | 一种重建人脸三维模型的方法和装置 |
Non-Patent Citations (2)
Title |
---|
Real-time 3D face reconstruction from one single image by displacement mapping;T. Wu et al;《IEEE》;20180222;2204-2208 * |
基于姿态估计的单幅图像三维人脸重建;詹红燕 等;《微电子学与计算机》;20150930(第9期);95-99,104 * |
Also Published As
Publication number | Publication date |
---|---|
CN110458752A (zh) | 2019-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458752B (zh) | 一种基于局部遮挡条件下的图像换脸方法 | |
Lazova et al. | 360-degree textures of people in clothing from a single image | |
US11367239B2 (en) | Textured neural avatars | |
Xiang et al. | Monoclothcap: Towards temporally coherent clothing capture from monocular rgb video | |
Fyffe et al. | Multi‐view stereo on consistent face topology | |
US20060244757A1 (en) | Methods and systems for image modification | |
Xiang et al. | Modeling clothing as a separate layer for an animatable human avatar | |
WO2016151691A1 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
KR20130047194A (ko) | 동적 개체의 외형복원 및 자동 스키닝 장치 및 방법 | |
CN110197462A (zh) | 一种人脸图像实时美化与纹理合成方法 | |
US20120176379A1 (en) | Mesh animation | |
CN115951784B (zh) | 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法 | |
Svitov et al. | Dinar: Diffusion inpainting of neural textures for one-shot human avatars | |
Zheng et al. | Image-based clothes changing system | |
Bang et al. | Estimating garment patterns from static scan data | |
CN115428027A (zh) | 神经不透明点云 | |
CN113077545A (zh) | 一种基于图卷积的从图像中重建着装人体模型的方法 | |
JP2024503794A (ja) | 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム | |
US11769309B2 (en) | Method and system of rendering a 3D image for automated facial morphing with a learned generic head model | |
KR20230110787A (ko) | 개인화된 3d 머리 및 얼굴 모델들을 형성하기 위한 방법들 및 시스템들 | |
Dinev et al. | User‐guided lip correction for facial performance capture | |
Hu et al. | Humanliff: Layer-wise 3d human generation with diffusion model | |
Zhu et al. | Champ: Controllable and consistent human image animation with 3d parametric guidance | |
CN116168186A (zh) | 一种服装长度可控的虚拟试衣图生成方法 | |
CN114219742A (zh) | 一种联合流形约束和fb-gan的人脸变形方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |