CN112053278A - 图像处理方法、装置及电子设备 - Google Patents

图像处理方法、装置及电子设备 Download PDF

Info

Publication number
CN112053278A
CN112053278A CN201910493742.5A CN201910493742A CN112053278A CN 112053278 A CN112053278 A CN 112053278A CN 201910493742 A CN201910493742 A CN 201910493742A CN 112053278 A CN112053278 A CN 112053278A
Authority
CN
China
Prior art keywords
image
face
face image
pixel points
transformed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910493742.5A
Other languages
English (en)
Inventor
吕江靖
李晓波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910493742.5A priority Critical patent/CN112053278A/zh
Publication of CN112053278A publication Critical patent/CN112053278A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例提供一种图像处理方法、装置、系统及电子设备,其中,方法包括:获取第一人脸图像和第二人脸图像;分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;根据所述第一人脸图像和所述第二人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述第二人脸图像中人脸区域像素点对应替换为所述第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。本发明实施例的方案,能够实现大角度姿态下的人脸图像换脸,使交换后的人脸姿态和表情更自然,提高图像换脸的泛化能力。

Description

图像处理方法、装置及电子设备
技术领域
本申请涉及图像处理领域,尤其涉及一种图像处理方法、装置及电子设备。
背景技术
图像换脸,是指假设有两张人脸图像分别为人脸图像A和人脸图像B,图像换脸的任务是把人脸图像B中的人脸替换为人脸图像A中的人脸,同时替换后形成的人脸图像仍保持原人脸图像B中人脸的姿态、表情等。图像换脸具有较广大的应用前景,如影视制作方面,通过替身完成整部电视剧或电影的拍摄,后期通过图像换脸技术,对视频的主角进行换脸,降低拍摄成本;用户娱乐方面,用户可以选择自己喜欢的电视剧并将感兴趣的人物替换为自己,从而实现人人都可以做主角,即娱乐了观众,同时又能为网站、业务等等吸引大量的流量等。
现有的图像换脸方法主要是将人脸图像A的人脸切分成多个小块面积(比如3mmx3mm),然后将切分后的小块面积贴合到人脸图像B的人脸相应的位置,实现图像换脸。这种图像换脸方法比较粗糙,并且仅适用于受限场景(如人脸图像具有固定姿态、表情、光照等)条件:首先,对人脸图像B需要精心设计,如姿态必须是正面、表情必须为自然表情、脸型必须为大众脸、人脸图像质量要求较高等;其次,对人脸图像A也有相似的要求,且姿态和表情与人脸图像B尽可能保持一致。
因此,现有的图像换脸方案的泛化能力差,无法实现大角度姿态下的人脸图像换脸,对于表情较为夸张,或当人脸图像A与人脸图像B的人脸表情差距较大时,容易使交换后的人脸扭曲比较严重、不自然,无法满足实际应用场景的需求。
发明内容
本发明提供了一种图像处理方法、装置及电子设备,能够实现大角度姿态下的人脸图像换脸,使交换后的人脸姿态和表情更自然,提高图像换脸的泛化能力。
为达到上述目的,本发明的实施例采用如下技术方案:
第一方面,提供了一种图像处理方法,包括:
获取第一人脸图像和第二人脸图像;
分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
根据所述第一人脸图像和所述第二人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述第二人脸图像中人脸区域像素点对应替换为所述第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。
第二方面,提供了一种图像处理装置,包括:
人脸图像获取模块,用于获取第一人脸图像和第二人脸图像;
映射信息确定模块,用于分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
人脸变换处理模块,用于根据所述第一人脸图像和所述第二人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述第二人脸图像中人脸区域像素点对应替换为所述第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。
第三方面,提供了一种图像处理方法,包括:
采集待替换人脸图像,并确定被替换人脸图像;
分别确定所述待替换人脸图像和所述被替换人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
根据所述待替换人脸图像和所述被替换人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述被替换人脸图像中人脸区域像素点对应替换为所述待替换人脸图像中人脸区域像素点,形成变换后的被替换人脸图像。
第四方面,提供了一种电子设备,包括:
存储器,用于存储程序;
处理器,耦合至所述存储器,用于执行所述程序,所述程序运行时执行本发明提供的图像处理方法。
本发明提供了一种图像处理方法、装置及电子设备,预先设置一设定人脸图像;获取第一人脸图像和第二人脸图像,并分别确定第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;根据第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,将第二人脸图像中人脸区域像素点对应替换为第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像,从而达到将第二人脸图像中人脸替换为第一人脸图像中人脸的目的。本方案中以设定人脸图像中像素点位置作为转换桥梁,使替换与被替换的两张人脸图像的人脸区域像素点之间建立了映射关系,由于像素点数目较稠密,可以解决图像换脸中的大角度姿态、夸张表情所带来的图像扭曲不自然等问题,提高了图像换脸的泛化能力。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例的图像处理逻辑示意图;
图2为本发明实施例的U-Net神经网络模型的训练逻辑示意图;
图3为本发明实施例的拉普拉斯金字塔构建逻辑示意图;
图4为本发明实施例的拉普拉斯金字塔融合逻辑示意图;
图5为本发明实施例的高斯金字塔重构逻辑示意图;
图6为本发明实施例的图像处理方法流程图一;
图7为本发明实施例的图像处理方法流程图二;
图8为本发明实施例的图像处理方法流程图三;
图9为本发明实施例的图像处理方法流程图四;
图10为本发明实施例的图像处理方法流程图五;
图11为本发明实施例的图像处理装置结构图一;
图12为本发明实施例的人脸变换处理模块结构图;
图13为本发明实施例的图像处理装置结构图二;
图14为本发明实施例的图像处理装置结构图三;
图15为本发明实施例的肤色融合处理模块结构图;
图16为本发明实施例的电子设备的结构示意。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例改善了现有技术在进行人脸图像的换脸处理时,容易出现图像扭曲不自然,泛化能力较差的缺陷,其核心思想在于,预先通过神经网络(如U-Net神经网络)算法训练学习任意人脸图像中人脸区域像素点到预定义的设定人脸图像中像素点位置的位置变换信息M,借助设定人脸图像中像素点位置,使待替换与被替换的两张人脸图像之间形成针对人脸区域像素点的映射关系,以基于映射关系实现人脸区域像素点的位置变换,进而实现换脸。这种基于人脸区域像素点映射的换脸方法,可使人脸中的关键点,尤其是人脸五官对应的像素点在换脸时操作更加精确,保持换脸前后人脸的相似性,使人脸表情更加自然。
具体地,在获取第一人脸图像和第二人脸图像后,可以分别确定第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,如分别确定第一人脸图像和第二人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2;然后对第一人脸图像的人脸区域像素点顺序执行位置变换信息M1和位置变换信息M2的位置逆变换信息M2-1对应的变换处理形成变换人脸,并以该变换人脸替换第二人脸图像中的人脸,形成变换后的第二人脸图像。
如图1所示,为本发明实施例的图像处理逻辑示意图,该处理逻辑中包含待替换人脸图像A(Image A)、被替换人脸图像B(Image B)、设定人脸图像(Standard Template)以及U-Net神经网络模型。其中,Image A和Image B的图像尺寸相同,图中图像处理的目的是将Image B中的人脸部分替换为Image A中的人脸部分,处理逻辑如下:
1、通过U-Net神经网络模型分别计算Image A和Image B中人脸区域像素点(方框圈选范围内的像素点,方框圈选区域与stand template的图像尺寸相同)到standtemplate中像素点位置所对应的位置变换信息M1和位置变换信息M2。其中,M1、M2可以为位置变换矩阵。
其中,U-Net神经网络模型训练整体流程如下:
U-Net神经网络模型的主要功能是计算输入图像(如Image A、Image B)的人脸区域像素点与预定义的设定人脸图像(stand template)中像素点之间的位置映射关系。图像换脸最重要的是人脸五官位置,因此为了使人脸五官位置尽可能的计算准确,本方案中针对人脸五官的关键像素点位置的信息设置权重mask(掩膜),并使用L2 Loss让网络更好的回归人脸五官信息。
如图2中所示,向U-Net神经网络输入人脸图像,以及真实的通过标注完成的人脸区域像素点到设定人脸图像中像素点位置的偏移量信息,记为Gound truth M(M为位置变换信息)。通过U-Net神经网络计算出人脸图像中人脸区域内每个像素点到设定人脸图像中像素点位置的偏移量信息,记为Predict M(M为位置变换信息),然后计算Predict M和Gound truth M之间的误差,该误差通过反向传播算法反馈给U-Net神经网络以调节网络的参数,使得Predict M更加接近Gound truth M。
Predict M和Gound truth M的误差的计算公式(损失函数)如下所示:
Figure BDA0002087854730000061
其中,损失函数Loss其主要计算输入的人脸图像中人脸区域内每个像素点位置(Pos(u,v)为偏移量预测值、
Figure BDA0002087854730000062
为偏移量实际值)的L2范数,即欧式距离,距离越大,表示误差越大。由于换脸主要关注人脸的五官信息,希望人脸五官位置预测的误差越小越好。因此,本方案中在计算损失函数值中加入带Mask(掩膜)的权重Weight(Mask中人脸五官位置的权重W(u,v)较大,其余位置权重较小),使得损失函数更加关注人脸五官位置计算的精度。
2、根据Image A及其对应的位置变换信息M1,对Image A中人脸区域像素点进行图像变换(Transform),得到Image A对应的设定人脸图像。
3、对Image A对应的设定人脸图像使用Image B对应的位置变换信息M2进行逆变换(Inverse Transform)得到变换人脸。
例如,先对位置变换信息M2求逆得到位置逆变换信息(M2)-1,然后将Image A对应设定人脸图像进行(M2)-1变换得到变换人脸。
4、将变换人脸替换掉Image B中的人脸区域(Fusion)从而得到和Image B中人脸具有相同的姿态以及表情的变换后的Image B。
进一步地,在形成变换后的第二人脸图像后,还可以根据第一人脸图像和/或第二人脸图像中的图像肤色对变换后的第二人脸图像进行肤色融合处理,得到肤色更为自然的肤色融合图像。
例如,可基于以下三步完成变换后的第二人脸图像的肤色融合处理:
第一步,构建Image A和Image B的拉普拉斯金字塔。
如图3所示,以上述Image B为例建立其对应的拉普拉斯金字塔的处理过程如下:
(1)下采样
下采样使得图像金字塔的层级越高,图像越小。假设每一层都按从下到上的次序编号,层级(i+1)的尺寸表示为Gi+1。则由第i层图像获得第i+1层图像的步骤为:
将Gi与高斯内核卷积:
Figure BDA0002087854730000071
b)将所有偶数行和列去除。
经过上述处理后,获得的结果图像为原来原图尺寸的1/4。不断地迭代上述步骤可以得到图3中左侧图像金字塔(也称高斯金字塔)。
(2)上采样
上采样使得图像变大。步骤:
将图3中左侧图像金字塔的最底层图像在行、列方向扩大为原来的两倍,新增的行与列以0填充;
使用之前同样的高斯内核(乘以4)与尺寸放大后的图像卷积,获得新增像素的近似值。
(3)拉普拉斯金字塔计算
降采样操作丢失的信息数据形成了拉普拉斯金字塔。拉普拉斯金字塔的第i层定义为:
Figure BDA0002087854730000072
其中,UP为上采样算符、g5×5为高斯内核。
第二步,对Image A和Image B的拉普拉斯金字塔进行融合。
完成Image A和Image B的拉普拉斯金字塔的建立后,对应各图层建立多尺度的高斯金字塔的掩膜(mask),然后通过不同尺度的掩膜实现Image A和Image B的拉普拉斯金字塔的加权融合。
如图4所示,掩膜可包括两种图形:一个是显示人脸图像的掩膜(如A mask map),一个是显示除人脸图像以外的背景图像的掩膜(如B maskmap)。分别采用这两种掩膜抠取相同图层(如Level N)中Image A的拉普拉斯图像A Laplacian map和Image B的拉普拉斯图像B Laplacian map,然后将扣取的图像按照像素点位置合成为一张拉普拉斯图像。每一层均是如此操作,进而得到融合拉普拉斯金字塔。
第三步,重建图像。
如图5所示,针对图1中最终得到的变换后的Image B构建高斯金字塔,并从顶层开始,对变换后的Image B进行上采样,并将每一层得到的上采样图像的结果与上述第二步中得到的融合拉普拉斯金字塔中同层图像进行相加得到该层对应的肤色融合图像,通过不断的从上到下对各层得到的肤色融合图像放大(上采样)并与融合后的同层拉普拉斯图像相加,最终得到上述变换后的Image B对应的肤色融合图像。
本方案内容与现有图像换脸技术相比较,具有如下优势:
(1)使用深度神经网络U-Net学习出任意人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,进而使待替换与被替换的两张人脸图像之间建立了像素点位置之间的映射关系,并且像素点较稠密,解决了对大角度、夸张表情的人脸图像进行换脸过程中图像扭曲不自然等问题。
(2)U-Net神经网络中人脸映射关键点较精确,尤其是人脸五官位置信息,保持换脸前、后人脸的相似性。
(3)采用肤色融合算法,解决了各种场景下肤色融合不自然的问题,进一步提升本方案示出的图像换脸技术的泛化能力。
下面通过多个实施例来进一步说明本申请的技术方案。
实施例一
图6为本发明实施例提供的图像处理方法流程图一,可实现图1中示出的图像处理逻辑,该图像处理方法包括如下步骤:
S610,获取第一人脸图像和第二人脸图像。
其中,为方便对人脸图像进行统一处理,所获取的人脸图像的尺寸相同。例如图1中的Image A和Image B。
S620,分别确定第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息。
图像换脸最重要的是人脸五官位置,因此为了使人脸五官位置尽可能的计算准确,同时减少数据的计算量,本方案中选取人脸图像中人脸区域(人脸五官集中的区域)的像素点作为图像换脸的待处理对象。例如该人脸区域可以是图1中Image A和Image B中由方框圈选的区域范围。
本方案中,预先设置一设定人脸图像。为方便实现任一人脸图像中人脸像素点到该设定人脸图像中像素点位置的映射,该设定人脸图像可与Image A和Image B中人脸区域的尺寸相同,且人脸姿态可以是正面、表情为自然表情、脸型为大众脸、人脸图像质量较高。
所谓像素点位置的映射关系是指,两幅人脸图像中人脸区域的每个像素点位置通过其所指向的人脸真实位置而形成的对应关系。比如两幅人脸图像中眼睛位置的像素点(可能为多个像素点)之间具有映射关系。这种映射关系可通过像素点之间的位置偏移量进行描述。
本方案中,将描述两幅图中所有像素点之间映射关系的位置偏移量的集合称为位置变换信息,该位置变换信息会根据这两幅图的映射方向(像素点变换方向)不同而互成相反量。
例如,在确定上述第一人脸图像和上述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息时,可以分别确定第一人脸图像和第二人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2。
当人脸区域与设定人脸图像的尺寸为矩形时,对应的位置变换信息可以用位置变换矩阵描述,且位置变换矩阵中每个元素值定义为人脸区域中对应像素点变换到设定人脸图像中像素点位置所对应的位置偏移量。
为了快速、准确的计算人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息,可以引用U-Net神经网络进行建模计算,具体地,可通过图7所示的方法步骤执行该建模计算过程:
S710,对已标注的样本图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息,采用U-Net神经网络进行训练学习,构建U-Net神经网络模型。
其中,U-Net神经网络模型的主要功能是计算输入图像(如Image A、Image B)的人脸区域像素点与设定人脸图像中像素点之间的位置映射关系,如前者变换到后者的位置变换信息。图像换脸最重要的是人脸五官位置,因此为了使人脸五官位置尽可能的计算准确,本方案中针对人脸五官的关键像素点位置的信息设置权重mask(掩膜),并使用L2 Loss让网络更好的回归人脸五官信息。
具体模型构建过程,可通过图2所示的处理流程完成,在此不做赘述。
S720,采用U-Net神经网络模型对人脸图像中人脸区域像素点进行模型计算,得到该人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息。
在得到U-Net神经网络模型后,可基于该网络模型计算上述第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置所对应的位置变换信息,从而得到二者的映射关系信息。
S630,根据第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,将第二人脸图像中人脸区域像素点对应替换为第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。
具体地,在分别得到第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息后,可以基于该映射关系信息,并以设定人脸图像中像素点作为转换桥梁,实现将第二人脸图像中人脸区域像素点对应替换为第一人脸图像中人脸区域像素点,从而形成变换后的第二人脸图像。
例如,在确定第一人脸图像和第二人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2后,相应地,可通过执行图8所示的方法步骤,实现本步骤的处理过程:
S810,对第一人脸图像的人脸区域像素点执行位置变换信息M1对应的变换处理,得到第一人脸图像对应的设定人脸图像。
例如,根据图1中Image A及其对应的位置变换信息M1,对Image A中人脸区域像素点进行图像变换(Transform),得到Image A对应的设定人脸图像。
S820,确定位置变换信息M2对应的位置逆变换信息(M2)-1
其中,变换信息M2及对应的位置逆变换信息(M2)-1中所描述的对应像素点的位置偏移量互为相反量,以标明不同的像素点变换方向。
S830,对第一人脸图像对应的设定人脸图像中像素点执行位置逆变换信息(M2)-1对应的变换处理,得到变换人脸。
例如,将Image A对应设定人脸图像进行(M2)-1变换得到变换人脸。
S840,以变换人脸替换第二人脸图像中的人脸区域,形成变换后的第二人脸图像。
例如,将图1中的变换人脸替换掉Image B中的人脸区域(Fusion)从而得到和Image B中人脸具有相同的姿态以及表情的变换后的Image B。
本发明提供的图像处理方法,预先设置一设定人脸图像;获取第一人脸图像和第二人脸图像,并分别确定第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;根据第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,将第二人脸图像中人脸区域像素点对应替换为第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像,从而达到将第二人脸图像中人脸替换为第一人脸图像中人脸的目的。本方案中以设定人脸图像中像素点位置作为转换桥梁,使替换与被替换的两张人脸图像的人脸区域像素点之间建立了映射关系,由于像素点数目较稠密,可以解决图像换脸中的大角度姿态、夸张表情所带来的图像扭曲不自然等问题,提高了图像换脸的泛化能力。
进一步地,通过构建U-Net神经网络模型,并基于该模型计算第一人脸图像和第二人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2,可以方便、快速地获得人脸图像中人脸区域像素点到设定人脸图像中像素点位置的映射关系信息。
进一步地,通过对第一人脸图像的人脸区域像素点顺序执行位置变换信息M1对应的变换处理,以及位置逆变换信息(M2)-1对应的变换处理,得到变换人脸;以变换人脸替换第二人脸图像中的人脸区域,从而形成变换后的第二人脸图像。
实施例二
图9为本发明实施例提供的图像处理方法流程图四,该方法可以作为图6~图8中任一种图像处理方法的补充处理过程,用于对生成的变换后的第二人脸图像进行肤色融合处理,即根据第一人脸图像和/或第二人脸图像中的图像肤色对变换后的第二人脸图像进行肤色融合处理,得到该变换后的第二人脸图像对应的肤色融合图像。如图9所示,该图像处理方法具体可包括如下步骤:
S910,分别形成第一人脸图像和第二人脸图像对应的拉普拉斯金字塔。
如图3所示,以上述Image B为例建立其对应的拉普拉斯金字塔的处理过程如下:
(1)下采样
下采样使得图像金字塔的层级越高,图像越小。假设每一层都按从下到上的次序编号,层级(i+1)的尺寸表示为Gi+1。则由第i层图像获得第i+1层图像的步骤为:
将Gi与高斯内核卷积:
Figure BDA0002087854730000121
b)将所有偶数行和列去除。
经过上述处理后,获得的结果图像为原来原图尺寸的1/4。不断地迭代上述步骤可以得到图3中左侧图像金字塔(也称高斯金字塔)。
(2)上采样
上采样使得图像变大。步骤:
将图3中左侧图像金字塔的最底层图像在行、列方向扩大为原来的两倍,新增的行与列以0填充;
使用之前同样的高斯内核(乘以4)与尺寸放大后的图像卷积,获得新增像素的近似值。
(3)拉普拉斯金字塔计算
降采样操作丢失的信息数据形成了拉普拉斯金字塔。拉普拉斯金字塔的第i层定义为:
Figure BDA0002087854730000131
其中,UP为上采样算符、g5×5为高斯内核。
S920,对第一人脸图像和第二人脸图像所对应的拉普拉斯金字塔中对应图层进行融合处理,得到融合拉普拉斯金字塔。
例如,在进行融合时,可选取对应图层中第一人脸图像所对应的拉普拉斯图像中人脸对应的区域,以及第二人脸图像所对应的拉普拉斯图像中人脸以外对应的区域进行融合处理,得到融合拉普拉斯金字塔。
例如,在完成Image A和Image B的拉普拉斯金字塔的建立后,可对应各图层建立多尺度的高斯金字塔的掩膜(mask),然后通过不同尺度的掩膜实现Image A和Image B的拉普拉斯金字塔的加权融合。
如图4所示,掩膜可包括两种图形:一个是显示人脸图像的掩膜(如A mask map),一个是显示除人脸图像以外的背景图像的掩膜(如B mask map)。分别采用这两种掩膜图形抠取相同图层(如Level N)中Image A的拉普拉斯图像A Laplacian map和Image B的拉普拉斯图像B Laplacian map,然后将抠取的图像按照像素点位置合成为一张拉普拉斯图像。每一层均是如此操作,进而得到融合拉普拉斯金字塔。
当然,也可仅选择以Image A的拉普拉斯图像A Laplacian map或者Image B的拉普拉斯图像B Laplacian map形成融合后的拉普拉斯金字塔。
S930,构建变换后的第二人脸图像对应的高斯金字塔,并从高斯金字塔顶层开始自顶向下,采用融合拉普拉斯金字塔的相应图层进行图层重构,得到变换后的第二人脸图像对应的肤色融合图像。
例如可采用图10所示方法步骤对高斯金字塔进行图层重构:
S101,以高斯金字塔的顶层图像作为该图层的肤色融合图像,对顶层的肤色融合图像上采样并高斯卷积之后得到下一图层的预测图像。
S102,将下一图层的预测图像和融合拉普拉斯金字塔中对应图层相加,得到该下一图层对应的肤色融合图像。
S103,以此类推,直到形成高斯金字塔的底层对应的肤色融合图像作为变换后的第二人脸图像对应的肤色融合图像。
如图5所示,针对图1中最终得到的变换后的Image B构建高斯金字塔,并从顶层开始,对变换后的Image B进行上采样,并将每一层得到的上采样图像(并高斯卷积)的结果与上述第二步中得到的融合拉普拉斯金字塔中同层图像进行相加得到该层对应的肤色融合图像,通过不断的从上到下对各层得到的肤色融合图像放大(上采样)并与融合后的同层拉普拉斯图像相加,最终得到上述变换后的Image B对应的肤色融合图像。
本发明提供的图像处理方法,在实施例一所示任一图像处理方法的基础上,进一步地,根据第一人脸图像和/或第二人脸图像中的图像肤色对变换后的第二人脸图像进行肤色融合处理,得到变换后的第二人脸图像对应的肤色融合图像,使得换脸后的图像更加自然,从而提高本方案的图像换脸的范化能力。
实施例三
如图11所示,为本发明实施例的图像处理装置结构图一,该图像处理装置可控制执行如图6中所示的方法步骤,其包括:
人脸图像获取模块111,用于获取第一人脸图像和第二人脸图像;
映射信息确定模块112,用于分别确定第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
人脸变换处理模块113,用于根据第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,将第二人脸图像中人脸区域像素点对应替换为第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。
进一步地,上述映射信息确定模块112,可用于分别确定第一人脸图像和第二人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2。
进一步地,如图12所示,图11中所示的图像处理装置中人脸变换处理模块113可包括:
图像变换单元121,用于对第一人脸图像的人脸区域像素点执行位置变换信息M1对应的变换处理,得到第一人脸图像对应的设定人脸图像;
逆变换确定单元122,用于确定位置变换信息M2对应的位置逆变换信息(M2)-1
图像逆变换单元123,用于对第一人脸图像对应的设定人脸图像中像素点执行位置逆变换信息(M2)-1对应的变换处理,得到变换人脸;
图像替换单元124,用于以变换人脸替换第二人脸图像中的人脸区域,形成变换后的第二人脸图像。
图12所示模块结构可用于执行图8所示方法步骤。
进一步地,如图13所示,图11中所示的图像处理装置中还可包括:
网络模型训练模块131,用于对已标注的样本图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息,采用U-Net神经网络进行训练学习,构建U-Net神经网络模型;
映射信息确定模块112,可用于采用U-Net神经网络模型对人脸图像中人脸区域像素点进行模型计算,得到该人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息。
图13所示图像处理装置可用于执行图7所示方法步骤。
进一步地,如图14所示,图11~图13任一所示的图像处理装置中还可包括:
肤色融合处理模块141,用于根据第一人脸图像和/或第二人脸图像中的图像肤色对变换后的第二人脸图像进行肤色融合处理,得到变换后的第二人脸图像对应的肤色融合图像。
进一步地,如图14所示图像处理装置中还可包括:
金字塔构建模块142,用于分别形成第一人脸图像和第二人脸图像对应的拉普拉斯金字塔;
金字塔融合模块143,用于对第一人脸图像和第二人脸图像所对应的拉普拉斯金字塔中对应图层进行融合处理,得到融合拉普拉斯金字塔;
肤色融合处理模块141,可用于构建变换后的第二人脸图像对应的高斯金字塔,并从高斯金字塔顶层开始自顶向下,采用融合拉普拉斯金字塔的相应图层进行图层重构,得到变换后的第二人脸图像对应的肤色融合图像。
图14所示图像处理装置可用于执行图9所示方法步骤。
进一步地,如图15所示,图14中所示图像处理装置中肤色融合处理模块141可包括:
上采样处理单元151,用于以高斯金字塔的顶层图像作为该图层的肤色融合图像,对顶层的肤色融合图像上采样并高斯卷积之后得到下一图层的预测图像;
图像融合单元152,用于将上述下一图层的预测图像和融合拉普拉斯金字塔中对应图层相加,得到下一图层对应的肤色融合图像;
以此类推,直到形成高斯金字塔的底层对应的肤色融合图像作为变换后的第二人脸图像对应的肤色融合图像。
图15所示模块结构可用于执行图10所示方法步骤。
进一步地,上述金字塔融合模块143,可用于选取所述对应图层中所述第一人脸图像所对应的拉普拉斯图像中人脸对应的区域,以及所述第二人脸图像所对应的拉普拉斯图像中人脸以外对应的区域进行融合处理,得到所述融合拉普拉斯金字塔。
本发明提供的图像处理装置,预先设置一设定人脸图像;获取第一人脸图像和第二人脸图像,并分别确定第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;根据第一人脸图像和第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,将第二人脸图像中人脸区域像素点对应替换为第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像,从而达到将第二人脸图像中人脸替换为第一人脸图像中人脸的目的。本方案中以设定人脸图像中像素点位置作为转换桥梁,使替换与被替换的两张人脸图像的人脸区域像素点之间建立了映射关系,由于像素点数目较稠密,可以解决图像换脸中的大角度姿态、夸张表情所带来的图像扭曲不自然等问题,提高了图像换脸的泛化能力。
进一步地,通过构建U-Net神经网络模型,并基于该模型计算第一人脸图像和第二人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2,可以方便、快速地获得人脸图像中人脸区域像素点到设定人脸图像中像素点位置的映射关系信息。
进一步地,通过对第一人脸图像的人脸区域像素点顺序执行位置变换信息M1对应的变换处理,以及位置逆变换信息(M2)-1对应的变换处理,得到变换人脸;以变换人脸替换第二人脸图像中的人脸区域,从而形成变换后的第二人脸图像。
进一步地,根据第一人脸图像和/或第二人脸图像中的图像肤色对变换后的第二人脸图像进行肤色融合处理,得到变换后的第二人脸图像对应的肤色融合图像,使得换脸后的图像更加自然,从而提高本方案的图像换脸的范化能力。
实施例四
本发明实施例提供一种图像处理方法,该方法可以作为前述实施例中图像处理方法在实际业务处理中的应用。该图像处理方法具体可包括如下步骤:
采集待替换人脸图像,并确定被替换人脸图像;
其中,待替换人脸图像作为替换后的标的人脸图像,可以是图1中Image A;被替换人脸图像作为被替换的标的人脸图像,可以是图1中Image B。
在实际业务场景中,当用户想把被替换人脸图像(比如明星、演员)替换为自己的人脸图像时,可以触发业务系统采集自己的人脸图像作为替换人脸图像,并同时向业务系统指定被替换人脸图像。
分别确定待替换人脸图像和被替换人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
根据待替换人脸图像和被替换人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息,将被替换人脸图像中人脸区域像素点对应替换为待替换人脸图像中人脸区域像素点,形成变换后的被替换人脸图像。
具体地,业务系统采集到用户的人脸图像,以及确定出被替换人脸图像后,可采用前述实施例中的图像处理方法,将被替换人脸图像中人脸区域像素点对应替换为用户的人脸图像中人脸区域像素点,形成变换后的被替换人脸图像,从而满足用户想把自己换脸成为如明星、演员的娱乐需求。
实施例五
前面实施例描述了图像处理装置的整体架构,该装置的功能可借助一种电子设备实现完成,如图16所示,其为本发明实施例的电子设备的结构示意图,具体包括:存储器161和处理器162。
存储器161,用于存储程序。
除上述程序之外,存储器161还可被配置为存储其它各种数据以支持在电子设备上的操作。这些数据的示例包括用于在电子设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
存储器161可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
处理器162,耦合至存储器161,用于执行存储器161中的程序,所述程序运行时执行如图6~图10所示的图像处理方法。
上述的具体处理操作已经在前面实施例中进行了详细说明,在此不再赘述。
进一步,如图16所示,电子设备还可以包括:通信组件163、电源组件164、音频组件165、显示器166等其它组件。图16中仅示意性给出部分组件,并不意味着电子设备只包括图16所示组件。
通信组件163被配置为便于电子设备和其他设备之间有线或无线方式的通信。电子设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件163经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件163还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
电源组件164,为电子设备的各种组件提供电力。电源组件164可以包括电源管理系统,一个或多个电源,及其他与为电子设备生成、管理和分配电力相关联的组件。
音频组件165被配置为输出和/或输入音频信号。例如,音频组件165包括一个麦克风(MIC),当电子设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器161或经由通信组件163发送。在一些实施例中,音频组件165还包括一个扬声器,用于输出音频信号。
显示器166包括屏幕,其屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (18)

1.一种图像处理方法,包括:
获取第一人脸图像和第二人脸图像;
分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
根据所述第一人脸图像和所述第二人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述第二人脸图像中人脸区域像素点对应替换为所述第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。
2.根据权利要求1所述的方法,其中,所述分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息包括:
分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点变换到所述设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2。
3.根据权利要求2所述的方法,其中,所述根据所述第一人脸图像和所述第二人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述第二人脸图像中人脸区域像素点对应替换为所述第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像包括:
对所述第一人脸图像的人脸区域像素点执行所述位置变换信息M1对应的变换处理,得到所述第一人脸图像对应的设定人脸图像;
确定所述位置变换信息M2对应的位置逆变换信息(M2)-1
对所述第一人脸图像对应的设定人脸图像中像素点执行所述位置逆变换信息(M2)-1对应的变换处理,得到变换人脸;
以所述变换人脸替换所述第二人脸图像中的人脸区域,形成变换后的第二人脸图像。
4.根据权利要求2所述的方法,其中,所述方法还包括:
对已标注的样本图像中人脸区域像素点变换到所述设定人脸图像中像素点位置所对应的位置变换信息,采用U-Net神经网络进行训练学习,构建U-Net神经网络模型;
所述确定人脸图像中人脸区域像素点变换到设定人脸图像中像素点位置所对应的位置变换信息包括:
采用所述U-Net神经网络模型对所述人脸图像中人脸区域像素点进行模型计算,得到该人脸图像中人脸区域像素点变换到所述设定人脸图像中像素点位置所对应的位置变换信息。
5.根据权利要求1-4任一种所述的方法,其中,所述方法包括:
根据所述第一人脸图像和/或第二人脸图像中的图像肤色对所述变换后的第二人脸图像进行肤色融合处理,得到所述变换后的第二人脸图像对应的肤色融合图像。
6.根据权利要求5所述的方法,其中,所述方法还包括:
分别形成所述第一人脸图像和第二人脸图像对应的拉普拉斯金字塔;
对所述第一人脸图像和第二人脸图像所对应的拉普拉斯金字塔中对应图层进行融合处理,得到融合拉普拉斯金字塔;
所述根据所述第一人脸图像和第二人脸图像中的图像肤色对所述变换后的第二人脸图像进行肤色融合处理,得到所述变换后的第二人脸图像对应的肤色融合图像包括:
构建所述变换后的第二人脸图像对应的高斯金字塔,并从所述高斯金字塔顶层开始自顶向下,采用所述融合拉普拉斯金字塔的相应图层进行图层重构,得到所述变换后的第二人脸图像对应的肤色融合图像。
7.根据权利要求6所述的方法,其中,所述从所述高斯金字塔顶层开始自顶向下,采用所述融合拉普拉斯金字塔的相应图层进行图层重构,得到所述变换后的第二人脸图像对应的肤色融合图像包括:
以所述高斯金字塔的顶层图像作为该图层的肤色融合图像,对所述顶层的肤色融合图像上采样并高斯卷积之后得到下一图层的预测图像;
将所述下一图层的预测图像和所述融合拉普拉斯金字塔中对应图层相加,得到所述下一图层对应的肤色融合图像;
以此类推,直到形成所述高斯金字塔的底层对应的肤色融合图像作为所述变换后的第二人脸图像对应的肤色融合图像。
8.根据权利要求6所述的方法,其中,所述对所述第一人脸图像和第二人脸图像所对应的拉普拉斯金字塔中对应图层进行融合处理,得到融合拉普拉斯金字塔包括:
选取所述对应图层中所述第一人脸图像所对应的拉普拉斯图像中人脸对应的区域,以及所述第二人脸图像所对应的拉普拉斯图像中人脸以外对应的区域进行融合处理,得到所述融合拉普拉斯金字塔。
9.一种图像处理装置,包括:
人脸图像获取模块,用于获取第一人脸图像和第二人脸图像;
映射信息确定模块,用于分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
人脸变换处理模块,用于根据所述第一人脸图像和所述第二人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述第二人脸图像中人脸区域像素点对应替换为所述第一人脸图像中人脸区域像素点,形成变换后的第二人脸图像。
10.根据权利要求9所述的装置,其中,
所述映射信息确定模块,用于分别确定所述第一人脸图像和所述第二人脸图像中人脸区域像素点变换到所述设定人脸图像中像素点位置所对应的位置变换信息M1和位置变换信息M2。
11.根据权利要求10所述的装置,其中,所述人脸变换处理模块包括:
图像变换单元,用于对所述第一人脸图像的人脸区域像素点执行所述位置变换信息M1对应的变换处理,得到所述第一人脸图像对应的设定人脸图像;
逆变换确定单元,用于确定所述位置变换信息M2对应的位置逆变换信息(M2)-1
图像逆变换单元,用于对所述第一人脸图像对应的设定人脸图像中像素点执行所述位置逆变换信息(M2)-1对应的变换处理,得到变换人脸;
图像替换单元,用于以所述变换人脸替换所述第二人脸图像中的人脸区域,形成变换后的第二人脸图像。
12.根据权利要求10所述的装置,其中,所述装置还包括:
网络模型训练模块,用于对已标注的样本图像中人脸区域像素点变换到所述设定人脸图像中像素点位置所对应的位置变换信息,采用U-Net神经网络进行训练学习,构建U-Net神经网络模型;
所述映射信息确定模块,用于采用所述U-Net神经网络模型对所述人脸图像中人脸区域像素点进行模型计算,得到该人脸图像中人脸区域像素点变换到所述设定人脸图像中像素点位置所对应的位置变换信息。
13.根据权利要求9-12任一项所述的装置,其中,所述装置还包括:
肤色融合处理模块,用于根据所述第一人脸图像和/或第二人脸图像中的图像肤色对所述变换后的第二人脸图像进行肤色融合处理,得到所述变换后的第二人脸图像对应的肤色融合图像。
14.根据权利要求13所述的装置,其中,所述装置还包括:
金字塔构建模块,用于分别形成所述第一人脸图像和第二人脸图像对应的拉普拉斯金字塔;
金字塔融合模块,用于对所述第一人脸图像和第二人脸图像所对应的拉普拉斯金字塔中对应图层进行融合处理,得到融合拉普拉斯金字塔;
所述肤色融合处理模块,用于构建所述变换后的第二人脸图像对应的高斯金字塔,并从所述高斯金字塔顶层开始自顶向下,采用所述融合拉普拉斯金字塔的相应图层进行图层重构,得到所述变换后的第二人脸图像对应的肤色融合图像。
15.根据权利要求14所述的装置,其中,所述肤色融合处理模块包括:
上采样处理单元,用于以所述高斯金字塔的顶层图像作为该图层的肤色融合图像,对所述顶层的肤色融合图像上采样并高斯卷积之后得到下一图层的预测图像;
图像融合单元,用于将所述下一图层的预测图像和所述融合拉普拉斯金字塔中对应图层相加,得到所述下一图层对应的肤色融合图像;
以此类推,直到形成所述高斯金字塔的底层对应的肤色融合图像作为所述变换后的第二人脸图像对应的肤色融合图像。
16.根据权利要求14所述的装置,其中,
所述金字塔融合模块,用于
选取所述对应图层中所述第一人脸图像所对应的拉普拉斯图像中人脸对应的区域,以及所述第二人脸图像所对应的拉普拉斯图像中人脸以外对应的区域进行融合处理,得到所述融合拉普拉斯金字塔。
17.一种图像处理方法,包括:
采集待替换人脸图像,并确定被替换人脸图像;
分别确定所述待替换人脸图像和所述被替换人脸图像中人脸区域像素点与设定人脸图像中像素点位置的映射关系信息;
根据所述待替换人脸图像和所述被替换人脸图像中人脸区域像素点与所述设定人脸图像中像素点位置的映射关系信息,将所述被替换人脸图像中人脸区域像素点对应替换为所述待替换人脸图像中人脸区域像素点,形成变换后的被替换人脸图像。
18.一种电子设备,包括:
存储器,用于存储程序;
处理器,耦合至所述存储器,用于执行所述程序,所述程序运行时执行权利要求1-8、17中任意一项权利要求所述的图像处理方法。
CN201910493742.5A 2019-06-06 2019-06-06 图像处理方法、装置及电子设备 Pending CN112053278A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910493742.5A CN112053278A (zh) 2019-06-06 2019-06-06 图像处理方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910493742.5A CN112053278A (zh) 2019-06-06 2019-06-06 图像处理方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN112053278A true CN112053278A (zh) 2020-12-08

Family

ID=73609534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910493742.5A Pending CN112053278A (zh) 2019-06-06 2019-06-06 图像处理方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN112053278A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733700A (zh) * 2021-01-05 2021-04-30 风变科技(深圳)有限公司 人脸关键点检测方法、装置、计算机设备和存储介质
CN116596752A (zh) * 2023-07-19 2023-08-15 腾讯科技(深圳)有限公司 脸部图像替换方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425137A (zh) * 2008-11-10 2009-05-06 北方工业大学 基于拉普拉斯金字塔的人脸图像融合方法
CN104517264A (zh) * 2013-09-30 2015-04-15 华为终端有限公司 图像处理方法及装置
CN105550657A (zh) * 2015-12-23 2016-05-04 北京化工大学 基于关键点的改进sift人脸特征提取方法
CN107146199A (zh) * 2017-05-02 2017-09-08 厦门美图之家科技有限公司 一种人脸图像的融合方法、装置及计算设备
CN109492540A (zh) * 2018-10-18 2019-03-19 北京达佳互联信息技术有限公司 一种图像中的人脸交换方法、装置及电子设备
CN109829930A (zh) * 2019-01-15 2019-05-31 深圳市云之梦科技有限公司 人脸图像处理方法、装置、计算机设备及可读存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425137A (zh) * 2008-11-10 2009-05-06 北方工业大学 基于拉普拉斯金字塔的人脸图像融合方法
CN104517264A (zh) * 2013-09-30 2015-04-15 华为终端有限公司 图像处理方法及装置
CN105550657A (zh) * 2015-12-23 2016-05-04 北京化工大学 基于关键点的改进sift人脸特征提取方法
CN107146199A (zh) * 2017-05-02 2017-09-08 厦门美图之家科技有限公司 一种人脸图像的融合方法、装置及计算设备
CN109492540A (zh) * 2018-10-18 2019-03-19 北京达佳互联信息技术有限公司 一种图像中的人脸交换方法、装置及电子设备
CN109829930A (zh) * 2019-01-15 2019-05-31 深圳市云之梦科技有限公司 人脸图像处理方法、装置、计算机设备及可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733700A (zh) * 2021-01-05 2021-04-30 风变科技(深圳)有限公司 人脸关键点检测方法、装置、计算机设备和存储介质
CN112733700B (zh) * 2021-01-05 2024-07-09 风变科技(深圳)有限公司 人脸关键点检测方法、装置、计算机设备和存储介质
CN116596752A (zh) * 2023-07-19 2023-08-15 腾讯科技(深圳)有限公司 脸部图像替换方法、装置、设备及存储介质
CN116596752B (zh) * 2023-07-19 2023-12-08 腾讯科技(深圳)有限公司 脸部图像替换方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN111340711B (zh) 一种超分辨率重建方法、装置、设备和存储介质
US11671712B2 (en) Apparatus and methods for image encoding using spatially weighted encoding quality parameters
CN102668585B (zh) 图像数据生成辅助装置和图像数据生成辅助方法
CN106792092B (zh) 直播视频流分镜显示控制方法及其相应的装置
CN106797460B (zh) 三维视频的重建
CN105472434B (zh) 植入内容到视频演示中的方法和系统
CN102906745B (zh) 使用选择准则确定关键视频片段以形成视频概要
CN105264567B (zh) 用于图像稳定化的图像融合方法
US20170180680A1 (en) Object following view presentation method and system
CN107948733B (zh) 视频图像处理方法及装置、电子设备
US10347298B2 (en) Method and apparatus for smart video rendering
CN116250014A (zh) 用于合成具有与真实图像结合的伪毛发的图像的跨域神经网络
JP7221334B2 (ja) 写真撮影の方法及び装置、端末、記憶媒体
CN112053278A (zh) 图像处理方法、装置及电子设备
CN115205164B (zh) 图像处理模型的训练方法、视频处理方法、装置及设备
CN111800569A (zh) 拍照处理方法、装置、存储介质及电子设备
CN113242392A (zh) 一种短视频制作方法
CN116188649A (zh) 基于语音的三维人脸模型驱动方法及相关装置
CN103945116A (zh) 用于在具有相机的移动终端中处理图像的设备和方法
CN109600667A (zh) 一种基于网格与帧分组的视频重定向的方法
CN107707830A (zh) 基于单向通信的全景视频播放拍照系统
CN109529349B (zh) 图像绘制方法、装置、计算设备及存储介质
CN112887620A (zh) 视频拍摄方法、装置及电子设备
US20240114107A1 (en) Electronic apparatus and method thereof
CN112702590B (zh) 一种立体图像变焦方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination