CN113609900A - 局部生成人脸定位方法、装置、计算机设备和存储介质 - Google Patents

局部生成人脸定位方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN113609900A
CN113609900A CN202110709918.3A CN202110709918A CN113609900A CN 113609900 A CN113609900 A CN 113609900A CN 202110709918 A CN202110709918 A CN 202110709918A CN 113609900 A CN113609900 A CN 113609900A
Authority
CN
China
Prior art keywords
feature map
face image
locally generated
positioning
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110709918.3A
Other languages
English (en)
Other versions
CN113609900B (zh
Inventor
陈北京
鞠兴旺
吴畏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202110709918.3A priority Critical patent/CN113609900B/zh
Publication of CN113609900A publication Critical patent/CN113609900A/zh
Application granted granted Critical
Publication of CN113609900B publication Critical patent/CN113609900B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种局部生成人脸定位方法、装置、计算机设备和存储介质。该方法包括:获取待定位人脸图像;将待定位人脸图像输入至训练好的融合了RRU‑Net和去噪操作模块的局部生成人脸图像定位网络中,对待定位人脸图像的局部生成区域进行定位分析,输出待定位人脸图像的第一定位预测结果,通过融合了RRU‑Net和去噪操作模块的局部生成人脸图像定位网络进行局部生成区域定位,可以提高定位的精度,在定位局部生成人脸时,有攻击的情况仍不具有很好的鲁棒性。

Description

局部生成人脸定位方法、装置、计算机设备和存储介质
技术领域
本申请涉及数字图像的图像篡改定位技术领域,特别是涉及一种局部生成人脸定位方法、装置、计算机设备和存储介质。
背景技术
随着数字媒体的发展,视觉编辑软件对数字媒体编辑所造成的可信度问题,引起了社会群体极大的关注。数字图像取证属于信息安全范畴,而信息安全已成为国家的一个重要发展战略。因此,数字图像取证是一个具有现实意义的重要领域。它通过图像在获取、编码、编辑中留下的固有痕迹进行特征提取并有效分析,从而对数字图像内容的真实性、完整性、原始性和准确性进行取证。在过去的几十年里,这个领域已被证明有其存在的研究价值,同时得到了飞速的发展和创新;当然,也存在着不少挑战和瓶颈。
通过生成对抗网络(Generative Adversarial Network,GAN)等方式生成的虚假人脸在网络中不断传播。在一些现实场景中,一幅生成人脸图像中只是小部分局部区域是生成的,甚至很小部分,其余绝大部分区域都是自然的,例如人脸图像复原、眼镜去除、掩模去除等。由于生成区域可能非常小,因此在经过具有多个池化层的深度卷积网络中可能会缩小到一个点,甚至在特征图上完全没有。然而关于局部生成人脸定位的问题,目前,就我们所知,还未有公开报道。而人脸图像已被广泛应用于人物身份识别和身份验证服务。刷脸支付、刷脸取件、刷脸签到、刷脸进站等新应用接踵而来,全面进入大众日常生活,“刷脸时代”已至。人脸图像作为重要的生物识别特征,其安全性问题是一定要保证的。因此,研究有效的人脸取证技术变得尤为重要。
在图像拼接篡改定位中,利用卷积神经网络提取目标源的不一致性,能够有效的进行块级或像素级的定位[Peng Zhou,Xintong Han,Vlad I Morariu,and Larry SDavis.Learning rich features for image manipulation detection[C].InProceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),pages 1053–1061,2018.]。
局部生成人脸的定位问题可以借鉴图像拼接篡改定位的思想,根据目标源不一致的特性实现定位。然而,局部生成人脸区域虽然含有特定的GAN指纹,但GAN中的对抗网络部分会产生一定的扰动,使得生成区域能够尽可能的逼近于真实区域,欺骗定位模型,因此增加了定位的难度。Li等人[Haodong Li and Jiwu Huang.Localization of deepinpainting using high-pass fully convolutional network[C].In Proceedings ofthe IEEE/CVF International Conference on Computer Vision,pages 8301–8310,2019.]提出了针对普通图像深度修的取证问题,并且设计了专门提取局部生成特征的滤波器,结合残差网络,提出了一种相对简单的全卷积网络框架。上述的一些方法,利用卷积神经网络提取目标源的不一致性,能够有效的进行块级或像素级的定位。局部生成人脸的定位问题同样可以借鉴图像拼接篡改定位的思想,根据目标源不一致的特性实现定位。然而,局部生成人脸区域虽然含有特定的GAN指纹,但GAN中的对抗网络部分会产生一定的扰动,使得生成区域能够尽可能的逼近于真实区域,欺骗定位模型,增加了定位的难度。
因此,针对非人脸图像的定位方法在定位局部生成人脸时,有攻击的情况仍不具有很好的鲁棒性。
发明内容
基于此,有必要针对上述技术问题,提供一种能够在有攻击的情况仍具有很好的鲁棒性的局部生成人脸定位方法、装置、计算机设备和存储介质。
一种局部生成人脸定位方法,所述方法包括:
获取待定位人脸图像;
将所述待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对所述待定位人脸图像的局部生成区域进行定位分析,输出所述待定位人脸图像的第一定位预测结果;
所述局部生成人脸图像定位网络的训练方式,包括:
获取局部生成人脸图像样本集,所述局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;
将所述局部生成人脸图像集划分为训练图像集和测试图像集;
初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化所述局部生成人脸定位网络中的参数;
利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;
利用所述测试图像集对所述初步训练好的局部生成人脸图像定位网络中进行测试,当所述初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
在其中一个实施例中,所述利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络的步骤,包括:
将所述训练图像集中包含局部生成区域的人脸图像,输入至所述局部生成人脸定位网络进行局部生成区域定位预测,输出第二定位预测结果;
对所述第二定位预测结果与所述训练图像集中的真实标签图像之间的误差进行计算,获得第一误差值;
根据所述第一误差值判断所述局部生成人脸定位网络是否满足精度要求;
当所述局部生成人脸定位网络不满足精度要求时,调整所述局部生成人脸定位网络的参数,返回根据预设的训练过程,将所述训练图像集中包含局部生成区域的人脸图像,输入至所述局部生成人脸定位网络进行局部生成区域定位预测,输出第二定位预测结果的步骤;
当所述局部生成人脸定位网络满足精度要求时,获得初步训练好的局部生成人脸图像定位网络。
在其中一个实施例中,所述利用所述测试图像集对所述初步训练好的局部生成人脸图像定位网络中进行测试,当所述初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络的步骤,包括:
将所述测试图像集中包含局部生成区域的人脸图像,输入至所述初步训练好的局部生成人脸定位网络进行局部生成区域定位预测,输出第三定位预测结果;
对所述第三定位预测结果与所述测试图像集中的真实标签图像之间的误差进行计算,获得第二误差值;
根据所述第二误差值判断所述初步训练好的局部生成人脸定位网络是否满足预设要求;
当所述初步训练好的局部生成人脸定位网络不满足预设要求时,返回根据预设的训练过程,利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络的步骤;
当所述初步训练好的局部生成人脸定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
在其中一个实施例中,所述初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络依次包括:第一卷积组、第二卷积组、第三卷积组、第四卷积组、第五卷积组、第一反卷积组、第二反卷积组、第三反卷积组和第四反卷积组;
所述第一卷积组、所述第二卷积组、所述第三卷积组和所述第四卷积组的输出,分别与所述第一反卷积组、所述第二反卷积组、所述第三反卷积组、所述第四反卷积组的输入融合,形成跳跃结构;
所述第三卷积组、所述第四卷积组、所述第五卷积组、所述第一反卷积组和所述第二反卷积组的组与组之间,设置了去噪操作模块。
在其中一个实施例中,所述局部生成人脸定位网络的执行过程包括:
输入待预测图像,使用所述第一卷积组中的环状残差块对输入的所述待预测图像进行卷积,得到第一特征图;
所述第一特征图经过池化窗口为2×2的最大池化层池化,得到第二特征图;
将所述第二特征图输入所述第二卷积组中的环状残差块进行卷积,得到第三特征图;
所述第三特征图经过池化窗口为2×2的最大池化层池化,得到第四特征图;
将所述第四特征图输入所述第三卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块对进行噪声操作,得到第五特征图;
所述第五特征图经过池化窗口为2×2的最大池化层池化,得到第六特征图;
将所述第六特征图输入所述第四卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第七特征图;
所述第七特征图经过池化窗口为2×2的最大池化层池化,得到第八特征图;
将所述第八特征图输入所述第五卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第八特征图;
对所述第八特征图进行反卷积后,并与所述第六特征图进行特征融合,获得第九特征图;
所述第九特征图通过所述第一反卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第十特征图;
对所述第十特征图进行反卷积后,与所述第四特征图进行特征图融合,得到第十一特征图;
所述第十一特征图通过所述第二反卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作得到第十二特征图;
对所述第十二特征图进行反卷积后,与所述第二特征图进行特征图融合,得到第十三特征图;
所述第十三特征图通过所述第三反卷积组中的环状残差块进行卷积,得到第十四特征图;
对所述第十四特征图进行反卷积后,与所述待预测图像进行特征图融合,得到第十五特征图;
所述第十五特征图通过所述第四反卷积组中的环状残差块进行卷积后,输出所述待预测图像的每个像素点的局部生成人脸定位预测结果。
在其中一个实施例中,所述环状残差块包括残差传播块和反馈块;
所述残差传播块表示为:
vf=f(z,{wi})+ws*zp
其中,zp为所建立残差传播块的输入,vf为所建立残差传播块的输出,f(z,{wi})为卷积操作,wi为所述残差传播块的第i层卷积的权重,表示学习的残差图,i∈1、2……n,n为所述残差传播块中卷积层的总层数,ws为一个线性变换,使前后两项维度相匹配;
在所述反馈块中,添加了注意力机制来学习不同特征通道之间的交互作用,所述反馈块表示为:
zb=(s(G(v))+1)*zq
其中,zq为所建立反馈块的输入,v为残差传播块的输出,zb为增强后的输入,G为一个线性映射,用于网络维度的统一,s为门控制激活函数。
在其中一个实施例中,所述噪声操作模块包括具有去噪操作功能的Non-local均值,对所有空间位置的特征进行加权平均,得到去噪后的特征图,所述Non-local均值的公式表示为:
Figure BDA0003133172920000071
其中,x为待去噪操作的特征图,x={x1,x2,…,xm},Γ={1,2,...,m},m为待去噪操作的特征图的像素位总数,f(xk,xj)为特征加权函数,C(x)为归一化函数,xk为待去噪操作的特征图的第k个像素位对应的值,xj为待去噪操作的特征图的第j个像素位对应的值,yk为待去噪操作的特征图的第k个像素位对应的值进行去噪操作后的值;
f(xk,xj)为高斯函数:
Figure BDA0003133172920000072
其中,θ(xk)是xk乘以权值后的嵌入版本,φ(xj)是xj乘以权值后的嵌入版本,通过1×1卷积获取,d是通道数,e为自然对数的底数,是一个无限不循环小数。
一种局部生成人脸定位装置,所述装置包括:
图像获取模块,用于获取待定位人脸图像;
定位预测模块,用于将所述待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对所述待定位人脸图像的局部生成区域进行定位分析,输出所述待定位人脸图像的第一定位预测结果;
所述局部生成人脸图像定位网络的训练方式,包括:
获取局部生成人脸图像样本集,所述局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;
将所述局部生成人脸图像集划分为训练图像集和测试图像集;
初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化所述局部生成人脸定位网络中的参数;
利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;
利用所述测试图像集对所述初步训练好的局部生成人脸图像定位网络中进行测试,当所述初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的方法的步骤
上述局部生成人脸定位方法、装置、计算机设备和存储介质,通过获取待定位人脸图像;将待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对待定位人脸图像的局部生成区域进行定位分析,输出待定位人脸图像的第一定位预测结果;局部生成人脸图像定位网络的训练方式,包括:获取局部生成人脸图像样本集,局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;将局部生成人脸图像集划分为训练图像集和测试图像集;初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化局部生成人脸定位网络中的参数;利用训练图像集对局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;利用测试图像集对初步训练好的局部生成人脸图像定位网络中进行测试,当初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络,通过融合了RRU-Net和去噪操作模块的局部生成人脸图像定位网络进行局部生成区域定位,可以提高定位的精度,在定位局部生成人脸时,有攻击的情况仍不具有很好的鲁棒性。
附图说明
图1为一个实施例中局部生成人脸定位方法的部分流程示意图;
图2为一个实施例中局部生成人脸定位网络的框架图;
图3为一个实施例中局部生成人脸的定位效果比对图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,提供了一种局部生成人脸定位方法,包括以下步骤:
步骤1,获取待定位人脸图像。
其中,待定位人脸图像是需要进行图像篡改定位的人脸图像。
步骤2,将待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对待定位人脸图像的局部生成区域进行定位分析,输出待定位人脸图像的第一定位预测结果。
其中,待定位人脸图像的第一定位预测结果是标识了待定位人脸图像中的拼接或者复制粘贴篡改区域的定位预测结果。
如图1所示,该局部生成人脸图像定位网络的训练方式,包括:
获取局部生成人脸图像样本集,局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;将局部生成人脸图像集划分为训练图像集和测试图像集;初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化局部生成人脸定位网络中的参数;利用训练图像集对局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;利用测试图像集对初步训练好的局部生成人脸图像定位网络中进行测试,当初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
其中,对应二值化的真实标签图像是包含局部生成区域的人脸图像进行过二值化处理后的图像,二值化的真实标签图像的黑色部分对应图像的真实区域,白色部分对应图像的局部生成区域(即拼接或者复制粘贴篡改区域)。进行训练前,设置学习率α,初始的学习率设为0.001;设置初始的batch size(批大小)为24,则每使用24个训练样本就调整一次权值;并设置对应的迭代周期,学习率、batch size和迭代周期,可以根据训练经验进行设置。
在一个实施例中,初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络依次包括:第一卷积组、第二卷积组、第三卷积组、第四卷积组、第五卷积组、第一反卷积组、第二反卷积组、第三反卷积组和第四反卷积组;第一卷积组、第二卷积组、第三卷积组和第四卷积组的输出,分别与第一反卷积组、第二反卷积组、第三反卷积组、第四反卷积组的输入融合,形成跳跃结构;第三卷积组、第四卷积组、第五卷积组、第一反卷积组和第二反卷积组的组与组之间,设置了去噪操作模块。
其中,第一卷积组、第二卷积组、第三卷积组、第四卷积组、第五卷积组、第一反卷积组、第二反卷积组、第三反卷积组和第四反卷积组,依次对应如图2所示的Conv1、Conv2、Conv3、Conv4、Conv5、DeConv1、DeConv2、DeConv3和DeConv4,第三卷积组、第四卷积组、第五卷积组、第一反卷积组和第二反卷积组的组与组之间,设置了进行去噪操作的去噪操作模块。通过去噪操作模块与对应的环状残差块的有效组合,提高了局部生成人脸定位网络的整体性能。此外,在反卷积的过程中,设置了跳跃结构,将四个卷积组输出的特征图与四个反卷积组输入的特征图融合,然后依次进行放大,定位出局部生成区域,得到网络的最终输出。
在一个实施例中,利用训练图像集对局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络的步骤,包括:将训练图像集中包含局部生成区域的人脸图像,输入至局部生成人脸定位网络进行局部生成区域定位预测,输出第二定位预测结果;对第二定位预测结果与训练图像集中的真实标签图像之间的误差进行计算,获得第一误差值;根据第一误差值判断局部生成人脸定位网络是否满足精度要求;当局部生成人脸定位网络不满足精度要求时,调整局部生成人脸定位网络的参数,返回根据预设的训练过程,将训练图像集中包含局部生成区域的人脸图像,输入至局部生成人脸定位网络进行局部生成区域定位预测,输出第二定位预测结果的步骤;当局部生成人脸定位网络满足精度要求时,获得初步训练好的局部生成人脸图像定位网络。
其中,第二定位预测结果是标识了训练图像集中包含局部生成区域的人脸图像中的拼接或者复制粘贴篡改区域的定位预测结果。当第一误差值小于第一预设阈值a时,局部生成人脸定位网络是满足精度要求,当第一误差值大于等于第一预设阈值a时,局部生成人脸定位网络是不满足精度要求。
在一个实施例中,利用测试图像集对初步训练好的局部生成人脸图像定位网络中进行测试,当初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络的步骤,包括:将测试图像集中包含局部生成区域的人脸图像,输入至初步训练好的局部生成人脸定位网络进行局部生成区域定位预测,输出第三定位预测结果;对第三定位预测结果与测试图像集中的真实标签图像之间的误差进行计算,获得第二误差值;根据第二误差值判断初步训练好的局部生成人脸定位网络是否满足预设要求;当初步训练好的局部生成人脸定位网络不满足预设要求时,返回根据预设的训练过程,利用训练图像集对局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络的步骤;当初步训练好的局部生成人脸定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
其中,第三定位预测结果是标识了测试图像集中包含局部生成区域的人脸图像中的拼接或者复制粘贴篡改区域的定位预测结果。当第二误差值小于第二预设阈值时,局部生成人脸定位网络是满足预设要求,当第二误差值大于等于第二预设阈值时,局部生成人脸定位网络是不满足预设要求。第一预设阈值和第二预设阈值可以相同,也可以不同。
在一个实施例中,局部生成人脸定位网络的执行过程包括:
输入待预测图像,使用第一卷积组中的环状残差块对输入的待预测图像进行卷积,得到第一特征图;第一特征图经过池化窗口为2×2的最大池化层池化,得到第二特征图;将第二特征图输入第二卷积组中的环状残差块进行卷积,得到第三特征图;第三特征图经过池化窗口为2×2的最大池化层池化,得到第四特征图;将第四特征图输入第三卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块对进行噪声操作,得到第五特征图;第五特征图经过池化窗口为2×2的最大池化层池化,得到第六特征图;将第六特征图输入第四卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第七特征图;第七特征图经过池化窗口为2×2的最大池化层池化,得到第八特征图;将第八特征图输入第五卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第八特征图。
对第八特征图进行反卷积后,并与第六特征图进行特征融合,获得第九特征图;第九特征图通过第一反卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第十特征图;对第十特征图进行反卷积后,与第四特征图进行特征图融合,得到第十一特征图;第十一特征图通过第二反卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作得到第十二特征图;对第十二特征图进行反卷积后,与第二特征图进行特征图融合,得到第十三特征图;第十三特征图通过第三反卷积组中的环状残差块进行卷积,得到第十四特征图;对第十四特征图进行反卷积后,与待预测图像进行特征图融合,得到第十五特征图;第十五特征图通过第四反卷积组中的环状残差块进行卷积后,输出待预测图像的每个像素点的局部生成人脸定位预测结果。
其中,第十五特征图与输入的待预测图像的尺寸相同。训练局部生成人脸定位网络时,局部生成人脸定位网络的执行过程中,输入的待预测图像为训练图像集中包含局部生成区域的人脸图像;测试局部生成人脸定位网络时,局部生成人脸定位网络的执行过程中,输入的待预测图像为测试图像集中包含局部生成区域的人脸图像;使用局部生成人脸定位网络时,局部生成人脸定位网络的执行过程中,输入的待预测图像为待定位人脸图像。
在一个实施例中,环状残差块包括残差传播块和反馈块;残差传播块表示为:
vf=f(z,{wi})+ws*zp
其中,zp为所建立残差传播块的输入,vf为所建立残差传播块的输出,f(z,{wi})为卷积操作,wi为残差传播块的第i层卷积的权重,表示学习的残差图,i∈1、2……n,n为残差传播块中卷积层的总层数,ws为一个线性变换,使前后两项维度相匹配;
在反馈块中,添加了注意力机制来学习不同特征通道之间的交互作用,反馈块表示为:
zb=(s(G(v))+1)*zq
其中,zq为所建立反馈块的输入,v为残差传播块的输出,zb为增强后的输入,G为一个线性映射,用于网络维度的统一,s为门控制激活函数。
在一个实施例中,噪声操作模块包括具有去噪操作功能的Non-local均值,对所有空间位置的特征进行加权平均,得到去噪后的特征图,Non-local均值的公式表示为:
Figure BDA0003133172920000141
其中,x为待去噪操作的特征图,x={x1,x2,…,xm},Γ={1,2,...,m},m为待去噪操作的特征图的像素位总数,f(xk,xj)为特征加权函数,C(x)为归一化函数,xk为待去噪操作的特征图的第k个像素位对应的值,xj为待去噪操作的特征图的第j个像素位对应的值,yk为待去噪操作的特征图的第k个像素位对应的值进行去噪操作后的值;
f(xk,xj)为高斯函数:
Figure BDA0003133172920000142
其中,θ(xk)是xk乘以权值后的嵌入版本,φ(xj)是xj乘以权值后的嵌入版本,通过1×1卷积获取,d是通道数,e为自然对数的底数,是一个无限不循环小数。
上述局部生成人脸定位方法,获取待定位人脸图像;将待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对待定位人脸图像的局部生成区域进行定位分析,输出待定位人脸图像的第一定位预测结果;局部生成人脸图像定位网络的训练方式,包括:获取局部生成人脸图像样本集,局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;将局部生成人脸图像集划分为训练图像集和测试图像集;初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化局部生成人脸定位网络中的参数;利用训练图像集对局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;利用测试图像集对初步训练好的局部生成人脸图像定位网络中进行测试,当初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络,通过融合了RRU-Net和去噪操作模块的局部生成人脸图像定位网络进行局部生成区域定位,可以提高定位的精度,在定位局部生成人脸时,有攻击的情况仍不具有很好的鲁棒性。
为验证本申请的效果,首先在创建的局部生成人脸数据集上训练本申请的局部生成人脸图像定位网络,并直接测试算法的定位性能,然后在测试集上进行交叉验证,实验结果如表1和表2。其中,FCN[Haodong Li and Jiwu Huang.Localization of deepinpainting using high-pass fully convolutional network[C].In Proceedings ofthe IEEE/CVF International Conference on Computer Vision,pages 8301–8310,2019]模型是首次提出关于深度修复取证方向的,然而Li等人只考虑了普通图像的目标抹除,而且局部生成区域较大,同时,他们实验使用的修复图像中肉眼可见明显的局部区域轮廓。Mask-RNN模型[Kaiming He,Georgia Gkioxari,Piotr Dollár,and RossGirshick.Mask r-cnn[C].In Proceedings of the IEEE International Conference onComputer Vision,pages 2961–2969,2017],Mask-scoring模型[[68],Zhaojin Huang,Lichao Huang,Yongchao Gong,Chang Huang,and Xinggang Wang.Mask scoring r-cnn[C].In Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition(CVPR),pages 6409–6418,2019]是图像目标实例分割的网络框架,Yang等人[Chao Yang,Huizhou Li,Fangting Lin,Bin Jiang,and Hao Zhao.Constrained r-cnn:Ageneral image manipulation detection model[C].In Processings of the 2020IEEEInternational Conference on Multimedia and Expo(ICME),pages 1–6.IEEE,2020]将其引入图像篡改定位领域,用来定位图像中的拼接或者复制粘贴篡改区域;RRU-Net模型[Xiuli Bi,Yang Wei,Bin Xiao,and Weisheng Li.RRU-Net:The ringed residual u-netfor image splicing forgery detection[C].In Proceedings of the IEEE/CVFConference on Computer Vision and Pattern Recognition Workshops(CVPR-W),pages30–39,2019]为图像拼接篡改定位设计的,该模型利用残差反馈机制取得了良好的效果。表1为在没有攻击情况下的实验对比,表2为在有攻击情况下的实验对比。相比其他方法,本申请所提的局部生成人脸定位方法定位精度更高。此外,图3给出了本申请的一些定位效果比对图,包括如图3(a)口罩去除,如图3(b)眼睛去除以及如图3(c)其他去除的定位结果图,其中第一列为原始图,第二列为去除后的图,第3列为图像局部生成后的图,第四列为定位效果图。
表1
Figure BDA0003133172920000161
表2
Figure BDA0003133172920000162
Figure BDA0003133172920000171
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,提供了一种局部生成人脸定位装置,包括:图像获取模块和图像获取模块。
图像获取模块,用于获取待定位人脸图像。
定位预测模块,用于将待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对待定位人脸图像的局部生成区域进行定位分析,输出待定位人脸图像的第一定位预测结果。
局部生成人脸图像定位网络的训练方式,包括:获取局部生成人脸图像样本集,局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;将局部生成人脸图像集划分为训练图像集和测试图像集;初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化局部生成人脸定位网络中的参数;利用训练图像集对局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;利用测试图像集对初步训练好的局部生成人脸图像定位网络中进行测试,当初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
关于局部生成人脸定位装置的具体限定可以参见上文中对于局部生成人脸定位方法的限定,在此不再赘述。上述局部生成人脸定位装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述的局部生成人脸定位方法的步骤。
在一个实施例中,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述的局部生成人脸定位方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种局部生成人脸定位方法,其特征在于,所述方法包括:
获取待定位人脸图像;
将所述待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对所述待定位人脸图像的局部生成区域进行定位分析,输出所述待定位人脸图像的第一定位预测结果;
所述局部生成人脸图像定位网络的训练方式,包括:
获取局部生成人脸图像样本集,所述局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;
将所述局部生成人脸图像集划分为训练图像集和测试图像集;
初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化所述局部生成人脸定位网络中的参数;
利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;
利用所述测试图像集对所述初步训练好的局部生成人脸图像定位网络中进行测试,当所述初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
2.根据权利要求1所述的方法,其特征在于,所述利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络的步骤,包括:
将所述训练图像集中包含局部生成区域的人脸图像,输入至所述局部生成人脸定位网络进行局部生成区域定位预测,输出第二定位预测结果;
对所述第二定位预测结果与所述训练图像集中的真实标签图像之间的误差进行计算,获得第一误差值;
根据所述第一误差值判断所述局部生成人脸定位网络是否满足精度要求;
当所述局部生成人脸定位网络不满足精度要求时,调整所述局部生成人脸定位网络的参数,返回根据预设的训练过程,将所述训练图像集中包含局部生成区域的人脸图像,输入至所述局部生成人脸定位网络进行局部生成区域定位预测,输出第二定位预测结果的步骤;
当所述局部生成人脸定位网络满足精度要求时,获得初步训练好的局部生成人脸图像定位网络。
3.根据权利要求1所述的方法,其特征在于,所述利用所述测试图像集对所述初步训练好的局部生成人脸图像定位网络中进行测试,当所述初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络的步骤,包括:
将所述测试图像集中包含局部生成区域的人脸图像,输入至所述初步训练好的局部生成人脸定位网络进行局部生成区域定位预测,输出第三定位预测结果;
对所述第三定位预测结果与所述测试图像集中的真实标签图像之间的误差进行计算,获得第二误差值;
根据所述第二误差值判断所述初步训练好的局部生成人脸定位网络是否满足预设要求;
当所述初步训练好的局部生成人脸定位网络不满足预设要求时,返回根据预设的训练过程,利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络的步骤;
当所述初步训练好的局部生成人脸定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
4.根据权利要求1所述的方法,其特征在于,所述初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络依次包括:第一卷积组、第二卷积组、第三卷积组、第四卷积组、第五卷积组、第一反卷积组、第二反卷积组、第三反卷积组和第四反卷积组;
所述第一卷积组、所述第二卷积组、所述第三卷积组和所述第四卷积组的输出,分别与所述第一反卷积组、所述第二反卷积组、所述第三反卷积组、所述第四反卷积组的输入融合,形成跳跃结构;
所述第三卷积组、所述第四卷积组、所述第五卷积组、所述第一反卷积组和所述第二反卷积组的组与组之间,设置了去噪操作模块。
5.根据权利要求4所述的方法,其特征在于,所述局部生成人脸定位网络的执行过程包括:
输入待预测图像,使用所述第一卷积组中的环状残差块对输入的所述待预测图像进行卷积,得到第一特征图;
所述第一特征图经过池化窗口为2×2的最大池化层池化,得到第二特征图;
将所述第二特征图输入所述第二卷积组中的环状残差块进行卷积,得到第三特征图;
所述第三特征图经过池化窗口为2×2的最大池化层池化,得到第四特征图;
将所述第四特征图输入所述第三卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块对进行噪声操作,得到第五特征图;
所述第五特征图经过池化窗口为2×2的最大池化层池化,得到第六特征图;
将所述第六特征图输入所述第四卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第七特征图;
所述第七特征图经过池化窗口为2×2的最大池化层池化,得到第八特征图;
将所述第八特征图输入所述第五卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第八特征图;
对所述第八特征图进行反卷积后,并与所述第六特征图进行特征融合,获得第九特征图;
所述第九特征图通过所述第一反卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作,得到第十特征图;
对所述第十特征图进行反卷积后,与所述第四特征图进行特征图融合,得到第十一特征图;
所述第十一特征图通过所述第二反卷积组中的环状残差块进行卷积后,输出至对应的噪声操作模块进行噪声操作得到第十二特征图;
对所述第十二特征图进行反卷积后,与所述第二特征图进行特征图融合,得到第十三特征图;
所述第十三特征图通过所述第三反卷积组中的环状残差块进行卷积,得到第十四特征图;
对所述第十四特征图进行反卷积后,与所述待预测图像进行特征图融合,得到第十五特征图;
所述第十五特征图通过所述第四反卷积组中的环状残差块进行卷积后,输出所述待预测图像的每个像素点的局部生成人脸定位预测结果。
6.根据权利要求5所述的方法,其特征在于,所述环状残差块包括残差传播块和反馈块;
所述残差传播块表示为:
vf=f(z,{wi})+ws*zp
其中,zp为所建立残差传播块的输入,vf为所建立残差传播块的输出,f(z,{wi})为卷积操作,wi为所述残差传播块的第i层卷积的权重,表示学习的残差图,i∈1、2……n,n为所述残差传播块中卷积层的总层数,ws为一个线性变换,使前后两项维度相匹配;
在所述反馈块中,添加了注意力机制来学习不同特征通道之间的交互作用,所述反馈块表示为:
zb=(s(G(v))+1)*zq
其中,zq为所建立反馈块的输入,v为残差传播块的输出,zb为增强后的输入,G为一个线性映射,用于网络维度的统一,s为门控制激活函数。
7.根据权利要求5所述的方法,其特征在于,所述噪声操作模块包括具有去噪操作功能的Non-local均值,对所有空间位置的特征进行加权平均,得到去噪后的特征图,所述Non-local均值的公式表示为:
Figure FDA0003133172910000051
其中,x为待去噪操作的特征图,x={x1,x2,…,xm},Γ={1,2,...,m},m为待去噪操作的特征图的像素位总数,f(xk,xj)为特征加权函数,C(x)为归一化函数,xk为待去噪操作的特征图的第k个像素位对应的值,xj为待去噪操作的特征图的第j个像素位对应的值,yk为待去噪操作的特征图的第k个像素位对应的值进行去噪操作后的值;
f(xk,xj)为高斯函数:
Figure FDA0003133172910000052
其中,θ(xk)是xk乘以权值后的嵌入版本,φ(xj)是xj乘以权值后的嵌入版本,通过1×1卷积获取,d是通道数,e为自然对数的底数,是一个无限不循环小数。
8.一种局部生成人脸定位装置,其特征在于,所述装置包括:
图像获取模块,用于获取待定位人脸图像;
定位预测模块,用于将所述待定位人脸图像输入至训练好的局部生成人脸图像定位网络中,对所述待定位人脸图像的局部生成区域进行定位分析,输出所述待定位人脸图像的第一定位预测结果;
所述局部生成人脸图像定位网络的训练方式,包括:
获取局部生成人脸图像样本集,所述局部生成人脸图像样本集中的局部生成人脸图像样本包括:包含局部生成区域的人脸图像和对应的二值化的真实标签图像;
将所述局部生成人脸图像集划分为训练图像集和测试图像集;
初始化融合了RRU-Net和去噪操作模块的局部生成人脸定位网络,并按照正态分布随机初始化所述局部生成人脸定位网络中的参数;
利用所述训练图像集对所述局部生成人脸定位网络进行训练操作,获得初步训练好的局部生成人脸图像定位网络;
利用所述测试图像集对所述初步训练好的局部生成人脸图像定位网络中进行测试,当所述初步训练好的局部生成人脸图像定位网络满足预设要求时,获得训练好的局部生成人脸图像定位网络。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202110709918.3A 2021-06-25 2021-06-25 局部生成人脸定位方法、装置、计算机设备和存储介质 Active CN113609900B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110709918.3A CN113609900B (zh) 2021-06-25 2021-06-25 局部生成人脸定位方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110709918.3A CN113609900B (zh) 2021-06-25 2021-06-25 局部生成人脸定位方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN113609900A true CN113609900A (zh) 2021-11-05
CN113609900B CN113609900B (zh) 2023-09-12

Family

ID=78336819

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110709918.3A Active CN113609900B (zh) 2021-06-25 2021-06-25 局部生成人脸定位方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN113609900B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114266946A (zh) * 2021-12-31 2022-04-01 智慧眼科技股份有限公司 遮挡条件下的特征识别方法、装置、计算机设备及介质
CN117218707A (zh) * 2023-10-07 2023-12-12 南京信息工程大学 一种基于积极扰动的Deepfake人脸检测方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569769A (zh) * 2019-08-29 2019-12-13 浙江大搜车软件技术有限公司 图像识别方法、装置、计算机设备和存储介质
CN110674824A (zh) * 2019-09-26 2020-01-10 五邑大学 基于R2U-Net的手指静脉分割方法、装置和存储介质
WO2020037898A1 (zh) * 2018-08-23 2020-02-27 平安科技(深圳)有限公司 人脸特征点检测方法、装置、计算机设备及存储介质
CN111523497A (zh) * 2020-04-27 2020-08-11 深圳市捷顺科技实业股份有限公司 一种人脸纠正方法、装置和电子设备
WO2020192568A1 (zh) * 2019-03-22 2020-10-01 腾讯科技(深圳)有限公司 人脸图像生成方法、装置、设备及存储介质
CN111784560A (zh) * 2019-04-04 2020-10-16 复旦大学 基于级联残差生成对抗网络的sar和光学图像双向翻译方法
US20200372648A1 (en) * 2018-05-17 2020-11-26 Tencent Technology (Shenzhen) Company Limited Image processing method and device, computer apparatus, and storage medium
CN112052728A (zh) * 2020-07-30 2020-12-08 广州市标准化研究院 一种便捷式人像识别防欺骗装置及其控制方法
CN112115860A (zh) * 2020-09-18 2020-12-22 深圳市威富视界有限公司 人脸关键点定位方法、装置、计算机设备和存储介质
CN112116565A (zh) * 2020-09-03 2020-12-22 深圳大学 篡改翻拍图像的对抗样本生成方法、设备及存储介质
CN112270654A (zh) * 2020-11-02 2021-01-26 浙江理工大学 基于多通道gan的图像去噪方法
CN112543288A (zh) * 2020-12-11 2021-03-23 周洁 一种用于保护壁画图像的采集方法及识别系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200372648A1 (en) * 2018-05-17 2020-11-26 Tencent Technology (Shenzhen) Company Limited Image processing method and device, computer apparatus, and storage medium
WO2020037898A1 (zh) * 2018-08-23 2020-02-27 平安科技(深圳)有限公司 人脸特征点检测方法、装置、计算机设备及存储介质
WO2020192568A1 (zh) * 2019-03-22 2020-10-01 腾讯科技(深圳)有限公司 人脸图像生成方法、装置、设备及存储介质
CN111784560A (zh) * 2019-04-04 2020-10-16 复旦大学 基于级联残差生成对抗网络的sar和光学图像双向翻译方法
CN110569769A (zh) * 2019-08-29 2019-12-13 浙江大搜车软件技术有限公司 图像识别方法、装置、计算机设备和存储介质
CN110674824A (zh) * 2019-09-26 2020-01-10 五邑大学 基于R2U-Net的手指静脉分割方法、装置和存储介质
CN111523497A (zh) * 2020-04-27 2020-08-11 深圳市捷顺科技实业股份有限公司 一种人脸纠正方法、装置和电子设备
CN112052728A (zh) * 2020-07-30 2020-12-08 广州市标准化研究院 一种便捷式人像识别防欺骗装置及其控制方法
CN112116565A (zh) * 2020-09-03 2020-12-22 深圳大学 篡改翻拍图像的对抗样本生成方法、设备及存储介质
CN112115860A (zh) * 2020-09-18 2020-12-22 深圳市威富视界有限公司 人脸关键点定位方法、装置、计算机设备和存储介质
CN112270654A (zh) * 2020-11-02 2021-01-26 浙江理工大学 基于多通道gan的图像去噪方法
CN112543288A (zh) * 2020-12-11 2021-03-23 周洁 一种用于保护壁画图像的采集方法及识别系统

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ARCHANA V MIRE 等: "Automated approach for splicing detection using first digit probability distribution features", EURASIP JOURNAL ON IMAGE AND VIDEO PROCESSING, no. 1, pages 1 - 11 *
BEIJING CHEN 等: "Locally GAN-generated face detection based on an improved Xception", INFORMATION SCIENCES, vol. 572, pages 16 - 28, XP086726950, DOI: 10.1016/j.ins.2021.05.006 *
LINGZHI LI等: "FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping", COMPUTER VISION AND PATTERN RECOGNITION, pages 1 - 11 *
NGUYEN HH 等: "Multi-task learning For detecting and segmenting manipulated Iacial images and videos", COMPUTER VISION AND PATTERN RECOGNITION, pages 1 - 8 *
XIULI BI 等: "RRU-Net: The Ringed Residual U-Net for Image Splicing Forgery Detection", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW, pages 30 - 39 *
陈北京 等: "基于彩色图像四元数表示的彩色人脸识别", 自动化学报, vol. 38, no. 11, pages 1815 - 1823 *
黄怀波: "基于生成模型的人脸图像合成与分析", 中国博士学位论文全文数据库 (信息科技辑), no. 2020, pages 138 - 68 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114266946A (zh) * 2021-12-31 2022-04-01 智慧眼科技股份有限公司 遮挡条件下的特征识别方法、装置、计算机设备及介质
CN117218707A (zh) * 2023-10-07 2023-12-12 南京信息工程大学 一种基于积极扰动的Deepfake人脸检测方法
CN117218707B (zh) * 2023-10-07 2024-04-16 南京信息工程大学 一种基于积极扰动的Deepfake人脸检测方法

Also Published As

Publication number Publication date
CN113609900B (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
CN111444881B (zh) 伪造人脸视频检测方法和装置
CN111080628B (zh) 图像篡改检测方法、装置、计算机设备和存储介质
Goebel et al. Detection, attribution and localization of gan generated images
CN110610144B (zh) 隐私保护的表情识别方法及系统
CN113609900A (zh) 局部生成人脸定位方法、装置、计算机设备和存储介质
CN110046577B (zh) 行人属性预测方法、装置、计算机设备和存储介质
Li et al. Learning disentangling and fusing networks for face completion under structured occlusions
CN112308043A (zh) 图像处理方法、图像处理装置和计算机可读存储介质
Barni et al. Iris deidentification with high visual realism for privacy protection on websites and social networks
Hassanpour et al. E2F-GAN: Eyes-to-face inpainting via edge-aware coarse-to-fine GANs
CN113704372B (zh) 基于深度对抗网络的遥感影像转换地图迁移方法和装置
CN115424314A (zh) 一种可识别的人脸匿名化处理方法及系统
CN117558011B (zh) 基于自一致性矩阵和多尺度损失的图像文本篡改检测方法
CN115223012A (zh) 一种去遮罩人脸恢复的方法、装置、计算机设备和介质
CN117557689B (zh) 图像处理方法、装置、电子设备及存储介质
CN111046755A (zh) 字符识别方法、装置、计算机设备和计算机可读存储介质
CN117876793A (zh) 一种高光谱影像树种分类方法及装置
Zhou et al. Impacts of data anonymization on semantic segmentation
CN116189063B (zh) 一种用于智能视频监控的关键帧优化方法及装置
Singh et al. Image forgery detection: comprehensive review of digital forensics approaches
Wyzykowski et al. A Universal Latent Fingerprint Enhancer Using Transformers
CN112836554A (zh) 图像校验模型的构建方法、图像校验方法和装置
CN117994173B (zh) 修复网络训练方法、图像处理方法、装置及电子设备
Park et al. Verifiable Facial De-identification in Video Surveillance
Zhang et al. Towards rich-detail 3D face reconstruction and dense alignment via multi-scale detail augmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant