CN115147904A - 人脸识别方法、装置、处理设备及存储介质 - Google Patents

人脸识别方法、装置、处理设备及存储介质 Download PDF

Info

Publication number
CN115147904A
CN115147904A CN202210836222.1A CN202210836222A CN115147904A CN 115147904 A CN115147904 A CN 115147904A CN 202210836222 A CN202210836222 A CN 202210836222A CN 115147904 A CN115147904 A CN 115147904A
Authority
CN
China
Prior art keywords
face
image
target
network
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210836222.1A
Other languages
English (en)
Inventor
张雷
杨思佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Civil Engineering and Architecture
Original Assignee
Beijing University of Civil Engineering and Architecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Civil Engineering and Architecture filed Critical Beijing University of Civil Engineering and Architecture
Priority to CN202210836222.1A priority Critical patent/CN115147904A/zh
Publication of CN115147904A publication Critical patent/CN115147904A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本申请的实施例提供了一种人脸识别方法、装置、处理设备及存储介质,涉及计算机视觉技术领域。通过获取初始采集图像,初始采集图像包括:目标人脸的人脸图像信息;对初始采集图像进行定位处理,得到目标人脸的特征点信息;根据目标人脸的特征点信息,确定目标人脸的偏航角;若目标人脸的偏航角大于预设角度阈值,则确定目标人脸的角度为侧脸;若目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成初始采集图像对应的正面人脸图像;根据正面人脸图像以及人脸图像库,确定目标人脸的身份信息,人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。弱化了人脸姿势的变化、形变对身份识别的影响,提高了人脸识别的效率和准确率。

Description

人脸识别方法、装置、处理设备及存储介质
技术领域
本申请涉及计算机视觉技术领域,具体而言,涉及一种人脸识别方法、装置、处理设备及存储介质。
背景技术
人脸识别技术属于生物特征识别技术,是基于人的面部特征信息进行身份识别的方法,广泛应用于出入管理、门禁考勤、智能报警等场景。
现有的人脸识别技术,一般是将相机拍摄的采集图像进行检测、对齐等处理,以确定人脸区域,然后,将该人脸区域的特征向量提取出来,与目标库中已存储的图像与该采集图像进行匹配,识别其是否为同一身份信息。
但是,由于现有的目标库普遍是基于人脸的正面样本建立的,而人脸在运动过程中可能会发生不同程度的变形,使得采集图像可能仅包含侧面人脸信息,这导致了人脸识别的准确度降低。
发明内容
本申请的目的包括,例如,提供了一种人脸识别方法、装置、处理设备及存储介质,其能够根据目标人脸的侧脸重建正面人脸图像,从而进一步确定目标人脸的身份信息,弱化了人脸姿势的变化、人脸形变对人脸身份识别的影响,提高了人脸识别的效率和准确率。
本申请的实施例可以这样实现:
第一方面,本申请实施例提供一种人脸识别方法,所述方法包括:
获取初始采集图像,所述初始采集图像包括:目标人脸的人脸图像信息;
对所述初始采集图像进行定位处理,得到所述目标人脸的特征点信息;
根据所述目标人脸的特征点信息,确定所述目标人脸的偏航角;
若所述目标人脸的偏航角大于预设角度阈值,则确定所述目标人脸的角度为侧脸;
若所述目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成所述初始采集图像对应的正面人脸图像;
根据所述正面人脸图像以及人脸图像库,确定所述目标人脸的身份信息,所述人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。
在一种可选的实施方式中,所述对抗网络包括:目标生成网络,所述目标生成网络中包括:编码器和解码器;
所述基于预先训练得到的生成对抗网络生成所述初始采集图像对应的正面人脸图像,包括:
对所述初始采集图像进行裁剪,得到人脸裁剪图像;
将所述人脸裁剪图像输入所述编码器中,得到编码向量;
生成随机噪声信息以及姿势代码信息;
将所述编码向量、随机噪声信息以及姿势代码信息输入所述解码器中,由所述解码器根据所述随机噪声信息以及所述姿势代码信息对所述编码向量进行解码处理,得到所述正面人脸图像,其中,所述随机噪声信息用于表征人脸外观的变化信息,所述姿势代码信息用于突出人脸的面部身份信息以及弱化面部姿态信息。
在一种可选的实施方式中,所述方法还包括:
构建生成对抗初始网络,所述生成对抗初始网络包括:初始判别网络、初始生成网络;
获取多张训练图像,所述多张训练图像包括:多个训练人脸的图像信息;
利用所述多张训练图像对所述生成对抗初始网络进行训练,并根据训练结果对所述初始判别网络、所述初始生成网络进行修正,得到所述生成对抗网络。
在一种可选的实施方式中,所述利用所述多张训练图像对所述生成对抗初始网络进行训练,并根据训练结果对所述初始判别网络、所述初始生成网络进行修正,得到所述生成对抗网络,包括:
生成随机噪声信息以及姿势代码信息;
将第一训练图像、姿势代码信息、随机噪声信息输入至所述初始生成网络中,得到第一生成图像;
将所述第一训练图像、第一生成图像输入至所述初始判别网络,得到所述第一生成图像的图像评价结果;
根据所述图像评价结果,对所述初始生成网络以及所述初始判别网络进行修正,得到新的生成对抗初始网络;
重复上述过程,直至所述图像评价结果达到预设阈值,将所述新的生成对抗初始网络作为所述生成对抗网络。
在一种可选的实施方式中,所述根据所述正面人脸图像以及人脸图像库,确定所述目标人脸的身份信息,包括:
对所述正面人脸图像进行特征提取,得到所述目标人脸的目标特征;
将所述目标特征与所述人脸图像库中各人脸图像的特征进行比对,根据比对结果确定所述目标人脸的身份信息。
在一种可选的实施方式中,所述将所述目标特征与所述人脸图像库中各人脸图像的特征进行比对,根据比对结果确定所述目标人脸的身份信息,包括:
分别计算所述目标特征与所述各人脸图像的特征的相似度,得到多个相似度评分;
将所述多个相似度评分分别与预设评分阈值比较,将大于所述预设评分阈值且值最大的相似度评分对应的人脸图像作为目标比对图像;
将所述目标比对图像的身份信息作为所述目标人脸的身份信息。
在一种可选的实施方式中,对所述初始采集图像进行定位处理,得到所述目标人脸的特征点信息,包括:
将所述初始采集图像输入至预先训练得到的卷积神经网络中,得到所述目标人脸的多个三维特征点;
根据所述多个三维特征点,生成所述目标人脸的特征点信息。
第二方面,本申请实施例提供一种人脸识别装置,包括:
获取模块,用于获取初始采集图像,所述初始采集图像包括:目标人脸的人脸图像信息;
定位模块,用于对所述初始采集图像进行定位处理,得到所述目标人脸的特征点信息;
处理模块,根据所述目标人脸的特征点信息,确定所述目标人脸的偏航角;若所述目标人脸的偏航角大于预设角度阈值,则确定所述目标人脸的角度为侧脸;若所述目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成所述初始采集图像对应的正面人脸图像;
确定模块,用于根据所述正面人脸图像以及人脸图像库,确定所述目标人脸的身份信息,所述人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。
所述处理模块具体还用于:所述对抗网络包括:目标生成网络,所述目标生成网络中包括:编码器和解码器;对所述初始采集图像进行裁剪,得到人脸裁剪图像;将所述人脸裁剪图像输入所述编码器中,得到编码向量;生成随机噪声信息以及姿势代码信息;将所述编码向量、随机噪声信息以及姿势代码信息输入所述解码器中,由所述解码器根据所述随机噪声信息以及所述姿势代码信息对所述编码向量进行解码处理,得到所述正面人脸图像,其中,所述随机噪声信息用于表征人脸外观的变化信息,所述姿势代码信息用于突出人脸的面部身份信息以及弱化面部姿态信息。
训练模块,用于构建生成对抗初始网络,所述生成对抗初始网络包括:初始判别网络、初始生成网络;获取多张训练图像,所述多张训练图像包括:多个训练人脸的图像信息;利用所述多张训练图像对所述生成对抗初始网络进行训练,并根据训练结果对所述初始判别网络、所述初始生成网络进行修正,得到所述生成对抗网络。
所述训练模块具体还用于,生成随机噪声信息以及姿势代码信息;将第一训练图像、姿势代码信息、随机噪声信息输入至所述初始生成网络中,得到第一生成图像;将所述第一训练图像、第一生成图像输入至所述初始判别网络,得到所述第一生成图像的图像评价结果;根据所述图像评价结果,对所述初始生成网络以及所述初始判别网络进行修正,得到新的生成对抗初始网络;重复上述过程,直至所述图像评价结果达到预设阈值,将所述新的生成对抗初始网络作为所述生成对抗网络。
所述确定模块具体还用于,对所述正面人脸图像进行特征提取,得到所述目标人脸的目标特征;将所述目标特征与所述人脸图像库中各人脸图像的特征进行比对,根据比对结果确定所述目标人脸的身份信息。
所述确定模块具体还用于,分别计算所述目标特征与所述各人脸图像的特征的相似度,得到多个相似度评分;将所述多个相似度评分分别与预设评分阈值比较,将大于所述预设评分阈值且值最大的相似度评分对应的人脸图像作为目标比对图像;将所述目标比对图像的身份信息作为所述目标人脸的身份信息。
所述定位模块具体还用于,将所述初始采集图像输入至预先训练得到的卷积神经网络中,得到所述目标人脸的多个三维特征点;根据所述多个三维特征点,生成所述目标人脸的特征点信息。
第三方面,本申请实施例提供一种处理设备,所述处理设备包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当所述处理设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如第一方面中任一项所述的人脸识别方法的步骤。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现如第一方面中任一项所述的人脸识别方法的步骤。
本申请实施例的有益效果包括:
采用本申请提供的人脸识别方法、装置、处理设备及存储介质,能够基于生成对抗网络将目标人脸的角度为侧脸的图像,生成对应的正面人脸图像,再进一步据此确定目标人脸的身份信息,这样,通过侧脸转换生成的步骤,补全了面部的相关特征,避免了因为侧脸图像在面部特征上的缺失导致人脸的身份无法被识别,提升了身份识别的准确率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为现有的生成对抗网络的结构示意图;
图2为本申请实施例提供的人脸识别方法的流程示意图;
图3为本申请实施例提供的人脸识别方法的步骤流程示意图;
图4为本申请实施例提供的人脸识别方法的生成特征点信息的步骤流程示意图;
图5为本申请实施例提供的人脸识别方法的三维人脸特征点示意图;
图6为本申请实施例提供的人脸识别方法的生成对抗网络的结构示意图;
图7为本申请实施例提供的人脸识别方法的又一步骤流程示意图;
图8为本申请实施例提供的人脸识别方法的又一步骤流程示意图;
图9为本申请实施例提供的人脸识别方法的又一步骤流程示意图;
图10为本申请实施例提供的人脸识别方法的又一步骤流程示意图;
图11为本申请实施例提供的人脸识别方法的又一步骤流程示意图;
图12为本申请实施例提供的人脸识别装置的结构示意图;
图13为本申请实施例提供的处理设备的结构示意图。
图标:101-生成模型;102-判别模型;401-初始采集图像;402-人脸裁剪图像;403-编码器;404-随机噪声信息;405-编码向量;406-姿势代码信息;407-解码器;408-正面人脸图像;409-判别器;100-人脸识别装置;1001-获取模块;1002-定位模块;1003-处理模块;1004-确定模块;1005-训练模块;2001-处理器;2002-存储器。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
此外,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在不冲突的情况下,本申请的实施例中的特征可以相互结合。
人脸识别技术,是基于人的脸部特征信息进行身份识别的一种生物识别技术。基于人脸识别的身份识别算法,一般包括人脸图像检测、人脸图像特征提取、以及匹配与识别等步骤。
首先,将采集的人脸图像,一般是包含正面的人脸的图像输入后,算法会检测图像中是否存在人脸,若存在,则标注出人脸的位置、大小等人脸信息。
然后,对带有人脸的图像进行图像特征提取,针对人脸图像中的像素统计特征、人脸图像的代数特征或者视觉特征中的一项或多项,对人脸进行特征建模,提取出人脸的特征数据。
最后,将提取出的人脸的特征数据与数据库中存储的特征模板进行搜索匹配,根据相似程度确认采集的人脸的身份信息。
在上述过程中,数据库中存储的特征模板普遍是基于人脸的正面样本建立的,在采集设备捕捉、采集图像时,人脸会随着姿态的变化而发生不同程度的变形,使得采集到的图像可能仅包含转动角度较大的大姿态侧脸图像,这可能导致提取出的人脸的特征数据部分缺失,影响了人脸识别的准确率。
基于此,申请人经研究,提出了一种人脸识别方法、装置、处理设备及存储介质,其能够将大姿态侧脸图像重建为正面人脸图像后,根据与人脸图像库的比对结果确定目标人脸的身份信息,补充了缺失的人脸特征信息,提升了人脸识别的准确性。
生成对抗网络(Generative Adversarial Network,简称GAN)是一种深度学习网络,如图1所示,一般包含生成模型101(Generative Model)、判别模型102(DiscriminativeModel)。其中,生成模型101用于根据输入的随机噪声,生成看起来自然真实的、和训练集相似的生成集,判别模型102用于判断给定的实例是来自于训练集的自然真实实例还是来源于生成模型101的人为伪造的生成集,若判别为训练集的数据,则判别结果为真,反之,若判别为来自生成集的数据,则判别结果为假。
也就是说,生成对抗网络的训练过程可以看做是一种零和游戏的博弈过程,GAN网络的目标函数如下:
Figure BDA0003748402730000091
在上式中,D为判别模型102,G为生成模型101。D(x)为判别模型102的输出,G(z)为生成模型101的输出。由上式,可以推导得出,生成模型101的损失函数LOSS为:log(1-D(G(z))),判别模型102的损失函数LOSS为-log D(x)+log(1-D(G(z)))。
那么,训练过程中,生成模型101的训练目标是使得D(G(z))趋近于1,使得G的LOSS减少,生成的数据就逐步接近于真实数据。当生成集的伪数据与训练集的真实数据在判别模型102中难以分辨时,就完成了训练的过程。
由此可知,GAN的理论基础是生成对抗,比起以往的卷积神经网络,GAN具有更强的重建模能力,特别是在处理非结构化数据,如人脸图像上,能够通过生成模型101、判别模型102的不断迭代,无限地逼近全局最优解。因此,在本实施例中,借助GAN实现大姿势的侧脸旋转问题。
如图2所示,通过将目标人脸的角度为侧脸的初始采集图像进行定位处理,根据特征点信息确定偏航角的方向后,输入至预先训练得到的生成对抗网络中的目标生成网络中。然后,由目标生成网络的编码器对该初始采集图像进行编码,将其表示为包含了低维的向量,将其与随机噪声信息以及姿势代码信息连接到一起,作为全连接层输入至解码器,通过解码器的反卷积处理,重建得到了正面人脸图像。最后,将上述正面人脸图像与人脸图像库中的人脸图像依次比对,将相似度评分大于预设评分阈值,且值最大的相似度评分对应的人脸图像作为目标比对图像,读取该目标比对图像的身份信息,就确定了目标人脸的身份信息。
如下结合多个具体的应用示例,对本申请实施例提供的一种人脸识别方法、装置、处理设备及存储介质进行解释说明。
图3所示为本申请实施例提供的一种人脸识别方法的步骤流程示意图,该方法的执行主体可以是具有计算处理能力的处理设备,如图3所示,该方法包括如下步骤:
S201,获取初始采集图像。
其中,初始采集图像包括:目标人脸的人脸图像信息。
初始采集图像可以是由摄像头采集的带有目标人脸的静态图像,还可以是由摄像头采集的视频中截取的带有目标人脸的视频帧。
目标人脸在初始采集图像中的角度可以为正脸,还可以为侧脸,可以包含一个目标人脸,还可以包含多人,通过裁剪的方式获取包含目标人脸的图像,本申请在此不做限定。
S202,对初始采集图像进行定位处理,得到目标人脸的特征点信息。
定位处理是对初始采集图像进行预处理的过程,是在初始采集图像检测到人脸的基础上,进一步通过脸部的纹理特征、各个特征点之间的位置约束,确定脸部五官的特征点,如眼睛、眉毛、鼻子、嘴巴、脸部外轮廓的位置。
S203,根据目标人脸的特征点信息,确定目标人脸的偏航角。
可选地,根据上述目标人脸的特征点信息对应的坐标,可以计算得到目标人脸的姿态角度,即人脸相对于摄像头的偏向方向和角度,由此,可以确定目标人脸是否是侧脸面对摄像头的状态。
对于人脸的姿态,可以采用俯仰角pitch、偏航角yaw以及滚动角roll组合进行描述,其中,俯仰角是指人脸绕X轴转动的角度,表现为头部的俯或仰,偏航角是指人脸绕Y轴转动的角度,表现为头部向左侧或右侧的水平转动,滚动角是指人脸绕Z轴转动的角度,表现为头部的转动,即水平倾角。
可选地,可以首先建立一个标准、正向的三维模型,将其绕Y轴旋转,直至其与目标人脸的特征点信息重合,则将当前旋转的角度作为目标人脸的偏航角。
S204,若目标人脸的偏航角大于预设角度阈值,则确定目标人脸的角度为侧脸。
由上述描述可知,偏航角用于确定目标人脸水平向左侧或右侧转动的距离,因此,当目标人脸的偏航角大于预设角度阈值时,可以认为目标人脸的角度为侧脸,示例性地,预设角度阈值可以为50度。
需要说明的是,当目标人脸侧对摄像头的角度超出预设阈值时,为大姿态图像,反之,当其角度小于预设阈值时,可以理解为小姿态图像。可以将大姿态图像作为侧脸图像,小姿态图像作为正脸图像。
另外,根据目标人脸的特征点信息,处理设备还可以确定目标人脸是否存在水平倾角,由于水平倾角大于预设倾角阈值,如5度时,会由于人脸与下述特征提取模型的模板不匹配导致特征点定位误差增大,因此,对于水平倾角较大的初始采集图像,还需根据目标人脸的特征点信息,将其旋转为水平。
可选地,初始采集图像的水平倾角可由下式计算:
Figure BDA0003748402730000111
其中,(xleye,yleye)为目标人脸的左外眼角的特征点坐标,(xreye,yreye)为目标人脸的右外眼角的特征点坐标。若水平倾角θ大于预设倾角阈值,则可以将右外眼角的特征点坐标作为旋转中心,对初始采集图像进行旋转,以使初始采集图像达到水平。
可选地,该水平倾角θ的计算步骤可以在上述判断目标人脸的角度前执行,也可以在其后执行。另外,对于水平倾角θ小于预设倾角阈值的初始采集图像,可以不对其进行旋转处理。
S205,若目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成初始采集图像对应的正面人脸图像。
若根据上述目标人脸的特征点信息,确定初始采集图像为大姿态的侧脸图像,且水平倾角θ过大时,则首先将初始采集图像旋转至水平,然后基于预先训练得到的生成对抗网络生成初始采集图像对应的正面人脸图像。
可以理解的是,目标人脸的角度为侧脸时,会由于自遮挡问题导致正面人脸区域无法被识别。因此,可以基于人脸的非刚体特性,根据侧脸与正脸间的映射关系,将侧脸图像输入至生成对抗网络中,将其转换为正面人脸图像,补全丢失面部的相关特征。
S206,根据正面人脸图像以及人脸图像库,确定目标人脸的身份信息,人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。
将进行了旋转、转换正脸处理后的正面人脸图像,或只进行其中一项处理,或未进行任何处理,包含正面人脸的正面人脸图像,与人脸图像库中的多张人脸图像依次进行对比,以确定目标人脸的身份信息是否为人脸图像库中的各张人脸图像的身份信息的其中一个。
在本实施例中,将目标人脸角度为侧脸的初始采集图像转换为正面人脸图像,再进一步根据人脸图像库确定了目标人脸的身份信息。通过转换补全了自遮挡导致缺失的面部特征信息,提高了人脸识别的准确率。
可选地,如图4所示,上述步骤S202中,对初始采集图像进行定位处理,得到目标人脸的特征点信息,可由下述步骤S301至S302实现。
S301,将初始采集图像输入至预先训练得到的卷积神经网络中,得到目标人脸的多个三维特征点。
可选地,卷积神经网络的结构可以是将4个HourGlass沙漏网络堆叠形成的网络,该卷积神经网络利用多张2D标注图像预训练后得到。
可选地,为增加卷积神经网络对于大姿态人脸的特征点生成的准确率,在训练过程中,可以增加图像翻转、旋转、颜色抖动、尺度噪声以及随机遮挡等程序,当然,不以此为限。
卷积神经网络能够将输入的初始采集图像进行三维标注,以生成多个人脸的三维特征点,各三维特征点能够用于描述目标人脸五官的空间位置信息。
图5所示为当目标人脸的角度为微向上的侧脸时,多个三维特征点的示意图。另外,三维特征点的数量可以根据精度设置,示例性地,可以为68个。
S302,根据多个三维特征点,生成目标人脸的特征点信息。
可选地,可以将多个三维特征点的集合,作为目标人脸的特征点信息,以计算目标人脸在三维空间中的偏航角等信息。
在本实施例中,通过预先训练得到的卷积神经网络,确定了目标人脸的特征点信息,为下述实施例中,准确的确定偏航角做铺垫。
可选地,如图6所示,上述对抗网络包括:目标生成网络,目标生成网络中包括:编码器403和解码器407。
其中,编码器403的目标是将输入的图像编码成低维的短向量表示,可以由卷积神经网络的卷积层、池化层和BatchNormalization层组成,卷积层负责获取图像局域特征,池化层对图像进行下采样并且将尺度不变的特征传送到下一层,而BN主要对图像的分布归一化,加速学习。
而解码器407的目标是利用输入的短向量,来解码关于图的结构信息,解码器通过对短向量进行上采样,然后对上采样后的图像进行卷积处理,以完善短向量中特征的完整几何形状,弥补由于编码器将图像缩短为短向量造成的细节损失。
如图6、图7所示,上述步骤S304中,基于预先训练得到的生成对抗网络生成初始采集图像401对应的正面人脸图像408,可由下述步骤S501至S504实现。
S501,对初始采集图像401进行裁剪,得到人脸裁剪图像402。
可选地,对于初始采集图像401,可能包含了一些无用的背景信息,为这些信息对后续识别过程的干扰,可以对初始采集图像401进行人脸识别、框选,将背景信息裁剪掉,并将带有目标人脸的部分作为前景信息保留,得到人脸裁剪图像402。
S502,将人脸裁剪图像402输入编码器403中,得到编码向量405。
然后,将人脸裁剪图像402输入至上述编码器403中,得到一维的编码向量405。该一维的编码向量405中包括了人脸裁剪图像402中目标人脸的主要五官的特征信息,示例性地,该编码向量405的元素可能表示人脸肤色、眉毛位置、眼睛大小、姿势信息等。
S503,生成随机噪声信息404以及姿势代码信息406。
其中,随机噪声信息404是由处理设备随机生成的一维向量,用于建模除身份信息、姿势信息外的其他量的方差。
姿势代码信息406可以是预先设置的一维ONE-HOT向量,通过采用N位状态寄存器来对N个状态进行编码,每个状态都有独立的寄存器位,并且在任意时刻仅有一位有效,其中,有效位被记为1。在本申请实施例中,姿势代码信息406可以用于表示姿势信息为正面的向量。
S504,将编码向量405、随机噪声信息404以及姿势代码信息406输入解码器407中,由解码器407根据随机噪声信息404以及姿势代码信息406对编码向量405进行解码处理,得到正面人脸图像408。
其中,随机噪声信息404用于表征人脸外观的变化信息,姿势代码信息406用于突出人脸的面部身份信息以及弱化面部姿态信息。
将上述得到的编码向量405、随机噪声信息404、姿势代码信息406三个一维向量进行连接,可选地,还可以经过全连接层、转置过程后,将其输入至解码器407中,由解码器407进行反卷积处理,根据编码向量405中目标人脸的特征信息,结合姿势代码信息406,将编码向量405中的姿势代码修改为正面,再加入随机噪声信息404,以避免解码映射过程中的局部最优,生成了姿态为正面的正面人脸图像408。
另外,在生成对抗网络训练完毕后,判别器409不对生成的正面人脸图像408进行判断。
在本实施例中,生成对抗网络根据姿势代码信息、编码向量、随机噪声信息,通过姿势代码的替换,将初始采集图像中的侧脸转换为正脸,在编码器保留了目标人脸的主要特征的同时,又转变了目标人脸的姿势,且根据编码向量的内容,补充了侧脸转换为正脸所需的特征信息,提高了转换后正脸与侧脸的匹配程度。
可选地,如图8所示,本申请实施例提供的人脸识别方法还包括下述步骤,用于对生成对抗网络的生成过程进行描述。
S601,构建生成对抗初始网络。
其中,生成对抗初始网络包括:初始判别网络、初始生成网络。
首先,可以根据人脸姿态转换的目标,构建包含初始生成网络、初始判别网络的生成对抗初始网络,该生成对抗初始网络的参数均为初始参数,经过训练后,初始参数在训练过程中适应进行修正,得到生成对抗网络。
可以理解的是,初始判别网络、初始生成网络是同步训练、共同进步的,若初始生成网络生成的图像通过了初始判别网络的鉴别,则对其进行奖励,否则,若无法通过初始判别网络,则对其进行惩罚。在训练过程中,若初始判别网络更新过快,可能导致初始生成网络一直无法通过鉴别,若初始生成网络更新过快,可能导致初始生成网络由于不断生成质量较差的数据而受到奖励。
S602,获取多张训练图像。
其中,多张训练图像包括:多个训练人脸的图像信息。
可选地,多张训练图像中可以包括训练人脸的正脸图像信息,还可以包括训练人脸的侧脸图像信息,正脸图像信息、侧脸图像信息可以是多组图像,每组图像对应于同一人脸。其中,正脸图像信息可以作为真实图像样本更新初始判别网络,侧脸图像信息可以作为初始生成网络的输入,由初始生成网络据此生成图像后,据此更新初始生成网络。
S603,利用多张训练图像对生成对抗初始网络进行训练,并根据训练结果对初始判别网络、初始生成网络进行修正,得到生成对抗网络。
最后,利用上述多张训练图像,根据生成正脸图像与真实正脸图像的损失,分别对生成对抗初始网络中的初始判别网络、初始生成网络的初始参数进行修正,当生成对抗初始网络收敛时,将生成对抗初始网络作为生成对抗网络。
在本实施例中,根据多张训练图像,对初始判别网络、初始生成网络进行修正,通过监督学习的方式,避免生成对抗网络过拟合,具有更好的人脸正面生成效果。
可选地,如图9所示,上述步骤S603中,利用多张训练图像对生成对抗初始网络进行训练,并根据训练结果对初始判别网络、初始生成网络进行修正,得到生成对抗网络,可由下述步骤S701至S706实现。
S701,生成随机噪声信息以及姿势代码信息。
生成对抗网络的原理为:首先在训练过程中学习原始数据集中的人脸的背后底层数据分布,然后,由初始生成网络近似这个分布生成新的姿态的人脸图像,初始判别网络通过判别这个人脸图像的错误,再次对初始生成网络进行修正,在这种博弈中,二者交替地得到提升。
为了能使初始生成网络每次生成不同的人脸图像,需在每次生成图像时加入由处理设备随机生成的随机噪声信息,以增加生成的人脸图像的随机性,使其能够在多次训练过程中更接近真实的正面人脸的分布。
如前述实施例中所述,姿势代码信息可以是一维ONE-HOT向量,包含多个二进制位,用于表示人脸的不同姿态,仅有目标姿态的位置1,其余位置0。在本申请实施例中,可以将人脸姿态信息为正面的位置为有效位1。可以理解的是,若目标人脸需生成的图像为正面人脸,则可一直使用该姿势代码信息,若修改目标人脸生成图像的姿态,则需生成新的姿势代码信息,并将目标姿态所对应的位置1。
S702,将第一训练图像、姿势代码信息、随机噪声信息输入至初始生成网络中,得到第一生成图像。
可选地,第一训练图像可以是由人脸训练集中的某一人脸的图像,经过水平旋转、裁剪后得到的,第一训练图像经过初始生成网络的初始编码器后,得到初始编码向量,与上述姿势代码信息、随机噪声信息一起,输入至初始生成网络中的初始解码器,根据初始编码向量中的特征,将第一训练图像中的侧脸图像转换为正脸图像,作为第一生成图像。
S703,将第一训练图像、第一生成图像输入至初始判别网络,得到第一生成图像的图像评价结果。
接下来,初始判别网络根据第一训练图像、第一生成图像,计算二者间的差异,得到了第一生成图像的图像评价结果。
可选地,可以通过第一训练图像、第一生成图像中人脸的欧式距离、余弦距离等方式,确定二者之间的相似程度,从而确定图像评价结果,其具体计算方式本申请在此不做限定。
S704,根据图像评价结果,对初始生成网络以及初始判别网络进行修正,得到新的生成对抗初始网络。
可选地,基于图像评价结果,对初始生成网络、初始判别网络的损失函数进行计算,并根据损失依次对初始生成网络、初始判别网络的参数进行更新,得到新的初始生成网络、新的初始判别网络,作为新的生成对抗初始网络,其中,具体的损失函数在此不做限定。
需要说明的是,为提高训练过程的稳定性,初始生成网络、初始判别网络可以不在同一次子训练中更新,可选地,可以每更新一至两次初始生成网络后,更新一次初始判别网络,也可以以其他方式同步或者不同步地对初始生成网络、初始判别网络进行更新,本申请在此不做限定。
S705,重复上述过程,直至图像评价结果达到预设阈值。
若图像评价结果达到预设阈值,即第一训练图像、第一生成图像的相似度达到预设阈值,可以认为目前的初始参数已达到目标。
S706,将新的生成对抗初始网络作为生成对抗网络。
将初始参数达到目标的生成对抗初始网络作为生成对抗网络,用于生成正面人脸图像。
需要说明的是,在本实施例中,生成对抗网络中,仅通过训练后的生成网络中的编码器、解码器生成正面人脸图像后输出,而无需判别器再次判别。
在本实施例中,通过监督学习的方式对初始生成网络、初始判别网络进行循环更新,提高了训练过程的稳定性和效率,也提升了训练好后的生成对抗网络生成的正面人脸的准确性。
可选地,如图10所示,上述步骤S206中,根据正面人脸图像以及人脸图像库,确定目标人脸的身份信息,可以包括下述步骤。
S801,对正面人脸图像进行特征提取,得到目标人脸的目标特征。
正面人脸图像是包含高维特征向量的图像,为提升后续步骤的比对效率,可以将目标人脸的目标特征提取出来,得到短向量。
上述特征提取的方法可以是基于方向梯度直方图方法(histogram of orientedgridients,简称HOG),还可以是利用dlib库,还可以是通过卷积神经网络方法,当然,不以此为限。
S802,将目标特征与人脸图像库中各人脸图像的特征进行比对,根据比对结果确定目标人脸的身份信息。
可选地,也可以采用上述特征提取方法,预先将人脸图像库中各人脸图像的特征提取出来并存储。
这样,将上述提取得到的目标特征与预选存储的各人脸图像的特征进行依次比对,根据与目标人脸的目标特征的匹配结果,进一步根据人脸图像库中的数据,确定目标人脸的身份信息。
在本实施例中,将目标人脸的特征进行提取后与人脸图像库中的各人脸图像的特征进行循环比对,提升了人脸识别的效率。
可选地,如图11所示,上述步骤S802中,将目标特征与人脸图像库中各人脸图像的特征进行比对,根据比对结果确定目标人脸的身份信息,可由下述步骤S901至S903实现。
S901,分别计算目标特征与各人脸图像的特征的相似度,得到多个相似度评分。
为确定目标人脸与人脸图像库中各人脸的相似程度,可以通过计算目标特征与各人脸图像的特征的距离,作为多个相似度评分评价其相似程度。需要说明的是,距离与相似度评分呈反比例关系,距离越近,则说明二者越相似,其相似度评分越高。在本实施例中,对距离与相似度评分的具体映射公式不做具体限定。
可选地,上述计算的距离可以为余弦距离、明氏距离、马氏距离、欧式距离中的一个或多个,当然不以此为限。
S902,将多个相似度评分分别与预设评分阈值比较,将大于预设评分阈值且值最大的相似度评分对应的人脸图像作为目标比对图像。
进一步地,将上述步骤中计算得到的多个相似度评分与预设评分阈值比较。示例性地,若仅有一个相似度评分大于预设评分阈值,则将该相似度评分对应的人脸图像作为目标比对图像,若多个相似度评分均大于预设评分阈值,则将其中最大的一个相似度评分对应的人脸图像作为目标比对图像。反之,若未有超出预设评分阈值的相似度评分,则该目标人脸不能确定身份信息。
可以理解的是,若采用不同的计算距离方法,则预设评分阈值也可以不同。
S903,将目标比对图像的身份信息作为目标人脸的身份信息。
人脸图像库中可以与目标比对图像一一对应存储各人脸的身份信息,因此,确定了人脸图像库中其中一张图像作为目标比对图像后,处理设备可以读取其对应的身份信息,将该身份信息作为目标人脸的身份信息输出。
在本实施例中,通过将目标人脸与人脸图像库进行循环比较,高效、准确的确定了目标人脸的身份信息。
参阅图12,本申请实施例还提供一种人脸识别装置100,包括:
获取模块1001,用于获取初始采集图像,初始采集图像包括:目标人脸的人脸图像信息;
定位模块1002,用于对初始采集图像进行定位处理,得到目标人脸的特征点信息;
处理模块1003,用于根据目标人脸的特征点信息,确定目标人脸的偏航角;若目标人脸的偏航角大于预设角度阈值,则确定目标人脸的角度为侧脸;若目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成初始采集图像对应的正面人脸图像;
确定模块1004,用于根据正面人脸图像以及人脸图像库,确定目标人脸的身份信息,人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。
处理模块1003具体还用于:对抗网络包括:目标生成网络,目标生成网络中包括:编码器和解码器;对初始采集图像进行裁剪,得到人脸裁剪图像;将人脸裁剪图像输入编码器中,得到编码向量;生成随机噪声信息以及姿势代码信息;将编码向量、随机噪声信息以及姿势代码信息输入解码器中,由解码器根据随机噪声信息以及姿势代码信息对编码向量进行解码处理,得到正面人脸图像,其中,随机噪声信息用于表征人脸外观的变化信息,姿势代码信息用于突出人脸的面部身份信息以及弱化面部姿态信息。
训练模块1005,用于构建生成对抗初始网络,生成对抗初始网络包括:初始判别网络、初始生成网络;获取多张训练图像,多张训练图像包括:多个训练人脸的图像信息;利用多张训练图像对生成对抗初始网络进行训练,并根据训练结果对初始判别网络、初始生成网络进行修正,得到生成对抗网络。
训练模块1005具体还用于,生成随机噪声信息以及姿势代码信息;将第一训练图像、姿势代码信息、随机噪声信息输入至初始生成网络中,得到第一生成图像;将第一训练图像、第一生成图像输入至初始判别网络,得到第一生成图像的图像评价结果;根据图像评价结果,对初始生成网络以及初始判别网络进行修正,得到新的生成对抗初始网络;重复上述过程,直至图像评价结果达到预设阈值,将新的生成对抗初始网络作为生成对抗网络。
确定模块1004具体还用于,对正面人脸图像进行特征提取,得到目标人脸的目标特征;将目标特征与人脸图像库中各人脸图像的特征进行比对,根据比对结果确定目标人脸的身份信息。
确定模块1004具体还用于,分别计算目标特征与各人脸图像的特征的相似度,得到多个相似度评分;将多个相似度评分分别与预设评分阈值比较,将大于预设评分阈值且值最大的相似度评分对应的人脸图像作为目标比对图像;将目标比对图像的身份信息作为目标人脸的身份信息。
定位模块1002具体还用于,将初始采集图像输入至预先训练得到的卷积神经网络中,得到目标人脸的多个三维特征点;根据多个三维特征点,生成目标人脸的特征点信息。
请参阅图13,本实施例还提供一种处理设备,该处理设备包括:处理器2001、存储器2002和总线,存储器2002存储有处理器2001可执行的机器可读指令,当处理设备运行时,执行上述机器可读指令,处理器2001与存储器2002之间通过总线通信,处理器2001用于执行上述实施例中的人脸识别方法的步骤。
存储器2002、处理器2001以及总线各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。人脸识别系统的数据处理装置包括至少一个可以软件或固件(firmware)的形式存储于存储器2002中或固化在处理设备的操作系统(operating system,OS)中的软件功能模块。处理器2001用于执行存储器2002中存储的可执行模块,例如人脸识别系统的数据处理装置所包括的软件功能模块及计算机程序等。
其中,存储器2002可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
可选地,本申请还提供一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述方法实施例的步骤。具体实现方式和技术效果类似,这里不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种人脸识别方法,其特征在于,所述方法包括:
获取初始采集图像,所述初始采集图像包括:目标人脸的人脸图像信息;
对所述初始采集图像进行定位处理,得到所述目标人脸的特征点信息;
根据所述目标人脸的特征点信息,确定所述目标人脸的偏航角;
若所述目标人脸的偏航角大于预设角度阈值,则确定所述目标人脸的角度为侧脸;
若所述目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成所述初始采集图像对应的正面人脸图像;
根据所述正面人脸图像以及人脸图像库,确定所述目标人脸的身份信息,所述人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。
2.根据权利要求1所述的人脸识别方法,其特征在于,所述对抗网络包括:目标生成网络,所述目标生成网络中包括:编码器和解码器;
所述基于预先训练得到的生成对抗网络生成所述初始采集图像对应的正面人脸图像,包括:
对所述初始采集图像进行裁剪,得到人脸裁剪图像;
将所述人脸裁剪图像输入所述编码器中,得到编码向量;
生成随机噪声信息以及姿势代码信息;
将所述编码向量、随机噪声信息以及姿势代码信息输入所述解码器中,由所述解码器根据所述随机噪声信息以及所述姿势代码信息对所述编码向量进行解码处理,得到所述正面人脸图像,其中,所述随机噪声信息用于表征人脸外观的变化信息,所述姿势代码信息用于突出人脸的面部身份信息以及弱化面部姿态信息。
3.根据权利要求1所述的人脸识别方法,其特征在于,所述方法还包括:
构建生成对抗初始网络,所述生成对抗初始网络包括:初始判别网络、初始生成网络;
获取多张训练图像,所述多张训练图像包括:多个训练人脸的图像信息;
利用所述多张训练图像对所述生成对抗初始网络进行训练,并根据训练结果对所述初始判别网络、所述初始生成网络进行修正,得到所述生成对抗网络。
4.根据权利要求3所述的人脸识别方法,其特征在于,所述利用所述多张训练图像对所述生成对抗初始网络进行训练,并根据训练结果对所述初始判别网络、所述初始生成网络进行修正,得到所述生成对抗网络,包括:
生成随机噪声信息以及姿势代码信息;
将第一训练图像、姿势代码信息、随机噪声信息输入至所述初始生成网络中,得到第一生成图像;
将所述第一训练图像、第一生成图像输入至所述初始判别网络,得到所述第一生成图像的图像评价结果;
根据所述图像评价结果,对所述初始生成网络以及所述初始判别网络进行修正,得到新的生成对抗初始网络;
重复上述过程,直至所述图像评价结果达到预设阈值,将所述新的生成对抗初始网络作为所述生成对抗网络。
5.根据权利要求1所述的人脸识别方法,其特征在于,所述根据所述正面人脸图像以及人脸图像库,确定所述目标人脸的身份信息,包括:
对所述正面人脸图像进行特征提取,得到所述目标人脸的目标特征;
将所述目标特征与所述人脸图像库中各人脸图像的特征进行比对,根据比对结果确定所述目标人脸的身份信息。
6.根据权利要求5所述的人脸识别方法,其特征在于,所述将所述目标特征与所述人脸图像库中各人脸图像的特征进行比对,根据比对结果确定所述目标人脸的身份信息,包括:
分别计算所述目标特征与所述各人脸图像的特征的相似度,得到多个相似度评分;
将所述多个相似度评分分别与预设评分阈值比较,将大于所述预设评分阈值且值最大的相似度评分对应的人脸图像作为目标比对图像;
将所述目标比对图像的身份信息作为所述目标人脸的身份信息。
7.根据权利要求1所述的人脸识别方法,其特征在于,所述对所述初始采集图像进行定位处理,得到所述目标人脸的特征点信息,包括:
将所述初始采集图像输入至预先训练得到的卷积神经网络中,得到所述目标人脸的多个三维特征点;
根据所述多个三维特征点,生成所述目标人脸的特征点信息。
8.一种人脸识别装置,其特征在于,包括:
获取模块,用于获取初始采集图像,所述初始采集图像包括:目标人脸的人脸图像信息;
定位模块,用于对所述初始采集图像进行定位处理,得到所述目标人脸的特征点信息;
处理模块,用于根据所述目标人脸的特征点信息,确定所述目标人脸的角度是否为侧脸;若所述目标人脸的角度为侧脸,则基于预先训练得到的生成对抗网络生成所述初始采集图像对应的正面人脸图像;
确定模块,用于根据所述正面人脸图像以及人脸图像库,确定所述目标人脸的身份信息,所述人脸图像库中保存有多张人脸图像以及各张人脸图像的身份信息。
9.一种处理设备,其特征在于,所述处理设备包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当所述处理设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1-7任一项所述的人脸识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现如权利要求1-7中任一项所述的人脸识别方法的步骤。
CN202210836222.1A 2022-07-15 2022-07-15 人脸识别方法、装置、处理设备及存储介质 Pending CN115147904A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210836222.1A CN115147904A (zh) 2022-07-15 2022-07-15 人脸识别方法、装置、处理设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210836222.1A CN115147904A (zh) 2022-07-15 2022-07-15 人脸识别方法、装置、处理设备及存储介质

Publications (1)

Publication Number Publication Date
CN115147904A true CN115147904A (zh) 2022-10-04

Family

ID=83412080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210836222.1A Pending CN115147904A (zh) 2022-07-15 2022-07-15 人脸识别方法、装置、处理设备及存储介质

Country Status (1)

Country Link
CN (1) CN115147904A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209878A (zh) * 2020-01-10 2020-05-29 公安部户政管理研究中心 跨年龄人脸识别方法及装置
CN117238020A (zh) * 2023-11-10 2023-12-15 杭州启源视觉科技有限公司 人脸识别方法、装置和计算机设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209878A (zh) * 2020-01-10 2020-05-29 公安部户政管理研究中心 跨年龄人脸识别方法及装置
CN117238020A (zh) * 2023-11-10 2023-12-15 杭州启源视觉科技有限公司 人脸识别方法、装置和计算机设备
CN117238020B (zh) * 2023-11-10 2024-04-26 杭州启源视觉科技有限公司 人脸识别方法、装置和计算机设备

Similar Documents

Publication Publication Date Title
CN110348330B (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
CN111652827B (zh) 一种基于生成对抗网络的正面人脸合成方法及系统
US10049262B2 (en) Method and system for extracting characteristic of three-dimensional face image
CN110705392A (zh) 一种人脸图像检测方法及装置、存储介质
CN115147904A (zh) 人脸识别方法、装置、处理设备及存储介质
Mokhayeri et al. Domain-specific face synthesis for video face recognition from a single sample per person
JP2009211178A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
CN113989890A (zh) 基于多通道融合和轻量级神经网络的人脸表情识别方法
CN110852310A (zh) 三维人脸识别方法、装置、终端设备及计算机可读介质
Song et al. Robust 3D face landmark localization based on local coordinate coding
CN112836680A (zh) 一种基于视觉的人脸表情识别方法
CN106611158A (zh) 人体3d特征信息的获取方法及设备
CN110991258A (zh) 一种人脸融合特征提取方法及系统
CN112801945A (zh) 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法
CN109886091B (zh) 基于带权重局部旋度模式的三维人脸表情识别方法
CN111723688B (zh) 人体动作识别结果的评价方法、装置和电子设备
Mehryar et al. Automatic landmark detection for 3d face image processing
Zhang et al. 3d face recognition using multi-level multi-feature fusion
CN106407942B (zh) 一种图像处理方法及其装置
Guo et al. Hand gesture recognition and interaction with 3D stereo camera
CN116758212A (zh) 基于自适应去噪算法的3d重建方法、装置、设备及介质
CN111325252A (zh) 图像处理方法、装置、设备、介质
CN115909421A (zh) 一种智能门锁人脸识别加密方法及系统
CN115050069A (zh) 基于深度学习的人脸及属性识别方法、系统及计算机设备
CN114612991A (zh) 攻击人脸图片的转换方法及装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination