CN112232205A - 移动端cpu实时多功能人脸检测方法 - Google Patents

移动端cpu实时多功能人脸检测方法 Download PDF

Info

Publication number
CN112232205A
CN112232205A CN202011106815.XA CN202011106815A CN112232205A CN 112232205 A CN112232205 A CN 112232205A CN 202011106815 A CN202011106815 A CN 202011106815A CN 112232205 A CN112232205 A CN 112232205A
Authority
CN
China
Prior art keywords
face
detector
mask
frame
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011106815.XA
Other languages
English (en)
Other versions
CN112232205B (zh
Inventor
严安
周治尹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Dianze Intelligent Technology Co ltd
Zhongke Zhiyun Technology Co ltd
Original Assignee
Shanghai Dianze Intelligent Technology Co ltd
Zhongke Zhiyun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Dianze Intelligent Technology Co ltd, Zhongke Zhiyun Technology Co ltd filed Critical Shanghai Dianze Intelligent Technology Co ltd
Priority to CN202011106815.XA priority Critical patent/CN112232205B/zh
Publication of CN112232205A publication Critical patent/CN112232205A/zh
Application granted granted Critical
Publication of CN112232205B publication Critical patent/CN112232205B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于人脸识别技术领域,具体涉及一种实时多功能人脸检测方法。移动端CPU实时多功能人脸检测方法,包括:将图片放入预设的检测器中进行预测,通过检测器进行识别,得到人脸框预测值、人脸关键点和口罩识别结果;将人脸框预测值进行解码操作,转换为边界框的真实位置,将人脸关键点进行解码操作,转换为关键点的真实位置;采用非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果。本发明在移动端只有CPU的情况下达到实时检测效果。

Description

移动端CPU实时多功能人脸检测方法
技术领域
本发明属于人脸识别技术领域,具体涉及一种实时多功能人脸检测方法。
背景技术
人脸识别系统以人脸识别技术为核心,是一项新兴的生物识别技术,是当今国际科技领域攻关的高精尖技术。它广泛采用区域特征分析方法,融合了计算机图像处理技术与生物统计学原理于一体,利用计算机图像处理技术从视频中提取人像特征点,利用生物统计学的原理进行分析建立数学模型,具有广阔的发展前景。人脸检测是自动人脸识别系统中的一个关键环节。但是由于人脸具有相当复杂的细节变化,不同的外貌如脸形、肤色等,不同的表情如眼、嘴的开与闭等;口罩遮挡等,这些内在因素及外在因素的变化使得人脸检测成为人脸识别系统中一个复杂的具有挑战性的模式检测问题。
尽管人们已经对基于卷积神经网络的人脸检测算法进行了广泛的研究,但是对于移动设备上的人脸检测算法来说,无法在移动端达到实时效果,也无法在只有CPU的情况下达到实时检测效果。
另外,现有人脸检测时,通常检测功能单一,没有关键点和口罩功能的检测,不能为后续工作提供更多关键数据。
发明内容
本发明针对现有的人脸检测无法在移动端只有CPU的情况下达到实时检测,且检测功能较为单一的技术问题,目的在于提供一种移动端CPU实时多功能人脸检测方法。
移动端CPU实时多功能人脸检测方法,包括:
将图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果;
将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置;
采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果,包括检测框左上角坐标、右下角坐标、两只眼睛坐标、鼻子坐标、一对嘴角坐标和是否戴口罩置信度的信息。
可选的,所述将图片放入预设的检测器中进行预测之前,包括:
对图片进行预处理操作,所述预处理操作包括调整图像大小、标准化。
可选的,所述将图片放入预设的检测器中进行预测之前,还包括:
向所述检测器加载预设的预训练网络参数,根据预设的锚点的尺寸及长宽比例,生成默认锚点;
通过预设的数据集对所述检测器进行训练,得到训练后的检测器;
所述检测器包括主干网络、预测层和多任务损失层。
可选的,所述通过预设的数据集对所述检测器进行训练,得到训练后的检测器,包括:
采集包括未遮挡数据和遮挡数据作为数据集,将所述数据集中的BGR图片转换为YUV格式,进行数据增强,得到增强后的数据集;
采用动量为0.9,权重衰减因子为0.0005的随机优化算法进行网络训练,所述随机优化算法采用难样本挖掘的方式减少正负样本之间的不平衡,在训练的前100轮,初始化学习率设置为10-3,在之后的50轮和100轮各降低10倍,在训练期间,首先将每个预测值与最佳的Jaccard重叠锚点进行匹配,之后将锚点匹配到具有高于0.35阈值的Jaccard重叠人脸。
可选的,所述未遮挡数据为未佩戴口罩时的人脸图片,所述遮挡数据为佩戴口罩时的人脸图片,所述遮挡数据大于所述未遮挡数据。
可选的,所述进行数据增强,包括:
通过对所述数据集中的图片采用颜色失真、增加亮度对比、随机裁剪、水平翻转和变换通道中的至少一种或多种方式的组合增加数据以防止模型过拟合。
可选的,所述增强亮度对比采用的策略为降低目标框内的亮度,增加目标框外的亮度实现。
可选的,所述将图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果,包括:
将图片放入训练后的所述检测器中进行预测,预测时将所述主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作;
对于每个锚点,使用相对其坐标的4个偏移量以及N个用于分类的分数进行表示,N=2;在检测器训练时针对每个锚点,最小化式多任务损失函数:
Figure BDA0002727188550000031
其中Lobj为交叉熵损失函数检测锚点是否包含目标分类,pi为锚点有目标的概率,如果锚点包含目标,则
Figure BDA0002727188550000032
否则为0;Lcls为交叉熵损失函数用于锚点分类,分为戴口罩类和未戴口罩类;Lbox采用smoth-L1损失函数用于人脸锚点定位,ti={tx,ty,tw,th}i为预测框的坐标偏移量,
Figure BDA0002727188550000033
为正样本锚点的坐标偏移量;Llandmark采用smoth-L1损失函数用于人脸关键点定位,li={lx1,ly1,lx2,ly2,…,lx5,ly5}i为预测的关键点偏移量,
Figure BDA0002727188550000034
为正样本关键点坐标偏移量,若样本为戴口罩li={lx1,ly1,lx2,ly2}i
Figure BDA0002727188550000035
其中lx1,ly1
Figure BDA0002727188550000036
分别代表左眼预测关键点坐标偏移量和正样本关键点偏移量,lx2,ly2
Figure BDA0002727188550000037
分别代表右眼预测关键点坐标偏移量和正样本关键点偏移量;λ1和λ2分别为人脸框和关键点损失函数的权重系数。
可选的,采用10到256像素的锚点来匹配相应的有效感受野的最小尺寸,每个用于检测特征的锚点尺寸分别设为(10,16,24)、(32,48)、(64,96)和(128,192,256)。
可选的,所述将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置,包括:
将所述检测器得到的人脸框预测值l=(lcx,lcy,lw,lh)进行解码操作,转化为边界框的真实位置b=(bcx,bcy,bw,bh):
bcx=lcxdw+dcx,bcy=lcydh+dcy
bw=dwexp(lw),bh=dhexp(lh);
将所述检测器得到的人脸关键点预测值
Figure BDA0002727188550000038
Figure BDA0002727188550000039
转化为关键点的真实位置
Figure BDA00027271885500000310
Figure BDA00027271885500000311
其中,d=(dcx,dcy,dw,dh)表示生成的默认锚点。
本发明的积极进步效果在于:本发明采用移动端CPU实时多功能人脸检测方法,具有如下显著优点:
1、能在移动端只有CPU的情况下达到实时检测效果;
2、在实时检测的前提下可以同时检测出人脸框、人脸关键点和是否戴口罩的检测结果;
3、在戴口罩情况下准确检测出人脸的关键点;
4、使用数据增强技术使得模型更加鲁棒,在光照较强的情况下也可以很好的检测人脸框、人脸关键点和戴口罩情况。
附图说明
图1为本发明的一种流程示意图;
图2为本发明检测器的一种网络结构图;
图3为本发明的一种检测结果示意图;
图4为本发明的另一种检测结果示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体图示进一步阐述本发明。
参照图1,移动端CPU实时多功能人脸检测方法,包括:
S1,输入图片,并针对图片进行预处理操作。
本步骤中可以从采集端直接获取图片,或通过输入接口输入图片。对图片进行预处理操作包括调整图像大小、标准化。
S2,通过检测器进行预测:将图片放入预设的检测器中进行预测,通过检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果。
本步骤在将图片放入预设的检测器中进行预测之前,还包括:
向检测器加载预设的预训练网络参数,根据预设的锚点的尺寸及长宽比例,生成默认锚点,该默认锚点即为:d=(dcx,dcy,dw,dh)。
其中,参照图2,检测器包括主干网络、预测层和多任务损失层。主干网络中包含有15个卷积层,4个预测层,1个多任务损失层。15个卷积层中包含一个卷积模块1、十三个卷积模块2、一个卷积模块3。卷积模块1由卷积、归一化及激活层组成。卷积模块2由两组模块组成,分别为组卷积、归一化及激活层组成的第一模块,卷积、归一化及激活层组成的第二模块。卷积模块3由两组模块组成,分别为组卷积、归一化及激活层组成的第一模块,只含卷积的第二模块。本步骤将主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作,各个预测层输入多任务损失层,以实现多个检测结果的拟合。
通过预设的数据集对检测器进行训练,得到训练后的检测器。检测器的算法优选采用Pytorch开源深度学习库实现。在训练时,包括如下过程:
S201,数据采集:采集包括未遮挡数据和遮挡数据作为数据集。
未遮挡数据为未佩戴口罩时的人脸图片,遮挡数据为佩戴口罩时的人脸图片,遮挡数据大于未遮挡数据,优选大部分为戴口罩数据集。数据采集时,可以采用人工加工过的WiderFace未遮挡数据和MAFA遮挡数据。
S202,数据处理及增强:将数据集中的BGR图片转换为YUV格式,进行数据增强,得到增强后的数据集。
在进行数据增强时包括通过对数据集中的图片采用颜色失真、增加亮度对比、随机裁剪、水平翻转和变换通道中的至少一种或多种方式的组合增加数据以防止模型过拟合。
其中,变换通道可以是从YUV格式转换为YYY格式。增强亮度对比采用的策略为降低目标框内的亮度,增加目标框外的亮度实现。
通过直接训练YUV和YYY格式的图片,避免移动端将YUV图片通过线性变换转成BGR时的时间浪费,使得模型在移动端只有CPU的情况下可以达到超实时检测的效果,并且可以实现一个模型同时检测红外图和YUV图的目的。上述数据增强的多种组合方式,使得模型在光照情况下可以更加鲁棒。
S203,训练:采用动量为0.9,权重衰减因子为0.0005的随机优化算法进行网络训练,随机优化算法采用难样本挖掘的方式减少正负样本之间的不平衡,在训练的前100轮,初始化学习率设置为10-3,在之后的50轮和100轮各降低10倍,在训练期间,首先将每个预测值与最佳的Jaccard重叠锚点进行匹配,之后将锚点匹配到具有高于0.35阈值的Jaccard重叠人脸。
通过上述设计后,得到训练后的检测器,则可进行图片的预测。
预测时,将主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作。
对于每个锚点,使用相对其坐标的4个偏移量以及N个用于分类的分数进行表示,N=2;在检测器训练时针对每个锚点,最小化式多任务损失函数:
Figure BDA0002727188550000051
其中Lobj为交叉熵损失函数检测锚点是否包含目标分类,pi为锚点有目标的概率,如果锚点包含目标,则
Figure BDA0002727188550000061
否则为0;Lcls为交叉熵损失函数用于锚点分类,分为戴口罩类和未戴口罩类;Lbox采用smoth-L1损失函数用于人脸锚点定位,ti={tx,ty,tw,th}i为预测框的坐标偏移量,
Figure BDA0002727188550000062
为正样本锚点的坐标偏移量;Llandmark采用smoth-L1损失函数用于人脸关键点定位,li={lx1,ly1,lx2,ly2,…,lx5,ly5}i为预测的关键点偏移量,
Figure BDA0002727188550000063
为正样本关键点坐标偏移量,若样本为戴口罩li={lx1,ly1,lx2,ly2}i
Figure BDA0002727188550000064
其中lx1,ly1
Figure BDA0002727188550000065
分别代表左眼预测关键点坐标偏移量和正样本关键点偏移量,lx2,ly2
Figure BDA0002727188550000066
分别代表右眼预测关键点坐标偏移量和正样本关键点偏移量;λ1和λ2分别为人脸框和关键点损失函数的权重系数。
其中,采用10到256像素的锚点来匹配相应的有效感受野的最小尺寸,每个用于检测特征的锚点尺寸分别设为(10,16,24)、(32,48)、(64,96)和(128,192,256)。
本发明通过上述设计后,实现了端到端的口罩识别目的,无需增加额外的分类器单独识别是否戴口罩,在移动端只有CPU的情况下可以避免对图片旋转、抠图等操作,节省时间。另外,本发明针对戴口罩人脸的关键点检测做出优化,在戴口罩情况下,训练时只对可见的眼部特征损失进行优化。
S3,根据生成的锚点进行解码:将人脸框预测值进行解码操作,转换为边界框的真实位置,将人脸关键点进行解码操作,转换为关键点的真实位置。
具体的解码过程为:
将检测器得到的人脸框预测值l=(lcx,lcy,lw,lh)进行解码操作,转化为边界框的真实位置b=(bcx,bcy,bw,bh):
bcx=lcxdw+dcx,bcy=lcydh+dcy
bw=dwexp(lw),bh=dhexp(lh);
将检测器得到的人脸关键点预测值
Figure BDA0002727188550000067
转化为关键点的真实位置
Figure BDA0002727188550000068
Figure BDA0002727188550000069
其中,d=(dcx,dcy,dw,dh)表示步骤S2生成的默认锚点。
S4,非极大值抑制:采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果,包括检测框左上角坐标、右下角坐标、两只眼睛坐标、鼻子坐标、一对嘴角坐标和是否戴口罩置信度的信息。
实施例一:
在人脸识别场景中,将如图3所示的图片通过预处理的方式调整图像大小,使其标准化。将标准化后的图片格致转换为YUV格式,并采用数据增强处理后,输入已训练完成的检测器中进行预测。预测时的网络模型如图2中所示,多任务损失函数中,锚点包含目标,
Figure BDA0002727188550000071
Lcls为未戴口罩类。最终检测到五个人脸检测框并进行了红框标注,每个人脸检测框中含有两只眼睛坐标、鼻子坐标、一对嘴角坐标并进行了标注,还包括未戴口罩标识“nomask”。得到的检测结果为人脸检测框、人脸关键点和口罩识别结果,这些检测结果用于人脸识别场景中,可作为精确的数据使用于后续其他识别过程中。
实施例二:
将如图4所示的图片通过预处理的方式调整图像大小,使其标准化。将标准化后的图片格致转换为YUV格式,并采用数据增强处理后,输入已训练完成的检测器中进行预测。预测时的网络模型如图2中所示,多任务损失函数中,锚点包含目标,
Figure BDA0002727188550000072
Lcls为戴口罩类。最终检测到两个人脸检测框并进行了红框标注,每个人脸检测框中含有两只眼睛坐标、鼻子坐标、一对嘴角坐标并进行了标注,还包括戴口罩标识“mask”。得到的检测结果为人脸检测框、人脸关键点和口罩识别结果,这些检测结果用于人脸识别场景中,可作为精确的数据使用于后续其他识别过程中。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (10)

1.一种移动端CPU实时多功能人脸检测方法,其特征在于,包括:
将图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果;
将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置;
采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果,包括检测框左上角坐标、右下角坐标、两只眼睛坐标、鼻子坐标、一对嘴角坐标和是否戴口罩置信度的信息。
2.如权利要求1所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述将图片放入预设的检测器中进行预测之前,包括:
对图片进行预处理操作,所述预处理操作包括调整图像大小、标准化。
3.如权利要求1所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述将图片放入预设的检测器中进行预测之前,还包括:
向所述检测器加载预设的预训练网络参数,根据预设的锚点的尺寸及长宽比例,生成默认锚点;
通过预设的数据集对所述检测器进行训练,得到训练后的检测器;
所述检测器包括主干网络、预测层和多任务损失层。
4.如权利要求3所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述通过预设的数据集对所述检测器进行训练,得到训练后的检测器,包括:
采集包括未遮挡数据和遮挡数据作为数据集,将所述数据集中的BGR图片转换为YUV格式,进行数据增强,得到增强后的数据集;
采用动量为0.9,权重衰减因子为0.0005的随机优化算法进行网络训练,所述随机优化算法采用难样本挖掘的方式减少正负样本之间的不平衡,在训练的前100轮,初始化学习率设置为10-3,在之后的50轮和100轮各降低10倍,在训练期间,首先将每个预测值与最佳的Jaccard重叠锚点进行匹配,之后将锚点匹配到具有高于0.35阈值的Jaccard重叠人脸。
5.如权利要求4所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述未遮挡数据为未佩戴口罩时的人脸图片,所述遮挡数据为佩戴口罩时的人脸图片,所述遮挡数据大于所述未遮挡数据。
6.如权利要求4所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述进行数据增强,包括:
通过对所述数据集中的图片采用颜色失真、增加亮度对比、随机裁剪、水平翻转和变换通道中的至少一种或多种方式的组合增加数据以防止模型过拟合。
7.如权利要求6所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述增强亮度对比采用的策略为降低目标框内的亮度,增加目标框外的亮度实现。
8.如权利要求3所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述将图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果,包括:
将图片放入训练后的所述检测器中进行预测,预测时将所述主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作;
对于每个锚点,使用相对其坐标的4个偏移量以及N个用于分类的分数进行表示,N=2;在检测器训练时针对每个锚点,最小化式多任务损失函数:
Figure FDA0002727188540000021
其中Lobj为交叉熵损失函数检测锚点是否包含目标分类,pi为锚点有目标的概率,如果锚点包含目标,则
Figure FDA0002727188540000022
否则为0;Lcls为交叉熵损失函数用于锚点分类,分为戴口罩类和未戴口罩类;Lbox采用smoth-L1损失函数用于人脸锚点定位,ti={tx,ty,tw,th}i为预测框的坐标偏移量,
Figure FDA0002727188540000023
为正样本锚点的坐标偏移量;Llandmark采用smoth-L1损失函数用于人脸关键点定位,li={lx1,ly1,lx2,ly2,...,lx5,ly5}i为预测的关键点偏移量,
Figure FDA0002727188540000024
为正样本关键点坐标偏移量,若样本为戴口罩li={lx1,ly1,lx2,ly2}i
Figure FDA0002727188540000025
其中lx1,ly1
Figure FDA0002727188540000026
分别代表左眼预测关键点坐标偏移量和正样本关键点偏移量,lx2,ly2
Figure FDA0002727188540000027
分别代表右眼预测关键点坐标偏移量和正样本关键点偏移量;λ1和λ2分别为人脸框和关键点损失函数的权重系数。
9.如权利要求8所述的移动端CPU实时多功能人脸检测方法,其特征在于,采用10到256像素的锚点来匹配相应的有效感受野的最小尺寸,每个用于检测特征的锚点尺寸分别设为(10,16,24)、(32,48)、(64,96)和(128,192,256)。
10.如权利要求1所述的移动端CPU实时多功能人脸检测方法,其特征在于,所述将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置,包括:
将所述检测器得到的人脸框预测值l=(lcx,lcy,lw,lh)进行解码操作,转化为边界框的真实位置b=(bcx,bcy,bw,bh):
bcx=lcxdw+dcx,bcy=lcydh+dcy
bw=dwexp(lw),bh=dhexp(lh);
将所述检测器得到的人脸关键点预测值
Figure FDA0002727188540000031
Figure FDA0002727188540000032
转化为关键点的真实位置
Figure FDA0002727188540000033
Figure FDA0002727188540000034
其中,d=(dcx,dcy,dw,dh)表示生成的默认锚点。
CN202011106815.XA 2020-10-16 2020-10-16 移动端cpu实时多功能人脸检测方法 Active CN112232205B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011106815.XA CN112232205B (zh) 2020-10-16 2020-10-16 移动端cpu实时多功能人脸检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011106815.XA CN112232205B (zh) 2020-10-16 2020-10-16 移动端cpu实时多功能人脸检测方法

Publications (2)

Publication Number Publication Date
CN112232205A true CN112232205A (zh) 2021-01-15
CN112232205B CN112232205B (zh) 2022-05-27

Family

ID=74117425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011106815.XA Active CN112232205B (zh) 2020-10-16 2020-10-16 移动端cpu实时多功能人脸检测方法

Country Status (1)

Country Link
CN (1) CN112232205B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418190A (zh) * 2021-01-21 2021-02-26 成都点泽智能科技有限公司 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器
CN112818902A (zh) * 2021-02-22 2021-05-18 成都睿码科技有限责任公司 一种基于神经网络的正确佩戴口罩识别方法
WO2021238125A1 (zh) * 2020-05-27 2021-12-02 嘉楠明芯(北京)科技有限公司 人脸遮挡检测方法及人脸遮挡检测装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145867A (zh) * 2017-05-09 2017-09-08 电子科技大学 基于多任务深度学习的人脸及人脸遮挡物检测方法
US20180186452A1 (en) * 2017-01-04 2018-07-05 Beijing Deephi Technology Co., Ltd. Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation
CN109558864A (zh) * 2019-01-16 2019-04-02 苏州科达科技股份有限公司 人脸关键点检测方法、装置及存储介质
CN110580445A (zh) * 2019-07-12 2019-12-17 西北工业大学 一种基于GIoU和加权NMS改进的人脸关键点检测方法
CN110647817A (zh) * 2019-08-27 2020-01-03 江南大学 基于MobileNet V3的实时人脸检测方法
CN110674714A (zh) * 2019-09-13 2020-01-10 东南大学 基于迁移学习的人脸和人脸关键点联合检测方法
CN111414887A (zh) * 2020-03-30 2020-07-14 上海高重信息科技有限公司 基于yolov3算法的二次检测口罩人脸识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180186452A1 (en) * 2017-01-04 2018-07-05 Beijing Deephi Technology Co., Ltd. Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation
CN107145867A (zh) * 2017-05-09 2017-09-08 电子科技大学 基于多任务深度学习的人脸及人脸遮挡物检测方法
CN109558864A (zh) * 2019-01-16 2019-04-02 苏州科达科技股份有限公司 人脸关键点检测方法、装置及存储介质
CN110580445A (zh) * 2019-07-12 2019-12-17 西北工业大学 一种基于GIoU和加权NMS改进的人脸关键点检测方法
CN110647817A (zh) * 2019-08-27 2020-01-03 江南大学 基于MobileNet V3的实时人脸检测方法
CN110674714A (zh) * 2019-09-13 2020-01-10 东南大学 基于迁移学习的人脸和人脸关键点联合检测方法
CN111414887A (zh) * 2020-03-30 2020-07-14 上海高重信息科技有限公司 基于yolov3算法的二次检测口罩人脸识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TANVI B. PATEL,AND ETC: "Occlusion detection and recognizing human face using neural network", 《2017 INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTING AND CONTROL (I2C2)》 *
TANVI B. PATEL,AND ETC: "Occlusion detection and recognizing human face using neural network", 《2017 INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTING AND CONTROL (I2C2)》, 22 March 2018 (2018-03-22), pages 1 - 4 *
刘淇缘等: "遮挡人脸检测方法研究进展", 《计算机工程与应用》 *
刘淇缘等: "遮挡人脸检测方法研究进展", 《计算机工程与应用》, vol. 56, no. 13, 31 July 2020 (2020-07-31), pages 33 - 46 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021238125A1 (zh) * 2020-05-27 2021-12-02 嘉楠明芯(北京)科技有限公司 人脸遮挡检测方法及人脸遮挡检测装置
CN112418190A (zh) * 2021-01-21 2021-02-26 成都点泽智能科技有限公司 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器
CN112418190B (zh) * 2021-01-21 2021-04-02 成都点泽智能科技有限公司 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器
CN112818902A (zh) * 2021-02-22 2021-05-18 成都睿码科技有限责任公司 一种基于神经网络的正确佩戴口罩识别方法

Also Published As

Publication number Publication date
CN112232205B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN112232205B (zh) 移动端cpu实时多功能人脸检测方法
US11263434B2 (en) Fast side-face interference resistant face detection method
CN112232204B (zh) 基于红外图像的活体检测方法
JP4335565B2 (ja) 画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置
CN108268859A (zh) 一种基于深度学习的人脸表情识别方法
CN114783024A (zh) 基于YOLOv5的公共场所戴口罩的人脸识别系统
US20240161461A1 (en) Object detection method, object detection apparatus, and object detection system
CN110472566B (zh) 一种高精度的模糊人脸识别方法
CN112487981A (zh) 基于双路分割的ma-yolo动态手势快速识别方法
WO2022252737A1 (zh) 图像处理方法及装置、处理器、电子设备及存储介质
CN112818938B (zh) 一种自适应光照干扰环境的人脸识别算法及人脸识别装置
WO2022267653A1 (zh) 图像处理方法、电子设备及计算机可读存储介质
CN112818722A (zh) 模块化动态可配置的活体人脸识别系统
CN114550268A (zh) 一种利用时空特征的深度伪造视频检测方法
CN110580452A (zh) 一种基于视频的人脸识别系统中的多模板人脸自动录入方法
CN117496019B (zh) 一种驱动静态图像的图像动画处理方法及系统
CN111881803B (zh) 一种基于改进YOLOv3的畜脸识别方法
CN112200008A (zh) 一种社区监控场景下人脸属性识别方法
CN111797694A (zh) 一种车牌检测方法及装置
CN113014914B (zh) 一种基于神经网络的单人换脸短视频的识别方法和系统
CN112070041B (zh) 一种基于cnn深度学习模型的活体人脸检测方法和装置
CN111950586B (zh) 一种引入双向注意力的目标检测方法
CN111402223B (zh) 一种利用变电站视频图像的变电站缺陷问题检测方法
JP3578321B2 (ja) 画像正規化装置
CN114092998A (zh) 一种基于卷积神经网络的佩戴口罩人脸识别检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant