CN110188730B - 基于mtcnn的人脸检测与对齐方法 - Google Patents
基于mtcnn的人脸检测与对齐方法 Download PDFInfo
- Publication number
- CN110188730B CN110188730B CN201910491272.9A CN201910491272A CN110188730B CN 110188730 B CN110188730 B CN 110188730B CN 201910491272 A CN201910491272 A CN 201910491272A CN 110188730 B CN110188730 B CN 110188730B
- Authority
- CN
- China
- Prior art keywords
- face
- neural network
- sample
- net neural
- screened
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请实施例提供了一种基于MTCNN的人脸检测与对齐方法,包括:将输入图像进行缩放得到多个分辨率的金字塔图像层;滑动扫描得到候选窗口;通过P‑Net神经网络对候选窗口进行人脸筛选得到第一筛选人脸;对P‑Net神经网络进行焦点损失训练输出第一检测人脸;通过R‑Net神经网络对第一检测人脸进行人脸筛选得到第二筛选人脸;对R‑Net神经网络进行焦点损失训练输出第二检测人脸;通过O‑Net神经网络对第二检测人脸进行人脸检测和对齐得到第三检测人脸和人脸关键点;对O‑Net神经网络进行交叉熵损失训练输出人脸区域坐标和人脸关键点坐标。本申请将训练焦点集中在错误分类的样本上,提高了人脸检测与对齐的准确度。
Description
技术领域
本申请涉及人脸检测与对齐技术领域,尤其涉及一种基于MTCNN的人脸检测与对齐方法。
背景技术
随着人工智能的发展,人脸识别在众多领域得到了越来越广泛地应用,人脸检测与对齐是人脸识别过程中的重要步骤,其中,人脸检测是指识别出一张图像中是否包含人脸,人脸对齐是指定为人脸关键点,如眼睛、鼻子、嘴巴等。
MTCNN(Multi-Task Convolutional Neural Network,多任务卷积神经网络)是进行人脸检测与对齐的一种神经网络算法,MTCNN为了精确地探测面部,并尽可能多地排除复杂背景下类似面部的困难负样本,就需要在训练中加入大量的负样本。而非面部背景的复杂多样和人脸前景的稀缺,就导致了人脸检测算法面临极端的前景背景不平衡,导致人脸检测与对齐的准确度有限。
发明内容
本申请提供了一种基于MTCNN的人脸检测与对齐方法,以解决人脸检测与对齐准确度不高的问题。
本申请提供了一种基于MTCNN的人脸检测与对齐方法方法,该方法包括:
将输入图像进行缩放得到多个分辨率的金字塔图像层;
通过固定大小的窗口对多个所述金字塔图像层分别进行滑动扫描,得到多个候选窗口;
通过P-Net神经网络对所述候选窗口进行人脸筛选,得到第一筛选人脸;
根据所述第一筛选人脸对所述P-Net神经网络进行焦点损失训练,得到所述P-Net神经网络输出的第一检测人脸;
通过R-Net神经网络对所述第一检测人脸进行人脸筛选,得到第二筛选人脸;
根据所述第二筛选人脸对所述R-Net神经网络进行焦点损失训练,得到所述R-Net神经网络输出的第二检测人脸;
通过O-Net神经网络对所述第二检测人脸进行人脸检测和对齐,得到第三检测人脸和人脸关键点;
根据所述第三检测人脸和人脸关键点对所述O-Net神经网络进行交叉熵损失训练,得到所述O-Net神经网络输出人脸区域坐标和人脸关键点坐标。
可选地,根据所述第一筛选人脸对所述P-Net神经网络进行焦点损失训练,得到所述P-Net神经网络输出的第一检测人脸,包括:
利用焦点损失函数对所述第一筛选人脸进行分类训练;
判断所述第一筛选人脸的分类结果变化是否在预设范围内;
如果所述第一筛选人脸的分类结果变化在预设范围内,输出所述P-Net神经网络从所述第一筛选人脸中筛选出的第一检测人脸。
可选地,通过P-Net神经网络对所述候选窗口进行人脸筛选,得到第一筛选人脸,包括:
对所述候选窗口进行特征正则化;
对特征正则化后的候选窗口进行卷积层计算;
对卷积计算后的候选窗口进行全连接层计算,得到所述候选窗口的分类结果。
可选地,根据所述第一筛选人脸对所述P-Net神经网络进行焦点损失训练,得到所述P-Net神经网络输出的第一检测人脸,之前还包括:对所述第一筛选人脸进行非极大值抑制。
可选地,将输入图像进行缩放得到多个分辨率的金字塔图像层,之前还包括:建立人脸检测与对齐的数据集。
可选地,建立人脸检测与对齐的数据集,包括:
通过与ground-truth并集分之交集的大小来确定负样本、正样本和部分面部样本本;
将标注有人脸关键点的人脸图像作为关键点回归样本;
建立包含所述负样本、正样本、部分面部样本和关键点回归样本的数据集。
可选地,建立人脸检测与对齐的数据集,还包括:
将所述负样本、正样本、部分面部样本和关键点回归样分别进行翻转处理得到对应的镜面样本;
将所述负样本、正样本、部分面部样本、关键点回归样本和镜面样本的图像对比度、亮度、色相和饱和度分别进行随机处理,得到对应的调色样本;
将所述负样本、正样本、部分面部样本、关键点回归样本、镜面样本和调色样本的像素值进行归一化处理,得到扩充数据集。
本申请提供的基于MTCNN的人脸检测与对齐方法的有益效果包括:
本申请通过对MTCNN的P-Net神经网络、R-Net神经网络和O-Net神经网络进行焦点损失训练,得到新的P-Net神经网络、R-Net神经网络和O-Net神经网络,从而构建成焦点MTCNN,通过焦点损失能够将训练焦点集中在错误分类的样本上,提高了人脸检测与对齐的准确度。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于MTCNN的人脸检测与对齐方法的流程示意图;
图2为本申请实施例提供的一种P-Net神经网络训练的流程示意图;
图3为本申请实施例提供的一种不同焦点系数下的焦点损失曲线示意图;
图4为本申请实施例提供的一种R-Net神经网络训练的流程示意图;
图5为本申请实施例提供的一种O-Net神经网络训练的流程示意图;
图6为本申请实施例提供的一种不同平衡因子α下的样本分类正确率示意图;
图7为本申请实施例提供的一种基于焦点损失的MTCNN与现有MTCNN的样本分类正确率对比示意图;
图8为本申请实施例提供的一种人脸关键点评估对比示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
参见图1,为本申请实施例提供的一种基于MTCNN的人脸检测与对齐方法的流程示意图,如图1所示,本申请实施例提供的基于MTCNN的人脸检测与对齐方法,包括以下步骤:
步骤S100:建立人脸检测与对齐的数据集。
本申请实施例中,使用WIDER FACE(自然场景无约束人脸)作为面部分类和面部边界框回归的训练数据集,使用CelebA(CelebFaces Attributes Dataset,名人面部关键点标注和面部属性数据集)作为面部关键点训练集。
利用WIDER FACE制作图像数据样本:(a)负样本、(b)正样本和(c)部分面部,通过与ground-truth(背景真值)的IoU(并集分之交集)大小来确定每种样本的比例范围,见表1:
表1
数据种类 | 与ground-truth的IoU |
(a)负样本 | <0.3 |
(b)正样本 | >0.65 |
(c)部分面部样本 | 0.4~0.65 |
利用CelebA制作图像数据样本:(d)关键点回归。(d)是带有人脸关键点标注的数据集。
(a)和(b)可用于人脸分类任务,(b)和(c)可用于边界框回归(BBox reg),(d)可用于人脸关键点定位。
建立包含上述(a)、(b)、(c)、(d)四种样本的数据集。进一步的,本申请实施例还对数据集进行了扩充及归一化处理,包括以下步骤:
将负样本、正样本、部分面部样本和关键点回归样分别进行翻转处理得到对应的镜面样本;将负样本、正样本、部分面部样本、关键点回归样本和镜面样本的图像对比度、亮度、色相和饱和度分别进行随机处理,得到对应的调色样本;将负样本、正样本、部分面部样本、关键点回归样本、镜面样本和调色样本的像素值进行归一化处理,得到扩充数据集。其中,对(d)样本进行翻转处理后,(d)样本中的人脸关键点也随之翻转。归一化处理的内容是将RGB通道的每个像素值减去127.5,并除以128将图像像素值规范到[-1,1]区间。
步骤S110:将输入图像进行缩放得到多个分辨率的金字塔图像层。
本步骤中,输入图像为步骤S100得到的扩充数据集中的样本。将输入图像按照多个比例范围进行缩放得到多个分辨率的金字塔图像层。
步骤S120:通过固定大小的窗口对多个金字塔图像层分别进行滑动扫描,得到多个候选窗口。
固定大小的窗口可选为12×12像素,对多个金字塔图像层分别进行滑动扫描,可提取到不同分辨率的图像。
步骤S130:通过P-Net神经网络对候选窗口进行人脸筛选,得到第一筛选人脸。
通过MTCNN中的P-Net神经网络对候选窗口进行人脸筛选,可初步判断出候选窗口是否包含人脸,通过P-Net神经网络筛选出的人脸窗口,称为第一筛选人脸。
本申请在P-Net神经网络的卷积层之前,对候选窗口进行特征正则化处理,可使用更大的学习率,并增加网络性能。
步骤S140:根据第一筛选人脸对P-Net神经网络进行焦点损失训练,得到P-Net神经网络输出的第一检测人脸。
参见图2,为本申请实施例提供的一种P-Net神经网络训练的流程示意图,如图2所示,根据步骤S130得到第一筛选人脸后,进行的P-Net神经网络训练包括以下步骤:
步骤S401:对第一筛选人脸进行非极大值抑制。
通过非极大值抑制,去除步骤S130得到的重叠大的窗口。
步骤S402:利用焦点损失函数对第一筛选人脸进行分类训练。
分类训练是训练面部分类功能,面部分类是判断一个图像是不是人脸,这是个一二分类问题,可用使用交叉熵损失函数(CE Loss):
本申请实施例中,焦点损失函数为在交叉熵损失函数上改进的函数,改进过程如下:
对(1)式进行轻微的变形,令:
(2)式中,pt表示样本分类正确的概率。则Lface,CE为:
通常,解决类别不平衡的一个方法是增加一个CE平衡因子α∈[0,1],对于正负类别分别赋予α和1-α的权重。在实践中,α可以通过负类频率设置或者被视为超参数,通过交叉验证来设置。为了方便,本文用公式(2)定义pt的方式来定义αt,则加入α平衡后的Lface,CE为:
这个Loss是CE Loss的简单扩展,也是下文Face Classification Loss(面部分类损失)的原始形式。
在训练过程中遇到的类别不平衡损害了模型训练。容易分类的简单样本,特别是简单的负样本,累加了大部分的损失并主导梯度。虽然加入α平衡后在一定层度上平衡了正负样本,但它没有区分简单/复杂样本。因此,本文定义的面部分类损失为:
其中,γ为焦点系数。
通过焦点损失训练,能够降低容易分类的人脸样本在训练过程中返回损失的比重,更加专注于挖掘难以分类的人脸样本。
步骤S403:判断第一筛选人脸的分类结果变化是否在预设范围内。
在P-Net神经网络训练过程中,绘制焦点损失曲线,参见图3,为本申请实施例提供的一种不同焦点系数下的焦点损失曲线示意图,其中,横坐标为概率,纵坐标为损失值。随着训练的进行,曲线不断下降,当纵坐标稳定,即第一筛选人脸的分类结果变化在预设范围内时,可结束对P-Net神经网络的训练,其中,预设范围可根据实际目标进行设置,例如,1%或者0.5%。
步骤S404:如果第一筛选人脸的分类结果变化在预设范围内,输出P-Net神经网络从第一筛选人脸中筛选出的第一检测人脸。
根据步骤S403得到焦点损失曲线中,纵坐标稳定,结束对P-Net神经网络的训练,输出P-Net神经网络经过训练后,从第一筛选人脸中筛选出的第一检测人脸。
如果第一筛选人脸的分类结果变化不在预设范围内,则返回步骤S130继续训练。
步骤S150:通过R-Net神经网络对第一检测人脸进行人脸筛选,得到第二筛选人脸。
通过MTCNN中的R-Net神经网络对第一检测人脸进一步筛选,得到第二筛选人脸。
步骤S160:根据第二筛选人脸对R-Net神经网络进行焦点损失训练,得到R-Net神经网络输出的第二检测人脸。
参见图4,为本申请实施例提供的一种R-Net神经网络训练的流程示意图,如图4所示,根据步骤S150得到第二筛选人脸后,进行的R-Net神经网络训练包括以下步骤:
步骤S601:对第二筛选人脸进行非极大值抑制。
步骤S602:利用焦点损失函数对第二筛选人脸进行分类训练。
步骤S603:判断第二筛选人脸的分类结果变化是否在预设范围内。
步骤S604:如果第二筛选人脸的分类结果变化在预设范围内,输出P-Net神经网络从第二筛选人脸中筛选出的第二检测人脸。
如果第二筛选人脸的分类结果变化不在预设范围内,则返回步骤S150继续训练。
步骤S601-S604的训练过程与步骤S401-S404相同,可参照步骤S401-S404中的训练过程进行训练。
步骤S170:通过O-Net神经网络对第二检测人脸进行人脸检测和对齐,得到第三检测人脸和人脸关键点。
通过MTCNN中的O-Net神经网络对第二检测人脸进一步筛选,得到第三检测人脸,并识别出第三检测人脸关键点。
步骤S180:根据第三检测人脸和人脸关键点对O-Net神经网络进行交叉熵损失训练,得到O-Net神经网络输出人脸区域坐标和人脸关键点坐标。
参见图5,为本申请实施例提供的一种O-Net神经网络训练的流程示意图,如图5所示,根据步骤S170得到第三检测人脸和人脸关键点后,进行的O-Net神经网络训练包括以下步骤:
步骤S801:对第三检测人脸进行非极大值抑制。
步骤S802:利用交叉熵损失函数对第三检测人脸进行分类训练。
交叉熵损失函数即为公式(1)。
步骤S803:判断第三检测人脸的分类结果变化是否在预设范围内。
步骤S804:如果第三检测人脸的分类结果变化在预设范围内,输出第三检测人脸的人脸区域坐标和人脸关键点坐标。
如果第三检测人脸的分类结果变化不在预设范围内,则返回步骤S170继续训练。
本申请实施例提供的基于MTCNN的人脸检测与对齐方法在实施时,对平衡因子α和焦点系数γ的进行了多个组合实验,平衡因子α的选取主要基于图6,参见图6为本申请实施例提供的一种不同平衡因子α下的样本分类正确率示意图,图6中,横坐标为falsepositive(负样本)数量,纵坐标为true positive rate(正确分类概率)。
α=0.5相当于不添加平衡因子,α=0.6,α=0.7的实验效果均优于不添加平衡因子。因此,选取α=0.6,α=0.7与焦点系数γ进行组合,平衡因子α和焦点系数γ的组合参见表2:
表2
α | γ | Cont Accuracy |
0.6 | 0 | 0.7172 |
0.6 | 1 | 0.7303 |
0.6 | 2 | 0.7331 |
0.6 | 5 | 0.7210 |
0.7 | 0 | 0.7193 |
0.7 | 0.5 | 0.7262 |
0.7 | 1 | 0.7335 |
0.7 | 2 | 0.7330 |
0.7 | 5 | 0.7227 |
由表2可知,不同的γ对网络的性能均有不同的提升,但最优的结果并不是γ=5,可以得出,适当的γ值对降低容易分类样本的损失来优化网络训练比较有效,当γ取值过大时,会过度惩罚容易分类样本的损失,损害了神经网络对全局数据的学习。
参见图7,为本申请实施例提供的一种基于焦点损失的MTCNN与现有MTCNN的样本分类正确率对比示意图,图7中,横坐标为false positive(负样本)数量,纵坐标为truepositive rate(正确分类概率)。
α=0.7,γ=1,焦点MTCNN,即本申请的MTCNN,面部分类性能优于现有MTCNN。
本申请对于人脸关键点定位的效果与快速关键点回归的算法ESR(显示形状回归算法)、RCPR(robust cascade position regression,鲁棒级联位置回归算法)、SDM(Supervised Descent Method,监督下降法)、TCDCN(Tasks-Constrained DeepConvolutional Network,任务受限的深卷积网络算法)进行了对比,如图8所示,本申请在关键点定位的精度方面也高于现有MTCNN。可见,尽管在损失函数的权重设置中,加大了对面部分类和面部边界框回归的权重,但本申请将更多精力放在硬样本上,大量容易的样本降低了面部分类损失函数在总体损失中的权重,进而面部边界框回归损失和关键点回归损失的权重在简单中得到了提升。因此,本申请的面部关键点的精度率高于现有MTCNN。
由上述实施例可见,本申请通过对MTCNN的P-Net神经网络、R-Net神经网络和O-Net神经网络进行焦点损失训练,得到新的P-Net神经网络、R-Net神经网络和O-Net神经网络,从而构建成焦点MTCNN,通过焦点损失能够将训练焦点集中在错误分类的样本上,提高了人脸检测与对齐的准确度。
由于以上实施方式均是在其他方式之上引用结合进行说明,不同实施例之间均具有相同的部分,本说明书中各个实施例之间相同、相似的部分互相参见即可。在此不再详细阐述。
需要说明的是,在本说明书中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或暗示这些实体或操作之间存在任何这种实际的关系或顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的结构、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种结构、物品或者方法所固有的要素。在没有更多限制的情况下,有语句“包括一个……”限定的要素,并不排除在包括所述要素的结构、物品或者设备中还存在另外的相同要素。
本领域技术人员在考虑说明书及实践这里发明的公开后,将容易想到本申请的其他实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求的内容指出。
以上所述的本申请实施方式并不构成对本申请保护范围的限定。
Claims (7)
1.一种基于MTCNN的人脸检测与对齐方法,其特征在于,包括:
将输入图像进行缩放得到多个分辨率的金字塔图像层;
通过固定大小的窗口对多个所述金字塔图像层分别进行滑动扫描,得到多个候选窗口;
通过P-Net神经网络对所述候选窗口进行人脸筛选,得到第一筛选人脸;
根据所述第一筛选人脸对所述P-Net神经网络进行焦点损失训练,得到所述P-Net神经网络输出的第一检测人脸,其中,所述焦点损失训练的焦点损失函数为:其中,m表示所述第一筛选人脸的个数,pt表示所述第一筛选人脸分类正确的概率,αt表示所述第一筛选人脸分类的权重,γ为焦点系数;
通过R-Net神经网络对所述第一检测人脸进行人脸筛选,得到第二筛选人脸;
根据所述第二筛选人脸对所述R-Net神经网络进行焦点损失训练,得到所述R-Net神经网络输出的第二检测人脸;
通过O-Net神经网络对所述第二检测人脸进行人脸检测和对齐,得到第三检测人脸和人脸关键点;
根据所述第三检测人脸和人脸关键点对所述O-Net神经网络进行交叉熵损失训练,得到所述O-Net神经网络输出人脸区域坐标和人脸关键点坐标。
2.如权利要求1所述的基于MTCNN的人脸检测与对齐方法,其特征在于,根据所述第一筛选人脸对所述P-Net神经网络进行焦点损失训练,得到所述P-Net神经网络输出的第一检测人脸,包括:
利用焦点损失函数对所述第一筛选人脸进行分类训练;
判断所述第一筛选人脸的分类结果变化是否在预设范围内;
如果所述第一筛选人脸的分类结果变化在预设范围内,输出所述P-Net神经网络从所述第一筛选人脸中筛选出的第一检测人脸。
3.如权利要求1所述的基于MTCNN的人脸检测与对齐方法,其特征在于,通过P-Net神经网络对所述候选窗口进行人脸筛选,得到第一筛选人脸,包括:
对所述候选窗口进行特征正则化;
对特征正则化后的候选窗口进行卷积层计算;
对卷积计算后的候选窗口进行全连接层计算,得到所述候选窗口的分类结果。
4.如权利要求1所述的基于MTCNN的人脸检测与对齐方法,其特征在于,根据所述第一筛选人脸对所述P-Net神经网络进行焦点损失训练,得到所述P-Net神经网络输出的第一检测人脸,之前还包括:对所述第一筛选人脸进行非极大值抑制。
5.如权利要求1所述的基于MTCNN的人脸检测与对齐方法,其特征在于,将输入图像进行缩放得到多个分辨率的金字塔图像层,之前还包括:建立人脸检测与对齐的数据集。
6.如权利要求5所述的基于MTCNN的人脸检测与对齐方法,其特征在于,建立人脸检测与对齐的数据集,包括:
通过与背景真值并集分之交集的大小来确定负样本、正样本和部分面部样本;
将标注有人脸关键点的人脸图像作为关键点回归样本;
建立包含所述负样本、正样本、部分面部样本和关键点回归样本的数据集。
7.如权利要求6所述的基于MTCNN的人脸检测与对齐方法,其特征在于,建立人脸检测与对齐的数据集,还包括:
将所述负样本、正样本、部分面部样本和关键点回归样分别进行翻转处理得到对应的镜面样本;
将所述负样本、正样本、部分面部样本、关键点回归样本和镜面样本的图像对比度、亮度、色相和饱和度分别进行随机处理,得到对应的调色样本;
将所述负样本、正样本、部分面部样本、关键点回归样本、镜面样本和调色样本的像素值进行归一化处理,得到扩充数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910491272.9A CN110188730B (zh) | 2019-06-06 | 2019-06-06 | 基于mtcnn的人脸检测与对齐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910491272.9A CN110188730B (zh) | 2019-06-06 | 2019-06-06 | 基于mtcnn的人脸检测与对齐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188730A CN110188730A (zh) | 2019-08-30 |
CN110188730B true CN110188730B (zh) | 2022-12-23 |
Family
ID=67720750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910491272.9A Active CN110188730B (zh) | 2019-06-06 | 2019-06-06 | 基于mtcnn的人脸检测与对齐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188730B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110556129B (zh) * | 2019-09-09 | 2022-04-19 | 北京大学深圳研究生院 | 双模态情感识别模型训练方法及双模态情感识别方法 |
CN110807523B (zh) * | 2019-10-23 | 2022-08-05 | 中科智云科技有限公司 | 相似目标的检测模型生成方法及设备 |
CN113496174B (zh) * | 2020-04-07 | 2024-01-23 | 北京君正集成电路股份有限公司 | 一种提升三级级联检测召回率和正确率的方法 |
CN111898406B (zh) * | 2020-06-05 | 2022-04-29 | 东南大学 | 基于焦点损失和多任务级联的人脸检测方法 |
CN114092986A (zh) * | 2020-08-24 | 2022-02-25 | 珠海全志科技股份有限公司 | 活体人脸的检测方法及装置 |
CN112115818B (zh) * | 2020-09-01 | 2022-03-11 | 燕山大学 | 口罩佩戴识别方法 |
CN112944611A (zh) * | 2021-03-19 | 2021-06-11 | 珠海格力电器股份有限公司 | 空调器的控制方法、装置、存储介质及处理器 |
CN113313010A (zh) * | 2021-05-26 | 2021-08-27 | 广州织点智能科技有限公司 | 一种人脸关键点检测模型训练方法、装置和设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN107871134A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 一种人脸检测方法及装置 |
CN107967456A (zh) * | 2017-11-27 | 2018-04-27 | 电子科技大学 | 一种基于人脸关键点的多神经网络级联识别人脸方法 |
CN109359603A (zh) * | 2018-10-22 | 2019-02-19 | 东南大学 | 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法 |
CN109543606A (zh) * | 2018-11-22 | 2019-03-29 | 中山大学 | 一种加入注意力机制的人脸识别方法 |
-
2019
- 2019-06-06 CN CN201910491272.9A patent/CN110188730B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871134A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 一种人脸检测方法及装置 |
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN107967456A (zh) * | 2017-11-27 | 2018-04-27 | 电子科技大学 | 一种基于人脸关键点的多神经网络级联识别人脸方法 |
CN109359603A (zh) * | 2018-10-22 | 2019-02-19 | 东南大学 | 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法 |
CN109543606A (zh) * | 2018-11-22 | 2019-03-29 | 中山大学 | 一种加入注意力机制的人脸识别方法 |
Non-Patent Citations (2)
Title |
---|
Face Detection Using R-FCN Based Deformable Convolutional Networks;Qiaosong Chen 等;《IEEE》;20190117;全文 * |
人脸辅助诊断关键技术研究;梁雅琪 等;《计算机工程与应用》;20190524;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110188730A (zh) | 2019-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188730B (zh) | 基于mtcnn的人脸检测与对齐方法 | |
US11417148B2 (en) | Human face image classification method and apparatus, and server | |
CN113344849B (zh) | 一种基于YOLOv5的微乳头检测系统 | |
CN100423020C (zh) | 一种基于结构主元分析的人脸识别方法 | |
US7400761B2 (en) | Contrast-based image attention analysis framework | |
CN110232713B (zh) | 一种图像目标定位修正方法及相关设备 | |
WO2019237567A1 (zh) | 基于卷积神经网络的跌倒检测方法 | |
CN104408449B (zh) | 智能移动终端场景文字处理方法 | |
US20130188865A1 (en) | Image binarization based on grey membership parameter of pixels | |
CN107330979A (zh) | 建筑户型的矢量图生成方法、装置及终端 | |
Sarangi et al. | Gray-level image enhancement using differential evolution optimization algorithm | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
CN110135446B (zh) | 文本检测方法及计算机存储介质 | |
CN112381030B (zh) | 一种基于特征融合的卫星光学遥感图像目标检测方法 | |
CN108537286A (zh) | 一种基于关键区域检测的复杂目标精准识别方法 | |
US20140079316A1 (en) | Segmentation co-clustering | |
CN113822352B (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN106372624A (zh) | 人脸识别方法及系统 | |
CN109858570A (zh) | 图像分类方法及系统、计算机设备及介质 | |
CN107025444A (zh) | 分块协同表示嵌入核稀疏表示遮挡人脸识别方法和装置 | |
CN110705634A (zh) | 一种鞋跟型号识别方法、装置及存储介质 | |
CN112560857B (zh) | 文字区域边界检测方法、设备、存储介质及装置 | |
CN116703925B (zh) | 一种轴承缺陷检测方法、装置、电子设备及存储介质 | |
CN111881732B (zh) | 一种基于svm的人脸质量评价方法 | |
CN110276350A (zh) | 一种海上船舶目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |