CN110046595A - 一种基于级联式多尺度的密集人脸检测方法 - Google Patents
一种基于级联式多尺度的密集人脸检测方法 Download PDFInfo
- Publication number
- CN110046595A CN110046595A CN201910326673.9A CN201910326673A CN110046595A CN 110046595 A CN110046595 A CN 110046595A CN 201910326673 A CN201910326673 A CN 201910326673A CN 110046595 A CN110046595 A CN 110046595A
- Authority
- CN
- China
- Prior art keywords
- face
- data set
- small
- big
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Abstract
本发明涉及一种基于级联式多尺度的密集人脸检测方法,分别训练多种尺度范围的检测器,每种物体检测器针对特定的尺度范围,然后将其级联起来,来优化现有的网络结构,这种策略可以搭载在任何人脸检测的深度模型中,具有良好的扩展性,而且对密集小人脸检测更加适用。可以应用于密集人群监测,教室人数统计等具体场景,有着很强的应用价值。
Description
技术领域
本发明涉及深度学习与计算机视觉领域,具体涉及一种基于级联式多尺度的密集小人脸检测方法。
背景技术
深度学习已经在图像分类和物体检测领域中展现了强大的生命力。在最近五年中,自从AlexNet被提出后,在ImageNet数据集的错误率,已经从15%降到2%,已经超于了人类的水平。另一方面,在物体检测领域,最好性能的检测器在COCO数据集也仅仅达到60%的mAp,为什么对于图像分类来说,物体检测相对较难呢?
这是由于物体检测不同于图像分类任务,图像分类的图片尺寸往往是固定的,对于卷积神经网络来说,单一尺度的图像尤其适合卷积核卷积不变的特性,由于训练好的深度模型的权重不变,当图像输入卷积神经网络,根据权重的大小,会产生对应的分类置信度。这是深度学习在图像分类领域中完美的尝试,并且超过了人类的水平,但是与分类任务不同的是,物体检测不光要给出计算出物体的类别,还要给出图像中物体的位置信息,这无疑增大了物体检测的难度,并且,在一张图像里,会存在不同尺度的物体,有些物体只占有很少的像素点,这就进一步增大物体检测的难度。由于物体检测存在着各种各样的困难,并且同一标签的物体尺度范围可能很大,这对卷积神经网络的尺度不变性是一个巨大的挑战,在尺度范围变化较大的数据集中,一个检测器必须适应各种不同尺度的物体。除了尺度范围变化较大的这一问题外,当图像中物体的密集程度过密时,会存在漏检的现象,所以这也是有待解决的问题之一。
发明内容
有鉴于此,本发明的目的在于提供一种基于级联式多尺度的密集人脸检测方法,可以提高探测器准确度,适用于任何目标检测框架。
为实现上述目的,本发明采用如下技术方案:
一种基于级联式多尺度的密集人脸检测方法,包括以下步骤:
步骤S1:采集人脸数据集,并进行预处理,得到预处理后的数据集;
步骤S2:根据预处理后的数据集训练全局检测器;
步骤S3:根据预处理后的数据集,构建局部人脸数据集.并根据得到的局部人脸数据集训练局部检测器;
步骤S5:将全局检测器与局部检测器级联;
步骤S6:将待测图像输入级联后的全局检测器及局部检测器,得到全局检测结果和局部检测结果,并采用非极大值抑制的方法将全局检测结果和局部检测结果结合,得到最终人脸检测结果。
进一步的,所述步骤S1具体为:
步骤S11:收集公开的人脸数据集,并获得相关的图像和标签,并且利用数据增强方式得到扩充的数据集;
步骤S12:采用pascal_voc数据集格式,利用收集到的人脸数据集标签,得到每张人脸图像的xml文件,并将这些xml文件按照pascal_voc格式,将得到的xml文件和图像文件组织在一起,得到预处理后的数据集。
进一步的,所述步骤S2具体为:
步骤S21:将预处理后的数据集,采用VGG16模型基础网络,并且将在Imagenet的预训练的权重加载在现有的VGG模型基础网络上,并在此基础上,训练全局检测器;
步骤S22:全局检测器包含必要的两个部分,特征提取部分和回归分类部分,其中回归分类部分包括分类器和回归器,特征提取部分的数学表达式如公式(1)所示:
其中a是图像,ri=(rix,riy,riw,rih)是对应的感兴趣区域坐标值,其中ri是候选集r={r1,r2,r3...ri...rn}的第i个感兴趣区域,rix,riy,riw,rih中的下标x,y,w,h分别是感兴趣区域的横坐标,纵坐标,区域的宽和区域的高,而特征提取的过程t是一系列的函数{t1,t2,t3...tn-1,tn}复合得到的,其中上标的1到n代表卷积层的层号;
步骤S15:含训练分类器和回归器,回归器的任务是为每一个感兴趣区域ri匹配一个真实框gi,其中gi是由真实区域集g={g1,g2,...gi...gn}中选出的,这样回归任务就是极小化定位风险函数
在RCNN中,Lloc是L2损失函数,在Fast RCNN中,Lloc是平滑的L1损失函数Lloc作用在距离向量Δi=(δix,δiy,δiw,δih),其中:
分类器的任务是通过拟合一个分类函数Lcls,这个分类函数的人脸是学习一个从图像区域到类别的分布函数,Lcls(t(ai,ri),vi)=p(v=k|ri,a),其中vi是从人脸的类别标签候选集v={v1,v2,v3…vi…vn}中,由网络预测的第i个标签值,k是具体的标签属性,ri是图像区域,p是图像区域属于标签k的概率值,分类器的任务是极小化分类风险函数
其中Lcls是交叉熵损失函数。
进一步的,所述步骤S3具体为:
步骤S31:预处理后的的数据集人脸的尺度遵循正态分布(μ,σ);
步骤S32:设定os<μ-σ,o/>μ+σ,其中os和o/分别表示大人脸和小人脸的尺度边界,则可以确定小人脸和大人脸的缩放因子fs和fl,
scaleaverage代表尺度平均值;
步骤S33:将小人脸所在的区域定义为信号,把其余人脸所在的区域和那些重叠率没有达到90%的小人脸所在的区域定义为噪音,用signalsmall,noisesmall,noiseotherlarge分别表示小人脸信号,来自于重叠率没达到90%的小人脸的噪声,来自于大人脸的噪声,由于小人脸和其余人脸的尺度比不一致,所以噪音贡献的权重也不一样,所以定义了权重系数ws=0.8和wl=0.2,得到小人脸裁剪尺寸:
其中Ws是ωs的候选集,C是图像的数目;
同样的,在训练大人脸局部检测器的时候,将大人脸所在的区域定义为信号,把其余人脸所在的区域和那些重叠率没有达到90%的大人脸所在的区域定义为噪音,用signallarge,noiselarge,noiseothersmall分别表示大人脸信号,来自于重叠率没有达到90%的大人脸噪声,来自于小人脸的噪声,由于大人脸和其余人脸的尺度不一致,所以噪音贡献的权重也不一样,所以定义了权重系数ws=0.8和wl=0.2,得到了大人脸的裁剪尺寸:
其中Wl是ωl的候选集,C是图像的数目;
步骤S34:当检测小人脸的时候,对于每一张在原始数据集的图片,首先以全局检测器中检测到的符合小人脸定义的小人脸为中心,裁剪出来一张ωS×ωS的子图片,并且保留这张图片其余具有相似尺度的小人脸,然后将所有的子图像放大fs倍,把这些图片收集起来用来训练其中的一个小人脸局部检测器Ds
步骤S35:当检测大人脸的时候,对于每一张在原始数据集的图片,首先以全局检测器中检测到的符合大人脸定义的大人脸为中心,裁剪出来一张的ωl×ωl子图片,并且保留这张图片其余具有相似尺度的大人脸,然后将所有的子图片缩小fl倍,把这些图片收集起来,得到局部大人脸数据集,并根据得到的局部人脸数据集训练大人脸局部检测器。
进一步的,所述步骤S5具体为:
步骤S51:当检测到一张小人脸时,其中心坐标为将大人脸局部检测器的坐标变换成全局检测器的标准形式,其坐标变换公式如:
其中(xs,ys,ws,hs)是小人脸局部检测器坐标系坐标,(x′s,y′s,w′s,h′s)是全局检测器坐标系坐标;字母x,y,w,h分别表示横坐标,纵坐标,宽,高的四元组;
步骤S42:当检测到一张大人脸时,其中心坐标为将大人脸局部检测器的坐标变换成全局检测器的标准形式,其坐标变换公式如公式7:
其中(xl,yl,wl,hl)是大人脸局部检测器坐标系坐标,(x′l,y′l,w′l,h′l)是全局检测器坐标系坐标;
步骤S43:将转换后的两个局部检测器的结果和之前的全局检测器结果合并,然后进行非极大值抑制,当分数高的人脸和分数低的人脸IOU超过阈值z时,得分高的人脸会将得分低的人脸抑制,得到最终人脸检测结果。
本发明与现有技术相比具有以下有益效果:
1、本发明可以提高探测器准确度,适用于任何人脸检测框架,且可以添加级联的局部检测器,以便改进粗略的全局检测结果。
2、本发明训练不同的探测器以适应不同尺度的人脸,以柔和的方式,将不同尺度的人脸归一化到相同的大小,并将其输入到不同的局部探测器,以达到维持卷积的尺度不变性的目的。
3、本发明局部检测器和全局检测器的划分不同,局部检测器不影响原始全局检测器的检测性能。详细的局部检测结果用于细化初始检测,可以大大提高准确性。
附图说明
图1是本发明方法流程图;
图2是本发明一实施例中室内效果图;
图3是本发明一实施例中室外效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于级联式多尺度的密集人脸检测方法,包括以下步骤:
步骤S1:采集人脸数据集,并进行预处理,得到预处理后的数据集;
步骤S2:根据预处理后的数据集训练全局检测器;
步骤S3:根据预处理后的数据集,构建局部人脸数据集.并根据得到的局部人脸数据集训练局部检测器;
步骤S5:将全局检测器与局部检测器级联;
步骤S6:将待测图像输入级联后的全局检测器及局部检测器,得到全局检测结果和局部检测结果,并采用非极大值抑制的方法将全局检测结果和局部检测结果结合,得到最终人脸检测结果。
在本实施例中,所述步骤S1具体为:
步骤S11:收集公开的人脸数据集,并获得相关的图像和标签,并且利用数据增强方式得到扩充的数据集;
步骤S12:采用pascal_voc数据集格式,利用收集到的人脸数据集标签,得到每张人脸图像的xml文件,并将这些xml文件按照pascal_voc格式,将得到的xml文件和图像文件组织在一起,得到预处理后的数据集。
本实施例中,所述步骤S2具体为:
步骤S21:将预处理后的数据集,采用VGG16模型基础网络,并且将在Imagenet的预训练的权重加载在现有的VGG模型基础网络上,并在此基础上,训练全局检测器;
步骤S22:全局检测器包含必要的两个部分,特征提取部分和回归分类部分,其中回归分类部分包括分类器和回归器,特征提取部分的数学表达式如公式(1)所示:
其中a是图像,ri=(rix,riy,riw,rih)是对应的感兴趣区域坐标值,其中ri是候选集r={r1,r2,r3...ri...rn}的第i个感兴趣区域,rix,riy,riw,rih中的下标x,y,w,h分别是感兴趣区域的横坐标,纵坐标,区域的宽和区域的高,而特征提取的过程t是一系列的函数{t1,t2,t3...tn-1,tn}复合得到的,其中上标的1到n代表卷积层的层号;
步骤S15:含训练分类器和回归器,回归器的任务是为每一个感兴趣区域ri匹配一个真实框gi,其中gi是由真实区域集g={g1,g2,...gi...gn}中选出的,这样回归任务就是极小化定位风险函数
在RCNN中,Lloc是L2损失函数,在Fast RCNN中,Lloc是平滑的L1损失函数Lloc作用在距离向量Δi=(δix,δiy,δiw,δih),其中:
分类器的任务是通过拟合一个分类函数Lcls,这个分类函数的人脸是学习一个从图像区域到类别的分布函数,Lcls(t(ai,ri),vi)=p(v=k|ri,a),其中vi是从人脸的类别标签候选集v={v1,v2,v3…vi…vn}中,由网络预测的第i个标签值,k是具体的标签属性,ri是图像区域,p是图像区域属于标签k的概率值,分类器的任务是极小化分类风险函数
其中Lcls是交叉熵损失函数。
在本实施例中,所述步骤S3具体为:首先检测人脸的尺度遵循正态分布(μ,σ)的,那么我们规定在一个标准差范围之外的尺度为小尺度和大尺度,但是实际情况下,可能会出现异常值,所以先对全局检测器的检测结果做数据清洗,我们采用箱型图来处理这种尺度过大或过小的异常值,箱型图提供了一个识别异常值的标准,即大于或小于箱型图设定的上下界的数值为异常值,首先定义上四分位和下四分位。上四分位设定为U。表示的是所有样本中只有的数值大于U,同理,下四分位设置为L,表示的是所有样本中只有的数值小于L,然后设置上四分位和下四分位的差值为IQR,即IQR=U-R,那么上界为U+1.5IQR,下界为L-1.5IQR。
步骤S31:预处理后的的数据集人脸的尺度遵循正态分布(μ,σ);
步骤S32:设定os<μ-σ,o/>μ+σ,其中os和o/分别表示大人脸和小人脸的尺度边界,则可以确定小人脸和大人脸的缩放因子fs和fl,
scaleaverage代表尺度平均值;
步骤S33:将小人脸所在的区域定义为信号,把其余人脸所在的区域和那些重叠率没有达到90%的小人脸所在的区域定义为噪音,用signalsmall,noisesmall,noiseotherlarge分别表示小人脸信号,来自于重叠率没达到90%的小人脸的噪声,来自于大人脸的噪声,由于小人脸和其余人脸的尺度比不一致,所以噪音贡献的权重也不一样,所以定义了权重系数ws=0.8和wl=0.2,得到小人脸裁剪尺寸:
其中Ws是ωs的候选集,C是图像的数目;
同样的,在训练大人脸局部检测器的时候,将大人脸所在的区域定义为信号,把其余人脸所在的区域和那些重叠率没有达到90%的大人脸所在的区域定义为噪音,用signallarge,noiselarge,noiseothersmall分别表示大人脸信号,来自于重叠率没有达到90%的大人脸噪声,来自于小人脸的噪声,由于大人脸和其余人脸的尺度不一致,所以噪音贡献的权重也不一样,所以定义了权重系数ws=0.8和wl=0.2,得到大人脸的裁剪尺寸:
其中Wl是ωl的候选集,C是图像的数目;
步骤S34:当检测小人脸的时候,对于每一张在原始数据集的图片,首先以全局检测器中检测到的符合小人脸定义的小人脸为中心,裁剪出来一张ωS×ωS的子图片,并且保留这张图片其余具有相似尺度的小人脸,然后将所有的子图像放大fs倍,把这些图片收集起来用来训练其中的一个小人脸局部检测器Ds
步骤S35:当检测大人脸的时候,对于每一张在原始数据集的图片,首先以全局检测器中检测到的符合大人脸定义的大人脸为中心,裁剪出来一张的ωl×ωl子图片,并且保留这张图片其余具有相似尺度的大人脸,然后将所有的子图片缩小fl倍,把这些图片收集起来,得到局部大人脸数据集,并根据得到的局部人脸数据集训练大人脸局部检测器。
在本实施例中,所述步骤S5具体为:
步骤S51:当检测到一张小人脸时,其中心坐标为将大人脸局部检测器的坐标变换成全局检测器的标准形式,其坐标变换公式如:
其中(xs,ys,ws,hs)是小人脸局部检测器坐标系坐标,(x′s,y′s,w′s,h′s)是全局检测器坐标系坐标;字母x,y,w,h分别表示横坐标,纵坐标,宽,高的四元组;
步骤S42:当检测到一张大人脸时,其中心坐标为将大人脸局部检测器的坐标变换成全局检测器的标准形式,其坐标变换公式如公式7:
其中(xl,yl,wl,hl)是大人脸局部检测器坐标系坐标,(x′l,y′l,w′l,h′l)是全局检测器坐标系坐标;
步骤S43:将转换后的两个局部检测器的结果和之前的全局检测器结果合并,然后进行非极大值抑制,当分数高的人脸和分数低的人脸IOU超过阈值z时,得分高的人脸会将得分低的人脸抑制,得到最终人脸检测结果。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (5)
1.一种基于级联式多尺度的密集人脸检测方法,其特征在于,包括以下步骤:
步骤S1:采集人脸数据集,并进行预处理,得到预处理后的数据集;
步骤S2:根据预处理后的数据集训练全局检测器;
步骤S3:根据预处理后的数据集,构建局部人脸数据集.并根据得到的局部人脸数据集训练局部检测器;
步骤S5:将全局检测器与局部检测器级联;
步骤S6:将待测图像输入级联后的全局检测器及局部检测器,得到全局检测结果和局部检测结果,并采用非极大值抑制的方法将全局检测结果和局部检测结果结合,得到最终人脸检测结果。
2.根据权利要求1所述的一种基于级联式多尺度的密集人脸检测方法,其特征在于:所述步骤S1具体为:
步骤S11:收集公开的人脸数据集,并获得相关的图像和标签,并且利用数据增强方式得到扩充的数据集;
步骤S12:采用pascal_voc数据集格式,利用收集到的人脸数据集标签,得到每张人脸图像的xml文件,并将这些xml文件按照pascal_voc格式,将得到的xml文件和图像文件组织在一起,得到预处理后的数据集。
3.根据权利要求2所述的种基于级联式多尺度的密集人脸检测方法,其特征在于:所述步骤S2具体为:
步骤S21:将预处理后的数据集,采用VGG16模型基础网络,并且将在Imagenet的预训练的权重加载在现有的VGG模型基础网络上,并在此基础上,训练全局检测器;
步骤S22:全局检测器包含必要的两个部分,特征提取部分和回归分类部分,其中回归分类部分包括分类器和回归器,特征提取部分的数学表达式如公式(1)所示:
其中a是图像,ri=(rix,riy,riw,rih)是对应的感兴趣区域坐标值,其中ri是候选集r={r1,r2,r3…ri…rn}的第i个感兴趣区域,rix,riy,riw,rih中的下标x,y,w,h分别是感兴趣区域的横坐标,纵坐标,区域的宽和区域的高,而特征提取的过程t是一系列的函数{t1,t2,t3...tn-1,tn}复合得到的,其中上标的1到n代表卷积层的层号;
步骤S15:含训练分类器和回归器,回归器的任务是为每一个感兴趣区域ri匹配一个真实框gi,其中gi是由真实区域集g={g1,g2,…gi…gn}中选出的,这样回归任务就是极小化定位风险函数
在RCNN中,Lloc是L2损失函数,在Fast RCNN中,Lloc是平滑的L1损失函数Lloc作用在距离向量Δi=(δix,δiy,δiw,δih),其中:
分类器的任务是通过拟合一个分类函数Lcls,这个分类函数的目标是学习一个从图像区域到类别的分布函数,Lcls(t(ai,ri),vi)=p(v=k|ri,a),其中vi是从人脸的类别标签候选集v={v1,v2,v3…vi…vn}中,由网络预测的第i个标签值,k是具体的标签属性,ri是图像区域,p是图像区域属于标签k的概率值,分类器的任务是极小化分类风险函数
其中Lcls是交叉熵损失函数。
4.根据权利要求1所述的种基于级联式多尺度的密集人脸检测方法,其特征在于:所述步骤S3具体为:
步骤S31:预处理后的的数据集人脸的尺度遵循正态分布(μ,σ);
步骤S32:设定os<μ-σ,o/>μ+σ,其中os和o/分别表示大人脸和小人脸的尺度边界,则可以确定小人脸和大人脸的缩放因子fs和fl,
scaleaverage代表尺度平均值;
步骤S33:将小人脸所在的区域定义为信号,把其余人脸所在的区域和那些重叠率没有达到90%的小人脸所在的区域定义为噪音,用signalsmall,noisesmall,noiseotherlarge分别表示小人脸信号,来自于重叠率没达到90%的小人脸的噪声,来自于大人脸的噪声,由于小人脸和其余人脸的尺度比不一致,所以噪音贡献的权重也不一样,所以定义了权重系数ws=0.8和wl=0.2,得到小人脸裁剪尺寸:
其中Ws是ωs的候选集,C是图像的数目;
同样的,在训练大人脸局部检测器的时候,将大人脸所在的区域定义为信号,把其余人脸所在的区域和那些重叠率没有达到90%的大人脸所在的区域定义为噪音,用signallarge,noiselarge,noiseothersmall分别表示大人脸信号,来自于重叠率没有达到90%的大人脸噪声,来自于小人脸的噪声,由于大人脸和其余人脸的尺度不一致,所以噪音贡献的权重也不一样,所以定义了权重系数ws=0.8和wl=0.2,得到了大人脸的裁剪尺寸:
其中Wl是ωl的候选集,C是图像的数目;
步骤S34:当检测小人脸的时候,对于每一张在原始数据集的图片,首先,以全局检测器中检测到的符合小人脸定义的小人脸为中心,裁剪出来一张ωS×ωS的子图片,并且保留这张图片其余具有相似尺度的小人脸,然后将所有的子图像放大fs倍,把这些图片收集起来用来训练其中的一个小人脸局部检测器Ds
步骤S35:当检测大人脸的时候,对于每一张在原始数据集的图片,首先以全局检测器中检测到的符合大人脸定义的大人脸为中心,裁剪出来一张的ωl×ωl子图片,并且保留这张图片其余具有相似尺度的大人脸,然后将所有的子图片缩小fl倍,把这些图片收集起来,得到局部大人脸数据集,并根据得到的局部人脸数据集训练大人脸局部检测器。
5.根据权利要求1所述的一种基于级联式多尺度的密集人脸检测方法,其特征在于:所述步骤S5具体为:
步骤S51:当检测到一张小人脸时,其中心坐标为将大人脸局部检测器的坐标变换成全局检测器的标准形式,其坐标变换公式如:
其中(xs,ys,ws,hs)是小人脸局部检测器坐标系坐标,(x's,y's,w's,h′s)是全局检测器坐标系坐标;字母x,y,w,h分别表示横坐标,纵坐标,宽,高的四元组;
步骤S42:当检测到一张大人脸时,其中心坐标为将大人脸局部检测器的坐标变换成全局检测器的标准形式,其坐标变换公式如公式7:
其中(xl,yl,wl,hl)是大人脸局部检测器坐标系坐标,(x′l,y′l,w′l,h′l)是全局检测器坐标系坐标;
步骤S43:将转换后的两个局部检测器的结果和之前的全局检测器结果合并,然后进行非极大值抑制,当分数高的目标和分数低的人脸IOU超过阈值z时,得分高的人脸会将得分低的人脸抑制,得到最终人脸检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910326673.9A CN110046595B (zh) | 2019-04-23 | 2019-04-23 | 一种基于级联式多尺度的密集人脸检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910326673.9A CN110046595B (zh) | 2019-04-23 | 2019-04-23 | 一种基于级联式多尺度的密集人脸检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110046595A true CN110046595A (zh) | 2019-07-23 |
CN110046595B CN110046595B (zh) | 2022-08-09 |
Family
ID=67278636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910326673.9A Active CN110046595B (zh) | 2019-04-23 | 2019-04-23 | 一种基于级联式多尺度的密集人脸检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110046595B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717424A (zh) * | 2019-09-26 | 2020-01-21 | 南昌大学 | 一种基于预处理机制的实时极小人脸检测方法 |
CN111598867A (zh) * | 2020-05-14 | 2020-08-28 | 国家卫生健康委科学技术研究所 | 用于检测特定面部综合征的方法、装置及计算机可读存储介质 |
CN112233071A (zh) * | 2020-09-28 | 2021-01-15 | 国网浙江省电力有限公司杭州供电公司 | 基于复杂环境下输电网图片的多粒度隐患检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426828A (zh) * | 2015-11-10 | 2016-03-23 | 浙江宇视科技有限公司 | 人脸检测方法、装置及系统 |
CN106407958A (zh) * | 2016-10-28 | 2017-02-15 | 南京理工大学 | 基于双层级联的面部特征检测方法 |
US20180150681A1 (en) * | 2016-11-30 | 2018-05-31 | Altumview Systems Inc. | Face detection using small-scale convolutional neural network (cnn) modules for embedded systems |
CN108564029A (zh) * | 2018-04-12 | 2018-09-21 | 厦门大学 | 基于级联多任务学习深度神经网络的人脸属性识别方法 |
CN109145854A (zh) * | 2018-08-31 | 2019-01-04 | 东南大学 | 一种基于级联卷积神经网络结构的人脸检测方法 |
-
2019
- 2019-04-23 CN CN201910326673.9A patent/CN110046595B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426828A (zh) * | 2015-11-10 | 2016-03-23 | 浙江宇视科技有限公司 | 人脸检测方法、装置及系统 |
CN106407958A (zh) * | 2016-10-28 | 2017-02-15 | 南京理工大学 | 基于双层级联的面部特征检测方法 |
US20180150681A1 (en) * | 2016-11-30 | 2018-05-31 | Altumview Systems Inc. | Face detection using small-scale convolutional neural network (cnn) modules for embedded systems |
CN108564029A (zh) * | 2018-04-12 | 2018-09-21 | 厦门大学 | 基于级联多任务学习深度神经网络的人脸属性识别方法 |
CN109145854A (zh) * | 2018-08-31 | 2019-01-04 | 东南大学 | 一种基于级联卷积神经网络结构的人脸检测方法 |
Non-Patent Citations (3)
Title |
---|
KE,XIAO ET AL.: "Dense small face detection based on regional cascade multi-scale method", 《IET IMAGE PROCESSING》 * |
WEI BU ET AL.: "A cascade framework for masked face detection", 《2017 IEEE INTERNATIONAL CONFERENCE ON CYBERNETICS AND INTELLIGENT SYSTEMS (CIS) AND IEEE CONFERENCE ON ROBOTICS, AUTOMATION AND MECHATRONICS (RAM)》 * |
包晓安 等: "基于级联网络的快速人脸检测算法", 《浙江理工大学学报(自然科学版)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717424A (zh) * | 2019-09-26 | 2020-01-21 | 南昌大学 | 一种基于预处理机制的实时极小人脸检测方法 |
CN110717424B (zh) * | 2019-09-26 | 2023-06-30 | 南昌大学 | 一种基于预处理机制的实时极小人脸检测方法 |
CN111598867A (zh) * | 2020-05-14 | 2020-08-28 | 国家卫生健康委科学技术研究所 | 用于检测特定面部综合征的方法、装置及计算机可读存储介质 |
CN112233071A (zh) * | 2020-09-28 | 2021-01-15 | 国网浙江省电力有限公司杭州供电公司 | 基于复杂环境下输电网图片的多粒度隐患检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110046595B (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109359559B (zh) | 一种基于动态遮挡样本的行人再识别方法 | |
Wang et al. | Joint learning of visual attributes, object classes and visual saliency | |
CN110287960A (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN108334848A (zh) | 一种基于生成对抗网络的微小人脸识别方法 | |
CN108334847A (zh) | 一种真实场景下的基于深度学习的人脸识别方法 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
CN101833664A (zh) | 基于稀疏表达的视频图像文字检测方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN110046595A (zh) | 一种基于级联式多尺度的密集人脸检测方法 | |
CN105608454A (zh) | 基于文字结构部件检测神经网络的文字检测方法及系统 | |
CN110232387A (zh) | 一种基于kaze-hog算法的异源图像匹配方法 | |
CN111291759A (zh) | 文字检测方法、装置、电子设备及存储介质 | |
CN112287983B (zh) | 一种基于深度学习的遥感图像目标提取系统和方法 | |
CN110555841A (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
CN114241422A (zh) | 一种基于ESRGAN和改进YOLOv5s的学生课堂行为检测方法 | |
CN112232371A (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
CN111612747A (zh) | 产品表面裂缝快速检测方法及检测系统 | |
CN103093243A (zh) | 高分辨率全色遥感图像云判方法 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
CN113988222A (zh) | 一种基于Faster-RCNN的森林火灾检测与识别方法 | |
Tu et al. | Detecting building facade damage from oblique aerial images using local symmetry feature and the GINI index | |
CN106548195A (zh) | 一种基于改进型hog‑ulbp特征算子的目标检测方法 | |
CN109934147B (zh) | 基于深度神经网络的目标检测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |