CN111860174A - 融合RepGT-RepBox函数的遮挡人脸检测方法 - Google Patents

融合RepGT-RepBox函数的遮挡人脸检测方法 Download PDF

Info

Publication number
CN111860174A
CN111860174A CN202010573445.4A CN202010573445A CN111860174A CN 111860174 A CN111860174 A CN 111860174A CN 202010573445 A CN202010573445 A CN 202010573445A CN 111860174 A CN111860174 A CN 111860174A
Authority
CN
China
Prior art keywords
face
positive
repgt
repbox
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010573445.4A
Other languages
English (en)
Inventor
陈宁
李梦璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN202010573445.4A priority Critical patent/CN111860174A/zh
Publication of CN111860174A publication Critical patent/CN111860174A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了融合RepGT‑RepBox函数的遮挡人脸检测方法,具体按照以下步骤实施:步骤1:步骤1、卷积层提取图像feature map;步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT‑RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;步骤4:分类和回归层判断人脸具体位置。本发明遮挡人脸检测方法,可以有效遮挡对于人脸的干扰,加快训练速度,提高识别准确率。

Description

融合RepGT-RepBox函数的遮挡人脸检测方法
技术领域
本发明属于人脸检测技术领域,具体涉及一种融合RepGT-RepBox函数的遮挡人脸检测方法。
背景技术
人脸识别技术都是基于人脸关键特征提取对比完成识别的,其中,特征的完整性是算法成败的一个极为关键的因素,但是当受到外界干扰较多,外界的条件发生明显变化的时候,由于传统方法过于依赖明显的、完整的图像特征,一旦由于人脸发生遮挡,造成部分特征的消失,导致人脸图像特征不完整时,这种算法就会失效,导致无法和库中人脸信息进行对比。遮挡造成的人脸识别的困难主要体现在由遮挡所引发的特征损失、对准误差和局部混叠等方面。
Faster R-CNN框架由四个部分组成:1)卷积层(conv layers),用于提取图片的特征,输入为整张图片,输出为提取出的特征称为feature map。2)RPN网络(Region ProposalNetwork),用于推荐人脸候选区域,输出为多个候选区域。3)ROI pooling池化层,将不同大小的输入转换为固定长度的输出。4)分类和回归,这一层的输出是最终目的,输出候选区域所属的类,和候选区域在图像中的精确位置。
遮挡情形下周围其他目标的影响会干扰最终输出结果,检测的关键是使产生的proposals能够更加接近真实目标框。在RPN层融合RepGT-RepBox损失函数的遮挡人脸检测方法优点在于使得预测框和所负责的真实目标距离缩小,而使得其与周围非负责目标框距离增大,更加准确的判断行人位置。
综上所述,本文提出融合RepGT-RepBox损失函数的Faster-RCNN遮挡人脸检测方法,不仅训练速度快,并且提高遮挡情形下人脸识别率。
发明内容
本发明的目的是提供一种融合RepGT-RepBox函数的遮挡人脸检测方法,可以有效遮挡对于人脸的干扰,加快训练速度,提高识别准确率。
本发明所采用的技术方案如下:融合RepGT-RepBox函数的遮挡人脸检测方法,具体按照以下步骤实施:
步骤1:步骤1、卷积层提取图像feature map;
步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT-RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;
步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;
步骤4:分类和回归层判断人脸具体位置。
本发明的特征还在于,
步骤1的具体实施方式如下:
步骤1.1、首先要获取人脸图像,人脸图像来自WiderFace公开数据集,此数据集包含大量面部遮挡图片,将图像缩放至固定M×N大小;
步骤1.2、使用基于VGG16的Faster RCNN卷积层提取图像feature map。
步骤1.2中,所述Faster RCNN卷积层包括13个conv层,13个relu层,4个pooling层,依次通过这些层后可得到输入图像的feature map,conv、relu、pooling三种层的参数如下:
(1)13个conv层的参数均相同,具体为:kernel_size=3,pad=1,stride=1;
(2)13个relu层均使用激活函数;
(3)4个pooling层的参数均相同,具体为:kernel_size=2,stride=2,经过此层后得出大小为(M/16)×(N/16)的feature map,kenel_size 4=16。
步骤2的具体实施方式如下:
步骤2.1、先使用3*3的卷积核对feature map进行卷积运算,使feature map的特征更加集中;
步骤2.2、使用generate_anchors函数在feature map生成anchors,假设featuremap中每个点上有k个anchors,所以anchors数量是celi(M/16)×celi(N/16)×K,celi()表示向上取整运算;
步骤2.3、使用softmax判断得到的anchors属于positive anchors还是negativeanchors,提取出positive anchors为初步positive proposals候选区域;
步骤2.4、接着使用损失函数L计算positive anchors的bounding boxregression的偏移量,通过L的值,判断positive anchors是否范围超过人脸边界,剔除严重超出边界的anchors;以获得精确的positive proposals;
步骤2.5、排除掉超出人脸边界的positive anchors后,对剩下的positiveanchors进行Non-Maximum Suppression运算;
步骤2.6、对于进行了NMS后的positive anchors按分数从大到小排序,提取前Q个结果作为人脸候选区域positive proposals。
步骤2.4中,所述损失函数L的表达式具体如下:
L=LAttr+α*LRepGT+β*LRepBox (1)
式(1)中,LAttr为预测框与真实目标框所产生的损失值;LRepGT为预测框与相邻真实目标框所产生的损失值;LRepBox为预测框与相邻真实目标的预测框所产生的损失值;α和β为两个相关系数。
LAttr的定义为:
Figure BDA0002550470560000041
式(2)中,ρ+为所有positive proposals的集合,P∈ρ+,BP是P的预测框,G为真实目标框,
Figure BDA0002550470560000042
为P匹配一个与之有最大IoU值的真实目标框G;
Figure BDA0002550470560000043
SmoothL1用来度量两个框的逼近程度,
Figure BDA0002550470560000044
计算出BP
Figure BDA0002550470560000045
距离的最小损失值,即使目的预测框与真实目标框更加接近;
Figure BDA0002550470560000046
其中x为BP
Figure BDA0002550470560000047
之间的距离。
LRepGT具体为:
Figure BDA0002550470560000048
式(3)中,ρ+为所有positive proposals的集合,P∈ρ_+,BP为真实目标框预测框,
Figure BDA0002550470560000049
为相邻的真实目标框;
Figure BDA00025504705600000410
是真实目标框预测框BP和相邻的真实目标框
Figure BDA00025504705600000411
之间的距离;用来计算预测框BP与相邻的真实目标框
Figure BDA00025504705600000413
之间距离的损失值;
Figure BDA00025504705600000414
其中x为BP
Figure BDA00025504705600000415
之间的距离。
LRepBox具体为:
Figure BDA0002550470560000051
式(4),
Figure BDA0002550470560000052
表示子集Pi的预测框,
Figure BDA0002550470560000053
表示子集Pj的预测框,
Figure BDA0002550470560000054
表示
Figure BDA0002550470560000055
Figure BDA0002550470560000056
之间的距离,
Figure BDA0002550470560000057
用来计算
Figure BDA0002550470560000058
Figure BDA0002550470560000059
之间距离的损失值,1[]是恒等函数,恒等函数的输出等于其输入,ε为任一小数值常数以免分母为0。
步骤3的具体实施方式如下:
步骤3.1、输入是RPN层产生的前Q个positive proposals人脸候选区域和卷积层产生的原始的feature map,遍历每个Q个positive proposals将其映射到feature map上,从而将在feature map上确定一个区域(定义为RB*);
步骤3.2、在feature map上确定的区域RB*,根据池化参数pooled_w,pooled_h,将这个RB*区域划分为w*h个相同大小的小区域,对于每个小区域进行max pooling(最大池化)形成了一个w*h的feature map;Q个positive proposals遍历完后,会产生Q*w*h大小的feature map,为输出的新的大小统一的特征数组,同时作为下一层的输入。
步骤4的具体实施方式如下:
步骤4.1、ROI pooling池化层之后,利用softmax对上一步得到的Q*w*h个featuremap进行全连接操作,利用Softmax进行具体类别的分类;
步骤4.2、对人脸positive proposals进行bounding box regression微调人脸框大小,进一步确定人脸区域,排除遮挡物的干扰。
发明的有益效果是:
(1)本发明方法可以有效提高候选可见人脸区域选择准确度,提升检测模型对于遮挡人脸图像的鲁棒性,抑制遮挡为特征区域带来的损失和干扰,对于图像中人脸进行更好地定位和提取。
(2)本发明方法针对遮挡对人脸图像检测造成的干扰问题,以Faster RCNN模型为基干,在RPN层融合RepGT-RepBox损失函数的遮挡人脸检测方法,使得人脸预测框和真实人脸目标距离缩小,有效减少了遮挡因素的干扰更加精准地选取人脸候选区域,对于遮挡人脸图像具有更高的检测准确率和召回率。
(3)本发明方法RPN提取层融合RepGT-RepBox损失函数的遮挡人脸检测方法,可以有效遮挡对于人脸的干扰,加快训练速度,提高识别准确率。
附图说明
图1是本发明融合RepGT-RepBox函数的遮挡人脸检测方法的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种融合RepGT-RepBox函数的遮挡人脸检测方法,如图1所示,包括以下步骤:
步骤1:步骤1、卷积层提取图像feature map;
步骤1的具体实施方式如下:
步骤1.1、首先要获取人脸图像,人脸图像来自WiderFace公开数据集,此数据集包含大量面部遮挡图片,将图像缩放至固定M×N大小;
步骤1.2、使用基于VGG16的Faster RCNN卷积层提取图像feature map。
步骤1.2中,Faster RCNN卷积层包括13个conv层,13个relu层,4个pooling层,依次通过这些层后可得到输入图像的feature map,conv、relu、pooling三种层的参数如下:
(1)13个conv层的参数均相同,具体为:kernel_size=3,pad=1,stride=1;
(2)13个relu层均使用激活函数;
(3)4个pooling层的参数均相同,具体为:kernel_size=2,stride=2,经过此层后得出大小为(M/16)×(N/16)的feature map,kenel_size 4=16。
步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT-RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;
步骤2的具体实施方式如下:
步骤2.1、先使用3*3的卷积核对feature map进行卷积运算,使feature map的特征更加集中;
步骤2.2、使用generate_anchors函数在feature map生成anchors,(anchors为不同长宽的矩形边框)假设feature map中每个点上有k个anchors,所以anchors数量是celi(M/16)×celi(N/16)×K,celi()表示向上取整运算;
步骤2.3、使用softmax判断得到的anchors属于positive(目标人脸)anchors还是negative(背景信息)anchors,提取出positive anchors为初步positive proposals候选区域;
步骤2.4、接着使用损失函数L计算positive anchors的bounding boxregression(边框回归)的偏移量,通过L的值,判断positive anchors是否范围超过人脸边界,剔除严重超出边界的anchors;以获得精确的positive proposals,L中融合了RepGT-RepBox函数,RepGT-RepBox损失函数进一步排除遮挡的干扰信息;
步骤2.4中,所述损失函数L的表达式具体如下:
L=LAttr+α*LRepGT+β*LRepBox (1)
式(1)中,LAttr(Attraction term)为预测框与真实目标框所产生的损失值;LRepGT(repulsion term)为预测框与相邻真实目标框所产生的损失值;LRepBox(repulsion Box)为预测框与相邻真实目标的预测框所产生的损失值;α(alpha)和β(beta)为两个相关系数,通过两个相关系数α(alpha)和β(beta)来平衡两部分repulsion损失值。
在损失函数L中新融合了RepGT-RepBox函数,LAttr采用SmoothL1距离损失函数,LAttr的定义为:
Figure BDA0002550470560000081
式(2)中,ρ+为所有positive proposals的集合,P∈ρ+,BP是P的预测框,G为真实目标框,
Figure BDA0002550470560000082
为P匹配一个与之有最大IoU值的真实目标框G;
Figure BDA0002550470560000083
SmoothL1用来度量两个框的逼近程度,
Figure BDA0002550470560000084
计算出BP
Figure BDA0002550470560000085
距离的最小损失值,即使目的预测框与真实目标框更加接近;
Figure BDA0002550470560000086
其中x为BP
Figure BDA0002550470560000087
之间的距离。
LRepGT目的是使预测框尽可能远离与之相邻的真实目标框,给定一个P∈ρ_+,其相邻的真实目标框为
Figure BDA0002550470560000088
为除真实目标框之外IoU值最大的框,真实目标框预测框BP和相邻的真实目标框
Figure BDA0002550470560000089
之间的距离定义为:
Figure BDA00025504705600000810
Smoothln是在区间(0,1)连续可微分的平滑ln函数。
LRepGT具体为:
Figure BDA0002550470560000091
式(3)中,ρ+为所有positive proposals的集合,P∈ρ_+,BP为真实目标框预测框,
Figure BDA0002550470560000092
为相邻的真实目标框;
Figure BDA0002550470560000093
是真实目标框预测框BP和相邻的真实目标框
Figure BDA0002550470560000094
之间的距离;
Figure BDA0002550470560000095
用来计算预测框BP与相邻的真实目标框
Figure BDA0002550470560000096
之间距离的损失值;
Figure BDA0002550470560000097
其中x为BP
Figure BDA0002550470560000098
之间的距离。
LRepBox目的是使预测框尽量远离相邻真实目标的预测框。将ρ+分为不同的子集Pi、Pj......Pn
LRepBox具体为:
Figure BDA0002550470560000099
式(4)中,
Figure BDA00025504705600000910
表示子集Pi的预测框,
Figure BDA00025504705600000911
表示子集Pj的预测框,
Figure BDA00025504705600000912
表示
Figure BDA00025504705600000913
Figure BDA00025504705600000914
之间的距离,
Figure BDA00025504705600000915
用来计算
Figure BDA00025504705600000916
Figure BDA00025504705600000917
之间距离的损失值,1[]是恒等函数,恒等函数的输出等于其输入,ε为任一小数值常数以免分母为0。
步骤2.5、排除掉超出人脸边界的positive anchors后,对剩下的positiveanchors进行Non-Maximum Suppression(非极大值抑制NMS)运算;
步骤2.6、对于进行了NMS后的positive anchors按分数从大到小排序,提取前Q个结果作为人脸候选区域positive proposals。
步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;
步骤3的具体实施方式如下:
步骤3.1、输入是RPN层产生的前Q个positive proposals人脸候选区域和卷积层产生的原始的feature map,遍历每个Q个positive proposals将其映射到feature map上,从而将在feature map上确定一个区域(定义为RB*);
步骤3.2、在feature map上确定的区域RB*,根据池化参数pooled_w,pooled_h,将这个RB*区域划分为w*h个相同大小的小区域,对于每个小区域进行max pooling(最大池化)形成了一个w*h的feature map;Q个positive proposals遍历完后,会产生Q*w*h大小的feature map,为输出的新的大小统一的特征数组,同时作为下一层的输入。
步骤4:分类和回归层判断人脸具体位置。
步骤4的具体实施方式如下:
步骤4.1、ROI pooling池化层之后,利用softmax对上一步得到的Q*w*h个featuremap进行全连接操作,利用Softmax进行具体类别的分类。
步骤4.2、对人脸positive proposals进行bounding box regression(边框回归)微调人脸框大小,进一步确定人脸区域,排除遮挡物的干扰。

Claims (10)

1.融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,具体按照以下步骤实施:
步骤1:步骤1、卷积层提取图像feature map;
步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT-RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;
步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;
步骤4:分类和回归层判断人脸具体位置。
2.根据权利要求1所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤1的具体实施方式如下:
步骤1.1、首先要获取人脸图像,人脸图像来自WiderFace公开数据集,此数据集包含大量面部遮挡图片,将图像缩放至固定M×N大小;
步骤1.2、使用基于VGG16的Faster RCNN卷积层提取图像feature map。
3.根据权利要求2所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤1.2中,所述Faster RCNN卷积层包括13个conv层,13个relu层,4个pooling层,依次通过这些层后可得到输入图像的feature map,conv、relu、pooling三种层的参数如下:
(1)13个conv层的参数均相同,具体为:kernel_size=3,pad=1,stride=1;
(2)13个relu层均使用激活函数;
(3)4个pooling层的参数均相同,具体为:kernel_size=2,stride=2,经过此层后得出大小为(M/16)×(N/16)的feature map,kenel_size4=16。
4.根据权利要求3所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤2的具体实施方式如下:
步骤2.1、先使用3*3的卷积核对feature map进行卷积运算,使feature map的特征更加集中;
步骤2.2、使用generate_anchors函数在feature map生成anchors,假设feature map中每个点上有k个anchors,所以anchors数量是celi(M/16)×celi(N/16)×K,celi()表示向上取整运算;
步骤2.3、使用softmax判断得到的anchors属于positiveanchors还是negativeanchors,提取出positive anchors为初步positive proposals候选区域;
步骤2.4、接着使用损失函数L计算positive anchors的bounding box regression的偏移量,通过L的值,判断positive anchors是否范围超过人脸边界,剔除严重超出边界的anchors;以获得精确的positive proposals;
步骤2.5、排除掉超出人脸边界的positive anchors后,对剩下的positive anchors进行Non-Maximum Suppression运算;
步骤2.6、对于进行了NMS后的positive anchors按分数从大到小排序,提取前Q个结果作为人脸候选区域positive proposals。
5.根据权利要求4所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤2.4中,所述损失函数L的表达式具体如下:
L=LAttr+α*LRepGT+β*LRepBox (1)
式(1)中,LAttr为预测框与真实目标框所产生的损失值;LRepGT为预测框与相邻真实目标框所产生的损失值;LRepBox为预测框与相邻真实目标的预测框所产生的损失值;α和β为两个相关系数。
6.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,所述LAttr的定义为:
Figure FDA0002550470550000031
式(2)中,ρ+为所有positive proposals的集合,P∈ρ+,BP是P的预测框,G为真实目标框,
Figure FDA0002550470550000032
为P匹配一个与之有最大IoU值的真实目标框G;
Figure FDA0002550470550000033
SmoothL1用来度量两个框的逼近程度,
Figure FDA0002550470550000034
计算出BP
Figure FDA0002550470550000035
距离的最小损失值,即使目的预测框与真实目标框更加接近;
Figure FDA0002550470550000036
其中x为BP
Figure FDA0002550470550000037
之间的距离。
7.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,所述LRepGT具体为:
Figure FDA0002550470550000038
式(3)中,ρ+为所有positive proposals的集合,P∈ρ_+,BP为真实目标框预测框,
Figure FDA0002550470550000039
为相邻的真实目标框;
Figure FDA00025504705500000310
是真实目标框预测框BP和相邻的真实目标框
Figure FDA00025504705500000311
之间的距离;
Figure FDA00025504705500000312
用来计算预测框BP与相邻的真实目标框
Figure FDA00025504705500000313
之间距离的损失值;
Figure FDA00025504705500000314
其中x为BP
Figure FDA00025504705500000315
之间的距离。
8.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,所述LRepBox具体为:
Figure FDA0002550470550000041
式(4)中,
Figure FDA0002550470550000042
表示子集Pi的预测框,
Figure FDA0002550470550000043
表示子集Pj的预测框,
Figure FDA0002550470550000044
表示
Figure FDA0002550470550000045
Figure FDA0002550470550000046
之间的距离,
Figure FDA0002550470550000047
用来计算
Figure FDA0002550470550000048
Figure FDA0002550470550000049
之间距离的损失值,1[]是恒等函数,恒等函数的输出等于其输入,ε为任一小数值常数以免分母为0。
9.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤3的具体实施方式如下:
步骤3.1、输入是RPN层产生的前Q个positive proposals人脸候选区域和卷积层产生的原始的feature map,遍历每个Q个positive proposals将其映射到feature map上,从而将在feature map上确定一个区域;
步骤3.2、在feature map上确定的区域RB*,根据池化参数pooled_w,pooled_h,将这个RB*区域划分为w*h个相同大小的小区域,对于每个小区域进行max pooling形成了一个w*h的feature map;Q个positive proposals遍历完后,会产生Q*w*h大小的feature map,为输出的新的大小统一的特征数组,同时作为下一层的输入。
10.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤4的具体实施方式如下:
步骤4.1、ROI pooling池化层之后,利用softmax对上一步得到的Q*w*h个feature map进行全连接操作,利用Softmax进行具体类别的分类;
步骤4.2、对人脸positive proposals进行bounding box regression微调人脸框大小,进一步确定人脸区域,排除遮挡物的干扰。
CN202010573445.4A 2020-06-22 2020-06-22 融合RepGT-RepBox函数的遮挡人脸检测方法 Pending CN111860174A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010573445.4A CN111860174A (zh) 2020-06-22 2020-06-22 融合RepGT-RepBox函数的遮挡人脸检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010573445.4A CN111860174A (zh) 2020-06-22 2020-06-22 融合RepGT-RepBox函数的遮挡人脸检测方法

Publications (1)

Publication Number Publication Date
CN111860174A true CN111860174A (zh) 2020-10-30

Family

ID=72987815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010573445.4A Pending CN111860174A (zh) 2020-06-22 2020-06-22 融合RepGT-RepBox函数的遮挡人脸检测方法

Country Status (1)

Country Link
CN (1) CN111860174A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733650A (zh) * 2020-12-29 2021-04-30 深圳云天励飞技术股份有限公司 目标人脸检测方法、装置、终端设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909690A (zh) * 2019-11-26 2020-03-24 电子科技大学 一种基于区域生成的遮挡人脸图像检测方法
CN111310718A (zh) * 2020-03-09 2020-06-19 成都川大科鸿新技术研究所 一种遮挡人脸图像高准确率检测对比方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909690A (zh) * 2019-11-26 2020-03-24 电子科技大学 一种基于区域生成的遮挡人脸图像检测方法
CN111310718A (zh) * 2020-03-09 2020-06-19 成都川大科鸿新技术研究所 一种遮挡人脸图像高准确率检测对比方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MAGIC_LL: "论文阅读 || 目标检测系列 —— Faster RCNN详解", 《CNSD:HTTPS://BLOG.CSDN.NET/MAGIC_LL/ARTICLE/DETAILS/103346113》, pages 1 - 9 *
XINLONG WANG等: "Repulsion Loss: Detecting Pedestrians in a Crowd", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 3 - 4 *
张瑞国: "基于Face R-CNN 的人脸检测研究", 《电脑知识与技术》, vol. 14, no. 19, pages 3 - 4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733650A (zh) * 2020-12-29 2021-04-30 深圳云天励飞技术股份有限公司 目标人脸检测方法、装置、终端设备及存储介质
CN112733650B (zh) * 2020-12-29 2024-05-07 深圳云天励飞技术股份有限公司 目标人脸检测方法、装置、终端设备及存储介质

Similar Documents

Publication Publication Date Title
CN112861720B (zh) 基于原型卷积神经网络的遥感图像小样本目标检测方法
CN105844669B (zh) 一种基于局部哈希特征的视频目标实时跟踪方法
JP3740065B2 (ja) 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法
CN109635686B (zh) 结合人脸与外观的两阶段行人搜索方法
CN107808138B (zh) 一种基于FasterR-CNN的通信信号识别方法
CN105069457B (zh) 图像识别方法和装置
CN106557740B (zh) 一种遥感图像中油库目标的识别方法
CN101872415A (zh) 适用于iptv的视频拷贝检测方法
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
CN110852207A (zh) 基于面向对象影像分类技术的蓝色屋顶建筑物提取方法
CN109583329A (zh) 基于道路语义路标筛选的回环检测方法
Li et al. Saliency transfer: An example-based method for salient object detection.
CN116229112A (zh) 一种基于多重注意力的孪生网络目标跟踪方法
Chhabra et al. State-of-the-art: A systematic literature review of image segmentation in latent fingerprint forensics
CN112258403A (zh) 一种在动态烟雾中提取疑似烟雾区域的方法
Yang et al. A feature temporal attention based interleaved network for fast video object detection
CN111159475A (zh) 基于多摄像头视频图像的行人再识别路径生成方法
CN111860174A (zh) 融合RepGT-RepBox函数的遮挡人脸检测方法
CN117011346A (zh) 鼓风机图像配准算法
CN109271902B (zh) 复杂背景下基于时域经验模态分解的红外弱小目标检测方法
CN113379794B (zh) 基于注意力-关键点预测模型的单目标跟踪系统及方法
CN114882490A (zh) 一种基于点引导定位的无受限场景车牌检测分类方法
CN115375742A (zh) 生成深度图像的方法及系统
CN112380970B (zh) 基于局部区域搜索的视频目标检测方法
CN114782983A (zh) 基于改进特征金字塔和边界损失的道路场景行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination