CN115171183A - 一种基于改进yolov5的口罩人脸检测方法 - Google Patents

一种基于改进yolov5的口罩人脸检测方法 Download PDF

Info

Publication number
CN115171183A
CN115171183A CN202210737864.6A CN202210737864A CN115171183A CN 115171183 A CN115171183 A CN 115171183A CN 202210737864 A CN202210737864 A CN 202210737864A CN 115171183 A CN115171183 A CN 115171183A
Authority
CN
China
Prior art keywords
convolution
layer
mask
network
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210737864.6A
Other languages
English (en)
Inventor
祁云嵩
葛云飞
孟祥宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University of Science and Technology
Original Assignee
Jiangsu University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University of Science and Technology filed Critical Jiangsu University of Science and Technology
Priority to CN202210737864.6A priority Critical patent/CN115171183A/zh
Publication of CN115171183A publication Critical patent/CN115171183A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种基于深度学习的口罩人脸检测方法,步骤是:收集制作口罩人脸的数据集;在输入层马赛克数据增强时采用9张图片,随机选取一张置于中心位置,另外8张随机裁剪和随机缩放,随机排列在中心的左上、上、右上、左、右、左下、下和右下的8个位置拼接成一张图片,增加数据集中的小目标数量并且提高了网络的鲁棒性;改进后的三层卷积跨阶段局部幻影网络模块将原模块中的标准卷积替换成幻影卷积,压缩了网络并降低了计算量,提高检测速度;主干层的标准卷积模块后添加卷积块注意力模块,分别进行通道与空间上的注意力,提高对脸部特征关注,减少网络收敛的时间。本发明压缩了网络的参数量和计算量同时提高了检测的准确率,减少了对硬件的依赖。

Description

一种基于改进yolov5的口罩人脸检测方法
技术领域
本发明涉及深度学习和目标检测技术领域,具体涉及一种基于改进yolov5的口罩人脸检测方法。
背景技术
出于对病毒传染的预防,人们佩戴口罩出行已经成为常态,而佩戴口罩所导致的面部遮挡问题干扰了人脸检测,导致人脸识别算法的出现漏检情况,给如今众多人脸识别应用带来巨大的挑战,如在通过火车站、机场安检通道时进行人脸认证就需要摘下口罩,在某种程度上这就会带来一定的安全隐患。在人脸识别算法中增强人脸检测网络,高效准确识别口罩遮挡的人脸,此举能够减少人员交叉感染的风险,有效地抑制病毒的传播。
口罩人脸检测从本质上来说是属于目标检测范畴,随着深度神经网络的快速发展,目标检测算法主要分为“两阶段”和“单阶段”,“两阶段”指的是将提取特征和检测分为两个步骤,以Faster R-CNN为代表,首先为先进性区域选取,再进行分类;而“单阶段”则是将这两个步骤合并为一步,以YOLO系列为代表,将区域选取和分类融合到同一个网络中,构建一个“分类+回归”的多任务学习模型结构。“两阶段”算法检测精度虽高但检测速度不够快,而“单阶段”算法如2020年提出的yolov5,最新版v6.0版本在COCO数据集上单张图片检测速度快达0.0063秒,相比Faster R-CNN提高了2.5倍,精度更是达到了98.77%。
针对人脸检测方法的实际应用场景,基于yolov5的目标检测算法面临以下问题:一,部署的平台硬件资源不足即算力不足,导致检测速度减慢;二、疫情下佩戴口罩所导致的面部遮挡在一定程度上降低了检测精度,因此,在提高检测精度的同时,轻量化网络以减少对硬件的依赖同时提高检测速度,对于口罩人脸检测具有重要意义。
发明内容
本发明的目的在于克服yolov5应用到疫情下人脸检测中存在平台硬件资源不足导致检测速度减慢和佩戴口罩导致检测精度降低的问题,提出一种基于改进yolov5的口罩人脸检测方法。
为了实现上述目的,本发明采用的技术方案如下:
S1,收集制作口罩人脸数据集;
S2,对步骤S1得到的口罩人脸数据集输入输入层进行马赛克数据增强、自适应锚框计算、自适应图片缩放预处理得到特征图(640X640);改进后的yolov5将马赛克数据增强对4张图片进行随机缩放、随机裁剪、随机排布的方式拼接增加为9张图片。
S3,对步骤S2预处理得到的特征图输入主干层提取类别特征,主干层由标准卷积模块、三层卷积跨阶段局部网络模块和快速空间金字塔池化模块组成,改进后的yolov5将三层卷积跨阶段局部网络模块融合幻影网络得到三层卷积跨阶段局部幻影网络模块,并在每次经过标准卷积模块卷积后添加卷积块注意力模块,经过以上模块一系列组合处理后得到不同尺寸的口罩人脸特征图。
S4,对步骤S3经主干层处理得到的不同尺寸的口罩人脸特征图输入颈层进行上采样和特征融合得到80×80、40×40和20×20三种尺寸的张量;颈层由标准卷积模块、特征融合模块、三层卷积跨阶段局部幻影网络模块和上采样模块组成。
S5,对步骤S4经颈层处理得到的三种尺寸的张量输入预测层,计算得到口罩人脸的预测框位置,并利用改进后的损失函数α-CIoU计算预测框位置和真实框位置重合度,利用准确率、平均精度均值、单张图片检测时间和权重文件大小4个参数进行评价。
进一步优选的,步骤S1中所述收集制作口罩人脸数据集的方法,具体包括以下步骤:
S11,获取网络公共数据集WIDER Face,从中筛选出7000张口罩人脸和人脸图片,接着通过网络爬虫获取口罩人脸和人脸图片共3000张;
S12,将WIDER Face筛选出的图片的txt格式的标注文件转化为xml格式,用Labelimg标注工具对10000张图片进行标签添加、纠正和删除,分为口罩人脸类和人脸类;
S13,将口罩人脸数据集按7:3比例转化为训练集、验证集。
进一步优选的,步骤S2中所述口罩人脸数据集输入输入层预处理的方法,具体包括以下步骤:
S21,马赛克数据增强采用9张图片,随机选取一张置于中心位置,另外8张随机裁剪和随机缩放,随机排列在中心的左上、上、右上、左、右、左下、下和右下的8个位置拼接成一张图片;
S22,自适应锚框计算根据数据集中原目标框大小计算出最佳锚框值,自适应图片缩放将数据集中不同尺寸的图片调整至同一尺寸上(640X640)。
进一步优选的,步骤S3中所述主干层提取类别特征的方法,具体包括以下步骤:
S31,改进后的三层卷积跨阶段局部幻影网络模块将原三层卷积跨阶段局部网络模块中的标准卷积替换为幻影卷积,幻影卷积的计算公式如下:
Y=F*f
yij=Φi,j(yi),i∈[1,M],j∈[1,S]
其中F∈RH×W×C表示输入特征图,H、W表示特征图的高和宽,C表示通道数,f∈RM ×K×K×C表示M个C通道K×K大小的卷积核,这里的传统卷积f减少了卷积核的数量并省略了偏置项,yi表示Y∈RM×H×W中的第i个通道特征图,Φi,j表示第j个线性计算(除最后一个Φi,S),用于生成第j个幻影特征图,yi可以生成一个或多个幻影特征图,使用Φi,S表示对Y′特征图的identify映射,最终得到M×S个与传统卷积相同的输出特征图。
S32,新增的卷积块注意力模块是一个简单而有效的前馈卷积神经网络,融合通道注意力机制和空间注意力机制。通道注意力机制对输入特征图同时进行最大池化和平均池化以聚合空间维度信息,然后依次送入一个权重共享的多层感知机器(MLP),最后通过激活函数(sigmoid)得到通道注意力图;空间注意力机制对输入特征图先后进行最大池化和平均池化得到两组特征图,接着在通道维度上进行拼接并通过7×7的卷积核处理,最后通过激活函数(sigmoid)得到空间注意力图。
进一步优选的,步骤S4所述颈层在特征金字塔网络的结构基础上引入自底向上的路径聚合网络达到高层语义特征与低层细节特征融合互补的目的,强化特征提取能力。
进一步优选的,步骤S5中所述预测层计算口罩人脸的预测框位置并进行评价的方法,具体包括以下步骤:
S51,改进后的损失函数α-CIoU计算公式如下:
Figure BDA0003708097830000031
其中IoU表示预测框与真实框交集面积与并集面积的比值,ρ(b,bgt)表示预测框b与真实框bgt中心点之间的欧式距离,c表示能够同时覆盖预测框与真实框的最小矩形的对角线距离,β表示权重系数,v是衡量预测框与真实框长宽比的一致性,α作为调节损失函数的超参数,这里取3。
S52,采用准确率(Precision)、平均精度均值(mAP)、单张图片检测时间和权重文件大小4个参数作为评价标准。具体公式如下所示:
Figure BDA0003708097830000041
Figure BDA0003708097830000043
Figure BDA0003708097830000042
其中TP、FP、FP分别是实际正样品预测为正样品数、实际负样品预测为正样品数、实际正样品预测为负样品数,AP是以准确率(Precision,P)和召回率(Recall,R)作为纵、横轴坐标的二维曲线与坐标轴围成的面积,n表示类别数。
本发明具有如下有益效果:
本发明改进马赛克数据增强,增加了数据集中小目标数量并且提高了网络的鲁棒性;改进三层卷积跨阶段局部网络模块,将原模块中的标准卷积替换成幻影卷积,压缩了网络并降低了计算量,提高检测速度;在主干层的标准卷积模块后添加卷积块注意力模块,分别进行通道与空间上的注意力,提高对脸部特征关注,减少网络收敛的时间。本发明将准确率提高了3%并且检测速度提升了0.2ms,权重文件压缩了24%,提升了检测速度和佩戴口罩人脸的检测精度,能够满足实际应用场景需求。
附图说明
图1为本发明的流程示意图,
图2为本发明的输入图通过马赛克数据增强处理后的图片,0标记人脸类,1标记口罩人脸类,
图3为本发明的三层卷积跨阶段局部幻影网络结构图,
图4(a)为本发明的卷积块注意力模块的通道注意力模块结构图、图4(b)为空间注意力模块结构图,
图5为本发明的校园视频检测效果图。
具体实施方式
为了使本领域的普通技术人员能更好的理解本发明的技术方案,下面结合附图对本发明的技术方案进行进一步的清楚、完整的描述。
如图1所示,一种基于改进yolov5的口罩人脸检测方法,具体步骤如下:
S1:从公共数据集WIDER Face中筛选出7000人脸和口罩人脸的图片,通过Labelimg打标签工具进行错误标签的删除、目标框的纠正以及标注遗漏标签。
通过网络爬虫获取有关人脸和口罩人脸的3000张图片扩充数据集,关键词明星合照、防疫等,通过Labelimg进行标注,共分为口罩人脸(mask)、人脸两类(face),最终得到10000张图片。
将口罩人脸数据集按7:3比例转化为训练集、验证集。
S2:对步骤S1得到的口罩人脸数据集输入输入层(Input)预处理,输入层包括马赛克数据增强(Mosaic)、自适应锚框计算和自适应图片缩放。马赛克数据增强如图2所示按照随机缩放、随机裁剪和随机排布的方式对9张图片进行拼接,相当于次性送入9张图片进行训练,极大地丰富了检测物体的背景。自适应锚框计算通过遗传算法与k-means迭代计算出最佳的锚点框,提高网络精度。自适应图片缩放将原始的输入图片缩放到一个固定的尺寸,添加最少的黑边到缩放之后的图片中,减少计算量。
S3:对步骤S2预处理得到的特征图输入主干层(Backbone)提取类别特征,主干层包含标准卷积(Conv)模块、三层卷积跨阶段局部幻影网络(C3Ghost)模块、卷积块注意力模块(CBAM)和快速空间金字塔池化(SPPF)模块。
三层卷积跨阶段局部幻影网络模块如图3所示将原三层卷积跨阶段局部网络模块中的标准卷积替换为幻影卷积,幻影卷积的计算公式如下:
Y=F*f
yij=Φi,j(yi),i∈[1,M],j∈[1,S]
其中F∈RH×W×C表示输入特征图,H、W表示特征图的高和宽,C表示通道数,f∈RM ×K×K×C表示M个C通道K×K大小的卷积核,这里的传统卷积f减少了卷积核的数量并省略了偏置项,yi表示Y∈RM×H×W中的第i个通道特征图,Φi,j表示第j个线性计算(除最后一个Φi,S),用于生成第j个幻影特征图,yi可以生成一个或多个幻影特征图,使用Φi,S表示对Y′特征图的identify映射,最终得到M×S个与传统卷积相同的输出特征图。
卷积块注意力模块是一个简单而有效的前馈卷积神经网络,融合通道注意力机制和空间注意力机制。通道注意力机制如图4(a)所示对输入特征图同时进行最大池化和平均池化以聚合空间维度信息,然后依次送入一个权重共享的多层感知机器(MLP),最后通过激活函数(sigmoid)得到通道注意力图;空间注意力机制如图4(b)所示对输入特征图先后进行最大池化和平均池化得到两组特征图,接着在通道维度上进行拼接并通过7×7的卷积核处理,最后通过激活函数(sigmoid)得到空间注意力图。
S4:对步骤S3经主干层处理得到的不同尺寸的口罩人脸特征图输入颈层(Neck),颈层核心为路径聚合网络(Path Aggregation Networks,PAN)和特征金字塔网络(FeaturePyramid Networks,FPN),在特征金字塔网络的基础上引入自底向上的路径聚合网络,特征金字塔网络将高层特征信息通过上采样的方式和低层特征融合达到高层语义特征与低层细节特征融合互补的目的,路径聚合网络再进行自底向上的特征融合,强化特征提取能力。
S5:对步骤S4经颈层处理得到的三种尺寸的张量输入预测层(Prediction),预测层(Prediction)包含边框回归损失函数(Bounding Box Regression Loss)和NMS非极大值抑制,针对多目标框的筛选,NMS非极大值抑制有效去除冗余框。
改进后的损失函数α-CIoU计算公式如下:
Figure BDA0003708097830000061
其中IoU表示预测框与真实框交集面积与并集面积的比值,ρ(b,bgt)表示预测框b与真实框bgt中心点之间的欧式距离,c表示能够同时覆盖预测框与真实框的最小矩形的对角线距离,β表示权重系数,v是衡量预测框与真实框长宽比的一致性,α作为调节损失函数的超参数,这里取3。
采用准确率(Precision)、平均精度均值(mAP)、单张图片检测时间(Speed-GPU)和权重文件大小(Weight)4个参数作为评价标准。具体公式如下所示:
Figure BDA0003708097830000062
Figure BDA0003708097830000064
Figure BDA0003708097830000063
其中TP、FP、FP分别是实际正样品预测为正样品数、实际负样品预测为正样品数、实际正样品预测为负样品数,AP是以准确率(Precision,P)和召回率(Recall,R)作为纵、横轴坐标的二维曲线与坐标轴围成的面积,n表示类别数,此处为2。
通过计算得出表1的数据,可以看出准确率提高了3%并且检测速度提升了0.2ms,权重文件压缩了24%,在一定程度上减少了对硬件的依赖且降低了口罩人脸的漏检率。
表1网络评价标准
Model Precision mAP(0.5) Speed-GPU(ms) Weight(M)
yolov5 92.8% 95.8% 1.7 3.8
本发明方法 95.8% 96.6% 1.5 2.9
改进后的yolov5网络结构如表2所示:
表2改进yolov5的口罩人脸网络结构
Figure BDA0003708097830000071
Figure BDA0003708097830000081
其中,表中的from列的-1是指输入来自上一层输出,Arguments列的值分别代表该模块的输入通道数、输出通道数、卷积核大小和步长信息。
图5为本发明在江苏科技大学宿舍拍摄的视频的检测效果图,不难看出该方法检测速度之快以及准确率之高,对于口罩人脸的识别率也是大有提升,极大减轻了对硬件环境的依赖,能满足实际应用需求。

Claims (6)

1.一种基于改进yolov5的口罩人脸检测方法,其特征在于,具体按照如下步骤进行:
S1,收集制作口罩人脸数据集;
S2,对步骤S1得到的口罩人脸数据集输入输入层进行马赛克数据增强、自适应锚框计算、自适应图片缩放预处理得到特征图(640X640);改进后的yolov5将马赛克数据增强对4张图片进行随机缩放、随机裁剪、随机排布的方式拼接增加为9张图片;
S3,对步骤S2预处理得到的特征图输入主干层提取类别特征,主干层由标准卷积模块、三层卷积跨阶段局部网络模块和快速空间金字塔池化模块组成,改进后的yolov5将三层卷积跨阶段局部网络模块融合幻影网络得到三层卷积跨阶段局部幻影网络模块,并在每次经过标准卷积模块卷积后添加卷积块注意力模块,经过以上模块一系列组合处理后得到不同尺寸的口罩人脸特征图;
S4,对步骤S3经主干层处理得到的不同尺寸的口罩人脸特征图输入颈层进行上采样和特征融合,得到80×80、40×40和20×20三种尺寸的张量;
S5,对步骤S4经颈层处理得到的三种尺寸的张量输入预测层,计算得到口罩人脸的预测框位置,并利用改进后的损失函数α-CIoU计算预测框位置和真实框位置重合度,利用准确率、平均精度均值、单张图片检测时间和权重文件大小4个参数进行评价。
2.根据权利要求1所述的基于改进yolov5的口罩人脸检测方法,其特征在于,步骤S1中所述收集制作口罩人脸数据集的方法,具体包括以下步骤:
S11,获取网络公共数据集WIDER Face,从中筛选出7000张口罩人脸和人脸图片,接着通过网络爬虫获取口罩人脸和人脸图片共3000张;
S12,将WIDER Face筛选出的图片的txt格式的标注文件转化为xml格式,用Labelimg标注工具对10000张图片进行标签添加、纠正和删除,分为口罩人脸类和人脸类;
S13,将口罩人脸数据集按7∶3比例转化为训练集、验证集。
3.根据权利要求1所述的基于改进yolov5的口罩人脸检测方法,其特征在于,步骤S2中所述口罩人脸数据集输入输入层预处理的方法,具体包括以下步骤:
S21,马赛克数据增强采用9张图片,随机选取一张置于中心位置,另外8张随机裁剪和随机缩放,随机排列在中心的左上、上、右上、左、右、左下、下和右下的8个位置拼接成一张图片;
S22,自适应锚框计算根据数据集中原目标框大小计算出最佳锚框值,自适应图片缩放将数据集中不同尺寸的图片调整至同一尺寸上(640X640)。
4.根据权利要求1所述的基于改进yolov5的口罩人脸检测方法,其特征在于,步骤S3中所述主干层提取类别特征的方法,具体包括以下步骤:
S31,改进后的三层卷积跨阶段局部幻影网络模块将原三层卷积跨阶段局部网络模块中的标准卷积替换为幻影卷积,幻影卷积的计算公式如下:
Y=F*f
yij=Φi,j(yi),i∈[1,M],j∈[1,S]
其中F∈RH×W×C表示输入特征图,H、W表示特征图的高和宽,C表示通道数,f∈RM×K×K×C表示M个C通道K×K大小的卷积核,这里的传统卷积f减少了卷积核的数量并省略了偏置项,yi表示Y∈RM×H×W中的第i个通道特征图,Φi,j表示第j个线性计算(除最后一个Φi,s),用于生成第j个幻影特征图,yi可以生成一个或多个幻影特征图,使用Φi,S表示对Y′特征图的identify映射,最终得到M×S个与传统卷积相同的输出特征图;
S32,新增的卷积块注意力模块是一个简单而有效的前馈卷积神经网络,融合通道注意力机制和空间注意力机制;通道注意力机制对输入特征图同时进行最大池化和平均池化以聚合空间维度信息,然后依次送入一个权重共享的多层感知机器(MLP),最后通过激活函数(sigmoid)得到通道注意力图;空间注意力机制对输入特征图先后进行最大池化和平均池化得到两组特征图,接着在通道维度上进行拼接并通过7×7的卷积核处理,最后通过激活函数(sigmoid)得到空间注意力图。
5.根据权利要求1所述的基于改进yolov5的口罩人脸检测方法,其特征在于,步骤S4中所述输入颈层进行上采样和特征融合的具体方法是,在特征金字塔网络的结构基础上引入自底向上的路径聚合网络,特征金字塔网络将高层特征信息通过上采样的方式和低层特征融合达到高层语义特征与低层细节特征融合互补的目的,路径聚合网络再进行自底向上的特征融合,强化特征提取能力。
6.根据权利要求1所述的基于改进yolov5的口罩人脸检测方法,其特征在于,步骤S5中所述预测层计算口罩人脸的预测框位置并进行评价的方法,具体包括以下步骤:
S51,改进后的损失函数α-CIoU计算公式如下:
Figure FDA0003708097820000021
其中IoU表示预测框与真实框交集面积与并集面积的比值,ρ(b,bgt)表示预测框b与真实框bgt中心点之间的欧式距离,c表示能够同时覆盖预测框与真实框的最小矩形的对角线距离,β表示权重系数,v是衡量预测框与真实框长宽比的一致性,α作为调节损失函数的超参数,这里取3;
S52,采用准确率(Precision)、平均精度均值(mAP)、单张图片检测时间和权重文件大小4个参数作为评价标准;具体公式如下所示:
Figure FDA0003708097820000031
Figure FDA0003708097820000032
Figure FDA0003708097820000033
其中,TP、FP、FP分别是实际正样品预测为正样品数、实际负样品预测为正样品数、实际正样品预测为负样品数,AP是以准确率(Precision,P)和召回率(Recall,R)作为纵、横轴坐标的二维曲线与坐标轴围成的面积,n表示类别数。
CN202210737864.6A 2022-06-22 2022-06-22 一种基于改进yolov5的口罩人脸检测方法 Pending CN115171183A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210737864.6A CN115171183A (zh) 2022-06-22 2022-06-22 一种基于改进yolov5的口罩人脸检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210737864.6A CN115171183A (zh) 2022-06-22 2022-06-22 一种基于改进yolov5的口罩人脸检测方法

Publications (1)

Publication Number Publication Date
CN115171183A true CN115171183A (zh) 2022-10-11

Family

ID=83487455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210737864.6A Pending CN115171183A (zh) 2022-06-22 2022-06-22 一种基于改进yolov5的口罩人脸检测方法

Country Status (1)

Country Link
CN (1) CN115171183A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116665029A (zh) * 2023-04-12 2023-08-29 南通大学 一种基于改进yolov5的水下焊缝检测方法
CN117036363A (zh) * 2023-10-10 2023-11-10 国网四川省电力公司信息通信公司 一种基于多特征融合的遮挡绝缘子检测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116665029A (zh) * 2023-04-12 2023-08-29 南通大学 一种基于改进yolov5的水下焊缝检测方法
CN117036363A (zh) * 2023-10-10 2023-11-10 国网四川省电力公司信息通信公司 一种基于多特征融合的遮挡绝缘子检测方法
CN117036363B (zh) * 2023-10-10 2024-01-30 国网四川省电力公司信息通信公司 一种基于多特征融合的遮挡绝缘子检测方法

Similar Documents

Publication Publication Date Title
CN111461110B (zh) 一种基于多尺度图像和加权融合损失的小目标检测方法
CN107358262B (zh) 一种高分辨率图像的分类方法及分类装置
CN115171183A (zh) 一种基于改进yolov5的口罩人脸检测方法
CN110909690A (zh) 一种基于区域生成的遮挡人脸图像检测方法
CN112949572A (zh) 基于Slim-YOLOv3的口罩佩戴情况检测方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN111524145A (zh) 图片智能裁剪方法、系统、计算机设备及存储介质
CN110909724B (zh) 一种多目标图像的缩略图生成方法
CN109472193A (zh) 人脸检测方法及装置
CN112861970B (zh) 一种基于特征融合的细粒度图像分类方法
CN111401293A (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN110349167A (zh) 一种图像实例分割方法及装置
CN111612024A (zh) 特征提取方法、装置、电子设备及计算机可读存储介质
CN111985374A (zh) 人脸定位方法、装置、电子设备及存储介质
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
CN113205502A (zh) 一种基于深度学习的绝缘子缺陷检测方法及其系统
CN114519819B (zh) 一种基于全局上下文感知的遥感图像目标检测方法
CN111553337A (zh) 一种基于改进锚框的高光谱多目标检测方法
CN112446376B (zh) 一种工业图像智能分割压缩方法
CN117649610B (zh) 一种基于YOLOv5的害虫检测方法及系统
US20240161461A1 (en) Object detection method, object detection apparatus, and object detection system
CN112347967B (zh) 一种复杂场景下融合运动信息的行人检测方法
CN114419428A (zh) 一种目标检测方法、目标检测装置和计算机可读存储介质
CN115115552B (zh) 图像矫正模型训练及图像矫正方法、装置和计算机设备
CN112149528A (zh) 一种全景图目标检测方法、系统、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination