CN112232199A - 基于深度学习的佩戴口罩检测方法 - Google Patents
基于深度学习的佩戴口罩检测方法 Download PDFInfo
- Publication number
- CN112232199A CN112232199A CN202011104863.5A CN202011104863A CN112232199A CN 112232199 A CN112232199 A CN 112232199A CN 202011104863 A CN202011104863 A CN 202011104863A CN 112232199 A CN112232199 A CN 112232199A
- Authority
- CN
- China
- Prior art keywords
- mask
- detection
- layer
- training
- wearing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 79
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims abstract description 5
- 230000008569 process Effects 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 5
- 238000010030 laminating Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 230000003252 repetitive effect Effects 0.000 claims 1
- 238000005457 optimization Methods 0.000 abstract description 3
- 230000007547 defect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的佩戴口罩检测方法,其包括:进行佩戴口罩检测模型的训练以及与语音提示模块的连接。佩戴口罩检测模型的训练过程包括:优化yolov3网络检测模型,将yolov3网络模型中的基础网络BN层和卷积层进行合并,并将yolo检测层由三层变为两层,通过k‑means等方法进行参数优化,训练得到鲁棒性较高,检测速度较快的佩戴口罩检测模型,实现对于人们是否佩戴口罩的精确检测。同时,将佩戴口罩检测结果与语音模块相连接,当佩戴口罩检测结果不同时,语音模块发出对应的提示语音,实现语音提醒的实际功能。该方法能够实现对于是否佩戴口罩的快速,精准识别以及准确的语音提示功能,在日常生活工作方面有广泛的应用前景,具有较强的实用性。
Description
技术领域
本发明属于机器学习领域,特别是涉及一种基于深度学习的佩戴口罩检测 方法。
背景技术
目前急需一种能够在公共区域内自动检测进出人员是否佩戴口罩的检测 提醒的应用系统。
目前传统的检测方法利用阈值分割和帧差法检测目标区域,再使用目标区 域的色彩分布来进行判断,基于人工设计的传统图像处理算法应用场景单一、 不稳定、当场景变化时,准确率严重变化。而现有的深度学习检测方法检测速 度相对较慢,而且在获取速度时又损失了相应检测的精度且占用内存较大。
目前在口罩佩戴检测方面需要一种检测速度快,鲁棒性好的检测系统,为 此我们提出了基于深度学习的佩戴口罩检测方法。
发明内容
针对现有的目标检测跟踪系统存在应用场景单一、检测识别速度慢、鲁棒 性差、占用内存大等缺点,本发明提出了一种基于深度学习的目标检测方法, 其包括以下步骤:
S1、采集公共场合下人们佩戴口罩和未佩戴口罩的图像,按清晰度进行 筛选;
S11、选择不同地点及环境,使用高清摄相机采集5000张佩戴口罩照片 与未佩戴口罩照片作为样本,保证训练数据集的多样性;
S12、对样本数据集进行扩充和旋转处理,使训练出的模型具有高鲁棒性;
S2、对所述图像进行预处理,构建佩戴口罩检测数据集,使用标注工具 对数据集图像生成对应的标注、标签信息和位置信息,将数据集按4:1比例 随机分为训练数据集和测试集;
S21、使用标注工具对图像进行标注时,对图像中的人脸部分进行标注, 当人脸部分有口罩时,标注mask,当人脸部分没有口罩时,标注为nomask;
S3、将所述训练集放入深度神经网络进行模型训练,提取戴口罩与未佩 戴口罩的相关特征,通过聚类算法k-means产生预测框;
S4、删减yolov3网络最大尺度的yolo检测层,将卷积层和BN层合并, 对所述训练集输入改进后的yolov3网络进行重复训练,获得优选的权重值与 偏置值;
S41、将检测层的数量更改至与检测类别的数量相一致,以提高检测精度;
S42、对改进后的网络进行重复训练,获得适用本数据集的最优参数、权 重值和偏置;
S5、将目标检测模块与语音模块相连接,根据不同的检测情况发出不同 提示声音。
优选地,在训练深度学习网络过程中,对实际现场中出现的人员进行标注, 通过更改原有的yolov3网络模型对应的参数与网络层数,能保证精度并加快 目标检测速度,通过改变网络层数和参数,能减少检测时间,加强目标检测的 实时性。
优选地,将卷积层x1=ω*x+b与BN层的函数公式合并 为公式x2=ω1*x+b1,其中,ω为卷积权重、b为卷积偏置、u为BN层中 均值、σ为方差、γ为缩放因子、β为偏移、ε≠0,x1为卷积层计算结果,x2为 经过卷积计算和BN层后的结果,x为进入卷积计算的计算参数,ω1为合并后 新的卷积权重,b1为合并后新的卷积偏置。
优选地,对yolov3网络进行重复性训练时,将网络的的输入尺寸调整为 416×416大小,设置交并比IOU阈值为0.5、置信度阈值为0.5、冲量momentum 为0.9,以提高模型的检测精度。
优选地,将目标检测模块与语音模块相连接,当检测到人佩戴好口罩时, 则提示请进,当检测到人未佩戴好口罩时,则提示请佩戴好口罩。
本发明与现有技术相比具有如下优点:
1)通过分析更改yolov3网络,加快检测速度,提高检测精度;
2)提出了基于深度学习的目标检测模块,结合语音播报模块实现对进入 公共活动区域人员的佩戴口罩提醒;
3)具有检测速度快,检测目标精准,适宜多场景检测,鲁棒性较好等优 点,能够满足目标检测系统的要求。
附图说明
图1为本发明的模型优化流程图;
图2a为本发明的原始网络结构程图、图2b为残差组件改进图;
图3为本发明的改进网络结构图;
图4为本发明的整体流程图;以及
图5为本发明的检测效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清 楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有做出创 造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要注意的为,除非另有说明,本申请使用的技术术语或者科学术语应当 为本发明所属领域技术人员所理解的通常意义。
一种基于深度学习的佩戴口罩检测方法,其包括如下步骤:
深度模型的优化过程如图1,具体训练过程描述如下:
S1、首先在公路上、景区、超市、公园等各种生活区域拍摄4000-5000张 人们佩戴口罩照片以及同等数量的未佩戴口罩照片,并将拍摄到的图片中模糊 不清的照片清除出去;
S2、对S1中采集的图像进行预处理,并构建佩戴口罩检测的数据集:
数据集图像使用Lablemming标注工具生成对应的标注、标签信息和位置 信息,划定脸部区域,标签信息即样本中目标所属类别分为mask和no mask 两类,标注信息即样本中目标的位置信息。将数据集使用python文件按照比 例4:1随机分为训练数据集和测试集,同时对数据进行扩充操作:图像进行 水平翻转、随机裁剪、更改图像对比度。
S3、将S2中处理制作后的数据集放入未改进的yolov3网络进行训练,由 于yolov4在做bounding box预测的时候,用到了anchor boxes,anchors为最 有可能的object的width与height,可事先通过聚类得到,比如某一个像素单 元,通过这个像素单元预测出一个object,围绕这个像素单元,可以预测出无 数种object的形状,并不是随便预测的,要参考anchor box的大小,即从已标 注的数据中通过聚类统计到的最有可能的object的形状,所以为了使模型参数 优化本发明使用K-means算法获得最优参数,为深度模型的准确性提供了保证, 具体参数如图1所示。详细来说,先将网络的的输入尺寸调整为416×416,并 设置交并比IOU阈值为0.5,IOU为目标检测中使用的一个概念,是产生的候 选框candidatebound与原标记框ground truth bound的交叠率,即它们的交集 与并集的比值,最理想情况是完全重叠,即比值为1,,进行训练,获取最优 参数值。所有训练图片的一个批次batch,批次大小bat设置置信度阈值为0.5、 冲量momentum设置为0.9ch_size的划分根据我们在.cfg文件中设置的 subdivisions参数。在我使用的.cfg文件中batch=64,subdivision=8,所以在训 练输出中,训练迭代包含了8组,每组又包含了8张图片,跟设定的batch和subdivision的值一致。也就是说每轮迭代会从所有训练集里随机抽取batch=64 个样本参与训练,所有这些batch个样本又被均分为subdivision=8次送入网络 参与训练,以减轻内存占用的压力。Class参数为训练检测的目标数,由于本 目标检测的目的为是否佩戴口罩,将class参数设置为2,两种即戴口罩mask 和未佩戴口罩no mask。修改好后,修改编译文件makefile,生成可操作的执 行文件进行模型训练。
S4、在优化模型参数后,在进行训练前对yolov3网络进行两方面的改进, 合并BN层与屏蔽最小尺度的yolo层。
关于合并BN层,本方法首次创新性的对yolov3网络进行BN层与卷积层 的合并。详情原理如下:在深度学习中,Conv+BN+Relu已成为标配,在网络 推理阶段,将Conv层和BN层进行合并,因为他们都是线性运算。合并后就 相当于少了BN层的计算,这样可以加快网络推理。在数学计算上讲,合并的 本质其实就是改变了卷积层的权重和偏置。
卷积层的计算x1=ω*x+b
将BN层合并于Conv层后,Conv的计算方式如下:
即 x2=ω1*x+b1,其中,ω为卷积权重、b为卷积偏置、u为BN层中均值、σ 为方差、γ为缩放因子、β为偏移、ε≠0,x1为卷积层计算结果,x2为经过卷积 计算和BN层后的结果,x为进入卷积计算的计算参数,ω1为合并后新的卷积 权重,b1为合并后新的卷积偏置。
这样处理后合并了Conv层和BN层加速了模型的推理速度在保证精度度 后加快了检测速度,原理如图2b所示。其中CBL为yolov3基本组件由Conv 层+BN层+Leaky_relu激活函数三者组成。在训练深度网络模型时,BN层能 够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN层将数据 归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然BN层在训练时起到 了积极作用,然而,在网络前向推断时多了一些层的运算,影响了模型的性能, 且占用了更多的内存或者显存空间。目前,很多先进的网络模型都使用了BN 技术,如ResNet、MobileNet、Xception和ShuffleNet等,因此,我们有必要 将BN层的参数合并到卷积层,来提升模型前向推断的速度。因此本方法创新 性的将yolov3.结构中两个基本组件中的卷积层与BN层进行了合并,从而达 到加快检测速度的目的。
删减yolo检测层结构的详情如图3所示,yolov3在经过多个卷积和上采 样之后最终得到的是三个卷积结果,每一个卷积结果的长和宽分别是(13×13, 26×26,52×52),深度信息是[4(box信息)+1(物体判别信息)+80(classNum置信 度)]*3(每个点上面计算几个anchor)yolo层的作用就是对这些信息进行解码操 作。第一个Yolo层是最大的特征图52*52,mask=0,1,2,对应最小的anchor box, 目标检测算法通常对输入图像中的大量区域进行采样,判断这些区域是否包含 感兴趣的目标,并调整这些区域的边缘,以便更准确地预测目标的地面真实边 界框。不同的模型可能使用不同的区域采样方法。在这里,我们介绍一种这样 的方法:它生成多个大小和纵横比不同的边框,同时以每个像素为中心。这些 边界框称为锚框即anchor box。第二个Yolo层是中等的特征图38*38, mask=3,4,5,对应中等的anchor box。第三个Yolo层是最小的特征图13*13, mask=6,7,8,对应最大的anchorbox。首先需要明白的是yolo层对3个anchor box信息不去重,如果三个anchor都满足条件的话都会把信息写入到输出。输 出会有一个内存地址专门填写满足条件的检测框的数量信息,这里的满足条件 就是在物体判别信息概率大于门限同时在类别中选择置信度最大的一个物体 当作类别信息。本发明为对目标进行目标检测。通过删减最大尺度的yolo检测层即最大特征图52x52对应的yolo检测层,加快了模型检测速度。变化前 后的结构图对比如图2a到图3的变化。
S5、将通过S4已经训练好的目标检测模块与对应的语音模块相链接,具 体检测系统运行为:当检测来人佩戴口罩则发出“请进”的语音,当检测到来人 未佩戴口罩时则发出提示语音“请您佩戴好口罩”。整体流程图如图4所示。
本发明利用了基于深度学习的目标检测技术,通过多元化的数据集的收集 与处理,本发明克服了检测背景单一这一缺点,可以在日常生活中的各个场景 实现对未佩戴口罩人员的检测提醒,通过使用最新的yolov3网络并对其网络 进行合并BN层和删除尺度最大的yolo检测层提升了检测速度,克服了检测速 度慢的缺点,同时通过多元数据集和对图像进行尺度变换的图像处理方法,加 强了系统的鲁棒性。克服了鲁棒性差的缺点。具体效果如图5所示。由图5 可以看出本方法可以准确的识别出人们是否佩戴口罩。正如图5所示所有出现 在画面中的人都检测到佩戴了口罩标记mask。
以上所述各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参 照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应该理解: 其依然能对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技 术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本 发明各实施例技术方案的范围。
Claims (5)
1.一种基于深度学习的佩戴口罩检测方法,其特征在于,其包括以下步骤:
S1、采集公共场合下人们佩戴口罩和未佩戴口罩的图像,按清晰度进行筛选;
S11、选择不同地点及环境,使用高清摄相机采集5000张佩戴口罩照片与未佩戴口罩照片作为样本,保证训练数据集的多样性;
S12、对样本数据集进行扩充和旋转处理,使训练出的模型具有高鲁棒性;
S2、对所述图像进行预处理,构建佩戴口罩检测数据集,使用标注工具对数据集图像生成对应的标注、标签信息和位置信息,将数据集按4:1比例随机分为训练数据集和测试集;
S21、使用标注工具对图像进行标注时,对图像中的人脸部分进行标注,当人脸部分有口罩时,标注mask,当人脸部分没有口罩时,标注为nomask;
S3、将所述训练集放入深度神经网络进行模型训练,提取戴口罩与未佩戴口罩的相关特征,通过聚类算法k-means产生预测框;
S4、删减yolov3网络最大尺度的yolo检测层,将卷积层和BN层合并,对所述训练集输入改进后的yolov3网络进行重复训练,获得优选的权重值与偏置值;
S41、将检测层的数量更改至与检测类别的数量相一致,以提高检测精度;
S42、对改进后的网络进行重复训练,获得适用本数据集的最优参数、权重值和偏置;
S5、将目标检测模块与语音模块相连接,根据不同的检测情况发出不同提示声音。
2.根据权利要求1所述的基于深度学习的佩戴口罩检测方法,其特征在于:在训练深度学习网络过程中,对实际现场中出现的人员进行标注,通过更改原有的yolov3网络模型对应的参数与网络层数,能保证精度并加快目标检测速度,通过改变网络层数和参数,能减少检测时间,加强目标检测的实时性。
4.根据权力要求1所述的基于深度学习的佩戴口罩检测方法,其特征在于,对yolov3网络进行重复性训练时,将网络的的输入尺寸调整为416×416大小,设置交并比IOU阈值为0.5、置信度阈值为0.5、冲量momentum为0.9,以提高模型的检测精度。
5.根据权利要求4所述的基于深度学习的佩戴口罩检测方法,其特征在于:将目标检测模块与语音模块相连接,当检测到人佩戴好口罩时,则提示请进,当检测到人未佩戴好口罩时,则提示请佩戴好口罩。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011104863.5A CN112232199A (zh) | 2020-10-15 | 2020-10-15 | 基于深度学习的佩戴口罩检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011104863.5A CN112232199A (zh) | 2020-10-15 | 2020-10-15 | 基于深度学习的佩戴口罩检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112232199A true CN112232199A (zh) | 2021-01-15 |
Family
ID=74118406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011104863.5A Pending CN112232199A (zh) | 2020-10-15 | 2020-10-15 | 基于深度学习的佩戴口罩检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232199A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884709A (zh) * | 2021-01-18 | 2021-06-01 | 燕山大学 | 引入注意力机制的yolov3带钢表面缺陷检测与分类方法 |
CN112967243A (zh) * | 2021-02-26 | 2021-06-15 | 清华大学深圳国际研究生院 | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 |
CN113361397A (zh) * | 2021-06-04 | 2021-09-07 | 重庆邮电大学 | 一种基于深度学习的人脸口罩佩戴情况检测方法 |
CN113435273A (zh) * | 2021-06-15 | 2021-09-24 | 北京的卢深视科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN113553922A (zh) * | 2021-07-05 | 2021-10-26 | 安徽中医药大学 | 一种基于改进型卷积神经网络口罩佩戴状态检测方法 |
CN113762200A (zh) * | 2021-09-16 | 2021-12-07 | 深圳大学 | 基于lffd的口罩检测方法 |
CN113762201A (zh) * | 2021-09-16 | 2021-12-07 | 深圳大学 | 基于yolov4的口罩检测方法 |
CN114255517A (zh) * | 2022-03-02 | 2022-03-29 | 中运科技股份有限公司 | 一种基于人工智能分析的景区游客行为监测系统及方法 |
WO2022213348A1 (zh) * | 2021-04-09 | 2022-10-13 | 鸿富锦精密工业(武汉)有限公司 | 检测口罩人脸识别方法、装置及计算机存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
CN111160440A (zh) * | 2019-12-24 | 2020-05-15 | 广东省智能制造研究所 | 一种基于深度学习的安全帽佩戴检测方法及装置 |
CN111241959A (zh) * | 2020-01-06 | 2020-06-05 | 重庆大学 | 一种通过工地视频流检测未佩戴安全帽人员的方法 |
CN111414887A (zh) * | 2020-03-30 | 2020-07-14 | 上海高重信息科技有限公司 | 基于yolov3算法的二次检测口罩人脸识别方法 |
CN111680637A (zh) * | 2020-06-10 | 2020-09-18 | 深延科技(北京)有限公司 | 基于深度学习和图像识别技术的口罩检测方法及检测系统 |
EP3719711A2 (en) * | 2020-07-30 | 2020-10-07 | Institutul Roman De Stiinta Si Tehnologie | Method of detecting anomalous data, machine computing unit, computer program |
CN111753805A (zh) * | 2020-07-08 | 2020-10-09 | 深延科技(北京)有限公司 | 安全帽佩戴检测方法和装置 |
-
2020
- 2020-10-15 CN CN202011104863.5A patent/CN112232199A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
CN111160440A (zh) * | 2019-12-24 | 2020-05-15 | 广东省智能制造研究所 | 一种基于深度学习的安全帽佩戴检测方法及装置 |
CN111241959A (zh) * | 2020-01-06 | 2020-06-05 | 重庆大学 | 一种通过工地视频流检测未佩戴安全帽人员的方法 |
CN111414887A (zh) * | 2020-03-30 | 2020-07-14 | 上海高重信息科技有限公司 | 基于yolov3算法的二次检测口罩人脸识别方法 |
CN111680637A (zh) * | 2020-06-10 | 2020-09-18 | 深延科技(北京)有限公司 | 基于深度学习和图像识别技术的口罩检测方法及检测系统 |
CN111753805A (zh) * | 2020-07-08 | 2020-10-09 | 深延科技(北京)有限公司 | 安全帽佩戴检测方法和装置 |
EP3719711A2 (en) * | 2020-07-30 | 2020-10-07 | Institutul Roman De Stiinta Si Tehnologie | Method of detecting anomalous data, machine computing unit, computer program |
Non-Patent Citations (3)
Title |
---|
王艺皓等: "复杂场景下基于改进YOLOv3的口罩佩戴检测算法", 《计算机工程》 * |
邓天民等: "改进YOLOv3的交通标志检测方法研究", 《计算机工程与应用》 * |
陈俊松等: "改进YO LOv3算法的筷子毛刺缺陷检测方法", 《食品与机械》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884709A (zh) * | 2021-01-18 | 2021-06-01 | 燕山大学 | 引入注意力机制的yolov3带钢表面缺陷检测与分类方法 |
CN112967243A (zh) * | 2021-02-26 | 2021-06-15 | 清华大学深圳国际研究生院 | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 |
CN112967243B (zh) * | 2021-02-26 | 2023-01-13 | 清华大学深圳国际研究生院 | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 |
WO2022213348A1 (zh) * | 2021-04-09 | 2022-10-13 | 鸿富锦精密工业(武汉)有限公司 | 检测口罩人脸识别方法、装置及计算机存储介质 |
CN113361397B (zh) * | 2021-06-04 | 2022-07-12 | 重庆邮电大学 | 一种基于深度学习的人脸口罩佩戴情况检测方法 |
CN113361397A (zh) * | 2021-06-04 | 2021-09-07 | 重庆邮电大学 | 一种基于深度学习的人脸口罩佩戴情况检测方法 |
CN113435273A (zh) * | 2021-06-15 | 2021-09-24 | 北京的卢深视科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN113553922A (zh) * | 2021-07-05 | 2021-10-26 | 安徽中医药大学 | 一种基于改进型卷积神经网络口罩佩戴状态检测方法 |
CN113762201A (zh) * | 2021-09-16 | 2021-12-07 | 深圳大学 | 基于yolov4的口罩检测方法 |
CN113762200A (zh) * | 2021-09-16 | 2021-12-07 | 深圳大学 | 基于lffd的口罩检测方法 |
CN113762201B (zh) * | 2021-09-16 | 2023-05-09 | 深圳大学 | 基于yolov4的口罩检测方法 |
CN113762200B (zh) * | 2021-09-16 | 2023-06-30 | 深圳大学 | 基于lffd的口罩检测方法 |
CN114255517A (zh) * | 2022-03-02 | 2022-03-29 | 中运科技股份有限公司 | 一种基于人工智能分析的景区游客行为监测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232199A (zh) | 基于深度学习的佩戴口罩检测方法 | |
CN112966684B (zh) | 一种注意力机制下的协同学习文字识别方法 | |
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
CN111723786B (zh) | 一种基于单模型预测的安全帽佩戴检测方法及装置 | |
CN111126325B (zh) | 一种基于视频的智能人员安防识别统计方法 | |
CN111898406B (zh) | 基于焦点损失和多任务级联的人脸检测方法 | |
CN108830171B (zh) | 一种基于深度学习的智能物流仓库引导线视觉检测方法 | |
US20040017930A1 (en) | System and method for detecting and tracking a plurality of faces in real time by integrating visual ques | |
CN111414887A (zh) | 基于yolov3算法的二次检测口罩人脸识别方法 | |
CN109711463A (zh) | 基于注意力的重要对象检测方法 | |
CN110942471B (zh) | 一种基于时空约束的长时目标跟踪方法 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN103020971A (zh) | 从图像中自动分割目标对象的方法 | |
CN112991269A (zh) | 一种肺部ct图像的识别分类方法 | |
CN109948593A (zh) | 基于结合全局密度特征的mcnn人群计数方法 | |
CN110008899B (zh) | 一种可见光遥感图像候选目标提取与分类方法 | |
CN112232371A (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
CN112464701A (zh) | 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法 | |
CN108460320A (zh) | 基于改进单元分析的监控视频异常事件检测方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN116740539A (zh) | 基于轻量化目标检测网络的视觉slam方法及系统 | |
CN111767854A (zh) | 一种结合场景文本语义信息的slam回环检测方法 | |
CN110766645A (zh) | 基于人物识别与分割的目标人物复现图生成方法 | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210115 |
|
RJ01 | Rejection of invention patent application after publication |