CN112347943A - 一种基于YOLOV4的anchor优化安全帽检测方法 - Google Patents
一种基于YOLOV4的anchor优化安全帽检测方法 Download PDFInfo
- Publication number
- CN112347943A CN112347943A CN202011243356.XA CN202011243356A CN112347943A CN 112347943 A CN112347943 A CN 112347943A CN 202011243356 A CN202011243356 A CN 202011243356A CN 112347943 A CN112347943 A CN 112347943A
- Authority
- CN
- China
- Prior art keywords
- worker
- safety helmet
- helmet
- anchor
- optimized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLOV4的anchor优化安全帽检测方法,涉及人工智能领域,包括以下步骤:(1)工人佩戴安全帽情况图像数据的获取;(2)工人安全帽佩戴情况图像样本的划分;(3)工人安全帽佩戴情况图像的特征提取;(4)基于优化anchor的工人安全帽佩戴情况识别模型的构建。本发明采用主干网络CSPDarknet53进行工人安全帽佩戴情况监测模型的构建,并对anchor进行优化,进而能提取更多、更有效的特征信息,在无需现场查看的情况下,能够高效、准确地对工人是否佩戴安全帽进行检测。这样既保证了工人的工作效率,又保证了工人的生命安全。
Description
技术领域
本发明设及一种基于YOLOV4的anchor优化安全帽检测方法,属于人工智能的领域。
背景技术
在施工、生产以及煤矿作业中,安全帽作为保护工作人员头部的重要工具,在生产作业中必须要求所有人必须佩带。根据权威人员统计的数据显示,施工造成的安全事故大多数是因为没有佩戴安全帽造成的,为了降低工人因为没有佩戴安全帽造成的事故,有必要对施工人员安全帽佩戴情况进行检测。
因此,本文提出一种新型的“工人安全帽佩戴情况检测系统”--基于YOLOv4的检测系统,主要针对的是“安全帽佩戴检测”,该检测能检测与标记未戴安全帽的工人,并在检测出未戴安全帽工人时给出提示,在不影响正常作业的情况下快速检测,提高生产效率,保障工人的生命安全。
发明内容
针对上述问题,本发明提出一种快速简单的戴安全帽识别方法。为实现上述目的,本发明发采用的技术方案为:一种基于YOLOV4的anchor优化安全帽检测方法,包括以下步骤:
(1)工人佩戴安全帽情况图像数据的获取;
(2)工人安全帽佩戴情况图像样本的划分;
(3)工人安全帽佩戴情况图像的特征提取;
(4)基于优化anchor的工人安全帽佩戴情况识别模型的构建。
作为优选,所述步骤(1)中,获取工人安全帽佩戴情况的图像信息,得到工人安全帽佩戴情况的图像数据集。
作为优选,所述步骤(2)中,采用随机抽样的方式将所采集的工人安全帽佩戴情况图像数据按一定比例划分为独立不重复的验证集和测试集。
作为优选,所述步骤(3)中,用于提取工人安全帽佩戴情况图像信息特征的主干网络CSPDarknet53,其中,CSPDarknet53里面包含了5个CSP模块,可以有效解决因为在网络的深入过程中梯度信息因为重复的学习而造成资源浪费和增加计算量,从而提升整体速度。
作为优选,所述步骤(4)中,在训练和测试阶段,利用CSPDarknet53提取工人佩戴安全帽情况的图像特征在验证集上构建未佩戴安全帽工人识别模块,优化了提取图像特征的anchor,利用K-means算法针对安全帽目标数据集重新聚类,得到更精准、更具代表性的anchor。确定识别模块的参数,然后利用测试集来检测识别效果,验证模块性能。
通过上述技术方案,本发明的优点是:(1)由CSPDarknet53网络对数据集进行训练,得到一个高效的训练结果,由此可以对未戴安全帽工人的快速定位,比起以往的方法更高效,节省了大量的时间和人工成本;(2)对YOLOV4的anchor进行优化,通过重新聚类得到最优的anchor尺寸,更符合安全帽检测的应用,使得卷积神经网络更容易准确预测目标位置,提高了检测的精度,提高定位和分类的准确性,从而模型稳定,有利于快速、准确的达到预期的检测效果。
Yolov3和Yolov4网络的整体架构是一样的,主要在Yolov3的基础上进行了以下几个方面的改进。
输入端的改进:引入Mosaic数据增强方法与使用GA算法选择最优超参数,其中Mosaic数据增强方法每次随机读取四张照片,分别对四张图片进行翻转、缩放等操作,这种操作可以不断丰富检测物体的背景。并且由于拼接操作增加了很多小目标,增加了网络对于小目标识别的鲁棒性。
CSPDarknet53主干特征提取网络的改进:使用了CSPDarknet53网络,相对于Yolov3的Darknet53网络多了5个CSP模块,并且在主干网络中使用了Mish激活函数,网络中的其他部分使用了Leaky_relu激活函数。使用Dropblock正则化方式随机删除神经元的数量,简化网络整体结构,防止训练过程中过拟合。
SPP:YOLOV4在CSPDarknet结构后面增加了SPP模块,SPP结构的增加能够有效的增加CSPDarknet53结构的特征接收范围,有效的分离出重要的特征信息。同时其还可以不需要每个候选区域全都经过卷积神经网络来提取特征,只需要将图片直接一次性传递给卷积神经网络既可以获取特征信息,有效的提升了网络的运行速率。
PANet:与YOLOV3不同的是,其在FPN的后面还增加了一个基于自下而上的特征金字塔,其中包含两个PAN结构。运用这种优化后的FPN+PAN结构取代YOLOv3中的单一FPN结构,以进一步提高特征提取的能力,从而提升对小目标的检测能力。
附图说明
图1本发明实施工人佩戴安全帽情况识别方法的训练流程图。
图2本发明实施用于提取图像特征的网络结构简图。
图3本发明实施优化anchor前后的检测效果对比图。
图4本发明实施优化anchor前后的实验数据分析图。
具体实施方式
下面结合说明书附图,对本发明作进一步说明,以让本领域技术人员参照说明书文字能够具体实施。
本发明在Ubuntu16.04.4LTS环境下工作,采用PyTorch为框架进行搭建,主要参数有:初始学习率为0.001,动量参数为0.937,权重系数为0.0005,训练阈值为0.65,imagesize为640×640,epoch为300等,此外,为了提高数据的多样性,对图片进行数据增强,每个步骤均以0.5的概率选择是否使用。
本发明采用的技术方案为:一种基于YOLOV4的anchor优化安全帽检测方法,包括以下步骤:
(1)工人佩戴安全帽情况图像数据的获取;
(2)工人安全帽佩戴情况图像样本的划分;
(3)工人安全帽佩戴情况图像的特征提取;
(4)基于优化anchor的工人安全帽佩戴情况识别模型的构建。
下面结合附图,对发明作进一步详细说明,本发明提供一种基于YOLOV4的anchor优化安全帽检测方法,训练步骤如图1所示:
工人佩戴安全帽情况图像数据的获取:有关安全帽佩戴的公开数据集较少且数据不完善,需要重新建立数据集并进行标注。本发明的安全帽数据集是通过网络收集和自己在场景拍摄得到,为了提高本发明在实际场景中的应用能力,所收集的数据集图片均来自于现实生活中的场景,然后利用目标检测标注工具进行标注,将图片格式化为一定的尺寸,进而获得工人安全帽佩戴情况图像的信息,本发明的数据集定义为两类:工人佩戴安全帽和工人没有佩戴安全帽。
工人安全帽佩戴情况图像样本的划分:本发明采用随机抽样的方式对工地中的佩戴安全帽和未佩戴安全帽的图像数据按照验证集80%,测试集20%的比例将工人佩戴安全帽情况图像数据划分为独立不重复的验证集和测试集。
CSPDarknet53工人佩戴安全帽情况图像的特征提取,如附图2中展示了网络的结构图,该网络主要三个部分:
CSPDarknet53:CSPDarknet53是在YOLOV3骨干网络Darknet53的基础上进行改进,结合CSPNet(跨阶段对等网络)的结构。CSPDarknet53里面包含了5个CSP模块,可以有效解决因为在网络的深入过程中梯度信息因为重复的学习而造成资源浪费和增加计算量,从而提升整体速度。CSP模块运用跨阶段增次结构将预先分好的基础层特征映射相结合,这样不仅卷积神经网络的学习能力增强了。同时也简化了模型的结构,降低了运营成本,也保持了较高的准确性。
SPP:为了让预测框获取更大的感受野,有效的分离出数据的显著特征,从而提升小目标检测的精度,同时也不影响网络的运行速度。YOLOV4在CSPDarknet结构后面增加了SPP模块。SPP网络连接在CSPDarknet53最后一个特征层的卷积里,在对CSPDarknet53的最后一个特征层进行三次卷积后,分别利用四个不同尺寸的最大池进行处理,最大池化的核心大小分别为13×13、9×9、5×5、1×1。SPP相比于单级池化具有更强的鲁棒性,并且可以在不同尺度上提取特征。
PANet:与YOLOV3不同的是,其在FPN的后面还增加了一个基于自下而上的特征金字塔,其中包含两个PAN结构。FPN+PAN这种组合在YOLOv4中将PANet网络结构内部进行一些修改,原始的PANet采用的是shortcut的方式连接相邻的两层PAN结构,而YOLOv4采用的是concat的结构去连接。运用这种优化后的anchor的FPN+PAN结构取代YOLOv3中的单一FPN结构,进而使得优化后的anchor的FPN+PAN结构能运用于不同级别的检测器进行参数的聚合,以进一步提高特征提取的能力,从而提升对小目标的检测能力。
anchor值的大小对于YOLOV4目标检测网络十分重要,合适的anchor值能够加快网络的收敛速度,降低误差。原始YOLOV3算法中的anchor的尺寸是经过COCO数据集和PASCALVOC数据集(目标检测公开数据集)训练时聚类得到的,在这些数据集中,这些目标物体尺寸不一,聚类出来的anchor形状不一,因此在检测安全帽时存在精度低的问题。为了更准确地预测目标的位置,利用K-means算法针对安全帽检测目标数据集重新聚类,得到更精准、更具代表性anchor。K-means算法随机选取k个初始的聚类中心,然后计算其他目标与聚类中心的距离,并分配给近的聚类中心成为k个群,通过迭代调整使群中各个目标之间的距离越来越小,群间距离变大。在K-means算法中通常以欧氏距离作为计算的度量距离,但在目标检测算法中更适合采用预测框和anchor的面积重叠度IOU(B,C)作为度量距离,则新的度量标准计算公式为:
d(B,C)=1-IOU(B,C)
其中B表示物体真实包围框的集合,C表示聚类中心框集合。
图3展示了本发明的测试后的效果图,共挑选了两组进行对比。本文挑选了工地两个场景作为样本进行研究。图3(c),3(d)是使用了优化后的anchor的测试效果图,图3(a),3(b)是未优化的anchor的测试效果图。对于未优化的anchor来说,精度低,优化后的anchor,检测精度明显高于之前。总的来说,此项目优化anchor对检测准确性起到了一定的提升作用。
图4中展示了本模型的各个参数指标,该参数指标是在epoch为300,batchsize为32,imagesize为640×640情况下训练得到的;其中,GIoU(GeneralizedIntersection overUnion)是指任意两个边框的度量,本文中的GloU是指损失度量,其中GIoU和IoU计算公式如下:
其中,A、B代表任意的两个框,C代表能够包住它们的最小方框。Objectness在本文中表示“置信度”,其对应的是布尔值类型的二分类标签,表示成对应的真实和错误的逻辑值;其他指标分别是性能评价指标、精准率、回归率、平均精度,mAP@0.5是指IOU=0.5时测得模型的精度,同理,mAP@0.5~0.95是指IOU=0.5~0.95时测得模型的精度。其中,精准率和召回率的计算公式为:
其中,TP为真正例,指模型将正类别样本正确预测为正类别;TN为真负例,指模型将负类别样本正确预测为负类别;FP为假正例,指将负类别样本错误的预测为正类别;FN为真负例,将负类别样本错误的预测为负类别。
鉴于计算机硬件的限制,本发明只做了300次的训练,就可以证明改进的有效性,下表是取epoch第一次和最后一次参数,如下表所示:
表一:训练阶段epoch为1和epoch为300时的对比
由表1知:在epoch为1时,未优化的anchor和优化后的anchor的变化微乎其微,但随着训练次数的增加,优化后的anchor的效果明显好于未优化的anchor。我们重点分析epoch为300时的几个常见参数,未优化的anchor的精准率为0.7638,优化后的anchor的精准率为0.8219,提高了0.0581;未优化的anchor的回归率为0.9599,优化后的anchor的回归率为0.9754,提高了0.0155;未优化的anchor的mAP@0.5为0.9549,优化后的anchor的mAP@0.5为0.972,提高了0.0171;未优化的anchor的mAP@0.5:0.95为0.6141,优化后的anchor的mAP@0.5:0.95为0.6538,提高了0.0397。根据实验数据所得,伴随着训练次数的增加,GloU的损失不断减小;精准率和回归率之间存在一种博弈关系,该模型在回归率增长的同时保持较高的准准率;mAP随着IOU值得不同表现出较高的精度;鉴于计算机硬件的限制,本发明只训练了epoch为300,虽然涨幅较小,却也证明了优化后的anchor优于未优化的anchor。
表2:测试epoch训练300后的模型参数表
由表2知:在原有anchor基础上,选择优化anchor进行改进,分别对训练完的两个模型进行测试,NMS(Non-Maximum Suppression)测试的阈值设置为0.65,其中在原有的基础上,精准率为0.742,优化后的anchor的精准率为0.808,提高了0.066;在原有的基础上,召回率为0.961,优化后的anchor的召回率为0.976,提高了0.015;在原有的基础上,map@0.5为0.956,优化后的anchor的map@0.5为0.974,提高了0.018;在原有的基础上,map@0.5:0.95为0.614,优化后的anchor的map@0.5:0.95为0.655,提高了0.041;由测试得到的数据可以说明,在该情况下,优化后的anchor更适用于本发明,也证明了改进的有效性。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例的技术方案也可以经适当的组合,形成本领域技术人员可以理解的其他实施方式。
Claims (5)
1.一种基于YOLOV4的anchor优化安全帽检测方法,包括以下步骤:
(1)工人佩戴安全帽情况图像数据的获取;
(2)工人安全帽佩戴情况图像样本的划分;
(3)工人安全帽佩戴情况图像的特征提取;
(4)基于优化anchor的工人安全帽佩戴情况识别模型的构建。
2.根据权利要求1所述的一种基于YOLOV4的anchor优化安全帽检测方法,其特征在于:所述步骤(1)中,有关安全帽佩戴的公开数据集较少且数据不完善,需要重新建立数据集并进行标注。本发明的安全帽数据集是通过网络收集和自己在场景拍摄得到,为了提高本发明在实际场景中的应用能力,所收集的数据集图片均来自于现实生活中的场景,然后利用目标检测标注工具进行标注,将图片格式化为一定的尺寸,进而获得工人安全帽佩戴情况图像的信息,本发明的数据集定义为两类:工人佩戴安全帽和工人没有佩戴安全帽。
3.根据权利要求1所描述的一种基于YOLOV4的anchor优化安全帽检测方法,其特征在于:所描述步骤(2)中,采取随机抽样的方式将所采集的工人安全帽佩戴情况图像数据按一定的比例划分为独立不重复的验证集和测试集。
4.根据权利要求1所描述的一种基于YOLOV4的anchor优化安全帽检测方法,其特征在于:所描述的步骤(3)中,用于提取工人佩戴安全帽情况图像信息特征的主干网络CSPDarknet53,它是整个YOLOV4算法的核心。YOLOV4在YOLOV3的Darknet53的每个大残差块上加上CSPNet(Cross Stage Partial Network),将基础层的特征映射划分为两个部分,再通过跨阶段层次结构合并,在减少计算量的同时保证准确率。CSPDarknet53的激活函数使用的是Mish激活函数,后面网络沿用leaky_relu函数,实验证明这样设置在目标检测中准确率更高。
5.根据权利要求1所描述的一种基于YOLOV4的anchor优化安全帽检测方法,其特征在于所描述步骤(4)中,在训练和测试阶段,利用CSPDarknet53提取工人佩戴安全帽情况的图像特征在验证集上构建为佩戴安全帽工人识别模块,优化了提取图像特征的anchor,利用K-means算法针对安全帽目标数据集重新聚类,得到更精准、更具代表性的anchor。确定识别模型的参数,然后利用测试集来检测识别效果,验证模块性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011243356.XA CN112347943A (zh) | 2020-11-09 | 2020-11-09 | 一种基于YOLOV4的anchor优化安全帽检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011243356.XA CN112347943A (zh) | 2020-11-09 | 2020-11-09 | 一种基于YOLOV4的anchor优化安全帽检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112347943A true CN112347943A (zh) | 2021-02-09 |
Family
ID=74362292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011243356.XA Pending CN112347943A (zh) | 2020-11-09 | 2020-11-09 | 一种基于YOLOV4的anchor优化安全帽检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112347943A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112668672A (zh) * | 2021-03-16 | 2021-04-16 | 深圳市安软科技股份有限公司 | 基于TensorRT的目标检测模型加速方法及装置 |
CN112926685A (zh) * | 2021-03-30 | 2021-06-08 | 济南大学 | 一种工业中钢材氧化带目标检测方法、系统及设备 |
CN112966618A (zh) * | 2021-03-11 | 2021-06-15 | 京东数科海益信息科技有限公司 | 着装识别方法、装置、设备及计算机可读介质 |
CN113239845A (zh) * | 2021-05-26 | 2021-08-10 | 青岛以萨数据技术有限公司 | 一种面向嵌入式平台的红外目标检测方法及系统 |
CN113255521A (zh) * | 2021-05-26 | 2021-08-13 | 青岛以萨数据技术有限公司 | 一种面向嵌入式平台的双模目标检测方法及系统 |
CN113361397A (zh) * | 2021-06-04 | 2021-09-07 | 重庆邮电大学 | 一种基于深度学习的人脸口罩佩戴情况检测方法 |
CN113706579A (zh) * | 2021-08-09 | 2021-11-26 | 华北理工大学 | 一种基于工厂化养殖的对虾多目标跟踪系统及方法 |
CN114332773A (zh) * | 2022-01-05 | 2022-04-12 | 苏州麦科斯工程科技有限公司 | 基于Yolo v4改进模型的智慧工地安全帽佩戴识别控制系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399905A (zh) * | 2019-07-03 | 2019-11-01 | 常州大学 | 施工场景中安全帽佩戴情况的检测及描述方法 |
AU2020100711A4 (en) * | 2020-05-05 | 2020-06-11 | Chang, Cheng Mr | The retrieval system of wearing safety helmet based on deep learning |
AU2020100705A4 (en) * | 2020-05-05 | 2020-06-18 | Chang, Jiaying Miss | A helmet detection method with lightweight backbone based on yolov3 network |
CN111598040A (zh) * | 2020-05-25 | 2020-08-28 | 中建三局第二建设工程有限责任公司 | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 |
CN111709349A (zh) * | 2020-06-11 | 2020-09-25 | 杭州尚尚签网络科技有限公司 | 一种针对带表格合同的ocr识别方法 |
CN111832513A (zh) * | 2020-07-21 | 2020-10-27 | 西安电子科技大学 | 基于神经网络的实时足球目标检测方法 |
CN111860422A (zh) * | 2020-07-30 | 2020-10-30 | 西北师范大学 | 医护人员防护用品穿戴规范性智能检测方法 |
CN111881730A (zh) * | 2020-06-16 | 2020-11-03 | 北京华电天仁电力控制技术有限公司 | 一种火电厂现场安全帽佩戴检测方法 |
-
2020
- 2020-11-09 CN CN202011243356.XA patent/CN112347943A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399905A (zh) * | 2019-07-03 | 2019-11-01 | 常州大学 | 施工场景中安全帽佩戴情况的检测及描述方法 |
AU2020100711A4 (en) * | 2020-05-05 | 2020-06-11 | Chang, Cheng Mr | The retrieval system of wearing safety helmet based on deep learning |
AU2020100705A4 (en) * | 2020-05-05 | 2020-06-18 | Chang, Jiaying Miss | A helmet detection method with lightweight backbone based on yolov3 network |
CN111598040A (zh) * | 2020-05-25 | 2020-08-28 | 中建三局第二建设工程有限责任公司 | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 |
CN111709349A (zh) * | 2020-06-11 | 2020-09-25 | 杭州尚尚签网络科技有限公司 | 一种针对带表格合同的ocr识别方法 |
CN111881730A (zh) * | 2020-06-16 | 2020-11-03 | 北京华电天仁电力控制技术有限公司 | 一种火电厂现场安全帽佩戴检测方法 |
CN111832513A (zh) * | 2020-07-21 | 2020-10-27 | 西安电子科技大学 | 基于神经网络的实时足球目标检测方法 |
CN111860422A (zh) * | 2020-07-30 | 2020-10-30 | 西北师范大学 | 医护人员防护用品穿戴规范性智能检测方法 |
Non-Patent Citations (3)
Title |
---|
ZHE MA等: "Driver Hand Detection Using Squeeze-and-Excitation YOLOv4 Network", 《BDSIC 2020》 * |
管军霖等: "基于YOLOv4卷积神经网络的口罩佩戴检测方法", 《现代信息科技》 * |
谈小峰等: "基于YOLOv4改进算法的乒乓球识别", 《科技创新与应用》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112966618A (zh) * | 2021-03-11 | 2021-06-15 | 京东数科海益信息科技有限公司 | 着装识别方法、装置、设备及计算机可读介质 |
CN112966618B (zh) * | 2021-03-11 | 2024-02-09 | 京东科技信息技术有限公司 | 着装识别方法、装置、设备及计算机可读介质 |
CN112668672A (zh) * | 2021-03-16 | 2021-04-16 | 深圳市安软科技股份有限公司 | 基于TensorRT的目标检测模型加速方法及装置 |
CN112926685A (zh) * | 2021-03-30 | 2021-06-08 | 济南大学 | 一种工业中钢材氧化带目标检测方法、系统及设备 |
CN113239845A (zh) * | 2021-05-26 | 2021-08-10 | 青岛以萨数据技术有限公司 | 一种面向嵌入式平台的红外目标检测方法及系统 |
CN113255521A (zh) * | 2021-05-26 | 2021-08-13 | 青岛以萨数据技术有限公司 | 一种面向嵌入式平台的双模目标检测方法及系统 |
CN113361397A (zh) * | 2021-06-04 | 2021-09-07 | 重庆邮电大学 | 一种基于深度学习的人脸口罩佩戴情况检测方法 |
CN113361397B (zh) * | 2021-06-04 | 2022-07-12 | 重庆邮电大学 | 一种基于深度学习的人脸口罩佩戴情况检测方法 |
CN113706579A (zh) * | 2021-08-09 | 2021-11-26 | 华北理工大学 | 一种基于工厂化养殖的对虾多目标跟踪系统及方法 |
CN114332773A (zh) * | 2022-01-05 | 2022-04-12 | 苏州麦科斯工程科技有限公司 | 基于Yolo v4改进模型的智慧工地安全帽佩戴识别控制系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347943A (zh) | 一种基于YOLOV4的anchor优化安全帽检测方法 | |
CN111598040B (zh) | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 | |
CN112767644B (zh) | 一种基于视频识别的公路隧道内火灾预警方法及装置 | |
CN111881730A (zh) | 一种火电厂现场安全帽佩戴检测方法 | |
CN103871077B (zh) | 一种道路车辆监控视频中的关键帧提取方法 | |
CN112070043B (zh) | 基于特征融合的安全帽佩戴卷积网络、训练及检测方法 | |
JP2022506905A (ja) | 知覚システムを評価するシステム及び方法 | |
CN109344886B (zh) | 基于卷积神经网络的遮挡号牌判别方法 | |
CN111091110A (zh) | 一种基于人工智能的反光背心穿戴识别方法 | |
CN111723656B (zh) | 一种基于YOLO v3与自优化的烟雾检测方法及装置 | |
CN114022904A (zh) | 一种基于两阶段的噪声鲁棒行人重识别方法 | |
CN110674887A (zh) | 一种基于视频分类的端到端道路拥堵检测算法 | |
CN115512387A (zh) | 基于改进yolov5模型的工地安全帽佩戴检测方法 | |
Du et al. | Convolutional neural network-based data anomaly detection considering class imbalance with limited data | |
Maglietta et al. | The promise of machine learning in the Risso’s dolphin Grampus griseus photo-identification | |
CN111428589B (zh) | 一种渐变转场的识别方法及系统 | |
CN113033443A (zh) | 一种基于无人机的行人过街设施全路网自动化排查方法 | |
CN117423157A (zh) | 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法 | |
Park et al. | Intensity classification background model based on the tracing scheme for deep learning based CCTV pedestrian detection | |
CN115311601A (zh) | 一种基于视频分析技术的火灾探测分析方法 | |
CN113887634B (zh) | 基于改进两步检测的电力安全带检测及预警方法 | |
CN115995093A (zh) | 一种基于改进YOLOv5的安全帽佩戴识别方法 | |
CN112883889A (zh) | 一种适用于电力施工场景下违章行为检测方法 | |
CN112633163A (zh) | 一种基于机器学习算法实现非法运营车辆检测的检测方法 | |
CN118015568B (zh) | 一种基于人工智能的行车风险检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210209 |