CN113792629B - 一种基于深度神经网络的安全帽佩戴检测方法及系统 - Google Patents

一种基于深度神经网络的安全帽佩戴检测方法及系统 Download PDF

Info

Publication number
CN113792629B
CN113792629B CN202111010467.0A CN202111010467A CN113792629B CN 113792629 B CN113792629 B CN 113792629B CN 202111010467 A CN202111010467 A CN 202111010467A CN 113792629 B CN113792629 B CN 113792629B
Authority
CN
China
Prior art keywords
picture
detected
frame
yolov5x
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111010467.0A
Other languages
English (en)
Other versions
CN113792629A (zh
Inventor
江赛华
高义朋
宋滔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111010467.0A priority Critical patent/CN113792629B/zh
Publication of CN113792629A publication Critical patent/CN113792629A/zh
Application granted granted Critical
Publication of CN113792629B publication Critical patent/CN113792629B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度神经网络的安全帽佩戴检测方法及系统。该方法的具体步骤包括:获取视频帧或图片、目标检测器识别检测、输出标注结果图片或视频,其中,目标检测器识别检测的过程中改进式YOLOv5x目标检测模型将原YOLOv5x目标检测模型设置的数据增强替换为对图片进行HSV色彩空间增强处理、Mask‑Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种的混合数据增强,并将原YOLOv5x目标检测模型的BECLogits损失函数替换为基于IOU构造的LHead‑IoU损失函数;本发明通过提升检测效率和大幅减弱图片中虚化场景因素的影响,实现了全面监督是否佩戴安全帽的功能。

Description

一种基于深度神经网络的安全帽佩戴检测方法及系统
技术领域
本发明属于应用深度神经网络的目标检测领域,具体涉及检测是否佩戴安全帽的方法。
背景技术
将深度神经网络应用于目标检测中是当前计算机视觉领域的热点方向,以深度神经网络为核心的各类模型在图片识别、目标检测和语义分割场景实现了广泛应用。
现有基于深度神经网络的安全帽目标检测系统在训练时会使用开源的安全帽佩戴检测数据集(SafetyHelmetWearingDataset,SHWD)形成训练集。SHWD包括约7500张图像,其中约9000个人物头像佩戴有安全帽的阳性对象和约110000个无佩戴安全帽的阴性对象。SHWD的阳性对象来自谷歌或百度,阳性对象用LabelImg工具手动标注,部分阴性对象则来自SCUT-HEAD安全帽数据集。
基于深度神经网络的安全帽目标检测系统使用时在建筑土木工程的施工场景下时通常以视频流数据为输入,当被检测人物头像和摄像头之间出现轻微扬尘、玻璃材料半透明材料等各类虚化场景遮挡时,容易将被检测人物头像遗漏,从而造成检测失效和安全措施监督死角问题。另一方面,现有检测系统或方法的深度神经网络模型多采用两阶段检测,例如R-CNN、Faster RCNN、Resnet等,系统检测效率往往滞后于视频流数据的更新,安全措施的监督时效性有待提升。
发明内容
为了克服现有技术存在的缺陷与不足,本发明提供一种基于深度神经网络的安全帽佩戴检测方法以及实现该方法的系统,目的在于通过消除虚化场景的遮挡并提升目标检测性能,实现全面监督建筑土木工程施工现场人员是否佩戴安全帽的功能。
为了达到上述目的,本发明采用以下技术方案:
一种基于深度神经网络的安全帽佩戴检测方法,包括以下步骤:
获取需要被检测的待测图片;
准备完成预训练的目标检测器;目标检测器为改进式YOLOv5x目标检测模型,改进式YOLOv5x目标检测模型将原YOLOv5x目标检测模型设置的数据增强替换为对图片进行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种的混合数据增强,并且将原YOLOv5x目标检测模型的BECLogits损失函数替换为基于IOU构造的LHead-IoU损失函数;
将待测图片输入目标检测器,目标检测器判断待测图片中的人物头像是否佩戴安全帽,然后目标检测器把判断结果在待测图片中进行标注形成已检测图片;
目标检测器输出已检测图片。
优选地,目标检测器,其预训练的具体步骤包括:
获取安全帽佩戴检测数据集,安全帽佩戴检测数据集由训练图片组成,训练图片中佩戴安全帽的人物头像附带标注框;
对改进式YOLOv5x目标检测模型配置参数;
将训练图片输入改进式YOLOv5x目标检测模型,改进式YOLOv5x目标检测模型对待测图片先进行混合数据增强,再对待测图片中的人物头像是否佩戴安全帽进行预测,生成带有预测框的预测图片;
全部训练图片经过改进式YOLOv5x目标检测模型的预测训练后,将预测图片的预测框与对应的训练图片的标注框进行比对,根据预测框与标注框的差异计算LHead-IoU损失函数;
根据LHead-IoU损失函数的计算结果对改进式YOLOv5x目标检测模型的配置参数进行调整,从而完成对目标检测器的训练。
进一步地,预测框和标注框均分别带有类别和置信度;类别用于表示人物头像是否佩戴安全帽的判断结果分类,置信度用于表示人物头像是否佩戴安全帽的真实情况落在判断结果周围的概率。
进一步地,混合数据增强为根据训练图片的像素、长宽、颜色特性、人物头像位置分布,选择执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种图像处理方法。
更进一步地,混合数据增强还包括对训练图片进行自适应平移或放缩从而得到检测图片。
进一步地,基于IOU构造的损失函数为LHead-IoU计算如式(1):
其中,IoU表示预测框和标注框的交并比,b表示预测框的中心点,bgt表示标注框的中心点,ρ2(b,bgt)表示计算预测框中心点和标注框中心点之间欧氏距离的平方,c表示预测框和标注框所在的最小闭包区域的对角线长度,w表示预测框和标注框所在的最小闭包区域的宽,bw表示预测框的宽,表示标注框的宽;
IoU的计算如式(2):
其中,B代表预测框,Bgt代表标注框,|B∩Bgt|表示计算标注框和预测框交集的面积,|B∪Bgt|表示计算标注框和预测框并集的面积。
进一步地,待测图片为从图像库下载的图片,或者从视频流中抽帧处理得到的视频帧图片。
一种基于深度神经网络的安全帽佩戴检测系统,包括获取模块、处理模块、改进式YOLOv5x目标检测模块和显示模块;
获取模块用于拍摄视频流数据或从图像库下载图片,并将拍摄到的视频流或者下载的图像库图片传送到处理模块;
处理模块用于对视频流数据进行抽帧处理形成待测图片,或者将图像库图片作为待测图片;
改进式YOLOv5x目标检测模块用于对待测图片中人物头像是否佩戴安全帽进行判断;改进式YOLOv5x目标检测模块包括混合数据增强单元和检测网络;混合数据增强单元用于处理待测图片,检测网络用于识别待测图片中人物头像是否佩戴安全帽;
处理模块用于把改进式YOLOv5x目标检测模块的判断结果标注在待测图片上形成已检测图片,或者把已检测图片合并成视频流;
显示模块用于把已检测图片或已检测图片合并的视频流进行可视化。
优选地,混合数据增强单元对待测图片执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理、自适应平移放缩处理中的一种或多种。
优选地,获取模块包括摄像头和计算机。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明的方法和系统可以将被检测人物头像和摄像头之间可能出现遮挡的轻微扬尘、玻璃材料和半透明材料等各类虚化场景进行弱化,突出人物头像,从而在提取图像特征前使人物头像和安全帽的边缘特征相对虚化场景更加明显,检测时不会再遗漏被虚化场景遮挡的人员,增强了检测的可靠性;
(2)本发明的方法相比现有目标检测模型,利用LHead-IoU达到识别检测速度更快的效果,目标检测模型在预测时提升了预测过程的收敛程度,增强了目标检测器的检测性能;
(3)本发明的系统利用对YOLOv5x目标检测模型在数据增强上的修改,兼顾了对多种应用场景下判断是否佩戴安全帽的检测效率。
附图说明
图1为本发明基于深度神经网络的安全帽佩戴检测方法的流程示意图;
图2为图1预训练目标检测器详细步骤的流程示意图;
图3为本发明基于深度神经网络的安全帽佩戴检测系统的原理框图;
图4为图1中检测方法改进式YOLOv5x目标检测模型相比YOLOv51和YOLOv5m版本的性能趋势图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
如图1和图2所示,基于深度神经网络的安全帽佩戴检测方法,具体步骤依次如下:
S1、准备经过预训练的目标检测器,具体为:
S11、将原YOLOv5x目标检测模型的数据增强和损失函数分别替换为混合数据增强和LHead-IoU损失函数,其余部分则与原YOLOv5x目标检测模型保持一致,形成改进式YOLOv5x目标检测模型;
混合数据增强包括依次执行的HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理、自适应平移放缩处理;
损失函数LHead-IoU基于预测框与标注框之间的交集与并集比例(IoU)进一步构造的,损失函数为LHead-IoU计算如式(1)所示:
其中,IoU表示预测框和标注框的交并比,b表示预测框的中心点,bgt表示标注框的中心点,ρ2(b,bgt)表示计算预测框中心点和标注框中心点之间欧氏距离的平方,c表示预测框和标注框所在的最小闭包区域的对角线长度,w表示预测框和标注框所在的最小闭包区域的宽,bw表示预测框的宽,表示标注框的宽;
IoU的计算如式(2)所示:
其中,B代表预测框,Bgt代表标注框,|B∩Bgt|表示计算标注框和预测框交集的面积,|B∪Bgt|表示计算标注框和预测框并集的面积;
S12、下载安全帽佩戴检测数据集SHWD,将安全帽佩戴检测数据集内待标注框的训练图片作为输入,对S11构建的改进式YOLOv5x目标检测模型进行训练,具体训练过程为;
S121、对改进式YOLOv5x目标检测模型配置参数;
S122、将全部训练图片输入改进式YOLOv5x目标检测模型进行混合数据增强处理,具体为根据训练图片的像素、长宽、颜色特性、人物头像在图片中的位置分布,选择执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理、自适应平移放缩处理中的一种或多种图像处理方法,然后得到检测图片;
S123、将S122的检测图片输入改进式YOLOv5x目标检测模型中的检测网络,以此对图像进行特征提取和预测操作,由检测网络学习得到带预测框的预测结果;
S124、将预测框与标注框进行比对,计算损失函数LHead-IoU
S125、对全部训练图片的损失函数LHead-IoU计算结果进行归一化处理,归一化处理的结果在改进式YOLOv5x目标检测模型内反向传播以调整其检测网络的配置参数。
S13、经过S12训练后就确定了改进式YOLOv5x目标检测模型的网络结构,目标检测器完成预训练;
S2、从摄像头获取视频流数据,并对视频流数据进行抽帧处理形成待测图片;或者直接从需要检测的图像库中提取出所需要检测的待测图片;
S3、将S2中的待测图片输入到S1中完成预训练的目标检测器,通过目标检测器判断待测图片中的人物头像上是否佩戴有安全帽;
S4、输出判断结果,具体步骤为:
S41、将S3的判断结果标注在待测图片上形成已检测图片,其中,判断结果表示为附带有是否佩戴安全帽分类及其置信度的标注框;
S42、对外部输出已检测图片,或者将已检测图片合成为视频流数据对外部输出。
本基于深度神经网络的安全帽佩戴检测方法相比现有技术,通过改进数据增强的方式,利用改进式YOLOv5x目标检测模型的混合数据增强功能,在检测网络进行特征提取前就让待测图片中人物头像的边缘特征更加显著,相对弱化了与摄像头之间可能出现遮挡的轻微扬尘、玻璃材料半透明材料等各类虚化场景中的虚化部分特征,从而在检测时不会遗漏被虚化场景遮挡的人员;通过改进损失函数,提升了识别时预测框的收敛程度;利用改进式YOLOv5x目标检测模型的单阶段特性,增强了目标检测模型的检测效率。在安全帽佩戴检测数据集SHWD上训练后,改进式YOLOv5x目标检测模型的类均平均精度mAP@0.5为0.975,类均平均精度mAP@0.5:0.95为0.721,下表为使用不同损失函数时类均平均精度mAP、精确度P、召回率R在训练后的表现,
Loss function P R mAP@0.5 mAP@0.5:0.95
LIoU 0.856 0.926 0.972 0.718
LGIoU 0.858 0.926 0.973 0.719
LDIoU 0.856 0.928 0.972 0.716
LHead-IoU 0.892 0.917 0.975 0.721
如图4所示,横坐标为训练集遍历次数epoch,纵坐标为类均平均精度mAP,可见在预训练次数达到足够量时,本实施例中的改进式YOLOv5x目标检测模型性能要优于同为YOLO算法系列的v51和v5m版本。
如图3所示,基于深度神经网络的安全帽佩戴检测系统由获取模块、处理模块、改进式YOLOv5x目标检测模块和显示模块四大部分组成。
获取模块包括了存有图像库或者直接从互联网下载图片的计算机,还包括用来拍摄施工现场的人员画面产生视频流数据的摄像头,计算机和摄像头均将各自的图片和视频流传输到处理模块。
处理模块包括了抽帧处理器、存储器、标注器和合成器。抽帧处理器接收摄像头传来的视频流数据并进行抽帧处理形成待测图片再存入存储器,存储器再将待测图片传给改进式YOLOv5x目标检测模块进行检测。存储器接收计算机传来的图片作为待测图片,然后存储器再将待测图片传给改进式YOLOv5x目标检测模块进行检测。标注器根据改进式YOLOv5x目标检测模块传出的检测结果,在待测图片上添加附带有是否佩戴安全帽分类和置信度的标注框形成已检测图片。合成器把标注器传来的已检测图片合并成视频流数据。
改进式YOLOv5x目标检测模块由混合数据增强单元和检测网络构成。混合数据增强单元对处理模块传来的待测图片的像素、长宽、颜色特性、人物头像位置分布等,选择执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理、自适应平移放缩处理中的一种或多种图像处理方法,以适应检测网络对输入图片的限制并满足弱化虚拟场景的需求,并将处理后的图片传入检测网络进行是否佩戴安全帽的检测。检测网络为预训练好配置参数的改进式YOLOv5x目标检测模型,检测网络将对是否佩戴安全帽的检测结果输出到处理模块。
改进式YOLOv5x目标检测模块和处理模块实质上是可执行程序,利用了计算机系统对其进行构建。
显示模块接收合成器传来视频流数据进行可视化播放,或者直接播放标注器传来的已检测图片。显示模块可以采用常规显示器。
本基于深度神经网络的安全帽佩戴检测系统,其有益效果在于,利用混合数据增强单元弱化了虚化场景对安全帽佩戴人物头像的遮挡,在检测时便不会遗漏被虚化场景遮挡的人员,提升了检测的可靠性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度神经网络的安全帽佩戴检测方法,其特征在于,包括以下步骤:
获取需要被检测的待测图片;
准备完成预训练的目标检测器;所述目标检测器为改进式YOLOv5x目标检测模型,所述改进式YOLOv5x目标检测模型将原YOLOv5x目标检测模型设置的数据增强替换为对图片进行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种的混合数据增强,并且将原YOLOv5x目标检测模型的BECLogits损失函数替换为基于IOU构造的LHead-IoU损失函数;
将待测图片输入目标检测器,目标检测器判断待测图片中的人物头像是否佩戴安全帽,然后目标检测器把判断结果在待测图片中进行标注形成已检测图片;
目标检测器输出已检测图片。
2.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述目标检测器,其预训练的具体步骤包括:
获取安全帽佩戴检测数据集,所述安全帽佩戴检测数据集由训练图片组成,训练图片中佩戴安全帽的人物头像附带标注框;
对改进式YOLOv5x目标检测模型配置参数;
将训练图片输入改进式YOLOv5x目标检测模型,改进式YOLOv5x目标检测模型对待测图片先进行混合数据增强,再对待测图片中的人物头像是否佩戴安全帽进行预测,生成带有预测框的预测图片;
全部训练图片经过改进式YOLOv5x目标检测模型的预测训练后,将预测图片的预测框与对应的训练图片的标注框进行比对,根据预测框与标注框的差异计算LHead-IoU损失函数;
根据LHead-IoU损失函数的计算结果对改进式YOLOv5x目标检测模型的配置参数进行调整,从而完成对目标检测器的训练。
3.根据权利要求2中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述预测框和标注框均分别带有类别和置信度;所述类别用于表示人物头像是否佩戴安全帽的判断结果分类,所述置信度用于表示人物头像是否佩戴安全帽的真实情况落在判断结果周围的概率。
4.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述混合数据增强为根据训练图片的像素、长宽、颜色特性、人物头像位置分布,选择执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种图像处理方法。
5.根据权利要求4中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述混合数据增强还包括对训练图片再进行自适应平移或放缩从而得到检测图片。
6.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述基于IOU构造的损失函数LHead-IoU计算如下式:
其中,IoU表示预测框和标注框的交并比,b表示表示预测框的中心点,bgt表示表示标注框的中心点,ρ2(b,bgt)表示计算预测框中心点和标注框中心点之间欧氏距离的平方,c表示预测框和标注框所在的最小闭包区域的对角线长度,w表示预测框和标注框所在的最小闭包区域的宽,bw表示预测框的宽,表示标注框的宽;
IoU的计算如下式:
其中,B代表预测框,Bgt代表标注框,|B∩Bgt|表示计算标注框和预测框交集的面积,|B∪Bgt|表示计算标注框和预测框并集的面积。
7.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述待测图片为从图像库下载的图片,或者从视频流中抽帧处理得到的视频帧图片。
8.一种根据权利要求1-7中任一项方法的基于深度神经网络的安全帽佩戴检测系统,其特征在于,包括获取模块、处理模块、改进式YOLOv5x目标检测模块和显示模块;
所述获取模块用于拍摄视频流数据或从图像库下载图片,并将拍摄到的视频流或者下载的图像库图片传送到处理模块;
所述处理模块用于对视频流数据进行抽帧处理形成待测图片,或者将图像库图片设为待测图片;
所述改进式YOLOv5x目标检测模块用于对待测图片中人物头像是否佩戴安全帽进行判断;改进式YOLOv5x目标检测模块包括混合数据增强单元和检测网络,所述混合数据增强单元用于处理待测图片,所述检测网络用于识别待测图片中人物头像是否佩戴安全帽;
所述处理模块用于把改进式YOLOv5x目标检测模块的判断结果标注在待测图片上形成已检测图片,或者把已检测图片合并成视频流;
所述显示模块用于把已检测图片或已检测图片合并的视频流进行可视化。
9.根据权利要求8中所述基于深度神经网络的安全帽佩戴检测系统,其特征在于,所述混合数据增强单元对待测图片执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理、自适应平移放缩处理中的一种或多种。
10.根据权利要求8中所述基于深度神经网络的安全帽佩戴检测系统,其特征在于,所述获取模块包括摄像头和计算机。
CN202111010467.0A 2021-08-31 2021-08-31 一种基于深度神经网络的安全帽佩戴检测方法及系统 Active CN113792629B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111010467.0A CN113792629B (zh) 2021-08-31 2021-08-31 一种基于深度神经网络的安全帽佩戴检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111010467.0A CN113792629B (zh) 2021-08-31 2021-08-31 一种基于深度神经网络的安全帽佩戴检测方法及系统

Publications (2)

Publication Number Publication Date
CN113792629A CN113792629A (zh) 2021-12-14
CN113792629B true CN113792629B (zh) 2023-07-18

Family

ID=78876697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111010467.0A Active CN113792629B (zh) 2021-08-31 2021-08-31 一种基于深度神经网络的安全帽佩戴检测方法及系统

Country Status (1)

Country Link
CN (1) CN113792629B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419502A (zh) * 2022-01-12 2022-04-29 深圳力维智联技术有限公司 一种数据分析方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070033A (zh) * 2019-04-19 2019-07-30 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN111860160A (zh) * 2020-06-16 2020-10-30 北京华电天仁电力控制技术有限公司 一种室内检测口罩佩戴的方法
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法
CN113139437A (zh) * 2021-03-31 2021-07-20 成都飞机工业(集团)有限责任公司 一种基于YOLOv3算法的安全帽佩戴检查方法
CN113255826A (zh) * 2021-06-17 2021-08-13 广东电网有限责任公司中山供电局 一种基于改进yolov3的安全帽佩戴检测方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070033A (zh) * 2019-04-19 2019-07-30 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN111860160A (zh) * 2020-06-16 2020-10-30 北京华电天仁电力控制技术有限公司 一种室内检测口罩佩戴的方法
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法
CN113139437A (zh) * 2021-03-31 2021-07-20 成都飞机工业(集团)有限责任公司 一种基于YOLOv3算法的安全帽佩戴检查方法
CN113255826A (zh) * 2021-06-17 2021-08-13 广东电网有限责任公司中山供电局 一种基于改进yolov3的安全帽佩戴检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Shanchen Pang.NDFTC: A New Detection Framework of Tropical Cyclones from Meteorological Satellite Images with Deep Transfer Learning.《Remote Sensing》.2021,第1-14页. *
秦嘉 ; 曹雪虹 ; 焦良葆 ; .基于深度学习的安全帽佩戴检测与跟踪.计算机与现代化.2020,(06),第5-10页. *

Also Published As

Publication number Publication date
CN113792629A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN109684925B (zh) 一种基于深度图像的人脸活体检测方法及设备
Zhang et al. Ensnet: Ensconce text in the wild
CN109635666B (zh) 一种基于深度学习的图像目标快速检测方法
CN110619628B (zh) 一种人脸图像质量评估方法
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN110688965B (zh) 基于双目视觉的ipt模拟训练手势识别方法
US10922531B2 (en) Face recognition method
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN111489330B (zh) 基于多源信息融合的弱小目标检测方法
CN112270745B (zh) 一种图像生成方法、装置、设备以及存储介质
WO2023221608A1 (zh) 口罩识别模型的训练方法、装置、设备及存储介质
CN113792629B (zh) 一种基于深度神经网络的安全帽佩戴检测方法及系统
CN114549557A (zh) 一种人像分割网络训练方法、装置、设备及介质
CN112991159A (zh) 人脸光照质量评估方法、系统、服务器与计算机可读介质
Zhou et al. Modeling perspective effects in photographic composition
CN117011346A (zh) 鼓风机图像配准算法
Wang et al. Analysis of sports video using image recognition of sportsmen
CN109975307A (zh) 基于统计投影训练的轴承表面缺陷检测系统及检测方法
CN116862920A (zh) 一种人像分割方法、装置、设备及介质
WO2022178833A1 (zh) 目标检测网络的训练方法、目标检测方法及装置
Barreiro et al. Automated damage inspection of power transmission towers from UAV images
Chen et al. Illumination-invariant video cut-out using octagon sensitive optimization
CN110852172B (zh) 一种基于Cycle Gan图片拼贴并增强的扩充人群计数数据集的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant