CN115171022A - 一种施工场景下的安全帽佩戴检测方法及系统 - Google Patents

一种施工场景下的安全帽佩戴检测方法及系统 Download PDF

Info

Publication number
CN115171022A
CN115171022A CN202210852309.8A CN202210852309A CN115171022A CN 115171022 A CN115171022 A CN 115171022A CN 202210852309 A CN202210852309 A CN 202210852309A CN 115171022 A CN115171022 A CN 115171022A
Authority
CN
China
Prior art keywords
target
safety helmet
detection
wearing
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210852309.8A
Other languages
English (en)
Inventor
王贞
邱杭
王宇向
贾学军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202210852309.8A priority Critical patent/CN115171022A/zh
Publication of CN115171022A publication Critical patent/CN115171022A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Physiology (AREA)
  • Genetics & Genomics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种安全帽佩戴检测方法及系统,包括数据采集模块、目标检测模块、目标跟踪模块和摄像设备自动控制模块,在公开的安全帽佩戴检测数据集基础上添加现场监控图像,经数据增强后得到新的数据集;构建安全帽佩戴检测网络,同时用遗传算法优化初始锚框和超参数后训练该网络获得安全帽佩戴检测模型;随后将目标跟踪算法和监控设备相结合实现摄像设备对目标作业人员的自动跟踪。跟踪算法对目标的运动轨迹特征进行自动分析和提取,考虑了帧间关联性,从而弥补视觉目标检测方法的不足,提高检测准确度以及小目标的识别度。本发明可有效解决施工环境下小目标漏检问题与复杂背景下的误检问题,实现摄像设备对违规目标的自动跟踪检测。

Description

一种施工场景下的安全帽佩戴检测方法及系统
技术领域
本发明涉及建筑施工安全技术领域,具体涉及一种施工场景下的安全帽佩戴检测方法及系统。
背景技术
建筑业在生产建设过程中,安全事故较为频繁。目前,高处坠落事故占生产安全事故的一半以上。佩戴安全帽能有效减少坠落的物体对作业人员造成的伤害,但是,由于施工现场环境复杂、人员流动大,安全帽佩戴检测与管理较为困难。因此,在工程建设中,如何准确、有效地检测作业人员安全帽佩戴情况是减少头部损伤事故,确保施工安全的重要举措。
随着智慧工地概念的兴起,工程建筑行业逐渐朝信息化、智能化的方向发展。近几年,基于深度学习计算机视觉的安全帽的佩戴智能化检测方法,在检测精度、检测速度、现场适应性方面都有一定提升但是,由于施工现场环境复杂、人流量大、遮挡情况常有发生,现有技术的检测精度依然较低、小目标检测困难,并且无法处理遮挡问题。同时,施工现场安装的监控设备大多是固定角度,难以对违规目标进行抓拍并进行预警;难以区分远处小目标是否违规,无法准确判断置信度较低、位于部分遮挡区域目标的安全帽佩戴情况。
发明内容
本发明提供了一种施工场景下的安全帽佩戴检测方法及系统,用于解决当前在施工场景下安全帽检测精度低、小目标检测困难等问题;解决处于部分遮挡状态下的施工作业人员、检测安全帽误报漏报频发的技术问题。
为解决上述技术问题,本发明提供了一种安全帽佩戴检测方法,包括以下步骤:
步骤S1:构建安全帽佩戴检测数据集;
步骤S2:改进YOLOv5目标检测算法,构建安全帽佩戴检测网络;
步骤S3:通过K-means聚类算法和遗传算法对所述安全帽佩戴检测网络的初始锚框尺寸进行优化,并采用遗传算法优化所述安全帽佩戴检测网络的超参数;
步骤S4:采用所述安全帽佩戴检测数据集对步骤S2得到的安全帽佩戴检测网络进行训练,得到权重文件,并构建安全帽检测模型;
步骤S5:基于所述安全帽检测模型和DeepSort目标跟踪算法,实时检测工地视频帧图像,对当前所述帧图像中的目标人物进行标注生成目标检测框;并对所述目标人物分配不同的ID,进行特征提取、持续跟踪并获取目标轨迹;
步骤S6:在持续跟踪过程中,基于所述安全帽检测模型识别未佩戴安全帽的重点目标,并将所述重点目标区分为违规目标A和难以识别的潜在违规目标B,当所述重点目标连续5帧以上满足未佩戴安全帽的判定情况时,对所述重点目标进行跟踪放大,继续进行检测;
步骤S7:当所述重点目标存在未佩戴安全帽的违规行为时,对所述重点目标进行抓拍并预警。
优选地,步骤S1包括以下步骤:
步骤S11:以公开的GDUT-HWD安全帽检测数据集为基础,并添加施工现场监控视频采集、筛选、整理后的信息图像;
步骤S12:对所述信息图像进行预处理:对图像进行随机水平/垂直翻转、旋转、裁剪、缩放操作;
步骤S13:使用labeling对处理后的图像进行标注,安全帽为蓝色标注blue,安全帽为黄色标注yellow,安全帽为白色标注white、安全帽为红色标注red,没有佩戴安全帽标注none,构建安全帽佩戴检测数据集。
优选地,步骤S2具体包括:在YOLOv5算法的大、中、小三尺度预测的基础上,在Neck层继续对原始特征图进行上采样,并与包含更多细节信息的浅层特征图拼接融合,进而将三尺度预测的结构改为四尺度预测,并利用深度学习框架pytorch构建安全帽佩戴检测网络。
优选地,步骤S3包括以下步骤:
步骤S31:使用K-means聚类算法对所述安全帽佩戴检测数据集的目标框的高宽进行聚类,获取十二组初始锚框;
步骤S32:使用遗传算法对获取的十二组所述初始锚框进行优化,选择最佳可能召回率BPR作为优化过程中的适应度函数,当初始锚框的适应度函数小于设定值时,利用遗传算法对初始锚框进行优化,并选择优化1000轮中适应度函数最高的初始锚框;
步骤S33:使用遗传算法,选择适应度函数最高的个体作为最优超参数。
优选地,步骤S4具体为:将步骤S3中得到的初始锚框和步骤S4中获得的超参数输入所述安全帽佩戴检测网络;并将所述安全帽佩戴检测数据集输入所述安全帽佩戴检测网络进行训练,得到权重文件,构建安全帽检测模型。
优选地,对所述安全帽佩戴检测网络训练的具体步骤为:
步骤S41:采取多尺度训练方法,设置多种不同的图片输入尺度,训练时从多个尺度中随机选取一种尺度,将输入图片缩放到该尺度并输入所述安全帽佩戴检测网络;
步骤S42:在训练过程中,当所述安全帽佩戴检测网络在所述安全帽佩戴检测数据集上适应度函数不再增加或下降时,提前终止训练,保证训练结果。
优选地,步骤S5包括以下步骤:
步骤S51:所述目标检测框作为输入,对第一帧中出现的所有目标标注ID;
步骤S52:使用卡尔曼滤波预测目标下一步的状态,将ID与预测状态相匹配;
步骤S53:采用重识别网络提取目标检测框内的深层目标特征,并计算其特征向量用于后文目标外观信息的关联,并将提取所得目标特征与ID相匹配;
步骤S54:计算检测框与真实框之间的马氏距离和余弦距离,融合目标的运动信息与外观信息,得到检测框与轨迹的关联程度;
步骤S55:对关联程度结果采用匈牙利匹配算法,进行目标的匹配,若匹配成功,则分配同样的ID,若匹配未成功,则进入IoU匹配环节,继续采用匈牙利算法,若匹配成功,则分配同样的ID,给未匹配到轨迹的检测结果分配新的ID;
步骤S56:对于成功匹配的结果,使用卡尔曼滤波更新目标状态,并进入下一帧的预测。
优选地,步骤S6中重点目标的定义与判断方法具体步骤为:
步骤S611:设定摄像设备拍摄的视频画面分辨率为PCX×PCY
步骤S612:基于所述安全帽检测模型和Deepsort跟踪算法,获取画面中的所有目标信息Target=(cls,x,y,w,h,conf),式中,cls表示目标类别,违规目标的取值为0;conf表示置信度,为0~1之间的小数;(x,y)和(w,h)表示目标中心点坐标与目标框的宽和高相对于整张图片宽与高的比值;
步骤S613:计算每个目标的区域像素面积ST=(x*Pcx):×(y*Pcy);
步骤S614:分析所述目标信息Target,当目标cls=0为违规目标A;当ST≤22×22像素,为极小目标,判定为情况B1;当conf<0.5时,为置信度较低目标,判定为情况B2;所述B1和B2构成潜在违规目标B;
优选地,步骤S6中对所述重点目标进行变倍的方法具体步骤为:
步骤S621:控制摄像设备转动至目标位置,获取感兴趣区域SR,对于所述违规目标A,所述SR表示实际检测框的大小;对于潜在违规目标B,SR设为以目标为中心,200×200的像素范围;
步骤S622:设定理想区域Si的面积为拍摄画面的六十四分之一;
步骤S623:设置变倍阈值A:
Figure BDA0003753600980000051
步骤S624:当Si-SR>A时,进行放大;当0≤Si-SR<A时,无须变倍;当Si-SR<0时,进行缩小;
步骤S625:重复以上步骤,直至变倍至合理大小。
本发明还提供了一种施工场景下的安全帽佩戴检测系统,包括数据采集模块、目标检测模块、目标跟踪模块和摄像设备自动控制模块;
所述数据采集模块,基于公开的GDUT-HWD安全帽检测数据集,添加施工现场监控视频采集、筛选、整理后的信息图像,对所述信息图像进行预处理并使用labeling对处理后的图像进行标注,构建安全帽佩戴检测数据集,并输入所述目标检测模块;
所述目标检测模块,用于改进YOLOv5目标检测算法,构建安全帽佩戴检测网络,改进所述安全帽佩戴检测网络的训练策略和优化超参数,通过所述安全帽佩戴检测数据集对所述安全帽佩戴检测网络进行训练,构建安全帽检测模型;并通过所述安全帽检测模型初步检测目标人物安全帽佩戴情况,生成目标检测框及类别置信度;
所述目标跟踪模块,用于对所述目标人物进行持续跟踪,将DeepSort目标跟踪算法与所述安全帽检测模型结合,实时检测工地视频帧图像,对当前所述帧图像中的目标人物进行标注生成目标检测框;并对所述目标人物分配不同的ID,进行特征提取;
同时,根据所述安全帽检测模型得到的检测结果划分重点目标,并通过跟踪算法得到的目标ID和目标轨迹跟踪重点目标,当所述重点目标连续5帧以上满足未佩戴安全帽的判定情况时,对所述重点目标进行跟踪放大,并将重点目标信息传输给所述摄像设备自动控制模块,继续进行检测;
所述摄像设备自动控制模块,用于控制摄像设备转动至所述重点目标位置,调整摄像设备的变倍数,并通过所述目标检测模块对所述重点目标进行检测,当所述重点目标存在未佩戴安全帽的违规行为时,对所述重点目标进行抓拍并预警。
与最接近的现有技术相比,本发明提供的技术方案具有如下有益效果:通过对原YOLOv5算法进行改进和优化,构建安全帽检测模型对目标人物进行检测,并采用DeepSort目标跟踪算法对目标人物进行持续跟踪,有效解决施工环境下小目标漏检问题和复杂背景下的误检问题。
同时,目标跟踪算法对目标人物的运动轨迹特征进行自动分析和提取,考虑了帧间关联性,从而弥补视觉目标检测方法的不足,提高检测准确度以及小目标的识别度。
附图说明
图1为本发明改进的YOLOv5的网络结构示意图;
图2为用遗传算法优化改进后的YOLOv5超参数流程图;
图3为YOLOv5多尺度训练示意图;
图4为DeepSort跟踪算法和安全帽佩戴检测模型工作的主要流程图;
图5为重点目标判定流程图;
图6为摄像设备水平视场角示意图;
图7为摄像设备垂直视场角示意图;
图8为摄像设备视角示意图;
图9为摄像及云台设备控制流程图。
具体实施方法
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
由于目前的安全帽佩戴检测方法在对施工现场内的工作人员是否佩戴安全帽检测过程中,检测精度依然较低、小目标检测困难,并且无法处理部分遮挡问题。同时,施工现场安装的监控设备大多是固定的角度,难以对违规目标进行抓拍并预警;难以区分远处小目标是否违规,且无法准确判断置信度,从而导致误报或漏报的情况频繁发生。
为解决上述问题,本发明提供了一种安全帽佩戴检测方法,包括以下步骤:
步骤S1:构建安全帽佩戴检测数据集;
本实施例以公开的GDUT-HWD安全帽检测数据集为基础,再向其中添加通过筛选和整理后的施工现场视频监控图像,再对信息图像进行预处理,得到一套适用于施工现场的数据集。
本实施例数据集的采集,综合考虑了不同时间、不同光照条件、不同天气条件下施工现场的场景差异,且图片的采集取自于人流密集、环境复杂的施工场地,并进行筛选和设计,增加小目标像素信息。
上述对图片预处理的方法包括但不限于以下内容:
Flip增强:对图像进行水平翻转或者垂直翻转;
Rotation增强:将图像绕着某个点旋转一定的角度;
Resize增强:对图像进行缩放,以保证模型具有尺度不变性;
Noise增强:在图像中加入噪音;
这样,在一定程度上丰富了数据集,增加了检测系统的鲁棒性,并增加了对小目标的监测准确率。
最后,将上述获取的数据集,用labeling进行标注,安全帽为蓝色标注blue,安全帽为黄色标注yellow,安全帽为白色标注white、安全帽为红色标注red,没有佩戴安全帽标注none,构建安全帽佩戴检测数据集。
步骤S2:改进YOLOv5目标检测算法,构建安全帽佩戴检测网络;
如图1所示,为利用深度学习框架pytorch改进YOLOv5目标检测算法,并构建安全帽佩戴检测网络的方法流程。
具体地,在原YOLOv5算法的大、中、小三种尺度的预测基础上,增加极小目标检测层,即在YOLOv5算法的Neck部分继续对原始特征图进行上采样,并与包含更多细节信息的浅层特征图进行拼接融合,进而使YOLOv5原本的三尺度预测结构优化为四尺度预测,提高对极小目标的检测准确度。
步骤S3:通过K-means聚类算法和遗传算法对所述安全帽佩戴检测网络的初始锚框尺寸进行优化,并采用遗传算法优化所述安全帽佩戴检测网络的超参数;
在步骤S2中构建的安全帽佩戴检测网络,由于增加了极小目标检测层,致使原YOLOv5算法的九组初始锚框已不适用于本发明的安全帽检测任务。
本实施例首先通过K-means聚类算法对步骤S1获取的安全帽佩戴检测数据集的目标框的宽高进行聚类,获取十二组初始锚框,其步骤具体为:根据初始锚框的宽和高,随机生成十二个聚类中心,并采用以下公式计算数据集中每个目标真实框与邻近聚类中心的IOU距离,
D(box,cluster)=1-IOU(box,cluster)
式中,IOU(box,cluster)表示目标真实框与聚类中心的IOU值,D(box,cluster)表示目标真实框与聚类中心之间的IOU距离。
将目标真实框分配给与其距离最近的聚类中心,根据每个聚类中心下对应目标真实框的大小(Wground_truth,Hground_truth),采用以下公式重新计算聚类中心的值,得到十二组新的初始锚框(Wi,Hi);
Figure BDA0003753600980000091
式中,n表示当前计算聚类中心下所有目标真实框的个数。
使用K-means算法聚类得到十二组初始锚框后,再使用遗传算法对初始锚框进行优化,选择最佳可能找回率BRP作为优化过程中的适应度函数,BRP表示模型最多能召回的目标数量和所有真实框数量之比。当初始锚框的适应度函数小于设定值0.98时,利用遗传算法对初始锚框进行优化,选择进化1000轮中适应度最高的初始锚框,获得更实用与实际施工现场的初始锚框,检测准确度更高。
原YOLOv5算法中超参数较多,为了加快模型的收敛速度、提升模型的泛化能力和准确度。本实施例,通过遗传算法,在高纬度空间下寻找最适合的超参数组合。
如图2所示,基于遗传算法的超参数优化的主要步骤包括:
1)确定待求参数及取值范围。选择学习率、初始动量、损失函数权重系数、IoU阈值、数据增强系数、Mosaic增强的概率等二十九个超参数作为待优化超参数;
2)构建适应度函数。个体的适应度函数为
Figure BDA0003753600980000092
其中,Tx,i表示目标检测的评估指标,包括精确率P、召回率R、mAP50与mAP50:95,Wx,i为各指标权重。该适应度函数越大,模型的性能越优;
3)为了防止最优个体消失,导致遗传算法不能收敛至全局最优解,采用精英保留策略,避免优质个体在进化过程中被破坏。具体的说,保留进化过程中适应度函数最高的n(n≤5)个个体,淘汰适应度函数低的个体;
4)交叉与变异。变异个体从保留个体中随机筛选产生,个体xk被选中的概率P(xk)与其适应度大小成正比,即:
Figure BDA0003753600980000101
采用高斯变异的方法,有利于跳出局部最优点,提升搜索精度与速度。在选中个体的基础上增加一个服从高斯正态分布的随机项,即:
Xk=R×[Xk⊙(1+G⊙N)]
式中,N表示服从高斯的随机干扰向量,个体xk表示二十九维的超参数向量,G表示各超参数突变规模的向量,⊙表示向量对应位置元素点乘分布,R表示介于0~1之间的随机数;
5)将突变生成的超参数向量用于安全帽佩戴检测网络,训练200轮次后计算模型在安全帽佩戴检测数据集上的指标精确率P、召回率R、mAP50和mAP50:95,并以此计算该个体xk的适应度函数;
6)重复以上步骤,当满足迭代条件时结束进化,并选择适应度函数最高的个体作为最优超参数。
步骤S4:将上述安全帽佩戴检测数据集输入上述安全帽佩戴检测网络进行训练,得到权重文件,并构建安全帽检测模型;
具体地,首先将步骤S3中计算得出的初始锚框和步骤S4中通过遗传算法优化后的超参数输入安全帽佩戴检测网络,并用步骤S1中获取的训练集对安全帽佩戴检测网络进行训练,得到权重文件,构建安全帽检测模型,通过安全帽检测模型对输入视频进行实时识别检测,得到视频帧中目标框的大小,类别,以及置信度。
如图3所示,在训练的过程中,设置几种不同的图片输入尺度,训练时从多个尺度中随机选取一种尺度,将输入图片缩放到该尺度并输入安全帽佩戴检测网络中,通过设置不同的尺度,方法简单并且有效提升多尺度物体检测准确度。
虽然一次迭代时都是单一尺度的,但每次都各不相同,增加了网络的鲁棒性,又不至于增加过多的计算量。而在测试时,为了得到更为精准的检测结果,也可以将测试图片的尺度放大,例如放大4倍,这样可以避免过多的小物体。
多尺度训练是一种十分有效的trick方法,放大了小物体的尺度,同时增加了多尺度物体的多样性,在多个检测算法中都可以直接嵌入。每一轮训练中,读取每一训练批次的图片,采用插值法对图像进行上采样和下采样,以放大或缩小输入图像。
同时,本实施例中采用早停机制。早停机制形式简单、效果出色,广泛用于深度学习模型训练中。当安全帽佩戴检测网络在安全帽佩戴检测数据集上适应度函数不再增加甚至下降时,提前终止训练过程,防止安全帽佩戴检测网络学习到无用特征,避免由重复训练造成的过拟合。为了避免过拟合,当连续30个轮次的适应度函数不再提升时,即终止训练。
步骤S5:基于安全帽检测模型和DeepSort目标跟踪算法,实时检测工地视频帧图像,对当前帧图像中的目标人物进行标注生成目标检测框;并对目标人物分配不同的ID,进行特征提取、持续跟踪并获取目标轨迹;
DeepSort是针对多目标跟踪的跟踪算法。算法首先对画面内每个目标人物分配ID,随后,通过卡尔曼滤波构建目标的运动状态模型,并采用级联匹配策略进行目标关联,最后采用匈牙利算法逐帧对检测结果与跟踪轨迹之间进行最优分配,此外,DeepSort算法引人了目标重识别模型,用于提升识别的准确性。本实施例采用上述安全帽检测模型获取的目标检测框,作为输入,利用Deepsort算法进行目标的跟踪,如图4所示,具体步骤为:
1)ID编码:安全帽检测模型获取的目标检测框作为输入,对第一帧出现的所有目标人物按顺序标注ID;
2)状态预测部分:使用卡尔曼滤波预测目标人物下一步的状态,将ID与预测状态相匹配;
3)特征提取:采用重识别网络提取目标检测框内的深层目标特征,并计算其特征向量用于目标外观信息的关联,并将提取所得目标特征与ID相匹配;
4)关联度计算:计算检测框与真实框之间的马氏距离和余弦距离,融合目标的运动信息与外观信息,得到检测框与轨迹的关联程度ci,j
5)特征匹配:对关联程度ci,j结果采用匈牙利匹配算法,进行目标的匹配,若匹配成功,则分配同样的ID,若匹配未成功,则进入IOU匹配环节,继续采用匈牙利算法,若匹配成功,则分配同样的ID,给未匹配到轨迹的检测结果分配新的ID,对未匹配到检测结果的轨迹进行进一步的判定。
6)状态更新:对于成功匹配的结果,使用卡尔曼滤波更新目标状态,并进入下一帧的预测。
需要说明的是,本实施例跟踪的目的是为了获取目标的轨迹,然后调用摄像设备将重点目标移动至画面中心并放大。具体来说,摄像设备在远景范围内捕捉与跟踪重点目标,在有限的跟踪时间内,完成远景下重点目标的跟中与轨迹获取,随后经过摄像设备的移动和放大,转化为近景跟中,摄像设备获取更多的像素信息,更加出色、准确的完成检测和跟踪。
步骤S6:在持续跟踪过程中,基于安全帽检测模型识别未佩戴安全帽的违规目标与潜在违规目标,当目标连续5帧以上满足未佩戴安全帽的判定情况时,对目标进行放大、抓拍;
本实施例中,将目标分为重点目标和非重点目标两类;其中重点目标分为两类,一类是违规目标A,另一类是难以识别的潜在违规目标B,B包含置极小目标B1和信度较低的目标B2;如图5所示重点目标的定义与判定方法具体为:
设定摄像设备所拍摄的视频画面的分辨率为Pcx×Pcy像素,基于安全帽检测模型和Deepsort跟踪算法对当前摄像机拍摄的画面进行实时监测,输出当前画面中所有目标信息,目标信息Target的输出格式为:
Target=(cls,x,y,w,h,conf)
式中,cls表示目标类别,违规目标的取值为0;conf为置信度,为0-1之间的小数;(x,y)和(w,h)表示目标中心点坐标与目标框的宽和高相对于整张图片宽与高的比值。如图7所示,x,y,w,h的计算采用以下公式:
Figure BDA0003753600980000131
式中,x1,x2,y1,y2分别表示目标边框的像素坐标,w,h分别表示目标像素的宽和高。
每个目标区域的像素面积ST=(x*Pcx)×(y*Pcy),由于开阔施工现场目标较小,为了保证目标的分布均匀性,在对数据集的划分标准上,增加了极小目标这一分类,本实施例的目标划分采用以下标准:
1)极小目标:ST≤22×22像素;
2)小目标:22×22像素<ST≤32×32像素;
3)中目标:32×32像素<ST≤96×96像素;
4)大目标:96×96像素<ST
采集到的目标信息Target中,当cls=0则判定其为情况A;当ST≤22×22像素时,则判定为B1;当conf<0.5时,则判定为B2。
如图5所示,重点目标判定系统的具体工作流程为:
1)基于安全帽检测模型和DeepSort跟踪算法,获取目标ID及对应位置信息、类别信息、置信度等信息;
2)对目标ID对应的信息进行重点目标分析,识别重点目标与非重点目标,并将重点目标划分情况类别A、B1、B2,此时目标人物的状态为待定状态;
3)对重点目标进行跟踪,若某ID对应的目标人物,连续5帧以上满足为佩戴安全帽的判定情况,则将待定状态转换为确认状态;
4)控制摄像设备和云台设备对重点目标进行进一步检测,并拍照取证。
对上述重点目标的跟踪过程中,由于目标往往并不位于画面的中心,因此,需要控制摄像设备和云台设备转动到指定位置,使目标位于画面中心,随后通过变倍功能对画面进行放缩,使用变焦功能获取清晰度更高的画面。当摄像设备镜头固定时,摄像头所能拍摄的最大范围通常用视场角FOV来表示,视场角为画面边缘与摄像原点连线构成的夹角,代表着镜头所能覆盖的范围,视场角越大,画面能覆盖的范围越大。
水平视场角如图6所示,∠DOE表示最大水平视场角,角度为±θ;垂直视场角如图7所示,∠AOB表示最大垂直视场角,角度为
Figure BDA0003753600980000142
为了避免摄像设备频繁的转动,本实施例设置转动阈值,即当目标与画面中心的像素欧拉差距大于某一阈值时,摄像设备才开始转动,这一阈值设为PT,公式如下
Figure BDA0003753600980000141
式中,x表目标中心点的横向坐标,y表示目标中心点的纵轴坐标,Pcx和Pxy分别表示画面的长宽分辨率,当目标的中心超出这一阈值时,控制摄像设备进行转动,通过计算图像中目标相对视域中心的变化角度,实时控制摄像设备转动相应角度,完成对目标的捕捉。
如图8所示,为云台设备转动示意图,设定∠FOC为+θ,∠EOC为-θ;∠AOC为
Figure BDA0003753600980000151
∠BOC为
Figure BDA0003753600980000152
视场角θ、
Figure BDA0003753600980000153
的具体数值可由设备透传信息中获取。
根据勾股定理:
Figure BDA0003753600980000154
根据目标与画面中心的坐标差值,建立方程:
Figure BDA0003753600980000155
推算出云台需要调整的水平方向角度α:
Figure BDA0003753600980000156
垂直方向角度β:
Figure BDA0003753600980000157
当计算所得α、β为正数时,分别代表着向右转动和向上转动;α、β为负数时,分别代表着向左转动和向下运动。
当摄像设备转动至指定位置后,即可获取感兴趣区域SR,对于情况A,SR表示实际检测框的大小;对于情况B1和B2,SR设为目标中心200×200像素的范围。
随后对感兴趣区域SR进行放大,将SR区域变倍至合理的大小,使目标在画面中可以显示合适的尺寸,变倍后的理想区域为Si。本实施例经过大量的实验以及现场采集得出,将变倍后的理想区域Si的面积设置为拍摄画面的六十四分之一为最佳。
Figure BDA0003753600980000158
由此,可确定变倍系数:
Figure BDA0003753600980000161
为了防止在变倍过程中目标自身的变化与设备延迟所带来的误差,设置变倍阈值A,
Figure BDA0003753600980000162
当感兴趣区域像素面积SR与理想区域像素面积Si的差值达到变倍阈值A时,控制云台变倍,变倍系数γ。
得到重点目标的感兴趣区域SR后,首先进行变倍,变倍完成后,重新划定感兴趣区域SR,判定是否需要变倍,判定规则如下所示:
1)当Si-SR>A时,说明新的感兴趣区域面积过小,与理想区域面积存在一定差距,需要通过变倍来将感兴趣区域放大。此时拉近镜头,使得目标在屏幕的尺寸变大,放大至合理区域;
2)当0≤Si-SR<A时,说明目标在画面的尺寸与合适尺寸。此时无须变倍;
3)当Si-SR<0时,说明感兴趣区域面积过大,需要通过变倍来将感兴趣区域缩小。此时拉远镜头,使得目标在屏幕的尺寸变小,缩小至合理区域。
由于设备的转动需要耗费时间,且目标在作业时位置会发生变化,为了防止摄像设备在转动和变倍后不能有效准确的捕捉目标,本实施例引入反馈控制法,通过对比反馈值和理想值之间的偏差,调整摄像设备当前参数和状态,实现精准控制的目的。
如图9所示,具体流程步骤为:
1)设备参数获取。获取当前设备的水平偏转角度α、垂直偏转角度β、变倍系数γ;
2)目标信息的计算。由目标信息,读取重点目标的中心点坐标(x,y),,并设定感兴趣区域面积SR
3)转动阈值判别。计算重点目标中心与画面中心的像素欧拉距离,判断是否超过阈值PT
4)变倍阈值判别。计算重点目标的感兴趣区域面积SR,并判断感兴趣区域面积SR与理想区域面积Si的差值是否超过变倍阈值A;
5)控制量μ的计算。若当前水平偏转角度与垂直偏转角度分别为α与β,变倍系数为γ,仍需要进一步水平转动与垂直转动的角度增量分别为α1与β1,放缩的增量为γ1
6)目标信息更新。重新获取目标的轨迹及信息,计算目标的中心点坐标,并将则最终的水平偏转角度与垂直偏转角度设定为α’=α+α1,β’=β+β1,最终的变倍系数为γ’=γ×γ1
通过调整云台的偏转角度和摄像设备的变倍系数,将重点目标移动至画面中心,并进行放大以及进一步的监测,从而实现违规目标的面部抓拍以及模糊目标的监测。
本发明还提供了一种施工场景下的安全帽佩戴检测系统,包括数据采集模块、目标检测模块、目标跟踪模块和摄像设备自动控制模块;
数据采集模块,基于公开的GDUT-HWD安全帽检测数据集,添加施工现场监控视频采集、筛选、整理后的信息图像,对信息图像进行预处理并使用labeling对处理后的图像进行标注,构建安全帽佩戴检测数据集,并输入目标检测模块;
目标检测模块,用于改进YOLOv5目标检测算法,构建安全帽佩戴检测网络,改进安全帽佩戴检测网络的训练策略和优化超参数,通过安全帽佩戴检测数据集对安全帽佩戴检测网络进行训练,构建安全帽检测模型;并通过安全帽检测模型初步检测目标人物安全帽佩戴情况,生成目标检测框及类别置信度;
目标跟踪模块,用于对目标人物进行持续跟踪,将DeepSort目标跟踪算法与安全帽检测模型结合,实时检测工地视频帧图像,对当前帧图像中的目标人物进行标注生成目标检测框;并对目标人物分配不同的ID,进行特征提取;
同时,根据安全帽检测模型得到的检测结果划分重点目标,并通过跟踪算法得到的目标ID和目标轨迹跟踪重点目标,当重点目标连续5帧以上满足未佩戴安全帽的判定情况时,对重点目标进行跟踪放大,并将重点目标信息传输给摄像设备自动控制模块,继续进行检测;
摄像设备自动控制模块,用于控制摄像设备转动至重点目标位置,调整摄像设备的变倍数,并通过目标检测模块对重点目标进行检测,当重点目标存在未佩戴安全帽的违规行为时,对重点目标进行抓拍并预警。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种施工场景下的安全帽佩戴检测方法,其特征在于,包括以下步骤:
步骤S1:构建安全帽佩戴检测数据集;
步骤S2:改进YOLOv5目标检测算法,构建安全帽佩戴检测网络;
步骤S3:通过K-means聚类算法和遗传算法对所述安全帽佩戴检测网络的初始锚框尺寸进行优化,并采用遗传算法优化所述安全帽佩戴检测网络的超参数;
步骤S4:采用所述安全帽佩戴检测数据集对步骤S2得到的安全帽佩戴检测网络进行训练,得到权重文件,并构建安全帽检测模型;
步骤S5:基于所述安全帽检测模型和DeepSort目标跟踪算法,实时检测工地视频帧图像,对当前所述帧图像中的目标人物进行标注生成目标检测框;并对所述目标人物分配不同的ID,进行特征提取、持续跟踪并获取目标轨迹;
步骤S6:在持续跟踪过程中,基于所述安全帽检测模型识别未佩戴安全帽的重点目标,并将所述重点目标区分为违规目标A和难以识别的潜在违规目标B,当所述重点目标连续5帧以上满足未佩戴安全帽的判定情况时,对所述重点目标进行跟踪放大,继续进行检测;
步骤S7:当所述重点目标存在未佩戴安全帽的违规行为时,对所述重点目标进行抓拍并预警。
2.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S1包括以下步骤:
步骤S11:以公开的GDUT-HWD安全帽检测数据集为基础,并添加施工现场监控视频采集、筛选、整理后的信息图像;
步骤S12:对所述信息图像进行预处理:对图像进行随机水平/垂直翻转、旋转、裁剪、缩放操作;
步骤S13:使用labeling对处理后的图像进行标注,安全帽为蓝色标注blue,安全帽为黄色标注yellow,安全帽为白色标注white、安全帽为红色标注red,没有佩戴安全帽标注none,构建安全帽佩戴检测数据集。
3.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S2具体包括:在YOLOv5算法的大、中、小三尺度预测的基础上,在Neck层继续对原始特征图进行上采样,并与包含更多细节信息的浅层特征图拼接融合,进而将三尺度预测的结构改为四尺度预测,并利用深度学习框架pytorch构建安全帽佩戴检测网络。
4.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S3包括以下步骤:
步骤S31:使用K-means聚类算法对所述安全帽佩戴检测数据集的目标框的高宽进行聚类,获取十二组初始锚框;
步骤S32:使用遗传算法对获取的十二组所述初始锚框进行优化,选择最佳可能召回率BPR作为优化过程中的适应度函数,当初始锚框的适应度函数小于设定值时,利用遗传算法对初始锚框进行优化,并选择优化1000轮中适应度函数最高的初始锚框;
步骤S33:使用遗传算法,选择适应度函数最高的个体作为最优超参数。
5.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S4具体为:将步骤S3中得到的初始锚框和步骤S4中获得的超参数输入所述安全帽佩戴检测网络;并将所述安全帽佩戴检测数据集输入所述安全帽佩戴检测网络进行训练,得到权重文件,构建安全帽检测模型。
6.根据权利要求5所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,训练的具体步骤为:
步骤S41:采取多尺度训练方法,设置多种不同的图片输入尺度,训练时从多个尺度中随机选取一种尺度,将输入图片缩放到该尺度并输入所述安全帽佩戴检测网络;
步骤S42:在训练过程中,当所述安全帽佩戴检测网络在所述安全帽佩戴检测数据集上适应度函数不再增加或下降时,提前终止训练,保证训练结果。
7.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S5包括以下步骤:
步骤S51:所述目标检测框作为输入,对第一帧中出现的所有目标标注ID;
步骤S52:使用卡尔曼滤波预测目标下一步的状态,将所述ID与预测状态相匹配;
步骤S53:采用重识别网络提取目标检测框内的深层目标特征,并计算其特征向量用于后文目标外观信息的关联,并将提取所得目标特征与ID相匹配;
步骤S54:计算检测框与真实框之间的马氏距离和余弦距离,融合目标的运动信息与外观信息,得到检测框与轨迹的关联程度;
步骤S55:对关联程度结果采用匈牙利匹配算法,进行目标的匹配,若匹配成功,则分配同样的ID,若匹配未成功,则进入IoU匹配环节,继续采用匈牙利算法,若匹配成功,则分配同样的ID,给未匹配到轨迹的检测结果分配新的ID;
步骤S56:对于成功匹配的结果,使用卡尔曼滤波更新目标状态,并进入下一帧的预测,获取目标轨迹。
8.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S6中重点目标的定义与判断方法为:
步骤S611:设定摄像设备拍摄的视频画面分辨率为PCX×PCY
步骤S612:基于所述安全帽检测模型和Deepsort跟踪算法,获取画面中的所有目标信息Target=(cls,x,y,w,h,conf),式中,cls表示目标类别,违规目标的取值为0;conf表示置信度,为0~1之间的小数;(x,y)和(w,h)表示目标中心点坐标与目标框的宽和高相对于整张图片宽与高的比值;
步骤S613:计算每个目标的区域像素面积ST=(x*Pcx):×(y*Pcy);
步骤S614:分析所述目标信息Target,当目标cls=0为违规目标A;当ST≤22×22像素,为极小目标,判定为情况B1;当conf<0.5时,为置信度较低目标,判定为情况B2;所述B1和B2构成潜在违规目标B。
9.根据权利要求8所述的一种施工场景下的安全帽佩戴检测方法,其特征在于,步骤S6中对所述重点目标进行跟踪放大的方法为:
步骤S621:控制摄像设备转动至目标位置,获取感兴趣区域SR,对于所述违规目标A,所述SR表示实际检测框的大小;对于潜在违规目标B,SR设为以目标为中心,200×200的像素范围;
步骤S622:设定理想区域Si的面积为拍摄画面的六十四分之一;
步骤S623:设置变倍阈值A:
Figure FDA0003753600970000041
步骤S624:当Si-SR>A时,进行放大;当0≤Si-SR<A时,无须变倍;当Si-SR<0时,进行缩小;
步骤S625:重复以上步骤,直至变倍至0≤Si-SR<A范围内。
10.一种施工场景下的安全帽佩戴检测系统,其特征在于:包括数据采集模块、目标检测模块、目标跟踪模块和摄像设备自动控制模块;
所述数据采集模块,基于公开的GDUT-HWD安全帽检测数据集,添加施工现场监控视频采集、筛选、整理后的信息图像,对所述信息图像进行预处理并使用labeling对处理后的图像进行标注,构建安全帽佩戴检测数据集,并输入所述目标检测模块;
所述目标检测模块,用于改进YOLOv5目标检测算法,构建安全帽佩戴检测网络,改进所述安全帽佩戴检测网络的训练策略和优化超参数,通过所述安全帽佩戴检测数据集对所述安全帽佩戴检测网络进行训练,构建安全帽检测模型;并通过所述安全帽检测模型初步检测目标人物安全帽佩戴情况,生成目标检测框及类别置信度;
所述目标跟踪模块,用于对所述目标人物进行持续跟踪,将DeepSort目标跟踪算法与所述安全帽检测模型结合,实时检测工地视频帧图像,对当前所述帧图像中的目标人物进行标注生成目标检测框;并对所述目标人物分配不同的ID,进行特征提取;
同时,根据所述安全帽检测模型得到的检测结果划分重点目标,并通过跟踪算法得到的目标ID和目标轨迹跟踪重点目标,当所述重点目标连续5帧以上满足未佩戴安全帽的判定情况时,对所述重点目标进行跟踪放大,并将重点目标信息传输给所述摄像设备自动控制模块,继续进行检测;
所述摄像设备自动控制模块,用于控制摄像设备转动至所述重点目标位置,调整摄像设备的变倍数,并通过所述目标检测模块对所述重点目标进行检测,当所述重点目标存在未佩戴安全帽的违规行为时,对所述重点目标进行抓拍并预警。
CN202210852309.8A 2022-07-19 2022-07-19 一种施工场景下的安全帽佩戴检测方法及系统 Pending CN115171022A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210852309.8A CN115171022A (zh) 2022-07-19 2022-07-19 一种施工场景下的安全帽佩戴检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210852309.8A CN115171022A (zh) 2022-07-19 2022-07-19 一种施工场景下的安全帽佩戴检测方法及系统

Publications (1)

Publication Number Publication Date
CN115171022A true CN115171022A (zh) 2022-10-11

Family

ID=83494766

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210852309.8A Pending CN115171022A (zh) 2022-07-19 2022-07-19 一种施工场景下的安全帽佩戴检测方法及系统

Country Status (1)

Country Link
CN (1) CN115171022A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740753A (zh) * 2023-04-20 2023-09-12 安徽大学 一种基于改进YOLOv5和DeepSORT的目标检测及追踪的方法及系统
CN116993776A (zh) * 2023-06-30 2023-11-03 中信重工开诚智能装备有限公司 一种人员轨迹追踪方法
CN117689677A (zh) * 2024-02-01 2024-03-12 山东大学日照研究院 一种砂轮磨损状态识别方法、系统、设备及介质
CN117854045A (zh) * 2024-03-04 2024-04-09 东北大学 一种面向自动驾驶的车辆目标检测方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740753A (zh) * 2023-04-20 2023-09-12 安徽大学 一种基于改进YOLOv5和DeepSORT的目标检测及追踪的方法及系统
CN116993776A (zh) * 2023-06-30 2023-11-03 中信重工开诚智能装备有限公司 一种人员轨迹追踪方法
CN116993776B (zh) * 2023-06-30 2024-02-13 中信重工开诚智能装备有限公司 一种人员轨迹追踪方法
CN117689677A (zh) * 2024-02-01 2024-03-12 山东大学日照研究院 一种砂轮磨损状态识别方法、系统、设备及介质
CN117689677B (zh) * 2024-02-01 2024-04-16 山东大学日照研究院 一种砂轮磨损状态识别方法、系统、设备及介质
CN117854045A (zh) * 2024-03-04 2024-04-09 东北大学 一种面向自动驾驶的车辆目标检测方法

Similar Documents

Publication Publication Date Title
CN111967393B (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
CN111898514B (zh) 一种基于目标检测与动作识别的多目标视觉监管方法
CN115171022A (zh) 一种施工场景下的安全帽佩戴检测方法及系统
CN111241959B (zh) 一种通过工地视频流检测未佩戴安全帽人员的方法
CN105894702B (zh) 一种基于多摄像机数据融合的入侵检测报警系统及其检测方法
CN109816695A (zh) 一种复杂背景下的红外小型无人机目标检测与跟踪方法
CN109448326B (zh) 一种基于快速图像识别的地质灾害智能群防监测系统
CN104978567B (zh) 基于场景分类的车辆检测方法
CN107818571A (zh) 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
CN108062542B (zh) 被遮挡的人脸的检测方法
CN111401311A (zh) 一种基于图像检测的高空抛物识别方法
CN101635835A (zh) 智能视频监控方法及系统
US9904868B2 (en) Visual attention detector and visual attention detection method
CN110852179B (zh) 基于视频监控平台的可疑人员入侵的检测方法
CN110781806A (zh) 一种基于yolo的行人检测追踪方法
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN111291684A (zh) 一种自然场景下的船牌检测方法
CN114373162B (zh) 用于变电站视频监控的危险区域人员入侵检测方法及系统
Azimjonov et al. Vision-based vehicle tracking on highway traffic using bounding-box features to extract statistical information
CN109919068B (zh) 基于视频分析适应密集场景人流实时监测方法
CN114332734A (zh) 目标检测方法
CN114494845A (zh) 一种用于施工项目现场人工智能隐患排查系统及其排查方法
CN113223081A (zh) 一种基于背景建模与深度学习的高空抛物检测方法及系统
CN115995097A (zh) 一种基于深度学习的安全头盔佩戴标准判断方法
CN113887455B (zh) 一种基于改进fcos的人脸口罩检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination