CN111539276B - 一种在电力场景下安全帽实时检测的方法 - Google Patents
一种在电力场景下安全帽实时检测的方法 Download PDFInfo
- Publication number
- CN111539276B CN111539276B CN202010289188.1A CN202010289188A CN111539276B CN 111539276 B CN111539276 B CN 111539276B CN 202010289188 A CN202010289188 A CN 202010289188A CN 111539276 B CN111539276 B CN 111539276B
- Authority
- CN
- China
- Prior art keywords
- safety helmet
- model
- key points
- safety
- vgg16
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种在电力场景下安全帽实时检测的方法,包括如下步骤:步骤1:获取电力监控视频,并对电力监控视频进行预处理和归一化;步骤2:将步骤1处理过的视频帧输入到PoseNet模型中,得到视频帧中工作人员的骨架信息;步骤3:根据工作人员的骨架信息,计算出安全帽的位置;步骤4:利用训练好的VGG16模型对工作人员安全帽佩戴状态进行检测;步骤5:判定检测帧数是否达到设定阈值,如果没有达到,重复执行步骤1到步骤4,如果达到,执行步骤6;步骤6:通过检测连续的多个视频帧,综合分析每一帧的分类结果,得出安全帽佩戴检测结果。本发明可以精确、快速的检测到工作人员安全帽的穿戴状态,可以适应各种电力工作环境。
Description
技术领域
本发明涉及深度学习、图像处理、视频分析等技术领域,具体是一种在电力场景下安全帽实时检测的方法。
背景技术
在电力工作环境中,安全帽的佩戴是安全工作生产的重要保障,可以有效减轻工作人员因为跌倒、高空坠落、高空坠物等事故所带来的损害。所以在电力工作环境,安全帽的佩戴一直是安全生产的铁则。但是由于天气炎热、影响工作等因素,时常有工作人员不顾自身安全,不佩戴安全帽进行作业,这种行为存在巨大的安全隐患。监管部门出台了相关监管措施,派遣专门的安全监管人员对工作现场进行巡视,但是这种方法,不仅耗费人力,而且很难做到全方位的覆盖。
由于人工智能的兴起,很多企业、机构开始着手智能监控领域,其中安全帽检测就是众多企业、机构所关注的领域。现有的基于机器学习、深度学习的安全帽检测大致分为两种,第一种是基于目标检测模型,首先检测到人,然后截取行人上半身进行分类,判断是否佩戴安全帽;第二种是基于人脸识别,直接找到人脸,然后通过人脸计算头部位置,最后进行分类,判断是否佩戴安全帽。第一种方法在行人存在遮挡时,就直接检测不到行人,就完成不了后续的安全帽检测,同时,直接截取行人的上半身进行分类,不仅无法因对很多特殊的工作姿势,如蹲着,趴着等,而且直接截取上半身图像中会有很多无用特征,影响分类准确度。第二种直接通过人脸检测来定位头部,最大的问题就是当人背对摄像头时,将无法检测到行人的头部信息,从而无法判断是否佩戴安全帽。最后,这两种方法都有一个工业应用中最大的问题,就是无法做到实时性。
发明内容
本发明针对工业的实际需求和现有方法的局限性,提出了一种在电力场景下安全帽实时检测的方法,其是一种在电力工作环境下基于人体骨架的安全帽实时检测方法,大致流程是通过人体骨架信息精确定位头部区域,然后利用卷积神经网络分类,判断安全帽的佩戴情况,从而精确、快速的检测到工作人员安全帽的穿戴状态,可以适应各种电力工作环境。
本发明采用如下技术方案:
一种在电力场景下安全帽实时检测的方法,包括如下步骤:
步骤1:从电力施工环境中,获取电力监控视频,并对电力监控视频进行预处理和归一化;
步骤2:将步骤1处理过的视频帧输入到PoseNet模型中,得到视频帧中工作人员的骨架信息,所述PoseNet模型是用于获取人体骨架信息的人体骨架检测模型,所述骨架信息包含17个人体关键点;
步骤3:根据步骤2所获取工作人员的骨架信息,结合人体比列和安全帽特点获得头部区域,从而计算出安全帽的位置;
步骤4:利用训练好的VGG16模型对工作人员安全帽佩戴状态进行检测,即对步骤3所得安全帽的位置进行分类,得到一个安全帽佩戴状态的分类结果;
步骤5:判定检测帧数是否达到设定阈值,如果没有达到,重复执行步骤1到步骤4,如果达到,执行步骤6;
步骤6:通过检测连续的多个视频帧,综合分析每一帧的分类结果,得出安全帽佩戴检测结果。
进一步的,所述步骤1中预处理的具体步骤包括对输入的视频帧使用高斯模糊、椒盐降噪、对于光线过暗的画面增强对比度。
进一步的,所述17个人体关键点,即鼻子、左眼、右眼、左耳、右耳、左肩、右肩、左肘、右肘、左腕、右腕、左臀、右臀、左膝、右膝、左踝,右踝。
进一步的,所述步骤2中PoseNet模型的构建具体包括如下步骤:
步骤2.1:搭建PoseNet模型;
步骤2.2:使用公开数据集MSCOCO对步骤2.1搭建的PoseNet模型进行训练,选用binary crossentropy作为损失函数,选用Adma作为优化器,Adma的学习率为0.0001,beta1为0.9,beta2为0.999,学习衰减率为0,batch size为8,通过训练16个epoch,得到可以精确定位人体骨架节点的PoseNet模型的权值,PoseNet模型的输出为17个三元组数组,每个三元组包含关键点在平面中的横纵坐标和关键点的置信度,组索引0至16分别表示人体骨架上的17个人体关键点。
进一步的,所述步骤3具体步骤包括:获取PoseNet模型的输出结果,得到17个关键点的横纵坐标位置和置信度;计算17个关键点中前五个关键点的重心p;然后判断臀部置信度,如果臀部置信度大于或等于85%,计算臀部到肩部的高度差d1,然后以p为圆心,d1的一半为直径画圆的外接矩形即为头部区域,如果臀部置信度低于85%,则计算左肩到右肩的宽度d2,然后以p为圆心,d2的一半为直径画圆的外接矩形即为头部区域。
进一步的,当无法计算d1时,计算工作人员的左右肩宽d2来替代d1。
进一步的,通过步骤3的位置信息截出头部区域图像,保存到磁盘上,人工分类后作为标注好的训练数据集用于训练VGG16模型,人工分类的分类方法具体为将所有截出的头部区域图像分为4类。第一类为明显为戴安全帽,第二类为明显没有戴安全帽,第三类为图像模糊,人眼无法辨别,第四类为不是头部区域。
进一步的,步骤4中VGG16模型的构建方法具体包括:
步骤4.1:搭建VGG16卷积神经网络;
步骤4.2:利用开源数据集ILSVRC-2012训练VGG16卷积神经网络,得到分类模型的权值;
步骤4.3:在步骤4.2基础上,修改VGG16模型最后一层,改为4个输出单元,其中0号输出单元表示明显没有戴安全帽,1号输出单元表示明显戴有安全帽,2号输出单元表示图像模糊,无法辨认,等待后序处理,3号输出单元表示此图不是头部;将VGG16公开权值除最后一层外导入模型,将前述标注好的训练数据集导入VGG16模型进行迁移学习,训练损失函数为categorical crossentropy,输出层激活函数设置为softmax,对应安全帽检测模型的4个类别,batch size设置为128,epoch设置为30,优化器设置为adma,训练结束后使得VGG16模型具备安全帽佩戴状态的分类能力;
步骤4.4:保存模型权值。
进一步的,步骤6具体为:如果检测连续的多个视频帧中结果为0的状态最多,则为佩戴安全帽,给头部区域标注黄色区域;如果检测连续的多个视频帧中结果为1的状态最多,则为没有佩戴安全帽,给头部区域标注红色区域;其他情况,不做标注。
进一步的,还包括步骤7:通过加入目标进行跟踪判断目标状态,即对于判断为高度模糊的图像,计算相邻帧每副骨架关键点的欧式距离,当相邻帧两幅骨架关键点的欧式距离最小时,即视为同一个人。在连续识别k帧信息后,VGG16网络输出的0、1、2、3四种状态,哪种状态出现次数多,即认为该工作人员目前是哪种状态。
本发明针对工业的实际需求和现有方法的局限性,提出了一种在电力环境中,基于人体骨架的安全帽实时检测方法,该方法分为两个部分,一个是人体骨架检测模型,一个是安全帽佩戴分类模型。其中,人体骨架检测模型可以精确定位工作人员的骨架,通过骨架信息,即可准确的计算出工作人员的头部位置,减少冗余特征。本发明的人体骨架检测模型可以检测出工业生产中常见的动作,所以无论是趴着、蹲着亦或者背对摄像头,都可以准确定位头部信息,即使在工作人员较远或者画面不完整的情况下,依然可以定位人体关键点;同时,本发明的人体骨架检测模型,利用大量电力工作环境场景图像作为数据集训练,可以更好地适配电力工作场景。
附图说明
图1为本发明在电力场景下安全帽实时检测的方法其中一个实施例的流程图;
图2为本发明构建PoseNet骨架检测模型的流程图;
图3为人体骨架关键点示意图;
图4为本发明数据标注流程图;
图5为本发明构建VGG16模型的流程图;
图6为本发明电力一般环境下安全帽检测效果图;
图7为本发明电力复杂环境下安全帽检测效果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
请参阅图1,本发明实施例提供一种在电力场景下安全帽实时检测的方法,包括如下步骤:
步骤1:从电力施工环境中,获取电力监控视频,并对电力监控视频进行预处理和归一化,预处理的具体步骤包括对输入的视频帧使用高斯模糊、椒盐降噪、对于光线过暗的画面增强对比度等,归一化是指将视频帧大小归一化为1080*720的图片;
步骤2:将步骤1处理过的视频帧输入到PoseNet模型中,得到视频帧中工作人员的骨架信息,所述骨架信息包含17个人体关键点,所述PoseNet模型是用于获取人体骨架信息的人体骨架检测模型。
其中PoseNet模型的构建过程如图2所示,具体包括如下步骤:
步骤2.1:搭建PoseNet模型;
步骤2.2:使用公开数据集MSCOCO对步骤2.1搭建的PoseNet模型进行训练,选用binary crossentropy作为损失函数,选用Adma作为优化器,Adma的学习率为0.0001,beta1为0.9,beta2为0.999,学习衰减率为0,batch size为8,通过训练16个epoch,得到可以精确定位人体骨架节点的PoseNet模型的权值。PoseNet模型的输出为17个三元组数组,每个三元组包含关键点在平面中的横纵坐标和关键点的置信度。数组索引0至16分别表示人体骨架上的17个人体关键点,即鼻子、左眼、右眼、左耳、右耳、左肩、右肩、左肘、右肘、左腕、右腕、左臀、右臀、左膝、右膝、左踝,右踝,这17个关键点分布见图3。
训练后的PoseNet模型可用于于数据标注和骨架检测,其中数据标注流程如图4所示。
步骤3:根据步骤2所获取工作人员的骨架信息,结合人体比列和安全帽特点获得头部区域,从而计算出安全帽的位置。
因为PoseNet模型会输出人体的17个关键点,所以可以通过关键点,得到工作人员的头部位置。具体计算方法为:获取PoseNet模型的输出结果,得到17个关键点的横纵坐标位置和置信度;计算17个关键点中前五个关键点的重心p;然后判断臀部置信度,如果臀部置信度大于或等于85%,计算臀部到肩部的高度差d1,然后以p为圆心,d1的一半为直径画圆的外接矩形即为头部区域,如果臀部置信度低于85%,则计算左肩到右肩的宽度d2,然后以p为圆心,d2的一半为直径画圆的外接矩形即为头部区域。在某些特殊情况下,如电力施工人员在水沟时,身体只有一半在监控画面中,无法计算d1时,本发明采取计算工作人员的左右肩宽d2来替代d1。
其中,通过步骤3的位置信息可截出头部区域图像,保存到磁盘上,人工分类后作为标注好的训练数据集用于训练VGG16模型。人工分类的分类方法具体为将所有截出的头部区域图像分为4类。第一类为明显为戴安全帽,第二类为明显没有戴安全帽,第三类为图像模糊,人眼无法辨别,第四类为不是头部区域。根据工程的实际需求,本发明将这些图像分为4类:0号类别图像明显没有佩戴安全帽,1号类别图像明显佩戴安全帽,2号类别图像模糊,人眼也无法辨别,3号图像为非头部图像。
增加2号和3号分类是为了更好的适应工程应用的需要。人物距离摄像头太远,放大头失真;夜晚光线太暗,工作人员在监控中是一团黑影等情况在工程应用中是一个常见的现象,为了有效应对和处理这种情况,本发明增加了2号分类。同时,由于人体骨架模型的精确度不可能是100%,总会有错误的时候,所以通过人体骨架模型计算出错误的头部失误时,3号分类可以起到纠正的作用。
步骤4:利用训练好的VGG16模型对工作人员安全帽佩戴状态进行检测,即对步骤3所得安全帽的位置进行分类,得到一个安全帽佩戴状态的分类结果。
其中VGG16模型的构建方法如图5所示,具体包括:
步骤4.1:搭建VGG16卷积神经网络;
步骤4.2:利用开源数据集ILSVRC-2012训练VGG16卷积神经网络,得到分类模型的权值;
步骤4.3:在步骤4.2基础上,修改VGG16模型最后一层,改为4个输出单元,其中0号输出单元表示明显没有戴安全帽,1号输出单元表示明显戴有安全帽,2号输出单元表示图像模糊,无法辨认,等待后序处理,3号输出单元表示此图不是头部;将VGG16公开权值除最后一层外导入模型,在此基础上,将前述标注好的训练数据集导入VGG16模型进行迁移学习,训练损失函数为categorical crossentropy,输出层激活函数设置为softmax,对应安全帽检测模型的4个类别,batch size设置为128,epoch设置为30,优化器设置为adma,训练结束后得到一个可以精确判断工作人员是否佩戴安全帽的模型,即使得VGG16模型具备安全帽佩戴状态的分类能力。
步骤4.4:保存模型权值。
步骤5:判定检测帧数是否达到设定阈值,一般阈值设定为7,如果没有达到,重复执行步骤1到步骤4,如果达到,执行步骤6;
步骤6:通过检测连续的k个视频帧,k为设定的阈值,综合分析每一帧的分类结果,得出安全帽佩戴检测结果,具体的,如果k帧中结果为0的状态最多,则为佩戴安全帽,给头部区域标注黄色区域;如果k帧中结果为1的状态最多,则为没有佩戴安全帽,给头部区域标注红色区域;其他情况,不做标注。
进一步的,还可包括:
步骤7:通过加入目标进行跟踪判断目标状态。具体做法为,为了进一步提升精确度和应对部分极端情况,如对于判断为高度模糊的图像,本发明采用跟踪算法,对特定目标进行跟踪,通过连续多帧信息,综合判断工作人员的安全帽佩戴状态。跟踪方法为,计算相邻帧每副骨架关键点的欧式距离,当相邻帧两幅骨架关键点的欧式距离最小时,即视为同一个人。在连续识别k(k可以根据实际情况设置,一般为奇数)帧信息后,VGG16网络输出的0、1、2、3四种状态,哪种状态出现次数多,就认为该工作人员目前是哪种状态。
本发明实施例在现有样本条件下,结合电力环境数据集和其他场景数据集共20000张图片,16000张作为训练集,4000张作为测试集,测得安全帽识别准确率为98%,其中电力一般环境和复杂环境下安全帽检测效果分别如图6和图7所示。同时本模型在尽量不影响精度的前提下,使用较为简单的检测、分类模型,视频处理速度较高,计算机资源占用率较低。在intel core i5-8500 CPU、8G内存、GTX1050ti显卡的一般主机配置下,单路分辨率为1080*720的视频处理速度约为25fps,计算机CPU占用率55%左右,显卡占用率50%左右。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何属于本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.一种在电力场景下安全帽实时检测的方法,其特征在于包括如下步骤:
步骤1:从电力施工环境中,获取电力监控视频,并对电力监控视频进行预处理和归一化;
步骤2:将步骤1处理过的视频帧输入到PoseNet模型中,得到视频帧中工作人员的骨架信息,所述PoseNet模型是用于获取人体骨架信息的人体骨架检测模型,所述骨架信息包含17个人体关键点;
步骤3:根据步骤2所获取工作人员的骨架信息,结合人体比列和安全帽特点获得头部区域,从而计算出安全帽的位置;
步骤4:利用训练好的VGG16模型对工作人员安全帽佩戴状态进行检测,即对步骤3所得安全帽的位置进行分类,得到一个安全帽佩戴状态的分类结果;
步骤5:判定检测帧数是否达到设定阈值,如果没有达到,重复执行步骤1到步骤4,如果达到,执行步骤6;
步骤6:通过检测连续的多个视频帧,综合分析每一帧的分类结果,得出安全帽佩戴检测结果。
2.如权利要求1所述的在电力场景下安全帽实时检测的方法,其特征在于:所述步骤1中预处理的具体步骤包括对输入的视频帧使用高斯模糊、椒盐降噪、对于光线过暗的画面增强对比度。
3.如权利要求1所述的在电力场景下安全帽实时检测的方法,其特征在于:所述17个人体关键点,即鼻子、左眼、右眼、左耳、右耳、左肩、右肩、左肘、右肘、左腕、右腕、左臀、右臀、左膝、右膝、左踝,右踝。
4.如权利要求3所述的在电力场景下安全帽实时检测的方法,其特征在于:所述步骤2中PoseNet模型的构建具体包括如下步骤:
步骤2.1:搭建PoseNet模型;
步骤2.2:使用公开数据集MSCOCO对步骤2.1搭建的PoseNet模型进行训练,选用binarycrossentropy作为损失函数,选用Adma作为优化器,Adma的学习率为0.0001,beta1为0.9,beta2为0.999,学习衰减率为0,batch size为8,通过训练16个epoch,得到可以精确定位人体骨架节点的PoseNet模型的权值,PoseNet模型的输出为17个三元组数组,每个三元组包含关键点在平面中的横纵坐标和关键点的置信度,组索引0至16分别表示人体骨架上的17个人体关键点。
5.如权利要求1所述的在电力场景下安全帽实时检测的方法,其特征在于:所述步骤3具体步骤包括:获取PoseNet模型的输出结果,得到17个关键点的横纵坐标位置和置信度;计算17个关键点中前五个关键点的重心p;然后判断臀部置信度,如果臀部置信度大于或等于85%,计算臀部到肩部的高度差d1,然后以p为圆心,d1的一半为直径画圆的外接矩形即为头部区域,如果臀部置信度低于85%,则计算左肩到右肩的宽度d2,然后以p为圆心,d2的一半为直径画圆的外接矩形即为头部区域。
6.如权利要求5所述的在电力场景下安全帽实时检测的方法,其特征在于:当无法计算d1时,计算工作人员的左右肩宽d2来替代d1。
7.如权利要求1所述的在电力场景下安全帽实时检测的方法,其特征在于:通过步骤3的位置信息截出头部区域图像,保存到磁盘上,人工分类后作为标注好的训练数据集用于训练VGG16模型,人工分类的分类方法具体为将所有截出的头部区域图像分为4类。第一类为明显为戴安全帽,第二类为明显没有戴安全帽,第三类为图像模糊,人眼无法辨别,第四类为不是头部区域。
8.如权利要求7所述的在电力场景下安全帽实时检测的方法,其特征在于:步骤4中VGG16模型的构建方法具体包括:
步骤4.1:搭建VGG16卷积神经网络;
步骤4.2:利用开源数据集ILSVRC-2012训练VGG16卷积神经网络,得到分类模型的权值;
步骤4.3:在步骤4.2基础上,修改VGG16模型最后一层,改为4个输出单元,其中0号输出单元表示明显没有戴安全帽,1号输出单元表示明显戴有安全帽,2号输出单元表示图像模糊,无法辨认,等待后序处理,3号输出单元表示此图不是头部;将VGG16公开权值除最后一层外导入模型,将前述标注好的训练数据集导入VGG16模型进行迁移学习,训练损失函数为categorical crossentropy,输出层激活函数设置为softmax,对应安全帽检测模型的4个类别,batch size设置为128,epoch设置为30,优化器设置为adma,训练结束后使得VGG16模型具备安全帽佩戴状态的分类能力;
步骤4.4:保存模型权值。
9.如权利要求8所述的在电力场景下安全帽实时检测的方法,其特征在于:步骤6具体为:如果检测连续的多个视频帧中结果为0的状态最多,则为佩戴安全帽,给头部区域标注黄色区域;如果检测连续的多个视频帧中结果为1的状态最多,则为没有佩戴安全帽,给头部区域标注红色区域;其他情况,不做标注。
10.如权利要求9所述的在电力场景下安全帽实时检测的方法,其特征在于:还包括步骤7:通过加入目标进行跟踪判断目标状态,即对于判断为高度模糊的图像,计算相邻帧每副骨架关键点的欧式距离,当相邻帧两幅骨架关键点的欧式距离最小时,即视为同一个人。在连续识别k帧信息后,VGG16网络输出的0、1、2、3四种状态,哪种状态出现次数多,即认为该工作人员目前是哪种状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010289188.1A CN111539276B (zh) | 2020-04-14 | 2020-04-14 | 一种在电力场景下安全帽实时检测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010289188.1A CN111539276B (zh) | 2020-04-14 | 2020-04-14 | 一种在电力场景下安全帽实时检测的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111539276A CN111539276A (zh) | 2020-08-14 |
CN111539276B true CN111539276B (zh) | 2022-12-06 |
Family
ID=71978672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010289188.1A Active CN111539276B (zh) | 2020-04-14 | 2020-04-14 | 一种在电力场景下安全帽实时检测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111539276B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112073691A (zh) * | 2020-09-11 | 2020-12-11 | 中国石油集团西南管道有限公司 | 管道工程建设的工地安全监控系统及方法 |
CN112183438B (zh) * | 2020-10-13 | 2022-11-04 | 深圳龙岗智能视听研究院 | 基于小样本学习神经网络的违规行为的图像识别方法 |
CN112257620B (zh) * | 2020-10-27 | 2021-10-26 | 广州华微明天软件技术有限公司 | 一种安全穿戴情况识别方法 |
CN112633111B (zh) * | 2020-12-17 | 2024-03-15 | 常州大学 | 一种安全帽佩戴检测方法、装置及存储介质 |
CN112800901A (zh) * | 2021-01-18 | 2021-05-14 | 上海云话科技有限公司 | 一种基于视觉感知的矿山人员安全检测方法 |
CN113361425A (zh) * | 2021-06-11 | 2021-09-07 | 珠海路讯科技有限公司 | 一种基于深度学习的检测工人是否佩戴安全帽的方法 |
CN113505770B (zh) * | 2021-09-13 | 2022-03-29 | 国家邮政局邮政业安全中心 | 快递行业衣着发饰异常检测方法及系统、电子设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372662B (zh) * | 2016-08-30 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN110070033B (zh) * | 2019-04-19 | 2020-04-24 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110263686A (zh) * | 2019-06-06 | 2019-09-20 | 温州大学 | 一种基于深度学习的施工工地图像安全帽检测方法 |
-
2020
- 2020-04-14 CN CN202010289188.1A patent/CN111539276B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111539276A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539276B (zh) | 一种在电力场景下安全帽实时检测的方法 | |
CN110502965B (zh) | 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法 | |
CN109670441B (zh) | 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质 | |
CN104951773B (zh) | 一种实时人脸识别监视系统 | |
CN111488804A (zh) | 基于深度学习的劳保用品佩戴情况检测和身份识别的方法 | |
CN104915655A (zh) | 一种多路监控视频的管理方法与设备 | |
CN111460962A (zh) | 一种口罩人脸识别方法及系统 | |
CN110414400B (zh) | 一种施工现场安全帽穿戴自动检测方法及系统 | |
CN113516076A (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN111639602B (zh) | 一种行人遮挡及朝向检测方法 | |
CN110688980B (zh) | 基于计算机视觉的人体姿态分类方法 | |
CN111611874A (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN113222973B (zh) | 图像处理方法及装置、处理器、电子设备及存储介质 | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN111507592A (zh) | 一种面向服刑人员的主动改造行为的评估方法 | |
CN113688793A (zh) | 人脸模型的训练方法及人脸识别系统 | |
CN115273150A (zh) | 基于人体姿态估计的安全帽佩戴的新型识别方法及系统 | |
CN115035088A (zh) | 一种基于yolov5和姿态估计的安全帽佩戴检测方法 | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
Wang et al. | Research on face recognition algorithm based on deep learning | |
CN111832475B (zh) | 一种基于语义特征的人脸误检筛除方法 | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及系统 | |
Wang et al. | An Intelligent Vision‐Based Method of Worker Identification for Industrial Internet of Things (IoT) | |
CN112989958A (zh) | 基于YOLOv4与显著性检测的安全帽佩戴识别方法 | |
CN116311499A (zh) | 一种安全设备穿戴检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |