CN108288033B - 一种基于随机蕨融合多特征的安全帽检测方法 - Google Patents

一种基于随机蕨融合多特征的安全帽检测方法 Download PDF

Info

Publication number
CN108288033B
CN108288033B CN201810018550.4A CN201810018550A CN108288033B CN 108288033 B CN108288033 B CN 108288033B CN 201810018550 A CN201810018550 A CN 201810018550A CN 108288033 B CN108288033 B CN 108288033B
Authority
CN
China
Prior art keywords
sample
feature
safety cap
random fern
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810018550.4A
Other languages
English (en)
Other versions
CN108288033A (zh
Inventor
周雪
周琦栋
邹见效
徐红兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810018550.4A priority Critical patent/CN108288033B/zh
Publication of CN108288033A publication Critical patent/CN108288033A/zh
Application granted granted Critical
Publication of CN108288033B publication Critical patent/CN108288033B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于随机蕨多特征融合的安全帽检测方法,通过提取样本的HSI颜色直方图特征、HOG特征以及HOF特征,然后针对每个类别、每种直方图特征的随机蕨分类器进行训练;根据深度学习的YOLOv2获取人体目标,作为待检测样本,基于多特征的随机蕨分类器的融合,从而构建出安全帽检测框架。该方法基于深度学习,快速准确的检测出人体目标区域,从而提高了安全帽位置定位的准确度和速度;根据随机蕨分类器算法,融合多种特征训练分类器,提高了分类的准确定。该方法简单有效,实时性好,具有很好的应用前景。

Description

一种基于随机蕨融合多特征的安全帽检测方法
技术领域
本发明属于计算机视觉、机器学习等技术领域,更为具体地讲,涉及一种基于随机蕨多特征融合的安全帽检测方法。
背景技术
随着计算机信息技术的发展,图像识别技术获得了越来越广泛的应用,比如医疗诊断、指纹识别、交通导航以及视频监控等方面。这对于工业生产,安全生产是至关重要的。
在一些高危现场,工作人员配戴安全帽是必要的安全措施。现今,许多工业生产现场都设有监管体系,以监控工作人员是否佩戴安全帽,监控主要以人工值守和视频监控两种方式实施。由于人工值守易出现监控疏漏且监控范围有限、耗费人力物力,现在更多倾向于借助计算机视觉方法,采用视频监控实现监管。
针对是否佩戴安全帽的检测问题,现有的方法大多基于区域定位和检测的基本思想。
对于区域定位环节,很多方法选择先检测人体目标区域,从而判断待检测安全帽区域。常用的方法有基于方向梯度直方图(Histogram of Oriented Gradient,HOG)特征,直接使用支持向量机(Support Vector Machine,SVM)分类器检测人体目标,或使用码本分离算法及帧间差分提取图像中的前景或运动区域,再根据HOG直方图特征结合SVM分类器或运动区域形状特征判断是否为人体目标。这些方法缺点是基于传统SVM分类器的检测效果易受复杂的检测场景干扰,实时性较差。同样也有方法选择采用肤色检测来进行区域定位,使用YCbCr检测空间检测人脸区域从而确定待检测安全帽区域。这一类方法的局限性在于人脸区域的识别只适用于工人正面面对摄像头的情况,而现实工业场景中,工人不可能都是正面面对摄像头,可能是背影和侧影,这也就对人脸的识别造成了干扰,从而影响安全帽的检测。
对于检测环节,大多方法选用单一特征。例如最常见的是选用简单的颜色分布直方图特征,统计检测区域内像素的颜色分布从而判断是否配戴安全帽。也有选用Hu不变矩或Haar-Like特征,基于SVM或AdaBoost级联分类器检测安全帽。这些方法缺点是只采用了单一特征,对安全帽目标的特征表征能力不足,当遇到诸如强烈光照,复杂的监控环境,低分辨率较模糊的图像等影响时,不能够准确的识别安全帽。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于随机蕨多特征融合的安全帽检测方法,结合基于深度学习的目标检测与随机蕨多特征融合分类的方法,以准确检测工业生产中工作人员是否配戴安全帽。
为实现上述发明目的,本发明基于随机蕨多特征融合的安全帽检测方法,其特征在于,包括以下步骤:
(1)、随机蕨分类器训练
1.1)、采集安全帽与非安全帽两个类别各N1、N2个样本,分别提取样本的HSI(色调Hue、饱和度Saturation、亮度Intensity)颜色直方图特征、HOG(Histogram of OrientedGradient,方向梯度直方图)特征以及HOF(Histograms of Oriented Optical Flow,光流直方图)特征,并分别构成HSI颜色直方图特征集合、HOG特征集合以及HOF特征集合;
1.2)、构造随机蕨及特征值计算:针对每一类别样本,单独的每种直方图特征,根据半朴素贝叶斯法从直方图特征集合的M个直方图特征中随机抽取2b个直方图特征构成一组直方图特征子集,其中,b<M/2,相同方式随机抽取L次,得到L组直方图特征子集,每个直方图特征子集为一个随机蕨,从而构造出一个类别、一种直方图特征的L个随机蕨;
在随机蕨中,随机选取b对直方图特征,并进行二值测试(计算特征值),得到b个测试值随机组合,从而得到该随机蕨的特征值;
对于一个随机蕨,其构造方式及特征值计算一旦确定,就不再随机;
1.3)、对于步骤1.1)得到两个类别各N1、N2个样本、每个样本的三种直方图特征集合,依据步骤1.2)方法,计算出每个样本的L个随机蕨的特征值,然后,统计每个类别、每种直方图特征下,所有N1、N2样本的L个随机蕨的特征值概率分布,得到HSI颜色直方图特征的安全帽概率分布P(Fj HSI|c1)以及非安全帽概率分布HOG特征的安全帽概率分布以及非安全帽概率分布和HOF特征的安全帽概率分布以及非安全帽概率分布其中,分别表示第j个随机蕨下HSI颜色直方图特征值变量、HOG特征值变量、HOF特征值变量,c1表示安全帽、c2表示非安全帽,一个概率分布构成一个随机蕨分类器;
(2)、安全帽检测
2.1)、采用YOLO深度学习框架的改进版本YOLOv2人体目标检测算法,获得图像中工作人员即人体目标区域,然后通过滑动窗口方法从人体目标区域提取多个安全帽检测候选区域分别作为一个待检测样本,分别提取HSI颜色直方图特征、HOG特征以及HOF特征,并分别构成HSI颜色直方图特征集合、HOG特征集合以及HOF特征集合;
2.2)、待检测样本是否是安全帽的检测
2.2.1)、对于一个待检测样本,依据步骤1.2)方法,计算出其在每种直方图特征下的L个随机蕨的特征值:其中,分别表示待检测样本第j个随机蕨下HSI颜色直方图特征值、HOG特征值、HOF特征值;
2.2.2)、将分别赋值给依据步骤(1)训练得到的分类器,即HSI颜色直方图特征的安全帽概率分布以及非安全帽概率分布HOG特征的安全帽概率分布以及非安全帽概率分布和HOF特征的安全帽概率分布以及非安全帽概率分布分别得到待检测样本第j个随机蕨的后验概率以及
2.2.3)、对单一直方图特征,每个类别所有L个随机蕨的联合似然分布为:
2.2.4)、基于多特征的随机蕨分类器的融合:
待检测样本的三种特征随机蕨分类器的样本分类置信度为:
其中,P(c1)、P(c2)分别为安全帽、非安全帽的先验概率,在总样本集中的占比:
待检测样本的最终分类置信度为:
如果待检测样本的最终分类置信度大于设定的阈值,则认为是安全帽,否则认为不是安全帽;
2.3)、根据步骤2.1)得到每个安全帽检测候选区域作为待检测样本,分别按照步骤2.2)进行是否是安全帽的检测,如果有一个待检测样本为安全帽,则认为图像中工作人员佩戴了安全帽,否则,认为没有佩戴。
本发明的目的是这样实现的。
本发明基于随机蕨多特征融合的安全帽检测方法,通过提取样本的HSI颜色直方图特征、HOG特征以及HOF特征,然后针对每个类别、每种直方图特征的随机蕨分类器进行训练;根据深度学习的YOLOv2获取人体目标,作为待检测样本,基于多特征的随机蕨分类器的融合,从而构建出安全帽检测框架。该方法基于深度学习,快速准确的检测出人体目标区域,从而提高了安全帽位置定位的准确度和速度;根据随机蕨分类器算法,融合多种特征训练分类器,提高了分类的准确定。该方法简单有效,实时性好,具有很好的应用前景。
附图说明
图1是本发明基于随机蕨多特征融合的安全帽检测方法一种具体实施方式流程图;
图2是特征直方图二值测试示意图;
图3是基于随机蕨结构的决策融合准则示意图;
图4是工业生产监控红色安全帽的实验结果;
图5是工业生产监控白色安全帽的实验结果。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
近年来得益于深度学习的发展,基于深度学习的目标检测方法也取得了巨大的突破。现有的基于深度学习的目标检测方法主要分为两类。一类是基于Region Proposal的方法,具有代表性的有R-CNN,SPP-NET,Fast R-CNN,Faster R-CNN等。另一类是基于回归方法,例如YOLO和SSD。Faster R-CNN虽然是目前主流的目标检测方法,但是速度上并不能满足实时的要求。基于回归的方法将目标检测任务转换成一个回归问题,大大加快了检测的速度。
随机蕨(Random Ferns)算法用于分类,是随机森林算法的改进,又称为半朴素贝叶斯分类器。训练的过程是从样本特征到样本类别的映射。通过随机化的方式在特征点的邻域图像块中获得二值特征集合,使用非层次化的蕨结构代替基于树的层次化结构,利用朴素贝叶斯模型代替决策树模型来构建分类器,以此获得更好的结果。
基于上述特性,本发明旨在将深度学习与随机蕨算法结合起来,提出一种有效准确的基于随机蕨框架融合多特征的安全帽检测方法。本发明的主要特点在于:1)使用深度学习方法检测人体目标,并以此获得安全帽检测的感兴趣(Region of Interest,ROI)区域即人体目标区域,提高准确性和实时性;2)根据现实复杂检测环境,提出多特征融合检测方法,训练随机蕨分类器,整合分类结果,提高分类的准确定。
图1是本发明基于随机蕨多特征融合的安全帽检测方法一种具体实施方式流程图。
本发明的重点在于如何训练随机蕨分类器。首先提取样本的HSI颜色直方图特征、HOG特征以及HOF特征。对于单独一种直方图特征,考虑到直方图bin分量间的相互依赖信息,从直方图特征集合中随机抽取多组大小固定的直方图特征子集,每个子集从直方图特征集合中随机选取多对bin分量进行二值测试,得到对应测试值作为直方图特征子集的特征值,这些特征值即作为随机蕨分类器的训练样本特征值。统计这些特征值的数值分布,即可获得对应类别样本在随机蕨的后验概率。假设提取的三种特征相互独立,则对于待检测样本最终分类参考的结果即为三种特征训练出的分类器输出结果的融合。
在本实施例中,如图1所示,本发明基于随机蕨多特征融合的安全帽检测方法包括以下步骤:
一、随机蕨分类器训练
步骤S101:采集安全帽与非安全帽两个类别各N1、N2个样本,分别提取样本的HSI(色调Hue、饱和度Saturation、亮度Intensity)颜色直方图特征、HOG(Histogram ofOriented Gradient,方向梯度直方图)特征以及HOF(Histograms of Oriented OpticalFlow,光流直方图)特征,并分别构成HSI颜色直方图特征集合、HOG特征集合以及HOF特征集合。
由于监控场景中复杂的工业生产环境,对安全帽检测常常会受到诸如光照变化、监控视频像素低、视频模糊、背景复杂等问题的影响,采用单一特征的检测方法并不能取得较好的识别准确度。本发明参考实际的监控场景,有针对性的选择了HSI颜色直方图特征、HOG特征、HOF特征这三种特征去表征待检测安全帽。
根据安全帽颜色标准,安全帽只有白、红、蓝、黄四色,因此在安全帽检测中使用颜色特征会取得较好效果。传统RGB颜色模型可分辨的色差是非线性的,不是很好的颜色描述系统,而HSI色彩模型从人类感知的角度定义色彩空间,具有自然性,方便进行对比,因此本发明选择HSI颜色直方图特征。
在本实施例中,针对采集到的安全帽、非安全帽样本以及后面步骤中的待检测样本,统计像素的HSI颜色分布直方图。将色调H分量区间(0~180)划分为6个子区间,每个子区间依次增加30,将饱和度S和亮度I分量区间(0~255)各自划分为8个子区间,每个子区间依次增加32,则整体HSI颜色直方图一共有384(6*8*8)个bin子区间,最后统计落入每个bin子区间的像素数量作为直方图纵坐标。用fHSI代表获得的HSI颜色直方图特征。
由于工业生产现场会有强烈光照和夜间监控黑白图像等原因,单独使用颜色特征并不能很好地完成安全帽检测,在本发明中额外采用了安全帽的轮廓特征,HOG特征。HOG方法是基于对稠密网格中归一化的局部方向梯度直方图的计算,局部目标的外表和形状可以被局部梯度或边缘方向的分布很好的描述,具体算法原理参加:Dalal N,TriggsB.Histograms of oriented gradients for human detection[C]//Computer Visionand Pattern Recognition,2005.CVPR 2005.IEEE Computer Society Conferenceon.IEEE,2005:886-893。我们先将采集到的安全帽样本灰度化,然后使用Gamma校正法对样本图像进行颜色空间的标准化,计算图像像素的梯度。因为所采集样本大小为21*21,选用细胞单元(cell)大小为7*7,步长为7,生成3*3个cell。统计每个cell的梯度直方图,再将2*2个cell组成一个block。每个cell分为9个bin。最后所有block的HOG特征descriptor串联起来就可以得到图像的HOG特征descriptor。图像的HOG直方图共有144(4*9*2*2)个bin,直方图纵坐标为落入每个bin子区间的像素数量,用fHOG代表获得的HOG特征。
光流是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。本发明中,提取安全帽样本的HOF特征,HOF与HOG特征类似,是对光流方向进行加权统计,得到光流方向信息直方图。先计算样本图像对应的光流场,光流场计算方式采用Sun等人提出的稠密光流方法,具体算法原理参见:Sun D,Roth S,Black M J.A Quantitative Analysis of Current Practices inOptical Flow Estimation and the Principles Behind Them[J].InternationalJournal of Computer Vision,2014,106(2):115-137。
计算光流矢量v(v=[x,y]T,其中x,y为对应水平与垂直方向速度分量)与横轴的夹角以横轴为基准计算夹角能够使HOF特征对运动方向(向左和向右)不敏感。角度值区间(-90度~90度)划分成30个bin子区间,每个子区间依次增加6度。根据计算得到的角度值将其投影到对应的直方图bin中,并根据对应光流的赋值进行加权,当角度落在范围 时,其幅值作用到直方图第d个bin中(1≤d≤D,D=30)。用fHOF代表获得的HOF特征。
步骤S102:构造随机蕨及特征值计算:针对每一类别样本,单独的每种直方图特征,根据半朴素贝叶斯法从直方图特征集合的M个直方图特征中随机抽取2b个直方图特征构成一组直方图特征子集,其中,b<M/2,相同方式随机抽取L次,得到L组直方图特征子集,每个直方图特征子集为一个随机蕨,从而构造出一个类别、一种直方图特征的L个随机蕨。
在随机蕨中,随机选取b对直方图特征,并进行二值测试(计算特征值),得到b个测试值随机组合,从而得到该随机蕨的特征值。
对于一个随机蕨,其构造方式及特征值计算一旦确定,就不再随机。需要说明的是,不同直方图特征,其直方图特征数量M、直方图特征对数b以及随机蕨个数L可以不相同。
为了融合上述提取安全帽样本的三种直方图特征并进行分类,本发明采用随机蕨算法分类器。随机蕨算法类似于随机森林(Random Forest),区别在于随机森林的树中每层节点判断准则不同,而随机蕨的“蕨”中每层只有一种判断准则,所以蕨是线性结构,随着训练深度的增加,训练耗时只是线性增长。
在本发明中,先对每种特征单独训练随机蕨分类器,在本实施例中,以HSI颜色直方图特征为例,其他两种特征以此类推。假设我们获得带有类别标签的样本库S,两个类别各N1、N2个样本,总计为N=N1+N2个,表示为其中为第i个样本HSI颜色特征直方图对应的特征向量,共有M维,对应直方图所划分的bin数,则第i个样本的特征向量表示为:C为样本类别,类别数为2,c1代表安全帽,c2代表非安全帽,则第i个样本的类别数表示为Ci∈{c1,c2};分类器为classifier:fHSI→C。随机蕨分类器从大小为M的特征集合中随机抽取L组大小相同的特征子集,每个子集从特征集合中随机选取b对分量进行二值测试,如下所示:
得到b个测试值作为特征子集的特征值,b<(M/2)。二值测试公式如下所示:
其中,r1、r2∈{1,…,384},如图2所示。value表示经过二值测试后得到的测试值,b个测试值组合得到落在区间[0,2b-1]的值即为随机蕨分类器的训练样本特征值。每个子集称为一个随机蕨,第j个随机蕨的特征表示为Fj HSI={f′j,1,f′j,2,…,f′j,b},j∈{1,…,L},第j个随机蕨中第b个测试值表示为f′j,b∈{0,1},该值经过二值测试计算得到。
经过上述处理后,每个样本的第j个随机蕨Fj HSI包含的特征可形成一个b位二进制码,其对应的十进制数有2b种可能的数值即特征值。
步骤S103:对于步骤S101得到两个类别各N1、N2个样本、每个样本的三种直方图特征集合,依据步骤S102方法,计算出每个样本的L个随机蕨的特征值,然后,统计每个类别、每种直方图特征下,所有N1、N2样本的L个随机蕨的特征值概率分布,得到HSI颜色直方图特征的安全帽概率分布P(Fj HSI|c1)以及非安全帽概率分布HOG特征的安全帽概率分布以及非安全帽概率分布和HOF特征的安全帽概率分布以及非安全帽概率分布其中,分别表示第j个随机蕨下HSI颜色直方图特征值变量、HOG特征值变量、HOF特征值变量,c1表示安全帽、c2表示非安全帽,一个概率分布构成一个随机蕨分类器;
二、安全帽检测
步骤S201:采用YOLO深度学习框架的改进版本YOLOv2人体目标检测算法,获得图像中工作人员即人体目标区域,然后通过滑动窗口方法从人体目标区域提取多个安全帽检测候选区域分别作为一个待检测样本,分别提取HSI颜色直方图特征、HOG特征以及HOF特征,并分别构成HSI颜色直方图特征集合、HOG特征集合以及HOF特征集合。
安全帽检测中安全帽位置的定位是保证安全帽识别准确度的前提。YOLOv2算法用于多分类目标检测,是YOLO算法的改进版。针对YOLO目标检测存在精确度不够的问题,YOLOv2引入了Batch Normalization减少过拟合,采用高分辨率输入适应网络,使用固定框来预测bounding boxes及多尺度训练等优化方法,提高检测精度。由于人体目标检测只是二分类问题,不需要识别多类别目标,所以我们在不降低人体目标检测准确率的前提下,简化网络模型降低复杂度,去除部分卷积层,提高网络的训练和检测速度。为了训练人体检测版本的YOLO,我们使用在分类训练集和检测训练集上进行联合训练的方法。在分类训练时采用随机梯度下降学习策略,设置0.1的初始学习率,初始权值为4的多项式衰减率,0.005的初始权重衰减率和0.9的初始冲量,并在ImageNet数据集中的人体分类上进行训练。在训练期间还采用标准数据增强技巧(包括随机裁剪、旋转和色调饱和度曝光度的变换)。而在检测训练环节,除了采用VOC标注数据外,还引入了工业生产现场中自主采集标定的人体目标集,以此增加网络对实际场景人体检测的准确率(两个训练环节的数据集的训练集,验证集和测试集的比例都为2:1:1)。
在本实施例中,先基于深度学习YOLOv2方法,对人体目标进行检测,再根据获得到的人体目标区域确定安全帽检测的ROI区域。考虑到实际工业生产场景的视频监控中人体目标非固定姿态问题,传统方法往往因为人体目标非站立等状态对安全帽定位的准确率大大下降,从而影响安全帽的识别。先获得人体目标矩形区域(x,y,w,h),其中x和y表示矩形框左上点坐标,w和h分别表示矩形框宽度和高度,然后选取区域(x+w*0.15,y–h*0.1,w*0.7,h*0.4),使用21*21像素大小的滑动窗口遍历该区域得到待检测安全帽候选样本。使用训练好的随机蕨分类器计算候选区域分类的置信度,若存在对应置信度满足预设阈值的检测样本,选择其中置信度最高的检测样本作为检测得到的安全帽区域,否则即为未佩戴安全帽,完成检测。
步骤S202:、待检测样本是否是安全帽的检测
对于一个待检测样本,依据步骤S102的方法,计算出其在每种直方图特征下的L个随机蕨的特征值:其中,分别表示待检测样本第j个随机蕨下HSI颜色直方图特征值、HOG特征值、HOF特征值。
分别赋值给依据步骤一训练得到的分类器,即HSI颜色直方图特征的安全帽概率分布以及非安全帽概率分布HOG特征的安全帽概率分布以及非安全帽概率分布和HOF特征的安全帽概率分布以及非安全帽概率分布分别得到待检测样本第j个随机蕨的后验概率 以及
单一随机蕨分类精度不高,可以将多个随机蕨分类结果进行整合,获得最终的分类结果。假设多个随机蕨之间条件独立,随机蕨结构的决策融合准则如图3所示,其中红色直方图代表对应安全帽类别的随机蕨分布,蓝色直方图代表对应非安全帽类别的随机蕨分布,则对单一直方图特征,每个类别所有L个随机蕨的联合似然分布为:
基于多特征的随机蕨分类器的融合:待检测样本的三种特征随机蕨分类器的样本分类置信度为:
其中,P(c1)、P(c2)分别为安全帽、非安全帽的先验概率,在总样本集中的占比:
待检测样本的最终分类置信度为:
如果待检测样本的最终分类置信度大于设定的阈值,则认为是安全帽,否则认为不是安全帽;
2.3)、根据步骤2.1)得到每个安全帽检测候选区域作为待检测样本,分别按照步骤2.2)进行是否是安全帽的检测,如果有一个待检测样本为安全帽,则认为图像中工作人员佩戴了安全帽,否则,认为没有佩戴。
为了验证本发明,针对实际工业生产视频监控序列做了相关实验。图4、5所示为部分实验结果,其中,小白色矩形框代表检测到的安全帽区域。从图4、5中可看出实际应用场景中,存在图像目标模糊,图像色彩饱和度低,背景复杂等干扰因素。针对安全帽检测定位环节,所采用的YOLOv2检测算法能对图像中的人体有很好的检测效果,定位准确,实时性强。在分类环节中,多特征的融合能够更好的表征待检测目标,提升分类器性能,很好地检测出了安全帽是否佩戴,整体上,本发明能够更加准确的检测安全帽,并对光照、复杂环境等影响具有鲁棒性,实时性好。
尽管上面对本发明说明性的具体实本发明基于随机蕨多特征融合的安全帽检测方法施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (2)

1.一种基于随机蕨多特征融合的安全帽检测方法,其特征在于,包括以下步骤:
(1)、随机蕨分类器训练
1.1)、采集安全帽与非安全帽两个类别各N1、N2个样本,分别提取样本的HSI颜色直方图特征、HOG方向梯度直方图特征以及HOF光流直方图特征,并分别构成HSI颜色直方图特征集合、HOG特征集合以及HOF特征集合;
1.2)、构造随机蕨及特征值计算:针对每一类别样本,单独的每种直方图特征,根据半朴素贝叶斯法从直方图特征集合的M个直方图特征中随机抽取2b个直方图特征构成一组直方图特征子集,其中,b<M/2,相同方式随机抽取L次,得到L组直方图特征子集,每组直方图特征子集为一个随机蕨,从而构造出一个类别样本、一种直方图特征的L个随机蕨;
在随机蕨中,随机选取b对直方图特征,并进行二值测试,得到b个测试值随机组合,从而得到该随机蕨的特征值;
对于一个随机蕨,其构造方式及特征值计算一旦确定,就不再随机;
1.3)、对于步骤1.1)得到的两个类别各N1、N2个样本、每个样本三种直方图特征集合,依据步骤1.2)方法,计算出每个样本每种直方图特征下的L个随机蕨的特征值,然后,统计每个类别、每种直方图特征下,所有N1、N2样本的L个随机蕨的特征值概率分布,得到HSI颜色直方图特征的安全帽概率分布以及非安全帽概率分布HOG特征的安全帽概率分布以及非安全帽概率分布和HOF特征的安全帽概率分布以及非安全帽概率分布其中,分别表示第j个随机蕨下HSI颜色直方图特征值变量、HOG特征值变量、HOF特征值变量,c1表示安全帽、c2表示非安全帽,一个概率分布构成一个随机蕨分类器;
(2)、安全帽检测
2.1)、采用YOLO深度学习框架的改进版本YOLOv2人体目标检测算法,获得图像中工作人员即人体目标区域,然后通过滑动窗口方法从人体目标区域提取多个安全帽检测候选区域分别作为一个待检测样本,分别提取HSI颜色直方图特征、HOG特征以及HOF特征,并分别构成HSI颜色直方图特征集合、HOG特征集合以及HOF特征集合;
2.2)、待检测样本是否是安全帽的检测
2.2.1)、对于一个待检测样本,依据步骤1.2)方法,计算出其在每种直方图特征下的L个随机蕨的特征值:其中,分别表示待检测样本第j个随机蕨下HSI颜色直方图特征值、HOG特征值、HOF特征值;
2.2.2)、将分别赋值给依据步骤(1)训练得到的分类器,即HSI颜色直方图特征的安全帽概率分布以及非安全帽概率分布HOG特征的安全帽概率分布以及非安全帽概率分布和HOF特征的安全帽概率分布以及非安全帽概率分布分别得到待检测样本第j个随机蕨的后验概率以及
2.2.3)、对单一直方图特征,每个类别所有L个随机蕨的联合似然分布为:
2.2.4)、基于多特征的随机蕨分类器的融合:
待检测样本的三种特征随机蕨分类器的样本分类置信度为:
其中,P(c1)、P(c2)分别为安全帽、非安全帽的先验概率,即安全帽与非安全帽两个类别样本在总样本集中的占比:
待检测样本的最终分类置信度为:
如果待检测样本的最终分类置信度大于设定的阈值,则认为是安全帽,否则认为不是安全帽;
2.3)、将步骤2.1)得到的每个安全帽检测候选区域作为待检测样本,分别按照步骤2.2)进行是否是安全帽的检测,如果有一个待检测样本为安全帽,则认为图像中工作人员佩戴了安全帽,否则,认为没有佩戴。
2.根据权利要求1所述的安全帽检测方法,其特征在于,所述HSI颜色直方图特征为:
将色调H分量区间划分为6个子区间,每个子区间依次增加30,将饱和度S和亮度I分量区间各自划分为8个子区间,每个子区间依次增加32,则整体HSI颜色直方图一共有384个bin子区间,最后统计落入每个bin子区间的像素数量作为直方图纵坐标。
CN201810018550.4A 2018-01-05 2018-01-05 一种基于随机蕨融合多特征的安全帽检测方法 Expired - Fee Related CN108288033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810018550.4A CN108288033B (zh) 2018-01-05 2018-01-05 一种基于随机蕨融合多特征的安全帽检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810018550.4A CN108288033B (zh) 2018-01-05 2018-01-05 一种基于随机蕨融合多特征的安全帽检测方法

Publications (2)

Publication Number Publication Date
CN108288033A CN108288033A (zh) 2018-07-17
CN108288033B true CN108288033B (zh) 2019-09-24

Family

ID=62835263

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810018550.4A Expired - Fee Related CN108288033B (zh) 2018-01-05 2018-01-05 一种基于随机蕨融合多特征的安全帽检测方法

Country Status (1)

Country Link
CN (1) CN108288033B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272036B (zh) * 2018-09-14 2021-07-02 西南交通大学 一种基于深度残差网络的随机蕨目标跟踪方法
CN110070033B (zh) * 2019-04-19 2020-04-24 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110135290B (zh) * 2019-04-28 2020-12-08 中国地质大学(武汉) 一种基于SSD和AlphaPose的安全帽佩戴检测方法及系统
CN110472586B (zh) * 2019-08-17 2022-10-14 四创科技有限公司 一种基于迁移学习的安全帽检测的方法
CN110837774A (zh) * 2019-09-27 2020-02-25 中科九度(北京)空间信息技术有限责任公司 一种肩扛棒状物组合目标的高精度识别方法
CN110889376A (zh) * 2019-11-28 2020-03-17 创新奇智(南京)科技有限公司 一种基于深度学习的安全帽佩戴检测系统及方法
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质
CN111680682B (zh) * 2020-06-12 2022-05-03 哈尔滨理工大学 一种复杂场景下安全帽识别方法
CN112613449A (zh) * 2020-12-29 2021-04-06 国网山东省电力公司建设公司 一种基于视频人脸图像的安全帽佩戴检测识别方法及系统
CN112836644B (zh) * 2021-02-04 2022-11-25 电子科技大学 一种基于超图学习的安全帽实时检测方法
CN113052107B (zh) * 2021-04-01 2023-10-24 北京华夏启信科技有限公司 一种检测安全帽佩戴情况的方法、计算机设备及存储介质
CN113343818A (zh) * 2021-05-31 2021-09-03 湖北微特传感物联研究院有限公司 安全帽识别方法、装置、计算机设备和可读存储介质
CN116597946B (zh) * 2023-04-11 2024-02-13 宜宾学院 一种基于房-树-人的青少年心理健康检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049949A (zh) * 2012-12-10 2013-04-17 电子科技大学 一种矿区人员安全管理系统及方法
CN104504369A (zh) * 2014-12-12 2015-04-08 无锡北邮感知技术产业研究院有限公司 一种安全帽佩戴情况检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063722B (zh) * 2014-07-15 2018-03-23 国家电网公司 一种融合hog人体目标检测和svm分类器的安全帽识别方法
KR101697161B1 (ko) * 2015-05-11 2017-01-17 계명대학교 산학협력단 열 영상에서 온라인 랜덤 펀 학습을 이용하여 보행자를 추적하는 장치 및 방법
CN107016373A (zh) * 2017-04-12 2017-08-04 广东工业大学 一种安全帽佩戴的检测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049949A (zh) * 2012-12-10 2013-04-17 电子科技大学 一种矿区人员安全管理系统及方法
CN104504369A (zh) * 2014-12-12 2015-04-08 无锡北邮感知技术产业研究院有限公司 一种安全帽佩戴情况检测方法

Also Published As

Publication number Publication date
CN108288033A (zh) 2018-07-17

Similar Documents

Publication Publication Date Title
CN108288033B (zh) 一种基于随机蕨融合多特征的安全帽检测方法
CN112115818B (zh) 口罩佩戴识别方法
CN105512640B (zh) 一种基于视频序列的人流量统计方法
CN106295124B (zh) 多种图像检测技术综合分析基因子图相似概率量的方法
CN104091176B (zh) 人像比对在视频中的应用技术
CN103942577B (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
CN104123543B (zh) 一种基于人脸识别的眼球运动识别方法
CN106373146B (zh) 一种基于模糊学习的目标跟踪方法
CN104091147B (zh) 一种近红外眼睛定位及眼睛状态识别方法
CN106600631A (zh) 基于多目标跟踪的客流统计方法
CN106446926A (zh) 一种基于视频分析的变电站工人安全帽佩戴检测方法
CN106778609A (zh) 一种电力施工现场人员制服穿着识别方法
CN105718866B (zh) 一种视觉目标检测与识别方法
US20130070969A1 (en) Method and system for people flow statistics
CN106886216A (zh) 基于rgbd人脸检测的机器人自动跟踪方法和系统
CN108647625A (zh) 一种表情识别方法及装置
CN102214291A (zh) 一种快速准确的基于视频序列的人脸检测跟踪方法
CN108256462A (zh) 一种商场监控视频中的人数统计方法
CN110728252B (zh) 一种应用于区域人员运动轨迹监控的人脸检测方法
CN103035013A (zh) 一种基于多特征融合的精确运动阴影检测方法
CN108960047A (zh) 基于深度二次树的视频监控中人脸去重方法
CN103034838A (zh) 一种基于图像特征的特种车辆仪表类型识别与标定方法
CN105825233B (zh) 一种基于在线学习随机蕨分类器的行人检测方法
CN106909879A (zh) 一种疲劳驾驶检测方法及系统
Raghukumar et al. Comparison of machine learning algorithms for detection of medicinal plants

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190924