CN110717466B - 一种基于人脸检测框回归安全帽位置的方法 - Google Patents

一种基于人脸检测框回归安全帽位置的方法 Download PDF

Info

Publication number
CN110717466B
CN110717466B CN201910978449.8A CN201910978449A CN110717466B CN 110717466 B CN110717466 B CN 110717466B CN 201910978449 A CN201910978449 A CN 201910978449A CN 110717466 B CN110717466 B CN 110717466B
Authority
CN
China
Prior art keywords
face
frame
information
helmet
safety helmet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910978449.8A
Other languages
English (en)
Other versions
CN110717466A (zh
Inventor
郑小玉
刘自强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PowerChina Chengdu Engineering Co Ltd
Original Assignee
PowerChina Chengdu Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PowerChina Chengdu Engineering Co Ltd filed Critical PowerChina Chengdu Engineering Co Ltd
Priority to CN201910978449.8A priority Critical patent/CN110717466B/zh
Publication of CN110717466A publication Critical patent/CN110717466A/zh
Application granted granted Critical
Publication of CN110717466B publication Critical patent/CN110717466B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Emergency Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于人脸检测框回归安全帽位置并识别安全帽的方法,建立了以人脸框的中心坐标和宽、高度信息为基础的并与安全帽的同类位置信息相关的多元机器学习模型,依据一次人脸框信息与相关学习公式学得人脸框与安全帽的影响系数,将影响系数与再次的人脸框信息带入线性相关方程求解得到安全帽候选位置。解决了由于安全帽在实际场景中存在遮挡、尺度、数据集少、小对象识别、安全帽载体识别等挑战问题,使得安全帽的自动识别非常困难的问题;同时与人脸相比,行人有较大的遮挡和柔性的变化,在密集人群时检测困难,而且没有人脸无法取证。本发明实现了多人脸监控场景下的人脸检测且判断人群是否穿戴安全帽,并储存视频帧作为证据同时报警。

Description

一种基于人脸检测框回归安全帽位置的方法
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于人脸检测框回归安全帽位置的方法。
背景技术
安全帽的佩戴对于很多场景非常重要,尤其是生产建筑工地。而且,建筑工地中被物体撞击和坠落是最常见的致命事故类型,占总体的68%以上。但是,在实际场景中,人员地域分布广,环境复杂,操作量大,安全监督有限,难以实现实时全程的安全管理,因此有必要开发自动的安全帽识别方法。
在安全帽识别方法中,由于安全帽在实际场景中存在遮挡、尺度、数据集少、小对象识别、安全帽载体识别等挑战问题,使得安全帽的自动识别非常困难。Li等使用深度学习的方法首先检测行人,然后估计安全帽的位置。但是与人脸相比,行人有较大的遮挡和柔性的变化,在密集人群时检测困难,而且没有人脸无法取证。同时,目前的方法都是估计安全帽的位置,如Li和Shrestha等的方法,这不是科学和定量的研究方法。
现有技术中采用的阈值法,通过给定阈值范围和已检测到的人脸图像,在人脸图像的上部分界定安全帽的候选区域,现有技术的阈值法界定候选区域,阈值可选的范围过大,造成整体数据不准确,存在虚警和漏警情况,且已选人脸区域存在一定选取范围的误差,由于技术因素导致在人脸图像的上部分界定以阈值范围的安全帽候选区域,造成准确判定率的进一步降低,同时现有技术在细节上分辨率低且容易受到周围环境影响,与已检测到的人脸图像无严格线性对应关系,且对于不同人脸因个体差异造成图像大小不同的情况和与因摄像头远近不同造成图像大小不同的情况均无差异处理方案。
发明内容
本发明所要解决的技术问题是:由于安全帽在实际场景中存在遮挡、尺度、数据集少、小对象识别、安全帽载体识别等挑战问题,使得安全帽的自动识别非常困难;同时与人脸相比,行人有较大的遮挡和柔性的变化,在密集人群时检测困难,而且没有人脸无法取证。
本发明通过下述技术方案实现:
本发明的目的是基于检测的多人脸框信息,自动回归出安全帽组的候选区域,并进一步将各个人脸作为取证,同时识别候选区域是否存在安全帽,本发明提供了解决上述问题的一种基于人脸检测框回归安全帽位置的方法。
一种基于人脸检测框回归安全帽位置的方法,包括以下步骤:
S1:获取一张实时视频帧图像的多人脸框信息;
S2:预设安全帽位置信息的同时,基于所述一张检测到的实时视频帧中图像的多人脸框信息,计算得每个人脸框的中心坐标信息与宽度信息、高度信息和安全帽的中心坐标信息与宽度信息、高度信息,所述人脸框的中心坐标信息与宽度信息、高度信息和安全帽的中心坐标信息与宽度信息、高度信息之间存在线性关系方程,所述线性关系方程中存在线性关系参数;
S3:构建多元线性回归模型,在所述多元线性回归模型中通过学习获得S2中所述线性关系参数,将已知S2中所述人脸框的中心坐标信息与宽度信息、高度信息代入S2中的所述线性关系方程,得到人脸框信息的安全帽候选区域;
S4:针对每一个安全帽候选区域,判定候选区域是否存在安全帽。
进一步地,所述S1中,针对现场摄像头视频传入的图像,采用人脸检测算法,检测出所有人脸并采用矩形检测框框出。
进一步地,所述S1中,针对现场摄像头视频传入的图像,采用人脸检测算法,无法检测出人脸,则等待数秒后重新检测并发出报错警报。
进一步地,S3还包括以下步骤:
S31:所述多元线性回归模型中,由标记数据集中的图片数据,先学习所述人脸框的中心坐标信息与宽度信息、高度信息与所述线性关系,所述标记数据集中的图片数据为已知数据库信息;
S32:然后在所述多元线性回归模型中,学习学得自变量为所述人脸框的中心坐标信息与宽度信息、高度信息的所述线性关系参数的影响参数方程;
S33:S32得到的所述线性关系参数结合S2所述线性关系方程,计算得所述安全帽的中心坐标信息与宽度信息、高度信息。
进一步地,S3所述学习过程采用多元线性回归过程,对于所述学习过程中的损失函数通过梯度下降法回归得到所述损失函数的参数。
进一步地,所述S1中,存在因距离远近产生的大脸和小脸不同样本数据,针对视频序列中的每一帧采用人脸检测算法FTFG算法检测人脸,所述FTFG算法是采用对抗生成网络发现小脸,所述FTFG算法能够获取场景中的大脸和小脸,从而获取场景中尽可能多的脸,这样就获得了所有人脸的检测框。
进一步地,所述S3中,采用安全帽检测算法DenseNet确认在当前帧中的每个候选区域内是否存在安全帽。
进一步地,所述S3中,还可以采用特征识别技术识别当前帧中的每个候选区域内是否存在安全帽,所述特征识别技术包括一种颜色、形状、大小等多种方式或者至少两种方式结合的特征识别技术。
进一步地,所述S3中,在候选区域内没有安全帽,主动激活报警模块。
进一步地,所述S3中,在候选区域内没有安全帽,记录当前视频帧图像,保存并作为人脸无佩戴安全帽的凭证,为后续取证提供数据基础。
本发明的一种基于人脸检测框回归安全帽位置的方法包括3个主要步骤。首先,针对现场监控视频实现人脸检测,获得视频每一帧图像中所有的人脸检测框;然后,基于每个人脸检测框,利用回归算法,自动回归出安全帽的候选区域;最后,在安全帽候选区域,利用安全帽检测算法,自动判断是否存在安全帽,如果没有,保存人脸作为取证,并实现预警。
上述说明内容可知,S2中通过对多人脸框信息的进一步转化为每个人脸框的中心坐标信息与宽度信息、高度信息,所述中心坐标表示不同的人脸位置即多人脸图像情况的识别,所述的宽、高度信息能够表示因个体差异或者与摄像头远近差异导致的图像大小不同情况的识别,所述线性关系系数与回归算法能够针对不同的自变量即人脸框信息生成严格限定的相关线性关系方程,所述回归算法在机器学习领域为快速回归算法,效率高,用时短,采用的视频帧图像范围涉及样本数量多,使得学习用方程的预测效果更佳,精度高。
本发明具有如下的优点和有益效果:
现有技术中采用的阈值法给定通过给定阈值范围和已检测到的人脸图像,在人脸图像的上部分界定安全帽的候选区域,本发明与之对比,采用多元线性回归方程回归bounding box的中心位置坐标和宽度、高度值得到的安全帽候选位置坐标,中心位置坐标实现了多人脸检测的功能,宽度和高度值实现了大小脸的检测功能,应用回归算法和线性方程于视频帧图像中,样本量大,处理结果精度高,速度快,能够针对高密度人流快速获得实时检测结果,对于遮盖、小尺度和数据集少的情况也能做到更高准确度的检测。
精度更加准确,深度学习由视频样本多人脸的采集数量增多而效果更加。
本发明采用了多元线性回归算法,能够快速准确地监测人群是否穿戴了安全帽;
本发明转变计算坐标信息为中心坐标信息与宽、高度信息,能够针对大、小脸和人群进行全覆盖目标检测;
传统的基于人群进行行人采样监测,行人有较大的遮挡和柔性的变化,由于公共人脸的多样性,本发明针对于多人脸监测后判断安全帽的穿戴与否,结果显示更加充分有效,填补了安全帽穿戴的多人脸监测领域的空白;
本发明于监测多人脸场景后,对未穿戴安全帽的单人或者多人保存视频帧并报警,为后续提供数据提供了有效的保障。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1是本发明中基于人脸检测框回归的安全帽识别流程示意图。
图2是本发明中多人脸监控场景中一个个体单位中自动检测人像示意图。
具体实施方式
在对本发明的任意实施例进行详细的描述之前,应该理解本发明的应用不局限于下面的说明或附图中所示的结构的细节。本发明可采用其它的实施例,并且可以以各种方式被实施或被执行。基于本发明中的实施例,本领域普通技术人员在没有做出创造性改进前提下所获得的所有其它实施例,均属于本发明保护的范围。
一种基于人脸检测框回归安全帽位置的方法,由图1、2所示,包括以下步骤:
S1:获取一张实时视频帧图像的多人脸框信息;
S2:基于所述一张检测到的实时视频帧中图像的多人脸框信息,计算得每个人脸框的中心坐标信息与宽度信息、高度信息和安全帽的中心坐标信息与宽度信息、高度信息,所述人脸框的中心坐标信息与宽度信息、高度信息和安全帽的中心坐标信息与宽度信息、高度信息之间存在线性关系方程,所述线性关系方程中存在线性关系参数;
S3:构建多元线性回归模型,在所述多元线性回归模型中通过学习获得S2中所述线性关系参数,将已知S2中所述人脸框的中心坐标信息与宽度信息、高度信息代入S2中的所述线性关系方程,得到人脸框信息的安全帽候选区域;
S4:针对每一个安全帽候选区域,判定候选区域是否存在安全帽。
在上一个实施例的基础上,所述S1中,针对现场摄像头视频传入的图像,采用人脸检测算法,检测出所有人脸并采用矩形检测框框出。
在上一个实施例的基础上,所述S1中,针对现场摄像头视频传入的图像,采用人脸检测算法,无法检测出人脸,则等待数秒后重新检测并发出报错警报。
在上一个实施例的基础上,S3还包括以下步骤:
S31:所述多元线性回归模型中,由标记数据集中的图片数据,先学习所述人脸框的中心坐标信息与宽度信息、高度信息与所述线性关系的参数,所述标记数据集中的图片数据为已知数据库信息;
S32:然后在所述多元线性回归模型中,学习学得自变量为所述人脸框的中心坐标信息与宽度信息、高度信息的所述线性关系参数的影响参数方程;
S33:S32得到的所述线性关系参数结合S2所述线性关系方程,计算得所述安全帽的中心坐标信息与宽度信息、高度信息。
在上一个实施例的基础上,S3所述学习过程采用多元线性回归过程,对于所述学习过程中的损失函数通过梯度下降法回归得到所述损失函数的参数。
在上一个实施例的基础上,所述S1中,存在因距离远近产生的大脸和小脸不同样本数据,针对视频序列中的每一帧采用人脸检测算法FTFG算法检测人脸,所述FTFG算法是采用对抗生成网络发现小脸,所述FTFG算法能够获取场景中的大脸和小脸,从而获取场景中尽可能多的脸,这样就获得了所有人脸的检测框。
在上一个实施例的基础上,所述S3中,采用安全帽检测算法DenseNet确认在当前帧中的每个候选区域内是否存在安全帽。
在上一个实施例的基础上,所述S3中,还可以采用特征识别技术识别当前帧中的每个候选区域内是否存在安全帽,所述特征识别技术包括一种颜色、形状、大小等多种方式或者至少两种方式结合的特征识别技术。
在上一个实施例的基础上,所述S3中,在候选区域内没有安全帽,主动激活报警模块。
在上一个实施例的基础上,所述S3中,在候选区域内没有安全帽,记录当前视频帧图像,保存并作为人脸无佩戴安全帽的凭证,为后续取证提供数据基础。
在上一个实施例的基础上,安全帽候选区域的回归,采用了如下方法获得:
通过人脸检测算法获得图片中人脸检测框的位置P(px1,py1,px2,py2)(为人脸边界框的左上角和右下角坐标)将人脸检测框P(px1,py1,px2,py2)和安全帽真值坐标G(gx1,gy1,gx2,gy2)转变为bounding box的框中心坐标、宽和高:
人脸框信息:P(px,py,pw,ph);
安全帽:G(gx,gy,gw,gh);
由人脸框信息与安全帽位置坐标之间存在线性关系,G’(gx’,gy’,gw’,gh’)为通过人脸框信息回归得到的安全帽的候选位置:
gx’=pw*t1+px;
gy’=ph*t2+py;
gw’=pw*et3
gh’=ph*et4
其中t1,t2,t3,t4为需要学习的待定参数。
在上一个实施例的基础上,为学习到人脸框信息与安全帽框之间的坐标变换和边框大小之间的关系,采用多组样本训练人脸框信息与变换尺度之间的关系;
在上一个实施例的基础上,关于缩放比例、平移变化量采用如下方法解释,由标记数据集中的图片可获得人脸检测框与安全帽框之间坐标的平移变化量和框的尺度缩放关系:
tx=(gx-px)/pw;
ty=(gy-py)/ph;
tw=log(gw/pw);
th=log(gh/ph);
tx,ty,tw,th的变化受到px,py,pw,ph(人脸框信息坐标)的影响,构建多元线性回归模型,学习px,py,pw,ph对tx,ty,tw,th的影响;
ti’=βi0+βi1*px+βi2*py+βi3*pw+βi4*ph;(ti’分别代表tx’,ty’,tw’,th’)
在上一个实施例的基础上,通过多元线性回归:
最小化函数为:(ti-ti’)^2;
对于n组标记样本数据,损失函数如下:
Figure BDA0002234419130000061
(其中,ti代表tx,ty,tw,th;对应的pi为px,py,pw,ph),
例如:
Figure BDA0002234419130000062
Figure BDA0002234419130000063
Figure BDA0002234419130000064
Figure BDA0002234419130000065
根据上式,通过梯度下降法回归得到所有参数β,结合人脸检测框坐标值获得平移和尺度变换量
tx’=β0x+β1x*px+β2x*py+β3x*pw+β4x*ph;
ty’=β0y+β1y*px+β2y*py+β3y*pw+β4y*ph;
tw’=β0w+β1w*px+β2w*py+β3w*pw+β4w*ph;
th’=β0h+β1h*px+β2h*py+β3h*pw+β4h*ph;
回归获得小脸框的相关数据;
在实施例中时,获得小脸框后,根据以下公式,获得预测的安全帽的候选位置;
gx’=pw*tx’+px;
gy’=ph*ty’+py;
gw’=pw*etw’
gh’=ph*eth’
px,py,pw,ph为预测获得的人脸框信息相关值;
gx’,gy’,gw’,gh’为预测获得的安全帽框坐标和长宽。
本发明公开了一种基于人脸检测框回归安全帽位置并识别安全帽的方法,建立了以人脸框的中心坐标和宽、高度信息为基础的并与安全帽的同类位置信息相关的多元机器学习模型,依据一次人脸框信息与相关学习公式学得人脸框与安全帽的影响系数,将影响系数与再次的人脸框信息带入线性相关方程求解得到安全帽候选位置。解决了由于安全帽在实际场景中存在遮挡、尺度、数据集少、小对象识别、安全帽载体识别等挑战问题,使得安全帽的自动识别非常困难;同时与人脸相比,行人有较大的遮挡和柔性的变化,在密集人群时检测困难,而且没有人脸无法取证。本发明实现了多人脸监控场景下的人脸检测且判断人群是否穿戴安全帽,并储存视频帧作为证据同时报警。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于人脸检测框回归安全帽位置的方法,其特征在于,包括以下步骤:
S1:获取一张实时视频帧图像的多人脸框信息;
S2:基于所述一张检测到的实时视频帧中图像的多人脸框信息,计算得每个人脸框的中心坐标信息、宽度信息和高度信息;所述人脸框的中心坐标信息与宽度信息、高度信息和安全帽的中心坐标信息与宽度信息、高度信息之间存在线性关系方程,所述线性关系方程中存在线性关系参数;
S3:构建多元线性回归模型,在所述多元线性回归模型中通过学习获得 S2中所述线性关系参数,将已知S2中所述人脸框的中心坐标信息、宽度信息和高度信息代入S2中的所述线性关系方程得到安全帽的中心坐标信息、宽度信息和高度信息,得到人脸框信息的安全帽候选区域;
S3包括以下步骤:
S31:在所述多元线性回归模型中,由标记数据集中的图片数据获取人脸检测框与安全帽框的坐标平移变化量与人脸框的尺度缩放量受人脸框信息坐标的影响,学习人脸框的中心坐标信息、宽度信息与高度信息对线性关系方程参数的影响参数方程,所述线性关系方程以人脸框的中心坐标信息、宽度信息与高度信息为自变量;所述标记数据集中的图片数据为已知数据库信息;
S32:通过多元线性回归得到影响参数方程的所有参数,结合人脸检测框坐标值获得线性关系参数,
S33:S32得到的所述线性关系参数结合S2所述线性关系方程,计算得所述安全帽的中心坐标信息与宽度信息、高度信息;
S4:针对每一个安全帽候选区域,判定候选区域是否存在安全帽。
2.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S1中,针对现场摄像头视频传入的图像,采用人脸检测算法,检测出所有人脸并采用矩形检测框框出。
3.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S1中,针对现场摄像头视频传入的图像,采用人脸检测算法,无法检测出人脸,则等待数秒后重新检测并发出报错警报。
4.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,S3所述学习过程采用多元线性回归过程,对于所述学习过程中的损失函数通过梯度下降法回归得到所述损失函数的参数。
5.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S1中,存在因距离远近产生的大脸和小脸不同样本数据,针对视频序列中的每一帧采用人脸检测算法FTFG算法检测人脸,所述FTFG算法是采用对抗生成网络发现小脸,所述FTFG算法能够获取场景中的大脸和小脸,从而获取场景中尽可能多的脸,这样就获得了所有人脸的检测框。
6.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S4中,采用安全帽检测算法DenseNet确认在当前帧中的每个候选区域内是否存在安全帽。
7.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S4中,还可以采用特征识别技术识别当前帧中的每个候选区域内是否存在安全帽,所述特征识别技术包括一种颜色、形状、大小等多种方式或者至少两种方式结合的特征识别技术。
8.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S4中,在候选区域内没有安全帽,主动激活报警模块。
9.根据权利要求1所述的一种基于人脸检测框回归安全帽位置的方法,其特征在于,所述S4中,在候选区域内没有安全帽,记录当前视频帧图像,保存人脸并作为无佩戴安全帽的凭证。
CN201910978449.8A 2019-10-15 2019-10-15 一种基于人脸检测框回归安全帽位置的方法 Active CN110717466B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910978449.8A CN110717466B (zh) 2019-10-15 2019-10-15 一种基于人脸检测框回归安全帽位置的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910978449.8A CN110717466B (zh) 2019-10-15 2019-10-15 一种基于人脸检测框回归安全帽位置的方法

Publications (2)

Publication Number Publication Date
CN110717466A CN110717466A (zh) 2020-01-21
CN110717466B true CN110717466B (zh) 2023-06-20

Family

ID=69211696

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910978449.8A Active CN110717466B (zh) 2019-10-15 2019-10-15 一种基于人脸检测框回归安全帽位置的方法

Country Status (1)

Country Link
CN (1) CN110717466B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257620B (zh) * 2020-10-27 2021-10-26 广州华微明天软件技术有限公司 一种安全穿戴情况识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258232A (zh) * 2013-04-12 2013-08-21 中国民航大学 一种基于双摄像头的公共场所人数估算方法
CN106156765A (zh) * 2016-08-30 2016-11-23 南京邮电大学 基于计算机视觉的安全检测方法
WO2017158167A2 (en) * 2016-03-17 2017-09-21 Artofus Ireland Limited A computer implemented method for tracking an object in a 3d scene
CN111832461A (zh) * 2020-07-07 2020-10-27 浙江工商大学 一种基于视频流的非机动车骑行人员头盔佩戴检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2913432A1 (en) * 2015-11-26 2016-01-27 Robert Zakaluk System and method for identifying, analyzing, and reporting on players in a game from video
WO2018138582A1 (en) * 2017-01-27 2018-08-02 Banuba Limited Computer systems and computer-implemented methods specialized in processing electronic image data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258232A (zh) * 2013-04-12 2013-08-21 中国民航大学 一种基于双摄像头的公共场所人数估算方法
WO2017158167A2 (en) * 2016-03-17 2017-09-21 Artofus Ireland Limited A computer implemented method for tracking an object in a 3d scene
CN106156765A (zh) * 2016-08-30 2016-11-23 南京邮电大学 基于计算机视觉的安全检测方法
CN111832461A (zh) * 2020-07-07 2020-10-27 浙江工商大学 一种基于视频流的非机动车骑行人员头盔佩戴检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
An intelligent vision-based approach for helmet identification for work safety;Wu H等;《Computers in Industry》;20181231;第100卷;全文 *
Automatic detection of bike-riders without helmet using surveillance videos in real-time;Dahiya K等;《2016 International Joint Conference on Neural Networks (IJCNN). IEEE》;20161231;全文 *
Detecting safety helmet wearing on construction sites with bounding-box regression and deep transfer learning;Shen J等;《COMPUTER-AIDED CIVIL AND INFRASTRUCTURE ENGINEERING》;20200630;第36卷;全文 *
基于回归分析的人脸老化模型构建;胡伟平;《广西科技大学学报》;20160630(第03期);全文 *
基于机器学习方法的安全帽佩戴行为检测;杨莉琼等;《中国安全生产科学技术》;20191030;第15卷(第10期);全文 *
基于机器视觉的安全帽自动识别技术研究;冯国臣等;《机械设计与制造工程》;20151015(第10期);全文 *

Also Published As

Publication number Publication date
CN110717466A (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN103716579B (zh) 视频监控方法及系统
CN109670441B (zh) 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
CN110263686A (zh) 一种基于深度学习的施工工地图像安全帽检测方法
CN103164706B (zh) 基于视频信号分析的对象计数方法与装置
CN110502965A (zh) 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
JP6549797B2 (ja) 通行人の頭部識別方法及びシステム
US9098769B2 (en) Method and a device for objects counting
CN111881730A (zh) 一种火电厂现场安全帽佩戴检测方法
CN109447168A (zh) 一种基于深度特征和视频目标检测的安全帽佩戴检测方法
CN103051872B (zh) 基于图像边缘提取的输送带跑偏检测方法
CN110414400B (zh) 一种施工现场安全帽穿戴自动检测方法及系统
CN103735269B (zh) 一种基于视频多目标跟踪的高度测量方法
CN109255298A (zh) 一种动态背景中的安全帽检测方法与系统
CN108764167A (zh) 一种时空关联的目标重识别方法和系统
CN108363953B (zh) 一种行人检测的方法及双目监控设备
CN106600628B (zh) 一种基于红外热像仪的目标物识别的方法与装置
CN110136172A (zh) 一种矿工下井前防护设备佩戴的检测方法
CN112488042B (zh) 一种基于视频分析的行人通行瓶颈判别方法及系统
CN115171361B (zh) 一种基于计算机视觉的危险行为智能检测预警方法
CN106846297A (zh) 基于激光雷达的行人流量检测系统及方法
CN106570440A (zh) 基于图像分析的人数统计方法和人数统计装置
CN108230351A (zh) 基于双目立体视觉行人检测的柜台评价方法与系统
CN107481260A (zh) 一种区域人群滞留检测方法、装置和存储介质
CN207233038U (zh) 人脸点名与计数系统
CN110717466B (zh) 一种基于人脸检测框回归安全帽位置的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant