CN108460358A - 基于视频流数据的安全帽识别方法 - Google Patents

基于视频流数据的安全帽识别方法 Download PDF

Info

Publication number
CN108460358A
CN108460358A CN201810227036.1A CN201810227036A CN108460358A CN 108460358 A CN108460358 A CN 108460358A CN 201810227036 A CN201810227036 A CN 201810227036A CN 108460358 A CN108460358 A CN 108460358A
Authority
CN
China
Prior art keywords
safety cap
color
human body
picture
video stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810227036.1A
Other languages
English (en)
Inventor
杨贤文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Beite Granville System Co Ltd
Original Assignee
Wuhan Beite Granville System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Beite Granville System Co Ltd filed Critical Wuhan Beite Granville System Co Ltd
Priority to CN201810227036.1A priority Critical patent/CN108460358A/zh
Publication of CN108460358A publication Critical patent/CN108460358A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于视频流数据的安全帽识别方法,包括以下步骤:视频流数据获取;活动目标提取;人体目标匹配;头部定位;安全帽颜色匹配;安全帽规定颜色匹配;安全帽轮廓匹配。本发明采用基于视频流数据的安全帽识别方法,突破了单一的检测手段,结合了活动目标检测、人体目标匹配、头部定位、安全帽颜色及轮廓比对技术,大大提高了安全帽的识别率,利用本发明涉及的方法,可以实现对施工现场的作业人员安全帽佩戴状况的自动识别检测,防止未佩戴安全帽或者佩戴安全帽颜色错误的人员进入施工区域,替代人工巡视督导的传统模式,节省人力,并辅助各级施工区安全监管单位进行施工区智能化监管,提高施工区安全监管信息化水平。

Description

基于视频流数据的安全帽识别方法
技术领域
本发明涉及数字视频智能分析技术领域,尤其涉及一种基于视频流数据的安全帽识别方法,是一种用于各类工作现场人员的安全帽防护措施的保障和检测、识别预警的技术。
背景技术
目前主要的检测目标手段,有以下几类:
一是基于知识的安全帽检测方法,如模板匹配、人脸特征、形状与边缘、纹理特性、颜色特征。基于HOG(梯度直方图)特征的应用就是一种经典的模式。
二是基于统计的安全帽检测方法,如主成分分析与安全帽特征、神经网络方法、支持向量机、隐马尔可夫模型、Adaboost算法等。类HAAR分类器作为机器视觉的基本算法,也被工业界广泛的采用。所谓分类器,在这里就是指对安全帽和非安全帽进行分类的算法,在机器学习领域,很多算法都是对事物进行分类、聚类的过程。OpenCV中的ML机器学习模块提供了很多分类、聚类的算法,已经在实际工程中大量使用。
三是基于射频标签等传感器的方法,识别是否佩戴了安全帽。《一种安全帽、安全帽佩戴状态监控方法及系统》,它对于最关注的人本身的安全保障并不够,而且使用中安全帽因为遗失,损坏,更换等因素,造成使用和维护这套系统的代价较高,缺少市场应用的成本优势。
现有的机器学习方法针对安全帽的识别方法,局限在特定测试集下表现尚可,但对于实际广泛使用的场景下,会出现不适应,表现为无法检测,或将类似颜色背景视为安全帽的误检测情况。
使用静态分类检测器方法,以《一种基于视频分析的人员安全帽佩戴情况实时检测方法》,它使用的viola-Jones检测器,在现场使用中由于误识别人,会导致基于此对象判断的结果出现误判。
使用动态视频流检测活动的人目标,再进行安全帽识别的方法,例如《施工现场安全帽佩戴情况监控方法》,比较静态分类检测器方法,增加了活动目标,降低了静态类似目标的干扰。有利提升检测目标人判断的准确率,但对于安全帽的多种场景下的适应,还不够。而且在真实的部署中,RGB颜色空间表示,对于光照亮度的变化极度敏感,并不能通过相对稳定的阈值反映出安全帽的颜色。由于其值阈变化范围不确定,导致在实际应用中,不同场景都要单独调试,造成使用成本和维护成本增加。难以在市场中进行批量应用。
分析现有的安全帽识别方法,基本上从状态传感器、射频标签、静态图片安全帽特征识别、动态视频安全帽识别加以分类。主要的技术问题,是使用中实际场景的普遍的适用性不足,导致使用成本、实施和维护成本高,难以转化为产品提供给用户。
发明内容
为了解决上述背景技术中提出的问题,本发明的目的是提出了基于视频流数据的安全帽识别方法,可以实现对施工现场的作业人员安全帽佩戴状况的自动识别检测,防止未佩戴安全帽或者佩戴安全帽颜色错误的人员进入施工区域。
为实现上述目的,本发明采取的技术方案为:
基于视频流数据的安全帽识别方法,包括以下步骤:
步骤一、视频流数据获取
在施工现场中作业人员的活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行逐帧解码,转化为Lab空间表示,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;其中,TH值采用自适应算法确定,即计算每个像素的3帧图像间帧间差的平均值与标准差的和,作为比较的标准TH;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的目标质心坐标的位置像素大于i个像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相似度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1],M值越大,表示目标为人的可能性越高;
步骤四、头部定位
对在步骤三中获取的有人体目标的前景图片继续进行提取,并截取所述前景图片中Y坐标最大值的30%矩形区域为头肩区域,该头肩区域作为下一步的安全帽匹配区;
步骤五、安全帽颜色匹配
通过Lab颜色算法对步骤四中截取到的头肩区域图片进行颜色还原,并通过对区块的监测将相近的同类颜色点进行合并连接;若未监测到红、黄、蓝、白色块或合并后的红、黄、蓝、白色块区域小于S像素,则直接忽略,并返回步骤二;若监测到红、黄、蓝、白色块和/或合并后的红、黄、蓝、白色块区域大于S像素,则判断头肩区域图片与安全帽颜色匹配,进入下一步;其中,S像素为不同分辨率下安全帽最小像素要求值,在1080×720的分辨率下,S像素调整范围为100~1600个像素,对应于10×10~40×40像素的矩形;
步骤六、安全帽规定颜色匹配
提取步骤五中获得的安全帽颜色匹配的头肩区域图片中的颜色值,比对通过事先用户提供的不同颜色的安全帽模板图片的Lab空间表示范围值(Lmin,Lmax,amin,amax,bmin,bmax),获取当前的是属于哪种模板颜色,并判断该颜色与该施工区域规定佩戴的安全帽颜色是否相一致;
步骤七、安全帽轮廓匹配
将步骤六中获取到的安全帽规定颜色匹配的头肩区域图片与安全帽轮廓特征模型进行安全帽轮廓匹配,若相似度大于L则判断为佩戴符合规定的安全帽类型,反之则判断为佩戴不符合规定的安全帽类型;阈值L的取值范围是[0,1],精度要求越高,则越接近1。
上述技术方案中,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人员图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于置信度U,则判断前景图片中有人体目标;置信度U=[0,1],U越高表明目标越符合人体特征。
上述技术方案中,步骤六中所述安全帽轮廓特征模型是通过SVM训练器训练和识别得到的,其具体方法为:
训练时,输入大量正确安全帽图片为正样本,输入大量毛线帽、鸭舌帽、棒球帽为负样本,通过SVM训练器进行训练并得到安全帽轮廓特征模型;
识别时,输入与安全帽颜色匹配的头肩区域图片,通过与安全帽颜色匹配的头肩区域图片与SVM训练器中的安全帽轮廓特征模型进行识别匹配,若相似度大于V,则判断为符合规定的安全帽类型。
上述技术方案中,步骤五中,在1080×720的分辨率下,S像素调整范围为400个像素,对应于20×20像素的矩形。
上述技术方案中,步骤七中,所述阈值L的经验值取0.4。
与现有技术相比,本发明的有益效果在于:
本发明通过人体目标匹配和头部定位,避免了现有技术中人脸识别出现的误检;通过安全帽颜色以及安全帽正确颜色确定是否为安全帽的颜色以及该颜色是否为该施工区域所规定佩戴的安全帽颜色;同时考虑到作业人员可能佩戴其它帽子如鸭舌帽、毛线帽等,本发明进一步对安全帽轮廓进行匹配,大大提高了安全帽的识别率,满足普通场景下的实用、廉价、稳定、可靠的要求。
本发明采用基于视频流数据的安全帽识别方法,突破了单一的检测手段,结合了活动目标检测、人体目标匹配、头部定位、安全帽颜色及轮廓比对技术,大大提高了安全帽的识别率,利用本发明涉及的方法,可以实现对施工现场的作业人员安全帽佩戴状况的自动识别检测,防止未佩戴安全帽或者佩戴安全帽颜色错误的人员进入施工区域,替代人工巡视督导的传统模式,节省人力,并辅助各级施工区安全监管单位进行施工区智能化监管,提高施工区安全监管信息化水平。
附图说明
图1为本发明提供的基于视频流数据的安全帽识别方法的流程图;
图2为本发明所述的人体特征模型通过神经网络模型训练分类器训练和识别的流程图;
图3为本发明所述的安全帽轮廓特征模型通过SVM训练器训练和识别的流程图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步的详细描述:
如图1至图3所示,本发明公开了一种基于视频流数据的安全帽识别方法,包括以下步骤:
步骤一、视频流数据获取
在施工现场中作业人员的活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行逐帧解码,转化为Lab空间表示,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;其中,TH值采用自适应算法确定,即计算每个像素的3帧图像间帧间差的平均值与标准差的和,作为比较的标准TH;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现(N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏),则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的目标质心坐标的位置像素大于i个像素点(i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏),则判断为持续运动,得到活动目标的前景图片;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相似度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1]M值越大,表示目标为人的可能性越高;
步骤四、头部定位
对在步骤三中获取的有人体目标的前景图片继续进行提取,并截取所述前景图片中Y坐标最大值的30%矩形区域为头肩区域,该头肩区域作为下一步的安全帽匹配区;
步骤五、安全帽颜色匹配
通过Lab颜色算法对步骤四中截取到的头肩区域图片进行颜色还原,并通过对区块的监测将相近的同类颜色点进行合并连接;若未监测到红、黄、蓝、白色块或合并后的红、黄、蓝、白色块区域小于S像素,则直接忽略,并返回步骤二;若监测到红、黄、蓝、白色块和/或合并后的红、黄、蓝、白色块区域大于S像素,则判断头肩区域图片与安全帽颜色匹配,进入下一步;其中,S像素为不同分辨率下安全帽最小像素要求值,在1080×720的分辨率下,S像素调整范围为100~1600个像素,对应于10×10~40×40像素的矩形;优选的,S像素调整范围为400个像素,对应于20×20像素的矩形;
步骤六、安全帽规定颜色匹配
提取步骤五中获得的安全帽颜色匹配的头肩区域图片中的颜色值,比对通过事先用户提供的不同颜色的安全帽模板图片的Lab空间表示范围值(Lmin,Lmax,amin,amax,bmin,bmax),(Lmin,Lmax,amin,amax,bmin,bmax)中的这六组值表示一种颜色模板,获取当前的是属于哪种模板颜色,并判断该颜色与该施工区域规定佩戴的安全帽颜色是否相一致;
步骤七、安全帽轮廓匹配
将步骤六中获取到的安全帽规定颜色匹配的头肩区域图片与安全帽轮廓特征模型进行安全帽轮廓匹配,若相似度大于L则判断为佩戴符合规定的安全帽类型,反之则判断为佩戴不符合规定的安全帽类型;阈值L的取值范围是[0,1],精度要求越高,则越接近1。优选的所述阈值L的经验值取0.4。
如图2所示,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人员图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于置信度U,则判断前景图片中有人体目标;置信度U=[0,1],U越高表明目标越符合人体特征。
如图3所示,步骤六中所述安全帽轮廓特征模型是通过SVM训练器训练和识别得到的,其具体方法为:
训练时,输入大量正确安全帽图片为正样本,输入大量毛线帽、鸭舌帽、棒球帽为负样本,通过SVM训练器进行训练并得到安全帽轮廓特征模型;
识别时,输入与安全帽颜色匹配的头肩区域图片,通过与安全帽颜色匹配的头肩区域图片与SVM训练器中的安全帽轮廓特征模型进行识别匹配,若相似度大于V,则判断为符合规定的安全帽类型。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围中。

Claims (5)

1.基于视频流数据的安全帽识别方法,其特征在于,包括以下步骤:
步骤一、视频流数据获取
在施工现场中作业人员的活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行逐帧解码,转化为Lab空间表示,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;其中,TH值采用自适应算法确定,即计算每个像素的3帧图像间帧间差的平均值与标准差的和,作为比较的标准TH;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的目标质心坐标的位置像素大于i个像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中判断为活动目标的前景图片与人体特征模型进行匹配,若大于相似度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1],M值越大,表示目标为人的可能性越高;
步骤四、头部定位
对在步骤三中获取的有人体目标的前景图片继续进行提取,并截取所述前景图片中Y坐标最大值的30%矩形区域为头肩区域,该头肩区域作为下一步的安全帽匹配区;
步骤五、安全帽颜色匹配
通过Lab颜色算法对步骤四中截取到的头肩区域图片进行颜色还原,并通过对区块的监测将相近的同类颜色点进行合并连接;若未监测到红、黄、蓝、白色块或合并后的红、黄、蓝、白色块区域小于S像素,则直接忽略,并返回步骤二;若监测到红、黄、蓝、白色块和/或合并后的红、黄、蓝、白色块区域大于S像素,则判断头肩区域图片与安全帽颜色匹配,进入下一步;其中,S像素为不同分辨率下安全帽最小像素要求值,在1080×720的分辨率下,S像素调整范围为100~1600个像素,对应于10×10~40×40像素的矩形;
步骤六、安全帽规定颜色匹配
提取步骤五中获得的安全帽颜色匹配的头肩区域图片中的颜色值,比对通过事先用户提供的不同颜色的安全帽模板图片的Lab空间表示范围值(Lmin,Lmax,amin,amax,bmin,bmax),获取当前的是属于哪种模板颜色,并判断该颜色与该施工区域规定佩戴的安全帽颜色是否相一致;
步骤七、安全帽轮廓匹配
将步骤六中获取到的安全帽规定颜色匹配的头肩区域图片与安全帽轮廓特征模型进行安全帽轮廓匹配,若相似度大于L则判断为佩戴符合规定的安全帽类型,反之则判断为佩戴不符合规定的安全帽类型;阈值L的取值范围是[0,1],精度要求越高,则越接近1。
2.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于:步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人员图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于置信度U,则判断前景图片中有人体目标;置信度U=[0,1],U越高表明目标越符合人体特征。
3.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于,步骤六中所述安全帽轮廓特征模型是通过SVM训练器训练和识别得到的,其具体方法为:
训练时,输入大量正确安全帽图片为正样本,输入大量毛线帽、鸭舌帽、棒球帽为负样本,通过SVM训练器进行训练并得到安全帽轮廓特征模型;
识别时,输入与安全帽颜色匹配的头肩区域图片,通过与安全帽颜色匹配的头肩区域图片与SVM训练器中的安全帽轮廓特征模型进行识别匹配,若相似度大于V,则判断为符合规定的安全帽类型。
4.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于:步骤五中,在1080×720的分辨率下,S像素调整范围为400个像素,对应于20×20像素的矩形。
5.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于:步骤七中,所述阈值L的经验值取0.4。
CN201810227036.1A 2018-03-20 2018-03-20 基于视频流数据的安全帽识别方法 Pending CN108460358A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810227036.1A CN108460358A (zh) 2018-03-20 2018-03-20 基于视频流数据的安全帽识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810227036.1A CN108460358A (zh) 2018-03-20 2018-03-20 基于视频流数据的安全帽识别方法

Publications (1)

Publication Number Publication Date
CN108460358A true CN108460358A (zh) 2018-08-28

Family

ID=63237249

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810227036.1A Pending CN108460358A (zh) 2018-03-20 2018-03-20 基于视频流数据的安全帽识别方法

Country Status (1)

Country Link
CN (1) CN108460358A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109670441A (zh) * 2018-12-14 2019-04-23 广东亿迅科技有限公司 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
CN109766869A (zh) * 2019-01-23 2019-05-17 中国建筑第八工程局有限公司 一种基于机器视觉的安全帽佩戴人工智能检测方法
CN110414342A (zh) * 2019-06-24 2019-11-05 台州宏达电力建设有限公司 一种基于视频图像处理技术的运动人体检测识别方法
CN110414339A (zh) * 2019-06-21 2019-11-05 武汉倍特威视系统有限公司 基于视频流数据的审讯室人员近距离接触识别方法
CN110427812A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的煤矿行业行车不行人检测方法
CN110427811A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的人体骨骼化打架识别方法
CN110427808A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的警服识别方法
CN110619314A (zh) * 2019-09-24 2019-12-27 杭州宇泛智能科技有限公司 安全帽检测方法、装置及电子设备
CN110852170A (zh) * 2019-10-12 2020-02-28 北京文安智能技术股份有限公司 一种人员安全帽的检测方法、装置及系统
CN111079731A (zh) * 2019-12-03 2020-04-28 中冶赛迪重庆信息技术有限公司 基于安全帽识别监控系统的配置系统、方法、设备及介质
CN111325132A (zh) * 2020-02-17 2020-06-23 深圳龙安电力科技有限公司 一种智能监控系统
CN111414873A (zh) * 2020-03-26 2020-07-14 广州粤建三和软件股份有限公司 基于安全帽佩戴状态的告警提示方法、装置和告警系统
CN111598015A (zh) * 2020-05-19 2020-08-28 重庆中科云从科技有限公司 一种基于人脸及防护设备的匹配检测方法、系统、设备和介质
CN111639546A (zh) * 2020-05-07 2020-09-08 金钱猫科技股份有限公司 一种基于神经网络的小尺度目标云计算识别方法和装置
CN111931653A (zh) * 2020-08-11 2020-11-13 沈阳帝信人工智能产业研究院有限公司 安全监测方法、装置、电子设备和可读存储介质
CN113283369A (zh) * 2021-06-08 2021-08-20 苏州市伏泰信息科技股份有限公司 一种港口码头作业人员安全防护措施监控系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110314595A1 (en) * 2009-02-18 2011-12-29 Nobumasa Kobayashi Work-mask wearing device and helmet using the same
CN103745226A (zh) * 2013-12-31 2014-04-23 国家电网公司 一种电力设施作业现场人员着装安全检测方法
CN104036575A (zh) * 2014-07-01 2014-09-10 江苏省南京市公路管理处公路科学研究所 施工现场安全帽佩戴情况监控方法
CN104077581A (zh) * 2014-07-21 2014-10-01 国家电网公司 安全帽正确佩戴智能视频识别方法
CN106156765A (zh) * 2016-08-30 2016-11-23 南京邮电大学 基于计算机视觉的安全检测方法
CN106372662A (zh) * 2016-08-30 2017-02-01 腾讯科技(深圳)有限公司 安全帽佩戴的检测方法和装置、摄像头、服务器
CN106503716A (zh) * 2016-09-13 2017-03-15 中国电力科学研究院 一种基于颜色和轮廓特征提取的安全帽识别方法和系统
CN107679524A (zh) * 2017-10-31 2018-02-09 天津天地伟业信息系统集成有限公司 一种基于视频的安全帽佩戴情况的检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110314595A1 (en) * 2009-02-18 2011-12-29 Nobumasa Kobayashi Work-mask wearing device and helmet using the same
CN103745226A (zh) * 2013-12-31 2014-04-23 国家电网公司 一种电力设施作业现场人员着装安全检测方法
CN104036575A (zh) * 2014-07-01 2014-09-10 江苏省南京市公路管理处公路科学研究所 施工现场安全帽佩戴情况监控方法
CN104077581A (zh) * 2014-07-21 2014-10-01 国家电网公司 安全帽正确佩戴智能视频识别方法
CN106156765A (zh) * 2016-08-30 2016-11-23 南京邮电大学 基于计算机视觉的安全检测方法
CN106372662A (zh) * 2016-08-30 2017-02-01 腾讯科技(深圳)有限公司 安全帽佩戴的检测方法和装置、摄像头、服务器
CN106503716A (zh) * 2016-09-13 2017-03-15 中国电力科学研究院 一种基于颜色和轮廓特征提取的安全帽识别方法和系统
CN107679524A (zh) * 2017-10-31 2018-02-09 天津天地伟业信息系统集成有限公司 一种基于视频的安全帽佩戴情况的检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
丁红军等: "《视频侦查》", 31 October 2015, 中国人民公安大学出版社 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109670441B (zh) * 2018-12-14 2024-02-06 广东亿迅科技有限公司 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
CN109670441A (zh) * 2018-12-14 2019-04-23 广东亿迅科技有限公司 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
CN109766869A (zh) * 2019-01-23 2019-05-17 中国建筑第八工程局有限公司 一种基于机器视觉的安全帽佩戴人工智能检测方法
CN110414339A (zh) * 2019-06-21 2019-11-05 武汉倍特威视系统有限公司 基于视频流数据的审讯室人员近距离接触识别方法
CN110427812A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的煤矿行业行车不行人检测方法
CN110427811A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的人体骨骼化打架识别方法
CN110427808A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的警服识别方法
CN110414342A (zh) * 2019-06-24 2019-11-05 台州宏达电力建设有限公司 一种基于视频图像处理技术的运动人体检测识别方法
CN110619314A (zh) * 2019-09-24 2019-12-27 杭州宇泛智能科技有限公司 安全帽检测方法、装置及电子设备
CN110852170A (zh) * 2019-10-12 2020-02-28 北京文安智能技术股份有限公司 一种人员安全帽的检测方法、装置及系统
CN111079731A (zh) * 2019-12-03 2020-04-28 中冶赛迪重庆信息技术有限公司 基于安全帽识别监控系统的配置系统、方法、设备及介质
CN111325132A (zh) * 2020-02-17 2020-06-23 深圳龙安电力科技有限公司 一种智能监控系统
CN111414873A (zh) * 2020-03-26 2020-07-14 广州粤建三和软件股份有限公司 基于安全帽佩戴状态的告警提示方法、装置和告警系统
CN111639546A (zh) * 2020-05-07 2020-09-08 金钱猫科技股份有限公司 一种基于神经网络的小尺度目标云计算识别方法和装置
CN111598015A (zh) * 2020-05-19 2020-08-28 重庆中科云从科技有限公司 一种基于人脸及防护设备的匹配检测方法、系统、设备和介质
CN111931653A (zh) * 2020-08-11 2020-11-13 沈阳帝信人工智能产业研究院有限公司 安全监测方法、装置、电子设备和可读存储介质
CN113283369A (zh) * 2021-06-08 2021-08-20 苏州市伏泰信息科技股份有限公司 一种港口码头作业人员安全防护措施监控系统及方法

Similar Documents

Publication Publication Date Title
CN108460358A (zh) 基于视频流数据的安全帽识别方法
CN108319934A (zh) 基于视频流数据的安全帽佩戴情况检测方法
CN106295551B (zh) 一种基于视频分析的人员安全帽佩戴情况实时检测方法
CN109522793B (zh) 基于机器视觉的多人异常行为检测与识别方法
CN107133564B (zh) 一种工装工帽检测方法
CN110837784B (zh) 一种基于人体头部特征的考场偷窥作弊检测系统
Rongben et al. Monitoring mouth movement for driver fatigue or distraction with one camera
CN100354875C (zh) 基于人脸检测的红眼去除方法
US7620216B2 (en) Method of tracking a human eye in a video image
CN112396658B (zh) 一种基于视频的室内人员定位方法及定位系统
CN106446926A (zh) 一种基于视频分析的变电站工人安全帽佩戴检测方法
CN107480658A (zh) 基于多角度视频的人脸识别装置和方法
CN104951773A (zh) 一种实时人脸识别监视系统
CN103279737B (zh) 一种基于时空兴趣点的打架行为检测方法
CN110378179B (zh) 基于红外热成像的地铁逃票行为检测方法及系统
CN106682578B (zh) 基于眨眼检测的弱光人脸识别方法
CN103942539B (zh) 一种人头部椭圆精确高效提取及遮蔽人脸检测方法
CN111898514A (zh) 一种基于目标检测与动作识别的多目标视觉监管方法
CN106503716A (zh) 一种基于颜色和轮廓特征提取的安全帽识别方法和系统
KR100954835B1 (ko) 얼굴변화 검출 시스템 및 얼굴변화 감지에 따른 지능형 시스템
CN104616438A (zh) 一种用于疲劳驾驶检测的打哈欠动作检测方法
CN105844245A (zh) 一种伪装人脸检测方法及系统
CN107103617A (zh) 基于光流法的安全帽佩戴状态识别方法及系统
CN105893963B (zh) 一种筛选视频中单个行人目标的最佳易识别帧的方法
CN109409289A (zh) 一种电力作业安全监督机器人安全作业识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180828

RJ01 Rejection of invention patent application after publication