CN109447168A - 一种基于深度特征和视频目标检测的安全帽佩戴检测方法 - Google Patents

一种基于深度特征和视频目标检测的安全帽佩戴检测方法 Download PDF

Info

Publication number
CN109447168A
CN109447168A CN201811306275.2A CN201811306275A CN109447168A CN 109447168 A CN109447168 A CN 109447168A CN 201811306275 A CN201811306275 A CN 201811306275A CN 109447168 A CN109447168 A CN 109447168A
Authority
CN
China
Prior art keywords
frame
feature
video
key frame
present frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811306275.2A
Other languages
English (en)
Inventor
邓杨敏
李�亨
吕继团
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu De Shao Mdt Infotech Ltd
Original Assignee
Jiangsu De Shao Mdt Infotech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu De Shao Mdt Infotech Ltd filed Critical Jiangsu De Shao Mdt Infotech Ltd
Priority to CN201811306275.2A priority Critical patent/CN109447168A/zh
Publication of CN109447168A publication Critical patent/CN109447168A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Abstract

本发明公开了一种基于深度特征和视频目标检测的安全帽佩戴检测方法,包括以下步骤:视频数据采集;数据标注:针对Step 1采集的数据进行人工标注;数据集准备:数据集组成包括划分后的训练集、测试集以及验证集,每一个集合中包含的是原始视频对应的图片,特别的训练集和验证集还包含每一张图片对应的标注数据;网络构建和训练:对输入视频中的关键帧提取特征,将关键帧提取的特征传递给不同的相邻帧;利用光流将关键帧特征传递并复用给当前帧的特征;目标分类和位置框预测;网络训练:每个感兴趣区域的损失函数为交叉熵损失与边界框回归损失的和。

Description

一种基于深度特征和视频目标检测的安全帽佩戴检测方法
技术领域
本发明涉及一种基于深度特征和视频目标检测的安全帽佩戴检测方法,尤其涉及一种施工场景下的安全帽佩戴检测方法。
背景技术
实际的施工场景下安全事故频发,造成大量的人员和财产损失。安全帽能够有效的保护施工人员的头部,特别是减少可能存在的高空坠物带来的伤害程度。施工人员是否安全帽检测以及后续的跟踪报警对于安全生产意义重大。在工地监控中,主要依靠人力观察监视画面或安排人员定期巡查来检测安全帽的佩戴情况,大规模工地需要相当数量的监控人员才能实现所有的监视画面或巡查较大的施工区域,存在严重的人力浪费,监控人员也会因为疲劳遗漏异常画面。因此,需要一个有效的低人力成本且结果准确的检测方法来发现施工人员未佩戴安全帽就上岗作业的现象并及时报警。
随着计算机视觉技术的不断发展,基于视频分析的安全帽检测也受到越来越多人的关注。经过检索,中国专利申请,申请号201610641223.5,公开日2017年1月4日,公开了一种基于视频分析的人员安全帽佩戴情况实时检测方法,首先从监测区域的摄像头中实时读取采集到的视频帧,然后对当前帧的图像利用检测器进行分类以识别人体上半身,定位检测到的人体目标的上半身最高点位置并以最高点为基准点提取相应的区域,最后根据颜色特征判断该图像区域的颜色从而判断被检测人员是否佩戴安全帽。另外,中国专利申请号201610778655.0,公开日2017年2月1日,通过训练人体位置模型提取安全帽所在区域,训练人头安全帽联合检测模型检测区域判断是否佩戴安全帽。现有的安全帽检测方法主要都是首先提取头部区域在设计不同的算法检测区域中是否含有安全帽,这类方法一定程度上能够降低背景环境对安全帽检测的影响,但是提取人体头部区域需花费较多的时间,影响了检测的实时性;基于安全帽颜色来判断是否佩戴安全帽,缺乏鲁棒性,不能适应复杂的环境。
发明内容
针对以上问题,本发明提供了一种施工场景下基于视频的安全帽深度特征提取,施工场景下基于视频的不同颜色安全帽佩戴检测,施工场景下基于视频的安全帽检测实时性的基于深度特征和视频目标检测的安全帽佩戴检测方法。
为了以上问题,本发明采用了如下技术方案:一种基于深度特征和视频目标检测的安全帽佩戴检测方法,其特征在于,包括以下步骤:
Step1视频数据采集
基于施工现场摄像头采集的MP4格式的视频数据实现,数据采集的对象是施工现场佩戴或未佩戴安全帽的工作人员;
Step2数据标注
针对Step 1采集的数据进行人工标注;人工将输入视频每一帧中的安全帽通过最小外接矩形标出,记录该图像在视频序列中的帧号,记录框中目标的类别(如安全帽),记录图片中最小外接矩形的左上角和右下角坐标;数据记录标注的格式与pascal voc格式相同;
Step3数据集准备
将原始视频按7:1:2的比例随机划分为训练集、测试集和验证集,以Step2中对应视频的标注图像数据分别替换训练集、测试集和验证集中的视频,替换时使用视频对应的所有标注视频帧替换原视频;最后的数据集组成包括划分后的训练集、测试集以及验证集,每一个集合中包含的是原始视频对应的图片,特别的训练集和验证集还包含每一张图片对应的标注数据;
Step4网络构建和训练
Step4-1特征提取
如果对视频中的每一帧都提取特征进行检测,时间上的开销是巨大的;视频中的连续帧内容是高度相关的,在卷积神经网络特征图中这种相似性表现的更明显,因此只对输入视频中的关键帧提取特征,将关键帧提取的特征传递给不同的相邻帧;
Step4-2特征映射
直接复用和传递关键帧的特征信息给相邻帧,虽然会提高速度但是最终的检测精度损失严重,因此利用光流将关键帧特征传递并复用给当前帧的特征;
Step4-3目标分类和位置框预测
对于Step4-1提取的特征,使用区域建议网络(Region Proposal Network,RPN)生成候选区域,区域建议网络是一个全卷积网络,使用大小为3*3的卷积核遍历(滑动步长为1)提取的特征图。为每个滑动窗口的中心设计9种长宽组合,相应的产生9个大概率含有目标的预测框。使用2次卷积核大小为1*1,滑动步长为1的卷积操作来实现全连接,训练回归模型预测目标位置,训练分类模型判别目标类别。对于k个特征点,最终输出得到2k(背景+目标两类)个分类概率,4k个坐标数据(矩形框左上角顶点x,y坐标以及矩形框的长和宽);在此基础上使用基于区域的全卷积网络检测物体(Region-based Fully ConvolutionalNetworks,R-FCN)对候选区域进行分类;R-FCN最后1个卷积层输出从整幅图像的卷积响应图像中分割出的感兴趣区域的卷积响应图像,即对R-FCN的卷积响应图像按RPN的结果分割出来感兴趣区域;将单通道的感兴趣区域分成k×k的网格,对每个网格平均池化,然后所有通道再平均池化;在整幅图像上为每类生成k2(k2对应描述位置的空间网格数)个位置敏感分数图;对于待识别的物体类别数C外加1个背景,因此共有k2(C+1)个通道的输出层。
Step4-4网络训练
每个感兴趣区域的损失函数为交叉熵损失与边界框回归损失的和,计算方法如公式(6)所示:
其中,λ表示一个加权平均参数,S表示所有感兴趣区域的分类得分,表示某一个类的分类得分,c*>0表示感兴趣区域的真实标签为类别c,t和t*代指tx,y,w,h和t* x,y,w,h,分别表示预测框和真实标注框的左上顶点的坐标值,宽和长。
所述的Step4-1特征提取的主要流程为:(1)判断输入视频流中当前帧是否为关键帧(视频中目标动作的转折帧就是关键帧,一般取一个动作的起始和结束位置作为关键帧,其他的连接转折动作的的帧就是中间帧);(2)若为关键帧,则将关键帧送入特征提取网络中提取关键帧的特征(2)如果不是,则复用当前帧的前一个关键帧的特征,特征复用的方法是将前一个关键帧的特征传递给当前帧,将当前帧前一个关键帧的特征作为当前帧的特征;(3)将每一帧(输入视频的全部视频帧)的特征传送到目标检测网络进行类别判别和目标位置预测。所述Step4-2特征映射的主要流程如下:Step4-2-1光流计算:对应的二维流场Mi→k中(即当前帧i到关键帧k),对于特征点p的映射描述为变化量δp,即p→p+δp(箭头表示映射,该式表示关键帧的特征点p映射到当前帧的特征点p+δp);利用FlowNet(FlowNet:Learning Optical Flow with Convolutional Network)计算当前帧i到i前一个关键帧k的光流δp,计算方法如公式(1)所示:
Mi→k=F(Ik,Ii),δp=Mi→k(p) (1)
其中,Ii表示当前帧,Ik表示当前帧的前一个关键帧。
Step4-2-2当前帧特征图计算:对于当前帧i的特征图,特征图上的每一个特征点p,如表述的值,都对应于关键帧k的特征图上的p+δp的值;通过双线性插值计算得到关键帧k上δp的值,即对于p+δp周围的四个整数点像素值进行插值计算,如公式(2)所示:
其中,c表示特征图f的通道数,i和k分别表示当前帧和关键帧,δp表示关键帧k特征图上位置p(对应x和y两个坐标值)到当前帧i的对应位置的光流,q(对应x和y两个坐标值)表示当前帧i上对于关键帧位置p对应的位置q,G表示双线性插值的内核,G分为两个一维内核g,如公式(3)所示:
其中,g表示G对应的一维内核,a和b分别表示g输入的两个参数,qx表示当前帧i上对于关键帧位置p对应的位置q的x坐标值,px表示当前帧i上位置p的x坐标值,表示当前帧i到i前面的关键帧k的位置p的x坐标值的光流。
所述Step4-3目标分类和位置框预测具体操作如下:对1个宽和长分别为w和h的感兴趣区域,将单通道的感兴趣区域分成k×k的网格,定义一个bin的大小为对第(i,j)个bin(其中0≤i,j≤k-1),敏感感兴趣区域的池化操作计算方法如公式(4)所示:
其中,rc(i,j|θ)为第c类第(i,j)个bin的池化响应,zi,j,c为k2(C+1)个分数图中的输出,(x0,y0)感兴趣区域的左上角坐标,n为bin中的像素总数,且θ为网络的参数;
对于感兴趣区域每类的所有相对空间位置的分数平均池化使用Softmax回归分类,计算方法如公式(5)所示,其中rc(i,j|θ)为第c类第(i,j)个bin的池化响应:
rcθ=∑i,jrc(i,j|θ) (5)
在k2(C+1)维的卷积层后,增加1个4*k2维的卷积层来回归边界框实现位置框的预测,最终输出1个4维向量(tx,ty,tw,th),其中tx,ty分别表示预测框左上角顶点的坐标,tw,th分别表示预测框的宽和长。
本发明与现有技术相对,具有以下有益效果:本发明通过卷积神经网络提取视频中安全帽的深度高维特征,实现了施工场景下基于视频流的安全帽的有效特征表示。本发明基于视频流中相邻帧之间的上下文信息,安全帽的有效特征表示对于颜色信息有较好的延拓性,能够实现施工场景下基于视频的不同颜色安全帽佩戴检测。本发明只对关键帧进行特征提取,避免了对冗余帧的特征提取,实现了特征图在帧间的传递和复用,大大提高了特征提取和目标检测花费的时间,实现了施工场景下基于监控视频的安全帽佩戴情况实施检测。
附图说明
图1为RPN网络结构示意图。
具体实施方式
以真实施工现场的安全帽佩戴情况检查为例,具体的实施方式如下所述:
硬件设备:
A.摄像头(品牌:萤石型号:CS-C3WN)
B.处理平台
处理平台为AMAX的PSC-HB1X深度学习工作站,处理器为Inter(R)E5-2600v3,主频为2.1GHZ,内存为128GB,硬盘大小为1TB,显卡型号为GeForce GTX Titan X。运行环境为:Ubuntu 16.0.4,Python 2.7。或其他的性能相当的计算机。
Step1视频数据采集
本方法基于施工现场摄像头采集的MP4格式的视频数据实现,摄像头距离地面约3米,摄像机镜头与水平面夹角约为45度。截取获取视频中包含佩戴安全帽施工人员的部分,保证施工人员处于视频画面中间且整体画面相对清晰。
Step2数据标注
针对Step 1采集的数据进行人工标注。人工将输入视频每一帧中的安全帽通过最小外接矩形标出,记录该图像在视频序列中的帧号,记录框中目标的类别(如安全帽),记录图片中最小外接矩形的左上角和右下角坐标。数据记录标注的格式与pascal voc格式相同。
Step3数据集准备
针对采集的原始视频,按7:1:2的比例随机选取其中415段用于训练,61段用于验证,124段用于测试。以步骤2中对应视频的标注图像数据分别替换训练集、测试集和验证集中的视频,替换规则为使用某视频对应的所有标注视频帧替换数据集中的该视频。最后的数据集组成包括划分后的训练集、测试集以及验证集,每一个集合中包含的是原始视频对应的标注图片,特别的训练集和验证集还包含图片对应的标注信息。保证最终数据集格式与ILSVRC2015-VID数据集一致。
Step4网络构建和训练
Step4-1特征提取
对输入视频中的关键帧提取特征,将关键帧提取的特征传递给不同的相邻帧;
特征提取的主要流程为:(1)判断输入视频流中当前帧是否为关键帧;(2)若为关键帧,则将关键帧送入特征提取网络中提取关键帧的特征(2)如果不是,则复用当前帧的前一个关键帧的特征,特征复用的方法是将前一个关键帧的特征传递给当前帧,将当前帧前一个关键帧的特征作为当前帧的特征;(3)将每一帧的特征传送到目标检测网络进行类别判别和目标位置预测。
Step4-2特征映射
利用光流将关键帧特征传递并复用给当前帧的特征;
特征映射的主要流程如下:
Step4-2-1光流计算:对应的二维流场Mi→k中(即当前帧i到关键帧k),对于特征点p的映射描述为变化量δp,即p→p+δp(箭头表示映射,该式表示关键帧的特征点p映射到当前帧的特征点p+δp);利用FlowNet(FlowNet:Learning Optical Flow with ConvolutionalNetwork)计算当前帧i到i前一个关键帧k的光流δp,计算方法如公式(1)所示:
Mi→k=F(Ik,Ii),δp=Mi→k(p) (1)
其中,Ii表示当前帧,Ik表示当前帧的前一个关键帧;
Step4-2-2当前帧特征图计算:对于当前帧i的特征图,特征图上的每一个特征点p,如表述的值,都对应于关键帧k的特征图上的p+δp的值;通过双线性插值计算得到关键帧k上δp的值,即对于p+δp周围的四个整数点像素值进行插值计算,如公式(2)所示:
其中,c表示特征图f的通道数,i和k分别表示当前帧和关键帧,δp表示关键帧k特征图上位置p(对应x和y两个坐标值)到当前帧i的对应位置的光流,q(对应x和y两个坐标值)表示当前帧i上对于关键帧位置p对应的位置q,G表示双线性插值的内核,G分为两个一维内核g,如公式(3)所示:
其中,g表示G对应的一维内核,a和b分别表示g输入的两个参数,qx表示当前帧i上对于关键帧位置p对应的位置q的x坐标值,px表示当前帧i上位置p的x坐标值,表示当前帧i到i前面的关键帧k的位置p的x坐标值的光流。
Step4-3目标分类和位置框预测
对于Step4-1提取的特征,使用区域建议网络(Region Proposal Network,RPN)生成候选区域,RPN网络结构如图1所示(区域建议网络是一个全卷积网络,使用大小为3*3的卷积核遍历(滑动步长为1)提取的特征图。为每个滑动窗口的中心设计9种长宽组合,相应的产生9个大概率含有目标的预测框。使用2次卷积核大小为1*1,滑动步长为1的卷积操作来实现全连接,训练回归模型预测目标位置,训练分类模型判别目标类别。对于k个特征点,最终输出得到2k(背景+目标两类)个分类概率,4k个坐标数据(矩形框左上角顶点x,y坐标以及矩形框的长和宽。)。在此基础上使用基于区域的全卷积网络检测物体(Region-basedFully Convolutional Networks,R-FCN)对候选区域进行分类;R-FCN最后1个卷积层输出从整幅图像的卷积响应图像中分割出的感兴趣区域的卷积响应图像,即对R-FCN的卷积响应图像按RPN的结果分割出来感兴趣区域;将单通道的感兴趣区域分成k×k的网格,对每个网格平均池化,然后所有通道再平均池化;在整幅图像上为每类生成k2(k2对应描述位置的空间网格数)个位置敏感分数图;对于待识别的物体类别数C外加1个背景,因此共有k2(C+1)个通道的输出层。
具体操作如下:对1个宽和长分别为w和h的感兴趣区域,将单通道的感兴趣区域分成k×k的网格,定义一个bin的大小为对第(i,j)个bin(其中0≤1,j≤k-1),敏感感兴趣区域的池化操作计算方法如公式(4)所示:
其中,rc(i,j|θ)为第c类第(i,j)个bin的池化响应,zi,j,c为k2(C+1)个分数图中的输出,(x0,y0)感兴趣区域的左上角坐标,n为bin中的像素总数,且θ为网络的参数;
对于感兴趣区域每类的所有相对空间位置的分数平均池化使用Softmax回归分类,计算方法如公式(5)所示,其中rc(i,j|θ)为第c类第(i,j)个bin的池化响应:
rcθ=∑i,jrc(i,j|θ) (5)
在k2(C+1)维的卷积层后,增加1个4*k2维的卷积层来回归边界框实现位置框的预测,最终输出1个4维向量(tx,ty,tw,th),其中tx,ty分别表示预测框左上角顶点的坐标,tw,th分别表示预测框的宽和长。
Step4-4网络训练
每个感兴趣区域的损失函数为交叉熵损失与边界框回归损失的和,计算方法如公式(6)所示:
其中,λ表示一个加权平均参数,S表示所有感兴趣区域的分类得分,表示某一个类的分类得分,c*>0表示感兴趣区域的真实标签为类别c,t和t*代指tx,y,w,h和t* x,y,w,h,分别表示预测框和真实标注框的左上顶点的坐标值,宽和长。
在实际的实施中,通过编写和部署代码,上述的网络构建的4个分步骤已被融合在一个端到端的网络中,即输入训练数据集将自动进行特征提取、特征映射、分类和位置框预测。
将网络部署在B所述的服务器上。网络训练中首先需要调整网络参数,主要包括修改类别信息为待识别和定位的安全帽(hat),修改网络的预测框类别置信度阈值为0.4,修改预测框大小的最小值为16*16(像素),其余的网络超参数保持默认值。
在训练过程中,对于所有的训练样本首先提取关键帧的特征图,对于非关键帧进行特征复用和特征映射,具体的方法如公式(2)所示。对于提取的特征,使用区域建议网络(Region Proposal Network,RPN)生成候选区域,在此基础上使用基于区域的全卷积网络检测物体(Region-based Fully Convolutional Networks,R-FCN)对候选区域进行分类(公式4),并输出预测框的位置信息。在训练的过程中联合类别损失和预测框偏移损失作为训练的目标损失函数(公式6)。基于上述完整的一次计算过程完成一次训练,当训练次数达到预定阈值或者损失小于预定阈值训练结束。
Step5模型测试
在运行测试代码前,修改测试文件代码中的标签信息存放路径、修改训练完成的安全帽检测模型存放路径、修改测试视频的存放路径,上述路径均依据自身对应数据的存放地址来修改和确定。
测试时输入待检测样本视频,输出为视频中待检测安全帽的类别信息(hat)和定位结果(最小外接矩形预测框的坐标信息),并最终测试视频中可视化的展现出安全帽的预测位置框。
以上所述仅为本发明的优选实施例而已,并不限制于本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (4)

1.一种基于深度特征和视频目标检测的安全帽佩戴检测方法,其特征在于,包括以下步骤:
Step1视频数据采集
基于施工现场摄像头采集的MP4格式的视频数据实现,数据采集的对象是施工现场佩戴或未佩戴安全帽的工作人员;
Step2数据标注
针对Step1采集的数据进行人工标注;人工将输入视频每一帧中的安全帽通过最小外接矩形标出,记录该图像在视频序列中的帧号,记录框中目标的类别,记录图片中最小外接矩形的左上角和右下角坐标;数据记录标注的格式与pascal voc格式相同;
Step3数据集准备
将原始视频按7:1:2的比例随机划分为训练集、测试集和验证集,以Step2中对应视频的标注图像数据分别替换训练集、测试集和验证集中的视频,替换时使用视频对应的所有标注视频帧替换原视频;最后的数据集组成包括划分后的训练集、测试集以及验证集,每一个集合中包含的是原始视频对应的图片,特别的训练集和验证集还包含每一张图片对应的标注数据。
Step4网络构建和训练
Step4-1特征提取
对输入视频中的关键帧提取特征,将关键帧提取的特征传递给不同的相邻帧;
Step4-2特征映射
利用光流将关键帧特征传递并复用给当前帧的特征;
Step4-3目标分类和位置框预测
对于Step4-1提取的特征,使用区域建议网络(Region Proposal Network,RPN)生成候选区域,区域建议网络是一个全卷积网络,使用大小为3*3的卷积核遍历(滑动步长为1)提取的特征图。为每个滑动窗口的中心设计9种长宽组合,相应的产生9个大概率含有目标的预测框。使用2次卷积核大小为1*1,滑动步长为1的卷积操作来实现全连接,训练回归模型预测目标位置,训练分类模型判别目标类别。对于k个特征点,最终输出得到2k(背景+目标两类)个分类概率,4k个坐标数据(矩形框左上角顶点x,y坐标以及矩形框的长和宽);在此基础上使用基于区域的全卷积网络检测物体(Region-based Fully ConvolutionalNetworks,R-FCN)对候选区域进行分类;R-FCN最后1个卷积层输出从整幅图像的卷积响应图像中分割出的感兴趣区域的卷积响应图像,即对R-FCN的卷积响应图像按RPN的结果分割出来感兴趣区域;将单通道的感兴趣区域分成k×k的网格,对每个网格平均池化,然后所有通道再平均池化;在整幅图像上为每类生成k2(k2对应描述位置的空间网格数)个位置敏感分数图;对于待识别的物体类别数C外加1个背景,因此共有k2(C+1)个通道的输出层。
Step4-4网络训练
每个感兴趣区域的损失函数为交叉熵损失与边界框回归损失的和,计算方法如公式(6)所示:
其中,λ表示一个加权平均参数,S表示所有感兴趣区域的分类得分,表示某一个类的分类得分,c*>0表示感兴趣区域的真实标签为类别c,t和t*代指tx,y,w,h和t* x,y,w,h,分别表示预测框和真实标注框的左上顶点的坐标值,宽和长。
2.根据权利要求1所述的一种基于深度特征和视频目标检测的安全帽佩戴检测方法,其特征在于,所述的Step4-1特征提取的主要流程为:(1)判断输入视频流中当前帧是否为关键帧;(2)若为关键帧,则将关键帧送入特征提取网络中提取关键帧的特征(2)如果不是,则复用当前帧的前一个关键帧的特征,特征复用的方法是将前一个关键帧的特征传递给当前帧,将当前帧前一个关键帧的特征作为当前帧的特征;(3)将每一帧的特征传送到目标检测网络进行类别判别和目标位置预测。
3.根据权利要求1所述的一种基于深度特征和视频目标检测的安全帽佩戴检测方法,其特征在于,所述Step4-2特征映射的主要流程如下:
Step4-2-1光流计算:对应的二维流场Mi→k中(即当前帧i到关键帧k),对于特征点p的映射描述为变化量δp,即p→p+δp(箭头表示映射,该式表示关键帧的特征点p映射到当前帧的特征点p+δp);利用FlowNet(FlowNet:Learning Optical Flow with ConvolutionalNetwork)计算当前帧i到i前一个关键帧k的光流δp,计算方法如公式(1)所示:
Mi→k=F(Ik,Ii),δp=Mi→k(p) (1)
其中,Ii表示当前帧,Ik表示当前帧的前一个关键帧;
Step4-2-2当前帧特征图计算:对于当前帧i的特征图,特征图上的每一个特征点p,如表述的值,都对应于关键帧k的特征图上的p+δp的值;通过双线性插值计算得到关键帧k上δp的值,即对于p+δp周围的四个整数点像素值进行插值计算,如公式(2)所示:
其中,c表示特征图f的通道数,i和k分别表示当前帧和关键帧,δp表示关键帧k特征图上位置p(对应x和y两个坐标值)到当前帧i的对应位置的光流,q(对应x和y两个坐标值)表示当前帧i上对于关键帧位置p对应的位置q,G表示双线性插值的内核,G分为两个一维内核g,如公式(3)所示:
G(q,p+δp)=g(qx,px+δpx)·g(qy,py+δpy),where g(a,b)=max(0,|a-b|) (3)
其中,g表示G对应的一维内核,a和b分别表示g输入的两个参数,qx表示当前帧i上对于关键帧位置p对应的位置q的x坐标值,px表示当前帧i上位置p的x坐标值,δpx表示当前帧i到i前面的关键帧k的位置p的x坐标值的光流。
4.根据权利要求1所述的一种基于深度特征和视频目标检测的安全帽佩戴检测方法,其特征在于,所述Step4-3目标分类和位置框预测具体操作如下:对1个宽和长分别为w和h的感兴趣区域,将单通道的感兴趣区域分成k×k的网格,定义一个bin的大小为对第(i,j)个bin(其中0≤1,j≤k-1),敏感感兴趣区域的池化操作计算方法如公式(4)所示:
其中,rc(i,j|θ)为第c类第(i,j)个bin的池化响应,zi,j,c为k2(C+1)个分数图中的输出,(x0,y0)感兴趣区域的左上角坐标,n为bin中的像素总数,且θ为网络的参数;
对于感兴趣区域每类的所有相对空间位置的分数平均池化使用Softmax回归分类,计算方法如公式(5)所示,其中rc(i,j|θ)为第c类第(i,j)个bin的池化响应:
rcθ=∑i,jrc(i,j|θ) (5)
在k2(C+1)维的卷积层后,增加1个4*k2维的卷积层来回归边界框实现位置框的预测,最终输出1个4维向量(tx,ty,tw,th),其中tx,ty分别表示预测框左上角顶点的坐标,tw,th分别表示预测框的宽和长。
CN201811306275.2A 2018-11-05 2018-11-05 一种基于深度特征和视频目标检测的安全帽佩戴检测方法 Pending CN109447168A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811306275.2A CN109447168A (zh) 2018-11-05 2018-11-05 一种基于深度特征和视频目标检测的安全帽佩戴检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811306275.2A CN109447168A (zh) 2018-11-05 2018-11-05 一种基于深度特征和视频目标检测的安全帽佩戴检测方法

Publications (1)

Publication Number Publication Date
CN109447168A true CN109447168A (zh) 2019-03-08

Family

ID=65550852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811306275.2A Pending CN109447168A (zh) 2018-11-05 2018-11-05 一种基于深度特征和视频目标检测的安全帽佩戴检测方法

Country Status (1)

Country Link
CN (1) CN109447168A (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084175A (zh) * 2019-04-23 2019-08-02 普联技术有限公司 一种目标检测方法、目标检测装置及电子设备
CN110096982A (zh) * 2019-04-22 2019-08-06 长沙千视通智能科技有限公司 一种基于深度学习的视频车辆大数据搜索方法
CN110135476A (zh) * 2019-04-28 2019-08-16 深圳市中电数通智慧安全科技股份有限公司 一种个人安全装备的检测方法、装置、设备及系统
CN110188833A (zh) * 2019-06-04 2019-08-30 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110309719A (zh) * 2019-05-27 2019-10-08 安徽继远软件有限公司 一种电网作业人员安全帽佩戴管理控制方法和系统
CN110349070A (zh) * 2019-06-12 2019-10-18 杭州趣维科技有限公司 一种短视频水印检测方法
CN110399905A (zh) * 2019-07-03 2019-11-01 常州大学 施工场景中安全帽佩戴情况的检测及描述方法
CN110502965A (zh) * 2019-06-26 2019-11-26 哈尔滨工业大学 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
CN110738108A (zh) * 2019-09-09 2020-01-31 北京地平线信息技术有限公司 目标物体检测方法、装置、存储介质及电子设备
CN110751155A (zh) * 2019-10-14 2020-02-04 西北工业大学 一种新的基于Faster R-CNN的目标检测方法
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
CN111177460A (zh) * 2019-12-20 2020-05-19 腾讯科技(深圳)有限公司 提取关键帧的方法及装置
CN111200716A (zh) * 2020-01-08 2020-05-26 珠海亿智电子科技有限公司 特征映射缩放的精度补偿方法、系统及存储介质
CN111274930A (zh) * 2020-04-02 2020-06-12 成都鼎安华智慧物联网股份有限公司 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法
CN111507276A (zh) * 2020-04-20 2020-08-07 福建帝视信息科技有限公司 一种基于隐藏层增强特征的工地安全帽检测方法
CN111652128A (zh) * 2020-06-02 2020-09-11 浙江大华技术股份有限公司 一种高空电力作业安全监测方法、系统和存储装置
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN112101297A (zh) * 2020-10-14 2020-12-18 杭州海康威视数字技术股份有限公司 训练数据集确定方法、行为分析方法、装置、系统及介质
CN112257558A (zh) * 2020-10-20 2021-01-22 吉林师范大学 一种基于大数据分析和深度学习的体育运动实时监测方法
CN112380970A (zh) * 2020-11-12 2021-02-19 常熟理工学院 基于局部区域搜索的视频目标检测方法
CN113553979A (zh) * 2021-07-30 2021-10-26 国电汉川发电有限公司 一种基于改进yolo v5的安全服检测方法和系统
CN114283485A (zh) * 2022-03-04 2022-04-05 杭州格物智安科技有限公司 一种安全帽佩戴检测方法、装置、存储介质及安全帽
CN114627425A (zh) * 2021-06-11 2022-06-14 珠海路讯科技有限公司 一种基于深度学习的检测工人是否佩戴安全帽的方法
CN115841651A (zh) * 2022-12-13 2023-03-24 广东筠诚建筑科技有限公司 基于计算机视觉与深度学习的施工人员智能监测系统
CN117035378A (zh) * 2023-10-10 2023-11-10 广州海晟科技有限公司 一种基于物联网的智慧工地管理方法及系统
CN111160440B (zh) * 2019-12-24 2023-11-21 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN117809122A (zh) * 2024-02-29 2024-04-02 北京航空航天大学 一种颅内大血管图像的处理方法、系统、电子设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709453A (zh) * 2016-12-24 2017-05-24 北京工业大学 一种基于深度学习的体育视频关键姿态提取方法
US20180068198A1 (en) * 2016-09-06 2018-03-08 Carnegie Mellon University Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180068198A1 (en) * 2016-09-06 2018-03-08 Carnegie Mellon University Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network
CN106709453A (zh) * 2016-12-24 2017-05-24 北京工业大学 一种基于深度学习的体育视频关键姿态提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIFENG DAI等: "R-FCN: Object Detection via", 《ARXIV.ORG》 *
XIZHOU ZHU等: "Deep Feature Flow for Video Recognition", 《ARXIV.ORG》 *

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110096982A (zh) * 2019-04-22 2019-08-06 长沙千视通智能科技有限公司 一种基于深度学习的视频车辆大数据搜索方法
CN110084175A (zh) * 2019-04-23 2019-08-02 普联技术有限公司 一种目标检测方法、目标检测装置及电子设备
CN110135476A (zh) * 2019-04-28 2019-08-16 深圳市中电数通智慧安全科技股份有限公司 一种个人安全装备的检测方法、装置、设备及系统
CN110309719A (zh) * 2019-05-27 2019-10-08 安徽继远软件有限公司 一种电网作业人员安全帽佩戴管理控制方法和系统
CN110188833A (zh) * 2019-06-04 2019-08-30 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110188833B (zh) * 2019-06-04 2021-06-18 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110349070A (zh) * 2019-06-12 2019-10-18 杭州趣维科技有限公司 一种短视频水印检测方法
CN110502965A (zh) * 2019-06-26 2019-11-26 哈尔滨工业大学 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
CN110399905A (zh) * 2019-07-03 2019-11-01 常州大学 施工场景中安全帽佩戴情况的检测及描述方法
CN110399905B (zh) * 2019-07-03 2023-03-24 常州大学 施工场景中安全帽佩戴情况的检测及描述方法
CN110738108A (zh) * 2019-09-09 2020-01-31 北京地平线信息技术有限公司 目标物体检测方法、装置、存储介质及电子设备
CN110751155A (zh) * 2019-10-14 2020-02-04 西北工业大学 一种新的基于Faster R-CNN的目标检测方法
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN111914636B (zh) * 2019-11-25 2021-04-20 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN111177460A (zh) * 2019-12-20 2020-05-19 腾讯科技(深圳)有限公司 提取关键帧的方法及装置
CN111160440B (zh) * 2019-12-24 2023-11-21 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN111200716A (zh) * 2020-01-08 2020-05-26 珠海亿智电子科技有限公司 特征映射缩放的精度补偿方法、系统及存储介质
CN111200716B (zh) * 2020-01-08 2021-10-26 珠海亿智电子科技有限公司 特征映射缩放的精度补偿方法、系统及存储介质
CN111274930A (zh) * 2020-04-02 2020-06-12 成都鼎安华智慧物联网股份有限公司 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法
CN111507276A (zh) * 2020-04-20 2020-08-07 福建帝视信息科技有限公司 一种基于隐藏层增强特征的工地安全帽检测方法
CN111507276B (zh) * 2020-04-20 2023-04-14 福建帝视信息科技有限公司 一种基于隐藏层增强特征的工地安全帽检测方法
CN111652128A (zh) * 2020-06-02 2020-09-11 浙江大华技术股份有限公司 一种高空电力作业安全监测方法、系统和存储装置
CN111652128B (zh) * 2020-06-02 2023-09-01 浙江大华技术股份有限公司 一种高空电力作业安全监测方法、系统和存储装置
CN112101297A (zh) * 2020-10-14 2020-12-18 杭州海康威视数字技术股份有限公司 训练数据集确定方法、行为分析方法、装置、系统及介质
CN112257558A (zh) * 2020-10-20 2021-01-22 吉林师范大学 一种基于大数据分析和深度学习的体育运动实时监测方法
CN112380970A (zh) * 2020-11-12 2021-02-19 常熟理工学院 基于局部区域搜索的视频目标检测方法
CN114627425A (zh) * 2021-06-11 2022-06-14 珠海路讯科技有限公司 一种基于深度学习的检测工人是否佩戴安全帽的方法
CN113553979B (zh) * 2021-07-30 2023-08-08 国电汉川发电有限公司 一种基于改进yolo v5的安全服检测方法和系统
CN113553979A (zh) * 2021-07-30 2021-10-26 国电汉川发电有限公司 一种基于改进yolo v5的安全服检测方法和系统
CN114283485B (zh) * 2022-03-04 2022-10-14 杭州格物智安科技有限公司 一种安全帽佩戴检测方法、装置、存储介质及安全帽
CN114283485A (zh) * 2022-03-04 2022-04-05 杭州格物智安科技有限公司 一种安全帽佩戴检测方法、装置、存储介质及安全帽
CN115841651A (zh) * 2022-12-13 2023-03-24 广东筠诚建筑科技有限公司 基于计算机视觉与深度学习的施工人员智能监测系统
CN115841651B (zh) * 2022-12-13 2023-08-22 广东筠诚建筑科技有限公司 基于计算机视觉与深度学习的施工人员智能监测系统
CN117035378A (zh) * 2023-10-10 2023-11-10 广州海晟科技有限公司 一种基于物联网的智慧工地管理方法及系统
CN117035378B (zh) * 2023-10-10 2024-02-02 广州海晟科技有限公司 一种基于物联网的智慧工地管理方法及系统
CN117809122A (zh) * 2024-02-29 2024-04-02 北京航空航天大学 一种颅内大血管图像的处理方法、系统、电子设备及介质

Similar Documents

Publication Publication Date Title
CN109447168A (zh) 一种基于深度特征和视频目标检测的安全帽佩戴检测方法
Huang et al. Detection algorithm of safety helmet wearing based on deep learning
CN111967393B (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
CN104134222B (zh) 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN103632158B (zh) 森林防火监控方法及森林防火监控系统
CN107145851A (zh) 建筑作业区危险源智能识别系统
CN105160297B (zh) 基于肤色特征的蒙面人事件自动检测方法
CN106128022B (zh) 一种智慧金睛识别暴力动作报警方法
CN117372880B (zh) 一种基于遥感影像的道路工程监管系统及方法
US11288954B2 (en) Tracking and alerting traffic management system using IoT for smart city
CN112364778A (zh) 一种基于深度学习的电厂安全性行为信息自动检测方法
CN110781806A (zh) 一种基于yolo的行人检测追踪方法
Höferlin et al. Uncertainty-aware video visual analytics of tracked moving objects
CA3081967C (en) Method and system for connected advanced flare analytics
CN114373162B (zh) 用于变电站视频监控的危险区域人员入侵检测方法及系统
CN103049748A (zh) 行为监测方法及装置
CN115829324A (zh) 一种人员安全风险静默监视方法
CN115564031A (zh) 一种用于玻璃缺陷检测的检测网络
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
CN116030373A (zh) 鱼道智能监测系统
Ji et al. Influence of embedded microprocessor wireless communication and computer vision in Wushu competition referees’ decision support
Vanitha et al. A Novel Deep Learning Method for the Identification and Categorization of Footpath Defects based on Thermography
Beiyi et al. Detection and tracking of safety helmet in construction site
CN114693606B (zh) 一种基于行人区域合并的安全设备穿戴检测方法
Ding et al. Roadside Unit Visibility Prediction Method Based on SVR.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190308