CN111414825B - 一种安全帽佩戴检测方法 - Google Patents
一种安全帽佩戴检测方法 Download PDFInfo
- Publication number
- CN111414825B CN111414825B CN202010173961.8A CN202010173961A CN111414825B CN 111414825 B CN111414825 B CN 111414825B CN 202010173961 A CN202010173961 A CN 202010173961A CN 111414825 B CN111414825 B CN 111414825B
- Authority
- CN
- China
- Prior art keywords
- image
- face
- safety helmet
- network
- block diagram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 40
- 238000010586 diagram Methods 0.000 claims abstract description 34
- 238000010276 construction Methods 0.000 claims abstract description 13
- 230000009466 transformation Effects 0.000 claims abstract description 13
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 210000003128 head Anatomy 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000003321 amplification Effects 0.000 claims description 4
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 4
- 210000001061 forehead Anatomy 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims description 2
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 238000009826 distribution Methods 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 230000002441 reversible effect Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract 1
- 238000000844 transformation Methods 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 230000004927 fusion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种安全帽佩戴检测方法,属于涉及图像处理与识别,主要解决的是目前视觉检测安全帽佩戴存在鲁棒性差、适应性差的技术问题,所述检测方法包括:获取施工现场的原始图像,通过图像变换将所述原始图像扩增N倍得到扩增图像;对所述扩增图像标注安全帽信息;将所述原始图像、扩增图像以及安全帽信息输入目标检测网络学习并进行图像特征提取得到人脸特征;根据所述人脸特征得到人脸框图;根据所述人脸框图确定头部区域,并在所述头部区域内进行安全帽检测。本发明在头部区域内进行安全帽检测,使得检测输入图像大大减小,检测区域大大减小,可以有效提高检测效率和准确率,鲁棒性强、适应性好。
Description
技术领域
本发明涉及图像处理与识别,更具体地说,它涉及一种安全帽佩戴检测方法。
背景技术
被坠落的物体击中是所有工业部门的潜在危害,导致了许多工伤和死亡案例。佩戴安全帽能有效的减少坠落的物体对人员造成的伤害。因此,在建筑业、制造业、油田和化工厂等企业的施工场合强制规定作业人员必须佩戴安全帽。传统的用于施工现场的安全帽检测方法是先将工人图像从图片中提取出来,再从工人图像中提取头部区域,从头部区域判断该工人是否佩戴安全帽。这种方法的检测精度依赖于行人检测算法的精度,且对于每种特定场景,往往都需要重新训练检测模型,鲁棒性差、不能适应复杂的环境。
发明内容
本发明要解决的技术问题是针对现有技术的上述不足,本发明的目的是提供一种鲁棒性好、适应性好的安全帽佩戴检测方法。
本发明的技术方案是:一种安全帽佩戴检测方法,其特征在于,所述方法包括:
获取施工现场的原始图像,通过图像变换将所述原始图像扩增N倍得到扩增图像;
对所述扩增图像标注安全帽信息;
将所述原始图像、扩增图像以及安全帽信息输入目标检测网络学习并进行图像特征提取得到人脸特征;
根据所述人脸特征得到人脸框图;
根据所述人脸框图确定头部区域,并在所述头部区域内进行安全帽检测。
作为进一步地改进,所述图像变换包括图像亮度变换和镜像变换。
进一步地,所述图像亮度变换具体为:
其中,g(x,y)为扩增图像x行、y列的像素值,f(x,y)为原始图像x行、y列的像素值,为扩增倍数,/>为偏置系数。
进一步地,所述镜像变换为水平镜像,具体为:
其中,(x0,y0)为原始图像的坐标,(x1,y1)为镜像操作后的坐标,w为原始图像宽度。
进一步地,所述安全帽信息包括标注框、标签信息,其中,额头为所述标注框的下边缘,头顶或安全帽帽顶为所述标注框的上边缘,头宽或者帽宽为所述标注框的宽度,未佩戴安全帽对应的标签信息为0,佩戴安全帽对应的标签信息为1。
进一步地,所述目标检测网络为卷积神经网络,所述图像特征提取过程采用经过通道压缩的17个卷积层和一系列能使网络加速收敛的BN层。
进一步地,所述根据所述人脸特征得到人脸框图具体为:
将所述人脸特征结合回归网络和分类网络对人脸位置进行回归定位,同时,连接多个不同尺度的特征图融合对人脸进行检测得到人脸框图。
进一步地,所述根据所述人脸框图确定头部区域具体为:
其中,(x00,y00)为人脸框图的左上坐标、(x01,y01)为人脸框图的右下坐标,(x10,y10)为头部区域的左上坐标、(x11,y11)为头部区域的右下坐标。
进一步地,所述在所述头部区域内进行安全帽检测具体为:
获取所述头部区域的截图;
将所述截图输入卷积神经网络,采用经过通道压缩的8个卷积层和一系列能使网络加速收敛性的BN层提取安全帽特征;
将所述安全帽特征结合回归网络和分类网络对安全帽位置进行回归定位,并判断是否佩戴安全帽。
有益效果
本发明与现有技术相比,具有的优点为:本发明通过将施工现场的原始图像扩增后,提取人脸特征并得到人脸框图,在人脸框图内确定头部区域,并在头部区域内进行安全帽检测;与传统技术中要将工人图像从图片中提取出来的方法相比,本发明无需提取工人图像,可以使得检测输入图像大大减小,检测区域大大减小,图像特征提取速度快,特征提取网络简单,从而既提高安全帽检测效率,也大大提高安全帽检测准确率。该方法能够适应多种施工现场,鲁棒性强、适应性好,可以有效提高施工现场安全帽检测的准确性与易行性,从而及时发现未佩戴安全帽的工人、保障工人安全。
附图说明
图1为本发明的检测流程示意图;
图2为本发明中人脸检测卷积神经网络原理图;
图3为本发明中安全帽检测卷积神经网络原理图。
具体实施方式
下面结合附图中的具体实施例对本发明做进一步的说明。
参阅图1-3,一种安全帽佩戴检测方法,方法包括:
获取施工现场的原始图像,通过图像变换将原始图像扩增N倍得到扩增图像,可以根据实际情况设定N的大小,在本实施例中,N等于3;
对扩增图像标注安全帽信息;
将原始图像、扩增图像以及安全帽信息输入目标检测网络学习并进行图像特征提取得到人脸特征;
根据人脸特征得到人脸框图;
根据人脸框图确定头部区域,并在头部区域内进行安全帽检测。
图像变换包括图像亮度变换和镜像变换。图像亮度变换具体为:
其中,g(x,y)为扩增图像x行、y列的像素值,f(x,y)为原始图像x行、y列的像素值,为扩增倍数,一般为0.0~3.0之间,/>为偏置系数,用来调节亮度,在本实施例中
镜像变换为水平镜像,具体为:
x1=x0,y1=W-y0
用矩阵表示为:
其中,(x0,y0)为原始图像的坐标,(x1,y1)为镜像操作后的坐标,w为原始图像宽度。经过图像亮度变换和镜像变换后,最终图像数量扩增为原来的3倍。
安全帽信息包括标注框、标签信息,其中,额头为标注框的下边缘,头顶或安全帽帽顶为标注框的上边缘,头宽或者帽宽为标注框的宽度,未佩戴安全帽对应的标签信息为0,佩戴安全帽对应的标签信息为1。
目标检测网络为卷积神经网络,先将原始图像、扩增图像以及安全帽信息中的标签信息转成lmdb格式后再输入卷积神经网络,图像大小resize为384*384,图像特征提取过程采用经过通道压缩的17个卷积层和一系列能使网络加速收敛的BN层。通道压缩的17个卷积层特征图输出通道分别为8、16、16、64、64、64、64、64、32、64、64、64、32、64、64、64、64,该网络所有权重均随机初始化。得到一系列的人脸特征后,根据人脸特征得到人脸框图具体为:将人脸特征结合回归网络和分类网络对人脸位置进行回归定位,同时,连接多个不同尺度的特征图融合对人脸进行检测得到人脸框图。人脸位置回归误差函数采用Smooth L1Loss,具体算法为:
其中N是先验框的正样本数量。这里为一个指示参数,/>时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p,c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,而g为ground truth的位置参数。
由于的存在,所以位置误差仅针对正样本进行计算,值得注意的是,要先对ground truth的g进行编码得到/>因为预测值l也是编码值,最后通过最小化Lloc(x,l,g),实现一个可用的Smooth L1回归模型。
作为优选,不同尺度的特征图为5个,5个不同尺度的特征图的尺寸分别为19*19、10*10、5*5、3*3、1*1像素,连接5个不同尺度的特征图同时对扩增图像进行检测得到人脸框图,大大提高了精度。
使用softmax分类器解决人脸分类问题,人脸类别具体为人脸类别或非人脸类别,softmax具体算法为:
类标y可以取k个不同的值,对于训练集{(x(1),y(1)),...,(x(m),y(m))},得到有y(i)∈{1,2,...,k},此处的类别下标从1开始,而不是0。
对于给定的测试输入x,使用假设函数针对每一个类别j估算出概率值p(y=j|x),即估计x的每一种分类结果出现的概率,因此,假设函数将要输出一个k维的向量来表示这k个估计的概率值,向量元素的和为1。假设函数hθ(x)如下:
其中是模型的参数,/>这一项对概率分布进行归一化,使得所有概率之和为1。
为了方便起见,同样使用符号θ来表示全部的模型参数,在实现Softmax回归时,将θ用一个k×(n+1)的矩阵来表示会很方便,该矩阵是将θ1,θ2,…θk按行罗列起来得到的,如下所示:
下面公式为softmax的代价函数:
通过添加一个权重衰减项来修改代价函数,这个衰减项会惩罚过大的参数值,现在的代价函数变为:
有了这个权重衰减项以后(λ>0),代价函数就变成了严格的凸函数,可以保证得到唯一的解。此时的Hessian矩阵变为可逆矩阵,并且因为J(θ)是凸函数,梯度下降法和L-BFGS等算法可以保证收敛到全局最优解。
为了使用优化算法,需要求得这个新函数J(θ)的导数,如下:
通过最小化J(θ)就实现一个可用的softmax分类模型。
根据人脸框图确定头部区域具体为:
其中,(x00,y00)为人脸框图的左上坐标、(x01,y01)为人脸框图的右下坐标,(x10,y10)为头部区域的左上坐标、(x11,y11)为头部区域的右下坐标。
在头部区域内进行安全帽检测具体为:
获取头部区域的截图;
将截图输入卷积神经网络,采用经过通道压缩的8个卷积层和一系列能使网络加速收敛性的BN层提取安全帽特征;作为优选,可以先将截图大小resize为32*32再输入卷积神经网络以提高检测精度和速度,8个卷积层输出通道分别为4、4、8、16、16、16、32、16;
将安全帽特征结合回归网络和分类网络对安全帽位置进行回归定位,并判断是否佩戴安全帽;安全帽检测的回归误差函数采用Smooth L1 Loss,安全帽分类器采用softmax分类器;当检测安全帽类别为未佩戴安全帽类别时,即标签信息为0时,进行自动报警提示。
本发明通过将施工现场的原始图像扩增后,提取人脸特征并得到人脸框图,在人脸框图内确定头部区域,并在头部区域内进行安全帽检测;与传统技术中要将工人图像从图片中提取出来的方法相比,本发明无需提取工人图像,可以使得检测输入图像大大减小,检测区域大大减小,图像特征提取速度快,特征提取网络简单,从而既提高安全帽检测效率,也大大提高安全帽检测准确率。该方法能够适应多种施工现场,鲁棒性强、适应性好,可以有效提高施工现场安全帽检测的准确性与易行性,从而及时发现未佩戴安全帽的工人、保障工人安全。
以上仅是本发明的优选实施方式,应当指出对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些都不会影响本发明实施的效果和专利的实用性。
Claims (6)
1.一种安全帽佩戴检测方法,其特征在于,所述方法包括:
获取施工现场的原始图像,通过图像变换将所述原始图像扩增N倍得到扩增图像;
对所述扩增图像标注安全帽信息;
将所述原始图像、扩增图像以及安全帽信息输入目标检测网络学习并进行图像特征提取得到人脸特征;
根据所述人脸特征得到人脸框图;
根据所述人脸框图确定头部区域,并在所述头部区域内进行安全帽检测;
所述目标检测网络为卷积神经网络,所述图像特征提取过程采用经过通道压缩的17个卷积层和一系列能使网络加速收敛的BN层;
通道压缩的17个卷积层特征图输出通道分别为8、16、16、64、64、64、64、64、32、64、64、64、32、64、64、64、64,该网络所有权重均随机初始化;得到一系列的人脸特征后,根据人脸特征得到人脸框图具体为:将人脸特征结合回归网络和分类网络对人脸位置进行回归定位,同时,连接多个不同尺度的特征图融合对人脸进行检测得到人脸框图;人脸位置回归误差函数采用Smooth L1 Loss,具体算法为:
其中N是先验框的正样本数量;这里为一个指示参数,/>时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p,c为类别置信度预测值,l为先验框的所对应边界框的位置预测值,而g为ground truth的位置参数;
由于的存在,所以位置误差仅针对正样本进行计算,值得注意的是,要先对groundtruth的g进行编码得到/>因为预测值l也是编码值,最后通过最小化Lloc(x,l,g),实现一个可用的Smooth L1回归模型;
不同尺度的特征图为5个,5个不同尺度的特征图的尺寸分别为19*19、10*10、5*5、3*3、1*1像素,连接5个不同尺度的特征图同时对扩增图像进行检测得到人脸框图,大大提高了精度;
使用softmax分类器解决人脸分类问题,人脸类别具体为人脸类别或非人脸类别,softmax具体算法为:
类标y可以取k个不同的值,对于训练集{(x(1),y(1)),…,(x(m),y(m))},得到有y(i)∈{1,2,…,k},此处的类别下标从1开始,而不是0;
对于给定的测试输入x,使用假设函数针对每一个类别j估算出概率值p(y=j|x),即估计x的每一种分类结果出现的概率,因此,假设函数将要输出一个k维的向量来表示这k个估计的概率值,向量元素的和为1;假设函数hθ(x)如下:
其中是模型的参数,/>这一项对概率分布进行归一化,使得所有概率之和为1;
为了方便起见,同样使用符号θ来表示全部的模型参数,在实现Softmax回归时,将θ用一个k×(n+1)的矩阵来表示会很方便,该矩阵是将θ1,θ2,…θk按行罗列起来得到的,如下所示:
下面公式为softmax的代价函数:
通过添加一个权重衰减项来修改代价函数,这个衰减项会惩罚过大的参数值,现在的代价函数变为:
有了这个权重衰减项以后(λ>0),代价函数就变成了严格的凸函数,可以保证得到唯一的解;此时的Hessian矩阵变为可逆矩阵,并且因为J(θ)是凸函数,梯度下降法和L-BFGS等算法可以保证收敛到全局最优解;
为了使用优化算法,需要求得这个新函数J(θ)的导数,如下:
通过最小化J(θ)就实现一个可用的softmax分类模型;
所述根据所述人脸框图确定头部区域具体为:
其中,(x00,y00)为人脸框图的左上坐标、(x01,y01)为人脸框图的右下坐标,(x10,y10)为头部区域的左上坐标、(x11,y11)为头部区域的右下坐标。
2.根据权利要求1所述的一种安全帽佩戴检测方法,其特征在于,所述图像变换包括图像亮度变换和镜像变换。
3.根据权利要求2所述的一种安全帽佩戴检测方法,其特征在于,所述图像亮度变换具体为:
其中,g(x,y)为扩增图像x行、y列的像素值,f(x,y)为原始图像x行、y列的像素值,为扩增倍数,/>为偏置系数。
4.根据权利要求2所述的一种安全帽佩戴检测方法,其特征在于,所述镜像变换为水平镜像,具体为:
其中,(x0,y0)为原始图像的坐标,(x1,y1)为镜像操作后的坐标,w为原始图像宽度。
5.根据权利要求1所述的一种安全帽佩戴检测方法,其特征在于,所述安全帽信息包括标注框、标签信息,其中,额头为所述标注框的下边缘,头顶或安全帽帽顶为所述标注框的上边缘,头宽或者帽宽为所述标注框的宽度,未佩戴安全帽对应的标签信息为0,佩戴安全帽对应的标签信息为1。
6.根据权利要求1所述的一种安全帽佩戴检测方法,其特征在于,所述在所述头部区域内进行安全帽检测具体为:
获取所述头部区域的截图;
将所述截图输入卷积神经网络,采用经过通道压缩的8个卷积层和一系列能使网络加速收敛性的BN层提取安全帽特征;
将所述安全帽特征结合回归网络和分类网络对安全帽位置进行回归定位,并判断是否佩戴安全帽。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010173961.8A CN111414825B (zh) | 2020-03-13 | 2020-03-13 | 一种安全帽佩戴检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010173961.8A CN111414825B (zh) | 2020-03-13 | 2020-03-13 | 一种安全帽佩戴检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111414825A CN111414825A (zh) | 2020-07-14 |
CN111414825B true CN111414825B (zh) | 2023-09-08 |
Family
ID=71493022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010173961.8A Active CN111414825B (zh) | 2020-03-13 | 2020-03-13 | 一种安全帽佩戴检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111414825B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613449A (zh) * | 2020-12-29 | 2021-04-06 | 国网山东省电力公司建设公司 | 一种基于视频人脸图像的安全帽佩戴检测识别方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005004454A (ja) * | 2003-06-11 | 2005-01-06 | National Institute Of Advanced Industrial & Technology | 顔画像分類登録方法 |
CN107346420A (zh) * | 2017-06-19 | 2017-11-14 | 中国科学院信息工程研究所 | 一种基于深度学习的自然场景下文字检测定位方法 |
CN107545263A (zh) * | 2017-08-02 | 2018-01-05 | 清华大学 | 一种物体检测方法及装置 |
CN108108677A (zh) * | 2017-12-12 | 2018-06-01 | 重庆邮电大学 | 一种基于改进的cnn人脸表情识别方法 |
CN108960340A (zh) * | 2018-07-23 | 2018-12-07 | 电子科技大学 | 卷积神经网络压缩方法及人脸检测方法 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN110619314A (zh) * | 2019-09-24 | 2019-12-27 | 杭州宇泛智能科技有限公司 | 安全帽检测方法、装置及电子设备 |
-
2020
- 2020-03-13 CN CN202010173961.8A patent/CN111414825B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005004454A (ja) * | 2003-06-11 | 2005-01-06 | National Institute Of Advanced Industrial & Technology | 顔画像分類登録方法 |
CN107346420A (zh) * | 2017-06-19 | 2017-11-14 | 中国科学院信息工程研究所 | 一种基于深度学习的自然场景下文字检测定位方法 |
CN107545263A (zh) * | 2017-08-02 | 2018-01-05 | 清华大学 | 一种物体检测方法及装置 |
CN108108677A (zh) * | 2017-12-12 | 2018-06-01 | 重庆邮电大学 | 一种基于改进的cnn人脸表情识别方法 |
CN108960340A (zh) * | 2018-07-23 | 2018-12-07 | 电子科技大学 | 卷积神经网络压缩方法及人脸检测方法 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN110619314A (zh) * | 2019-09-24 | 2019-12-27 | 杭州宇泛智能科技有限公司 | 安全帽检测方法、装置及电子设备 |
Non-Patent Citations (1)
Title |
---|
基于多深度特征表达和稳定中心损失的目标检测算法研究;ADITYA;《中国优秀硕士学位论文全文数据库》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111414825A (zh) | 2020-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104063722B (zh) | 一种融合hog人体目标检测和svm分类器的安全帽识别方法 | |
CN111126325B (zh) | 一种基于视频的智能人员安防识别统计方法 | |
CN111488804A (zh) | 基于深度学习的劳保用品佩戴情况检测和身份识别的方法 | |
CN111881730A (zh) | 一种火电厂现场安全帽佩戴检测方法 | |
CN110414400B (zh) | 一种施工现场安全帽穿戴自动检测方法及系统 | |
CN113553977B (zh) | 一种基于改进yolo v5的安全帽检测方法和系统 | |
CN110991315A (zh) | 一种基于深度学习的安全帽佩戴状态实时检测方法 | |
CN113743256B (zh) | 一种工地安全智能预警方法与装置 | |
CN113903081A (zh) | 一种水电厂图像视觉识别人工智能报警方法及装置 | |
CN113516076A (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN111860471B (zh) | 一种基于特征检索的工服穿戴识别方法及系统 | |
CN111209874B (zh) | 一种对人头部穿戴属性的分析识别方法 | |
CN113158850A (zh) | 基于深度学习的船舶驾驶员疲劳检测方法和系统 | |
CN113537019B (zh) | 基于关键点识别变电站人员安全帽佩戴的检测方法 | |
CN112861646B (zh) | 复杂环境小目标识别场景下的卸油工安全帽级联检测方法 | |
CN115035088A (zh) | 一种基于yolov5和姿态估计的安全帽佩戴检测方法 | |
CN111414825B (zh) | 一种安全帽佩戴检测方法 | |
CN114067365B (zh) | 一种基于中心注意向心网络的安全帽佩戴检测方法和系统 | |
CN112183532A (zh) | 基于弱监督协同学习算法的安全帽识别方法及存储介质 | |
CN117745708A (zh) | 基于深度学习算法的木地板表面瑕疵检测方法 | |
CN114997279A (zh) | 一种基于改进Yolov5模型的建筑工人危险区域入侵检测方法 | |
CN113221667B (zh) | 一种基于深度学习的人脸口罩属性分类方法及系统 | |
CN116385962A (zh) | 基于机器视觉的廊道内人员监控系统及其方法 | |
CN115995097A (zh) | 一种基于深度学习的安全头盔佩戴标准判断方法 | |
CN113920469A (zh) | 一种安全帽佩戴检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20200714 Assignee: Yulin Qingzhao Intelligent Electronic Technology Co.,Ltd. Assignor: Yulin Normal University Contract record no.: X2023980045233 Denomination of invention: A method for detecting the wearing of safety helmets Granted publication date: 20230908 License type: Common License Record date: 20231102 |