CN112036327A - 一种基于ssd的轻量化安全帽检测方法 - Google Patents

一种基于ssd的轻量化安全帽检测方法 Download PDF

Info

Publication number
CN112036327A
CN112036327A CN202010906357.1A CN202010906357A CN112036327A CN 112036327 A CN112036327 A CN 112036327A CN 202010906357 A CN202010906357 A CN 202010906357A CN 112036327 A CN112036327 A CN 112036327A
Authority
CN
China
Prior art keywords
ssd
feature map
data set
convolution
mobilenet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010906357.1A
Other languages
English (en)
Inventor
焦良葆
石伟伟
曹雪虹
孔小红
杨波
孟琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Glens Sciences And Technology Co ltd
Nanjing Institute of Technology
Original Assignee
Jiangsu Glens Sciences And Technology Co ltd
Nanjing Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Glens Sciences And Technology Co ltd, Nanjing Institute of Technology filed Critical Jiangsu Glens Sciences And Technology Co ltd
Priority to CN202010906357.1A priority Critical patent/CN112036327A/zh
Publication of CN112036327A publication Critical patent/CN112036327A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

本发明公开了一种基于SSD的轻量化安全帽检测方法,包括如下步骤:获取并制作数据集;建立采用SSD‑MobileNet级联神经网络结构的人体检测模型和安全帽分类检测模型,人体检测模型提取人体识别候选边框,安全帽分类检测模型在人体识别候选框内进行安全帽和头部的类别识别与位置定位;将训练集输入SSD‑MobileNet级联神经网络中进行训练,得到网络参数;将测试集输入到训练好的SSD‑MobileNet级联神经网络中,输出检测结果,即样本识别类别、置信度以及框的坐标。本发明能够有效提取待检测目标的信息,准确检测安全帽,且检测速度快,在复杂环境下对变化目标具有较好的鲁棒性。

Description

一种基于SSD的轻量化安全帽检测方法
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于SSD的轻量化安全帽检测方法。
背景技术
按电力人身伤亡事故原因统计,人的不安全行为占到事故总起数的66%,死亡人数占到总死亡人数的56%,人的不安全行为已经成为电力事故发生的主要因素。
其中,不正确佩戴安全帽是人的不安全行为之一。安全帽作为一种常见的个人防护用具,能够有效地防止和减轻外来危险源对头部的伤害。根据规定,作业人员在工作时必须遵循:“工作时,应穿绝缘鞋和全棉长袖工作服,并戴手套、安全帽和护目镜,站在干燥的绝缘物上进行”和“任何人进入生产现场(办公室、控制室、值班室和检修班组除外),应戴安全帽”。
电力运维人员的主要任务是对电力设备进行巡查和检修,这个过程中往往面临着较大的风险,高空抛物、意外坠落等情况时有发生。但是总有些人员安全意识淡薄,存在侥幸心理,不按规定正确佩戴安全帽的情况屡屡发生,给电力生产带来极大的安全隐患。增强人员的安全意识是降低事故发生率的根本方法,但是必要的监督也是不可或缺的。早期,通过配备专门的安全员人工巡检来监督作业人员按规定佩戴安全帽以及制止其他的不安全行为。后来,随着远程视频监控系统的发展,安全员可以通过监控全场的视频画面来发现潜在的风险。但是这两种方式都需要人为干预,其缺点主要是:
1、安全员需要高度集中注意力才能同时监控多个视频画面,对人的体力消耗极大,容易产生疲劳无法保证整个监督过程的持续性与准确性;
2、安全员的情绪、经验、五官感受和性格都会对他的判断结果产生影响,存在主观干扰性。
近几年,随着科技的发展,计算机视觉替代人工成为趋势。将计算机视觉技术和远程视频监控系统相结合,能够实现对监控目标的自动检测,这不仅充分利用了计算机视觉在处理过程中的高效与高速的性能,同时还极大的降低了人的劳动强度。基于计算机视觉的安全帽检测系统多采用联动门禁模式和动态检测模式。在联动门禁模式时,工作人员如果要进入高危区域工作,首先要经过门禁刷卡,然后通过大门上方的摄像头检测工作人员是否佩戴安全帽,若该工作人员未佩戴安全帽则门禁不开启。在动态检测模式时,通过监控摄像头进行实时检测,若监控范围内有工作人员活动,检测该工作人员是否佩戴安全帽,若未佩戴安全帽则通知后台监控室的安全员及时做出处理。这两种模式都需要解决安全帽检测的问题,关键的问题就是如何提高目标安全帽的检测精度和检测速度。
发明内容
发明目的:针对现有技术中存在的问题,本发明公开了一种基于SSD的轻量化安全帽检测方法,采用SSD-MobileNet级联神经网络,有效提取待检测目标的信息,准确检测安全帽,检测速度快,在复杂环境下对变化目标具有较好的鲁棒性。
技术方案:本发明采用如下技术方案:一种基于SSD的轻量化安全帽检测方法,其特征在于,包括如下步骤:
S1、获取数据:采用公共数据集和自制数据集作为数据集,并将数据集按比例分为训练数据集和测试数据集;
S2、制作数据集:将公共数据集和自制数据集混合后统一重命名,进行标注后转化为统一格式;
S3、建立模型:建立采用SSD-MobileNet级联神经网络结构的人体检测模型和安全帽分类检测模型,人体检测模型提取人体识别候选边框,并将此人体识别候选框输入至安全帽分类检测模型,在人体识别候选框内进行安全帽和头部的类别识别与位置定位,最后在原始图像中输出两个模型检测出的类别信息和位置信息,SSD-MobileNet级联神经网络包括作为基础网络的MobileNet网络和作为附加网络的特征金字塔网络;
S4、训练模型:将训练集输入人体检测模型和安全帽分类检测模型中进行训练,得到网络参数;
S5、测试模型:将测试集输入到训练好的人体检测模型和安全帽分类检测模型中,输出检测的类别信息和位置信息。
优选地:在SSD-MobileNet级联神经网络的MobileNet网络前还设置有标准卷积层,尺寸为300*300的原始图像输入卷积核为1*1*32的标准卷积层,输出150*150*32的第一特征图到MobileNet网络。
优选地:MobileNet网络的输入为第一特征图,输出为第三特征图;其中,MobileNet网络包括深度卷积层和逐点卷积层,第一特征图输入卷积核为3*3的深度卷积层,输出第二特征图,第二特征图输入卷积核为1*1的逐点卷积层,输出10*10*1024的第三特征图到特征金字塔网络。
优选地:特征金字塔网络包括卷积层和均值池化层;其中,第三特征图依次输入卷积核分别为1*1*256和3*3*512的卷积层,输出5*5*512的第四特征图;
第三特征图依次输入卷积核分别为1*1*256和3*3*256的卷积层,输出3*3*256的第五特征图;
第三特征图依次输入卷积核分别为1*1*256和3*3*256的卷积层,输出2*2*256的第六特征图;
第三特征图依次输入卷积核分别为1*1*256和3*3*128的卷积层,输出1*1*128的第七特征图;
第四特征图、第五特征图、第六特征图和第七特征图再分别输入均值池化层,输出第八特征图、第九特征图、第十特征图和第十一特征图。
优选地:第二特征图、第三特征图、第八特征图、第九特征图、第十特征图和第十一特征图分别输入卷积核为3*3的卷积层,通过非极大值抑制,输出目标框及其类别的置信度。
优选地,步骤S1中,将IRINA行人数据库作为公共数据集,将监控摄像头采集的图像样本作为自制数据集,将公共数据集和自制数据集混合,将混合后的数据集按照8:2分为训练数据集和测试数据集。
优选地,步骤S4中,SSD-MobileNet级联神经网络模型训练的迭代过程为20000次,训练的学习率为0.001,训练的批尺寸为16,采用随机梯度下降法反向传播优化网络。
优选地,步骤S2中,数据集的重命名规则为:在数据集中样本的样本序号前补0至六位数字;
重命名后,用LabelImg对数据集中的样本进行标注,并将样本转化为TFRecordFormat格式。
有益效果:本发明具有如下有益效果:
本发明公开了一种基于SSD的轻量化安全帽检测方法,采用SSD-MobileNet级联神经网络,结合了MobileNet和SSD两种网络的优势,在检测精度、检测速度和性能消耗等方面都有很好的表现;通过该SSD-MobileNet级联神经网络可以有效提取待检测目标的信息,准确检测安全帽,检测速度快,在复杂环境下对变化目标具有较好的鲁棒性;在人体范围内检测安全帽,缩小了检测范围,降低了运算复杂度,在检测效果和检测速度方面都有所改善。
附图说明
图1是本发明基于SSD-MobileNet的安全帽检测网络结构图;
图2是本发明的检测流程图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
本发明提供一种基于SSD的轻量化安全帽检测方法,采用SSD-MobileNet级联神经网络。如图2所示,本发明的检测方法包括以下步骤:
步骤一:获取数据,选取公共数据集和自制数据集共同作为本发明的数据集。
本发明使用IRINA行人数据库作为训练人体的公共数据集,该数据库在复杂的背景下从多个角度拍摄人体目标,人体大多是站立姿态。目标的高度基本都高于一百像素,分辨率较高。公共数据集使用的图像基本来自于人工拍摄,所以以水平角度为主。
考虑到本发明中SSD-MobileNet级联神经网络的输入为监控摄像头所拍摄的俯视角度图像,本发明还进行了一系列的模拟实验,由监控摄像头来采集图像样本,制成自制数据集,进一步丰富数据集,提高模型的泛化能力;监控摄像头采集的图像样本至少应包括水平、俯视等多个角度。
将公共数据集和自制数据集混合,将混合后的数据集按照8:2分为训练数据集和测试数据集,训练数据集和测试数据集彼此之间相互独立。
步骤二:将混合后的数据集按格式重命名,并用LabelImg软件进行标记,并转换成TFRecords格式。
将公共数据集和自制数据集混合,对混合后的数据集中的图像样本重新命名:命名规则为0+num的六位数字,num为图片序号,补“0”的个数以填满6位数字为准,比如第一张图片名称为000001。
由于采取的是监督性的学习方式检测安全帽,因此训练前需要对数据集中的图像样本添加标签:本发明使用LabelImg标注软件,人工标定人体、已佩戴安全帽、未戴安全帽三类标签,获得目标的类别及位置框信息,且分别用person、helmet、head表示,文件以后缀“.xml”形式保存。其中,标签为已佩戴安全帽表示在图像样本中检测到工作人员头部已按要求佩戴安全帽,此时共同框定头部与安全帽的位置并建立标签;标签为未戴安全帽表示在图像样本中检测到工作人员头部未按要求佩戴安全帽,此时单独框定头部的位置并建立标签;标签为人体表示在图像样本中检测到工作人员,此时框定工作人员的人体位置并建立标签。
最后通过python程序,将标注完成的数据集进行格式转换:先在csv格式的文件中统一记录数据集标注完成后生成的.xml文件中的信息,然后在csv表格中创建TFRecords格式。
步骤三:将训练数据集及其标签输入人体检测模型和安全帽分类检测模型进行训练,得到网络参数。
本发明中,训练参数设定为:迭代过程共进行20000次,初始的学习率为0.001,训练批次batch_size为16,采用随机梯度下降法(SGD)反向传播优化网络。
如图2所示,本发明的识别工作为首先粗略识别人体进而精细识别安全帽。首先数据集中的图像样本输入人体检测模型提取人体识别候选边框,并将此人体识别候选框输入至安全帽分类检测模型,在人体识别候选框内进行安全帽和头部的类别识别与位置定位,最后在原始图像中输出两个模型检测出的类别信息和位置信息。
本发明中的人体检测模型和安全帽分类检测模型均采用SSD-MobileNet级联神经网络结构,如图1所示,SSD-MobileNet级联神经网络由多级级联的检测网络组成,分为两部分:前端采用MobileNet网络提取目标浅层特征;后端采用特征图不断缩小的特征金字塔网络,对前端网络产生的特征层进行不同尺度的特征提取;最后,通过非极大值(NMS)抑制,过滤掉特征图中重复的目标框,输出检测效果最好的目标框及其类别的置信度。
本发明采用MobileNet网络作为基础网络,可以有效减少网络参数和运算量。MobileNet网络是一种轻量化卷积神经网络,通过应用深度可分离的卷积,对标准的卷积网络进行改进。深度可分离卷积将标准的卷积层分为两个部分:3*3的深度卷积和1*1的逐点卷积。深度卷积对每个特征通道上分别使用一个卷积核来提取特征,逐点卷积则是用标准的1*1卷积来融合不同通道的特征图。
设MobileNet网络输入的特征图F大小为(DF,DF,M),输出的特征图E大小为(DF,DF,N),其中DF为输入的特征图F与输出的特征图E的宽和高(假定输入的特征图F与输出的特征图E的宽与高均相同),M和N分别为输入的特征图F与输出的特征图E的通道数。
标准卷积的尺寸为Dk*Dk*M,数目为N个,则:
标准卷积的计算量为:
Dk*Dk*M*N*DF*DF
深度可分离卷积中,深度卷积的尺寸为Dk*Dk*1,数目为M个,逐点卷积的尺寸为1*1*M,数目为N个,则深度卷积和逐点卷积的计算量分别为:
深度卷积:
Dk*Dk*1*M*DF*DF
逐点卷积:
1*1*M*N*DF*DF
二者相加得到深度可分离卷积的计算量:
Dk*Dk*1*M*DF*DF+1*1*M*N*DF*DF
深度可分离卷积与标准卷积的计算量比值为:
Figure BDA0002661603690000061
其中N的值一般比较大,因此该比值主要取决于Dk。MobileNet采用的卷积核尺寸是3*3,因此深度可分离卷积的计算量只有标准卷积计算量的九分之一到八分之一左右。
MobileNet网络输出的特征图再经过附加网络输出特征图,本发明采用特征金字塔网络作为附加网络:特征金字塔网络是输出特征图逐渐变小的简单网络,其主要工作是对MobileNet网络输出的特征图进行不同尺度条件下的特征提取。特征金字塔网络包括四层卷积层和一个均值池化层,均值池化层设于卷积层后,对每层卷积层输出的不同尺度的特征图采取不同程度的池化。
如图1所示,原始输入图像的尺寸为300*300,首先由标准卷积操作得到特征图Conv0,卷积核尺寸为1*1,步长为2,填充为1,卷积核数量为32,得到的特征图Conv0尺寸为150*150,通道数为32。
特征图Conv0通过深度可分离卷积得到特征图Conv13:特征图Conv0先经过卷积核尺寸为3*3的深度卷积得到尺寸为19*19、通道数为512的特征图Conv11,特征图Conv11再经过卷积核尺寸为1*1的逐点卷积得到下一层的特征图Conv13,得到尺寸为10*10、通道数为1024的特征图Conv13之后,添加附加网络即特征金字塔网络来进行目标检测。
特征图Conv13通过卷积操作得到尺寸为10*10、通道数为256的特征图Conv14_1,卷积核尺寸为1*1,步长为1,填充为0,卷积核数量为256;特征图Conv14_1通过卷积操作得到尺寸为5*5、通道数为512的特征图Conv14_2,卷积核尺寸为3*3,卷积核数量为512,步长为2,填充为1。
特征图Conv13通过卷积操作得到尺寸为3*3、通道数为256的特征图Conv15_1,卷积核尺寸为1*1,步长为1,填充为0,卷积核数量为256;特征图Conv15_1通过卷积操作得到尺寸为3*3、通道数为256的特征图Conv15_2,卷积核尺寸为3*3,卷积核数量为256,步长为2,填充为1。
特征图Conv13通过卷积操作得到尺寸为3*3、通道数为256的特征图Conv16_1,卷积核尺寸为1*1,步长为1,填充为0,卷积核数量为256;特征图Conv16_1通过卷积操作得到尺寸为2*2、通道数为256的特征图Conv16_2,卷积核尺寸为3*3,卷积核数量为256,步长为2,填充为1。
特征图Conv13通过卷积操作得到尺寸为3*3、通道数为256的特征图Conv17_1,卷积核尺寸为1*1,步长为1,填充为0,卷积核数量为256;特征图Conv17_1通过卷积操作得到尺寸为1*1、通道数为128的特征图Conv17_2,卷积核尺寸为3*3,卷积核数量为128,步长为2,填充为1。
特征图Conv14_2、特征图Conv15_2、特征图Conv16_2和特征图Conv17_2再分别输入均值池化层,输出特征图Pool14、特征图Pool15、特征图Pool16和特征图Pool17。
SSD-MobileNet级联神经网络的特征图Conv11、特征图Conv13、特征图Pool14、特征图Pool15、特征图Pool16和特征图Pool17上分别进行3*3卷积操作,提取特征,预测回归目标的位置和类别的置信度,并通过非极大值抑制过滤结果,提高准确性。
步骤四:对训练得到的SSD-MobileNet级联神经网络用测试集进行测试。
将测试集输入已经训练好的SSD-MobileNet级联神经网络,进行检测;
检测完成后,返回识别类别、置信度以及框的坐标;
在UI界面输出预测结果。
本发明中SSD-MobileNet级联神经网络的网络参数为22.08MB,检测速度为25fps,但是平均精度均值(mAP)仍可达到89.1%,十分适合工程环境。
如下表1所示,为本发明中SSD-MobileNet级联神经网络模型与其他网络模型在检测安全帽时的性能评估表,进行评估的性能主要有模型的mAP、模型的参数大小和检测速度。从表1中可以看出,在检测精度相近的情况下,本发明所述的方法具有更小的模型参数和更高的检测速度。
表1
Figure BDA0002661603690000071
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (8)

1.一种基于SSD的轻量化安全帽检测方法,其特征在于,包括如下步骤:
S1、获取数据:采用公共数据集和自制数据集作为数据集,并将数据集按比例分为训练数据集和测试数据集;
S2、制作数据集:将公共数据集和自制数据集混合后统一重命名,进行标注后转化为统一格式;
S3、建立模型:建立采用SSD-MobileNet级联神经网络结构的人体检测模型和安全帽分类检测模型,人体检测模型提取人体识别候选边框,并将此人体识别候选框输入至安全帽分类检测模型,在人体识别候选框内进行安全帽和头部的类别识别与位置定位,最后在原始图像中输出两个模型检测出的类别信息和位置信息,SSD-MobileNet级联神经网络包括作为基础网络的MobileNet网络和作为附加网络的特征金字塔网络;
S4、训练模型:将训练集输入人体检测模型和安全帽分类检测模型中进行训练,得到网络参数;
S5、测试模型:将测试集输入到训练好的人体检测模型和安全帽分类检测模型中,输出检测的类别信息和位置信息。
2.根据权利要求1所述的一种基于SSD的轻量化安全帽检测方法,其特征在于:在SSD-MobileNet级联神经网络的MobileNet网络前还设置有标准卷积层,尺寸为300*300的原始图像输入卷积核为1*1*32的标准卷积层,输出150*150*32的第一特征图到MobileNet网络。
3.根据权利要求2所述的一种基于SSD的轻量化安全帽检测方法,其特征在于:MobileNet网络的输入为第一特征图,输出为第三特征图;其中,MobileNet网络包括深度卷积层和逐点卷积层,第一特征图输入卷积核为3*3的深度卷积层,输出第二特征图,第二特征图输入卷积核为1*1的逐点卷积层,输出10*10*1024的第三特征图到特征金字塔网络。
4.根据权利要求3所述的一种基于SSD的轻量化安全帽检测方法,其特征在于:特征金字塔网络包括卷积层和均值池化层;其中,第三特征图依次输入卷积核分别为1*1*256和3*3*512的卷积层,输出5*5*512的第四特征图;
第三特征图依次输入卷积核分别为1*1*256和3*3*256的卷积层,输出3*3*256的第五特征图;
第三特征图依次输入卷积核分别为1*1*256和3*3*256的卷积层,输出2*2*256的第六特征图;
第三特征图依次输入卷积核分别为1*1*256和3*3*128的卷积层,输出1*1*128的第七特征图;
第四特征图、第五特征图、第六特征图和第七特征图再分别输入均值池化层,输出第八特征图、第九特征图、第十特征图和第十一特征图。
5.根据权利要求4所述的一种基于SSD的轻量化安全帽检测方法,其特征在于:第二特征图、第三特征图、第八特征图、第九特征图、第十特征图和第十一特征图分别输入卷积核为3*3的卷积层,通过非极大值抑制,输出目标框及其类别的置信度。
6.根据权利要求1所述的一种基于SSD的轻量化安全帽检测方法,其特征在于,步骤S1中,将IRINA行人数据库作为公共数据集,将监控摄像头采集的图像样本作为自制数据集,将公共数据集和自制数据集混合,将混合后的数据集按照8:2分为训练数据集和测试数据集。
7.根据权利要求1所述的一种基于SSD的轻量化安全帽检测方法,其特征在于,步骤S4中,SSD-MobileNet级联神经网络模型训练的迭代过程为20000次,训练的学习率为0.001,训练的批尺寸为16,采用随机梯度下降法反向传播优化网络。
8.根据权利要求1所述的一种基于SSD的轻量化安全帽检测方法,其特征在于,步骤S2中,数据集的重命名规则为:在数据集中样本的样本序号前补0至六位数字;
重命名后,用LabelImg对数据集中的样本进行标注,并将样本转化为TFRecord Format格式。
CN202010906357.1A 2020-09-01 2020-09-01 一种基于ssd的轻量化安全帽检测方法 Pending CN112036327A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010906357.1A CN112036327A (zh) 2020-09-01 2020-09-01 一种基于ssd的轻量化安全帽检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010906357.1A CN112036327A (zh) 2020-09-01 2020-09-01 一种基于ssd的轻量化安全帽检测方法

Publications (1)

Publication Number Publication Date
CN112036327A true CN112036327A (zh) 2020-12-04

Family

ID=73592300

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010906357.1A Pending CN112036327A (zh) 2020-09-01 2020-09-01 一种基于ssd的轻量化安全帽检测方法

Country Status (1)

Country Link
CN (1) CN112036327A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128476A (zh) * 2021-05-17 2021-07-16 广西师范大学 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN113468992A (zh) * 2021-06-21 2021-10-01 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113569672A (zh) * 2021-07-16 2021-10-29 国网电力科学研究院有限公司 轻量级目标检测与故障识别方法、装置及系统
CN113723377A (zh) * 2021-11-02 2021-11-30 南京信息工程大学 一种基于ld-ssd网络的交通标志检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339858A (zh) * 2020-02-17 2020-06-26 电子科技大学 一种基于神经网络的油气管道标志物识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339858A (zh) * 2020-02-17 2020-06-26 电子科技大学 一种基于神经网络的油气管道标志物识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王菲菲 等: "基于SSD-MobileNet的安全帽检测算法研究", 《信息化研究》, vol. 46, no. 3, pages 34 - 39 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128476A (zh) * 2021-05-17 2021-07-16 广西师范大学 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN113468992A (zh) * 2021-06-21 2021-10-01 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113468992B (zh) * 2021-06-21 2022-11-04 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113569672A (zh) * 2021-07-16 2021-10-29 国网电力科学研究院有限公司 轻量级目标检测与故障识别方法、装置及系统
CN113723377A (zh) * 2021-11-02 2021-11-30 南京信息工程大学 一种基于ld-ssd网络的交通标志检测方法

Similar Documents

Publication Publication Date Title
CN112036327A (zh) 一种基于ssd的轻量化安全帽检测方法
Zhang et al. A critical review of vision-based occupational health and safety monitoring of construction site workers
CN109522819B (zh) 一种基于深度学习的火灾图像识别方法
CN111062429A (zh) 基于深度学习的厨师帽和口罩佩戴的检测方法
CN110414400B (zh) 一种施工现场安全帽穿戴自动检测方法及系统
EP3716212A1 (en) Image coding method, action recognition method, and computer device
CN109298785A (zh) 一种监测设备的人机联控系统及方法
CN113903081A (zh) 一种水电厂图像视觉识别人工智能报警方法及装置
CN111126293A (zh) 一种火焰和烟雾异常情况检测方法及系统
CN115484263A (zh) 一种基于边缘计算的跨区域智慧工厂实时安全监测系统
CN111209446A (zh) 一种人员检索信息的呈现方法、装置和电子设备
CN115035088A (zh) 一种基于yolov5和姿态估计的安全帽佩戴检测方法
CN111062350B (zh) 基于人工智能烟火识别算法
Kai et al. Wearing safety helmet detection in substation
CN113313186B (zh) 一种不规范穿戴工作服识别方法及系统
Reyes et al. Safety gear compliance detection using data augmentation-assisted transfer learning in construction work environment
CN115829324A (zh) 一种人员安全风险静默监视方法
Anh et al. Efficient forest fire detection using rule-based multi-color space and correlation coefficient for application in unmanned aerial vehicles
CN114926778A (zh) 一种生产环境下的安全帽与人员身份识别系统
CN115909212A (zh) 一种电力作业典型违章行为实时预警方法
CN114429677A (zh) 一种煤矿场景作业行为安全识别考核方法及系统
CN115049875A (zh) 一种基于深度学习的变电站中佩戴绝缘手套的检测方法
CN113902919A (zh) 一种基于双流网络的目标检测方法及系统
CN103699907B (zh) 基于机器学习的农药喷洒检测方法
CN113920469A (zh) 一种安全帽佩戴检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination