CN112381005A - 一种面向复杂场景的安全帽检测系统 - Google Patents

一种面向复杂场景的安全帽检测系统 Download PDF

Info

Publication number
CN112381005A
CN112381005A CN202011283501.7A CN202011283501A CN112381005A CN 112381005 A CN112381005 A CN 112381005A CN 202011283501 A CN202011283501 A CN 202011283501A CN 112381005 A CN112381005 A CN 112381005A
Authority
CN
China
Prior art keywords
safety helmet
detection
module
features
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011283501.7A
Other languages
English (en)
Inventor
张笑钦
王涛
黄鹏程
赵丽
罗胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou University
Original Assignee
Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou University filed Critical Wenzhou University
Priority to CN202011283501.7A priority Critical patent/CN112381005A/zh
Publication of CN112381005A publication Critical patent/CN112381005A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Helmets And Other Head Coverings (AREA)

Abstract

本发明公开了一种面向复杂场景的安全帽检测系统,包括:数据采集模块、安全帽检测模块和检测结果展示模块;数据采集模块用于将各种形式的数据传输到安全帽检测模块进行实时安全帽检测;所述安全帽检测模块用于检测数据采集模块传输的视频或图片,准确识别出在各种生产场景下的三种状态的安全帽,并将检测框坐标与置信度传到检测结果展示模块;所述检测结果展示模块利用安全帽检测模块传回的类别标签,检测框坐标与置信度,在输入图片和视频中进行实时地标注,以实现对复杂场景下安全帽的实时检测。本发明可对工地、矿区等复杂场景下安全帽进行实时且高精度检测,检测准确高,鲁棒性较高,且能监督人员不佩戴安全帽的情况避免安全突发事故发生。

Description

一种面向复杂场景的安全帽检测系统
技术领域
本发明涉及计算机视觉目标检测技术领域,具体涉及一种面向复杂场景的安全帽检测系统。
背景技术
随着人工智能技术的快速发展,大量的人工智能技术运用到世界工业化环节中。近几年全国安全生产数据分析后,发现生产安全事故中大约95%的原因是作业人员的不安全行为导致的,如越权限进入工作场所、违章操作、未正确穿戴劳保用品、操作失误或忽视安全警告等行为。工业化环节的人工智能应用,绝大多数都与机器视觉技术有关,用户急切的希望能通过基于深度学习的系统来较少人的不安全行为,而人的不安全行为是指生产经营单位从业人员在进行生产操作时的违反安全生产客观规律有可能直接导致事故的行为,它们是造成事故的直接原因。在工地和矿区等易有掉落物体的作业区域如果安全不能保证,不仅会遭受人员伤亡和财产损失,正常的作业秩序亦无法维持,所以在工地和矿区等区域内,必须要佩戴安全帽。
但是,尽管各单位经常进行安全教育,总有心存侥幸者因为各种理由不能保证时刻佩戴。现在很多地方还是采取人力盯梢的方式,用人眼通过相机或者现场检查有无场内人员不佩戴安全帽的情况,但巡查人员不可能全天候盯着,这就需要借助科技手段来实现监督。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种面向复杂场景的安全帽检测系统,该检测系统可对工地、矿区等复杂场景下安全帽进行实时且高精度检测,准确率高。
为实现上述目的,本发明提供了如下技术方案:一种面向复杂场景的安全帽检测系统,包括数据采集模块、安全帽检测模块和检测结果展示模块,
数据采集模块:用于将各种形式的数据传输到安全帽检测模块进行实时安全帽检测,数据类型包括本地图片、本地视频、本地摄像机和远程网络摄像机拍摄的实时视频流;
安全帽检测模块:用于检测数据采集模块传输的视频或图片,准确识别出在生产场景下工人若干状态下的安全帽,并将检测框坐标与置信度传到检测结果展示模块;
检测结果展示模块:利用安全帽检测模块传回的类别标签,检测框坐标与置信度,在输入图片和视频中进行实时地标注,以实现对复杂场景下安全帽的实时检测。
作为优选的:所述安全帽检测模块能准确识别出工人佩戴安全帽、工人未佩戴安全帽和安全帽静置置物架上的三种状态的安全帽。
作为优选的:所述安全帽检测模块检测安全帽包括以下步骤:
S1、构建安全帽检测模型;其中,该检测模型包括CSPDarkNet53骨干网络、路径融合网络、空间金字塔池化模块、空间注意力模块和YOLOv3检测器模块;
S2、获取安全帽图像数据,利用调整图片色相、调整图片曝光量、调整图片饱和度、增加图片模糊和使用马赛克方法混合四张具有不同语义信息的图片五种不同的数据增强方式,对安全帽数据进行图像增强;
S3、取得增强后的安全帽图片,利用CSPDarknet53骨干网络提取安全帽图片的特征,将提取到的特征传入空间金字塔池化模块进行特征处理,该空间金字塔池化模块通过不同大小的池化层扩大网络的感受野;
S4、将提取到不同层次的特征传入路径融合网络,该路径融合网络将获得的每一层次特征首先利用线性插值操作进行上采样得到该层次第一种尺度的特征,再对其利用线性插值操作进行下采样得到该层次第二种尺度的特征,最后再对其利用线性插值操作进行上采样得到该层次第三种尺度的特征;对这些不同层次的特征进行多尺度融合,且在最后次上采样的特征融合的过程中,利用提出的空间注意力模块对特征进行动态融合;
S5、将最后3次上采样融合后的特征分别传输到检测网络中进行3种不同尺度的检测,得到目标类别标签、检测框坐标与置信度。
作为优选的:步骤S2,具体包括:获取安全帽图片,并使用以下方法对数据进行图像增强处理:
a.调整图片色相:该方法主要是为了提高算法对不同颜色安全帽检测的鲁棒性;
b.调整图片曝光量:该方法是为了增强算法对不同光线条件下的图片检测的泛化能力;
c.调整图片饱和度:该方法是为了增加网络训练集中图片的数量;
d.增加图片模糊:增加运动模糊,使模型在具有模糊的场景下获得更好的鲁棒性;
d.马赛克数据扩增:随机混合四张具有不同语义信息的图片,可以让检测器检测超出常规语境的目标,增强模型的鲁棒性。
作为优选的:步骤S3,具体包括:获取增强后的安全帽图片后,利用CSPDarkNet53作为骨干网络进行特征提取,骨干网络CSPDarknet53是在darknet53网络的基础上,在每一个大残差块分别加上CSP模块(Cross Stage Partial,在输入处理单元之前,将输入分为两个部分,其中一部分通过处理单元进行计算,另一部分直接通过一个简单处理路径,进而两路特征进行连接)得到的轻量级特征提取网络;在CSPDarkNet53的每一个改进的残差模块中,首先将输入的特征映射为两部分,一部分经过原始残差模块,另一部分将输入的特征经过1×1卷积;然后将经过两个不同路径特征处理的特征进行拼接操作;最后将拼接后得到的特征进行1×1卷积处理得到输出的特征;将骨干网络提取到的特征传入空间金字塔池化模块,分别进行5×5,9×9,13×13的最大池化操作,然后将输出的三种不同的特征进行拼接操作,然后将拼接得到的特征运用1×1卷积进行处理,增加网络的感受野。
作为优选的:步骤S4,具体包括:所述路径融合网络从上到下,再从下到上,将由步骤S2输出的低层、中层和高层特征按高层,中层和底层的顺序交替融合,融合的过程中采用了空间注意力模块,其能将不同的特征按照学习到的特征权重进行高效地融合。
作为优选的:步骤S4,具体包括:所述空间注意力模块由3×3卷积层,最大池化层,平均池化层和1×1卷积层和特征拼接操作构成;空间注意力模块的功能为:
S41.使用mish函数作为非线性激活函数;
S42.使用平均池化层和最大池化层学习进行空间权重的学习;
S43.使用门控非线性sigmoid激活函数;
S44.使用卷积层对拼接的特征进行降维。
作为优选的:步骤S5,具体包括:将3次上采样融合后的特征分别传输到检测网络进行3次不同尺度的检测,每种尺度的检测都设定有3种先验框,总共使用K-means聚类算法得出9种不同尺寸的先验框;通过logistic回归得到所有先验框的目标存在可能性得分,即这块位置是目标的可能性有多大,并选取得分最高的先验框进行预测,最终将预测得到的目标类别标签,检测框坐标及置信度传入检测结果展示模块。
本发明的优点是:与现有技术相比,本发明可对工地、矿区等复杂场景下安全帽进行实时且高精度检测,检测准确高,鲁棒性较高,且能监督人员不佩戴安全帽的情况避免安全突发事故发生。
下面结合说明书附图和具体实施例对本发明作进一步说明。
附图说明
图1为本发明实施例的结构示意图;
图2为本发明实施例安全帽检测模块中注意力机制模块的示意图;
图3为本发明实施例系统数据流程图;
图4为本发明实施例在不同场景下安全帽检测的效果图。
具体实施方式
为了使得本发明的技术方案的目的、技术方案和优点更加清楚,下文中将结合本发明具体实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。附图中相同的附图标记代表相同的部件。需要说明的是,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1至图4,本发明公开的一种面向复杂场景的安全帽检测系统,包括数据采集模块、安全帽检测模块和检测结果展示模块,
数据采集模块:用于将各种形式的数据传输到安全帽检测模块进行实时安全帽检测,数据类型包括本地图片、本地视频、本地摄像机和远程网络摄像机拍摄的实时视频流;
安全帽检测模块:用于检测数据采集模块传输的视频或图片,准确识别出在生产场景下工人若干状态下的安全帽,并将检测框坐标与置信度传到检测结果展示模块;
检测结果展示模块:利用安全帽检测模块传回的类别标签,检测框坐标与置信度,在输入图片和视频中进行实时地标注,以实现对复杂场景下安全帽的实时检测。
作为优选的:所述安全帽检测模块能准确识别出工人佩戴安全帽、工人未佩戴安全帽和安全帽静置置物架上的三种状态的安全帽。
作为优选的:所述安全帽检测模块检测安全帽包括以下步骤:
S1、构建安全帽检测模型;其中,该检测模型包括CSPDarkNet53骨干网络、路径融合网络、空间金字塔池化模块、空间注意力模块和YOLOv3检测器模块;
S2、获取安全帽图像数据,利用调整图片色相、调整图片曝光量、调整图片饱和度、增加图片模糊和使用马赛克方法混合四张具有不同语义信息的图片五种不同的数据增强方式,对安全帽数据进行图像增强;
S3、取得增强后的安全帽图片,利用CSPDarknet53骨干网络提取安全帽图片的特征,将提取到的特征传入空间金字塔池化模块进行特征处理,该空间金字塔池化模块通过不同大小的池化层扩大网络的感受野;
S4、将提取到不同层次的特征传入路径融合网络,该路径融合网络将获得的每一层次特征首先利用线性插值操作进行上采样得到该层次第一种尺度的特征,再对其利用线性插值操作进行下采样得到该层次第二种尺度的特征,最后再对其利用线性插值操作进行上采样得到该层次第三种尺度的特征;对这些不同层次的特征进行多尺度融合,且在最后次上采样的特征(第三种尺度特征)融合的过程中,利用提出的空间注意力模块对特征进行动态融合;
S5、将最后3次上采样融合后的特征分别传输到检测网络中进行3种不同尺度的检测,得到目标类别标签、检测框坐标与置信度。
作为优选的:步骤S2,具体包括:获取安全帽图片,并使用以下方法对数据进行图像增强处理:
a.调整图片色相:该方法主要是为了提高算法对不同颜色安全帽检测的鲁棒性;
b.调整图片曝光量:该方法是为了增强算法对不同光线条件下的图片检测的泛化能力;
c.调整图片饱和度:该方法是为了增加网络训练集中图片的数量;
d.增加图片模糊:增加运动模糊,使模型在具有模糊的场景下获得更好的鲁棒性;
d.马赛克数据扩增:随机混合四张具有不同语义信息的图片,可以让检测器检测超出常规语境的目标,增强模型的鲁棒性。
作为优选的:步骤S3,具体包括:获取增强后的安全帽图片后,利用CSPDarkNet53作为骨干网络进行特征提取,骨干网络CSPDarknet53是在darknet53网络的基础上,在每一个大残差块分别加上CSP模块(Cross Stage Partial,在输入处理单元之前,将输入分为两个部分,其中一部分通过处理单元进行计算,另一部分直接通过一个简单处理路径,进而两路特征进行连接)得到的轻量级特征提取网络;在CSPDarkNet53的每一个改进的残差模块中,首先将输入的特征映射为两部分,一部分经过原始残差模块,另一部分将输入的特征经过1×1卷积;然后将经过两个不同路径特征处理的特征进行拼接操作;最后将拼接后得到的特征进行1×1卷积处理得到输出的特征;将骨干网络提取到的特征传入空间金字塔池化模块,分别进行5×5,9×9,13×13的最大池化操作,然后将输出的三种不同的特征进行拼接操作,然后将拼接得到的特征运用1×1卷积进行处理,增加网络的感受野。
作为优选的:步骤S4,具体包括:所述路径融合网络从上到下,再从下到上,将由步骤S2输出的低层、中层和高层特征按高层,中层和底层的顺序交替融合,融合的过程中采用了空间注意力模块,其能将不同的特征按照学习到的特征权重进行高效地融合。
作为优选的:步骤S4,具体包括:所述空间注意力模块由3×3卷积层,最大池化层,平均池化层和1×1卷积层和特征拼接操作构成;空间注意力模块的功能为:
S41.使用mish函数作为非线性激活函数;
S42.使用平均池化层和最大池化层学习进行空间权重的学习;
S43.使用门控非线性sigmoid激活函数;
S44.使用卷积层对拼接的特征进行降维。
作为优选的:步骤S5,具体包括:将3次上采样融合后的特征分别传输到检测网络进行3次不同尺度的检测,每种尺度的检测都设定有3种先验框,总共使用K-means聚类算法得出9种不同尺寸的先验框;通过logistic回归得到所有先验框的目标存在可能性得分,即这块位置是目标的可能性有多大,并选取得分最高的先验框进行预测,最终将预测得到的目标类别标签,检测框坐标及置信度传入检测结果展示模块。
实际应用时,具体步骤如下:
S1:系统初始化,数据采集模块将各种图像或者视频数据通过网络发送至所述安全帽检测模块;
S2:所述安全帽检测模块检测数据采集模块传输的视频或图片,准确识别出在各种生产场景下的三种状态的安全帽(工人佩戴安全帽,工人未佩戴安全帽,安全帽静置置物架上),并将检测框坐标与置信度传到检测结果展示模块。其特征在于:包括以下步骤:
a、构建安全帽检测模型;其中,该目标检测模型包括CSPDarkNet53骨干网络,路径融合网络,空间金字塔池化模块,空间注意力模块,YOLOv3检测器模块。
b、获取安全帽图像数据,利用五种不同的数据增强方式,对安全帽数据进行图像增强:1:调整图片色相;2:调整图片曝光量;3:调整图片饱和度;4:增加图片模糊;5:使用马赛克方法混合四张具有不同语义信息的图片。
c、取得增强后的安全帽图片,利用CSPDarknet53骨干网络提取安全帽图片的特征,将提取到的特征传入空间金字塔池化模块进行特征处理,该模块通过不同大小的池化层扩大网络的感受野。
d、将提取到不同层次的特征传入路径融合网络。该网络通过上采样,下采样再上采样的操作,对这些不同层次的特征进行多尺度融合,且在最后次上采样的特征融合的过程中,利用提出的空间注意力模块对特征进行动态融合。
e、将最后3次上采样融合后的特征分别传输到检测网络中进行3种不同尺度的检测(YOLOv3),得到目标类别标签、检测框坐标与置信度。
S3:所述检测结果展示模块利用安全帽检测模块传回的类别标签,检测框坐标与置信度,在输入图片和视频中进行实时地标注,以实现对复杂场景下安全帽的实时检测。
本发明可对工地、矿区等复杂场景下安全帽进行实时且高精度检测,检测准确高,鲁棒性较高,且能监督人员不佩戴安全帽的情况避免安全突发事故发生。
上述实施例对本发明的具体描述,只用于对本发明进行进一步说明,不能理解为对本发明保护范围的限定,本领域的技术工程师根据上述发明的内容对本发明作出一些非本质的改进和调整均落入本发明的保护范围之内。

Claims (8)

1.一种面向复杂场景的安全帽检测系统,其特征在于:包括数据采集模块、安全帽检测模块和检测结果展示模块,
数据采集模块:用于将各种形式的数据传输到安全帽检测模块进行实时安全帽检测,数据类型包括本地图片、本地视频、本地摄像机和远程网络摄像机拍摄的实时视频流;
安全帽检测模块:用于检测数据采集模块传输的视频或图片,准确识别出在生产场景下工人若干状态下的安全帽,并将检测框坐标与置信度传到检测结果展示模块;
检测结果展示模块:利用安全帽检测模块传回的类别标签,检测框坐标与置信度,在输入图片和视频中进行实时地标注,以实现对复杂场景下安全帽的实时检测。
2.根据权利要求1所述的一种面向复杂场景的安全帽检测系统,其特征在于:所述安全帽检测模块能准确识别出工人佩戴安全帽、工人未佩戴安全帽和安全帽静置置物架上的三种状态的安全帽。
3.根据权利要求2所述的一种面向复杂场景的安全帽检测系统,其特征在于:所述安全帽检测模块检测安全帽包括以下步骤:
S1、构建安全帽检测模型;其中,该检测模型包括CSPDarkNet53骨干网络、路径融合网络、空间金字塔池化模块、空间注意力模块和YOLOv3检测器模块;
S2、获取安全帽图像数据,利用调整图片色相、调整图片曝光量、调整图片饱和度、增加图片模糊和使用马赛克方法混合四张具有不同语义信息的图片五种不同的数据增强方式,对安全帽数据进行图像增强;
S3、取得增强后的安全帽图片,利用CSPDarknet53骨干网络提取安全帽图片的特征,将提取到的特征传入空间金字塔池化模块进行特征处理,该空间金字塔池化模块通过不同大小的池化层扩大网络的感受野;
S4、将提取到不同层次的特征传入路径融合网络,该路径融合网络将获得的每一层次特征首先利用线性插值操作进行上采样得到该层次第一种尺度的特征,再对其利用线性插值操作进行下采样得到该层次第二种尺度的特征,最后再对其利用线性插值操作进行上采样得到该层次第三种尺度的特征;对这些不同层次的特征进行多尺度融合,且在最后次上采样的特征融合的过程中,利用提出的空间注意力模块对特征进行动态融合;
S5、将最后3次上采样融合后的特征分别传输到检测网络中进行3种不同尺度的检测,得到目标类别标签、检测框坐标与置信度。
4.根据权利要求3所述的一种面向复杂场景的安全帽检测系统,其特征在于:步骤S2,具体包括:获取安全帽图片,并使用以下方法对数据进行图像增强处理:
a.调整图片色相:该方法主要是为了提高算法对不同颜色安全帽检测的鲁棒性;
b.调整图片曝光量:该方法是为了增强算法对不同光线条件下的图片检测的泛化能力;
c.调整图片饱和度:该方法是为了增加网络训练集中图片的数量;
d.增加图片模糊:增加运动模糊,使模型在具有模糊的场景下获得更好的鲁棒性;
d.马赛克数据扩增:随机混合四张具有不同语义信息的图片,可以让检测器检测超出常规语境的目标,增强模型的鲁棒性。
5.根据权利要求4所述的一种面向复杂场景的安全帽检测系统,其特征在于:
步骤S3,具体包括:获取增强后的安全帽图片后,利用CSPDarkNet53作为骨干网络进行特征提取,骨干网络CSPDarknet53是在darknet53网络的基础上,在每一个大残差块分别加上CSP模块得到的轻量级特征提取网络;在CSPDarkNet53的每一个改进的残差模块中,首先将输入的特征映射为两部分,一部分经过原始残差模块,另一部分将输入的特征经过1×1卷积;然后将经过两个不同路径特征处理的特征进行拼接操作;最后将拼接后得到的特征进行1×1卷积处理得到输出的特征;将骨干网络提取到的特征传入空间金字塔池化模块,分别进行5×5,9×9,13×13的最大池化操作,然后将输出的三种不同的特征进行拼接操作,然后将拼接得到的特征运用1×1卷积进行处理,增加网络的感受野。
6.根据权利要求5所述的一种面向复杂场景的安全帽检测系统,其特征在于:
步骤S4,具体包括:所述路径融合网络从上到下,再从下到上,将由步骤S2输出的低层、中层和高层特征按高层,中层和底层的顺序交替融合,融合的过程中采用了空间注意力模块,其能将不同的特征按照学习到的特征权重进行高效地融合。
7.根据权利要求6所述的一种面向复杂场景的安全帽检测系统,其特征在于:
步骤S4,具体包括:所述空间注意力模块由3×3卷积层,最大池化层,平均池化层和1×1卷积层和特征拼接操作构成;空间注意力模块的功能为:
S41.使用mish函数作为非线性激活函数;
S42.使用平均池化层和最大池化层学习进行空间权重的学习;
S43.使用门控非线性sigmoid激活函数;
S44.使用卷积层对拼接的特征进行降维。
8.根据权利要求7所述的一种面向复杂场景的安全帽检测系统,其特征在于:
步骤S5,具体包括:将3次上采样融合后的特征分别传输到检测网络进行3次不同尺度的检测,每种尺度的检测都设定有3种先验框,总共使用K-means聚类算法得出9种不同尺寸的先验框;通过logistic回归得到所有先验框的目标存在可能性得分,即这块位置是目标的可能性有多大,并选取得分最高的先验框进行预测,最终将预测得到的目标类别标签,检测框坐标及置信度传入检测结果展示模块。
CN202011283501.7A 2020-11-17 2020-11-17 一种面向复杂场景的安全帽检测系统 Pending CN112381005A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011283501.7A CN112381005A (zh) 2020-11-17 2020-11-17 一种面向复杂场景的安全帽检测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011283501.7A CN112381005A (zh) 2020-11-17 2020-11-17 一种面向复杂场景的安全帽检测系统

Publications (1)

Publication Number Publication Date
CN112381005A true CN112381005A (zh) 2021-02-19

Family

ID=74584874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011283501.7A Pending CN112381005A (zh) 2020-11-17 2020-11-17 一种面向复杂场景的安全帽检测系统

Country Status (1)

Country Link
CN (1) CN112381005A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906718A (zh) * 2021-03-09 2021-06-04 西安电子科技大学 一种基于卷积神经网络的多目标检测方法
CN113179386A (zh) * 2021-03-19 2021-07-27 江西铜业股份有限公司 一种矿区安全智能监控广播系统及其智能广播方法
CN113298130A (zh) * 2021-05-14 2021-08-24 嘉洋智慧安全生产科技发展(北京)有限公司 目标图像的检测、目标对象检测模型的生成方法
CN113408365A (zh) * 2021-05-26 2021-09-17 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020100711A4 (en) * 2020-05-05 2020-06-11 Chang, Cheng Mr The retrieval system of wearing safety helmet based on deep learning
AU2020100705A4 (en) * 2020-05-05 2020-06-18 Chang, Jiaying Miss A helmet detection method with lightweight backbone based on yolov3 network
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
AU2020100711A4 (en) * 2020-05-05 2020-06-11 Chang, Cheng Mr The retrieval system of wearing safety helmet based on deep learning
AU2020100705A4 (en) * 2020-05-05 2020-06-18 Chang, Jiaying Miss A helmet detection method with lightweight backbone based on yolov3 network
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HAIKUAN WANG,ET AL: "A Real-Time Safety Helmet Wearing Detection Approach Based on CSYOLOv3", 《APPLIED SCIENCES》, vol. 10, no. 19, pages 6732 - 6746 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906718A (zh) * 2021-03-09 2021-06-04 西安电子科技大学 一种基于卷积神经网络的多目标检测方法
CN112906718B (zh) * 2021-03-09 2023-08-22 西安电子科技大学 一种基于卷积神经网络的多目标检测方法
CN113179386A (zh) * 2021-03-19 2021-07-27 江西铜业股份有限公司 一种矿区安全智能监控广播系统及其智能广播方法
CN113179386B (zh) * 2021-03-19 2023-04-25 江西铜业股份有限公司 一种矿区安全智能监控广播系统及其智能广播方法
CN113298130A (zh) * 2021-05-14 2021-08-24 嘉洋智慧安全生产科技发展(北京)有限公司 目标图像的检测、目标对象检测模型的生成方法
CN113408365A (zh) * 2021-05-26 2021-09-17 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置
CN113408365B (zh) * 2021-05-26 2023-09-08 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置

Similar Documents

Publication Publication Date Title
CN112381005A (zh) 一种面向复杂场景的安全帽检测系统
CN110419048B (zh) 用于标识所定义的对象的系统
TWI439951B (zh) 人臉影像性別辨識系統及其辨識方法及其電腦程式產品
CN113516076B (zh) 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN107291810A (zh) 数据处理方法、装置及存储介质
CN113688709B (zh) 一种安全帽佩戴智能检测方法、系统、终端及介质
CN110852222A (zh) 一种基于目标检测的校园走廊场景智能监控方法
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN116259002A (zh) 一种基于视频的人体危险行为分析方法
CN115546742A (zh) 一种基于单目热红外摄像头的铁轨异物识别方法及系统
CN111950457A (zh) 油田安全生产图像识别方法及系统
KR102653485B1 (ko) 화재 감지를 위한 화재 감지 모델을 구축하는 전자 장치 및 그 방법
CN116310922A (zh) 石化厂区监控视频风险识别方法、系统、电子设备及存储介质
CN115994911B (zh) 一种基于多模态视觉信息融合的游泳馆目标检测方法
US20180025214A1 (en) Face recognition method
CN117152844A (zh) 基于计算机视觉的高完整性工人施工姿态检测方法及系统
CN114529979A (zh) 人体姿势辨识系统、人体姿势辨识方法以及非暂态计算机可读取储存媒体
CN113850134A (zh) 一种融合注意力机制相的安全帽佩戴检测方法及系统
CN115953744A (zh) 一种基于深度学习的车辆识别追踪方法
CN115862138A (zh) 一种人员摔倒行为检测方法、装置、设备及存储介质
US10650275B2 (en) Method for detection of temporal pattern anomalies in video streams
CN116453194B (zh) 一种人脸属性判别方法及装置
US20190266403A1 (en) Server, method and wearable device for supporting maintenance of military apparatus based on binary search tree in augmented reality-, virtual reality- or mixed reality-based general object recognition
CN112307831A (zh) 一种基于人体关键点检测与跟踪的剧烈运动检测方法
Hayles et al. A Convolutional Neural Network Based Robust Automated Real-Time Image Detection System for Personal Protective Equipment.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination