CN114005089A - 一种多场景施工的安全帽和反光衣检测方法 - Google Patents
一种多场景施工的安全帽和反光衣检测方法 Download PDFInfo
- Publication number
- CN114005089A CN114005089A CN202111328276.9A CN202111328276A CN114005089A CN 114005089 A CN114005089 A CN 114005089A CN 202111328276 A CN202111328276 A CN 202111328276A CN 114005089 A CN114005089 A CN 114005089A
- Authority
- CN
- China
- Prior art keywords
- detection
- model
- target
- safety helmet
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Helmets And Other Head Coverings (AREA)
Abstract
本发明公开了一种多场景施工的安全帽和反光衣检测方法,首先获取监控视频中被检测目标的特征,对视频中的特征图的不同通道进行权衡,融合注意力机制提高特征的泛化能力;其次设置多层特征提取网络对被检测目标特征进行加强,充分利用特征对特征提取网络进行改进,引入注意力机制,提高模型的特征提取能力和检测精度;最后考虑到目标较小的特点,进一步优化特征融合层和多尺度检测层的特征尺度,使检测模型更好地适应小目标,以及学习到目标泛化的特征,能适应不同场景的施工领域;本发明能对多场景施工区域工作人员是否穿戴安全帽和反光衣进行检测。
Description
技术领域
本发明属于计算机视觉和数字图像处理技术领域,涉及一种多场景施工的安全帽和反光衣检测方法。
背景技术
在建筑工地、矿场、隧道、市政施工等日常的生产过程中,出于施工人员安全的考虑,对工作人员均要求佩戴安全帽。在必要时,还需穿戴反光衣来保障人员的安全。在监控系统中,智能化检测识别工人是否穿戴安全帽和反光衣,不仅大幅度减少了人工参与,在一定程度上保障施工人员的安全,而且能有效提高安全监管效率。
目前安全帽识别技术都是在特定场景下对安全帽识别,存在对环境要求高、易受环境干扰、泛化能力差,鲁棒性差等问题。但是以往的安全检测仅仅对于安全帽的检测,并未聚焦于反光衣,安全帽和反光衣检测往往因为目标较小、特征遮挡严重,存在检测精度低和漏检等情况。常见的安全检测仅仅是对于安全帽的检测,但在多场景中,安全帽和反光衣检测易混淆、特征不明显,再加上对反光衣识别,仅仅通过目标检测模型对安全帽、反光衣与混淆服饰(鸭舌帽、大檐帽、带反光条的衣服)难以区分,导致安全帽和反光衣检测效果差。
综上所述,目前的施工安全仅对安全帽检测,在特定施工场景下还需穿反光衣来保障安全,同时存在对环境要求高、泛化能力差、鲁棒性差等问题,导致安全帽和反光衣检测效果差。
发明内容
为解决现有技术在仅对安全帽检测存在的不足,本发明提供了一种多场景施工的安全帽和反光衣检测方法。解决了实际场景中检测目标单一的问题,适用于多场景下安全帽和反光衣检测,同时具有极强的鲁棒性。
一种多场景施工的安全帽和反光衣检测方法主要步骤如下:
(1)考虑到多场景的复杂性,提出基于注意力机制的特征提取网络,用于提升模型的泛化能力;
(2)让检测网络学习到更多的局部信息,并融合全局信息做出更加准确的判断,采取增大全局感受野的方式,捕获更多的图像特征描述图片;
(3)增加特征提取层会增加模型参数,但是高层卷积不会丢失特征信息,相反会获取更多的特征信息;
(4)添加注意力机制的SENetC3主干网络和特征提取网络的数量,加大特征提取网络的全局感受野,增强特征提取能力,有效减少环境和混淆物对安全服饰检测的影响,避免误检和漏检等问题;
(5)将加权双向特征金字塔网络BiFPN作为特征融合网络,接受来自主干网络的P3至P6层的特征,并重复应用下层节点融合到上层节点共同学习的双向特征融合;
(6)使用特征多尺度以及局部感受区域,捕获跨通道的信息,还能捕获方向感知和位置感知的信息,这能帮助模型更加精准地定位和检测目标特征。
附图说明
为了更清楚的说明本发明的具体技术方案,下面将对本发明中涉及的附图进行说明。
图 1 是特征提取和特征融合网络过程流程图;
图 2 是安全帽和反光衣检测模型图;
图 3 是实际场景检测图;
图 4 是鲁棒性检测图。
具体实施方式
本发明提出了一种多场景施工的安全帽和反光衣检测方法,该检测方法解决多元场景下安全帽和反光衣穿戴识别的问题,可以适用于建筑工地、矿场、隧道、市政施工等对安全要求较高的场景,有效提高监管效率,减轻人工负担。
从多场景施工环境中,获取待检测的监控视频数据,并对视频数据进行预处理;将所处理的监控视频数据输入检测网络进行预测,得到视频帧中的特征信息;获取的特征信息包括目标类别、目标个数和检测框位置信息;根据进程目标类别、检测目标个数和检测框位置信息确定施工人员是否正确穿戴安全帽和反光衣。
本发明的具体操作流程如下:
1、提取被检测区域内监控设备的视频输入,以此为基础,对待检测场景的监控视频进行逐帧截取,将截取的视频监控图片的图片大小进行自适应缩放;
2、对多个处理后图像在Mosic数据增强模块对输入的图像按照随机裁剪、随机缩放、随机排布的方式进行拼接成相应待检测的图片;
3、获取待检测图片后,利用基于注意力的SENet模块,在已经训练好的模型的基础上,针对场景中的安全帽和反光衣特征所在的位置进行感知,选取感兴趣的特征,保存在模型的输入中,作为在特征提取过程中增强特征的功能;
4、将待检测的图片输入到主干网络当中,根据已经训练好的网络,对输入的待检测图片中场景中的安全帽特征和位置及其反光衣特征和位置进行确定,基于注意力机制的特征提取网络,可以对输入图片场景中全部目标特征进行感知,并对已经提取到的目标特征进行扩充;
5、根据特征提取网络对特征提取网络输入的充分提取,在对不同尺度的特征获取后,由SPP模块对特征进行进一步融合的多特征提取,因此可以提取到更为丰富的特征信息;
6、在特征融合网络中,在同一特征提取网络级别,从原始输入到输出节点添加额外的边,以便在不增加太多成本的情况下融合更多的特征将自顶向下和自底向上路径视为一个特征网络层,对特征融合网络层的扩充,将SPP输入的多尺度特征信息多次提取,并多次重复同一层,以实现更高级别的特征融合;
7、在特征融合网络中添加额外的权重,让网络学习到各个特征层的重要权重分布,根据输入图像得到四个不同大小的YOLO Head输出特征图,使用归一化操作,得到四种输出融合图Y_1、Y_2、Y_3、Y_4,最后利用非极大值抑制保留最优框,得出安全帽和反光衣穿戴检测结果,如图2和图3所示。
鲁棒性测试:
(1)检测模型在大多数场景下均具有较好的检测效果,为了验证多目标检测方法的鲁棒性,从处理干扰项方面进行了测试;
(2)从图4中可看出,本文检测网络可以很好地适用于各种场景下,图片中左侧的安全帽和右侧图片中安全带并未成为检测网络模型的干扰项。
Claims (5)
1.将多场景下监控视频分为多帧图像,对图像中有待检测目标的图像进行标注和预处理,得到训练样本,并将所述训练集划分为用于训练和验证的安全服饰数据集。
2.改进了基于注意力机制的卷积块SENet用于主干网络,让模型更加关注信息量最大的通道特征,抑制非重要的通道特征。
3.将特征融合网络替换为BiFPN,将下层节点特征融合到上层节点共同学习,实现多层次、多节点的融合学习。
4.先利用VOC公共数据集对改进检测网络模型进行预训练,结合迁移学习思想,采用真实的多场景下施工图像训练集改进检测网络模型进行重新训练。
5.从训练后的目标检测模型中选择检测精度最高的模型作为最优目标检测模型;采用最优模型对多场景下施工图像验证集进行逐个检测,得到安全帽和反光衣特征准确率与召回率等性能指标,将待检测监控视频输入到检测网络模型得到目标检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111328276.9A CN114005089A (zh) | 2021-11-10 | 2021-11-10 | 一种多场景施工的安全帽和反光衣检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111328276.9A CN114005089A (zh) | 2021-11-10 | 2021-11-10 | 一种多场景施工的安全帽和反光衣检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114005089A true CN114005089A (zh) | 2022-02-01 |
Family
ID=79928515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111328276.9A Pending CN114005089A (zh) | 2021-11-10 | 2021-11-10 | 一种多场景施工的安全帽和反光衣检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114005089A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
-
2021
- 2021-11-10 CN CN202111328276.9A patent/CN114005089A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368690B (zh) | 基于深度学习的海浪影响下视频图像船只检测方法及系统 | |
CN111881730A (zh) | 一种火电厂现场安全帽佩戴检测方法 | |
CN108875602A (zh) | 监控环境下基于深度学习的人脸识别方法 | |
CN105590099B (zh) | 一种基于改进卷积神经网络的多人行为识别方法 | |
CN111832443B (zh) | 一种施工违规行为检测模型的构建方法及其应用 | |
CN112580664A (zh) | 一种基于ssd网络的小目标检测方法 | |
Wang et al. | FE-YOLOv5: Feature enhancement network based on YOLOv5 for small object detection | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN111582092B (zh) | 一种基于人体骨架的行人异常行为检测方法 | |
CN112163572A (zh) | 识别对象的方法和装置 | |
CN106295502A (zh) | 一种人脸检测方法及装置 | |
CN105243356B (zh) | 一种建立行人检测模型的方法及装置及行人检测方法 | |
CN114399672A (zh) | 一种基于深度学习的铁路货车闸瓦故障检测方法 | |
CN109858547A (zh) | 一种基于bssd的目标检测方法与装置 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN113313037A (zh) | 一种基于自注意力机制的生成对抗网络视频异常检测方法 | |
CN113673607A (zh) | 图像标注模型的训练及图像标注的方法及装置 | |
CN116342894B (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
CN109740609A (zh) | 一种轨距检测方法及装置 | |
CN110675374A (zh) | 一种基于生成对抗网络的二维图像污水流量检测方法 | |
Mu et al. | Salient object detection in low contrast images via global convolution and boundary refinement | |
CN114005089A (zh) | 一种多场景施工的安全帽和反光衣检测方法 | |
CN105160285A (zh) | 基于立体视觉的自动人体跌倒识别方法及系统 | |
CN115100497A (zh) | 基于机器人的通道异常物体巡检方法、装置、设备及介质 | |
CN116977904A (zh) | 一种基于YOLOv5的快速识别大场景多人工衣检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |