CN114913606A - 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 - Google Patents

一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 Download PDF

Info

Publication number
CN114913606A
CN114913606A CN202210691592.0A CN202210691592A CN114913606A CN 114913606 A CN114913606 A CN 114913606A CN 202210691592 A CN202210691592 A CN 202210691592A CN 114913606 A CN114913606 A CN 114913606A
Authority
CN
China
Prior art keywords
industrial field
feature
violation
field production
production work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210691592.0A
Other languages
English (en)
Inventor
陈彬彬
王修晖
王亚茹
李学盛
贾波
包其富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202210691592.0A priority Critical patent/CN114913606A/zh
Publication of CN114913606A publication Critical patent/CN114913606A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Manufacturing & Machinery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,搭建图像采集系统,收集训练样本,再通过数据增强将数据集扩充并进行人工标注,建立工业现场生产工作区域违规行为数据集;基于YOLO的深度学习的方法,根据工地现场违规行为数据集的特点,提出全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN,并且使用alpha‑iou Loss优化Loss函数,使用diou‑NMS替代传统的NMS,最终得到一个新的YOLO网络模型;利用数据集对改进后的YOLO网络模型进行训练,得到能够精确检测是否具有违规行为(工业现场生产工作区域未佩戴安全帽、抽烟等行为)的网络模型;利用训练得到的网络模型,实现对工业现场生产工作区域的违规行为进行检测。本发明能够有效地提高工业现场生产工作区域违规行为检测的精度,具有广阔的应用前景。

Description

一种基于YOLO的深度学习的工业现场生产工作区域的违规检 测方法
技术领域
本发明涉及施工现场领域中的工业现场生产工作区域违规行为检测的相关问题,具体涉及一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法。
背景技术
在工业现场的生产工作区域,由于工作人员的不安全行为(例如,未正确规范佩戴安全帽、抽烟等违规行为等)经常导致事故的发生。如果发生事故,会给员工和企业都造成恶劣的后果。为了减少安全事故的发生,对生产工作区域内人员的不安全行为的检测的研究具有重要的意义。因此,将目标检测用于检测工业现场的生产工作区域违规行为,基于现有目标检测算法提出了一种检测违规行为的方法。该方法可以有效地保护工人的安全、降低由于工业现场的生产工作区域的工人未正确规范佩戴安全帽、抽烟等违规行为而引起的意外事件的发生。
发明内容
本发明技术解决问题:克服现有技术的不足,提供一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,能够有效地提高工业现场生产工作区域违规检测的精度,并有具有良好的实时性和迁移性,具有广阔的应用前景。
本发明技术解决这群:基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,包括以下步骤:
步骤一:搭建工业现场生产工作区域违规检测系统,建立违规行为数据集。
(1)在工业现场生产工作区域,收集大量施工现场违规行为图像作为训练图像,除去无效的图像后得到工业现场生产工作区域违规行为数据集;
(2)通过数据增强将数据集扩充,再通过标记软件对工业现场生产工作区域违规行为图像进行具体位置的标记,每类违规行为随机选取10%作为测试集,每类违规行为剩余的90%作为训练集。
步骤二:构造工业现场生产工作区域检测模型。构造加入自适应注意力结构嵌入模型(ASAM)、增强特征提取的网络模块GFPN、优化Loss函数和传统NMS的YOLO网络模型,网络结构如图2所示,其具体步骤如下:
采用单阶段检测器YOLO,将获得的特征图3接入到自适应自注意力结构嵌入模型(ASAM)中进行处理,再和输入图像先经过2倍下采样、通过高分辨率主干网络进行低倍率下采样后得到的特征图进行拼接操纵;同时将下采样后的特征图进行进行特征融合结构GFPN,再分别输入到检测头中进行检测,得到最后的预测结果。
其中所述自适应自注意力结构嵌入模型(ASAM),其网络结构分成两部分,且均放在主干网络之中。该模块的输入层大小为H×W。它首先通过自适应池化层获得三个不同尺度(β1×H×W、β2×H×W、β3×H×W)的上下文特征。然后,再将这三个上下文特征进行上采样得到三个特征图。将其中两个特征图的上下文特征的通道合并,然后特征映射依次经过3×3、1×1卷积层、ReLU激活层、1x1卷积层和Sigmoid激活层,为每个特征映射生成相应的空间权重。生成的权重图和合并通道后的特征图进行乘积运算,将其分离并和另外一个上下文特征进行相加,再与上下文输入特征图相加,将上下文特征聚合到上述特征图中。使得最终得到的特征图具有丰富的多尺度上下文信息,在一定程度上缓解了由于通道数量减少而造成的信息损失。
其中所述特征融合GFPN中,将主干图层3、4、5层的特征传递到GFPN作为选定的多尺度特征层;特征层再通过一层卷积达到提取显著特征,减少特征维数的目的;其次通过上采样来完成自上而下的特征融合,高层特征通过上采样调整分辨率进而与低层特征信息进行拼接融合;然后对融合得到的特征通过一个3×3的卷积层以达到消除混叠效应的目的;再通过最大池化来完成自上而下的特征融合,从而调整分辨率,得到的特征再与高层特征进行再融合,最终得到3个尺度不同的输出特征。
步骤三:训练和测试
利用划分后的数据集放入加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行训练,得到能够精确识别是否具有违规行为的网络模型。保留最后所得权重,作为网络最终的权重。当其在训练1000个回合中精度浮动变化不超过0.03均值平均精度(mAP)可认为网络已经收敛。
本发明与现有技术相比优点在于:
(1)本发明能准确地对工业现场生产工作区域中未佩戴安全帽、抽烟这两种违规行为进行检测。
(2)相比于目前已有的方法,本发明成本低,检测精度高,受外界干扰小,具有的实时性和迁移性,并且能有效提高检测的精度,具有十分广阔的应用前景。
附图说明
图1是本发明的方法顺序图;
图2为分别采用本发明中工业现场生产工作区域的违规检测模型的框架图。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,说明如下:
如图1所示,本发明所述的一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,包括以下步骤:
第一步,搭建工业现场生产工作区域违规检测系统,建立违规行为数据集;
(1)工业现场生产工作区域违规行为图像的收集,收集大量工现场违规行为图像作为训练图像,得到若干个施工现场违规行为图像训练样本;
(2)通过数据增强将数据集扩充,再通过标记软件对施工现场违规行为图像进行具体位置的标记;
第二步,构造工业现场生产工作区域违规行为检测模型。构造提出全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN,并且使用alpha-iou Loss优化Loss函数,使用diou-NMS替代传统的NMS,最终得到一个新的YOLO网络模型,网络结构如图2所示,其具体步骤如下:
采用单阶段检测器YOLO,将获得的特征图3接入到自适应自注意力结构嵌入模型(ASAM)中进行处理,再和输入图像先经过2倍下采样、通过高分辨率主干网络进行低倍率下采样后得到的特征图进行拼接操纵;同时将下采样后的特征图进行进行特征融合结构GFPN,再分别输入到检测头中进行检测,得到最后的预测结果。
其中所述自适应自注意力结构嵌入模型(ASAM),其网络结构分成两部分,且均放在主干网络之中。该模块的输入层大小为H×W。它首先通过自适应池层获得三个不同尺度(β1×H×W、β2×H×W、β3×H×W)的上下文特征。然后,再将这三个上下文特征进行上采样得到三个特征图。将其中两个特征图的上下文特征的通道合并,然后特征映射依次经过3×3、1×1卷积层、ReLU激活层、1x1卷积层和Sigmoid激活层,为每个特征映射生成相应的空间权重。生成的权重图和合并通道后的特征图进行乘积运算,将其分离并和另外一个上下文特征进行相加,再与上下文输入特征图相加,将上下文特征聚合到上述特征图中。使得最终得到的特征图具有丰富的多尺度上下文信息,在一定程度上缓解了由于通道数量减少而造成的信息损失。
其中所述特征融合GFPN中,将主干图层3、4、5层的特征传递到GFPN作为选定的多尺度特征层;特征层再通过一层卷积达到提取显著特征,减少特征维数的目的;其次通过上采样来完成自上而下的特征融合,高层特征通过上采样调整分辨率进而与低层特征信息进行拼接融合;然后对融合得到的特征通过一个3×3的卷积层以达到消除混叠效应的目的;再通过最大池化来完成自上而下的特征融合,从而调整分辨率,得到的特征再与高层特征进行再融合,最终得到3个尺度不同的输出特征。
第三步,训练和测试
利用划分后的数据集放入加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行训练,得到能够精确识别是否具有违规行为的网络模型。
第四步,用训练好的加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行施工现场违规检测。
(1)从施工现场违规检测系统中获取工业现场生产工作区域违规行为的图像;
(2)对获取的工业现场生产工作区域违规行为图像进行预处理;
(3)将预处理后的工业现场生产工作区域违规行为图像送入通过训练获得的模型文件中进行分类,即获得该工业现场生产工作区域违规行为检测结果。
第五步,对得到加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行对比分析。
经过对比和分析,相比于目前已有的其他方法,加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型对工业现场生产工作区域违规行为进行检测精度更高,其评估指标(mAP)如表1所示。从中可以看出,本发明方法具有更高的检测精度。
表1本发明方法与三种现有方法的实验结果比较
Faster-RCNN YOLOv4 YOLOv5 本发明方法
mAP 0.682 0.718 0.735 0.767

Claims (1)

1.一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,其特征在于步骤如下:
步骤一:搭建工业现场生产工作区域违规检测系统,建立违规行为数据集;
(1)工业现场生产工作区域违规行为图像的收集,收集大量工现场违规行为图像作为训练图像,得到若干个施工现场违规行为图像训练样本;
(2)通过数据增强将数据集扩充,再通过标记软件对施工现场违规行为图像进行具体位置的标记;
步骤二:基于深度学习的方法,根据工业现场生产工作区域违规行为数据集,提出全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN,并且使用alpha-iou Loss优化Loss函数,使用diou-NMS替代传统的NMS,最终得到一个新的YOLO网络模型。
自适应注意力结构嵌入模型(ASAM):
所述自适应自注意力结构嵌入模型(ASAM),其网络操作分成两个步骤:通过自适应平均池层获得不同尺度的多个上下文特征,将数据集中的目标自适应地转换成指定的输出大小;再通过空间注意机制为特征图生成空间权重图,通过权重图,融合上下文特征,生成包含多尺度上下文信息的新特征图,为了防止传播过程中特征的丢失,将新的特征图与自适应后的特征图以及原始高层特征图相结合,最终实现特征融合得到新的特征图。
该模块中,输入的特征图Fin,其长、宽、通道数分为别为H、W、C;Fin再分别三次经过自适应池化(Apg)和上采样(ups)得到三个特征图,分别为F1、F2、F3。其计算过程如公式(1)-(4)所示。
Fin=H×W×C (1)
F1=ups(Avg(Fin))
F2=ups(Avg(Fin))
F3=ups(Avg(Fin)) (2)-(4)
再将F1、F2做通道拼接操作(cat)得到特征图F4,再将得到的特征图经过一个3×3卷积(conv1)、relu激活函数(γ)、1x1卷积以及sigmoid(σ)激活函数,最终得到权重wi。其计算过程如公式(5)所示。
wi=σ(conv1(γ(conv3(cat(F1;F2))))) (5)
最后将特征图F4和上面得到的权重参数wi相乘得到特征图F5,再将新得到的特征图分离成两个通道数均为C的特征图F51和F52,将F51、F52、F3和Fin相加得到新的融合特征图Fout。其计算过程如公式(6)-(7)所示。
Figure FDA0003700077390000021
Fout=F3+F5[:C]+F5[C:2C]+Fin (7)
增强特征提取的网络模块GFPN:
其将主干的C3到C5层的特征传递到GFPN作为选定的多尺度特征层;再特征层通过一层卷积达到提取显著特征,减少特征维数的目的;其次通过上采样来完成自上而下的特征融合,高层特征通过上采样调整分辨率进而与低层特征信息进行拼接融合;然后对融合得到的特征通过一个3×3的卷积层以达到消除混叠效应的目的;再通过最大池化来完成自上而下的特征融合,从而调整分辨率,得到的特征再与高层特征进行再融合,最终得到3个尺度不同的输出特征P3、P4、P5
Loss函数和传统NMS的优化:
为了解决原有Loss函数在回归过程中未考虑Bounding box的纵横比,在两个框相交时,在水平和垂直方向上收敛慢的问题。引用了Alpha-IoU来替换原本的GIoU指标,通过调节α,自适应地重新加权高或低IoU目标的损失和梯度,使检测器在实现不同水平的Bounding box回归精度方面具有更大的灵活。无论在干净或嘈杂的环境下,都不会引入额外的参数,也不增加训练时间。α-IoU的计算公式(8)所示:
Figure FDA0003700077390000022
在传统NMS中,IoU指标常用于抑制冗余预测边界框检,由于遮挡情况经常会产生错误抑制,因此需要考虑重叠区域。DIoU-NMS将DIoU作为NMS的准则,同时考虑了重叠区域和两个框的中心距离。
步骤三:对于步骤一的工业现场生产工作区域违规行为数据集进行划分,将其按9:1的比例分为训练集和测试集,并对不同分辨率和大小的样本进行平均,以确保不同大小的图像能够得到充分的训练和测试。利用划分后的数据集对加入自适应注意力结构嵌入模型(ASAM)、增强特征提取的网络模块GFPN、优化Loss函数和传统NMS的YOLO网络模型进行训练,得到能够精确检测是否具有违规行为的网络模型;
步骤四:利用步骤三训练后的YOLO网络模型,对工业现场生产工作区域进行检测,从而实现对违规行为的检测,具体如下:
(1)从工业现场生产工作区域视频监控中获取图像;
(2)将图像送入通过训练获得的加入自适应注意力结构嵌入模型(ASAM)、增强特征提取的网络模块GFPN、优化Loss函数和传统NMS的YOLO网络模型中进行检测分类,即获得工业现场生产工作区域违规行为检测结果。
CN202210691592.0A 2022-06-17 2022-06-17 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 Withdrawn CN114913606A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210691592.0A CN114913606A (zh) 2022-06-17 2022-06-17 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210691592.0A CN114913606A (zh) 2022-06-17 2022-06-17 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法

Publications (1)

Publication Number Publication Date
CN114913606A true CN114913606A (zh) 2022-08-16

Family

ID=82772338

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210691592.0A Withdrawn CN114913606A (zh) 2022-06-17 2022-06-17 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法

Country Status (1)

Country Link
CN (1) CN114913606A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116165981A (zh) * 2023-02-13 2023-05-26 大连交通大学 一种工业行业安全生产智能监控系统
CN117152419A (zh) * 2023-10-11 2023-12-01 中国矿业大学 一种矿井架空乘人装置人员违规携带物品的检测方法及系统
CN117237993A (zh) * 2023-11-10 2023-12-15 四川泓宝润业工程技术有限公司 作业现场违规行为检测方法、装置、存储介质及电子设备
CN117456461A (zh) * 2023-11-07 2024-01-26 北京城市轨道交通咨询有限公司 一种动火作业违规检测方法及装置
CN117765378A (zh) * 2024-02-22 2024-03-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116165981A (zh) * 2023-02-13 2023-05-26 大连交通大学 一种工业行业安全生产智能监控系统
CN117152419A (zh) * 2023-10-11 2023-12-01 中国矿业大学 一种矿井架空乘人装置人员违规携带物品的检测方法及系统
CN117152419B (zh) * 2023-10-11 2024-03-29 中国矿业大学 一种矿井架空乘人装置人员违规携带物品的检测方法及系统
CN117456461A (zh) * 2023-11-07 2024-01-26 北京城市轨道交通咨询有限公司 一种动火作业违规检测方法及装置
CN117237993A (zh) * 2023-11-10 2023-12-15 四川泓宝润业工程技术有限公司 作业现场违规行为检测方法、装置、存储介质及电子设备
CN117237993B (zh) * 2023-11-10 2024-01-26 四川泓宝润业工程技术有限公司 作业现场违规行为检测方法、装置、存储介质及电子设备
CN117765378A (zh) * 2024-02-22 2024-03-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置
CN117765378B (zh) * 2024-02-22 2024-04-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置

Similar Documents

Publication Publication Date Title
CN114913606A (zh) 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法
CN110059694B (zh) 电力行业复杂场景下的文字数据的智能识别方法
CN111292330A (zh) 基于编解码器的图像语义分割方法及装置
CN112967243A (zh) 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法
CN103903008B (zh) 一种基于图像识别输电线路的雾等级的方法以及系统
US20230360390A1 (en) Transmission line defect identification method based on saliency map and semantic-embedded feature pyramid
CN111222478A (zh) 一种工地安全防护检测方法和系统
CN110751195B (zh) 一种基于改进YOLOv3的细粒度图像分类方法
CN105931246A (zh) 一种基于小波变换和遗传算法的织物瑕疵检测方法
CN113283356B (zh) 多级注意力尺度感知人群计数方法
CN112669274B (zh) 一种用于表面异常区域像素级分割的多任务检测方法
CN113642474A (zh) 一种基于yolov5的危险区域人员监控方法
CN111738054A (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN113313031B (zh) 一种基于深度学习的车道线检测和车辆横向定位方法
CN112364754A (zh) 螺栓缺陷检测方法及系统
Hongmeng et al. A detection method for deepfake hard compressed videos based on super-resolution reconstruction using CNN
CN116012653A (zh) 一种注意力残差单元神经网络高光谱图像分类方法及系统
CN116092179A (zh) 一种改进的yolox跌倒检测系统
CN117115715A (zh) 一种基于流重构和帧预测结合的视频异常检测方法
CN114821316A (zh) 一种三维探地雷达裂缝病害识别方法及系统
CN114170686A (zh) 一种基于人体关键点的屈肘行为检测方法
Shit et al. An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection
CN113011338A (zh) 一种车道线检测方法及系统
CN117197746A (zh) 基于深度学习的安全监测系统及方法
CN114494999B (zh) 一种双分支联合型目标密集预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20220816