CN114913606A - 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 - Google Patents
一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 Download PDFInfo
- Publication number
- CN114913606A CN114913606A CN202210691592.0A CN202210691592A CN114913606A CN 114913606 A CN114913606 A CN 114913606A CN 202210691592 A CN202210691592 A CN 202210691592A CN 114913606 A CN114913606 A CN 114913606A
- Authority
- CN
- China
- Prior art keywords
- industrial field
- feature
- violation
- field production
- production work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 40
- 238000001514 detection method Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 10
- 230000006399 behavior Effects 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims abstract description 10
- 238000010276 construction Methods 0.000 claims abstract description 9
- 230000002708 enhancing effect Effects 0.000 claims abstract description 9
- 238000010586 diagram Methods 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 4
- 241000282326 Felis catus Species 0.000 claims 2
- 238000005457 optimization Methods 0.000 claims 2
- 238000012935 Averaging Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 claims 1
- 230000001629 suppression Effects 0.000 claims 1
- 230000000391 smoking effect Effects 0.000 abstract description 4
- XXQGYGJZNMSSFD-UHFFFAOYSA-N 2-[2-(dimethylcarbamoyl)phenoxy]acetic acid Chemical compound CN(C)C(=O)C1=CC=CC=C1OCC(O)=O XXQGYGJZNMSSFD-UHFFFAOYSA-N 0.000 abstract 1
- 102100022443 CXADR-like membrane protein Human genes 0.000 abstract 1
- 230000004931 aggregating effect Effects 0.000 description 2
- 235000019504 cigarettes Nutrition 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Manufacturing & Machinery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,搭建图像采集系统,收集训练样本,再通过数据增强将数据集扩充并进行人工标注,建立工业现场生产工作区域违规行为数据集;基于YOLO的深度学习的方法,根据工地现场违规行为数据集的特点,提出全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN,并且使用alpha‑iou Loss优化Loss函数,使用diou‑NMS替代传统的NMS,最终得到一个新的YOLO网络模型;利用数据集对改进后的YOLO网络模型进行训练,得到能够精确检测是否具有违规行为(工业现场生产工作区域未佩戴安全帽、抽烟等行为)的网络模型;利用训练得到的网络模型,实现对工业现场生产工作区域的违规行为进行检测。本发明能够有效地提高工业现场生产工作区域违规行为检测的精度,具有广阔的应用前景。
Description
技术领域
本发明涉及施工现场领域中的工业现场生产工作区域违规行为检测的相关问题,具体涉及一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法。
背景技术
在工业现场的生产工作区域,由于工作人员的不安全行为(例如,未正确规范佩戴安全帽、抽烟等违规行为等)经常导致事故的发生。如果发生事故,会给员工和企业都造成恶劣的后果。为了减少安全事故的发生,对生产工作区域内人员的不安全行为的检测的研究具有重要的意义。因此,将目标检测用于检测工业现场的生产工作区域违规行为,基于现有目标检测算法提出了一种检测违规行为的方法。该方法可以有效地保护工人的安全、降低由于工业现场的生产工作区域的工人未正确规范佩戴安全帽、抽烟等违规行为而引起的意外事件的发生。
发明内容
本发明技术解决问题:克服现有技术的不足,提供一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,能够有效地提高工业现场生产工作区域违规检测的精度,并有具有良好的实时性和迁移性,具有广阔的应用前景。
本发明技术解决这群:基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,包括以下步骤:
步骤一:搭建工业现场生产工作区域违规检测系统,建立违规行为数据集。
(1)在工业现场生产工作区域,收集大量施工现场违规行为图像作为训练图像,除去无效的图像后得到工业现场生产工作区域违规行为数据集;
(2)通过数据增强将数据集扩充,再通过标记软件对工业现场生产工作区域违规行为图像进行具体位置的标记,每类违规行为随机选取10%作为测试集,每类违规行为剩余的90%作为训练集。
步骤二:构造工业现场生产工作区域检测模型。构造加入自适应注意力结构嵌入模型(ASAM)、增强特征提取的网络模块GFPN、优化Loss函数和传统NMS的YOLO网络模型,网络结构如图2所示,其具体步骤如下:
采用单阶段检测器YOLO,将获得的特征图3接入到自适应自注意力结构嵌入模型(ASAM)中进行处理,再和输入图像先经过2倍下采样、通过高分辨率主干网络进行低倍率下采样后得到的特征图进行拼接操纵;同时将下采样后的特征图进行进行特征融合结构GFPN,再分别输入到检测头中进行检测,得到最后的预测结果。
其中所述自适应自注意力结构嵌入模型(ASAM),其网络结构分成两部分,且均放在主干网络之中。该模块的输入层大小为H×W。它首先通过自适应池化层获得三个不同尺度(β1×H×W、β2×H×W、β3×H×W)的上下文特征。然后,再将这三个上下文特征进行上采样得到三个特征图。将其中两个特征图的上下文特征的通道合并,然后特征映射依次经过3×3、1×1卷积层、ReLU激活层、1x1卷积层和Sigmoid激活层,为每个特征映射生成相应的空间权重。生成的权重图和合并通道后的特征图进行乘积运算,将其分离并和另外一个上下文特征进行相加,再与上下文输入特征图相加,将上下文特征聚合到上述特征图中。使得最终得到的特征图具有丰富的多尺度上下文信息,在一定程度上缓解了由于通道数量减少而造成的信息损失。
其中所述特征融合GFPN中,将主干图层3、4、5层的特征传递到GFPN作为选定的多尺度特征层;特征层再通过一层卷积达到提取显著特征,减少特征维数的目的;其次通过上采样来完成自上而下的特征融合,高层特征通过上采样调整分辨率进而与低层特征信息进行拼接融合;然后对融合得到的特征通过一个3×3的卷积层以达到消除混叠效应的目的;再通过最大池化来完成自上而下的特征融合,从而调整分辨率,得到的特征再与高层特征进行再融合,最终得到3个尺度不同的输出特征。
步骤三:训练和测试
利用划分后的数据集放入加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行训练,得到能够精确识别是否具有违规行为的网络模型。保留最后所得权重,作为网络最终的权重。当其在训练1000个回合中精度浮动变化不超过0.03均值平均精度(mAP)可认为网络已经收敛。
本发明与现有技术相比优点在于:
(1)本发明能准确地对工业现场生产工作区域中未佩戴安全帽、抽烟这两种违规行为进行检测。
(2)相比于目前已有的方法,本发明成本低,检测精度高,受外界干扰小,具有的实时性和迁移性,并且能有效提高检测的精度,具有十分广阔的应用前景。
附图说明
图1是本发明的方法顺序图;
图2为分别采用本发明中工业现场生产工作区域的违规检测模型的框架图。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,说明如下:
如图1所示,本发明所述的一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,包括以下步骤:
第一步,搭建工业现场生产工作区域违规检测系统,建立违规行为数据集;
(1)工业现场生产工作区域违规行为图像的收集,收集大量工现场违规行为图像作为训练图像,得到若干个施工现场违规行为图像训练样本;
(2)通过数据增强将数据集扩充,再通过标记软件对施工现场违规行为图像进行具体位置的标记;
第二步,构造工业现场生产工作区域违规行为检测模型。构造提出全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN,并且使用alpha-iou Loss优化Loss函数,使用diou-NMS替代传统的NMS,最终得到一个新的YOLO网络模型,网络结构如图2所示,其具体步骤如下:
采用单阶段检测器YOLO,将获得的特征图3接入到自适应自注意力结构嵌入模型(ASAM)中进行处理,再和输入图像先经过2倍下采样、通过高分辨率主干网络进行低倍率下采样后得到的特征图进行拼接操纵;同时将下采样后的特征图进行进行特征融合结构GFPN,再分别输入到检测头中进行检测,得到最后的预测结果。
其中所述自适应自注意力结构嵌入模型(ASAM),其网络结构分成两部分,且均放在主干网络之中。该模块的输入层大小为H×W。它首先通过自适应池层获得三个不同尺度(β1×H×W、β2×H×W、β3×H×W)的上下文特征。然后,再将这三个上下文特征进行上采样得到三个特征图。将其中两个特征图的上下文特征的通道合并,然后特征映射依次经过3×3、1×1卷积层、ReLU激活层、1x1卷积层和Sigmoid激活层,为每个特征映射生成相应的空间权重。生成的权重图和合并通道后的特征图进行乘积运算,将其分离并和另外一个上下文特征进行相加,再与上下文输入特征图相加,将上下文特征聚合到上述特征图中。使得最终得到的特征图具有丰富的多尺度上下文信息,在一定程度上缓解了由于通道数量减少而造成的信息损失。
其中所述特征融合GFPN中,将主干图层3、4、5层的特征传递到GFPN作为选定的多尺度特征层;特征层再通过一层卷积达到提取显著特征,减少特征维数的目的;其次通过上采样来完成自上而下的特征融合,高层特征通过上采样调整分辨率进而与低层特征信息进行拼接融合;然后对融合得到的特征通过一个3×3的卷积层以达到消除混叠效应的目的;再通过最大池化来完成自上而下的特征融合,从而调整分辨率,得到的特征再与高层特征进行再融合,最终得到3个尺度不同的输出特征。
第三步,训练和测试
利用划分后的数据集放入加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行训练,得到能够精确识别是否具有违规行为的网络模型。
第四步,用训练好的加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行施工现场违规检测。
(1)从施工现场违规检测系统中获取工业现场生产工作区域违规行为的图像;
(2)对获取的工业现场生产工作区域违规行为图像进行预处理;
(3)将预处理后的工业现场生产工作区域违规行为图像送入通过训练获得的模型文件中进行分类,即获得该工业现场生产工作区域违规行为检测结果。
第五步,对得到加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型进行对比分析。
经过对比和分析,相比于目前已有的其他方法,加入全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN的YOLO网络模型对工业现场生产工作区域违规行为进行检测精度更高,其评估指标(mAP)如表1所示。从中可以看出,本发明方法具有更高的检测精度。
表1本发明方法与三种现有方法的实验结果比较
Faster-RCNN | YOLOv4 | YOLOv5 | 本发明方法 | |
mAP | 0.682 | 0.718 | 0.735 | 0.767 |
Claims (1)
1.一种基于YOLO的深度学习的工业现场生产工作区域的违规检测方法,其特征在于步骤如下:
步骤一:搭建工业现场生产工作区域违规检测系统,建立违规行为数据集;
(1)工业现场生产工作区域违规行为图像的收集,收集大量工现场违规行为图像作为训练图像,得到若干个施工现场违规行为图像训练样本;
(2)通过数据增强将数据集扩充,再通过标记软件对施工现场违规行为图像进行具体位置的标记;
步骤二:基于深度学习的方法,根据工业现场生产工作区域违规行为数据集,提出全新的自适应注意力结构嵌入模型(ASAM)和增强特征提取的网络模块GFPN,并且使用alpha-iou Loss优化Loss函数,使用diou-NMS替代传统的NMS,最终得到一个新的YOLO网络模型。
自适应注意力结构嵌入模型(ASAM):
所述自适应自注意力结构嵌入模型(ASAM),其网络操作分成两个步骤:通过自适应平均池层获得不同尺度的多个上下文特征,将数据集中的目标自适应地转换成指定的输出大小;再通过空间注意机制为特征图生成空间权重图,通过权重图,融合上下文特征,生成包含多尺度上下文信息的新特征图,为了防止传播过程中特征的丢失,将新的特征图与自适应后的特征图以及原始高层特征图相结合,最终实现特征融合得到新的特征图。
该模块中,输入的特征图Fin,其长、宽、通道数分为别为H、W、C;Fin再分别三次经过自适应池化(Apg)和上采样(ups)得到三个特征图,分别为F1、F2、F3。其计算过程如公式(1)-(4)所示。
Fin=H×W×C (1)
F1=ups(Avg(Fin))
F2=ups(Avg(Fin))
F3=ups(Avg(Fin)) (2)-(4)
再将F1、F2做通道拼接操作(cat)得到特征图F4,再将得到的特征图经过一个3×3卷积(conv1)、relu激活函数(γ)、1x1卷积以及sigmoid(σ)激活函数,最终得到权重wi。其计算过程如公式(5)所示。
wi=σ(conv1(γ(conv3(cat(F1;F2))))) (5)
最后将特征图F4和上面得到的权重参数wi相乘得到特征图F5,再将新得到的特征图分离成两个通道数均为C的特征图F51和F52,将F51、F52、F3和Fin相加得到新的融合特征图Fout。其计算过程如公式(6)-(7)所示。
Fout=F3+F5[:C]+F5[C:2C]+Fin (7)
增强特征提取的网络模块GFPN:
其将主干的C3到C5层的特征传递到GFPN作为选定的多尺度特征层;再特征层通过一层卷积达到提取显著特征,减少特征维数的目的;其次通过上采样来完成自上而下的特征融合,高层特征通过上采样调整分辨率进而与低层特征信息进行拼接融合;然后对融合得到的特征通过一个3×3的卷积层以达到消除混叠效应的目的;再通过最大池化来完成自上而下的特征融合,从而调整分辨率,得到的特征再与高层特征进行再融合,最终得到3个尺度不同的输出特征P3、P4、P5。
Loss函数和传统NMS的优化:
为了解决原有Loss函数在回归过程中未考虑Bounding box的纵横比,在两个框相交时,在水平和垂直方向上收敛慢的问题。引用了Alpha-IoU来替换原本的GIoU指标,通过调节α,自适应地重新加权高或低IoU目标的损失和梯度,使检测器在实现不同水平的Bounding box回归精度方面具有更大的灵活。无论在干净或嘈杂的环境下,都不会引入额外的参数,也不增加训练时间。α-IoU的计算公式(8)所示:
在传统NMS中,IoU指标常用于抑制冗余预测边界框检,由于遮挡情况经常会产生错误抑制,因此需要考虑重叠区域。DIoU-NMS将DIoU作为NMS的准则,同时考虑了重叠区域和两个框的中心距离。
步骤三:对于步骤一的工业现场生产工作区域违规行为数据集进行划分,将其按9:1的比例分为训练集和测试集,并对不同分辨率和大小的样本进行平均,以确保不同大小的图像能够得到充分的训练和测试。利用划分后的数据集对加入自适应注意力结构嵌入模型(ASAM)、增强特征提取的网络模块GFPN、优化Loss函数和传统NMS的YOLO网络模型进行训练,得到能够精确检测是否具有违规行为的网络模型;
步骤四:利用步骤三训练后的YOLO网络模型,对工业现场生产工作区域进行检测,从而实现对违规行为的检测,具体如下:
(1)从工业现场生产工作区域视频监控中获取图像;
(2)将图像送入通过训练获得的加入自适应注意力结构嵌入模型(ASAM)、增强特征提取的网络模块GFPN、优化Loss函数和传统NMS的YOLO网络模型中进行检测分类,即获得工业现场生产工作区域违规行为检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210691592.0A CN114913606A (zh) | 2022-06-17 | 2022-06-17 | 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210691592.0A CN114913606A (zh) | 2022-06-17 | 2022-06-17 | 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114913606A true CN114913606A (zh) | 2022-08-16 |
Family
ID=82772338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210691592.0A Withdrawn CN114913606A (zh) | 2022-06-17 | 2022-06-17 | 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114913606A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116165981A (zh) * | 2023-02-13 | 2023-05-26 | 大连交通大学 | 一种工业行业安全生产智能监控系统 |
CN117152419A (zh) * | 2023-10-11 | 2023-12-01 | 中国矿业大学 | 一种矿井架空乘人装置人员违规携带物品的检测方法及系统 |
CN117237993A (zh) * | 2023-11-10 | 2023-12-15 | 四川泓宝润业工程技术有限公司 | 作业现场违规行为检测方法、装置、存储介质及电子设备 |
CN117456461A (zh) * | 2023-11-07 | 2024-01-26 | 北京城市轨道交通咨询有限公司 | 一种动火作业违规检测方法及装置 |
CN117765378A (zh) * | 2024-02-22 | 2024-03-26 | 成都信息工程大学 | 多尺度特征融合的复杂环境下违禁物品检测方法和装置 |
-
2022
- 2022-06-17 CN CN202210691592.0A patent/CN114913606A/zh not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116165981A (zh) * | 2023-02-13 | 2023-05-26 | 大连交通大学 | 一种工业行业安全生产智能监控系统 |
CN117152419A (zh) * | 2023-10-11 | 2023-12-01 | 中国矿业大学 | 一种矿井架空乘人装置人员违规携带物品的检测方法及系统 |
CN117152419B (zh) * | 2023-10-11 | 2024-03-29 | 中国矿业大学 | 一种矿井架空乘人装置人员违规携带物品的检测方法及系统 |
CN117456461A (zh) * | 2023-11-07 | 2024-01-26 | 北京城市轨道交通咨询有限公司 | 一种动火作业违规检测方法及装置 |
CN117237993A (zh) * | 2023-11-10 | 2023-12-15 | 四川泓宝润业工程技术有限公司 | 作业现场违规行为检测方法、装置、存储介质及电子设备 |
CN117237993B (zh) * | 2023-11-10 | 2024-01-26 | 四川泓宝润业工程技术有限公司 | 作业现场违规行为检测方法、装置、存储介质及电子设备 |
CN117765378A (zh) * | 2024-02-22 | 2024-03-26 | 成都信息工程大学 | 多尺度特征融合的复杂环境下违禁物品检测方法和装置 |
CN117765378B (zh) * | 2024-02-22 | 2024-04-26 | 成都信息工程大学 | 多尺度特征融合的复杂环境下违禁物品检测方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114913606A (zh) | 一种基于yolo的深度学习的工业现场生产工作区域的违规检测方法 | |
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN111292330A (zh) | 基于编解码器的图像语义分割方法及装置 | |
CN112967243A (zh) | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 | |
CN103903008B (zh) | 一种基于图像识别输电线路的雾等级的方法以及系统 | |
US20230360390A1 (en) | Transmission line defect identification method based on saliency map and semantic-embedded feature pyramid | |
CN111222478A (zh) | 一种工地安全防护检测方法和系统 | |
CN110751195B (zh) | 一种基于改进YOLOv3的细粒度图像分类方法 | |
CN105931246A (zh) | 一种基于小波变换和遗传算法的织物瑕疵检测方法 | |
CN113283356B (zh) | 多级注意力尺度感知人群计数方法 | |
CN112669274B (zh) | 一种用于表面异常区域像素级分割的多任务检测方法 | |
CN113642474A (zh) | 一种基于yolov5的危险区域人员监控方法 | |
CN111738054A (zh) | 一种基于时空自编码器网络和时空cnn的行为异常检测方法 | |
CN113313031B (zh) | 一种基于深度学习的车道线检测和车辆横向定位方法 | |
CN112364754A (zh) | 螺栓缺陷检测方法及系统 | |
Hongmeng et al. | A detection method for deepfake hard compressed videos based on super-resolution reconstruction using CNN | |
CN116012653A (zh) | 一种注意力残差单元神经网络高光谱图像分类方法及系统 | |
CN116092179A (zh) | 一种改进的yolox跌倒检测系统 | |
CN117115715A (zh) | 一种基于流重构和帧预测结合的视频异常检测方法 | |
CN114821316A (zh) | 一种三维探地雷达裂缝病害识别方法及系统 | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
Shit et al. | An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection | |
CN113011338A (zh) | 一种车道线检测方法及系统 | |
CN117197746A (zh) | 基于深度学习的安全监测系统及方法 | |
CN114494999B (zh) | 一种双分支联合型目标密集预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220816 |