CN116994066A - 一种基于改进的目标检测模型的尾绳检测系统 - Google Patents

一种基于改进的目标检测模型的尾绳检测系统 Download PDF

Info

Publication number
CN116994066A
CN116994066A CN202311131875.0A CN202311131875A CN116994066A CN 116994066 A CN116994066 A CN 116994066A CN 202311131875 A CN202311131875 A CN 202311131875A CN 116994066 A CN116994066 A CN 116994066A
Authority
CN
China
Prior art keywords
model
tail rope
tail
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202311131875.0A
Other languages
English (en)
Inventor
田刚
王鹏翔
王蕊
李天宇
崔峻豪
马学聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202311131875.0A priority Critical patent/CN116994066A/zh
Publication of CN116994066A publication Critical patent/CN116994066A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于改进的目标检测模型的尾绳状态检测系统,其属于安防监控领域和目标检测领域。首先通过在井底尾绳环、隔离木位置安装的具有夜视功能的高清摄像头采集在吊笼运行过程中尾绳的视频图像,然后对获取的尾绳图像进行数据增强;将数据增强后获得的图像数据作为输入数据,输入到预训练好的改进的尾绳检测模型当中,对尾绳的状态进行检测;用于训练所述尾绳检测模型的数据集为标注有尾绳状态正常和异常的图像数据。本发明通过安装的具有夜视功能的高清摄像头获取到的大量视频数据,传入含有深度学习模型的边缘计算网关进行对尾绳状态的检测,并将结果传入到指定的WEB展示页面供设备管理人员查看,从而达到全时段检测,可以根据异常情况及时采取相应的安全措施,精确度较高,安全性较强。

Description

一种基于改进的目标检测模型的尾绳检测系统
技术领域
本发明涉及一种基于改进的目标检测模型的尾绳检测系统,主要基于人工智能技术领域中的深度学习技术的应用。
背景技术
近年来,在工业生产中,随着机械设备的运行环境逐渐复杂化,机械设备发生故障的概率逐渐升高,而设备的健康状态与生产安全和生产质量密切相关,在煤炭开采中矿井提升机是一种不可或缺的机械设备;矿井提升机是一种用于采矿作业中运输人员、矿石、作业材料等的设备,安装在矿井处地面上,由缆绳带动提升容器上下运动。其中尾绳的两端分别连接悬挂在两个提升容器底部,尾绳在提升过程中起平衡作用。
矿井提升系统正常运行时,会产生作用于尾绳的扭力,使尾绳受损,产生安全隐患,导致安全事故发生的可能,威胁采矿作业的安全生产。
在传统的设备故障检测技术中,一般通过人工观测设备的运行状态,根据经验或相关指标来判断设备的运行情况。这种人工诊断的效果会受到个人经验的影响,并且很难达到全时段监测,具有精确度低,预测能力有限的缺点。
随着人工智能技术领域的发展,通过在提升机底部安装摄像头并利用人工智能技术对设备进行实时的检测成为了解决上述问题的新途径,这种方式可以节省大量的人力,并且可以持续不断的进行在线检测。但是由于人工智能模型需要针对不同的情况进行训练,且训练的样本标签完全是由人为标注的,所以在一些人工难以察觉的潜在性故障的检测能力上有限。
除此之外,在井下不同环境影响下的设备故障检测技术的准确性、鲁棒性等方面还有着较大提升空间。因此,研究人工智能技术在设备故障检测中的应用具有十分重要的理论和应用价值。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提出一种基于改进的目标检测模型的尾绳检测系统,其目的在于解决现有技术精确度不高以及鲁棒性不强的技术问题。
本发明采用以下的技术方案:
一种基于改进的目标检测模型的尾绳检测系统,包括以下步骤:
步骤1:通过在井底尾绳环、隔离木位置安装的具有夜视功能的高清摄像头采集在吊笼运行过程中尾绳的视频图像;
步骤2:对步骤1采集的图像进行数据增强处理,并将获取的图像中尾绳不同的状态进行标注制作自制数据集;
步骤3:对步骤2得到的经过标记的图像作为训练数据集输入识别模型中进行训练,直到达到模型收敛,获得训练好的模型;
步骤4:利用步骤3训练好的模型嵌入到边缘计算网关中,将摄像头采集的尾绳图像传入边缘计算网关,用训练好的模型进行检测,并将带有检测结果的视频流传入到指定的WEB网页中供设备管理人员查看。
优选地,步骤1中所述的视频图像来源在井底尾绳环、隔离木位置安装的具有夜视功能的高清摄像头采集到的图像。
优选地,所述步骤2,具体实现包括以下子步骤:
步骤2.1:将步骤1获得的吊笼运行过程中尾绳的视频图像进行伽马变换,将较灰暗的图片进行图像增强,并对有噪声的图像进行高斯滤波处理;
步骤2.2:根据步骤2.1获得的图像进行Mosaic数据增强,其原理为任意选择四张图片,先通过随机裁减,再按顺时针拼接在一张图片上,最后缩放为设定的输入尺寸,并作为新的样本传入模型;这样做丰富了目标的背景,增加了目标数量,实现了不同尺度目标间的平衡。
步骤2.3:将经过图像数据增强的图片按照尾绳的状态,基于LabelImage软件对所述图像数据集中尾绳的状态进行标注,并将数据集中打标完成的图片按照6:2:2的比例划分训练集数据集和验证集。
优选地,所述步骤3,具体实现包括以下子步骤:
步骤3.1:训练的模型为加入了SE-Net通道注意力模块的YOLOV5模型,引导模型更加关注对于尾绳目标信息的通道特征,以提升对尾绳的检测性能;YOLOV5由主干网络(Backbone)、颈部(NECK)以及输出(Output)三个部分组成;主干网络即特征提取网络,主要包括切片结构(Focus)、卷积模块(Conv)、瓶颈层(C3)以及空间金字塔池化(SPP);颈部为特征融合网络,采用自顶向下与自底向上联合的特征融合方式,更好地融合了多尺度特征。然后传入检测层,经过非极大值抑制等后处理操作消除了大量冗余的预测框,最后输出置信度得分最高的预测类别,并返回目标位置的边框坐标。
SE-Net主要由SE块来实现,其主要操作为Squeeze记为Fsq和Excitation记为Fex,首先对卷积得到的特征图进行Fsq操作,使用全局平均池来计算特征映射的通道统计信息,得到通道的全局特征,然后对全局特征进行Fex操作,学习各个通道间的关系,也得到不同通道的权重,最后乘以原来的特征图得到最终特征;将SE-Net通道注意力模块在Yolov5主干网络的C3模块和和颈部网络的C3模块中引入,以增强其检测性能。
步骤3.2:对步骤3.1所述的模型进行训练,在网络模型训练阶段,将输入模型的图片大小调整为640×640,batch_size为16,总迭代次数为300次,初始学习率设置为0.01,当迭代次数约为270次时,模型收敛;
其损失函数为:
主要由三个部分组成分别为:classification_loss分类损失,localization_loss定位损失和confidence_loss置信度损失,三个部分的损失均是通过匹配到的正样本对来计算,每一个输出特征图相互独立,直接相加得到最终每一部分的损失值;网络每个将特征图分为若干个cell其中K,S2,B分别为输出特征图、cell和每个cell上anchor的数量,αbox、αobj、αcls分别为其对应的权重,用于平衡每个尺度的输出特征图的权重,/>表示第k个输出特征图,第i个,第j个anchorbox是否是正样本,如果是正样本则为1,反之为0。
优选地,所述步骤4,具体实现如下:
将步骤3训练好的模型嵌入到边缘计算网关中,并配置好其所需的系统环境,导入依赖的模块;通过TCP/IP协议将摄像头采集的尾绳图像传入边缘计算网关中,通过训练好的模型进行检测,并将带有检测结果的RTSP视频流传入到指定的的WEB网页中供设备管理人员查看,根据高清视频图像,可判断尾绳的运行状态,及时反馈现场情况,设备管理人员可根据其反馈的信息及时采取措施。
本发明提出一种基于改进的目标检测模型的尾绳检测系统,通过在井底尾绳环、隔离木位置安装的高清摄像头采集的视频图像进行分析处理,从而可以在矿井提升系统运行时对尾绳状态进行检测,并将的得出结果反馈给设备管理人员查看,极大地减轻了设备管理人员的工作量,减少因为人工疏忽而带来隐患的可能,并可以实现全时段监测,给井下作业提供了更加安全的保障;而且本发明充分利用了井下的摄像头视频数据,在硬件上只需要部署一台边缘计算网关,无需额外配备大量的硬件设施,成本较低。
附图说明
图1为本发明模型建立方法流程图;
图2为本发明中改进的目标检测模型的结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步说明:
结合图1与图2,一种基于改进的目标检测模型的尾绳检测系统,包括以下步骤:
步骤1:通过在井底尾绳环、隔离木位置安装的具有夜视功能的高清摄像头采集在吊笼运行过程中尾绳的视频图像;
步骤2:对步骤1采集的图像进行数据增强处理,并将获取的图像中尾绳不同的状态进行标注制作自制数据集;
具体实现包括以下子步骤:
步骤2.1:将步骤1获得的吊笼运行过程中尾绳的视频图像进行伽马变换,将较灰暗的图片进行图像增强,并对有噪声的图像进行高斯滤波处理;
步骤2.2:根据步骤2.1获得的图像进行Mosaic数据增强,其原理为任意选择四张图片,先通过随机裁减,再按顺时针拼接在一张图片上,最后缩放为设定的输入尺寸,并作为新的样本传入模型;这样做丰富了目标的背景,增加了目标数量,实现了不同尺度目标间的平衡。
步骤2.3:将经过图像数据增强的图片按照尾绳的状态,基于LabelImage软件对所述图像数据集中尾绳的状态进行标注,并将数据集中打标完成的图片按照6:2:2的比例划分训练集数据集和验证集。
步骤3:对步骤2得到的经过标记的图像作为训练数据集输入识别模型中进行训练,直到达到模型收敛,获得训练好的模型;
具体实现包括以下子步骤:
步骤3.1:训练的模型为加入了SE-Net通道注意力模块的YOLOV5模型,引导模型更加关注对于尾绳目标信息的通道特征,以提升对尾绳的检测性能;YOLOV5由主干网络(Backbone)、颈部(NECK)以及输出(Output)三个部分组成;主干网络即特征提取网络,主要包括切片结构(Focus)、卷积模块(Conv)、瓶颈层(C3)以及空间金字塔池化(SPP);颈部为特征融合网络,采用自顶向下与自底向上联合的特征融合方式,更好地融合了多尺度特征。然后传入检测层,经过非极大值抑制等后处理操作消除了大量冗余的预测框,最后输出置信度得分最高的预测类别,并返回目标位置的边框坐标。
SE-Net主要由SE块来实现,其主要操作为Squeeze记为Fsq和Excitation记为Fex,首先对卷积得到的特征图进行Fsq操作,使用全局平均池来计算特征映射的通道统计信息,得到通道的全局特征,然后对全局特征进行Fex操作,学习各个通道间的关系,也得到不同通道的权重,最后乘以原来的特征图得到最终特征;将SE-Net通道注意力模块在Yolov5主干网络的C3模块和和颈部网络的C3模块中引入,以增强其检测性能。
步骤3.2:对步骤3.1所述的模型进行训练,在网络模型训练阶段,将输入模型的图片大小调整为640×640,batch_size为16,总迭代次数为300次,初始学习率设置为0.01,当迭代次数达到270次时,模型收敛;
其损失函数为:
主要由三个部分组成分别为:classification_loss分类损失,localization_loss定位损失和confidence_loss置信度损失,三个部分的损失均是通过匹配到的正样本对来计算,每一个输出特征图相互独立,直接相加得到最终每一部分的损失值;网络每个将特征图分为若干个cell其中K,S2,B分别为输出特征图、cell和每个cell上anchor的数量,αbox、αobj、αcls分别为其对应的权重,用于平衡每个尺度的输出特征图的权重,/>表示第k个输出特征图,第i个,第j个anchorbox是否是正样本,如果是正样本则为1,反之为0。
步骤4:利用步骤3训练好的模型嵌入到边缘计算网关中,将摄像头采集的尾绳图像传入边缘计算网关,用训练好的模型进行检测,并将带有检测结果的视频流传入到指定的WEB网页中供设备管理人员查看;
具体实施如下:
将步骤3训练好的模型嵌入到边缘计算网关中,并配置好其所需的系统环境,导入依赖的模块;通过TCP/IP协议将摄像头采集的尾绳图像传入边缘计算网关中,通过训练好的模型进行检测,并将带有检测结果的RTSP视频流传入到指定的的WEB网页中供设备管理人员查看,根据高清视频图像,可判断尾绳的运行状态,及时反馈现场情况,设备管理人员可根据其反馈的信息及时采取措施。
实施例1
下面是应用本发明具体实施例:
步骤1:通过在井底尾绳环、隔离木位置安装的具有夜视功能的高清摄像头采集在吊笼运行过程中尾绳的视频图像;
步骤2:对步骤1采集的图像进行数据增强处理,并将获取的图像中尾绳不同的状态进行标注制作自制数据集;
步骤3:对步骤2得到的经过标记的图像作为训练数据集输入识别模型中进行训练,直到达到模型收敛,获得训练好的模型;
模型参数如表1所示:
表1模型参数设置
步骤4:利用步骤3训练好的模型嵌入到边缘计算网关中,将摄像头采集的尾绳图像传入边缘计算网关,用训练好的模型进行检测,并将带有检测结果的视频流传入到指定的WEB网页中供设备管理人员查看。
其边缘计算网关的参数如表2所示:
表2边缘计算网关参数设置
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (4)

1.一种基于改进的目标检测模型的尾绳检测系统,其特征在于,包括以下步骤:
步骤1:通过在井底尾绳环、隔离木位置安装的具有夜视功能的高清摄像头采集在吊笼运行过程中尾绳的视频图像。
步骤2:对步骤1采集的图像进行数据增强处理,并将获取的图像中尾绳不同的状态进行标注制作自制数据集。
步骤3:对步骤2得到的经过标记的图像作为训练数据集输入识别模型中进行训练,直到达到模型收敛,获得训练好的模型。
步骤4:利用步骤3训练好的模型嵌入到边缘计算网关中,将摄像头采集的尾绳图像传入边缘计算网关,用训练好的模型进行检测,并将带有检测结果的视频流传入到指定的WEB网页中供设备管理人员查看。
2.根据权利要求1所述的一种基于改进的目标检测模型的尾绳检测系统,其特征在于,所述步骤2,具体实现包括以下子步骤:
步骤2.1:将步骤1获得的吊笼运行过程中尾绳的视频图像进行伽马变换,将较灰暗的图片进行图像增强,并对有噪声的图像进行高斯滤波处理;
步骤2.2:根据步骤2.1获得的图像进行Mosaic数据增强,其原理为任意选择四张图片,先通过随机裁减,再按顺时针拼接在一张图片上,最后缩放为设定的输入尺寸,并作为新的样本传入模型;这样做丰富了目标的背景,增加了目标数量,实现了不同尺度目标间的平衡。
步骤2.3:将经过图像数据增强的图片按照尾绳的状态,基于LabelImage软件对所述图像数据集中尾绳的状态进行标注,并将数据集中打标完成的图片按照6:2:2的比例划分训练集数据集和验证集。
3.根据权利要求1所述的一种基于改进的目标检测模型的尾绳检测系统,其特征在于,所述步骤3,具体实现包括以下子步骤:
步骤3.1:训练的模型为加入了SE-Net通道注意力模块的YOLOV5模型,引导模型更加关注对于尾绳目标信息的通道特征,以提升对尾绳的检测性能;YOLOV5由主干网络(Backbone)、颈部(NECK)以及输出(Output)三个部分组成;主干网络即特征提取网络,主要包括切片结构(Focus)、卷积模块(Conv)、瓶颈层(C3)以及空间金字塔池化(SPP);颈部为特征融合网络,采用自顶向下与自底向上联合的特征融合方式,更好地融合了多尺度特征。然后传入检测层,经过非极大值抑制等后处理操作消除了大量冗余的预测框,最后输出置信度得分最高的预测类别,并返回目标位置的边框坐标。
SE-Net主要由SE块来实现,其主要操作为Squeeze记为Fsq和Excitation记为Fex,首先对卷积得到的特征图进行Fsq操作,使用全局平均池来计算特征映射的通道统计信息,得到通道的全局特征,然后对全局特征进行Fex操作,学习各个通道间的关系,也得到不同通道的权重,最后乘以原来的特征图得到最终特征;将SE-Net通道注意力模块在Yolov5主干网络的C3模块和和颈部网络的C3模块中引入,以增强其检测性能。
步骤3.2:对步骤3.1所述的模型进行训练,在网络模型训练阶段,将输入模型的图片大小调整为640×640,batch_size为16,总迭代次数为300次,初始学习率设置为0.01,当迭代次数达到约为270次时,模型收敛;
其损失函数为:
主要由三个部分组成分别为:classification_loss分类损失,localization_loss定位损失和confidence_loss置信度损失,三个部分的损失均是通过匹配到的正样本对来计算,每一个输出特征图相互独立,直接相加得到最终每一部分的损失值;网络每个将特征图分为若干个cell其中K,S2,B分别为输出特征图、cell和每个cell上anchor的数量,αbox、αobj、αcls分别为其对应的权重,用于平衡每个尺度的输出特征图的权重,/>表示第k个输出特征图,第i个,第j个anchorbox是否是正样本,如果是正样本则为1,反之为0。
4.根据权利要求1所述的一种基于改进的目标检测模型的尾绳检测系统,其特征在于,所述步骤4,具体实现如下:
将步骤3训练好的模型嵌入到边缘计算网关中,并配置好其所需的系统环境,导入依赖的模块;通过TCP/IP协议将摄像头采集的尾绳图像传入边缘计算网关中,通过训练好的模型进行检测,并将带有检测结果的RTSP视频流传入到指定的的WEB网页中供设备管理人员查看,根据高清视频图像,可判断尾绳的运行状态,当检测到尾声情况异常时会及时报警,并将现场情况通知设备管理人员,设备管理人员可根据其反馈的信息及时采取措施。
CN202311131875.0A 2023-09-04 2023-09-04 一种基于改进的目标检测模型的尾绳检测系统 Withdrawn CN116994066A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311131875.0A CN116994066A (zh) 2023-09-04 2023-09-04 一种基于改进的目标检测模型的尾绳检测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311131875.0A CN116994066A (zh) 2023-09-04 2023-09-04 一种基于改进的目标检测模型的尾绳检测系统

Publications (1)

Publication Number Publication Date
CN116994066A true CN116994066A (zh) 2023-11-03

Family

ID=88526818

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311131875.0A Withdrawn CN116994066A (zh) 2023-09-04 2023-09-04 一种基于改进的目标检测模型的尾绳检测系统

Country Status (1)

Country Link
CN (1) CN116994066A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117870546A (zh) * 2024-03-11 2024-04-12 张掖市西龙产业用纺织品有限公司 一种电极隔膜检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117870546A (zh) * 2024-03-11 2024-04-12 张掖市西龙产业用纺织品有限公司 一种电极隔膜检测方法及系统
CN117870546B (zh) * 2024-03-11 2024-05-10 张掖市西龙产业用纺织品有限公司 一种电极隔膜检测方法及系统

Similar Documents

Publication Publication Date Title
CN110390691B (zh) 一种基于深度学习的矿石尺度测量方法及应用系统
CN111241959B (zh) 一种通过工地视频流检测未佩戴安全帽人员的方法
CN110084165B (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN111797890A (zh) 一种用于检测输电线路设备缺陷的方法及系统
CN110569843B (zh) 一种矿井目标智能检测与识别方法
CN111222478A (zh) 一种工地安全防护检测方法和系统
KR102324684B1 (ko) 무인관측 기반 해양쓰레기 모니터링 시스템 및 이를 이용한 해양쓰레기 모니터링 방법
CN113642474A (zh) 一种基于yolov5的危险区域人员监控方法
CN116994066A (zh) 一种基于改进的目标检测模型的尾绳检测系统
CN111414807A (zh) 一种基于yolo技术的潮水识别与危机预警方法
CN112541393A (zh) 一种基于深度学习的变电站人员检测方法及装置
CN113989257A (zh) 基于人工智能技术的电力综合管廊沉降裂缝识别方法
CN110991359A (zh) 基于多尺度深度卷积神经网络的卫星图像目标检测方法
CN109019210A (zh) 基于卷积神经网络的提升系统尾绳健康监测系统及方法
CN106645180A (zh) 检查基板玻璃缺陷的方法、现场终端及服务器
CN114998234A (zh) 一种基于数据增强策略的自监督弹簧缺陷检测方法
CN117726991B (zh) 一种高空吊篮安全带检测方法及终端
CN117576632B (zh) 基于多模态ai大模型的电网监控火灾预警系统及方法
CN115082813A (zh) 检测方法、无人机、检测系统及介质
CN115035328A (zh) 转炉图像增量自动机器学习系统及其建立训练方法
CN116310922A (zh) 石化厂区监控视频风险识别方法、系统、电子设备及存储介质
CN109873990A (zh) 一种基于计算机视觉的矿山非法开采预警方法
CN113657143A (zh) 一种基于分类和检测联合判决的垃圾分类方法
CN116977904A (zh) 一种基于YOLOv5的快速识别大场景多人工衣检测方法
KR102321130B1 (ko) 이미지 분석 기반 해양쓰레기 모니터링 시스템 및 이를 이용한 해양쓰레기 모니터링 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20231103