CN114612403A - 一种上料皮带破损缺陷智能检测方法及系统 - Google Patents

一种上料皮带破损缺陷智能检测方法及系统 Download PDF

Info

Publication number
CN114612403A
CN114612403A CN202210207745.XA CN202210207745A CN114612403A CN 114612403 A CN114612403 A CN 114612403A CN 202210207745 A CN202210207745 A CN 202210207745A CN 114612403 A CN114612403 A CN 114612403A
Authority
CN
China
Prior art keywords
belt
image
prediction
loss
prediction frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210207745.XA
Other languages
English (en)
Inventor
蒋朝辉
欧楠青
潘冬
桂卫华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202210207745.XA priority Critical patent/CN114612403A/zh
Publication of CN114612403A publication Critical patent/CN114612403A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了一种上料皮带破损缺陷智能检测方法及系统,通过对采集的皮带图像进行预处理,构造皮带破损检测网络以及基于皮带破损检测网络对皮带破损缺陷进行检测,解决了现有皮带破损检测精度低的技术问题,通过在现有YOLOv3目标检测网络中加入密集连接模块和高斯模块,能获得高精度的皮带破损检测网络,大大提升了皮带破损缺陷的检测精度,该方法及系统具有非接触性、高精确性、强稳定性、投资成本少等优点。

Description

一种上料皮带破损缺陷智能检测方法及系统
技术领域
本发明主要涉及高炉冶炼技术领域,特指一种上料皮带破损缺陷智能检测方法及系统。
背景技术
带式输送机是在冶金、港口、建材等诸多领域输送物料的重要运输装备。上料皮带在带 式输送机中既是牵引机构又是承载结构,它成本高,约占输送机成本的50%左右。皮带主要 材料为橡胶,为了增加皮带承载能力,皮带生产时中间贯穿钢绳芯,虽然横向抗拉强度和承 载能力显著提高,但是其纵向抗撕裂强度并没有显著提高。调查显示,90%的皮带撕裂均为 纵向撕裂,皮带纵向撕裂一直是皮带运输机面临的重要问题。皮带撕裂事故一旦发生,价值 数十万元甚至上百万元的输送皮带,在几分钟内就会全部毁坏。
皮带破损是皮带撕裂的重要诱因,当皮带破损未被及时检测并完成修补时,很可能逐渐 扩大直至出现皮带撕裂。常见的皮带破损检测方法有漏料检测法、预埋金属线圈检测法、可 见光图像破损边缘检测法。漏料检测法通过机械装置进行破损检测,输送带出现破损时,输 送带上的物料经由输送带裂口泄露到输送带下方的托盘里,触发机械开关,进而进行报警。 漏料检测法实现简单,被广泛使用,但寿命短,受环境因素影响较大,易误检测。预埋金属 线圈检测法指的是在输送带中每隔一定距离埋设传感器线圈,并在输送带两侧各安装一组探 头。运行过程中输送带一旦发生破损,线圈回路就会被切断,接受探头无信号从而报警。嵌 入法可行性高,但需使用特制的输送带,使得生产投入较大,成本高,推广困难。可见光图 像破损边缘检测法通过可见光相机采集皮带图片,通过边缘检测算法提取裂纹信息,使用 SVM支持向量机进行有监督的机器学习完成破损皮带图像的分类。该方式虽然具有非接触、 智能化程度高的优点,但传统的边缘检测算法很难从二维皮带图像中辨别带有深度信息的裂 痕,检测精度有限。综上,目前的皮带破损检测方法都有较大的缺陷。因此,研究一种新型 皮带破损缺陷智能检测方法,精确迅速地报警皮带破损缺陷,对于工业生产中皮带输送物料 的安全稳定高效运行具有极其重要的意义,能够有效降低上料皮带破损造成的生产事故和经 济损失。
专利公开号为CN110171691A的发明专利是一种采用平行线激光组进行皮带撕裂检测的 方法。该专利首先连续获取具有N条平行激光光线的皮带的非工作面图像,之后识别每张图 像上的激光光线,并通过激光线的端点个数判断皮带是否出现撕裂异常。但是该检测方法算 法较简单,仅通过辅助激光线的端点个数判断,鲁棒性较差。此外该方法仅能检测出发生严 重撕裂的皮带图像,无法对早期皮带破损进行检测,难以对皮带撕裂进行提前预警。
专利公开号为CN113548419A的发明专利是一种基于机器视觉图像识别的皮带撕裂检测 方法。该专利首先采集通过线激光辅助的皮带表面图像,之后采用最大类间方差阈值法进行 图像分割。将分割后的皮带表面图像输入预先构建好的深度卷积生成对抗网络,深度卷积生 成对抗网络包括生成器模型和鉴别器模型,输出实时皮带表面图像所对应的破损类别概率值, 预测皮带图像破损类别。但该专利只能对皮带是否发生撕裂做分类判断,无法通过目标检测 准确定位破损位置,也无法得到破损区域的大小。
发明内容
本发明提供的上料皮带破损缺陷智能检测方法及系统,解决了现有皮带破损检测精度低 的技术问题。
为解决上述技术问题,本发明提出的上料皮带破损缺陷智能检测方法包括:
对采集的皮带图像进行预处理;
构造皮带破损检测网络;
基于皮带破损检测网络对皮带破损缺陷进行检测。
进一步地,构造皮带破损检测网络包括:
基于YOLOv3目标检测网络中的Darknet-53特征提取网络,构造皮带破损特征提取网络, 其中皮带破损特征提取网络包括依次连接的DBL模块、第一残差模块、第二残差模块和密集 连接模块,其中第一残差模块包括一个残差单元,第二残差模块包括二个残差单元,密集连 接模块的具体公式为:
xl=Hl(Concat[x0,x1,...,xl-1]);
其中,xl为密集连接模块的输出,H(·)为非线性变换函数,x0,x1,...,xl-1为密集连接模块第 0层到第l-1层的输出值,Concat[x0,x1,...,xl-1]代表将x0,x1,...,xl-1进行特征图拼接,l为自定义的非 线性处理的次数;
基于YOLOv3目标检测网络中的多尺度特征预测网络,构造皮带多尺度特征预测网络;
构造包含预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度的均值和方差的 皮带输出变量,其中预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度符合高斯 分布;
基于YOLOv3目标检测网络中的边界框预测网络和皮带输出变量,构造皮带边界框预测网 络;
基于皮带破损特征提取网络、皮带多尺度特征预测网络以及皮带边界框预测网络,构造 皮带破损检测网络。
进一步地,基于皮带破损检测网络对皮带破损缺陷进行检测包括:
采用皮带破损检测网络中的皮带破损特征提取网络,提取皮带破损特征;
采用皮带破损检测网络中的皮带多尺度特征预测网络,对皮带破损特征进行多尺度预测, 获得皮带破损多尺度特征;
构造损失函数,并基于损失函数对皮带破损检测网络进行训练;
采用训练好的皮带破损检测网络,对皮带破损缺陷进行检测。
进一步地,构造损失函数包括:
获取预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度的均值和方差;
求取预测框的损失,其中预测框的损失包括预测框横向坐标损失、预测框纵向坐标损失、 预测框宽度损失以及预测框高度损失,具体计算公式为:
Figure BDA0003531747090000031
其中,LX,LY,LW,LH分别表示预测框横向坐标损失、预测框纵向坐标损失、预测框宽度 损失以及预测框高度损失,xG,yG,wG,hG分别表示预测框横向坐标、预测框纵向坐标、预测框 宽度以及预测框高度的真值,
Figure BDA0003531747090000032
分别表示预测框横向坐标、预测框纵向坐标、预 测框宽度以及预测框高度的均值估计值,
Figure BDA0003531747090000033
分别表示预测框横向坐标、预 测框纵向坐标、预测框宽度以及预测框高度的标准差估计值,
Figure BDA0003531747090000034
代表真值xG服 从均值为
Figure BDA0003531747090000035
标准差为
Figure BDA0003531747090000036
的高斯分布中的概率密度函数,
Figure BDA0003531747090000037
代表真值yG在 服从均值为
Figure BDA0003531747090000038
标准差为
Figure BDA0003531747090000039
的高斯分布中的概率密度函数,
Figure BDA00035317470900000310
代表真值wG在服从均值为
Figure BDA0003531747090000041
标准差为
Figure BDA0003531747090000042
的高斯分布中的概率密度函数,
Figure BDA0003531747090000043
代表真值 hG在服从均值为
Figure BDA0003531747090000044
标准差为
Figure BDA0003531747090000045
的高斯分布中的概率密度函数;
根据所有预测框的横向坐标损失、纵向坐标损失、宽度损失以及高度损失构造损失函数, 且损失函数的具体公式为:
Loutcome=LXoutcome+LYoutcome+LWoutcome+LHoutcome
其中,LXoutcome,LYoutcome,LWoutcome,LHoutcome分别代表所有预测框的横向坐标损失,纵向坐标损失, 宽度损失以及高度损失。
进一步地,对皮带破损缺陷进行检测之后还包括发出皮带破损报警。
进一步地,对采集的皮带图像进行预处理包括:
对采集的皮带图像进行直方图均衡化,获得第一图像;
对采集的皮带图像进行图像增强,获得第二图像;
对采集的皮带图像进行双边滤波,获得第三图像;
对第一图像、第二图像以及第三图像进行图像融合,并根据融合后的图像获得预处理后 的皮带图像。
进一步地,对第一图像、第二图像以及第三图像进行图像融合,并根据融合后的图像获 得预处理后的皮带图像包括:
将第一图像、第二图像以及第三图像分别转换到HSV色彩空间,分别获得三个图像的H、 S和V分量;
将第一图像、第二图像以及第三图像的V分量进行融合,获得融合V分量;
根据第三图像的H、S分量以及融合V分量,获得融合HSV图像;
将融合HSV图像转换为RGB图像,获得预处理后的皮带图像。
本发明提供的上料皮带破损缺陷智能检测系统包括:
存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计 算机程序时实现本发明提供的上料皮带破损缺陷智能检测方法的步骤。
与现有技术相比,本发明的优点在于:
本发明提供的上料皮带破损缺陷智能检测方法及系统,通过对采集的皮带图像进行预处 理,构造皮带破损检测网络以及基于皮带破损检测网络对皮带破损缺陷进行检测,解决了现 有皮带破损检测精度低的技术问题,通过在现有YOLOv3目标检测网络中加入密集连接模块和 高斯模块,能获得高精度的皮带破损检测网络,大大提升了皮带破损缺陷的检测精度。
本发明提供的皮带破损检测的方法及系统,解决了现有技术无法智能在线准确地检测出 皮带破损并及时报警的难题。
针对本领域存在的不足之处,本发明的目的是设计一种使用深度学习网络对皮带破损进 行目标检测的方法及系统,利用非接触式装置获取上料皮带图像,进行皮带图像预处理,通 过深度神经网络进行皮带破损检测,根据破损严重程度进行报警。该方法及系统具有非接触 性、高精确性、强稳定性、投资成本少等优点。
本发明的目的在于提供一种对于上料皮带图像进行降噪和图像增强的预处理算法。
本发明的目的在于提供一种利用深度神经网络对皮带破损进行目标检测的算法。
本发明的目的在于提供一种通过破损大小位置、置信度、相邻帧分析进行皮带破损报警 的算法。
本发明的关键点:
使用了图像融合算法对皮带图像进行了图像预处理,除去噪之外还减小了光照不均对皮 带破损检测的影响。
提出使用目标检测算法进行皮带破损检测,比传统的破损二分类检测包含了更丰富的破 损位置信息,提高了检测准确率。
在YOLOv3目标检测算法的基础上进行了算法改进,加入了密集连接模块和高斯模块,通 过算法改进提升了目标检测算法的精度,实现了对皮带破损缺陷的准确检测。
设计了破损分级报警算法,以破损预测框、置信度等图像特征进行连续帧分析,降低误 检测导致的误报警可能性。
附图说明
图1为本发明实施例二的图像预处理示意图;
图2为本发明实施例二的DenseBlock结构示意图;
图3为本发明实施例二的皮带破损目标检测网络示意图;
图4为本发明实施例二的破损报警算法流程图;
图5为本发明实施例的上料皮带破损缺陷智能检测系统的结构框图。
附图标记:
10、存储器;20、处理器。
具体实施方式
为了便于理解本发明,下文将结合说明书附图和较佳的实施例对本发明作更全面、细致 地描述,但本发明的保护范围并不限于以下具体的实施例。
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖 的多种不同方式实施。
实施例一
本发明实施例一提供的上料皮带破损缺陷智能检测方法,包括:
步骤S101,对采集的皮带图像进行预处理;
步骤S102,构造皮带破损检测网络;
步骤S103,基于皮带破损检测网络对皮带破损缺陷进行检测。
本发明实施例提供的上料皮带破损缺陷智能检测方法,通过对采集的皮带图像进行预处 理,构造皮带破损检测网络以及基于皮带破损检测网络对皮带破损缺陷进行检测,解决了现 有皮带破损检测精度低的技术问题,通过在现有YOLOv3目标检测网络中加入密集连接模块和 高斯模块,能获得高精度的皮带破损检测网络,大大提升了皮带破损缺陷的检测精度。
实施例二
本发明实施例的上料皮带破损缺陷智能检测方法,包括:
步骤S201,对采集的皮带图像进行预处理。
由于采集的皮带图像存在光照不均,粉尘干扰等影响因素,故需要对皮带图像进行图像 增强,暗部信息增强,滤除噪声干扰等一系列预处理。本发明实施例通过直方图均衡模块, Retinex图像增强模块,双边滤波模块,图像融合模块对皮带图像进行预处理,每个模块的具 体说明如下:
直方图均衡化能将灰度范围分布不均匀的原始图像通过变换函数映射为灰度分布均匀的 图像。该变换函数是指图像各灰度级概率的累积分布函数,变换后图像灰度动态范围增大, 图像对比度提高。
首先统计图像像素在每个灰度级上出现的概率,如式(1)所示:
p(i)=n(i)/n,{i|0,1,...,L-1} (1)
式(1)中n(i)是灰度级i出现的次数,L是图像中总的灰度数,p是归一化到[0,1],则S对应 的p的累积概率函数为:
Figure BDA0003531747090000061
式(2)中的S代表累计归一化直方图。
Retinex图像增强模块主要功能是对皮带图像进行图像增强,减少光照不均对破损检测的 影响。Retinex理论表明,物质本身颜色取决于其对波长的反射能力,除受反射光强度的绝对 值外,不受非均匀光照的影响。以Retinex理论为基础的SSR(Single ScaleRetinex)算法可在动 态范围压缩,边缘提高和颜色不变的前提下,使得图像能自适应增强。
由该理论可知,人眼对物质亮度的感知受环境照明和物质表面对照射光的反射共同决定, 可表示为:
S(x,y)=R(x,y)·L(x,y) (3)
式(3)中,S(x,y)为采集到的图像信号;L(x,y)为环境光的照射分量;R(x,y)为具有图像 细节的目标物体的反射分量。由此可得单尺度Retinex算法公式为:
Figure BDA0003531747090000071
r(x,y)=lgS(x,y)-lg[G(x,y)*S(x,y)] (5)
式(4)中,r(x,y)为输出图像,L(x,y)为光照分量的假设估计,*为卷积运算符,G(x,y)为 中心环绕函数,其可表示为:
Figure BDA0003531747090000072
式(6)中,C表示高斯环绕尺度,δ是一个尺度,其取值需满足以下条件:
∫∫G(x,y)dxdy=1 (7)
综上可知,SSR算法计算图像中像素点与该像素点区域的加权平均作为估计图像中的照 度,并在待处理图像中去除该估计的光照分量,最后使图像中物体的反射属性得到保留,实 现增强的效果。
此外,由于在图像采集的过程中存在一定的噪声,为减弱噪声对网络训练的影响,本实 施例采用双边滤波(Bilateral Filters,BF)对皮带图像进行去噪。双边滤波具有去除噪声,同时保 持边缘的效果,是一种具有双重滤波作用的非线性滤波算法。双边滤波不仅考虑了图像中各 像素值几何上的邻近关系,还考虑了各个像素值亮度上的相以性。通过对两者的非线性组合, 自适应滤波得到平滑的图像。
含有高斯噪声的图像模型如下:
g(i,j)=f(i,j)+n(i,j) (8)
公式(8)中,f(i,j)表示不含任何噪声的图像,n(i,j)表示高斯噪声,g(i,j)表示带有噪声的 图像。滤波需要除去原始图像g(i,j)中的高斯噪声n(i,j),恢复到没有噪声的图像f(i,j)。含噪 声图像经双边滤波器处理后的像素值为:
Figure BDA0003531747090000081
公式(9)中,Sx,y是以(i,j)为中心点,大小为(2N+1)×(2N+1)的区域,Sx,y内各像素点均由以下 两部分因子的乘积组成:
w(i,j)=ws(i,j)wr(i,j) (10)
其中:
Figure BDA0003531747090000082
ws(i,j)函数是像素间距离对应的权重,像素间距离越近权重越大,这与传统的高斯滤波 相同。而wr(i,j)函数是像素间差异对应的权重,像素值越接近权重越大。由于wr(i,j)函数的 作用,像素距离近但像素值差异大的边缘像素点得以在滤波后被保留。
以上几种图像预处理模块都能解决部分图像预处理问题,最后使用图像融合算法把上述 模块的输出进行图像融合。本发明实施例的图像预处理流程可参照图1,具体步骤如下:
Step1:首先将待处理图像转换到HSV色彩空间,并设定阈值对其V通道分量进行亮度 调节,然后转换到RGB色彩空间,将处理的图像拷贝3份。
Step2:对第一份图片通过直方图均衡化模块进行处理,将图像灰度级进行拉伸,提升图 像对比度。
Step3:对第二份图片通过Retinex图像增强模块进行处理,用高斯滤波作为其环绕函数, 估计图像照明分量,最后输出处理后的图片,增强暗部细节。
Step4:对第三份图片通过双边滤波模块进行处理,在去除噪声的基础上保留图像边缘信 息。
Step5:最后将处理后的3份图像转到HSV色彩空间,对其V分量(光照分量)进行多图像 融合,H,S分量用第三份图像分量值,最后将融合后的图像由HSV转到RGB色彩空间,输出处理后图像。
步骤S202,基于YOLOv3目标检测网络中的Darknet-53特征提取网络,构造皮带破损特 征提取网络,其中皮带破损特征提取网络包括依次连接的DBL模块、第一残差模块、第二残 差模块和密集连接模块,其中第一残差模块包括一个残差单元,第二残差模块包括二个残差 单元,密集连接模块的具体公式为xl=Hl(Concat[x0,x1,...,xl-1]),其中,xl为密集连接模块的输 出,H(*)为非线性变换函数,x0,x1,...,xl-1为密集连接模块第0层到第l-1层的输出值,l为自定 义的非线性处理的次数。
本发明实施例在皮带破损特征提取上使用了改进的Darknet-53特征提取网络。Darknet-53 特征提取网络吸取了残差神经网络ResNet的思想,为基础网络添加了残差模块,以此帮助网 络浅层信息畅通地传导到深层,并防止网络因为层数过深而在反向传播过程中产生梯度弥散 问题。通过这种方法,网络的深度进一步加深至53层,提取图像信息的能力更强。Darknet-53 特征提取网络整体由一个CBL结构和5个残差结构组成。CBL结构由卷积层、批量归一化层、 激活函数层串联组成,5个残差结构分别由不同数量的残差块组成,N个残差块由一个CBL 结构和N个残差单元串联组成。每个残差单元由上一层的输入和上一层经过2个CBL结构 的输出经过Add操作组成。其中最后三个残差结构的输出特征图将作为多尺度预测网络的输 入。
本发明实施例在Darknet-53的基础上借鉴了DenseNet网络的理念。DenseNet在ResNet 的基础上通过图像特征角度提升网络性能,不仅在一定程度上减轻了梯度消失问题,加强了 特征的传递并减少了参数规模。DenseBlock结构如图2所示,x0,x1,...,xl-1为第0层到第l-1层 的特征图,通过对各层特征图的拼接,再经过非线性变换得到第l层的特征图xl,其过程如式 12所示:
xl=Hl(Concat[x0,x1,...,xl-1]) (12)
其中,非线性变换H(·)由一个1*1卷积和一个3*3的卷积组成,1*1卷积被称为瓶颈层, 其作用是既融合了各个通道的特征,又通过降维减少了输入到3*3卷积的特征图数量,从而 减少网络的计算量。
为增强特征复用,本实施例的主干特征提取网络借鉴DenseNet网络的思想,在Darknet-53 网络中加人DenseNet模块,如图3所示。将YOLOv3网络中对尺度26×26和52×52进行 预测输入的两组残差模块替换为自定义的密集连接模块。构建出一个带有密集型连接模块的 特征提取网络,使尺度26×26和52×52在进行预测之前能够接收密集连接块输出的多层卷 积特征,增强特征的传递并促进特征复用和融合,进一步提升检测效果。
本实施例通过构造的皮带破损特征提取网络提取皮带破损特征的具体步骤如下:
Step1:对输入图像yk使用一个DBL模块进行处理。一个DBL模块包括1个卷积模块(Conv模块),一个批量归一化模块(BN模块),一个非线性激活模块(Leaky relu模块), 处理后输出的结果为yk+1
Step2:对yk+1使用一个res1模块进行处理,res1模块由1个零填充模块,1个DBL模块,1个残差模块(Res_unit)组成,处理后输出的结果为yk+2
Step3:对yk+2使用一个res2模块进行处理,res2模块由1个零填充模块,1个DBL模块, 2个残差模块(Res_unit)组成,处理后输出的结果为yk+3
Step4:该步骤对YOLOv3网络进行了改进。YOLOv3在该步骤使用8个res1模块进行处理,改进后的网络在此使用1个Dense8模块进行处理。图2为一个Densel模块的组成图。Densel模块的公式如式(12)所示。
l代表要进行非线性处理的次数,如Dense8模块代表图2中的l为8,即需要进行8次非线 性处理,模块输出为x8。xl-1代表第l次非线性处理的输入,xl代表第l次非线性处理的输出, 例如:x0代表第1次处理的输入,x1代表第1次处理的输出。Concat[x0,x1,...,xl-1]代表将x0,x1,...,xl-1进行卷积拼接操作。Hl代表第l次非线性处理,每次非线性处理由1个批量归一化模块(BN 模块),1个非线性激活模块(Leaky relu模块),1个卷积模块(Conv模块)组成。
将yk+3经过1个Dense8模块进行处理后输出的结果为yk+4。yk+4即为改进的Darknet-53特 征提取网络的输出。
步骤S203,基于YOLOv3目标检测网络中的多尺度特征预测网络,构造皮带多尺度特征 预测网络。
具体地,多尺度预测模块吸取了SSD算法多级预测的思想,将骨干网络层中的输出的浅 层特征和下采样后更深层的特征进行拼接,从而让网络同时学习深层和浅层特征。多尺度预 测层包括3个预测分支结构,依次为大目标、中目标、小目标的检测提供特征信息,其通过自 顶向下的特征流,使用CBL结构和上采样层将深层特征分支中包含的强语义信息与浅层特征 分支进行融合,为浅层特征分支提供更强的语义特征信息。最终多尺度预测模块输出了3个不 同尺度的特征图进行预测。相较于单一尺度检测,多尺度检测提高了Gaussian-YOLOv3对于 小目标的识别精度。
多尺度预测模块吸取了SSD算法多级预测的思想,将骨干网络层中的输出的浅层特征和 下采样后更深层的特征进行拼接,从而让网络同时学习深层和浅层特征。最终多尺度预测模 块输出了3个不同尺度的特征图进行预测。相较于单一尺度检测,多尺度检测提高了目标检 测对于小目标的识别精度。
该部分步骤如下:
Step1:将改进的Darknet-53特征提取网络处理的结果yk+4经过1个Dense8模块处理后得 到yk+5,将yk+5经过4个残差模块处理后得到yk+6,将yk+6经过5个卷积模块处理后得到yk+7
Step2:将yk+7进行卷积处理后得到尺度为13*13的特征图youtcome1
Step3:将youtcome1进行上采样后与yk+5进行拼接,得到尺度为26*26的特征图youtcome2。拼 接的公式如下:
Figure BDA0003531747090000111
Z为拼接后的结果,Ui和Vi分别为被拼接的两张图片各颜色通道的像素值,Ki表示卷积 核参数。
Step4:将youtcome2进行上采样后与yk+4进行拼接,得到尺度为52*52的特征图youtcome3
步骤S204,基于YOLOv3目标检测网络中的边界框预测网络,构造皮带边界框预测网络。
具体地,本实施例首先构造包含预测框横向坐标,预测框纵向坐标,预测框宽度,预测 框高度的均值和方差的皮带输出变量,其中预测框横向坐标,预测框纵向坐标,预测框宽度, 预测框高度符合高斯分布,然后基于YOLOv3目标检测网络中的边界框预测网络和皮带输出变 量,构造皮带边界框预测网络。
具体地,本实施例在边界框坐标预测上对原YOLOv3算法进行了改进。原YOLOv3算法 特征图youtcome1,youtcome2,youtcome3的大小分别为:13*13*4,26*26*4,52*52*4。以youtcome1为例, 13*13代表youtcome1共预测13*13个边界框的坐标值,4代表着每个边界框输出4个预测值,即 tX,tY,tW,tH。tX代表预测框横向坐标,tY代表预测框纵向坐标,tW代表预测框宽度,tH代表预测 框高度。
改进后YOLOv3算法特征图youtcome1,youtcome2,youtcome3的大小分别为:13*13*8,26*26*8, 52*52*8。以youtcome1为例,13*13代表youtcome1共预测13*13个边界框的坐标值,8代表着每个边 界框输出8个预测值,即
Figure BDA0003531747090000112
分别代表着对预测框横向坐 标,纵向坐标,预测框宽度,预测框高度四个预测值分布的均值和方差的估计。以预测框横 向坐标为例,预测框横向坐标服从高斯分布,
Figure BDA0003531747090000113
为预测框横坐标的高斯分布的均值,
Figure BDA0003531747090000114
为 预测框横坐标的高斯分布的标准差。
本实施例通过构造包含预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度的 均值和方差的皮带输出变量,在皮带破损检测网络中增加了高斯模块,有利于提高目标框坐 标预测的准确性。
由于原边界框预测模块仅输出tX,tY,tW,tH,即预测框横坐标,预测框纵坐标,预测框宽度, 预测框高度,但这些坐标信息并不能表示该预测框位置的可靠性。本实施例加入高斯模块后, 预测的可靠性可以通过真值在预测的高斯分布中的概率密度函数来表示,从而提升了目标框 坐标预测的准确性和可靠性。
步骤S205,基于皮带破损特征提取网络、皮带多尺度特征预测网络以及皮带边界框预测 网络,构造皮带破损检测网络。
步骤S206,基于皮带破损检测网络对皮带破损缺陷进行检测。
具体地,本实施例首先采用皮带破损检测网络中的皮带破损特征提取网络,提取皮带破 损特征,然后采用皮带破损检测网络中的皮带多尺度特征预测网络,对皮带破损特征进行多 尺度预测,获得皮带破损多尺度特征,接着构造损失函数,并基于损失函数对皮带破损检测 网络进行训练,最后采用训练好的皮带破损检测网络,对皮带破损缺陷进行检测。
本实施例构造损失函数的过程包括:
Step1:获取预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度的均值和方差;
Step2:求取预测框的损失,其中预测框的损失包括预测框横向坐标损失、预测框纵向坐 标损失、预测框宽度损失以及预测框高度损失。每个预测框都会产生LX,LY,LW,LH四个损失值, 分别表示该预测框的横向坐标损失,纵向坐标损失,预测框宽度损失以及预测框高度损失。 且LX,LY,LW,LH的计算公式为:
Figure BDA0003531747090000121
其中,LX,LY,LW,LH分别表示预测框的横向坐标损失、预测框纵向坐标损失、预测框宽 度损失以及预测框高度损失,xG,yG,wG,hG分别表示预测框横向坐标、预测框纵向坐标、预测 框宽度以及预测框高度的真值(Ground Truth),
Figure BDA0003531747090000122
分别表示预测框横向坐标、 预测框纵向坐标、预测框宽度以及预测框高度的均值估计值,
Figure BDA0003531747090000123
分别表示 预测框横向坐标、预测框纵向坐标、预测框宽度以及预测框高度的标准差估计值,
Figure BDA0003531747090000131
代表真值xG服从均值为
Figure BDA0003531747090000132
标准差为
Figure BDA0003531747090000133
的高斯分布中的概率密度函数,
Figure BDA0003531747090000134
代表真值yG在服从均值为
Figure BDA0003531747090000135
标准差为
Figure BDA0003531747090000136
的高斯分布中的概率密度函数,
Figure BDA0003531747090000137
代表真值wG在服从均值为
Figure BDA0003531747090000138
标准差为
Figure BDA0003531747090000139
的高斯分布中的概率密度函 数,
Figure BDA00035317470900001310
代表真值hG在服从均值为
Figure BDA00035317470900001311
标准差为
Figure BDA00035317470900001312
的高斯分布中的概率密度 函数。
Step3:计算边界框预测的总损失Loutcome。Loutcome的公式如下:
Loutcome=LXoutcome+LYoutcome+LWoutcome+LHoutcome (15)
LXoutcome,LYoutcome,LWoutcome,LHoutcome分别代表预测框的横向坐标总损失,纵向坐标总损失,预测 框宽度总损失,预测框高度总损失。LXoutcome,LYoutcome,LWoutcome,LHoutcome的计算方式均相同,以LXoutcome为例:
LXoutcome=∑LX (16)
式中∑LX代表将所有预测框的横向坐标损失相加的总和。
步骤S207,发出皮带破损报警。
具体地,在完成皮带破损目标检测后,如何通过目标检测结果发出报警是皮带破损检测 的重要一环。皮带输送机工作环境复杂,存在光照不均、粉尘干扰、浅划痕等干扰因素,因 此有必要根据多种特征进行报警算法的设计。该部分综合考虑了破损预测框形态、检测置信 度、连续帧分析等特征设计了相应的报警算法。
在完成皮带破损检测后,会输出检测出破损的预测框。通过预测框能够得到皮带破损的 长度宽度信息、破损位置信息、破损检测置信度。破损的长度宽度是破损报警的重要参考要 素,如果检测出的皮带破损长度宽度小于判定阈值,判定为破损严重程度不足以报警,留存 检测结果等待工人查验即可。破损位置信息可以用于比对多帧之间的皮带破损是否连续出现。 破损检测置信度代表该预测框的可靠程度,皮带破损检测易受到振动、粉尘、浅划痕等因素 影响出现误检测。如果预测框置信度小于阈值,判定为该预测框为误检测。
皮带破损报警算法还需要分析多帧皮带图像的检测结果。皮带输送机工作环境复杂,电 动机和托辊结构中卡住坚硬物料可能对皮带表面产生划痕,但并未撕裂或者造成穿透,浅划 痕往往单独存在,分布较广,无连续性,不影响正常运行;皮带日常维护过程中发现皮带存 在撕裂或有撕裂的可能,会对这段皮带进行修剪,用钢条重新连接固定和硫化;某些皮带厂 家会在皮带上烫印公司商标。如果检测系统单独依据单帧图片检测结果反馈,在遇到上述情 形的检测数据会造成大量误识别,影响检测系统识别准确率。皮带运输机运行速度快,上述 情形中的皮带误识别情形不会在连续相邻多帧图片中同时出现,所以本专利设计了相邻帧分 析算法规避这些误识别数据产生的影响,提高检测精度。
相邻帧分析算法的思路为:目前大部分皮带运输机皮带纵向内部贯穿尼龙绳芯或者钢丝 绳芯,以达到提高张力和增强承载能力的作用,当皮带发生破损时,其破损位置水平方向变 化不大。当检测系统处理数据时,检测出疑似皮带撕破损,得到疑似皮带破损坐标信息并存 储,继续下一帧数据处理分析,当下一帧同样出现疑似皮带破损,求出本次的疑似皮带破损 点坐标与上帧存储皮带破损点坐标间距,如果求出距离超出设定阈值,则认为两张相邻连续 图像不存在同一皮带破损,不作为报警信号依据。根据大量数据分析和经验设定,同一纵向 撕裂坐标变化不会超过20pix(15mm),故当相邻帧间疑似皮带破损点距离超过这一设定阈值, 即认为上一帧图像数据受干扰影响,不进行连续对比。相邻帧分析算法流程的具体步骤如下:
Step1:从皮带破损目标检测输出结果中获得破损检测结果,包括预测框信息,置信度等信 息。
Step2:是否检出皮带破损,如检测图像不含任何破损预测框,结束这一帧图像的检测。
Step3:破损检测置信度是否超过可信阈值,若未超过,则判定为该预测框为误检测,结束 这一帧图像的检测。
Step4:破损大小是否超过报警阈值,若未超过,则判定为破损严重程度不足以引发报警, 留存检测结果,结束这一帧图像的检测。
Step5:若以上判定都已通过,进行下一帧图像的检测。当下一帧同样出现疑似皮带破损, 求出本次的疑似皮带破损点坐标与上帧存储皮带破损点坐标间距,如果求出距离小于设定阈 值,则认为两张相邻连续图像存在同一皮带破损,进行皮带破损报警。
实施例三
结合附图对本发明具体实施方案情况进一步说明。使用基于python的Keras深度学习框 架搭建出皮带破损目标检测模型,采集皮带图像,完成标注后,对搭建好的模型进行训练, 训练完成后的结果经破损报警算法处理后可以完成对皮带破损的报警。具体完成皮带破损检 测的实施方案步骤如下:
步骤1:采集含有破损的皮带图片,将图像进行预处理,首先对原始图像进行筛选,将 图像复制三份,分别通过直方图均衡化模块进行对比度增强,通过Retinex图像增强模块进 行亮度调整,通过双边滤波模块进行图像去噪。之后将三个模块处理过的图像将其转换为HSV 颜色通道,进行图像融合,得到图像预处理过后的皮带图像。
步骤2:将步骤1中得到的图片进行图片标注,将破损区域进行拉框标注,作为真值数 据进行之后的训练。
步骤3:搭建如图3所示的预测模型,包含用于皮带破损特征提取的改进Darknet-53卷 积神经网络,用于生成预测框的多尺度预测网络。
步骤4:将数据输入模型中开始训练,为实现小批量下降,定义训练过程中每次输入的样 本数量,即批量大小(batch_size),当batch_size为m时,每次训练输入m个皮带图像样本, batch_size取值为大于16的正整数,即batch_size≥16。
步骤5:在目标框坐标的损失函数上选择负对数似然(negative log likelihood,NLL) 损失函数。以x坐标的损失LX为例:
Figure BDA0003531747090000151
LX表示该预测框的横向坐标损失,xG为训练时横向坐标的真值(Ground Truth),预测框 横向坐标服从Step1中预测的高斯分布,
Figure BDA0003531747090000152
为预测框横坐标高斯分布的均值,
Figure BDA0003531747090000153
为预测 框横坐标高斯分布的标准差。
Figure BDA0003531747090000154
为真值xG在Step1中预测出的高斯分布上的概 率密度函数。当预测的均值和方差最符合真实分布时,损失Lx最小。
步骤6:训练中使用Adam优化器对预测模型中的所有权重矩阵和偏置参数进行优化,设 置Adam的学习率为0.0095,梯度阈值设置为4;不断的调节学习率,使得基于预测模型的输岀 值与实际值之间的损失函数值梯度不超过梯度阈值,且以达到收敛时的学习率更新预测模型 中的所有权重矩阵和偏置参数,从而得到优化后的预测模型。
步骤7:以上步骤完成后即可将现场的图像经过预处理之后输入模型中,通过结果输出 模块的计算得到预测框信息以及预测置信度。
将步骤7输出的预测框信息输入图4所示的报警算法,经过对相邻帧图像破损的破损框 信息,置信度综合分析后发出报警指令。
参照图5,本发明实施例提出的上料皮带破损缺陷智能检测系统,包括:
存储器10、处理器20以及存储在存储器10上并可在处理器20上运行的计算机程序, 其中,处理器20执行计算机程序时实现本实施例提出的上料皮带破损缺陷智能检测方法的 步骤。
本实施例的上料皮带破损缺陷智能检测系统的具体工作过程和工作原理可参照本实施例 中的上料皮带破损缺陷智能检测方法的工作过程和工作原理。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说 ,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替 换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种上料皮带破损缺陷智能检测方法,其特征在于,所述方法包括:
对采集的皮带图像进行预处理;
构造皮带破损检测网络;
基于皮带破损检测网络对皮带破损缺陷进行检测。
2.根据权利要求1所述的上料皮带破损缺陷智能检测方法,其特征在于,构造皮带破损检测网络包括:
基于YOLOv3目标检测网络中的Darknet-53特征提取网络,构造皮带破损特征提取网络,其中皮带破损特征提取网络包括依次连接的DBL模块、第一残差模块、第二残差模块和密集连接模块,其中第一残差模块包括一个残差单元,第二残差模块包括二个残差单元,密集连接模块的具体公式为:
xl=Hl(Concat[x0,x1,...,xl-1]);
其中,xl为密集连接模块的输出,H(·)为非线性变换函数,x0,x1,...,xl-1为密集连接模块第0层到第l-1层的输出值,Concat[x0,x1,...,xl-1]代表将x0,x1,...,xl-1进行特征图拼接,l为自定义的非线性处理的次数;
基于YOLOv3目标检测网络中的多尺度特征预测网络,构造皮带多尺度特征预测网络;
构造包含预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度的均值和方差的皮带输出变量,其中预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度符合高斯分布;
基于YOLOv3目标检测网络中的边界框预测网络和皮带输出变量,构造皮带边界框预测网络;
基于皮带破损特征提取网络、皮带多尺度特征预测网络以及皮带边界框预测网络,构造皮带破损检测网络。
3.根据权利要求2所述的上料皮带破损缺陷智能检测方法,其特征在于,基于皮带破损检测网络对皮带破损缺陷进行检测包括:
采用皮带破损检测网络中的皮带破损特征提取网络,提取皮带破损特征;
采用皮带破损检测网络中的皮带多尺度特征预测网络,对皮带破损特征进行多尺度预测,获得皮带破损多尺度特征;
构造损失函数,并基于损失函数对皮带破损检测网络进行训练;
采用训练好的皮带破损检测网络,对皮带破损缺陷进行检测。
4.根据权利要求3所述的上料皮带破损缺陷智能检测方法,其特征在于,构造损失函数包括:
获取预测框横向坐标,预测框纵向坐标,预测框宽度,预测框高度的均值和方差;
求取预测框的损失,其中预测框的损失包括预测框横向坐标损失、预测框纵向坐标损失、预测框宽度损失以及预测框高度损失,具体计算公式为:
Figure FDA0003531747080000021
其中,LX,LY,LW,LH分别表示预测框横向坐标损失、预测框纵向坐标损失、预测框宽度损失以及预测框高度损失,xG,yG,wG,hG分别表示预测框横向坐标、预测框纵向坐标、预测框宽度以及预测框高度的真值,
Figure FDA0003531747080000022
分别表示预测框横向坐标、预测框纵向坐标、预测框宽度以及预测框高度的均值估计值,
Figure FDA0003531747080000023
分别表示预测框横向坐标、预测框纵向坐标、预测框宽度以及预测框高度的标准差估计值,
Figure FDA0003531747080000024
代表真值xG服从均值为
Figure FDA0003531747080000025
标准差为
Figure FDA0003531747080000026
的高斯分布中的概率密度函数,
Figure FDA0003531747080000027
代表真值yG在服从均值为
Figure FDA0003531747080000028
标准差为
Figure FDA0003531747080000029
的高斯分布中的概率密度函数,
Figure FDA00035317470800000210
代表真值wG在服从均值为
Figure FDA00035317470800000211
标准差为
Figure FDA00035317470800000212
的高斯分布中的概率密度函数,
Figure FDA00035317470800000213
代表真值hG在服从均值为
Figure FDA00035317470800000214
标准差为
Figure FDA00035317470800000215
的高斯分布中的概率密度函数;
根据所有预测框的横向坐标损失、纵向坐标损失、宽度损失以及高度损失构造损失函数,且损失函数的具体公式为:
Loutcome=LXoutcome+LYoutcome+LWoutcome+LHoutcome
其中,LXoutcome,LYoutcome,LWoutcome,LHoutcome分别代表所有预测框的横向坐标损失,纵向坐标损失,宽度损失以及高度损失。
5.根据权利要求4所述的上料皮带破损缺陷智能检测方法,其特征在于,对皮带破损缺陷进行检测之后还包括发出皮带破损报警。
6.根据权利要求1-5任一所述的上料皮带破损缺陷智能检测方法,其特征在于,对采集的皮带图像进行预处理包括:
对采集的皮带图像进行直方图均衡化,获得第一图像;
对采集的皮带图像进行图像增强,获得第二图像;
对采集的皮带图像进行双边滤波,获得第三图像;
对第一图像、第二图像以及第三图像进行图像融合,并根据融合后的图像获得预处理后的皮带图像。
7.根据权利要求6所述的上料皮带破损缺陷智能检测方法,其特征在于,对第一图像、第二图像以及第三图像进行图像融合,并根据融合后的图像获得预处理后的皮带图像包括:
将第一图像、第二图像以及第三图像分别转换到HSV色彩空间,分别获得三个图像的H、S和V分量;
将第一图像、第二图像以及第三图像的V分量进行融合,获得融合V分量;
根据第三图像的H、S分量以及融合V分量,获得融合HSV图像;
将融合HSV图像转换为RGB图像,获得预处理后的皮带图像。
8.一种上料皮带破损缺陷智能检测系统,所述系统包括:
存储器(10)、处理器(20)以及存储在存储器(10)上并可在处理器(20)上运行的计算机程序,其特征在于,所述处理器(20)执行所述计算机程序时实现上述权利要求1至7任一所述方法的步骤。
CN202210207745.XA 2022-03-04 2022-03-04 一种上料皮带破损缺陷智能检测方法及系统 Pending CN114612403A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210207745.XA CN114612403A (zh) 2022-03-04 2022-03-04 一种上料皮带破损缺陷智能检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210207745.XA CN114612403A (zh) 2022-03-04 2022-03-04 一种上料皮带破损缺陷智能检测方法及系统

Publications (1)

Publication Number Publication Date
CN114612403A true CN114612403A (zh) 2022-06-10

Family

ID=81860710

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210207745.XA Pending CN114612403A (zh) 2022-03-04 2022-03-04 一种上料皮带破损缺陷智能检测方法及系统

Country Status (1)

Country Link
CN (1) CN114612403A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012378A (zh) * 2023-03-24 2023-04-25 湖南东方钪业股份有限公司 一种用于增材制造的合金丝材的质量检测方法
CN117495857A (zh) * 2023-12-29 2024-02-02 合肥金星智控科技股份有限公司 皮带撕边的检测方法、系统、设备和介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012378A (zh) * 2023-03-24 2023-04-25 湖南东方钪业股份有限公司 一种用于增材制造的合金丝材的质量检测方法
CN117495857A (zh) * 2023-12-29 2024-02-02 合肥金星智控科技股份有限公司 皮带撕边的检测方法、系统、设备和介质
CN117495857B (zh) * 2023-12-29 2024-04-02 合肥金星智控科技股份有限公司 皮带撕边的检测方法、系统、设备和介质

Similar Documents

Publication Publication Date Title
CN111862064B (zh) 一种基于深度学习的银质丝材表面瑕疵识别方法
CN107437243B (zh) 基于x光图像的轮胎杂质检测方法及装置
CN115272334B (zh) 用于复杂背景下的钢轨表面微小缺陷检测方法
CN111681240B (zh) 一种基于YOLO v3与注意力机制的桥梁表面裂痕检测方法
CN114612403A (zh) 一种上料皮带破损缺陷智能检测方法及系统
CN116758061B (zh) 基于计算机视觉的铸件表面缺陷检测方法
CN114549497B (zh) 基于图像识别的走台板表面缺陷检测方法及人工智能系统
CN114219805B (zh) 一种玻璃缺陷智能检测方法
CN110555467B (zh) 一种基于模型迁移的工业数据分类方法
CN114972326A (zh) 热收缩管扩管工艺的次品识别方法
CN113935666B (zh) 基于图像处理的建筑装饰墙面砖异常评估方法
CN108596872A (zh) 基于Gabor小波和SVM的钢轨病害的检测方法
CN113989257A (zh) 基于人工智能技术的电力综合管廊沉降裂缝识别方法
CN116883408B (zh) 基于人工智能的积算仪壳体缺陷检测方法
CN114049316A (zh) 一种基于金属光泽区域的钢丝绳缺陷检测方法
CN115345821A (zh) 基于主动视觉成像的钢卷捆带松动异常检测及量化方法
CN116721096B (zh) 基于人工智能的新能源线束质量在线检测方法
CN115631146A (zh) 一种基于图像的受电弓碳滑条缺损缺陷检测方法
Elanangai et al. Automated system for defect identification and character recognition using IR images of SS-plates
CN113538418A (zh) 基于形态学分析的轮胎x射线图像缺陷提取模型构建方法
CN111767815A (zh) 一种隧道渗漏水识别方法
CN117274250B (zh) 一种手表底盖磨损缺陷视觉检测方法
CN114937055B (zh) 基于人工智能的图像自适应分割方法与系统
CN116385414B (zh) 零部件多尺度缺陷特征提取方法、计算设备及存储介质
CN115100224B (zh) 一种煤矿巷道掘进迎头交叉裂隙提取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination