CN113658131A - 一种基于机器视觉巡游式环锭纺断纱检测方法 - Google Patents

一种基于机器视觉巡游式环锭纺断纱检测方法 Download PDF

Info

Publication number
CN113658131A
CN113658131A CN202110936624.4A CN202110936624A CN113658131A CN 113658131 A CN113658131 A CN 113658131A CN 202110936624 A CN202110936624 A CN 202110936624A CN 113658131 A CN113658131 A CN 113658131A
Authority
CN
China
Prior art keywords
yarn
image
target
class
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110936624.4A
Other languages
English (en)
Other versions
CN113658131B (zh
Inventor
张洁
陈泰芳
汪俊亮
周亚勤
李冬武
徐楚桥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN202110936624.4A priority Critical patent/CN113658131B/zh
Publication of CN113658131A publication Critical patent/CN113658131A/zh
Application granted granted Critical
Publication of CN113658131B publication Critical patent/CN113658131B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • G01N21/898Irregularities in textured or patterned surfaces, e.g. textiles, wood
    • G01N21/8983Irregularities in textured or patterned surfaces, e.g. textiles, wood for testing textile webs, i.e. woven material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Textile Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Wood Science & Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,包括以下步骤:带有工业摄像头的工业相机对纱线进行巡游式检测,处理器获取工业相机巡游中的图片;建立目标区域识取模型并对目标区域识取模型进行训练,将获得的实时图像输入训练后的目标区域识取模型,判断图像中是否包含纱线目标,并提取包含纱线目标的图像的感兴趣区域;对正常矩形图像进行平滑处理;计算每根纱线的长度从而判断是否发生断纱现象。本发明考虑检测纱线数量动态变化的问题;考虑了适应不同场合下环锭纺细纱机的检测和移动下图像畸变问题,具有较好的鲁棒性;能够适应于图像纱线间距变化的问题;考虑到了多次降噪问题,有效的提高了检测的准确率。

Description

一种基于机器视觉巡游式环锭纺断纱检测方法
技术领域
本发明涉及一种基于机器视觉的环锭纺细纱视觉检测方法,属于图像处理和深度学习技术领域。
背景技术
细纱工序是纺纱工艺的一个重要环节,细纱生产过程中断纱(从前罗拉输出至筒管之间连续的细纱条发生断裂的现象)问题直接导致细纱工序中断。细纱断头率是细纱生产的主要技术指标之一,高断头率则是限制环锭纺产能的主要原因,也是影响劳动生产率的重要因素,细纱断头多不仅会增加工人巡检劳动强度,也会对能源损耗、纱线质量、原料损耗产生影响。
现有技术检测细纱断纱的方式通常有机械式、电气接触式、气压非接触式、光电非接触式和温度传感式等。此类方法都为单锭式检测,优势是准确率高、实时性强、寿命较长、性能较为稳定,但单锭式检测存在着对现有细纱机改造成本高的问题,部分方法也会对纺纱过程产生影响。因此,单锭式检测存在改造成本大甚至无法改造的缺点。
目前随着视觉传感器价格逐步降低,数字图像处理技术不断发展,工业中各个生产领域开始广泛采用机器视觉进行表面缺陷检测、工件定位、目标识别等,而通过使用机器视觉的方式可以适应于市面上大部分细纱机进行断纱检测,价格低可改造性强,同时对纺纱过程不会产生任何影响。
虽然机器视觉具有上述众多优点,但目前市面上仍然没有一套比较完善的机器视觉断纱检测的方法,大部分方法仍处于理论阶段,在实际应用中仍存在许多不足,同时没有考虑到移动检测时所产生的问题。
发明内容
本发明要解决的技术问题是:巡游式环锭纺断纱检测准确率低。
为了解决上述技术问题,本发明的技术方案是提供了一种基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,包括以下步骤:
步骤1、带有工业摄像头的工业相机对纱线进行巡游式检测,处理器获取工业相机巡游中的图片;
步骤2、建立目标区域识取模型并对目标区域识取模型进行训练,将步骤1获得的实时图像输入训练后的目标区域识取模型,判断图像中是否包含纱线目标,并提取包含纱线目标的图像的感兴趣区域,具体包括以下步骤:
步骤201、建立基于目标检测的深度神经网络结构作为目标区域识取模型。该目标区域识取模型由一个输入层、一个卷积层COV.1、5个Inverted Residual Block层、一个卷积层COV.2、一个平均池化层和一个输出层组成,其中:
每个Inverted Residual Block层使用深度可分离卷积和残差结构;
输出层通过全连接层输出3个坐标点及一个CLASS类,其中,CLASS类分为两类,一类表示输入的图像包含纱线目标,另一类表示输入的图像不包含纱线目标;通过4个坐标点确定一个矩形框,当通过CLASS类显示输入的图像包含纱线目标时,利用该矩形框将图像中带纱线的目标区域框选出来;
步骤202、利用训练数据集对步骤201构建的目标区域识取模型进行训练,包括:
步骤2021、获取训练数据集:
使用工业摄像头收集在工厂中纺纱相关数据图片,拍摄多张带纱线目标的图像及多张不带纱线目标的黑白图像;
利用矩形框对带纱线目标的图像中的纱线目标进行框选,从而获得矩形框的三个角部坐标(X1,Y1)、(X2,Y2)、(X3,Y3),该矩形框为倾斜梯形;
不带纱线目标的图像所对应的四个角部坐标的值为0;
为每张图像设定标签数据,标签数据由三个角部坐标及CLASS类4个参数组成;
步骤2022、利用上一步得到的训练数据集对目标区域识取模型进行训练,训练时,计算全连接层的输出
Figure BDA0003213097190000021
与训练数据集中标签数据
Figure BDA0003213097190000022
的距离
Figure BDA0003213097190000023
Figure BDA0003213097190000024
Figure BDA0003213097190000025
为全连接层输出的三个角部坐标,
Figure BDA0003213097190000026
为全连接层输出的CLASS类,
Figure BDA0003213097190000027
Figure BDA0003213097190000028
为标签数据的三个角部坐标,
Figure BDA0003213097190000029
为标签数据的CLASS类;通过最小化距离
Figure BDA00032130971900000210
来减少目标区域识取模型的预测误差,则目标区域识取模型的损失函数Loss定义为下式:
Figure BDA00032130971900000211
上式中,Ls交叉熵函数,用于判断图像是否包含纱线目标,p(x)为期望输出,q(x)为实际输出;Lc代表输出坐标点与真实坐标点之间的协方差;
步骤203、将实时图像输入训练好的目标区域识取模型,由目标区域识取模型输出该图像的CLASS类,若通过CLASS类判断当前图像包含纱线目标,则目标区域识取模型还输出4个用于确定矩形框的坐标点,利用该矩形框将图像中带纱线的目标区域框选出来,提取成单独的图片;
步骤3、通过透视处理将步骤2获得的图片恢复成正常矩形图像,对正常矩形图像进行平滑处理,达到突出纱线特征、平滑图像背景的目的;
步骤5、使用改进的sobel算子去除上一步骤获取到图像的背景,同时保留图像中纱线相关特征;
步骤6、利用阈值化对图像进行处理提取出纱线目标,再通过边缘轮廓查找进一步筛选并排除噪声,提取出纱线特征,随后通过添加霍夫变换,提取数值方向上达到要求长度的直线,最终得到n根纱线;
步骤7、基于上一步骤提取出的纱线特征,计算每根纱线的长度从而判断是否发生断纱现象,并在输出图像中将发生断纱现象的纱线标记出来,以达到可视化目的。
优选的,步骤1中,所述图片为黑白图像。
优选的,步骤201中,卷积层COV.1及卷积层COV.2采用下式:
Figure BDA0003213097190000031
上式中:Zij是经过卷积运算后得到的特征图,(i,j)表示特征图中的高度和宽度,
Figure BDA0003213097190000032
H和W分表示输入卷积层COV.1或卷积层COV.2的图像数据的高度和宽度,F表示卷积核的高度和宽度大小;ρ表示非线性激活函数;wrc表示卷积核位于(r,c)位置处的权重;x(r+i×t)(c+j×t)表示输入卷积层COV.1或卷积层COV.2的图像数据,t表示卷积核运动的步长;b表示偏差。
优选的,步骤201中,所述Inverted Residual Block层通过使用1×1的普通卷积先进行升维操作,然后利用3×3的深度可分离卷积进行特征提取,再利用1×1的普通卷积降维,最终将输入和输出直接相接;
3×3的深度可分离卷积采用下式:
Figure BDA0003213097190000041
上式中:Mijn为第n个通道的特征图;wrcn为位于卷积核中第n个通道的(r,c)位置处的权重;x(r+i×t)(c+j×t)n表示输入深度可分离卷积层第n个通道的图像数据;Mij′表示输出的N个通道的特征图像;wn′表示第n个通道的特征图的权重;Mout表示输入数据与卷积后的数据之和;xrcn代表该时刻输入第n个通道的图像数据。
优选的,步骤201中,全连接层执行下式:
Figure BDA0003213097190000042
式中,
Figure BDA0003213097190000043
表示第n个通道的全连接层第k个输出的权重;bk表示全连接层第k个输出的偏差;hn表示第n个通道自适应平均池化层输入的参数。
优选的,步骤2021中,用P(X)来表示当前图像包含纱线目标的置信度,如下式所示:
Figure BDA0003213097190000044
式中,P(X)为概率,是由CLASS类输出加以激活函数softmax进行激活得到[0,1]之间的数值,ux表示预先设定的阈值,超过该阈值ux则认为当前图像可靠,并利用矩形框进行纱线目标框选,否则不进行纱线目标框选。
优选的,步骤5中,使用面向纱线特征强化的sobel算子如下式所示:
Gij=sobel×Hij
上式中:
Gij为经过面向纱线特征强化的sobel算子处理后的图像中(i,j)位置处的像素点;
Hij为未经过面向纱线特征强化的sobel算子处理的图像中(i,j)位置处的像素点;
sobel为矩阵算子,矩阵算子sobel采用如下式所示的改进的面向纱线特征强化的sobel算子矩阵:
sobel=2f(x,y+i)+f(x-1,y+i)+f(x+1,y+i)-2f(x+2,y+i)-2f(x+2,y-i)
式中,f(x,y)表示输入图像数据,i∈[-1,0,1]。
优选的,步骤6中,利用下式对图像进行阈值化处理:
Figure BDA0003213097190000051
上式中,Pij为经过阈值化处理的位于(i,j)位置处的图像像素点的值,Pij′为阈值化处理前的位于(i,j)位置处的图像像素点的值,u为阈值参数。
优选的,步骤6中,基于下式进行前述的边缘轮廓查找:
Figure BDA0003213097190000052
上式中,I(x)为阈值分割后各部分图像内容,
Figure BDA0003213097190000053
为图像框选的长度,α为额定阈值大小。
优选的,步骤7中,判断是否发生断纱现象包括以下步骤:
步骤701、计算每根纱线的格拉布斯检验统计量,如下式所示:
Gi=(di-u)/s
式中:Gi为第i根纱线的格拉布斯检验统计量;di为第i根纱线的实时纱线长度;u为样本平均值,
Figure BDA0003213097190000054
s为样本标准差,
Figure BDA0003213097190000055
步骤702、根据每根实时纱线长度,确定检出水平α,查表得出对应的格拉布斯检验临界值α(n);当Gi>α(n),则判断di为异常值,第i根纱线为断纱,否则无异常值,纱线正常。
与现有技术相比,本发明具有以下有益效果:(1)考虑检测纱线数量动态变化的问题;(2)考虑了适应不同场合下环锭纺细纱机的检测和移动下图像畸变问题,具有较好的鲁棒性;(3)能够适应于图像纱线间距变化的问题;(4)考虑到了多次降噪问题,有效的提高了检测的准确率。
附图说明
图1是本发明实施例的基于机器视觉的巡游式断纱检测流程图;
图2是本发明实施例的获取图像数据;
图3是本发明实施例的目标区域选取的深度神经网络结构;
图4是本发明实施例的目标选取结果图像;
图5至图9是本发明实施例的目标图像处理流程。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
如图1所示,本实施例公开的一种基于机器视觉巡游式环锭纺断纱检测方法流采用python语言编写,包括以下步骤:
步骤1、带有工业摄像头的工业相机对纱线进行巡游式检测,处理器以每秒五帧的速率获取工业相机巡游中的图片。
本实施例中,工业摄像头可以选择海康威视MVL-KF3528M-12MP的FA镜头,工业相机可以选择MV-CA050-20UM的摄像机,从而在最大程度上保证获取到的图片的清晰度。处理器选择使用JESTONNANO
工业相机获取的图片为黑白图像,以达到减少数据传输量的目的。工业相机获取到的黑白图像如图2所示。
步骤2、对获取到的包含纱线目标的黑白图像进行感兴趣区域的选取,主要包括以下步骤:
步骤201、建立基于目标检测的深度神经网络结构作为目标区域识取模型。该目标区域识取模型由一个输入层、一个卷积层COV.1、5个Inverted Residual Block层、一个卷积层COV.2、一个平均池化层和一个输出层组成。
卷积层COV.1及卷积层COV.2采用下式(1):
Figure BDA0003213097190000061
式(1)中:Zij是经过卷积运算后得到的特征图,(i,j)表示特征图中的高度和宽度,
Figure BDA0003213097190000062
H和W分表示输入卷积层COV.1或卷积层COV.2的图像数据的高度和宽度,F表示卷积核的高度和宽度大小;ρ表示非线性激活函数;wrc表示卷积核位于(r,c)位置处的权重;x(r+i×t)(c+j×t)表示输入卷积层COV.1或卷积层COV.2的图像数据,t表示卷积核运动的步长;b表示偏差。
如图3所示,每个Inverted Residual Block层使用的是深度可分离卷积和残差结构,用于减少参数量提升运算效率抑制过拟合问题。其中,深度可分离卷积可以减少运算量和参数,使得本发明可以在树莓派上运行,残差结构用于防止图像信息丢失。
具体而言,Inverted Residual Block层通过使用1×1的普通卷积先进行升维操作,然后利用3×3的深度可分离卷积进行特征提取,再利用1×1的普通卷积降维,最终将输入和输出直接相接。
3×3的深度可分离卷积采用下式(2):
Figure BDA0003213097190000071
式(2)中:Mijn为第n个通道的特征图;wrcn为位于卷积核中第n个通道的(r,c)位置处的权重;x(r+i×t)(c+j×t)n表示输入深度可分离卷积层第n个通道的图像数据,t表示卷积核运动的步长;Mij′表示输出的N个通道的特征图像;wn′表示第n个通道的特征图的权重;Mout表示输入数据与卷积后的数据之和;xrcn代表该时刻输入第n个通道的图像数据。
输出层通过全连接层输出参数为4个,代表3个坐标点及一个CLASS类。其中,CLASS类分为两类,一类表示输入的黑白图像包含纱线目标,另一类表示输入的黑白图像不包含纱线目标。通过3个坐标点确定一个矩形框,该矩形框大致为倾斜梯形。正常情况下目标区域为规则长方形,因此目标区域产生变形具有一致性(如倾斜抖动是对图像整体进行变化),最终得到的矩阵框大致为倾斜梯形,因此可以通过三个坐标可以确定,进行后续仿射变换也可只用三个坐标。当通过CLASS类显示输入的黑白图像包含纱线目标时,利用该矩形框将黑白图像中带纱线的目标区域框选出来。
全连接层执行下式(3):
Figure BDA0003213097190000072
式(3)中:
Figure BDA0003213097190000081
表示全连接层的第k个输出,k=1,2,3,4,本实施例中,全连接层的第1个输出至第3个输出为3个坐标点,全连接层的第4个输出为CLASS类;
Figure BDA0003213097190000082
表示第n个通道的全连接层第k个输出的权重;bk表示全连接层第k个输出的偏差;hn表示第n个通道自适应平均池化层输入的参数。
步骤202、利用训练数据集对步骤201构建的目标区域识取模型进行训练,包括:
步骤2021、获取训练数据集:
使用工业摄像头收集在工厂中纺纱相关数据图片,拍摄2000张带纱线目标的黑白图像及1000张不带纱线目标的黑白图像。
利用矩形框对带纱线目标的黑白图像中的纱线目标进行框选,从而获得矩形框的三个角部坐标(X1,Y1)、(X2,Y2)、(X3,Y3)。
不带纱线目标的黑白图像所对应的三个角部坐标的值为0。
为每张黑白图像设定标签数据,标签数据由三个角部坐标及CLASS类4个参数组成。
用POUT(X)来表示当前黑白图像包含纱线目标的置信度,如下式(4)所示:
Figure BDA0003213097190000083
式(4)中,ux表示预先设定的阈值,P(X)超过该阈值ux则认为当前黑白图像可靠,并利用矩形框进行纱线目标框选,否则不进行纱线目标框选,P(X)为概率,是由CLASS类输出加以激活函数softmax进行激活得到[0,1]之间的数值。
步骤2022、利用上一步得到的训练数据集对目标区域识取模型进行训练,训练时,计算全连接层的输出
Figure BDA0003213097190000084
与训练数据集中标签数据
Figure BDA0003213097190000085
的距离
Figure BDA0003213097190000086
通过最小化距离
Figure BDA0003213097190000087
来减少目标区域识取模型的预测误差,其中
Figure BDA0003213097190000088
前三个数据代表定位目标,第四个数据为CLASS类,需要用不同的损失函数进行计算。
在本实施例中,目标区域识取模型的损失函数Loss定义为下式(5):
Figure BDA0003213097190000089
式(5)中,Ls交叉熵函数,用于判断图像是否包含纱线目标,p(x)为期望输出,为
Figure BDA0003213097190000091
q(x)为实际输出,为
Figure BDA0003213097190000092
Lc代表输出坐标点与真实坐标点之间的协方差。
步骤203、将实时获得的黑白图像输入训练好的目标区域识取模型,由目标区域识取模型输出该黑白图像的CLASS类,若通过CLASS类判断当前黑白图像包含纱线目标,则目标区域识取模型还输出3个用于确定矩形框的坐标点,利用该矩形框将黑白图像中带纱线的目标区域框选出来,提取成单独的图片,效果大致如图4所示。
相机在移动的情况下会因为移动速度不规律、急停、装配零件抖动从而出现相机位置拍摄角度、高度的偏移,同时部分相机拍摄时也会有畸变现象发生(如广角相机拍摄时在边缘产生严重失真变形),如果使用固定矩阵框进行框选会导致多余图像,对后续纱线区域的选择将影响到断纱检测判断的精度。因此,本发按摩针对该特点采用矩形框的方式选目标区域,并通过自适应的仿射变换复原目标区域图像。
步骤3、通过透视处理将步骤2获得的图片恢复成正常矩形图像,经过L0正则化后平滑图像保留特征。如图5至图6所示,L0正则化是用于初步平滑图像的方法,通过L0正则化突出纱线特征、平滑图像背景。也可以使用其它平滑方式,如均值滤波、高斯滤波等,速度更快但效果稍差。
步骤4、使用面向纱线特征强化的sobel算子去除上一步骤获取到图像的背景,同时保留图像中纱线相关特征。再利用阈值化对图像进行处理提取出纱线目标。再通过边缘轮廓查找进一步筛选并排除噪声,提取出纱线特征。
使用面向纱线特征强化的sobel算子如下式(6)所示:
Gij=sobel×Hij (6)
式(6)中,Gij为经过面向纱线特征强化的sobel算子处理后的图像中(i,j)位置处的像素点,Hij为未经过面向纱线特征强化的sobel算子处理的图像中(i,j)位置处的像素点,sobel为矩阵算子。使用面向纱线特征强化的sobel算子对每个像素点及周围像素点进行一次乘积从而获得输出像素点。
本实施例中,矩阵算子sobel采用如下式(7)所示的改进的sobel算子矩阵:
sobel=2f(x,y+i)+f(x-1,y+i)+f(x+1,y+i)-2f(x+2,y+i)-2f(x+2,y-i) (7)
式(7)中,f(x,y)表示输入图像数据,i∈[-1,0,1]。
利用下式(8)对图像进行阈值化处理:
Figure BDA0003213097190000101
式(8)中,Pij为经过阈值化处理的位于(i,j)位置处的图像像素点的值,Pij′为阈值化处理前的位于(i,j)位置处的图像像素点的值,u为阈值参数。
基于下式(9)进行前述的边缘轮廓查找:
Figure BDA0003213097190000102
式(9)中,I(x)为阈值分割后各部分图像内容,
Figure BDA0003213097190000103
为图像框选的长度,α为额定阈值大小。
如图8所示,通过边缘轮廓查找筛选掉了小噪声,强化了纱线特征,但对一些大噪声也会产生强化。因此在图像处理中,通过添加霍夫变换,提取数值方向上达到要求长度的直线,最终结果如图9所示。
步骤5、基于上一步骤提取出的纱线特征,计算纱线的长度从而判断是否发生断纱现象,并在输出图像中用矩形标记出来,以达到可视化目的。
设通过步骤4提取得到n个纱线特征,判断是否发生断纱现象包括以下步骤:
步骤501、计算每根纱线的格拉布斯检验统计量,如下式(10)所示:
Gi=(di-u)/s (10)
式(10)中:Gi为第i根纱线的格拉布斯检验统计量;di为第i根纱线的实时纱线长度;u为样本平均值,
Figure BDA0003213097190000104
s为样本标准差,
Figure BDA0003213097190000105
Figure BDA0003213097190000106
步骤502、根据每根实时纱线长度,确定检出水平α,查表(GB4883)得出对应的格拉布斯检验临界值α(n)。当Gi>α(n),则判断di为异常值,第i根纱线为断纱,否则无异常值,纱线正常。
最后所应说明的是:以上实施例仅用以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应该理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,包括以下步骤:
步骤1、带有工业摄像头的工业相机对纱线进行巡游式检测,处理器获取工业相机巡游中的图片;
步骤2、建立目标区域识取模型并对目标区域识取模型进行训练,将步骤1获得的实时图像输入训练后的目标区域识取模型,判断图像中是否包含纱线目标,并提取包含纱线目标的图像的感兴趣区域,具体包括以下步骤:
步骤201、建立基于目标检测的深度神经网络结构作为目标区域识取模型。该目标区域识取模型由一个输入层、一个卷积层COV.1、5个Inverted Residual Block层、一个卷积层COV.2、一个平均池化层和一个输出层组成,其中:
每个Inverted ResidualBlock层使用深度可分离卷积和残差结构;
输出层通过全连接层输出3个坐标点及一个CLASS类,其中,CLASS类分为两类,一类表示输入的图像包含纱线目标,另一类表示输入的图像不包含纱线目标;通过4个坐标点确定一个矩形框,当通过CLASS类显示输入的图像包含纱线目标时,利用该矩形框将图像中带纱线的目标区域框选出来;
步骤202、利用训练数据集对步骤201构建的目标区域识取模型进行训练,包括:
步骤2021、获取训练数据集:
使用工业摄像头收集在工厂中纺纱相关数据图片,拍摄多张带纱线目标的图像及多张不带纱线目标的黑白图像;
利用矩形框对带纱线目标的图像中的纱线目标进行框选,从而获得矩形框的三个角部坐标(X1,Y1)、(X2,Y2)、(X3,Y3),该矩形框为倾斜梯形;
不带纱线目标的图像所对应的三个角部坐标的值为0;
为每张图像设定标签数据,标签数据由三个角部坐标及CLASS类4个参数组成;
步骤2022、利用上一步得到的训练数据集对目标区域识取模型进行训练,训练时,计算全连接层的输出
Figure FDA0003213097180000011
与训练数据集中标签数据
Figure FDA0003213097180000012
的距离
Figure FDA0003213097180000013
Figure FDA0003213097180000014
Figure FDA0003213097180000015
为全连接层输出的三个角部坐标,
Figure FDA0003213097180000016
为全连接层输出的CLASS类,
Figure FDA0003213097180000017
Figure FDA0003213097180000018
为标签数据的三个角部坐标,
Figure FDA0003213097180000019
为标签数据的CLASS类;通过最小化距离
Figure FDA0003213097180000021
来减少目标区域识取模型的预测误差,则目标区域识取模型的损失函数Loss定义为下式:
Figure FDA0003213097180000022
上式中,Ls交叉熵函数,用于判断图像是否包含纱线目标,p(x)为期望输出,q(x)为实际输出;Lc代表输出坐标点与真实坐标点之间的协方差;
步骤203、将实时图像输入训练好的目标区域识取模型,由目标区域识取模型输出该图像的CLASS类,若通过CLASS类判断当前图像包含纱线目标,则目标区域识取模型还输出4个用于确定矩形框的坐标点,利用该矩形框将图像中带纱线的目标区域框选出来,提取成单独的图片;
步骤3、通过透视处理将步骤2获得的图片恢复成正常矩形图像,对正常矩形图像进行平滑处理,达到突出纱线特征、平滑图像背景的目的;
步骤5、使用改进的sobel算子去除上一步骤获取到图像的背景,同时保留图像中纱线相关特征;
步骤6、利用阈值化对图像进行处理提取出纱线目标,再通过边缘轮廓查找进一步筛选并排除噪声,提取出纱线特征,随后通过添加霍夫变换,提取数值方向上达到要求长度的直线,最终得到n根纱线;
步骤7、基于上一步骤提取出的纱线特征,计算每根纱线的长度从而判断是否发生断纱现象,并在输出图像中将发生断纱现象的纱线标记出来,以达到可视化目的。
2.如权利要求1所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤1中,所述图片为黑白图像。
3.如权利要求1所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤201中,卷积层COV.1及卷积层COV.2采用下式:
Figure FDA0003213097180000023
上式中:Zij是经过卷积运算后得到的特征图,(i,j)表示特征图中的高度和宽度,
Figure FDA0003213097180000024
H和W分表示输入卷积层COV.1或卷积层COV.2的图像数据的高度和宽度,F表示卷积核的高度和宽度大小;ρ表示非线性激活函数;wrc表示卷积核位于(r,c)位置处的权重;x(r+i×t)(c+j×t)表示输入卷积层COV.1或卷积层COV.2的图像数据,t表示卷积核运动的步长;b表示偏差。
4.如权利要求3所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤201中,所述Inverted Residual Block层通过使用1×1的普通卷积先进行升维操作,然后利用3×3的深度可分离卷积进行特征提取,再利用1×1的普通卷积降维,最终将输入和输出直接相接;
3×3的深度可分离卷积采用下式:
Figure FDA0003213097180000031
上式中:Mijn为第n个通道的特征图;wrcn为位于卷积核中第n个通道的(r,c)位置处的权重;x(r+i×t)(c+j×t)n表示输入深度可分离卷积层第n个通道的图像数据;Mij′表示输出的N个通道的特征图像;wn′表示第n个通道的特征图的权重;Mout表示输入数据与卷积后的数据之和;xrcn代表该时刻输入第n个通道的图像数据。
5.如权利要求4所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤201中,全连接层执行下式:
Figure FDA0003213097180000032
式中,
Figure FDA0003213097180000033
表示第n个通道的全连接层第k个输出的权重;bk表示全连接层第k个输出的偏差;hn表示第n个通道自适应平均池化层输入的参数。
6.如权利要求1所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤2021中,用P(X)来表示当前图像包含纱线目标的置信度,如下式所示:
Figure FDA0003213097180000034
式中,P(X)为概率,是由CLASS类输出加以激活函数softmax进行激活得到[0,1]之间的数值,ux表示预先设定的阈值,超过该阈值ux则认为当前图像可靠,并利用矩形框进行纱线目标框选,否则不进行纱线目标框选。
7.如权利要求1所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤5中,使用面向纱线特征强化的sobel算子如下式所示:
Gij=sobel×Hij
上式中:
Gij为经过面向纱线特征强化的sobel算子处理后的图像中(i,j)位置处的像素点;
Hij为未经过面向纱线特征强化的sobel算子处理的图像中(i,j)位置处的像素点;
sobel为矩阵算子,矩阵算子sobel采用如下式所示的改进的面向纱线特征强化的sobel算子矩阵:
sobel=2f(x,y+i)+f(x-1,y+i)+f(x+1,y+i)-2f(x+2,y+i)-2f(x+2,y-i)
式中,f(x,y)表示输入图像数据,i∈[-1,0,1]。
8.如权利要求1所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤6中,利用下式对图像进行阈值化处理:
Figure FDA0003213097180000041
上式中,Pij为经过阈值化处理的位于(i,j)位置处的图像像素点的值,Pij′为阈值化处理前的位于(i,j)位置处的图像像素点的值,u为阈值参数。
9.如权利要求8所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,其特征在于,步骤6中,基于下式进行前述的边缘轮廓查找:
Figure FDA0003213097180000042
上式中,I(x)为阈值分割后各部分图像内容,LI(x)为图像框选的长度,α为额定阈值大小。
10.如权利要求1所述的基于机器视觉巡游式环锭纺断纱检测方法,其特征在于,步骤7中,判断是否发生断纱现象包括以下步骤:
步骤701、计算每根纱线的格拉布斯检验统计量,如下式所示:
Gi=(di-u)/s
式中:Gi为第i根纱线的格拉布斯检验统计量;di为第i根纱线的实时纱线长度;u为样本平均值,
Figure FDA0003213097180000051
s为样本标准差,
Figure FDA0003213097180000052
步骤702、根据每根实时纱线长度,确定检出水平α,查表得出对应的格拉布斯检验临界值α(n);当Gi>α(n),则判断di为异常值,第i根纱线为断纱,否则无异常值,纱线正常。
CN202110936624.4A 2021-08-16 2021-08-16 一种基于机器视觉巡游式环锭纺断纱检测方法 Active CN113658131B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110936624.4A CN113658131B (zh) 2021-08-16 2021-08-16 一种基于机器视觉巡游式环锭纺断纱检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110936624.4A CN113658131B (zh) 2021-08-16 2021-08-16 一种基于机器视觉巡游式环锭纺断纱检测方法

Publications (2)

Publication Number Publication Date
CN113658131A true CN113658131A (zh) 2021-11-16
CN113658131B CN113658131B (zh) 2024-06-18

Family

ID=78479239

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110936624.4A Active CN113658131B (zh) 2021-08-16 2021-08-16 一种基于机器视觉巡游式环锭纺断纱检测方法

Country Status (1)

Country Link
CN (1) CN113658131B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114581404A (zh) * 2022-03-03 2022-06-03 常州市宏发纵横新材料科技股份有限公司 一种用于交织捆绑纱的断丝检测方法
CN114596269A (zh) * 2022-03-01 2022-06-07 常州市新创智能科技有限公司 一种玻纤布面经纱少丝缠丝的检测方法及装置
CN114998268A (zh) * 2022-06-07 2022-09-02 常州市新创智能科技有限公司 一种花边捆绑纱并丝断丝的检测方法及装置
CN115690037A (zh) * 2022-10-28 2023-02-03 富尔美技术纺织(苏州)有限公司 环锭纺细纱机纱线断头检测方法、装置、系统及存储介质
CN116815365A (zh) * 2023-08-28 2023-09-29 江苏恒力化纤股份有限公司 一种环锭纺细纱机断纱自动检测方法
CN117670843A (zh) * 2023-12-07 2024-03-08 常州市宏发纵横新材料科技股份有限公司 一种彩色纱线断纱检测方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法
CN108315852A (zh) * 2018-02-12 2018-07-24 首都师范大学 纺纱机穿线方法及装置
CN110717903A (zh) * 2019-09-30 2020-01-21 天津大学 一种利用计算机视觉技术进行农作物病害检测的方法
CN111235709A (zh) * 2020-03-18 2020-06-05 东华大学 一种基于机器视觉的环锭纺细纱条干在线检测系统
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111738413A (zh) * 2020-06-04 2020-10-02 东华大学 基于特征自匹配迁移学习的纺纱全流程能耗监测方法
CN112150423A (zh) * 2020-09-16 2020-12-29 江南大学 一种经纬稀疏网孔缺陷识别方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法
CN108315852A (zh) * 2018-02-12 2018-07-24 首都师范大学 纺纱机穿线方法及装置
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110717903A (zh) * 2019-09-30 2020-01-21 天津大学 一种利用计算机视觉技术进行农作物病害检测的方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111235709A (zh) * 2020-03-18 2020-06-05 东华大学 一种基于机器视觉的环锭纺细纱条干在线检测系统
CN111738413A (zh) * 2020-06-04 2020-10-02 东华大学 基于特征自匹配迁移学习的纺纱全流程能耗监测方法
CN112150423A (zh) * 2020-09-16 2020-12-29 江南大学 一种经纬稀疏网孔缺陷识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
吴旭东;吕汉明;: "基于深度学习的细纱断头检测模型", 天津纺织科技, no. 02 *
吴易洲;苗瑞;朱健华;张洁;: "基于三维激光扫描的窄搭接焊特征提取与缺陷识别", 应用激光, no. 05 *
常海涛;苟军年;李晓梅: "Faster R-CNN在工业CT图像缺陷检测中的应用", 中国图象图形学报, no. 007 *
牟新刚;蔡逸超;周晓;陈国良;: "基于机器视觉的筒子纱缺陷在线检测系统", 纺织学报, no. 01 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114596269A (zh) * 2022-03-01 2022-06-07 常州市新创智能科技有限公司 一种玻纤布面经纱少丝缠丝的检测方法及装置
CN114596269B (zh) * 2022-03-01 2022-07-29 常州市新创智能科技有限公司 一种玻纤布面经纱少丝缠丝的检测方法及装置
CN114581404A (zh) * 2022-03-03 2022-06-03 常州市宏发纵横新材料科技股份有限公司 一种用于交织捆绑纱的断丝检测方法
CN114998268A (zh) * 2022-06-07 2022-09-02 常州市新创智能科技有限公司 一种花边捆绑纱并丝断丝的检测方法及装置
CN114998268B (zh) * 2022-06-07 2022-11-25 常州市新创智能科技有限公司 一种花边捆绑纱并丝断丝的检测方法及装置
CN115690037A (zh) * 2022-10-28 2023-02-03 富尔美技术纺织(苏州)有限公司 环锭纺细纱机纱线断头检测方法、装置、系统及存储介质
CN116815365A (zh) * 2023-08-28 2023-09-29 江苏恒力化纤股份有限公司 一种环锭纺细纱机断纱自动检测方法
CN116815365B (zh) * 2023-08-28 2023-11-24 江苏恒力化纤股份有限公司 一种环锭纺细纱机断纱自动检测方法
CN117670843A (zh) * 2023-12-07 2024-03-08 常州市宏发纵横新材料科技股份有限公司 一种彩色纱线断纱检测方法、装置、设备及存储介质
CN117670843B (zh) * 2023-12-07 2024-05-24 常州市宏发纵横新材料科技股份有限公司 一种彩色纱线断纱检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113658131B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
CN113658131B (zh) 一种基于机器视觉巡游式环锭纺断纱检测方法
WO2022099598A1 (zh) 一种基于图像像素相对统计特征的视频动态目标检测的方法
CN115063421B (zh) 极片区域检测方法及系统及装置及介质及缺陷检测方法
CN113449606B (zh) 一种目标对象识别方法、装置、计算机设备及存储介质
CN112734690A (zh) 一种表面缺陷检测方法、装置及计算机可读存储介质
CN113177924A (zh) 一种工业流水线产品瑕疵检测方法
CN112907519A (zh) 一种基于深度学习的金属曲面缺陷分析系统及方法
CN111861990B (zh) 一种产品不良外观检测的方法、系统及存储介质
CN114119591A (zh) 一种显示屏画面质量检测方法
CN107480678A (zh) 一种棋盘识别方法和识别系统
CN113298809A (zh) 基于深度学习和超像素分割的复材超声图像缺陷检测方法
CN107958253A (zh) 一种图像识别的方法和装置
CN115266732B (zh) 基于机器视觉的碳纤维丝束缺陷检测方法
CN109544513A (zh) 一种钢管端面缺陷提取识别的方法
CN118014933A (zh) 一种基于图像检测的缺陷检测识别方法和装置
CN111753572A (zh) 一种基于深度学习的复杂背景低质量二维条码检测方法
CN117115171B (zh) 一种应用于地铁lcd显示屏的轻微亮点缺陷检测方法
CN113192061A (zh) Led封装外观检测图像的提取方法、装置、电子设备和存储介质
CN111192261A (zh) 一种镜片疵病类型识别的方法
CN116433978A (zh) 一种高质量瑕疵图像自动生成与自动标注方法及装置
CN116152191A (zh) 基于深度学习的显示屏裂纹缺陷检测方法、装置及设备
CN114550069B (zh) 一种基于深度学习的仔猪乳头计数方法
CN115482207A (zh) 一种螺栓松动检测方法及系统
CN115908301A (zh) 一种基于增强输入的缺陷检测方法、装置及存储介质
CN110827272B (zh) 一种基于图像处理的轮胎x光图像缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant