CN115240144B - 一种纺纱捻线智能识别瑕疵方法及系统 - Google Patents
一种纺纱捻线智能识别瑕疵方法及系统 Download PDFInfo
- Publication number
- CN115240144B CN115240144B CN202211146781.6A CN202211146781A CN115240144B CN 115240144 B CN115240144 B CN 115240144B CN 202211146781 A CN202211146781 A CN 202211146781A CN 115240144 B CN115240144 B CN 115240144B
- Authority
- CN
- China
- Prior art keywords
- yarn
- image
- layer
- detected
- air splicer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Treatment Of Fiber Materials (AREA)
Abstract
本发明涉及纺织行业中智能识别空气捻接器捻接的纺线瑕疵领域,尤其是一种纺纱捻线智能识别瑕疵方法及系统。本发明提供的方法,包括如下步骤:获取空气捻接器在正常工作时的捻线画面;根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像;利用卷积神经网络构建CNN‑SVN模型;通过所述CNN‑SVN模型识别所述待测纱线图像的瑕疵存在状况;根据所述瑕疵存在状况处置待测纱线。本发明利用卷积神经网络在纺织流水作业上对空气捻接器的纺线瑕疵进行实时识别与监控,从而代替人工检测,不仅具有较高的准确度,同时也提升了检测的效率,极大减少了人力用工成本,保证了空气捻接器捻线的质量。
Description
技术领域
本发明涉及纺织行业中智能识别空气捻接器捻接的纺线瑕疵领域,尤其是一种纺纱捻线智能识别瑕疵方法及系统。
背景技术
随着智能化、现代化、科技化的理念不断提升,纺织行业机械现代化的改装进程也在不断推进。目前,针对现有技术中空气捻接器捻接的纺线瑕疵识别,主要还是以人工肉眼检测为主,对于一个普通工人来说一般注意力在半个小时左右,人工检测的效率低,准确度也不高。同时,由空气捻接器捻接的纱线接头的质量好坏对后续工序的影响是极大的,因此识别空气捻接器纱线捻接时由于纱尾过长而与相邻纱线缠绕而导致的飞梭或跳花、纱尾过短而一松开导致的脱结以及结头粗大等瑕疵是必不可少地纺织作业。同时在所以本发明采用计算机视觉系统自动对无纺布的表面瑕疵进行识别,能够快速准确的识别出无纺布中的瑕疵部位。卷积神经网络作为当前智能算法的核心算法之一,多应用于图像识别领域,并在学习数据充足时,在对图像进行高效识别、学习、分类具有稳定的表现,但是使用卷积神经网络学习分类纺线瑕疵,并对纺线瑕疵进行实时识别,进而代替人工检测纺线瑕疵,尚未见有解决方案。
发明内容
针对现有技术中的缺陷和不足,第一方面,本发明提供了一种纺纱捻线智能识别瑕疵方法,包括如下步骤:获取空气捻接器在正常工作时的捻线画面,所述捻线画面中所述空气捻接器与待测纱线可区分;根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像;利用卷积神经网络构建CNN-SVN模型;通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况,所述瑕疵存在状况包括所述待测纱线存在瑕疵和所述待测纱线不存在瑕疵;根据所述瑕疵存在状况处置待测纱线。本发明利用卷积神经网络在纺织流水作业上对空气捻接器的纺线瑕疵进行实时识别与监控,从而代替人工检测,不仅具有较高的准确度,同时也提升了检测的效率,极大减少了人力用工成本,保证了空气捻接器捻线的质量。
可选地,所述获取空气捻接器在正常工作时的捻线画面,包括如下步骤:提供照明光源;调试照明光源对空气捻接器的照射角度和亮度;拍摄空气捻接器在正常工作时的捻线画面。本发明通过照明光源与空气捻接器的配合应尽可能地突出待测纱线的特征,在待测纱线需要检测的部分与不重要部分之间应尽可能地产生了明显的区别,增加对比度的同时也应保证足够的整体亮度。
可选地,所述根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像,
包括如下步骤:通过所述捻线画面识别所述空气捻接器的捻接动作,所述捻接动作表示在
所述空气捻接器上放置待捻接的两条纱线;将所述捻接动作完成时刻标记为预备捕捉时刻;根据所述空气捻接器的捻接时间设定待定时差;从时刻开始以一固定频率
捕捉多帧纱线图像;将每帧纱线图像二通道去色处理获得黑白纱线图像;提取所述黑白纱
线图像中的最小灰度值和最大灰度值;将符合的黑白纱线
图像作为待测纱线图像。
可选地,利用卷积神经网络构建CNN-SVN模型,包括如下步骤:收集瑕疵纺纱图片生成训练集;收集无瑕疵纺纱图片生成验证集;利用训练集和验证集搭建CNN模型;将所述CNN模型中全连接层替换为支撑向量机构建CNN-SVN模型。本发明通过将CNN模型中的全连接层替换为支撑向量机进行数据分类,使得高维空间映射时没有增加计算的复杂度,并使得改进CNN模型后获得的CNN-SVN模型具有更加优越的分类性能。
可选地,所述利用训练集和验证集搭建CNN模型,包括如下步骤:利用训练集和验证集搭建输入层;在所述输入层的基础上,采用3*3的卷积核搭建第一卷积层,并在所述第一卷积层内设置第一归一化层,所述第一卷积层的激活函数为Relu函数;在所述第一卷积层的基础上搭建平均池化层,所述平均池化层的池化核为2*2;在所述平均池化层的基础上,采用3*3的卷积核搭建第二卷积层,并在所述第二卷积层内设置第二归一化层,所述第二卷积层的激活函数为Relu函数;在所述第二卷积层的基础上搭建最大池化层,所述最大池化层的池化核为2*2;在所述最大池化层的基础上,采用3*3的卷积核搭建第三卷积层,并在所述第三卷积层内设置第三归一化层,所述第三卷积层的激活函数为Relu函数;在所述第三卷积层的基础上搭建全连接层;利用PCA算法对所述全连接层提取的图像特征降维处理;通过降维处理后的全连接层上搭建输出层,获得所述CNN模型。本发明的CNN模型中卷积层采用3*3的卷积核,提升卷积层了对图片的特征提取的能力;引入归一化层减小了内部数据分布偏移的影响,在提高网络的训练速度的基础上,还可以提高网络的泛化性能;将Relu函数作为激活函数消除了传统CNN模型中Sigmod函数作为激活函数导致的梯度饱和;引入PCA算法对全连接层提取的图像进行降维处理,提升了CNN模型的识别效率和识别能力。
可选地,所述第一归一化层、所述第二归一化层和所述第三归一化层均包括归一化函数,所述归一化函数满足如下公式:
可选地,所述CNN-SVN模型的最优化超平面分类决策函数满足如下公式:
可选地,所述通过所述CNN-SVN模型识别所述待测纱线的瑕疵存在状况,包括如下步骤:获取空气捻接器的背景图像,所述背景图像中空气捻接器内没有纱线;将所述背景图像二通道去色处理后获得黑白背景图像;对所述待测纱线图像中值滤波;利于所述黑白背景图像,对中值滤波后的待测纱线图像阈值处理;将阈值处理后的待测纱线图像进行开运算后获得捻接纱线图像;根据待测纱线的面积特征、宽度特征和长度特征,从所述捻接纱线图像中切割出捻接处的待测纱线图像;将捻接处的待测纱线图像导入所述CNN-SVN模型中识别所述待测纱线图像的瑕疵存在状况。
可选地,所述根据所述瑕疵存在状况处置所述待测纱线,包括如下步骤:根据所述瑕疵存在状况生成合格信号或者不合格信号;生成合格信号时,将所述待测纱线投入后续使用;生成不合格信号时,将所述待测纱线切断,并重新捻接。
另一方面,本发明还提供了一种纺纱捻线智能识别瑕疵系统,所述纺纱捻线智能识别瑕疵系统适用于第一方面项所述的纺纱捻线智能识别瑕疵方法,包括:捻线监视模块,所述捻线监视模块用于获取空气捻接器在正常工作时的捻线画面;纱线捕捉模块,所述纱线捕捉模块用于根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像;瑕疵识别模块,所述瑕疵识别模块用于利用卷积神经网络构建CNN-SVN模型,并通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况;瑕疵处理模块,所述瑕疵处理模块用于根据所述瑕疵存在状况处置所述待测纱线。本发明提供多个模块实施了所述的纺纱捻线智能识别瑕疵方法,即通过多个模块交互工作实现了对空气捻接器在正常工作时纺纱捻线的智能识别,稳定性强,延时短,效率高。
附图说明
图1为本发明的纺纱捻线智能识别瑕疵方法流程图;
图2为本发明涉及的空气捻接器捻接纱线过程第一示意图;
图3为本发明涉及的空气捻接器捻接纱线过程第二示意图;
图4为本发明涉及的空气捻接器捻接纱线过程第三示意图;
图5为本发明的无瑕疵和有瑕疵的纱线实物图;
图6为本发明的纺纱捻线智能识别瑕疵系统模块示意图。
具体实施方式
下面将详细描述本发明的具体实施例,应当注意,这里描述的实施例只用于举例说明,并不用于限制本发明。在以下描述中,为了提供对本发明的透彻理解,阐述了大量特定细节。然而,对于本领域普通技术人员显而易见的是:不必采用这些特定细节来实行本发明。在其他实例中,为了避免混淆本发明,未具体描述公知的电路,软件或方法。
在整个说明书中,对“一个实施例”、“实施例”、“一个示例”或“示例”的提及意味着:结合该实施例或示例描述的特定特征、结构或特性被包含在本发明至少一个实施例中。因此,在整个说明书的各个地方出现的短语“在一个实施例中”、“在实施例中”、“一个示例”或“示例”不一定都指同一实施例或示例。此外,可以以任何适当的组合和、或子组合将特定的特征、结构或特性组合在一个或多个实施例或示例中。此外,本领域普通技术人员应当理解,在此提供的示图都是为了说明的目的,并且示图不一定是按比例绘制的。
请参见图1,在一个实施例中,本发明提供了一种纺纱捻线智能识别瑕疵方法,包括如下步骤:
S1、获取空气捻接器在正常工作时的捻线画面。
在一个可选的实施例中,所述获取空气捻接器在正常工作时的捻线画面,包括如下步骤:提供照明光源;调试照明光源对空气捻接器的照射角度和亮度;拍摄空气捻接器在正常工作时的捻线画面,所述捻线画面中所述空气捻接器与所述待测纱线可区分。本发明通过照明光源与空气捻接器的配合应尽可能地突出待测纱线的特征,在待测纱线需要检测的部分与不重要部分之间应尽可能地产生了明显的区别,增加对比度的同时也应保证足够的整体亮度。
详细地,利用高清摄像头对准空气捻接器拍摄,从而获取空气捻接器在正常工作时的捻线画面,且该捻线画面中所述空气捻接器与待测纱线可区分;照明光源选择为LED可调光源,LED可调光易获取,成本低;调试照明光源对空气捻接器的照射角度和亮度主要目的是使得捻线画面中空气捻接器与利用空气捻接器粘合的纱线具有较强的区分度,便于后续图像的采集和分析。
S2、根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像。
在一个可选的实施例中,所述根据所述捻线画面捕捉通过所述空气捻接器捻接的
待测纱线图像,包括如下步骤:通过所述捻线画面识别所述空气捻接器的捻接动作,所述捻
接动作表示在所述空气捻接器上放置待捻接的两条纱线;将所述捻接动作完成时刻标记为
预备捕捉时刻;根据所述空气捻接器的捻接时间设定待定时差;从时刻开始
以一固定频率捕捉多帧纱线图像;将每帧纱线图像二通道去色处理获得黑白纱线图像;提
取所述黑白纱线图像中的最小灰度值和最大灰度值;将符合的黑白纱线图像作为待测纱线图像。
详细地,烦请参见图2至图4,空气捻接器是将两条纱线捻接成一条纱线的装置,一
般是分别将两条需要捻接的纱线放置在空气捻接器中,再利用空气捻接器进行捻接,图2为
本发明涉及的空气捻接器捻接纱线过程第一示意图,图3为本发明涉及的空气捻接器捻接
纱线过程第二示意图,图2为本发明涉及的空气捻接器捻接纱线过程第三示意图,图2和图4
中长方形表示空气捻接器,具体地,图2展示将一条待捻接的纱线放置在空气捻接器中,图3
展示将另一条待捻接的纱线放置在空气捻接器中,图4展示两条纱线通过空气捻接器捻接
而成的一条无瑕疵纱线。在实际纺织工业中,空气捻接器的每一步操作都具有一定的时序,
故针对不同厂商生产的空气捻接器,其对应的捻接时序不同,因此在设定待定时差时要
根据实际情况设定,即在时刻,空气捻接器的捻线操作结束,可以拍摄捻接获得的
新纱线的图像。同时,所述从时刻开始以一固定频率捕捉多帧纱线图像的步骤中,
图像捕捉时长依旧需要根据接线位置在接线画面中停留是搭建来具体设定,在图像捕捉时
长后确定频率,使得最终捕捉到的待测纱线图像不少于5张。
S3、利用卷积神经网络构建CNN-SVN模型。
在一个可选的实施例中,所述瑕疵存在状况通过所述待测纱线图像利用卷积神经网络构建CNN-SVN模型,并用CNN-SVN模型识别待测纱线的瑕疵存在状况,包括如下步骤:收集瑕疵纺纱图片生成训练集,其中,瑕疵纱线如图5中纱线B所示,该瑕疵纱线相较于无瑕疵纱线在捻接处的结头粗大;收集无瑕疵纺纱图片生成验证集,其中,无瑕疵纱线如图5中纱线A所示;利用训练集和验证集搭建CNN模型(CNN,Convolutional Neural Networks,卷积神经网络);将所述CNN模型中全连接层替换为支撑向量机构建CNN-SVN模型(SVM,SupportVector Machine,支持向量机);对所述待测纱线图像进行预处理,从而过滤背景噪声;将预处理后的待测纱线图像导入所述CNN-SVN模型中识别待测纱线的瑕疵存在状况。本发明通过将CNN模型中的全连接层替换为支撑向量机进行数据分类,使得高维空间映射时没有增加计算的复杂度,并使得改进CNN模型后获得的CNN-SVN模型具有更加优越的分类性能。
详细地,在本实施例中,所述CNN-SVN模型中包含有的最优化超平面分类决策函数满足如下公式:
在一个可选地实施例中,步骤S3中所述利用训练集和验证集搭建CNN模型,包括如下步骤:利用训练集和验证集搭建输入层;在所述输入层的基础上,采用3*3的卷积核搭建第一卷积层,并在所述第一卷积层内设置第一归一化层,所述第一卷积层的激活函数为Relu函数;在所述第一卷积层的基础上搭建平均池化层,所述平均池化层的池化核为2*2;在所述平均池化层的基础上,采用3*3的卷积核搭建第二卷积层,并在所述第二卷积层内设置第二归一化层,所述第二卷积层的激活函数为Relu函数;在所述第二卷积层的基础上搭建最大池化层,所述最大池化层的池化核为2*2;在所述最大池化层的基础上,采用3*3的卷积核搭建第三卷积层,并在所述第三卷积层内设置第三归一化层,所述第三卷积层的激活函数为Relu函数;在所述第三卷积层的基础上搭建全连接层;利用PCA(PrincipleCompoent Analysis,主元成分分析)算法对所述全连接层提取的图像特征降维处理;通过降维处理后的全连接层上搭建输出层,获得所述CNN模型。本发明的CNN模型中卷积层采用3*3的卷积核,提升卷积层了对图片的特征提取的能力;引入归一化层减小了内部数据分布偏移的影响,在提高网络的训练速度的基础上,还可以提高网络的泛化性能;将Relu函数作为激活函数消除了传统CNN模型中Sigmod函数作为激活函数导致的梯度饱和;引入PCA算法对全连接层提取的图像进行降维处理,提升了CNN模型的识别效率和识别能力。
在一个可选的实施例中,所述第一归一化层、所述第二归一化层和所述第三归一化层均包括归一化函数,所述归一化函数满足如下公式:
S4、通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况。
在一个可选的实施例中,步骤S4中通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况,包括如下步骤:获取空气捻接器的背景图像,所述背景图像中空气捻接器内没有纱线;将所述背景图像二通道去色处理后获得黑白背景图像;对所述待测纱线图像中值滤波;利于所述黑白背景图像,对中值滤波后的待测纱线图像阈值处理;将阈值处理后的待测纱线图像进行开运算后获得捻接纱线图像;根据待测纱线的面积特征、宽度特征和长度特征,从所述捻接纱线图像中切割出捻接处的待测纱线图像;将捻接处的待测纱线图像导入所述CNN-SVN模型中识别所述待测纱线图像的瑕疵存在状况,所述瑕疵存在状况包括所述待测纱线存在瑕疵和所述待测纱线不存在瑕疵。
在本实施例中,对待测纱线图像进行中值滤波,可过滤掉相应的噪声,增加图像清晰度;对中值滤波后的待测纱线图像,结合所述黑白背景图像进行阈值处理,可利用纱线与背景的灰度差将纱线图像凸显出来;开运算是在计算机视觉和图像处理领域中是基本的形态学噪点消除模块的处理手法,为现有技术,故不详细阐述,通过开运算将待测纱线图像中无关干扰信息去除;再根据凸显出来的纱线图像的面积特征、宽度特征和长度特征,可将述捻接纱线图像中切割出待测纱线捻接处的待测纱线图像切割出来进行处理,缩小了目标范围,极大地减小了CNN-SVM模型训练负担,增强了该CNN-SVM模型的运行效率。
S5、根据所述瑕疵存在状况处置所述待测纱线。
在一个可选地实施例中,所述根据所述瑕疵存在状况处置所述待测纱线,包括如下步骤:根据所述瑕疵存在状况生成合格信号或者不合格信号;生成合格信号时,将所述待测纱线投入后续使用;生成不合格信号时,将所述待测纱线切断,并重新捻接。
在本实施例中,针对实际情况,通过衡量用工时长、耗材成本等因素,发现当有瑕疵直接切断重新捻接的成本最低,因此,将步骤S4中所述根据所述瑕疵存在状况生成合格信号或者不合格信号,具体设置当CNN-SVM判断该待测纱线有瑕疵时,生成不合格信号,将所述待测纱线切断,并重新捻接,并发出警报提示;当CNN-SVM判断该待测纱线没有瑕疵时,生成合格信号,将所述待测纱线投入后续使用。
本发明利用卷积神经网络算法在纺织流水作业上对空气捻接器的纺线瑕疵进行实时识别与监控,从而代替人工检测,不仅具有较高的准确度,同时也提升了检测的效率,极大减少了人力用工成本,保证了空气捻接器捻线的质量。
请参见图6,在一个实施例中,本发明还提供了一种纺纱捻线智能识别瑕疵系统,所述纺纱捻线智能识别瑕疵系统适用于第一方面项所述的纺纱捻线智能识别瑕疵方法,包括:捻线监视模块,所述捻线监视模块用于获取空气捻接器在正常工作时的捻线画面;纱线捕捉模块,所述纱线捕捉模块用于根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像;瑕疵识别模块,所述瑕疵识别模块用于利用卷积神经网络构建CNN-SVN模型,并通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况;瑕疵处理模块,所述瑕疵处理模块用于根据所述瑕疵存在状况处置所述待测纱线。
在一个可选地实施例中,捻线监视模块包括高清摄像头,高清摄像头可拍摄空气捻接器在正常工作时的高清的捻线画面,有助于后续图像捕捉和处理。
在一个可选地实施例中,瑕疵处理模块包括电子清纱器,电子清纱器用于识别不合格信号,并将不合格信号对应的具有瑕疵的待测纱线切断,重新进行捻接。
本发明提供多个模块实施了所述的纺纱捻线智能识别瑕疵方法,即通过多个模块交互工作实现了对空气捻接器在正常工作时纺纱捻线的智能识别,稳定性强,延时短,效率高。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (5)
1.一种纺纱捻线智能识别瑕疵方法,其特征在于,包括如下步骤:
获取空气捻接器在正常工作时的捻线画面,所述捻线画面中所述空气捻接器与待测纱线可区分;
根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像,所述根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像,包括如下步骤:
通过所述捻线画面识别所述空气捻接器的捻接动作,所述捻接动作表示在所述空气捻接器上放置待捻接的两条纱线;
将每帧纱线图像二通道去色处理获得黑白纱线图像;
利用卷积神经网络构建CNN-SVN模型,包括如下步骤:
收集瑕疵纺纱图片生成训练集;
收集无瑕疵纺纱图片生成验证集;
利用训练集和验证集搭建CNN模型,包括如下步骤:
利用训练集和验证集搭建输入层;
在所述输入层的基础上,采用3*3的卷积核搭建第一卷积层,并在所述第一卷积层内设置第一归一化层,所述第一卷积层的激活函数为Relu函数;
在所述第一卷积层的基础上搭建平均池化层,所述平均池化层的池化核为2*2;
在所述平均池化层的基础上,采用3*3的卷积核搭建第二卷积层,并在所述第二卷积层内设置第二归一化层,所述第二卷积层的激活函数为Relu函数;
在所述第二卷积层的基础上搭建最大池化层,所述最大池化层的池化核为2*2;
在所述最大池化层的基础上,采用3*3的卷积核搭建第三卷积层,并在所述第三卷积层内设置第三归一化层,所述第三卷积层的激活函数为Relu函数,其中,所述第二归一化层和所述第三归一化层均包括归一化函数,所述归一化函数满足如下公式:
在所述第三卷积层的基础上搭建全连接层;
利用PCA算法对所述全连接层提取的图像特征降维处理;
通过降维处理后的全连接层上搭建输出层,获得所述CNN模型;
将所述CNN模型中全连接层替换为支撑向量机构建CNN-SVN模型,所述CNN-SVN模型的最优化超平面分类决策函数满足如下公式:
利用卷积神经网络构建CNN-SVN模型;
通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况,所述瑕疵存在状况包括所述待测纱线存在瑕疵和所述待测纱线不存在瑕疵;
根据所述瑕疵存在状况处置待测纱线。
2.根据权利要求1所述的纺纱捻线智能识别瑕疵方法,其特征在于,所述获取空气捻接器在正常工作时的捻线画面,包括如下步骤:
提供照明光源;
调试照明光源对空气捻接器的照射角度和亮度;
拍摄空气捻接器在正常工作时的捻线画面。
3.根据权利要求1所述的纺纱捻线智能识别瑕疵方法,其特征在于,所述通过所述CNN-SVN模型识别所述待测纱线的瑕疵存在状况,包括如下步骤:
获取空气捻接器的背景图像,所述背景图像中空气捻接器内没有纱线;
将所述背景图像二通道去色处理后获得黑白背景图像;
对所述待测纱线图像中值滤波;
利于所述黑白背景图像,对中值滤波后的待测纱线图像阈值处理;
将阈值处理后的待测纱线图像进行开运算后获得捻接纱线图像;
根据待测纱线的面积特征、宽度特征和长度特征,从所述捻接纱线图像中切割出捻接处的待测纱线图像;
将捻接处的待测纱线图像导入所述CNN-SVN模型中识别所述待测纱线图像的瑕疵存在状况。
4.根据权利要求1所述的纺纱捻线智能识别瑕疵方法,其特征在于,所述根据所述瑕疵存在状况处置待测纱线,包括如下步骤:
根据所述瑕疵存在状况生成合格信号或者不合格信号;
生成合格信号时,将所述待测纱线投入后续使用;
生成不合格信号时,将所述待测纱线切断,并重新捻接。
5.一种纺纱捻线智能识别瑕疵系统,所述纺纱捻线智能识别瑕疵系统适用于权利要求1-4任意一项所述的纺纱捻线智能识别瑕疵方法,其特征在于,包括:
捻线监视模块,所述捻线监视模块用于获取空气捻接器在正常工作时的捻线画面;
纱线捕捉模块,所述纱线捕捉模块用于根据所述捻线画面捕捉通过所述空气捻接器捻接的待测纱线图像;
瑕疵识别模块,所述瑕疵识别模块用于利用卷积神经网络构建CNN-SVN模型,并通过所述CNN-SVN模型识别所述待测纱线图像的瑕疵存在状况;
瑕疵处理模块,所述瑕疵处理模块用于根据所述瑕疵存在状况处置所述待测纱线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211146781.6A CN115240144B (zh) | 2022-09-21 | 2022-09-21 | 一种纺纱捻线智能识别瑕疵方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211146781.6A CN115240144B (zh) | 2022-09-21 | 2022-09-21 | 一种纺纱捻线智能识别瑕疵方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115240144A CN115240144A (zh) | 2022-10-25 |
CN115240144B true CN115240144B (zh) | 2022-12-27 |
Family
ID=83680441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211146781.6A Active CN115240144B (zh) | 2022-09-21 | 2022-09-21 | 一种纺纱捻线智能识别瑕疵方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115240144B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1148332A2 (en) * | 2000-04-18 | 2001-10-24 | The University of Hong Kong | Method of and device for inspecting images to detect defects |
CN112465810A (zh) * | 2020-12-15 | 2021-03-09 | 华南农业大学 | 一种纺织品疵点的检测分类方法 |
CN112541458A (zh) * | 2020-12-21 | 2021-03-23 | 中国科学院自动化研究所 | 基于元学习的域自适应的人脸识别方法、系统、装置 |
CN113869379A (zh) * | 2021-09-15 | 2021-12-31 | 南京航空航天大学 | 一种基于数据驱动的航空器能量异常识别方法 |
CN115035024A (zh) * | 2022-04-24 | 2022-09-09 | 海门市元绒纺织科技有限公司 | 基于图像处理的纱线并捻质量评估方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115018826B (zh) * | 2022-08-02 | 2022-12-13 | 南通市爱诺家用纺织品有限公司 | 一种基于图像识别的织物瑕疵检测方法及系统 |
-
2022
- 2022-09-21 CN CN202211146781.6A patent/CN115240144B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1148332A2 (en) * | 2000-04-18 | 2001-10-24 | The University of Hong Kong | Method of and device for inspecting images to detect defects |
CN112465810A (zh) * | 2020-12-15 | 2021-03-09 | 华南农业大学 | 一种纺织品疵点的检测分类方法 |
CN112541458A (zh) * | 2020-12-21 | 2021-03-23 | 中国科学院自动化研究所 | 基于元学习的域自适应的人脸识别方法、系统、装置 |
CN113869379A (zh) * | 2021-09-15 | 2021-12-31 | 南京航空航天大学 | 一种基于数据驱动的航空器能量异常识别方法 |
CN115035024A (zh) * | 2022-04-24 | 2022-09-09 | 海门市元绒纺织科技有限公司 | 基于图像处理的纱线并捻质量评估方法 |
Non-Patent Citations (2)
Title |
---|
A computer vision based online quality control system for textile yarns;Noman Haleem et al.;《Computers in Industry》;20211014;1-6 * |
基于融合传感的纱线瑕疵检测系统的研究;程银宗;《知网》;20220215;1-80 * |
Also Published As
Publication number | Publication date |
---|---|
CN115240144A (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109454006B (zh) | 基于化纤丝锭绊丝缺陷在线检测和分级的装置的检测分级方法 | |
CN109613002B (zh) | 一种玻璃缺陷检测方法、装置和存储介质 | |
CN107886500A (zh) | 一种基于机器视觉和机器学习的产品生产监控方法及系统 | |
CN115184359A (zh) | 一种自动调参的表面缺陷检测系统与方法 | |
CN115063424B (zh) | 基于计算机视觉的纺织纱管纱线检测方法 | |
CN104809725A (zh) | 一种布匹缺陷视觉识别检测装置和方法 | |
CN104048966B (zh) | 一种基于大律法的布面疵点检测及分类方法 | |
CN110378887A (zh) | 屏幕缺陷检测方法、装置及系统、计算机设备及介质 | |
CN113506255A (zh) | 一种基于高精度数字图像的服装缝线疵点自动检测方法 | |
CN116228651A (zh) | 一种布匹缺陷检测方法、系统、设备及介质 | |
KR102470422B1 (ko) | 합성곱 신경망 특징맵 기반 봉제 스티치 불량 자동 검출 방법 및 시스템 | |
CN114923912A (zh) | 一种基于机器视觉的锦纶丝饼外表面缺陷检测方法 | |
CN216525503U (zh) | 一种基于机器视觉的碳纤维预浸料表面缺陷在线检测装置 | |
CN115240144B (zh) | 一种纺纱捻线智能识别瑕疵方法及系统 | |
CN110618129A (zh) | 一种电网线夹自动检测与缺陷识别方法及装置 | |
CN116563276B (zh) | 一种化纤长丝在线缺陷检测方法及检测系统 | |
JPWO2014054528A1 (ja) | 糸条の検査方法、糸条の検査装置、糸条の製造方法、糸条パッケージおよび糸条モジュール | |
TWI417437B (zh) | 紗線檢測方法 | |
CN110813795B (zh) | 一种化纤丝锭纸筒破损在线检测装置及方法 | |
CN112967224A (zh) | 一种基于人工智能的电子电路板检测系统、方法及介质 | |
CN117309759A (zh) | 缺陷检测系统、方法、电子设备和存储介质 | |
Roy et al. | Yarn hairiness evaluation using image processing | |
CN114897788B (zh) | 一种基于引导滤波及离散差分的纱线卷装毛羽检测方法 | |
CN114820453A (zh) | 一种基于深度学习的卷装长丝表面瑕疵检测方法 | |
Pan et al. | The inspection of raw-silk defects using image vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |