CN110197208A - 一种纺织品瑕疵智能检测分类方法及装置 - Google Patents
一种纺织品瑕疵智能检测分类方法及装置 Download PDFInfo
- Publication number
- CN110197208A CN110197208A CN201910398698.XA CN201910398698A CN110197208A CN 110197208 A CN110197208 A CN 110197208A CN 201910398698 A CN201910398698 A CN 201910398698A CN 110197208 A CN110197208 A CN 110197208A
- Authority
- CN
- China
- Prior art keywords
- neural networks
- convolutional neural
- power module
- module
- accuracy rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000004753 textile Substances 0.000 title claims abstract description 25
- 238000005259 measurement Methods 0.000 title claims abstract description 22
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 101
- 230000007547 defect Effects 0.000 claims abstract description 47
- 239000004744 fabric Substances 0.000 claims abstract description 45
- 238000007689 inspection Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000012360 testing method Methods 0.000 claims abstract description 19
- 238000004519 manufacturing process Methods 0.000 claims abstract description 8
- 230000004913 activation Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 230000000644 propagated effect Effects 0.000 claims description 8
- 238000003475 lamination Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 239000010410 layer Substances 0.000 description 29
- 238000010586 diagram Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009901 attention process Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013506 data mapping Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
Abstract
本发明提供了一种纺织品瑕疵智能检测分类方法及装置,其中方法包括:S1采集8种类型的布匹疵点样本图像,并进行预处理制作数据集;S2搭建多标签分类卷积神经网络,并对模型参数初始化;S3采用训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和模型参数操作,获得预设准确率;S4在卷积神经网络中添加注意力模块,包括:通道注意力模块和空间注意力模块;S5利用测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;S6比较准确率结果是否比预设准确率更优,如果不是,则返回执行步骤S2,如果是,则执行步骤S7;S7将添加注意力模块的卷积神经网络作为输出模型导出。
Description
技术领域
本发明涉及机器视觉和深度学习技术领域,尤其涉及一种纺织品瑕疵智能检测分类方法及装置。
背景技术
随着计算机技术飞速发展,布匹疵点检测方法也取得长足的进步,传统较为成熟的方法有:基于时域的方法、基于频域的方法和基于模型的方法等。这些方法往往通过时域提取特征向量或频域提取HOG、SURF特征并结合优化算法对特征进行融合转化进而使用支持向量机(svm)、反馈神经网络或高斯混合模型等方法进行分类。这些方法往往运算速度较快但是准确性不高且易受环境干扰,移植性差。
发明内容
本发明旨在提供一种克服上述问题之一或者至少部分地解决上述任一问题的一种纺织品瑕疵智能检测分类方法及装置。
为达到上述目的,本发明的技术方案具体是这样实现的:
本发明的一个方面提供了一种纺织品瑕疵智能检测分类方法,包括:S1,采集8种类型的布匹疵点样本图像,并进行预处理制作数据集,数据集包括训练集和测试集;S2,搭建多标签分类卷积神经网络,并对模型参数初始化;S3,采用训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和模型参数操作,获得预设准确率;S4,在卷积神经网络中添加注意力模块,其中,注意力模块包括:通道注意力模块和空间注意力模块;S5,利用测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;S6,比较准确率结果是否比预设准确率更优,如果不是,则返回执行步骤S2,如果是,则执行步骤S7;S7,将添加注意力模块的卷积神经网络作为输出模型导出。
其中,8种类型的布匹疵点包括:跳花、稀弄、破洞、起皱、松经、双经、粗纬、断纬。
其中,搭建多标签分类卷积神经网络包括:综合布匹疵点样本图像的特点确定卷积神经网络结构,其中,卷积神经网络结构包括:三层卷积层两个全连接层的,其中,卷积层分别对布匹疵点的特征进行提取和学习,其中,布匹疵点的特征包括:布匹疵点的轮廓、形状和/或尺寸。
其中,搭建多标签分类卷积神经网络,并对模型参数初始化包括:在输入层利用CNN的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像;在卷积层使用大小为5×5卷积核,步长为2;在池化层采用的池化方式为最大值池化,利用激活函数Relu,搭建多标签分类卷积神经网络。
其中,采用训练集对卷积神经网络进行训练包括:进行前向传播训练;进行反向传播训练。
本发明另一方面提供了一种纺织品瑕疵智能检测分类装置,包括:采集模块,用于采集8种类型的布匹疵点样本图像,并进行预处理制作数据集,数据集包括训练集和测试集;搭建模块,用于搭建多标签分类卷积神经网络,并对模型参数初始化;训练模块,用于采用训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和模型参数操作,获得预设准确率;添加模块,用于在卷积神经网络中添加注意力模块,其中,注意力模块包括:通道注意力模块和空间注意力模块;验证模块,用于利用测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;比较模块,用于比较准确率结果是否比预设准确率更优,如果不是,则通知搭建模块执行操作,如果是,则通知输出模块执行操作;输出模块,用于将添加注意力模块的卷积神经网络作为输出模型导出。
其中,8种类型的布匹疵点包括:跳花、稀弄、破洞、起皱、松经、双经、粗纬、断纬。
其中,搭建模块,具体用于综合布匹疵点样本图像的特点确定卷积神经网络结构,其中,卷积神经网络结构包括:三层卷积层两个全连接层的,其中,卷积层分别对布匹疵点的特征进行提取和学习,其中,布匹疵点的特征包括:布匹疵点的轮廓、形状和/或尺寸。
其中,搭建模块,具体用于在输入层利用CNN的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像;在卷积层使用大小为5×5卷积核,步长为2;在池化层采用的池化方式为最大值池化,利用激活函数Relu,搭建多标签分类卷积神经网络。
其中,训练模块,具体用于进行前向传播训练;进行反向传播训练。
由此可见,通过本发明实施例提供的一种纺织品瑕疵智能检测分类方法及装置,根据标准布匹疵点库中类别,选取8种具有代表性的疵点种类,对已有样本进行标准化处理制作数据集,构建并训练卷积神经网络可以最大程度提取疵点特征,同时引入注意力模块,对特征图分支分别在通道和空间两个维度进行通道注意力和空间注意力处理,提升神经网络检测准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的纺织品瑕疵智能检测分类方法的流程图;
图2为本发明实施例提供的卷积神经网络结构示意图;
图3为本发明实施例提供的通道注意力模块示意图;
图4为本发明实施例提供的空间注意力模块示意图;
图5为本发明实施例提供的加注意力模块的卷积神经网络结构示意图;
图6为本发明实施例提供的加注意力模块前后的卷积神经网络运算结果准确率比对示意图;
图7为本发明实施例提供的布匹疵点图片;
图8为本发明实施例提供的对图7所示的布匹疵点图片进行注意力卷积处理后的特征图;
图9为本发明实施例提供的加注意力模块前后的卷积神经网络运算结果准确率比对示意图;
图10为本发明实施例提供的纺织品瑕疵智能检测分类方法的一种具体流程图;
图11为本发明实施例提供的纺织品瑕疵智能检测分类装置的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
近年来人工智能和深度学习的发展,使得基于卷积神经网络的图像处理算法性能达到了很大的提升,为了提高疵点检测效率,采用卷积神经网络的方法提取特征检测布匹疵点是一个重要的研究方向。物体识别的关键在于特征的提取,对物体特征的获得一定程度上决定了对目标的判别。尤其是当目标种类接近,特征相似时分类准确度往往会打一定折扣,本发明引入注意力机制的目的就是对不同种类的目标特征存在共性的部分加以忽略,存在特性的部分加以注意,从而提升准确度。
图1示出了本发明实施例提供的纺织品瑕疵智能检测分类方法的流程图,参见图1,本发明实施例提供的纺织品瑕疵智能检测分类方法,包括:
S1,采集8种类型的布匹疵点样本图像,并进行预处理制作数据集,数据集包括训练集和测试集。
具体地,作为本发明实施例的一个可选实施方式,8种类型的布匹疵点包括:跳花、稀弄、破洞、起皱、松经、双经、粗纬、断纬。将采集到的样本图像通过OPENCV(基于BSD许可(开源)发行的跨平台计算机视觉库)进行滤波、去噪、直方图均衡化等预处理后打上相应的标签制作成标准数据集,将其中一部分作为训练集,另一部分作为测试集。其中,布匹疵点的图像的示意图可以参见图7。
S2,搭建多标签分类卷积神经网络,并对模型参数初始化。
具体地,本发明中构建卷积神经网络模块具备疵点检测能力,构建注意力机制模块,针对性的设置通道注意力和空间注意力模块参数;使卷积神经网络对疵点角点、边缘、形状等特征提取能力提高。
作为本发明实施例的一个可选实施方式,搭建多标签分类卷积神经网络包括:综合布匹疵点样本图像的特点确定卷积神经网络结构,其中,卷积神经网络结构包括:三层卷积层两个全连接层的,其中,卷积层分别对布匹疵点的特征进行提取和学习,其中,布匹疵点的特征包括:布匹疵点的轮廓、形状和/或尺寸。其中,根据上述确定的卷积神经网络结构的设计与性能测试,综合布匹疵点图像的特点决定设计三层卷积层两个全连接层的卷积神经网络结构,其中,卷积层分别对疵点的轮廓,形状,尺寸等特征进行提取和学习;两个全连接层更加有利于分类的准确度提升。
作为本发明实施例的一个可选实施方式,搭建多标签分类卷积神经网络,并对模型参数初始化包括:在输入层利用CNN(Convolutional Neural Networks,卷积神经网络)的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像;在卷积层使用大小为5×5卷积核,步长为2;在池化层采用的池化方式为最大值池化,利用激活函数Relu,搭建多标签分类卷积神经网络。
S3,采用训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和模型参数操作,获得预设准确率;
作为本发明实施例的一个可选实施方式,采用训练集对卷积神经网络进行训练包括:进行前向传播训练;进行反向传播训练。
具体地,在本发明的步骤S2和步骤S3中,可以分为两个过程,即结构搭建和训练过程,其中:
(1)结构搭建:具体可以参见图2:
输入层:利用CNN的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像。卷积层:使用大小为5×5卷积核,步长为2。卷积层的特征计算公式如下:
池化方式为最大值池化,激活函数为Relu,并对卷积神经网络加以训练。值得一提的是,奇数卷积核更有利中心对称,Relu激活函数具有计算速度快,梯度不饱和等优势,所以本发明并不选用传统sigmoid函数。
(2)训练过程:卷积神经网络在本质上也就是由输入数据到输出之间的一种映射。它所反应的映射关系体现了输入数据与输出之间的关联,其特点类似黑盒,不需要精确具体的数学表达式,只要有大量的已知数据映射关系对其加以训练,从而达到具备做到将输入与输出对应的能力。卷机神经网络的训练方法包括前向传播和反向传播两个阶段。前向传播对于值的传递,隐藏层值:
总输出为:
反向传播每一层与下一层间的关系设为与输出层之间的关系可得反馈计算公式为:
S4,在卷积神经网络中添加注意力模块,其中,注意力模块包括:通道注意力模块和空间注意力模块。
具体地,在卷积神经网络中加入注意力机制,通过添加通道注意力模块和空间注意力模块提升准确率性能。其过程为:
其中F为中间特征图,Mc为通道特征图,Ms为空间特征图,为元素相乘。
其中,通道注意力模块(参见图3)中,使用最大值池化和平均池化两种方式在空间维度上压缩得到两个不同空间背景的描述和使用多层感知神经网络MLP对二者计算得到Mc,过程如下:
Mc(F)=σ(MLP(AvgPool(F)))+σ(MLP(MaxPool(F)))
其中W1和W0分别是MLP的权重,使用Relu作为激活函数。
空间注意力模块(参见图4)中,更加关注位置信息,仍采用最大池化和平均池化
Ms(F)=σ(f5*5([AvgPool(F);MaxPool(F)]))
其中f5*5表示5*5卷积核。
基于此,参见图8中对图7所示的布匹疵点进行注意力卷积处理后得到的特征图,可知在卷积神经网络中添加注意力模块可以使特征图对疵点部分的表现更加突出。
S5,利用测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;
S6,比较准确率结果是否比预设准确率更优,如果不是,则返回执行步骤S2,如果是,则执行步骤S7;
S7,将添加注意力模块的卷积神经网络作为输出模型导出。
具体地,将步骤S4中加注意力机制的卷积神经网络的运算结果与步骤S2中设计原卷积神经网络的运算结果进行对比,如果准确率偏低则继续和参数并重新训练。若准确率高于原网络结构则将添加注意力模块的卷积神经网络作为模型输出。其中,加注意力模块的卷积神经网络结构如图5所示。
而添加注意力机制的卷积神经网络比原有卷积神经网络的准确率结果比对可以参见图6和图9,可见,添加注意力机制的卷积神经网络比原有卷积神经网络对纺织品瑕疵的检测结果的准确率更高。
以下提供一种具体的纺织品瑕疵智能检测分类方法,参见图10,但本发明并不局限于此:
采集8中疵点样本并经过预处理后打上标签,分别制作训练集和测试集;
构建卷积神经网络模块具备疵点检测能力;
构建注意力机制模块,针对性的设置通道注意力和空间注意力模块参数;
使卷积神经网络对疵点角点、边缘、形状等特征提取能力提高;
使用训练集对网络进行训练,使其对不同种类的疵点具有较高识别能力;
使用测试集对卷积神经网络的准确率进行测试。
由此可见,通过本发明实施例提供的纺织品瑕疵智能检测分类方法,采用深度学习架构搭建卷积神经网络模型使其具备较好的检测性能,然后利用注意力模块对网络结构进行和,并且测试准确率实现性能的提升。
图11示出了本发明实施例提供的纺织品瑕疵智能检测分类装置的结构示意图,该纺织品瑕疵智能检测分类装置应用于上述纺织品瑕疵智能检测分类方法,以下仅对纺织品瑕疵智能检测分类装置的结构进行简要说明,其他未尽事宜,请参照上述纺织品瑕疵智能检测分类方法的相关说明,在此不再赘述。参见图11,本发明实施例提供的纺织品瑕疵智能检测分类装置,包括:
采集模块1101,用于采集8种类型的布匹疵点样本图像,并进行预处理制作数据集,数据集包括训练集和测试集;
搭建模块1102,用于搭建多标签分类卷积神经网络,并对模型参数初始化;
训练模块1103,用于采用训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和模型参数操作,获得预设准确率;
添加模块1104,用于在卷积神经网络中添加注意力模块,其中,注意力模块包括:通道注意力模块和空间注意力模块;
验证模块1105,用于利用测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;
比较模块1106,用于比较准确率结果是否比预设准确率更优,如果不是,则通知搭建模块执行操作,如果是,则通知输出模块执行操作;
输出模块1107,用于将添加注意力模块的卷积神经网络作为输出模型导出。
作为本发明实施例的一个可选实施方式,8种类型的布匹疵点包括:跳花、稀弄、破洞、起皱、松经、双经、粗纬、断纬。
作为本发明实施例的一个可选实施方式,搭建模块1102,具体用于综合布匹疵点样本图像的特点确定卷积神经网络结构,其中,卷积神经网络结构包括:三层卷积层两个全连接层的,其中,卷积层分别对布匹疵点的特征进行提取和学习,其中,布匹疵点的特征包括:布匹疵点的轮廓、形状和/或尺寸。
作为本发明实施例的一个可选实施方式,搭建模块1102,具体用于在输入层利用CNN的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像;在卷积层使用大小为5×5卷积核,步长为2;在池化层采用的池化方式为最大值池化,利用激活函数Relu,搭建多标签分类卷积神经网络。
作为本发明实施例的一个可选实施方式,训练模块1103,具体用于进行前向传播训练;进行反向传播训练。
由此可见,通过本发明实施例提供的纺织品瑕疵智能检测分类装置,采用深度学习架构搭建卷积神经网络模型使其具备较好的检测性能,然后利用注意力模块对网络结构进行和,并且测试准确率实现性能的提升。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种纺织品瑕疵智能检测分类方法,其特征在于,包括:
S1,采集8种类型的布匹疵点样本图像,并进行预处理制作数据集,所述数据集包括训练集和测试集;
S2,搭建多标签分类卷积神经网络,并对模型参数初始化;
S3,采用所述训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和所述模型参数操作,获得预设准确率;
S4,在所述卷积神经网络中添加注意力模块,其中,所述注意力模块包括:通道注意力模块和空间注意力模块;
S5,利用所述测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;
S6,比较所述准确率结果是否比所述预设准确率更优,如果不是,则返回执行步骤S2,如果是,则执行步骤S7;
S7,将所述添加注意力模块的卷积神经网络作为输出模型导出。
2.根据权利要求1所述的方法,其特征在于,所述8种类型的布匹疵点包括:跳花、稀弄、破洞、起皱、松经、双经、粗纬、断纬。
3.根据权利要求1所述的方法,其特征在于,所述搭建多标签分类卷积神经网络包括:
综合所述布匹疵点样本图像的特点确定卷积神经网络结构,其中,所述卷积神经网络结构包括:三层卷积层两个全连接层的,其中,所述卷积层分别对所述布匹疵点的特征进行提取和学习,其中,所述布匹疵点的特征包括:所述布匹疵点的轮廓、形状和/或尺寸。
4.根据权利要求1或3所述的方法,其特征在于,所述搭建多标签分类卷积神经网络,并对模型参数初始化包括:
在输入层利用CNN的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像;
在卷积层使用大小为5×5卷积核,步长为2;
在池化层采用的池化方式为最大值池化,利用激活函数Relu,搭建所述多标签分类卷积神经网络。
5.根据权利要求1所述的方法,其特征在于,所述采用所述训练集对卷积神经网络进行训练包括:
进行前向传播训练;
进行反向传播训练。
6.一种纺织品瑕疵智能检测分类装置,其特征在于,包括:
采集模块,用于采集8种类型的布匹疵点样本图像,并进行预处理制作数据集,所述数据集包括训练集和测试集;
搭建模块,用于搭建多标签分类卷积神经网络,并对模型参数初始化;
训练模块,用于采用所述训练集对卷积神经网络进行训练,同时执行和卷积神经网络结构操作以及和所述模型参数操作,获得预设准确率;
添加模块,用于在所述卷积神经网络中添加注意力模块,其中,所述注意力模块包括:通道注意力模块和空间注意力模块;
验证模块,用于利用所述测试集对添加注意力模块的卷积神经网络进行验证,获得准确率结果;
比较模块,用于比较所述准确率结果是否比所述预设准确率更优,如果不是,则通知所述搭建模块执行操作,如果是,则通知输出模块执行操作;
所述输出模块,用于将所述添加注意力模块的卷积神经网络作为输出模型导出。
7.根据权利要求6所述的装置,其特征在于,所述8种类型的布匹疵点包括:跳花、稀弄、破洞、起皱、松经、双经、粗纬、断纬。
8.根据权利要求6所述的装置,其特征在于,所述搭建模块,具体用于综合所述布匹疵点样本图像的特点确定卷积神经网络结构,其中,所述卷积神经网络结构包括:三层卷积层两个全连接层的,其中,所述卷积层分别对所述布匹疵点的特征进行提取和学习,其中,所述布匹疵点的特征包括:所述布匹疵点的轮廓、形状和/或尺寸。
9.根据权利要求6或8所述的装置,其特征在于,所述搭建模块,具体用于在输入层利用CNN的自学习特性,输入格式为128*128*3的图像,其中颜色为RGB图像;在卷积层使用大小为5×5卷积核,步长为2;在池化层采用的池化方式为最大值池化,利用激活函数Relu,搭建所述多标签分类卷积神经网络。
10.根据权利要求6所述的装置,其特征在于,所述训练模块,具体用于进行前向传播训练;进行反向传播训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910398698.XA CN110197208A (zh) | 2019-05-14 | 2019-05-14 | 一种纺织品瑕疵智能检测分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910398698.XA CN110197208A (zh) | 2019-05-14 | 2019-05-14 | 一种纺织品瑕疵智能检测分类方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110197208A true CN110197208A (zh) | 2019-09-03 |
Family
ID=67752743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910398698.XA Pending CN110197208A (zh) | 2019-05-14 | 2019-05-14 | 一种纺织品瑕疵智能检测分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110197208A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796239A (zh) * | 2019-10-30 | 2020-02-14 | 福州大学 | 一种通道与空间融合感知的深度学习目标检测方法 |
CN110956621A (zh) * | 2019-11-27 | 2020-04-03 | 北京航空航天大学合肥创新研究院 | 一种基于神经网络的组织癌变的检测方法及系统 |
CN111709265A (zh) * | 2019-12-11 | 2020-09-25 | 深学科技(杭州)有限公司 | 基于注意力机制残差网络的摄像监控状态分类方法 |
CN112101438A (zh) * | 2020-09-08 | 2020-12-18 | 南方科技大学 | 一种左右眼分类方法、装置、服务器和存储介质 |
CN112287989A (zh) * | 2020-10-20 | 2021-01-29 | 武汉大学 | 一种基于自注意力机制的航空影像地物分类方法 |
CN112560828A (zh) * | 2021-02-25 | 2021-03-26 | 佛山科学技术学院 | 一种轻量级口罩人脸识别方法、系统、存储介质及设备 |
CN113052934A (zh) * | 2021-03-16 | 2021-06-29 | 南开大学 | 基于卷积神经网络的核磁共振图像运动伪影校正 |
CN113139579A (zh) * | 2021-03-23 | 2021-07-20 | 广东省科学院智能制造研究所 | 一种基于图像特征自适应卷积网络的图像分类方法和系统 |
CN114372968A (zh) * | 2021-12-31 | 2022-04-19 | 江南大学 | 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法 |
WO2022198808A1 (zh) * | 2021-03-24 | 2022-09-29 | 齐鲁工业大学 | 基于双线性注意力网络的医学影像数据分类方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9892344B1 (en) * | 2015-11-30 | 2018-02-13 | A9.Com, Inc. | Activation layers for deep learning networks |
CN108520114A (zh) * | 2018-03-21 | 2018-09-11 | 华中科技大学 | 一种纺织布疵点检测模型及其训练方法和应用 |
CN109544524A (zh) * | 2018-11-15 | 2019-03-29 | 中共中央办公厅电子科技学院 | 一种基于注意力机制的多属性图像美学评价系统 |
-
2019
- 2019-05-14 CN CN201910398698.XA patent/CN110197208A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9892344B1 (en) * | 2015-11-30 | 2018-02-13 | A9.Com, Inc. | Activation layers for deep learning networks |
CN108520114A (zh) * | 2018-03-21 | 2018-09-11 | 华中科技大学 | 一种纺织布疵点检测模型及其训练方法和应用 |
CN109544524A (zh) * | 2018-11-15 | 2019-03-29 | 中共中央办公厅电子科技学院 | 一种基于注意力机制的多属性图像美学评价系统 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796239A (zh) * | 2019-10-30 | 2020-02-14 | 福州大学 | 一种通道与空间融合感知的深度学习目标检测方法 |
CN110956621A (zh) * | 2019-11-27 | 2020-04-03 | 北京航空航天大学合肥创新研究院 | 一种基于神经网络的组织癌变的检测方法及系统 |
CN110956621B (zh) * | 2019-11-27 | 2022-09-13 | 北京航空航天大学合肥创新研究院 | 一种基于神经网络的组织癌变的检测方法及系统 |
CN111709265A (zh) * | 2019-12-11 | 2020-09-25 | 深学科技(杭州)有限公司 | 基于注意力机制残差网络的摄像监控状态分类方法 |
CN112101438A (zh) * | 2020-09-08 | 2020-12-18 | 南方科技大学 | 一种左右眼分类方法、装置、服务器和存储介质 |
CN112101438B (zh) * | 2020-09-08 | 2024-04-16 | 南方科技大学 | 一种左右眼分类方法、装置、服务器和存储介质 |
CN112287989B (zh) * | 2020-10-20 | 2022-06-07 | 武汉大学 | 一种基于自注意力机制的航空影像地物分类方法 |
CN112287989A (zh) * | 2020-10-20 | 2021-01-29 | 武汉大学 | 一种基于自注意力机制的航空影像地物分类方法 |
CN112560828A (zh) * | 2021-02-25 | 2021-03-26 | 佛山科学技术学院 | 一种轻量级口罩人脸识别方法、系统、存储介质及设备 |
CN113052934A (zh) * | 2021-03-16 | 2021-06-29 | 南开大学 | 基于卷积神经网络的核磁共振图像运动伪影校正 |
CN113139579A (zh) * | 2021-03-23 | 2021-07-20 | 广东省科学院智能制造研究所 | 一种基于图像特征自适应卷积网络的图像分类方法和系统 |
CN113139579B (zh) * | 2021-03-23 | 2024-02-02 | 广东省科学院智能制造研究所 | 一种基于图像特征自适应卷积网络的图像分类方法和系统 |
WO2022198808A1 (zh) * | 2021-03-24 | 2022-09-29 | 齐鲁工业大学 | 基于双线性注意力网络的医学影像数据分类方法及系统 |
CN114372968A (zh) * | 2021-12-31 | 2022-04-19 | 江南大学 | 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法 |
CN114372968B (zh) * | 2021-12-31 | 2022-12-27 | 江南大学 | 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110197208A (zh) | 一种纺织品瑕疵智能检测分类方法及装置 | |
CN109063724B (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN104573669B (zh) | 图像物体检测方法 | |
CN111368690B (zh) | 基于深度学习的海浪影响下视频图像船只检测方法及系统 | |
Lang et al. | Base and meta: A new perspective on few-shot segmentation | |
CN107291822A (zh) | 基于深度学习的问题分类模型训练方法、分类方法及装置 | |
CN104680144A (zh) | 基于投影极速学习机的唇语识别方法和装置 | |
CN107590515A (zh) | 基于熵率超像素分割的自编码器的高光谱图像分类方法 | |
CN111242144B (zh) | 电网设备异常的检测方法和装置 | |
Liu et al. | Subtler mixed attention network on fine-grained image classification | |
Arikan et al. | Surface defect classification in real-time using convolutional neural networks | |
CN113591948A (zh) | 一种缺陷模式识别方法、装置、电子设备和存储介质 | |
CN108154183A (zh) | 一种基于局部和深度特征集合的目标分类方法 | |
Koziński et al. | An adversarial regularisation for semi-supervised training of structured output neural networks | |
Liu et al. | Unveiling patterns: A study on semi-supervised classification of strip surface defects | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN116168240A (zh) | 基于注意力增强的任意方向密集舰船目标检测方法 | |
CN113763364B (zh) | 一种基于卷积神经网络的图像缺陷检测方法 | |
CN108961358A (zh) | 一种获得样本图片的方法、装置及电子设备 | |
Luo et al. | RBD-Net: robust breakage detection algorithm for industrial leather | |
CN117011274A (zh) | 自动化玻璃瓶检测系统及其方法 | |
Rippel et al. | Anomaly Detection for Automated Visual Inspection: A Review | |
CN114743148A (zh) | 多尺度特征融合篡改视频检测方法、系统、介质和设备 | |
Qi et al. | Multigranularity semantic labeling of point clouds for the measurement of the rail tanker component with structure modeling | |
Lin et al. | Fabric Defect Detection with Fusion of Convolutional Attention Module and YOLOv5 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190903 |