CN111260614B - 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法 - Google Patents

一种基于极限学习机的卷积神经网络布匹瑕疵检测方法 Download PDF

Info

Publication number
CN111260614B
CN111260614B CN202010030557.5A CN202010030557A CN111260614B CN 111260614 B CN111260614 B CN 111260614B CN 202010030557 A CN202010030557 A CN 202010030557A CN 111260614 B CN111260614 B CN 111260614B
Authority
CN
China
Prior art keywords
convolution
cloth
cloth defect
output
defect candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010030557.5A
Other languages
English (en)
Other versions
CN111260614A (zh
Inventor
许玉格
钟铭
戴诗陆
吴宗泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010030557.5A priority Critical patent/CN111260614B/zh
Publication of CN111260614A publication Critical patent/CN111260614A/zh
Application granted granted Critical
Publication of CN111260614B publication Critical patent/CN111260614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,该方法通过构造一个卷积神经网络进行特征提取,并对提取的特征进行融合,在融合后的特征层上进行布匹瑕疵候选框的提取,在布匹瑕疵检测阶段,使用卷积神经网络对提取得到的布匹瑕疵候选框进行回归,使用极限学习机对布匹瑕疵候选框进行分类,对分类和回归结果结合样本图片的真实标签计算损失,基于得到的损失使用随机梯度下降法更新网络中的权重,不断进行迭代训练,直到网络的损失收敛到一个极小值或者达到预设的训练轮数,便得到训练好的基于极限学习机的布匹瑕疵检测的网络模型,即可进行布匹瑕疵检测,有效提高布匹瑕疵检测的整体性能,本发明具有更高的布匹瑕疵检测准确率。

Description

一种基于极限学习机的卷积神经网络布匹瑕疵检测方法
技术领域
本发明涉及布匹瑕疵检测的技术领域,尤其是指一种基于极限学习机的卷积神经网络布匹瑕疵检测方法。
背景技术
在工业产品的生产过程中,对于质量的控制与检测是不可或缺的,产品表面布匹瑕疵的存在会导致产品价格的下降,严重影响到产品相关行业的效益,对于产品布匹瑕疵的高效准确识别也成为了工业界亟待解决的关键问题。目前工业界的大部分产品布匹瑕疵检测都是经由人工来进行的,人工识别不仅容易受到人主观因素的影响,导致识别错误率高,识别效率低,在某些极端环境下还容易对人体健康造成损害。为加快检测效率,提高检测精度,适应检测环境,开发出一套自动检测系统可以有效的促进相关产品制造业的发展。
传统的布匹瑕疵检测方法主要可分为三类:统计法、光学法、基于模型法。常见的统计法有边缘检测、形态学以及分形维数等方法,该类方法布匹瑕疵检测准确率不高,误检率难以达到工业应用中的要求。光学法中,比较常用的有小波变换法,Gabor变换法等,该类方法通过提取布匹瑕疵的纹理信息,最大化纹理信息和布匹瑕疵信息的相应差来实现布匹瑕疵的检测,该方法在检测准确率上也只有75%到85%,难以达到工业应用的要求。最为普遍且成功的模型法有马尔可夫模型和基于神经网络的模型。通过该方法来进行布匹瑕疵的检测,准确率相对统计法和光学法要高,但是对于小布匹瑕疵的检测往往不如人意,且在实际应用中存在着检测速度慢的问题。采用深度学习的方法搭建模型,提取产品表面纹理信息及布匹瑕疵的特征信息,并进行布匹瑕疵检测是一个值得研究的内容。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,通过构造一个卷积神经网络对产品表面特征进行提取,并对提取到的图片特征进行融合,在融合后的特征层上进行布匹瑕疵候选框的提取。在布匹瑕疵检测阶段,使用卷积神经网络对提取得到的布匹瑕疵候选框进行回归,使用极限学习机对布匹瑕疵候选框进行分类,将输入布匹图片分为有布匹瑕疵和无布匹瑕疵两类,并在此基础上对布匹瑕疵的类别进行细分。使用该方法可以自动的提取出布匹中的布匹瑕疵特征,且结合极限学习机检测快速的特点,可以有效的提高布匹瑕疵检测的整体性能。
为实现上述目的,本发明所提供的技术方案为:一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,包括以下步骤:
1)对输入的图片进行预处理,预处理包括训练集和测试集的划分,切割和翻转,尺寸调整,统一输入图片的尺寸,并对标签进行对应处理,同时对图片像素进行归一化处理,将像素值归一化到[0,1]区间,同时采用K-mean聚类的方法对布匹瑕疵框的形状进行聚类得到九种尺寸的布匹瑕疵框;
2)构建卷积神经网络DarkNet的特征提取部分,将预处理后的图片输入到卷积神经网络中,进行图片特征的提取;
3)将提取出来的图片特征进行融合,在融合后的特征层上按照设定的尺寸和长宽比提取出布匹瑕疵候选框;
4)对提取出来的布匹瑕疵候选框进行分类和回归操作,其中分类采用极限学习机ELM进行,回归采用卷积神经网络进行;
5)对提取得到的布匹瑕疵候选框进行非极大值抑制NMS,输出最优质的布匹瑕疵候选框;
6)对分类和回归结果结合样本图片的真实标签计算损失,基于得到的损失使用随机梯度下降法更新网络中的权重;
7)不断重复步骤2)至6)进行迭代训练,直到网络的损失收敛到一个极小值或者达到预设的训练轮数G,便得到训练好的基于极限学习机的布匹瑕疵检测的网络模型;
8)基于训练好的网络模型,即可进行布匹瑕疵的检测,得到布匹瑕疵检测结果。
在步骤1)中,对图片进行预处理,具体如下:
对数据集进行测试集和训练集的划分时,采用分层抽样的方法,将数据集中90%的样本划分为训练集,余下的10%样本划分为测试集;
对图片进行切割时,将图片平均切割成m×n份,其中m为在图片的宽上切割的份数,n为在图片的高上切割的份数,同时需对图片的布匹瑕疵标签进行切割处理;
对图片进行翻转时,包括水平、垂直方向的翻转,同时需对图片的布匹瑕疵标签进行翻转处理;
对图片的尺寸进行调整时,设定缩放比例,在对图片进行缩放时采用双线性插值法;
对图片的像素值进行归一化时,所需的处理步骤为:
1.1)对初始数据集中的图片进行随机采样,样本容量为k,k的取值应当结合数据集的规模进行,采样得到的数据集表示为Ds
1.2)随机切割Ds中每张图片尺寸为q×p的一部分,构成数据集Dsc
1.3)计算数据集Dsc中所有图片在RGB三个通道上的均值和方差,取其均值mean和方差std;
1.4)利用得到的mean和std对图片进行归一化处理。
所述步骤2)包括以下步骤:
2.1)输入图片首先经过一个卷积核为w1×h1、步长为s1、卷积核个数为kernal_num_1的卷积层,随后进行批标准化层BN,再进行激活,采用的激活函数为LeakyReLU,激活后输出特征图f1;其中,w1为卷积核的宽度,h1为卷积核的高度;
2.2)输出的特征图f1经过一个卷积核为w1×h1、步长为s2、卷积核个数为kernal_num_2的卷积层,随后进行批标准化,再进行激活,激活后输出特征图f2
2.3)构建卷积模块,卷积模块由卷积层、批标准化层、激活层组成,其中批标准化层的权重会在网络训练过程中进行自学习,激活层的参数事先给定,而卷积层的参数大部分会在网络训练过层中通过自学习得到,但是事先需要给定卷积层卷积核的尺寸以及输出通道数,故接下来将用Convolutional(输出通道数,卷积核尺寸)表示卷积模块,其中输出通道数的默认值为输入特征图的通道数,采用默认值时简写为Convolutional(卷积核尺寸);
构建残差模块Residual,残差模块主要由两部分组成,一部分是卷积模块Convolutional(w2×h2),另一部分是卷积模块Convolutional(w1×h1),在残差模块中输入特征图input_maps,经过Convolutional(w2×h2)的作用后得到输出特征图output_maps,output_maps输入到Convolutional(w1×h1),经过卷积作用后得到输出特征图output_maps_2,将input_maps和output_maps2进行加法运算后作为残差模块的整体输出output_maps_3,残差模块并不改变输入的通道数和尺寸;
构建卷积集合Convolution Set,卷积集合包含n1个卷积模块Convolutional(w1×h1)和n2个卷积模块Convolutional(w2×h2),这些模块在卷积集合中的具体顺序为:首先输入input_maps经过Convolutional(w2×h2),接着经过Convolutional(w1×h1),之后再顺序经过Convolutional(w2×h2)和Convolutional(w1×h1),最后再接一个Convolutional(w2×h2),得到的输出便是卷积集合的输出;
构建融合模块Fused Block,融合模块由卷积模块、上采样层和特征图叠加层组成,首先输入input_maps_1经过Convolutional(w2×h2),再进行两倍上采样,之后和输入的另一个特征图input_maps_2进行通道叠加,得到的输出便是融合模块的整体输出;
2.4)将得到的特征图f2经过由一个卷积模块Convolutional(kernal_num_1,w2×h2)、卷积模块Convolutional(kernal_num_2,w1×h1)和一个残差模块顺序连接组成的小网络结构,得到输出特征图f3
2.5)将特征图f3输入到卷积模块Convolutional(kernal_num_3,w1×h1/s2)中,其中参数kernal_num_3表示输出卷积层的个数,“w1×h1/s2”表示该卷积模块中卷积层的卷积核的尺寸为w1×h1,且其步长为s2,得到输出特征图f4
2.6)将特征图f4输入到m1个顺序连接的小网络中去,其中每个小网络都是由Convolutional(kernal_num_2,w2×h2)、Convolutional(kernal_num_3,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f5
2.7)将特征图f5输入到卷积模块Convolutional(kernal_num_4,w1×h1/s2)中,得到输出特征图f6
2.8)将特征图f6输入到m2个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(kernal_num_3,w2×h2)、卷积模块Convolutional(kernal_num_4,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f7
2.9)将特征图f7输入到卷积模块Convolutional(kernal_num_5,w1×h1/s2)中,得到输出特征图f8
2.10)将特征图f8输入到m2个顺序连接的小网络中去,其中每个小网络都是由Convolutional(kernal_num_4,w2×h2)、Convolutional(kernal_num_5,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f9
2.11)将特征图f9输入到卷积模块Convolutional(kernal_num_6,w1×h1/s2)中,得到输出特征图f10
2.12)将特征图f10输入到m3个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(kernal_num_5,w2×h2)、卷积模块Convolutional(kernal_num_6,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f11
所述步骤3)包括以下步骤:
3.1)将f11输入到一个卷积集合中,得到特征图f12,后续顺序经过一个卷积模块Convolutional(w1×h1)和一个卷积核为w2×h2的卷积层,得到一个特征图f13(kernal_num_6,wstage1×hstage1),其中kernal_num_6是通道数,wstage1×hstage1是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取k’种尺度的布匹瑕疵候选框,其中这k’种尺度的布匹瑕疵候选框是基于布匹瑕疵的形状进行聚类得到的;
3.2)将f12、f9输入到一个融合模块中,经过融合模块后的输出的特征图f14通道数减半,尺寸放大一倍,将f14送入到一个卷积集合中,得到特征图f15,后续顺序经过一个卷积模块Convolutional(w1×h1)和一个卷积核为w2×h2的卷积层,得到一个特征图f16(kernal_num_5,wstage2×hstage2),其中kernal_num_5是通道数,wstage2×hstage2是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取k’种尺度的布匹瑕疵候选框;
3.3)将f15、f7输入到一个融合模块中,经过融合模块后的输出f17通道数减半,尺寸放大一倍,将f17送入到一个卷积集合中,得到特征图f18,后续顺序经过一个卷积模块Convolutional(w1×h1)和一个卷积核为w2×h2的卷积层,得到一个特征图f19(kernal_num_4,wstage3×hstage3),其中kernal_num_4是通道数,wstage3×hstage3是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取k’种尺度的布匹瑕疵候选框。
在步骤4)中,对提取出来的布匹瑕疵候选框进行分类和回归,具体如下:
回归过程中采用4k”×(wstage1×hstage1+wstage2×hstage2+wstage3×hstage3)个w2×h2卷积核进行预测每个布匹瑕疵候选框的中心点偏移量和长宽缩放量,4代表每个布匹瑕疵候选框需要进行回归的参数个数,为固定值,k”为布匹瑕疵框的种类,wstage1×hstage1,wstage2×hstage2,wstage3×hstage3分别代表特征图的尺寸,w2×h2代表卷积核的尺寸;
分类过程采用极限学习机进行,首先基于每种布匹瑕疵候选框构建一个极限学习机模型,将布匹瑕疵候选框中的元素拉伸成一维向量输入到极限学习机中,通过设定极限学习机中隐层的参数个数,及随机初始化输入权重和偏置能够得到输出权重,从而完成分类,其中极限学习机的构建步骤如下:
4.1)设定隐含层神经元个数,对隐含层和输入层的连接权值w和隐含层神经元的阈值b进行随机取值;
4.2)选取一个无限可微的激活函数,用来计算隐含层输出矩阵H;
4.3)计算输出层权值β:
Figure GDA0003287218920000071
其中C为权衡最小错误风险和最大结构风险的正则化参数,M为期望输出;
4.4)令K(xi,xj)表示核函数,则能够将核矩阵定义为:
ΩELM=HHTELMij=h(xi)·h(xj)=K(xi,xj)
其中,ΩELM为核矩阵,ΩELMij为核矩阵中第i行第j列元素,h(xi)、h(xj)分别表示xi、xj通过映射函数后的输出;至此,得到基于核函数的加权极限学习机最终的输出函数为:
Figure GDA0003287218920000072
式中,K(x,xN)表示核函数输出。
在步骤5)中,对提取出来的布匹瑕疵候选框集合S进行非极大值抑制,具体过程如下:
5.1)判断集合S中布匹瑕疵候选框的个数是否大于0,如果不是,则迭代结束;
5.2)按照置信度对集合S中的布匹瑕疵候选框进行排序,选取其中置信度最高者A取出放入集合F中;
5.3)计算布匹瑕疵候选框A与剩下的布匹瑕疵候选框的交并比IOU,剔除IOU高于设定的IOU阈值的布匹瑕疵候选框;
5.4)重复步骤5.1)至5.3),直到集合S中不包含布匹瑕疵候选框,此时集合F即是非极大值抑制完成后的输出。
在步骤6)中,使用的损失函数包括:对于布匹瑕疵定位偏移量损失,使用的损失函数是平方和损失函数;对于布匹瑕疵候选框置信度损失和布匹瑕疵候选框分类损失,使用的损失函数是二分类交叉熵损失函数和多分类交叉熵损失函数;对于布匹瑕疵候选框置信度损失,使用传统的二分类交叉熵损失并不能很好的平衡布匹瑕疵候选框中的正负样本的不平衡性,以及难分和易分样本的不平衡性,因此提出了一种改进型的二分类交叉熵损失;
传统的二分类交叉熵损失为:
Figure GDA0003287218920000081
Figure GDA0003287218920000082
其中,S2表示特征图中的元素个数,B表示布匹瑕疵候选框的个数,
Figure GDA0003287218920000083
表示当布匹瑕疵落入特征图中的第i个元素代表的区域内时的第j个布匹瑕疵候选框取值为1,其余为零,oij∈{0,1}表示特征图中第i个元素的第j个布匹瑕疵候选框中是否包含真的包含布匹瑕疵,0表示不包含,1表示包含,ci为极限学习机ELM输出的布匹瑕疵候选框中是否包含布匹瑕疵的参数,
Figure GDA0003287218920000091
为ci经过sigmoid函数激活后的概率,
Figure GDA0003287218920000092
进行二分类时,当某一类布匹瑕疵框Anchorsmax的数量大于另一类Anchorsmin时,损失函数很容易被Anchorsmax所主导,导致Anchorsmin在梯度下降时几乎不起作用,此时为减轻这种不平衡性,使用FocalLoss定义的损失函数,其数学表达形式为:
Figure GDA0003287218920000093
Figure GDA0003287218920000094
Figure GDA0003287218920000095
其中,αt为控制布匹瑕疵候选框正负样本不平衡性的平衡系数,α为控制αt的超参数,pt为将布匹瑕疵候选框预测为正类的概率,
Figure GDA0003287218920000096
变为控制pt的超参数,λ的取值范围为(0,10],t=1表示布匹瑕疵候选框中的正类样本,t=-1表示布匹瑕疵候选框中的负类样本;其中α的取值和不平衡度相关,为适应不同数据集中布匹瑕疵候选框的不平衡性,设置αt为自适应取值,具体设置为:
Figure GDA0003287218920000097
其中,Count(t)表示布匹瑕疵候选框中取值为t的布匹瑕疵候选框的数量,并采用自然界中的黄金分割比来将平衡边界向多数类偏移;
使用加权系数将布匹瑕疵定位偏移量损失、布匹瑕疵候选框置信度损失和布匹瑕疵候选框分类损失进行加权求和得到基于极限学习机的布匹瑕疵检测的网络模型总损失后,基于随机梯度下降法对模型权重进行更新。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明采用卷积神经网络进行图片特征的提取,通过卷积神经网络的训练自动获得高质量的图片语义信息和分辨率信息。
2、本发明的网络模型中采用了残差模块,残差模块使用恒等映射的方法在网络的输入和输出之间建立起一条直接的关联通道,使得网络集中学习输入和输出之间的残差,有助于防止网络深度增大的过程中出现梯度消失的问题,使得网络变得更容易优化。
3、本发明采用了特征融合模块,通过融合网络中深层的特征图和浅层的特征图,深层的特征图具有高语义信息,而浅层的特征图具有较好的分辨率,融合后可以增强网络对小目标布匹瑕疵的检测能力。
4、本发明的神经网络中使用LeakyReLU激活函数,该激活函数的收敛速度快,计算复杂度低,不需要进行指数运算,方便于后向传播,有利于模型快速收敛。
5、本发明在确定布匹瑕疵候选框时采用了K-mean聚类方法,通过训练集中的真实布匹瑕疵框信息,聚类出九种的布匹瑕疵候选框形状,可以真实的反应出数据集中待检测布匹瑕疵的尺寸分布信息,有助于提高模型的分类准确率和定位精度。
6、本发明在分类过程中采用极限学习机作为分类器,极限学习机通过随机设定输入层的权重和偏置,可以自动求取输出层的权重,无需进行反向传播更新权重信息,具有分类速度快,分类准确率好的特点。
附图说明
图1为本发明方法的训练流程图。
图2为本发明方法的模型结构图;其中Convolutional Block表示卷积模块,Residual Block表示残差模块,Fused Block表示融合模块,Convolutional Set表示卷积集合,LeakReLU layer表示激活函数为LeakReLU的激活层,Up Sampling表示采样倍率为2的上采样,Concatenate表示特征图相加,Regressor表示回归层,Conv2d 1x1表示卷积核为1x1的卷积网络。
具体实施方式
为更加清楚地表述本发明实施例的目的、技术方案和优点,下面将结合本发明实施例中的附图来对本发明实施例中的技术方案进行全面的描述。需要指出的是本实施例仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例、本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例采用阿里云天池举办的“2019年广东工业智造创新大赛”提供布匹数据集作为实验用数据集。布匹图片数据来自纺织工厂,该数据集共包含布匹瑕疵图片4351张,这4351张图片中共包含15种布匹瑕疵,布匹瑕疵的类别名称为:沾污,错花,水印,花毛,缝头,缝头印,虫粘,破洞,褶子,织疵,漏印,蜡斑,色差,网折,其他,这15种布匹瑕疵不平衡分布于各张布匹瑕疵图片中。在本文的任务中,需要对图片中的布匹瑕疵进行检测,检测过程包括布匹瑕疵图片有无布匹瑕疵的判别,有布匹瑕疵图片中布匹瑕疵种类的判别,有布匹瑕疵图片中布匹瑕疵位置的定位三个方面。
本文采用的评价指标为分类准确率Acc,以及用于判定模型定位精度的指标mAP。对于二分类问题,其混淆矩阵为:
表1二分类问题的混淆矩阵
Figure GDA0003287218920000111
其中,TP表示正确预测的正类样本的个数,FN表示错误预测的正类样本的个数,FP表示错误预测的负类样本的个数,TN表示正确预测的负类样本的个数。二分类问题的分类准确率基于混淆矩阵可定义如下:
Figure GDA0003287218920000121
如图1和图2所示,基于极限学习机的卷积神经网络布匹瑕疵检测方法在本例的具体实施过程如下:
1)对输入的图片进行预处理,预处理包括训练集和测试集的划分,切割和翻转,尺寸调整,统一输入图片的尺寸,同时对图片像素进行归一化处理,将像素值归一化到[0,1]区间,同时采用K-mean聚类方法得到九种尺寸的瑕疵框,具体过程如下:
1.1)将原始数据集划分为训练集和测试集,其中训练集Xoriginal_train占原始数据集的90%,在本实施示例中为3916张样本图片,训练集中的样本均通过无放回的随机采样得到,剩下的435张图片将作为测试集Xoriginal_val
1.2)对训练集Xoriginal_train进行数据增强操作,数据增强包括切割和翻转。原始训练样本图片的分辨率最大为4096x1810,对该图片进行中心2x2的切割,即将原始样本图片平均切割成4份,每一份的最大分辨率为2048x905,对切割完成后的每一张图片进行水平、垂直方向上的翻转,翻转完成后,训练数据集Xtrain是初始训练数据集的16倍,即参与模型训练的图片有62656张;
1.3)对样本图片的标签进行增强,从原始的标签文件Yoriginal_train中,将对应训练数据集Xtrain中的每张图片的布匹瑕疵取出,重新设定其图片名以及其在布匹瑕疵图片中的位置;
1.4)对训练数据集Xtrain中的图片进行像素值归一化,归一化的具体操作为:
1.4.1)对训练集中的图片进行随机采样,样本容量为800,样本集合为Xnorm
1.4.2)在每张样本图片中随机切割出大小为32×32的一部分,计算其在R,G,B这3个通道上的均值meani和方差stdi,其中i={1,2,……,N},N为输入图片数量;
1.4.3)计算样本集合Xnorm在R,G,B这3个通道上的均值和方差的平均值为mean和std,利用得到的均值和方差对图片进行归一化处理,归一化的公式为
Figure GDA0003287218920000131
其中Xoriginal表示输入图像矩阵,Xnorm表示归一化后的图像矩阵,adjusted_std是调整后的方差,为
Figure GDA0003287218920000132
2)构建卷积神经网络DarkNet的特征提取部分,将预处理后的图片输入到卷积神经网络中,进行图片特征的提取,具体如下:
2.1)输入图片首先经过一个卷积核为3x3,步长为1,卷积核个数为32的卷积层,随后进行批标准化,再进行激活,激活后输出特征图f1
2.2)输出的特征图f1经过一个卷积核为3x3,步长为2,卷积核个数为64的卷积层,随后进行批标准化,再进行激活,激活后输出特征图f2
2.3)构建卷积模块,卷积模块由三个部分组成,卷积层、批标准化层、激活层;
2.4)构建残差模块(Residual),残差模块主要由两部分组成,一部分是卷积模块Convolutional(输出通道数,1x1),另一部分是卷积模块Convolutional(输出通道数,3x3)。在残差模块中输入特征图input_maps,经过Convolutional(输出通道数,1x1)的作用后得到输出特征图output_maps,output_maps输入到Convolutional(输出通道数,3x3),经过卷积作用后得到输出特征图output_maps_2,将input_maps和output_maps2进行加法运算后作为残差模块的整体输出output_maps_3;
2.5)构建卷积集合(Convolution Set),卷积集合中包含5个部分,其中有两个卷积模块Convolutional(3x3),和三个卷积模块Convolutional(1x1),这些模块在卷积集合中的具体顺序为,首先输入input_maps经过Convolutional(1x1),接着经过Convolutional(3x3),之后再顺序经过Convolutional(1x1)和Convolutional(3x3),最后再接一个Convolutional(1x1),得到的输出便是卷积集合的输出;
2.6)构建融合模块(Fused Block),融合模块由三部分组成,分别是卷积模块,上采样层和特征图叠加层,首先输入input_maps_1经过Convolutional(1x1),再进行两倍上采样,之后和输入的另一个特征图input_maps_2进行通道叠加,得到的输出便是融合模块的整体输出;
2.7)将得到的特征图f2经过由一个卷积模块Convolutional(32,1x1)、卷积模块Convolutional(64,3x3)和一个残差模块顺序连接组成的小网络结构,得到输出特征图f3
2.8)将特征图f3输入到卷积模块Convolutional(128,3x3/2)中,其中参数“3x3/2”表示该卷积模块中卷积层的卷积核的尺寸为3x3,且其步长为2,得到输出特征图f4
2.9)将特征图f4输入到两个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(64,1x1)、卷积模块Convolutional(128,3x3)和一个残差模块顺序连接组成,得到输出特征图f5
2.10)将特征图f5输入到卷积模块Convolutional(256,3x3/2)中,得到输出特征图f6
2.11)将特征图f6输入到八个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(128,1x1)、卷积模块Convolutional(256,3x3)和一个残差模块顺序连接组成,得到输出特征图f7
2.12)将特征图f7输入到卷积模块Convolutional(512,3x3/2)中,得到输出特征图f8
2.13)将特征图f8输入到八个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(256,1x1)、卷积模块Convolutional(512,3x3)和一个残差模块顺序连接组成,得到输出特征图f9
2.14)将特征图f9输入到卷积模块Convolutional(1024,3x3/2)中,得到输出特征图f10
2.15)将特征图f10输入到四个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(512,1x1)、卷积模块Convolutional(1024,3x3)和一个残差模块顺序连接组成,得到输出特征图f11
3)将提取出来的图片特征进行融合,在融合后的特征层上按照设定的尺寸和长宽比提取出布匹瑕疵候选框,具体如下:
3.1)将提取得到的特征图f11输入到一个卷积集合中,得到特征图f12,随后顺序经过一个卷积模块Convolutional(3x3)和一个卷积核为1x1的卷积层,得到一个特征图f13(1024,13x13)其中1024是通道数,13x13是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取1种尺度,3种长宽比的布匹瑕疵候选框,其中这1种尺度和3种长宽比布匹瑕疵候选框是基于布匹瑕疵的形状进行聚类得到的本实施例种,最优尺度为400x200,长宽比为1:2,1:1,2:1;
3.2)将特征图f12,特征提取网络中的特征图f9输入到一个融合模块中,经过融合模块后的输出f14通道数减半,尺寸放大一倍,将f14送入到一个卷积集合中,得到特征图f15,后续顺序经过一个卷积模块Convolutional(3x3)和一个卷积核为1x1的卷积层,得到一个特征图f16(512,26x26),基于该特征图中的每一个元素,在原图中提取1种尺度,3种长宽比的布匹瑕疵候选框,本实施例中,最优尺度为200x100,长宽比为1∶2,1∶1,2∶1;
3.3)将特征图f15,图片特征提取网络中的特征图f7输入到一个融合模块中,经过融合模块后的输出f17通道数减半,尺寸放大一倍,将f17送入到一个卷积集合中,得到特征图f18,后续顺序经过一个卷积模块Convolutional(3x3)和一个卷积核为1x1的卷积层,得到一个特征图f19(256,52x52),基于该特征图中的每一个元素,在原图中提取1种尺度,3种长宽比的布匹瑕疵候选框,本实施例种,最优尺度为40x20,长宽比为1:2,1:1,2:1;
4)对提取出来的布匹瑕疵候选框进行分类和回归操作,其中分类采用极限学习机ELM进行,回归采用卷积神经网络进行,具体如下:
回归过程中采用3×(13×13)×4+3×(26×26)×4+3×(52×52)×4个1x1卷积核进行预测每个布匹瑕疵候选框框的中心点偏移量和长宽缩放量,布匹瑕疵框回归的过程具体包括:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure GDA0003287218920000161
Figure GDA0003287218920000162
其中,bh和bw分别表示预测框的长宽,pw和ph分别表示先验框的宽和长,在本实施例中,其值为(157,69)、(314,138)、(628,276),tw和th表示预测框与先验框的比值,tx和ty表示的是物体中心距离网格左上角位置的偏移量,cx和cy则代表网格左上角的坐标,σ()表示Sigmoid函数:
Figure GDA0003287218920000163
Figure GDA0003287218920000164
其中,tx,ty,tw和th为回归网络的预测输出。
分类过程采用极限学习机进行,首先基于每种布匹瑕疵候选框构建一个极限学习机模型,将布匹瑕疵候选框中的元素拉伸成一维向量输入到极限学习机中,通过设定极限学习机中隐层的参数个数,及随机初始化输入权重和偏置可以得到输出权重,从而完成分类:
极限学习机的建立基于两个定理:
定理1:给定数量为N的样本
Figure GDA0003287218920000171
xi∈Rd,ti∈Rm,N为样本个数,d,m分别为输入样本的特征维数和输出类别数,xi表示样本,ti表示样本标签,一个任意区间无限可微的激活函数G:R→R,则对于具有N个隐藏层神经元的单隐层前馈神经网络(single-hiddenlayer feedforward networks,SLFN),任意赋值输入权重wi∈Rd和输入偏置bi∈R,那么隐藏层输出矩阵H可逆并有||Hβ-M||=0,其中β为输出权重,M为期望输出。
定理2:对于样本
Figure GDA0003287218920000172
xi∈Rd,ti∈Rm,给定任意小误差ε(ε>0)和一个任意区间无限可微的激活函数G:R→R,则总存在一个含有L(L≤N)个隐藏层神经元的SLFN,在任意赋值wi∈Rd和bi∈R的情况下,有||HN×LβL×m-M||<ε。
从定理1来看,若输入层神经元个数等于隐含层神经元个数,则对于wi和bi的任意取值,SLFN都能实现对训练样本的预测误差为零,即:
Figure GDA0003287218920000173
其中yj=[y1j,y2j,...,ymj]T(j=1,2,...,Q),为预测输出。
但实际上,如果训练样本数Q过大,那么将产生巨大的计算量。因此,通常取隐含层神经元个数K比Q小的数,由定理2可知,SLFN对样本的预测误差逼近一个无穷小的数ε>0时,即:
Figure GDA0003287218920000174
对隐藏层取一个无限可微的激活函数g(x)时,SLFN的权值和阈值不必要全部进行调整,在训练前可随机选择w和b,且确定之后不受训练过程的影响。而通过求解以下方程组的最小二乘解可以获得隐含层和输出层的连接权值β:
Figure GDA0003287218920000181
其解为:
β=H+M
其中H+为隐含层输出矩阵Horre-Penrose广义逆。根据正交投影法(KKT),当HTH或HHT为非奇异矩阵时,可以得到H+=(HTH)-1HT或H+=HT(HTH)-1。可以得到解的形式为:
Figure GDA0003287218920000182
其中C为权衡最小错误风险和最大结构风险的正则化参数。
具体的,ELM算法主要有以下几个步骤:
4.2.1)设定隐含层神经元个数,对隐含层和输入层的连接权值w和隐含层神经元的阈值b进行随机取值;
4.2.2)选取一个无限可微的激活函数,用来计算隐含层输出矩阵H;
4.2.3)计算输出层权值β:
Figure GDA0003287218920000183
4.2.4)令K(xi,xj)表示核函数,则可以将核矩阵定义为:
ΩELM=HHTELMij=h(xi)·h(xj)=K(xi,xj)
至此,可以得到基于核函数的加权极限学习机最终的输出函数为:
Figure GDA0003287218920000184
5)对提取得到的布匹瑕疵候选框进行非极大值抑制NMS,输出最优质的布匹瑕疵候选框,具体如下:
5.1)判断集合S中布匹瑕疵候选框的个数是否大于0,如果不是,则迭代结束;
5.2)按照置信度对集合S中的布匹瑕疵候选框进行排序,选取其中置信度最高者A取出放入集合F中;
5.3)计算布匹瑕疵候选框A与剩下的布匹瑕疵候选框的交并比IOU,剔除IOU高于设定的IOU阈值的布匹瑕疵候选框,在本实施例中,IOU阈值设置为0.5;
5.4)重复步骤5.1)至5.3),直到集合S中不包含布匹瑕疵候选框,此时集合F即是非极大值抑制完成后的输出。
6)使用的损失函数包括:对于布匹瑕疵定位偏移量损失,使用的损失函数是平方和损失函数;对于布匹瑕疵候选框置信度损失和布匹瑕疵候选框分类损失,使用的损失函数是二分类交叉熵损失函数和多分类交叉熵损失函数;对于布匹瑕疵候选框置信度损失,使用传统的二分类交叉熵损失并不能很好的平衡布匹瑕疵候选框中的正负样本的不平衡性,以及难分和易分样本的不平衡性,因此提出了一种改进型的二分类交叉熵损失;
传统的二分类交叉熵损失为:
Figure GDA0003287218920000191
Figure GDA0003287218920000192
其中,S2表示特征图中的元素个数,B表示布匹瑕疵候选框的个数,
Figure GDA0003287218920000193
表示当布匹瑕疵落入特征图中的第i个元素代表的区域内时的第j个布匹瑕疵候选框取值为1,其余为零,oij∈{0,1}表示特征图中第i个元素的第j个布匹瑕疵候选框中是否包含真的包含布匹瑕疵,0表示不包含,1表示包含,ci为极限学习机ELM输出的布匹瑕疵候选框中是否包含布匹瑕疵的参数,
Figure GDA0003287218920000194
为ci经过sigmoid函数激活后的概率,
Figure GDA0003287218920000201
进行二分类时,当某一类布匹瑕疵框Anchorsmax的数量大于另一类Anchorsmin时,损失函数很容易被Anchorsmax所主导,导致Anchorsmin在梯度下降时几乎不起作用,此时为减轻这种不平衡性,使用FocalLoss定义的损失函数,其数学表达形式为:
Figure GDA0003287218920000202
Figure GDA0003287218920000203
Figure GDA0003287218920000204
其中,αt为控制布匹瑕疵候选框正负样本不平衡性的平衡系数,α为控制αt的超参数,pt为将布匹瑕疵候选框预测为正类的概率,
Figure GDA0003287218920000205
变为控制pt的超参数,λ的取值范围为(0,10],t=1表示布匹瑕疵候选框中的正类样本,t=-1表示布匹瑕疵候选框中的负类样本;其中α的取值和不平衡度相关,为适应不同数据集中布匹瑕疵候选框的不平衡性,设置αt为自适应取值,具体设置为:
Figure GDA0003287218920000206
其中,Count(t)表示布匹瑕疵候选框中取值为t的布匹瑕疵候选框的数量,并采用自然界中的黄金分割比来将平衡边界向多数类偏移;
使用加权系数将布匹瑕疵定位偏移量损失、布匹瑕疵候选框置信度损失和布匹瑕疵候选框分类损失进行加权求和得到基于极限学习的布匹瑕疵检测的网络模型总损失后,基于随机梯度下降法对模型权重进行更新,随机梯度下降法的参数设置:学习率为0.00125,权重衰减为0.0005,冲量为0.9,并且设置训练的迭代次数G为60。
7)不断重复步骤2)至6)进行迭代训练,直到网络的损失收敛到一个极小值或者达到预设的训练轮数,便可得到训练好的基于极限学习的布匹瑕疵检测的网络模型。
8)基于训练好的网络模型,即可进行布匹瑕疵的检测,得到布匹瑕疵检测结果。
实验结果显示,使用基于极限学习机的布匹瑕疵检测的网络模型进行布匹的布匹瑕疵检测,其准确率可以达到87.08%,mAP值可以达到31.87%,而使用普通的yolo v3算法进行布匹布匹瑕疵检测,其准确率为78.85%,mAP值为30.21%,而使用传统的检测方法,其只能对检测到样本中有无布匹瑕疵,且检测准确率为78%。由此可知本发明所采用的算法比较适合于布匹瑕疵检测问题。
综上所述,本发明针对布匹瑕疵检测问题,重点研究了基于极限学习机的卷积神经网络布匹瑕疵检测方法。该方法通过构造一个卷积神经网络来进行图片特征的提取,且在卷积神经网络构建的过层中引入了残差结构和特征融合结构,使得网络加深的过程中不会发生梯度消失的现象,且增强了网络提取小布匹瑕疵的能力,基于得到的特征图,使用多种尺度的布匹瑕疵候选框进行布匹瑕疵的提取,同时结合使用极限学习机对布匹瑕疵候选框进行分类,在保证检测速度的前提下提高了布匹瑕疵检出的准确率,值得推广。
上述实施例为本发明效果较好的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,其特征在于,包括以下步骤:
1)对输入的图片进行预处理,预处理包括训练集和测试集的划分,切割和翻转,尺寸调整,统一输入图片的尺寸,并对标签进行对应处理,同时对图片像素进行归一化处理,将像素值归一化到[0,1]区间,同时采用K-mean聚类的方法对布匹瑕疵框的形状进行聚类得到九种尺寸的布匹瑕疵框;
2)构建卷积神经网络DarkNet的特征提取部分,将预处理后的图片输入到卷积神经网络中,进行图片特征的提取,包括以下步骤:
2.1)输入图片首先经过一个卷积核为w1×h1、步长为s1、卷积核个数为kernal_num_1的卷积层,随后进行批标准化层BN,再进行激活,采用的激活函数为LeakyReLU,激活后输出特征图f1;其中,w1为卷积核的宽度,h1为卷积核的高度;
2.2)输出的特征图f1经过一个卷积核为w1×h1、步长为s2、卷积核个数为kernal_num_2的卷积层,随后进行批标准化,再进行激活,激活后输出特征图f2
2.3)构建卷积模块,卷积模块由卷积层、批标准化层、激活层组成,其中批标准化层的权重会在网络训练过程中进行自学习,激活层的参数事先给定,而卷积层的参数大部分会在网络训练过层中通过自学习得到,但是事先需要给定卷积层卷积核的尺寸以及输出通道数,故接下来将用Convolutional(输出通道数,卷积核尺寸)表示卷积模块,其中输出通道数的默认值为输入特征图的通道数,采用默认值时简写为Convolutional(卷积核尺寸);
构建残差模块Residual,残差模块主要由两部分组成,一部分是卷积模块Convolutional(w2×h2),另一部分是卷积模块Convolutional(w1×h1),在残差模块中输入特征图input_maps,经过Convolutional(w2×h2)的作用后得到输出特征图output_maps,output_maps输入到Convolutional(w1×h1),经过卷积作用后得到输出特征图output_maps_2,将input_maps和output_maps2进行加法运算后作为残差模块的整体输出output_maps_3,残差模块并不改变输入的通道数和尺寸;
构建卷积集合Convolution Set,卷积集合包含n1个卷积模块Convolutional(w1×h1)和n2个卷积模块Convolutional(w2×h2),这些模块在卷积集合中的具体顺序为:首先输入input_maps经过Convolutional(w2×h2),接着经过Convolutional(w1×h1),之后再顺序经过Convolutional(w2×h2)和Convolutional(w1×h1),最后再接一个Convolutional(w2×h2),得到的输出便是卷积集合的输出;
构建融合模块Fused Block,融合模块由卷积模块、上采样层和特征图叠加层组成,首先输入input_maps_1经过Convolutional(w2×h2),再进行两倍上采样,之后和输入的另一个特征图input_maps_2进行通道叠加,得到的输出便是融合模块的整体输出;
2.4)将得到的特征图f2经过由一个卷积模块Convolutional(kernal_num_1,w2×h2)、卷积模块Convolutional(kernal_num_2,w1×h1)和一个残差模块顺序连接组成的小网络结构,得到输出特征图f3
2.5)将特征图f3输入到卷积模块Convolutional(kernal_num_3,w1×h1/s2)中,其中参数kernal_num_3表示输出卷积层的个数,“w1×h1/s2”表示该卷积模块中卷积层的卷积核的尺寸为w1×h1,且其步长为s2,得到输出特征图f4
2.6)将特征图f4输入到m1个顺序连接的小网络中去,其中每个小网络都是由Convolutional(kernal_num_2,w2×h2)、Convolutional(kernal_num_3,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f5
2.7)将特征图f5输入到卷积模块Convolutional(kernal_num_4,w1×h1/s2)中,得到输出特征图f6
2.8)将特征图f6输入到m2个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(kernal_num_3,w2×h2)、卷积模块Convolutional(kernal_num_4,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f7
2.9)将特征图f7输入到卷积模块Convolutional(kernal_num_5,w1×h1/s2)中,得到输出特征图f8
2.10)将特征图f8输入到m2个顺序连接的小网络中去,其中每个小网络都是由Convolutional(kernal_num_4,w2×h2)、Convolutional(kernal_num_5,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f9
2.11)将特征图f9输入到卷积模块Convolutional(kernal_num_6,w1×h1/s2)中,得到输出特征图f10
2.12)将特征图f10输入到m3个顺序连接的小网络中去,其中每个小网络都是由卷积模块Convolutional(kernal_num_5,w2×h2)、卷积模块Convolutional(kernal_num_6,w1×h1)和一个残差模块顺序连接组成,得到输出特征图f11
3)将提取出来的图片特征进行融合,在融合后的特征层上按照设定的尺寸和长宽比提取出布匹瑕疵候选框,包括以下步骤:
3.1)将f11输入到一个卷积集合中,得到特征图f12,后续顺序经过一个卷积模块Convolutional(w1×h1)和一个卷积核为w2×h2的卷积层,得到一个特征图f13(kernal_num_6,wstage1×hstage1),其中kernal_num_6是通道数,wstage1×hstage1是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取k’种尺度的布匹瑕疵候选框,其中这k’种尺度的布匹瑕疵候选框是基于布匹瑕疵的形状进行聚类得到的;
3.2)将f12、f9输入到一个融合模块中,经过融合模块后的输出的特征图f14通道数减半,尺寸放大一倍,将f14送入到一个卷积集合中,得到特征图f15,后续顺序经过一个卷积模块Convolutional(w1×h1)和一个卷积核为w2×h2的卷积层,得到一个特征图f16(kernal_num_5,wstage2×hstage2),其中kernal_num_5是通道数,wstage2×hstage2是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取k’种尺度的布匹瑕疵候选框;
3.3)将f15、f7输入到一个融合模块中,经过融合模块后的输出f17通道数减半,尺寸放大一倍,将f17送入到一个卷积集合中,得到特征图f18,后续顺序经过一个卷积模块Convolutional(w1×h1)和一个卷积核为w2×h2的卷积层,得到一个特征图f19(kernal_num_4,wstage3×hstage3),其中kernal_num_4是通道数,wstage3×hstage3是特征图的尺寸,基于该特征图中的每一个元素,在原图中提取k’种尺度的布匹瑕疵候选框;
4)对提取出来的布匹瑕疵候选框进行分类和回归操作,其中分类采用极限学习机ELM进行,回归采用卷积神经网络进行;
5)对提取得到的布匹瑕疵候选框进行非极大值抑制NMS,输出最优质的布匹瑕疵候选框;
6)对分类和回归结果结合样本图片的真实标签计算损失,基于得到的损失使用随机梯度下降法更新网络中的权重;
7)不断重复步骤2)至6)进行迭代训练,直到网络的损失收敛到一个极小值或者达到预设的训练轮数G,便得到训练好的基于极限学习机的布匹瑕疵检测的网络模型;
8)基于训练好的网络模型,即可进行布匹瑕疵的检测,得到布匹瑕疵检测结果。
2.根据权利要求1所述的一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,其特征在于,在步骤1)中,对图片进行预处理,具体如下:
对数据集进行测试集和训练集的划分时,采用分层抽样的方法,将数据集中90%的样本划分为训练集,余下的10%样本划分为测试集;
对图片进行切割时,将图片平均切割成m×n份,其中m为在图片的宽上切割的份数,n为在图片的高上切割的份数,同时需对图片的布匹瑕疵标签进行切割处理;
对图片进行翻转时,包括水平、垂直方向的翻转,同时需对图片的布匹瑕疵标签进行翻转处理;
对图片的尺寸进行调整时,设定缩放比例,在对图片进行缩放时采用双线性插值法;
对图片的像素值进行归一化时,所需的处理步骤为:
1.1)对初始数据集中的图片进行随机采样,样本容量为k,k的取值应当结合数据集的规模进行,采样得到的数据集表示为Ds
1.2)随机切割Ds中每张图片尺寸为q×p的一部分,构成数据集Dsc
1.3)计算数据集Dsc中所有图片在RGB三个通道上的均值和方差,取其均值mean和方差std;
1.4)利用得到的mean和std对图片进行归一化处理。
3.根据权利要求1所述的一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,其特征在于,在步骤4)中,对提取出来的布匹瑕疵候选框进行分类和回归,具体如下:
回归过程中采用4k”×(wstage1×hstage1+wstage2×hstage2+wstage3×hstage3)个w2×h2卷积核进行预测每个布匹瑕疵候选框的中心点偏移量和长宽缩放量,4代表每个布匹瑕疵候选框需要进行回归的参数个数,为固定值,k”为布匹瑕疵框的种类,wstage1×hstage1,wstage2×hstage2,wstage3×hstage3分别代表特征图的尺寸,w2×h2代表卷积核的尺寸;
分类过程采用极限学习机进行,首先基于每种布匹瑕疵候选框构建一个极限学习机模型,将布匹瑕疵候选框中的元素拉伸成一维向量输入到极限学习机中,通过设定极限学习机中隐层的参数个数,及随机初始化输入权重和偏置能够得到输出权重,从而完成分类,其中极限学习机的构建步骤如下:
4.1)设定隐含层神经元个数,对隐含层和输入层的连接权值w和隐含层神经元的阈值b进行随机取值;
4.2)选取一个无限可微的激活函数,用来计算隐含层输出矩阵H;
4.3)计算输出层权值β:
Figure FDA0003287218910000061
其中C为权衡最小错误风险和最大结构风险的正则化参数,M为期望输出;
4.4)令K(xi,xj)表示核函数,则能够将核矩阵定义为:
ΩELM=HHTELMij=h(xi)·h(xj)=K(xi,xj)
其中,ΩELM为核矩阵,ΩELMij为核矩阵中第i行第j列元素,h(xi)、h(xj)分别表示xi、xj通过映射函数后的输出;至此,得到基于核函数的加权极限学习机最终的输出函数为:
Figure FDA0003287218910000062
式中,K(x,xN)表示核函数输出。
4.根据权利要求1所述的一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,其特征在于,在步骤5)中,对提取出来的布匹瑕疵候选框集合S进行非极大值抑制,具体过程如下:
5.1)判断集合S中布匹瑕疵候选框的个数是否大于0,如果不是,则迭代结束;
5.2)按照置信度对集合S中的布匹瑕疵候选框进行排序,选取其中置信度最高者A取出放入集合F中;
5.3)计算布匹瑕疵候选框A与剩下的布匹瑕疵候选框的交并比IOU,剔除IOU高于设定的IOU阈值的布匹瑕疵候选框;
5.4)重复步骤5.1)至5.3),直到集合S中不包含布匹瑕疵候选框,此时集合F即是非极大值抑制完成后的输出。
5.根据权利要求1所述的一种基于极限学习机的卷积神经网络布匹瑕疵检测方法,其特征在于,在步骤6)中,使用的损失函数包括:对于布匹瑕疵定位偏移量损失,使用的损失函数是平方和损失函数;对于布匹瑕疵候选框置信度损失和布匹瑕疵候选框分类损失,使用的损失函数是二分类交叉熵损失函数和多分类交叉熵损失函数;对于布匹瑕疵候选框置信度损失,使用传统的二分类交叉熵损失并不能很好的平衡布匹瑕疵候选框中的正负样本的不平衡性,以及难分和易分样本的不平衡性,因此提出了一种改进型的二分类交叉熵损失;
传统的二分类交叉熵损失为:
Figure FDA0003287218910000071
Figure FDA0003287218910000072
其中,S2表示特征图中的元素个数,B表示布匹瑕疵候选框的个数,
Figure FDA0003287218910000073
表示当布匹瑕疵落入特征图中的第i个元素代表的区域内时的第j个布匹瑕疵候选框取值为1,其余为零,oij∈{0,1}表示特征图中第i个元素的第j个布匹瑕疵候选框中是否包含真的包含布匹瑕疵,0表示不包含,1表示包含,ci为极限学习机ELM输出的布匹瑕疵候选框中是否包含布匹瑕疵的参数,
Figure FDA0003287218910000074
为ci经过sigmoid函数激活后的概率,
Figure FDA0003287218910000075
进行二分类时,当某一类布匹瑕疵框Anchorsmax的数量大于另一类Anchorsmin时,损失函数很容易被Anchorsmax所主导,导致Anchorsmin在梯度下降时几乎不起作用,此时为减轻这种不平衡性,使用FocalLoss定义的损失函数,其数学表达形式为:
Figure FDA0003287218910000081
Figure FDA0003287218910000082
Figure FDA0003287218910000083
其中,αt为控制布匹瑕疵候选框正负样本不平衡性的平衡系数,α为控制αt的超参数,pt为将布匹瑕疵候选框预测为正类的概率,
Figure FDA0003287218910000084
变为控制pt的超参数,λ的取值范围为(0,10],t=1表示布匹瑕疵候选框中的正类样本,t=-1表示布匹瑕疵候选框中的负类样本;其中α的取值和不平衡度相关,为适应不同数据集中布匹瑕疵候选框的不平衡性,设置αt为自适应取值,具体设置为:
Figure FDA0003287218910000085
其中,Count(t)表示布匹瑕疵候选框中取值为t的布匹瑕疵候选框的数量,并采用自然界中的黄金分割比来将平衡边界向多数类偏移;
使用加权系数将布匹瑕疵定位偏移量损失、布匹瑕疵候选框置信度损失和布匹瑕疵候选框分类损失进行加权求和得到基于极限学习机的布匹瑕疵检测的网络模型总损失后,基于随机梯度下降法对模型权重进行更新。
CN202010030557.5A 2020-01-13 2020-01-13 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法 Active CN111260614B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010030557.5A CN111260614B (zh) 2020-01-13 2020-01-13 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010030557.5A CN111260614B (zh) 2020-01-13 2020-01-13 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法

Publications (2)

Publication Number Publication Date
CN111260614A CN111260614A (zh) 2020-06-09
CN111260614B true CN111260614B (zh) 2022-03-25

Family

ID=70953948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010030557.5A Active CN111260614B (zh) 2020-01-13 2020-01-13 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法

Country Status (1)

Country Link
CN (1) CN111260614B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116557B (zh) * 2020-08-12 2022-02-22 西安交通大学 一种射线图像焊缝区域缺陷探测方法、存储介质及设备
CN112508939B (zh) * 2020-12-22 2023-01-20 郑州金惠计算机系统工程有限公司 法兰表面缺陷检测方法及系统和设备
CN112699808B (zh) * 2020-12-31 2024-06-07 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN112884161B (zh) * 2021-02-02 2021-11-02 山东省计算中心(国家超级计算济南中心) 一种抗标签翻转攻击的协同学习方法、装置、设备及介质
CN113066075B (zh) * 2021-04-10 2022-11-01 河南大学 一种多图像融合的牛仔布瑕疵检测方法及装置
CN113192040B (zh) * 2021-05-10 2023-09-22 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113469984B (zh) * 2021-07-13 2023-06-02 厦门福信光电集成有限公司 一种基于yolo结构的显示面板外观检测方法
CN113673594B (zh) * 2021-08-18 2022-07-12 浙江工商大学 一种基于深度学习网络的瑕疵点识别方法
US11615523B2 (en) 2021-08-18 2023-03-28 Zhejiang Gongshang University Methods for recognizing small targets based on deep learning networks
CN114372968B (zh) * 2021-12-31 2022-12-27 江南大学 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法
CN114898148B (zh) * 2022-05-10 2024-04-26 中国农业大学 一种基于深度学习的鸡蛋污损检测方法及系统
CN115082386B (zh) * 2022-06-07 2024-04-26 华南理工大学 基于正常样本辅助特征提取的注塑件瑕疵检测方法、装置及介质
CN115901789A (zh) * 2022-12-28 2023-04-04 东华大学 基于机器视觉的布匹瑕疵检测系统
CN116704267B (zh) * 2023-08-01 2023-10-27 成都斐正能达科技有限责任公司 一种基于改进yolox算法的深度学习3d打印缺陷检测方法
CN117786118A (zh) * 2024-01-03 2024-03-29 北京新数科技有限公司 一种基于Bert模型和BiLSTM模型的文本情感分析方法、系统、设备及可读存储介质
CN117993583B (zh) * 2024-04-07 2024-06-14 厦门贝之园网络科技有限公司 基于深度学习的布料裁切方法、电子设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6650779B2 (en) * 1999-03-26 2003-11-18 Georgia Tech Research Corp. Method and apparatus for analyzing an image to detect and identify patterns
CN105044121B (zh) * 2015-08-17 2018-04-06 东华大学 一种针织圆机在线疵点检测装置和检测方法
CN105335763A (zh) * 2015-12-07 2016-02-17 东华大学 一种基于改进型极速学习机的织物疵点分类方法
CN106530288A (zh) * 2016-11-03 2017-03-22 东华大学 基于深度学习算法的织物疵点检测方法
CN107123107A (zh) * 2017-03-24 2017-09-01 广东工业大学 基于神经网络深度学习的布匹缺陷检测方法
CN107341499B (zh) * 2017-05-26 2021-01-05 昆明理工大学 一种基于无监督分割和elm的织物缺陷检测和分类方法
CN107316295A (zh) * 2017-07-02 2017-11-03 苏州大学 一种基于深度神经网络的织物瑕疵检测方法
CN108399614B (zh) * 2018-01-17 2020-12-22 华南理工大学 一种基于无抽样小波与Gumbel分布的织物缺陷检测方法
CN108364291A (zh) * 2018-03-13 2018-08-03 钟国韵 基于计算机视觉技术的原坯布快速检测方法
CN109829893B (zh) * 2019-01-03 2021-05-25 武汉精测电子集团股份有限公司 一种基于注意力机制的缺陷目标检测方法
CN110136126A (zh) * 2019-05-17 2019-08-16 东南大学 基于全卷积神经网络的织物纹理瑕疵检测方法
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法

Also Published As

Publication number Publication date
CN111260614A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
CN111260614B (zh) 一种基于极限学习机的卷积神经网络布匹瑕疵检测方法
CN110287960B (zh) 自然场景图像中曲线文字的检测识别方法
CN107133616B (zh) 一种基于深度学习的无分割字符定位与识别方法
CN111027547A (zh) 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN108734138B (zh) 一种基于集成学习的黑色素瘤皮肤病图像分类方法
CN109685152A (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN110992311A (zh) 一种基于特征融合的卷积神经网络瑕疵检测方法
CN113505865B (zh) 一种基于卷积神经网络的片材表面缺陷图像识别处理方法
CN107784288A (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
CN112200045A (zh) 基于上下文增强的遥感图像目标检测模型建立方法及应用
CN112699900A (zh) 一种改进YOLOv4的交通标志识别方法
Liu et al. A classification method of glass defect based on multiresolution and information fusion
CN113449784B (zh) 基于先验属性图谱的图像多分类方法、装置、设备及介质
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN115049619B (zh) 一种针对复杂场景的高效瑕疵检测方法
CN111145145A (zh) 一种基于MobileNets的图像表面缺陷检测方法
CN115393351B (zh) 一种基于朗格汉斯细胞判断角膜免疫状态的方法及装置
Lin et al. Determination of the varieties of rice kernels based on machine vision and deep learning technology
CN114612472A (zh) 一种基于SegNet改进的皮革缺陷分割网络算法
CN114548253A (zh) 一种基于图像识别及动态匹配的数字孪生模型构建系统
CN117854072B (zh) 一种工业视觉缺陷自动标注方法
CN109859199B (zh) 一种sd-oct图像的淡水无核珍珠质量检测的方法
CN115187544A (zh) 基于DR-RSBU-YOLOv5的织物瑕疵检测方法
CN114863125A (zh) 一种书法/美术作品智能评分方法及系统
CN113421223B (zh) 基于深度学习和高斯混合的工业产品表面缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant