CN115601300A - 一种坯布缺陷模型的快速训练方法、系统、介质及计算机 - Google Patents
一种坯布缺陷模型的快速训练方法、系统、介质及计算机 Download PDFInfo
- Publication number
- CN115601300A CN115601300A CN202211090069.9A CN202211090069A CN115601300A CN 115601300 A CN115601300 A CN 115601300A CN 202211090069 A CN202211090069 A CN 202211090069A CN 115601300 A CN115601300 A CN 115601300A
- Authority
- CN
- China
- Prior art keywords
- neural network
- loss function
- training
- sample
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种坯布缺陷模型的快速训练方法,其技术方案要点是:本申请通过随机抽取旧缺陷样本集,并将旧样本同时输入到新神经网络和旧神经网络中,对应生成各个层的输出的特征向量,并且通过计算各个层所输出的特征向量的距离度量函数,对神经网络的差异进行标定,并且通过损失函数的约束,以使神经网络在重新学习新缺陷的特征的同时不会对原本的特征提取能力存在精度影响问题。相比传统的训练方式,本申请提供的训练方式训练速度更快,且不会影响原有的特征提取精度。
Description
技术领域
本发明涉及缺陷检测技术领域,更具体地说,它涉及一种坯布缺陷模型的快速训练方法、系统、介质及计算机。
背景技术
坯布在纺织过程中通常需要进行缺陷检测,以确定坯布上的缺陷的位置和缺陷的大小,现有的坯布纺织过程中使用的检测方式为利用视觉检测结合深度学习的方式,对坯布表面进行拍照和检测,使用这种深度学习的检测方式需要先输入大量的缺陷照片,对深度学习模型进行训练,训练后的深度学习模型即可针对所训练的缺陷进行较为精确的检测。但是训练后的深度学习模型不能识别在实际生产过程中出现的新的纺织缺陷。
对于上述情况,现有的解决方案通常都是将新发现的缺陷照片混入到原本的训练样本中,重新对深度学习模型进行训练,但是这种训练方式耗费的时间长,对于工期较为严格的工厂来说,需要忍受停工带来的损失,或者只能忍受漏检缺陷造成的损失,因此针对这种情况,如何缩短针对新缺陷进行重新训练深度学习模型所花费的时间,同时又不影响深度学习模型对原有缺陷的检测精度,成为人们亟待解决的问题。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种坯布缺陷模型的快速训练方法,以解决现有的深度学习模型对于新增缺陷的训练花费的时间过长的问题。
本发明的上述技术目的是通过以下技术方案得以实现的:一种坯布缺陷模型的快速训练方法,S1、获取若干包含未训练缺陷的第一样本图片,对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;
S2、获取预先训练好的第一深度学习神经网络模型、第二深度学习神经网络模型以及对应的训练样本集,并从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;其中所述第一深度学习神经网络模型和第二深度学习神经网络模型相同;
S3、将若干所述第三样本图片输入所述第一深度学习神经网络模型,获取所述第一深度学习神经网络模型的主干网络层输出的第一特征向量、混合网络层输出的第二特征向量、预测网络层输出的第三特征向量;
S4、将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数及回归损失函数;
S5、根据所述分类损失函数和回归损失函数对所述第二深度学习神经网络模型进行约束,生成对应的第三深度学习神经网络模型;
S6、将若干所述第三样本图片输入所述第三深度学习神经网络模型,获取所述第三深度学习神经网络模型的主干网络层输出的第四特征向量、混合网络层输出的第五特征向量以及预测网络层输出的第六特征向量;
S7、分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
S8、根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成对应的整体损失函数,并使所述整体损失函数小于损失函数阈值;以完成一次训练,并记录对应的训练次数;
S9、判断训练次数是否达到预定训练次数,若是,则终止训练;若否,将所述第三深度学习神经网络模型作为新的第二深度学习神经网络模型,再从所述训练样本集中重新抽取与第二样本图片数量相等的缺陷图片,作为新的第三样本图片,并返回步骤S3。
可选的,所述步骤S1,包括以下步骤:
S11、对若干所述第一样本图片分别使用图像金字塔或者openCVresize函数进行尺寸调整,对应生成若干第一样本裁切图片;
S12、对若干所述第一样本裁切图片分别进行灰度处理,对应生成若干第一样本灰度图片;
S13、对若干所述第一样本灰度图分别进行亮度调整,对应生成若干第二样本图片。
可选的,所述步骤S13,包括,对若干所述第一样本灰度图分别使用直方图均衡化,对应生成若干第二样本图片。
可选的,所述回归损失函数使用GIoU损失函数,所述GIoU损失函数表达式为:
式中,A为未训练缺陷所在的实际位置边界框,B为神经网络预测边界框,C为包围A和B的闭包。
可选的,所述分类损失函数采用Focal Loss损失函数,所述focal损失函数表达式为:
FL(pt)=-(1-pt)γlog(pt)
式中,p为所述第一深度学习神经网络模型预测到的标签的概率,γ为调节因子,y为正负样本。
可选的,所述第一距离度量函数、第二距离度量函数以及第三距离度量函数均使用ranking loss损失函数;所述rank loss损失函数表达式为:
L(x0,x1,y)=y||f(x0)-f(x1)||+(1-y)max(0,||f(x0)-f(x1)||)
式中,x0和x1分别表示样本对两个特征向量的表征,y为二值数,当输入的两个特征向量为正样本的时候,y为1,当输入的两个特征向量为负样本的时候,y为0。
可选的,所述损失函数阈值为0.1。
一种坯布缺陷模型的快速训练系统,其特征在于,包括:
图像获取模块,用于获取若干包含未训练缺陷的第一样本图片;
图像处理模块,用于对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;
图像抽取模块:用于从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;
特征向量获取模块;用于获取深度学习神经网络模型的主干网络层、混合网络层以及预测网络层输出三个特征向量;
神经网络训练模块:用于将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数以及回归损失函数,并根据所述分类损失函数以及回归损失函数对所述第二深度学习神经网络模型进行约束,对应生成第三深度学习神经网络模型;
特征向量比对模块:用于分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
损失函数计算模块:用于根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成整体损失函数,并使所述整体损失函数小于损失函数阈值;
循环计数模块:用于统计训练的次数,并判断训练次数是否达到预定训练次数。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
综上所述,本发明具有以下有益效果:本申请通过随机抽取旧缺陷样本集,并将旧样本同时输入到新神经网络和旧神经网络中,对应生成各个层的输出的特征向量,并且通过计算各个层所输出的特征向量的距离度量函数,对神经网络的差异进行标定,并且通过损失函数的约束,以使神经网络在重新学习新缺陷的特征的同时不会对原本的特征提取能力存在精度影响问题。相比传统的训练方式,本申请提供的训练方式训练速度更快,且不会影响原有的特征提取精度。
附图说明
图1为本发明的流程示意图;
图2为本发明的步骤S1的流程示意图;
图3为本发明的一种坯布缺陷模型的快速训练系统的结构图
图4为本发明实施例中计算机设备的内部结构图。
图中:1、图像获取模块;2、图像处理模块;3、图像抽取模块;4、特征向量获取模块;5、神经网络训练模块;6、特征向量比对模块;7、损失函数计算模块;8、循环计数模块。
具体实施方式
为使本发明的目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。术语“垂直的”、“水平的”、“左”、“右”、“上”、“下”以及类似的表述只是为了说明的目的,而不是指示或暗示所指装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
下面结合附图和实施例,对本发明进行详细描述。
本发明提供了一种坯布缺陷模型的快速训练方法,如图1所示,包括以下步骤:
S1、获取若干包含未训练缺陷的第一样本图片,对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;具体来说,所述预处理,一方面对图片的分辨率进行调整,以降低深度学习神经网络模型对设备的负担,另一方面,对图片进行灰度处理以及亮度调整处理,以使图片可以更加突出图片的缺陷特征。
S2、获取预先训练好的第一深度学习神经网络模型、第二深度学习神经网络模型以及对应的训练样本集,并从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;其中所述第一深度学习神经网络模型和第二深度学习神经网络模型相同;
S3、将若干所述第三样本图片输入所述第一深度学习神经网络模型,获取所述第一深度学习神经网络模型的主干网络层输出的第一特征向量、混合网络层输出的第二特征向量、预测网络层输出的第三特征向量;
S4、将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数及回归损失函数;
S5、根据所述分类损失函数和回归损失函数对所述第二深度学习神经网络模型进行约束,生成对应的第三深度学习神经网络模型;具体来说,当深度学习神经网络模型对新缺陷进行学习的时候,由于需要对深度学习神经网络模型根据损失函数进行约束,因此,会对神经网络产生较大的改变,进而影响深度学习神经网络模型对原本的训练过的缺陷的检测精度;
S6、将若干所述第三样本图片输入所述第三深度学习神经网络模型,获取所述第三深度学习神经网络模型的主干网络层输出的第四特征向量、混合网络层输出的第五特征向量以及预测网络层输出的第六特征向量;
S7、分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
具体来说,距离度量函数是用于衡量针对新缺陷进行训练后的深度学习神经网络模型模型发生的改变,与初始的深度学习神经网络模型之间相差的距离有多大,本步骤也就是想要通过分别比对两个深度学习神经网络模型之间的主干网络层、混合网络层以及预测网络层之间特征提取的区别,降低特征提取的神经网络的改变,保持网络的不变性以使特征提取神经网络在可以检测新缺陷的同时,保持对旧缺陷的检测的精度。
S8、根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成对应的整体损失函数,并使所述整体损失函数小于损失函数阈值;以完成一次训练,并记录对应的训练次数;
具体来说,所述权重与预先设定的数值,由于距离度量函数的大小受到分类损失函数和回归损失函数对神经网络约束作用的影响,因此通过改变分类损失函数和回归损失函数的数值,即可对三个度量函数的大小进行影响,进而影响整体损失函数的数值。具体来说,所述损失函数阈值在本实施例中使用0.1,也就是说,当整体损失函数为0.1以下的时候,即可认为新训练的神经网络模型与原模型的识别精度差距不大。
S9、判断训练次数是否达到预定训练次数,若是,则终止训练;若否,将所述第三深度学习神经网络模型作为新的第二深度学习神经网络模型,再从所述训练样本集中重新抽取与第二样本图片数量相等的缺陷图片,作为新的第三样本图片,并返回步骤S3。
具体来说,本申请是想要对新训练的神经网络模型进行约束,以使新训练的神经网络模型与最初的神经网络模型的特征提取差距不大,这样就需要在整体损失函数的约束下,一次次地进行循环训练,在所述步骤S9中,将所述第二深度学习神经网络模型作为新的第一深度学习神经网络模型,也就是将所述第二样本图片输入到进行一次约束后的第二神经网络模型中进行训练,生成对应的第三神经网络模型,然后依次执行后续步骤;再从所述训练样本集中重新抽取与第二样本图片数量相等的缺陷图片,输入到训练后的第三神经网络中生成第四神经网络,以此类推。在实际应用中,为了提高深度学习神经网络模型对新缺陷的识别准确度,以及提高新的深度学习神经网络模型的缺陷识别程度,可以持续进行上述的循环步骤,综合来说,当上述循环步骤循环100次以上的情况下,就可以让整体损失函数小于损失函数阈值了,而在实际训练过程中,通常让上述的训练过程循环300轮,以保证训练后的深度学习神经网络模型可以准确识别新缺陷的情况下,不对原本的缺陷检测精度产生较大的影响。同时,相比传统的训练方法,将新缺陷照片混合到原有的训练样本集中,进行重新训练,采用本申请的训练方法,训练速度可以提高50倍以上,同时还可以保证识别精度不会降低。
进一步地,如图2所示,所述步骤S1,包括以下步骤:
S11、对若干所述第一样本图片分别使用图像金字塔或者openCV resize函数进行尺寸调整,对应生成若干第一样本裁切图片;
S12、对若干所述第一样本裁切图片分别进行灰度处理,对应生成若干第一样本灰度图片;
S13、对若干所述第一样本灰度图分别进行亮度调整,对应生成若干第二样本图片。
进一步地,所述步骤S13,包括,对若干所述第一样本灰度图分别使用直方图均衡化,对应生成若干第二样本图片。
进一步地,所述回归损失函数使用GloU损失函数,所述GloU损失函数表达式为:
式中,A为未训练缺陷所在的实际位置边界框,B为神经网络预测边界框,C为包围A和B的闭包,所述闭包也就是可以包裹住A边界框和B边界框的最小的矩形框(在A边界框和B边界框均为矩形框的情况下),这样就可以对预测值和实际值之间的差距进行判断,并进行对应的约束,以提高预测的准确性。
进一步地,所述分类损失函数采用Focal Loss损失函数,所述focal损失函数表达式为:
FL(pt)=-(1-pt)γlog(pt)
式中,p为所述第一深度学习神经网络模型预测到的标签的概率,pt为关于p的映射函数,γ为调节因子,y为正负样本。
进一步地,所述第一距离度量函数、第二距离度量函数以及第三距离度量函数均使用ranking loss损失函数;所述rank loss损失函数表达式为:
L(x0,x1,y)=y||f(x0)-f(x1)||+(1-y)max(0,||f(x0)-f(x1)||)
式中,x0和x1分别表示样本对两个特征向量的表征,y为二值数,当输入的两个特征向量为正样本的时候,y为1,当输入的两个特征向量为负样本的时候,y为0。本表达式也就是通过将同一张图片输入不同的神经网络中,然后对比两个神经网络中间层所产生的特征向量之间的差异,判断两个神经网络中间层之间是否存在差异。
进一步地,所述损失函数阈值为0.1,也就是说,在加权求和之后,整体损失函数在0.1的条件下,即可视为训练后的深度学习神经网络模型与原神经网络之间相差不大。
综上所述,本申请主要分为三步,第一、从原训练样本集中选取与新缺陷训练样本数量相同的训练样本;
第二、将新缺陷图片输入深度学习神经网络模型进行训练,以使所述深度学习神经网络模型可以识别新的缺陷,但是这也会对神经网络的原有的识别能力产生影响;
第三、为了判别新的神经网络产生的改变有多大,需要将原本的训练集中取出的训练样本分别输入到原本的神经网络中和新的神经网络中,然后根据主干网络层输出的特征向量、混合网络层输出的特征向量以及预测网络层输出的特征向量之间的差异。
根据上述方法,可以生成整体训练损失函数,由于深度学习神经网络模型的更改是根据分类损失函数以及回归损失函数的约束进行更改的,因此通过修改分类损失函数以及回归损失函数就可以调整对应的层之间的向量差异,以使整体损失函数保持在一个较低的水平,也就是整体损失函数不高于损失函数阈值,这样就可以在不降低原有缺陷识别精度的前提下,使神经网络可以对新缺陷进行识别。同时相比传统的训练方法,本申请提供的训练方法在提高50倍训练速度的情况下可以保持相当的精度,在提高100倍训练速度的情况下精度有略微的降低,但是仍然可以满足坯布表面缺陷的检测的精度需要。
如图3所示,本发明还提供了一种坯布缺陷模型的快速训练系统包括:
图像获取模块,用于获取若干包含未训练缺陷的第一样本图片;
图像处理模块,用于对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;
图像抽取模块:用于从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;
特征向量获取模块;用于获取深度学习神经网络模型的主干网络层、混合网络层以及预测网络层输出三个特征向量;
神经网络训练模块:用于将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数以及回归损失函数,并根据所述分类损失函数以及回归损失函数对所述第二深度学习神经网络模型进行约束,对应生成第三深度学习神经网络模型;
特征向量比对模块:用于分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
损失函数计算模块:用于根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成整体损失函数,并使所述整体损失函数小于损失函数阈值;
循环计数模块:用于统计训练的次数,并判断训练次数是否达到预定训练次数。
关于坯布缺陷模型的快速训练系统的具体限定可以参见上文中对于坯布缺陷模型的快速训练方法的限定,在此不再赘述。上述坯布缺陷模型的快速训练系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机程序被处理器执行时以实现坯布缺陷模型的快速训练方法。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
S1、获取若干包含未训练缺陷的第一样本图片,对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;
S2、获取预先训练好的第一深度学习神经网络模型、第二深度学习神经网络模型以及对应的训练样本集,并从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;其中所述第一深度学习神经网络模型和第二深度学习神经网络模型相同;
S3、将若干所述第三样本图片输入所述第一深度学习神经网络模型,获取所述第一深度学习神经网络模型的主干网络层输出的第一特征向量、混合网络层输出的第二特征向量、预测网络层输出的第三特征向量;
S4、将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数及回归损失函数;
S5、根据所述分类损失函数和回归损失函数对所述第二深度学习神经网络模型进行约束,生成对应的第三深度学习神经网络模型;
S6、将若干所述第三样本图片输入所述第三深度学习神经网络模型,获取所述第三深度学习神经网络模型的主干网络层输出的第四特征向量、混合网络层输出的第五特征向量以及预测网络层输出的第六特征向量;
S7、分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
S8、根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成对应的整体损失函数,并使所述整体损失函数小于损失函数阈值;以完成一次训练,并记录对应的训练次数;
S9、判断训练次数是否达到预定训练次数,若是,则终止训练;若否,将所述第三深度学习神经网络模型作为新的第二深度学习神经网络模型,再从所述训练样本集中重新抽取与第二样本图片数量相等的缺陷图片,作为新的第三样本图片,并返回步骤S3。
在一个实施例中,所述步骤S1,包括以下步骤:
S11、对若干所述第一样本图片分别使用图像金字塔或者openCVresize函数进行尺寸调整,对应生成若干第一样本裁切图片;
S12、对若干所述第一样本裁切图片分别进行灰度处理,对应生成若干第一样本灰度图片;
S13、对若干所述第一样本灰度图分别进行亮度调整,对应生成若干第二样本图片。
在一个实施例中,所述步骤S13,包括,对若干所述第一样本灰度图分别使用直方图均衡化,对应生成若干第二样本图片。
在一个实施例中,所述回归损失函数使用GloU损失函数,所述GloU损失函数表达式为:
式中,A为未训练缺陷所在的实际位置边界框,B为神经网络预测边界框,C为包围A和B的闭包。
在一个实施例中,所述分类损失函数采用Focal Loss损失函数,所述focal损失函数表达式为:
FL(pt)=-(1-pt)γlog(pt)
式中,p为所述第一深度学习神经网络模型预测到的标签的概率,γ为调节因子,y为正负样本。
在一个实施例中,所述第一距离度量函数、第二距离度量函数以及第三距离度量函数均使用ranking loss损失函数;所述rank loss损失函数表达式为:
L(x0,x1,y)=y||f(x0)-f(x1)||+(1-y)max(0,||f(x0)-f(x1)||)
式中,x0和x1分别表示样本对两个特征向量的表征,y为二值数,当输入的两个特征向量为正样本的时候,y为1,当输入的两个特征向量为负样本的时候,y为0。
在一个实施例中,所述损失函数阈值为0.1。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
综上所述,本申请通过随机抽取旧缺陷样本集,并将旧样本同时输入到新神经网络和旧神经网络中,对应生成各个层的输出的特征向量,并且通过计算各个层所输出的特征向量的距离度量函数,对神经网络的差异进行标定,并且通过损失函数的约束,以使神经网络在重新学习新缺陷的特征的同时不会对原本的特征提取能力存在精度影响问题。相比传统的训练方式,本申请提供的训练方式训练速度更快,且不会影响原有的特征提取精度。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种坯布缺陷模型的快速训练方法,其特征在于,包括以下步骤:
S1、获取若干包含未训练缺陷的第一样本图片,对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;
S2、获取预先训练好的第一深度学习神经网络模型、第二深度学习神经网络模型以及对应的训练样本集,并从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;其中所述第一深度学习神经网络模型和第二深度学习神经网络模型相同;
S3、将若干所述第三样本图片输入所述第一深度学习神经网络模型,获取所述第一深度学习神经网络模型的主干网络层输出的第一特征向量、混合网络层输出的第二特征向量、预测网络层输出的第三特征向量;
S4、将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数及回归损失函数;
S5、根据所述分类损失函数和回归损失函数对所述第二深度学习神经网络模型进行约束,生成对应的第三深度学习神经网络模型;
S6、将若干所述第三样本图片输入所述第三深度学习神经网络模型,获取所述第三深度学习神经网络模型的主干网络层输出的第四特征向量、混合网络层输出的第五特征向量以及预测网络层输出的第六特征向量;
S7、分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
S8、根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成对应的整体损失函数,并使所述整体损失函数小于损失函数阈值;以完成一次训练,并记录对应的训练次数;
S9、判断训练次数是否达到预定训练次数,若是,则终止训练;若否,将所述第三深度学习神经网络模型作为新的第二深度学习神经网络模型,再从所述训练样本集中重新抽取与第二样本图片数量相等的缺陷图片,作为新的第三样本图片,并返回步骤S3。
2.根据权利要求1所述的一种坯布缺陷模型的快速训练方法,其特征在于,所述步骤S1,包括以下步骤:
S11、对若干所述第一样本图片分别使用图像金字塔或者openCVresize函数进行尺寸调整,对应生成若干第一样本裁切图片;
S12、对若干所述第一样本裁切图片分别进行灰度处理,对应生成若干第一样本灰度图片;
S13、对若干所述第一样本灰度图分别进行亮度调整,对应生成若干第二样本图片。
3.根据权利要求2所述的一种坯布缺陷模型的快速训练方法,其特征在于,所述步骤S13,包括,对若干所述第一样本灰度图分别使用直方图均衡化,对应生成若干第二样本图片。
6.根据权利要求1所述的一种坯布缺陷模型的快速训练方法,其特征在于,所述第一距离度量函数、第二距离度量函数以及第三距离度量函数均使用ranking loss损失函数;所述rank loss损失函数表达式为:
L(x0,x1,y)=y‖f(x0)-f(x1)‖+(1-y)max(0,‖f(x0)-f(x1)‖)
式中,x0和x1分别表示样本对两个特征向量的表征,y为二值数,当输入的两个特征向量为正样本的时候,y为1,当输入的两个特征向量为负样本的时候,y为0。
7.根据权利要求1所述的一种坯布缺陷模型的快速训练方法,其特征在于,所述损失函数阈值为0.1。
8.一种坯布缺陷模型的快速训练系统,其特征在于,包括:
图像获取模块,用于获取若干包含未训练缺陷的第一样本图片;
图像处理模块,用于对若干所述第一样本图片进行预处理,对应生成若干第二样本图片;
图像抽取模块:用于从所述训练样本集中随机筛选出与第二样本图片数量相等的第三样本图片;
特征向量获取模块;用于获取深度学习神经网络模型的主干网络层、混合网络层以及预测网络层输出三个特征向量;
神经网络训练模块:用于将若干所述第二样本图片输入所述第二深度学习神经网络模型中进行训练,生成对应的分类损失函数以及回归损失函数,并根据所述分类损失函数以及回归损失函数对所述第二深度学习神经网络模型进行约束,对应生成第三深度学习神经网络模型;
特征向量比对模块:用于分别计算所述第一特征向量与第四特征向量之间的第一距离度量函数、所述第二特征向量与第五特征向量之间的第二距离度量函数以及所述第三特征向量与第六特征向量之间的第三距离度量函数;
损失函数计算模块:用于根据所述分类损失函数、回归损失函数、第一距离度量函数、第二距离度量函数以及第三距离度量函数所占权重加权求和,生成整体损失函数,并使所述整体损失函数小于损失函数阈值;
循环计数模块:用于统计训练的次数,并判断训练次数是否达到预定训练次数。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211090069.9A CN115601300A (zh) | 2022-09-07 | 2022-09-07 | 一种坯布缺陷模型的快速训练方法、系统、介质及计算机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211090069.9A CN115601300A (zh) | 2022-09-07 | 2022-09-07 | 一种坯布缺陷模型的快速训练方法、系统、介质及计算机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115601300A true CN115601300A (zh) | 2023-01-13 |
Family
ID=84842630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211090069.9A Pending CN115601300A (zh) | 2022-09-07 | 2022-09-07 | 一种坯布缺陷模型的快速训练方法、系统、介质及计算机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601300A (zh) |
-
2022
- 2022-09-07 CN CN202211090069.9A patent/CN115601300A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245662B (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
CN110599451B (zh) | 医学图像病灶检测定位方法、装置、设备及存储介质 | |
CN111723860B (zh) | 一种目标检测方法及装置 | |
CN109271870B (zh) | 行人重识别方法、装置、计算机设备及存储介质 | |
CN109063742B (zh) | 蝴蝶识别网络构建方法、装置、计算机设备及存储介质 | |
CN111368758B (zh) | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 | |
WO2021114809A1 (zh) | 车辆损伤特征检测方法、装置、计算机设备及存储介质 | |
CN110807491A (zh) | 车牌图像清晰度模型训练方法、清晰度检测方法及装置 | |
CN111814850A (zh) | 缺陷检测模型训练方法、缺陷检测方法及相关装置 | |
CN108830197A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110956628B (zh) | 图片等级分类方法、装置、计算机设备和存储介质 | |
CN112668462B (zh) | 车损检测模型训练、车损检测方法、装置、设备及介质 | |
CN114998324A (zh) | 半导体晶圆缺陷检测模型的训练方法及装置 | |
AU2017443986B2 (en) | Color adaptation using adversarial training networks | |
CN116228678A (zh) | 芯片封装缺陷自动识别和处理方法 | |
CN111340025A (zh) | 字符识别方法、装置、计算机设备和计算机可读存储介质 | |
CN111553431A (zh) | 图片清晰度检测方法、装置、计算机设备及存储介质 | |
US20240119584A1 (en) | Detection method, electronic device and non-transitory computer-readable storage medium | |
CN116740728B (zh) | 一种用于晶圆读码器动态获取方法和系统 | |
CN115601300A (zh) | 一种坯布缺陷模型的快速训练方法、系统、介质及计算机 | |
CN115937107A (zh) | 一种两阶段坯布缺陷检测方法、系统、介质及计算机 | |
CN115311248A (zh) | 基于坯布纹理的缺陷模型匹配方法、介质以及电子设备 | |
CN110969193A (zh) | 织物图像获取方法、装置、计算机设备和存储介质 | |
CN113283388B (zh) | 活体人脸检测模型的训练方法、装置、设备及存储介质 | |
CN115620083A (zh) | 模型训练方法、人脸图像质量评价方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |