CN114998202A - 一种半监督深度学习缺陷检测方法 - Google Patents

一种半监督深度学习缺陷检测方法 Download PDF

Info

Publication number
CN114998202A
CN114998202A CN202210446071.9A CN202210446071A CN114998202A CN 114998202 A CN114998202 A CN 114998202A CN 202210446071 A CN202210446071 A CN 202210446071A CN 114998202 A CN114998202 A CN 114998202A
Authority
CN
China
Prior art keywords
neural network
convolutional neural
data
student
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210446071.9A
Other languages
English (en)
Inventor
刘叶清
郑小青
郑松
孔亚广
江爱朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202210446071.9A priority Critical patent/CN114998202A/zh
Publication of CN114998202A publication Critical patent/CN114998202A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种半监督深度学习缺陷检测方法,将训练样本数据按有无标签分类;初始化学生卷积神经网络Fs(m)的权重参数m;初始化教师卷积神经网络参数Ft(m)=Copy(Fs(m)),教师卷积神经网络和参数均从学生卷积神经网络复制;获得了学生卷积神经网络Fs(m)和教师卷积神经网络Ft(m)以及始化权重参数后,对学生卷积神经网络和教师卷积神经网络进行训练;获得经过训练的网络可用学生卷积神经网络进行缺陷检测工作,将需要被检测的数据输入学生卷积神经网络,学生卷积神经网络预测其有无缺陷或者属于哪一类缺陷。本发明基于半监督深度学习架构Fixmatch和平均教师模型的缺陷检测方法,需要少量标签数据即可实现高精度的工业产品表面缺陷自动检测。

Description

一种半监督深度学习缺陷检测方法
技术领域
本发明属于自动缺陷检测技术领域,涉及一种半监督深度学习缺陷检测方法。
背景技术
工业制造需要高精度的自动缺陷检测技术(ASI)检测产品表面的不同类型缺陷,比如钢表面上的划痕、孔、凹坑和凸起进行检测。这些缺陷会影响产品的性能和美观性,造成相当大的经济损失。
人工检测方法效率低下,而且人力成高。深度学习的最新进展产生了新的方法,它可以自动从训练样本中学习高级特征,同时对缺陷进行分类,而不需要手动设计特征集。
深度学习方法可以分为监督学习、无监督学习和半监督学习。监督学习方法基于CNN,在给定大量的训练数据条件下,可以实现高精度缺陷,但是监督学习严重依赖人力来收集和标记训练样本。通过无监督或半监督的学习方法,可以缓解大量标记样本的缺乏。流行的ASI深度无监督学习方法是深度自动编码器和生成对抗网络(GAN),无监督学习的缺点是,它通常不像监督学习那样可靠或准确;而半监督学习将监督学习与无监督学习的优点结合起来,可以获得与监督学习类似甚至更好的精度,但使用更少的标记样本。
发明内容
为解决上述问题,本发明提供一种半监督深度学习缺陷检测方法,包括以下步骤:
S10,将训练样本数据按有无标签分类;
S20,初始化学生卷积神经网络Fs(m)的权重参数m;
S30,初始化教师卷积神经网络参数Ft(m)=Copy(Fs(m)),教师卷积神经网络和参数均从学生卷积神经网络复制;
S40,获得了学生卷积神经网络Fs(m)和教师卷积神经网络Ft(m)以及始化权重参数后,对学生卷积神经网络和教师卷积神经网络进行训练;
S50,获得经过训练的学生卷积神经网络和教师卷积神经网络,至此可用学生卷积神经网络进行缺陷检测工作,将需要被检测的数据输入学生卷积神经网络,学生卷积神经网络预测其有无缺陷或者属于哪一类缺陷。
优选地,所述S10具体包括将训练样本数据分成有标签数据样本X={(xb,yb):b(1,....,B1)}和无标签数据样本U={ub:b(1,....,B2)},其中xb是有标签数据样本的图片数据,yb是其标签数据,ub是其无标签样本数据的图片数据,设置训练批次Bi,Bi表示第i个批次数量,包括B1=32或B2=128。
优选地,所述S20中学生卷积神经网络Fs(m)采用resnet34网络架构,同时结合SNAM注意力模块来提升网络提取图像特征的分辨能力,即在resnet的残差模块末端添加SNAM注意力模块,具体为图像特征输入经过两个卷积层Conv1和Conv2后进入SNAM注意力模块,然后将特征输出与输入特征相加。
优选地,所述SNAM注意力模块在NAM注意力机制上使用批归一化的比例因子γ来表示权重的重要性,比例因子γ测量的是方差,方差越大,说明该通道包含的信息越丰富,该通道信息就越重要,具体公式为:
Figure BDA0003616929620000021
其中,Bin是图像特征输入,μB和σ2B分别为小批次B的平均值和方差;γ和β分布表示可训练的比例因子和位移。
优选地,所述SNAM注意力模块的输出特征Mc由下式得到:
MC=sigmoid(Wγ(BN(F1))) (2)
其中,F1是输入特征,BN是批归一化层即BN层,W是权值向量,sigmoid是sigmoid激活函数,γ为每个通道的比例因子,每一个通道经过批归一化BN计算后再乘以一个权值,其权值为
Figure BDA0003616929620000031
其中,T是超参数,T决定锐化程度,C是通道数量,γi和γj分别表示第i个通道和第j个通道的比例因子,输入特征F1经过BN层后,其每个通道乘以一个权值wi后再被输入sigmoid激活函数,至此,SNAM注意力模块计算完毕。
优选地,所述S30中教师卷积神经网络训练在t时刻时的网络权重为:
θt^=αθt-1^+(1-α)θt (3)
其中,α是系数,θt-1^是t-1时刻教师卷积神经网络的权重,θt是t时刻学生卷积神经网络的权重,θt^是t时刻教师卷积神经网络的权重。
优选地,所述S40中训练是以批次数据为单位将训练数据输入神经网络进行训练,即一次训练过程中将B1个有标签数据和B2个无标签数据输入神经网络。
优选地,所述S40中定义当前叙述的是t时刻的训练流程,其中使用fixmatch的数据增强方式,即采取弱增强数据扩增方式对有标签数据和计算无标签数据的伪标签,采取强增强数据扩增方式对计算无标签数据的预测值。
优选地,所述弱增强数据扩增方式包括对图片以50%的概率执行随机水平翻转或者随机裁剪操作。
优选地,所述强增强数据扩增方式包括:给出一系列转换函数,转换函数包括颜色反转、平移、对比度调整、旋转、调整图像的锐度、使图像变模糊、调整图像的平滑度、使过度曝光或裁剪,数据随机从中选择两种转换函数。
本发明有益效果至少包括:本发明采用半监督学习将监督学习与无监督学习的优点结合起来,可以获得与监督学习类似甚至更好的精度,但使用更少的标记样本。
本发明的一种基于半监督深度学习架构Fixmatch和平均教师模型的缺陷检测方法,需要少量标签数据就可以实现高精度的工业产品表面缺陷自动检测。
附图说明
图1为本发明半监督深度学习缺陷检测方法的步骤流程图;
图2为本发明半监督深度学习缺陷检测方法的残差模块和SNAM注意力模块示意图;
图3为本发明半监督深度学习缺陷检测方法的SNAM注意力模块原理图;
图4为本发明半监督深度学习缺陷检测方法的卷积网络训练流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
参见图1,为本发明实施例的本发明的技术方案为半监督深度学习缺陷检测方法的示意图,包括以下步骤:
S10,将训练样本数据按有无标签分类;
S20,初始化学生卷积神经网络Fs(m)的权重参数m;
S30,初始化教师卷积神经网络参数Ft(m)=Copy(Fs(m)),教师卷积神经网络和参数均从学生卷积神经网络复制;
S40,获得了学生卷积神经网络Fs(m)和教师卷积神经网络Ft(m)以及始化权重参数后,对学生卷积神经网络和教师卷积神经网络进行训练;
S50,获得经过训练的学生卷积神经网络和教师卷积神经网络,至此可用学生卷积神经网络进行缺陷检测工作,将需要被检测的数据输入学生卷积神经网络,学生卷积神经网络预测其有无缺陷或者属于哪一类缺陷。
S10具体包括将所有有标签数据按照3:7的比例分成测试数据集T={(xb,yb):b(1,....,B0)},有标签训练数据集X={(xb,yb):b(1,....,B1)},所有无标签数据划分为无标签训练数据集U={ub:b(1,....,B2)},其中测试数据集T和有标签训练数据集X的数据都包含图片数据xb和标签数据yb,无标签训练数据集U只包含图片数据ub,没有标签数据。设置训练批次Bi,Bi表示第i个批次数量,包括B1=32或B2=128,B0为测试数据集全部样本的数量。
S20中学生卷积神经网络Fs(m)采用resnet34网络架构,同时结合SNAM注意力模块来提升网络提取图像特征的分辨能力,即在resnet的残差模块末端添加SNAM注意力模块,具体为图像特征输入经过两个卷积层Conv1和Conv2后进入SNAM注意力模块,然后将特征输出与输入特征相加。参见图2。
SNAM注意力模块在NAM注意力机制上使用批归一化的比例因子γ来表示权重的重要性,比例因子γ测量的是方差,方差越大,说明该通道包含的信息越丰富,该通道信息就越重要,具体公式为:
Figure BDA0003616929620000051
其中,Bin是图像特征输入,μB和σ2B分别为小批次B的平均值和方差;γ和β分布表示可训练的比例因子和位移。
参见图3,SNAM注意力模块的输出特征Mc由下式得到:
MC=sigmoid(Wγ(BN(F1))) (2)
其中,F1是输入特征,BN是批归一化层即BN层,W是权值向量,sigmoid是sigmoid激活函数,γ为每个通道的比例因子,每一个通道经过批归一化BN计算后再乘以一个权值,其权值为
Figure BDA0003616929620000052
其中,T是超参数,T决定锐化程度,C是通道数量,γi和γj分别表示第i个通道和第j个通道的比例因子,输入特征F1经过BN层后,其每个通道乘以一个权值wi后再被输入sigmoid激活函数,至此,SNAM注意力模块计算完毕。
本发明的SNAM注意力模块是改进了现有NAM的权值计算公式,SNAM借鉴锐化函数,提出了一个新的权值计算公式
Figure BDA0003616929620000061
(其中T是温度T,C是通道数量,i和j分别表示第i个通道和第j个通道),这个公式可以对一个向量的数据锐化,即较大的数据变大,较小的数据变小,可以放大数据之间的差距。在现有NAM方法中,每一个通道信息都乘以一个权值,权值的计算公式是
Figure BDA0003616929620000062
其中权值wi是一个小于1的数,这样利用每一个通道信息都乘以权值实现抑制不显著信息。在SNAM中,权值wi有的大于1,有的小于1,对于比例因子γi较大的通道,它的wi是大于1的,同理,对于比例因子较小的通道,它的wi是小于0的。SNAM可以突出显著信息,抑制不显著信息。
S30中这里的教师卷积神经网络是借鉴平均教师模型,教师模型与学生模型使用了同样的网络架构,其中教师的网络权重是学生卷积神经网络权重的指数移动平均值EMA。具体来说,教师卷积神经网络训练在t时刻时的网络权重为:
θt^=αθt-1^+(1-α)θt (3)
其中,α是系数,θt-1^是t-1时刻教师卷积神经网络的权重,θt是t时刻学生卷积神经网络的权重,θt^是t时刻教师卷积神经网络的权重。
S40中训练是以批次数据为单位将训练数据输入神经网络进行训练,即一次训练过程中将B1个有标签数据和B2个无标签数据输入神经网络。
S40中定义当前叙述的是t时刻的训练流程,其中使用fixmatch的数据增强方式,即采取弱增强数据扩增方式对有标签数据和计算无标签数据的伪标签,采取强增强数据扩增方式对计算无标签数据的预测值。
弱增强数据扩增方式包括对图片以50%的概率执行随机水平翻转或者随机裁剪操作。这两种操作都能起到增加数据数量,缓解神经网络训练过程中的过拟合问题,但不会引起图片的严重失真。
强增强数据扩增方式包括:给出一系列转换函数,转换函数包括颜色反转、平移、对比度调整、旋转、调整图像的锐度、使图像变模糊、调整图像的平滑度、使过度曝光或裁剪,数据随机从中选择两种转换函数。强增强操作可以有效的扩充图片数据,缓解神经网络训练过程中的过拟合问题。另外,图片数据经过这些转换后往往与原图差异较大,因此称为强增强。
S40具体包括:
S41,X_a=a(xb)
首先对有标签样本X的图片数据xb进行弱増强数据扩增,定义a()为弱增强数据扩增,弱增强数据扩增详细描述参考前述描述,X_a为经过弱增强数据扩增的有标签数据样本图片数据。
S42,Predict_X_a=Fs_t-1(X_a)
经过弱增强数据扩增的有标签数据X_a输入到学生卷积神经网络计算预测值Predict_X_a。参见图4,学生卷积神经网络是Fs_t-1(m),其中t-1表示当前网络的权重参数是t-1时刻学习到的。
S43,Loss_X=H(yb,Predict_X_a)
计算有标签数据的损失值,即利用交叉熵函数H计算有标签数据的预测值与有标签数据标签yb的交叉熵,得到有标签数据的损失值。具体的交叉熵H的计算公式为
Figure BDA0003616929620000071
p(x)和q(x)分别表示表示真实概率分布和预测概率分布。
S44,U_A=A(ub)
对无标签样本的图片数据ub进行强增强数据扩增,强增强数据扩增详解参考前述描述,定义A()为强增强数据扩增,U_A为经过强增强数据扩增的无标签样本的图片数据。
S45,Predict_U_A=Fs_t-1(U_A)
经过强增强数据扩增的无标签数据输入到学生卷积神经网络,通过学生卷积神经网络计算其预测值。Predict_U_A为其预测值。
S46,U_a=a(ub)
对无标签样本的图片数据ub进行弱增强数据扩增,弱增强数据扩增详解参考前述描述,U_a为经过弱增强数据扩增的无标签样本的图片数据。
S47,Predict_U_a=Ft_t-1(U_a)
将经过弱増强数据扩增的无标签数据输入到教师卷积神经网络,通过教师卷积神经网络计算其预测值。
S48,If Predict_U_a>T:
Pseudo_label=Predict_U_a
经过S47获得了教师卷积神经网络对弱增强版本的无标签数据的预测值Predict_U_a,如果其预测值高于阈值T,那么保留预测值作为该无标签数据的伪标签;如果其最大值没有超过阈值T,那么本次训练将抛弃该样本,不允许该样本参与本次训练。
我们将阈值T设为0.95,如果最大值超过阈值T,那么我们认为该样本的预测结果和其真实标签是一致的。我们将保留这个样本参与无标签数据损失项的计算,并且把教师卷积神经网络的预测作为这个样本的伪标签。
S49,Loss_U=H(Pseudo_label,Predict_U_A)
通过S45获得了经过强增强数据扩增的无标签数据的预测值Predict_U_A与S48获得了的无标签数据的伪标签Pseudo_label,利用交叉熵损失函数计算无标签数据的预测值和伪标签的交叉熵作为无标签数据的损失值Loss_U。
S410,Loss_X+Loss_U
将有标签数据损失值和无标签数据损失值相加作为总损失值。
S411,使用随机梯度下降(SGD)更新学生卷积神经网络Fs_t-1(m)的权重参数m。
随机梯度下降(SGD)就是在批量样本上应用梯度下降算法计算它们的梯度均值来得到梯度,再更新神经网络权重参数。
S412,在S411更新完学生卷积神经网络权重之后,使用更新完的学生卷积神经网络Fs_t(m)权重参数更新教师卷积神经网络Ft_t-1(m)。教师卷积神经网络的更新方法参考S30。
S413,通过S411和S412分别完成了学生卷积神经网络权重参数和教师卷积神经网络t时刻的训练。将测试数据集T的全部图片数据直接输入更新后的学生卷积神经网络进行预测,将预测结果和其标签进行比对计算准确率,准确率的测试公式如下:
Figure BDA0003616929620000091
ACC表示准确率,T表示学生卷积神经网络预测值和图片标签一致的样本数量,B0表示全部测试数据集的数量。
重复执行S40对学生卷积神经卷积神经网络和教师网络进行训练并计算测试数据集的准确率,当测试数据集的准确率每一次都能达到要求比如100%时,学生卷积神经网络和教师卷积神经网络训练完毕。
S50,经过S40之后我们获得了经过训练的学生卷积神经网络和教师卷积神经网络,至此,可以利用学生卷积神经网络进行缺陷检测工作。将需要被检测的数据输入学生卷积神经网络,学生卷积神经网络就可以预测其有无缺陷或者属于哪一类缺陷。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种半监督深度学习缺陷检测方法,其特征在于,包括以下步骤:
S10,将训练样本数据按有无标签分类;
S20,初始化学生卷积神经网络Fs(m)的权重参数m;
S30,初始化教师卷积神经网络参数Ft(m)=Copy(Fs(m)),教师卷积神经网络和参数均从学生卷积神经网络复制;
S40,获得了学生卷积神经网络Fs(m)和教师卷积神经网络Ft(m)以及始化权重参数后,对学生卷积神经网络和教师卷积神经网络进行训练;
S50,获得经过训练的学生卷积神经网络和教师卷积神经网络,至此可用学生卷积神经网络进行缺陷检测工作,将需要被检测的数据输入学生卷积神经网络,学生卷积神经网络预测其有无缺陷或者属于哪一类缺陷。
2.根据权利要求1所述的一种半监督深度学习缺陷检测方法,其特征在于,所述S10具体包括将训练样本数据分成有标签数据样本X={(xb,yb):b(1,....,B1)}和无标签数据样本U={ub:b(1,....,B2)},其中xb是有标签数据样本的图片数据,yb是其标签数据,ub是其无标签样本数据的图片数据,设置训练批次Bi,Bi表示第i个批次数量,包括B1=32或B2=128。
3.根据权利要求2所述的一种半监督深度学习缺陷检测方法,其特征在于,所述S20中学生卷积神经网络Fs(m)采用resnet34网络架构,同时结合SNAM注意力模块来提升网络提取图像特征的分辨能力,即在resnet的残差模块末端添加SNAM注意力模块,具体为图像特征输入经过两个卷积层Conv1和Conv2后进入SNAM注意力模块,然后将特征输出与输入特征相加。
4.根据权利要求3所述的一种半监督深度学习缺陷检测方法,其特征在于,所述SNAM注意力模块在NAM注意力机制上使用批归一化的比例因子γ来表示权重的重要性,比例因子γ测量的是方差,方差越大,说明该通道包含的信息越丰富,该通道信息就越重要,具体公式为:
Figure FDA0003616929610000021
其中,Bin是图像特征输入,μB和σ2B分别为小批次B的平均值和方差;γ和β分布表示可训练的比例因子和位移。
5.根据权利要求4所述的一种半监督深度学习缺陷检测方法,其特征在于,所述SNAM注意力模块的输出特征Mc由下式得到:
MC=sigmoid(Wγ(BN(F1))) (2)
其中,F1是输入特征,BN是批归一化层即BN层,W是权值向量,sigmoid是sigmoid激活函数,γ为每个通道的比例因子,每一个通道经过批归一化BN计算后再乘以一个权值,其权值为
Figure FDA0003616929610000022
其中,T是超参数,T决定锐化程度,C是通道数量,γi和γj分别表示第i个通道和第j个通道的比例因子,输入特征F1经过BN层后,其每个通道乘以一个权值wi后再被输入sigmoid激活函数,至此,SNAM注意力模块计算完毕。
6.根据权利要求5所述的一种半监督深度学习缺陷检测方法,其特征在于,所述S30中教师卷积神经网络训练在t时刻时的网络权重为:
θt^=αθt-1^+(1-α)θt (3)
其中,α是系数,θt-1^是t-1时刻教师卷积神经网络的权重,θt是t时刻学生卷积神经网络的权重,θt^是t时刻教师卷积神经网络的权重。
7.根据权利要求6所述的一种半监督深度学习缺陷检测方法,其特征在于,所述S40中训练是以批次数据为单位将训练数据输入神经网络进行训练,即一次训练过程中将B1个有标签数据和B2个无标签数据输入神经网络。
8.根据权利要求7所述的一种半监督深度学习缺陷检测方法,其特征在于,所述S40中定义当前叙述的是t时刻的训练流程,其中使用fixmatch的数据增强方式,即采取弱增强数据扩增方式对有标签数据和计算无标签数据的伪标签,采取强增强数据扩增方式对计算无标签数据的预测值。
9.根据权利要求8所述的一种半监督深度学习缺陷检测方法,其特征在于,所述弱增强数据扩增方式包括对图片以50%的概率执行随机水平翻转或者随机裁剪操作。
10.根据权利要求9所述的一种半监督深度学习缺陷检测方法,其特征在于,所述强增强数据扩增方式包括:给出一系列转换函数,转换函数包括颜色反转、平移、对比度调整、旋转、调整图像的锐度、使图像变模糊、调整图像的平滑度、使过度曝光或裁剪,数据随机从中选择两种转换函数。
CN202210446071.9A 2022-04-26 2022-04-26 一种半监督深度学习缺陷检测方法 Pending CN114998202A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210446071.9A CN114998202A (zh) 2022-04-26 2022-04-26 一种半监督深度学习缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210446071.9A CN114998202A (zh) 2022-04-26 2022-04-26 一种半监督深度学习缺陷检测方法

Publications (1)

Publication Number Publication Date
CN114998202A true CN114998202A (zh) 2022-09-02

Family

ID=83025682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210446071.9A Pending CN114998202A (zh) 2022-04-26 2022-04-26 一种半监督深度学习缺陷检测方法

Country Status (1)

Country Link
CN (1) CN114998202A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937103A (zh) * 2022-11-19 2023-04-07 吉林大学 基于深度学习的碱性磷酸酶浓度检测方法及应用软件
CN116385809A (zh) * 2023-06-05 2023-07-04 山东第一医科大学附属省立医院(山东省立医院) 一种基于半监督学习的mri脑肿瘤分类方法及系统
CN116402838A (zh) * 2023-06-08 2023-07-07 吉林大学 一种用于颅内出血的半监督图像分割方法及系统
CN116596916A (zh) * 2023-06-09 2023-08-15 北京百度网讯科技有限公司 缺陷检测模型的训练和缺陷检测方法及其装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937103A (zh) * 2022-11-19 2023-04-07 吉林大学 基于深度学习的碱性磷酸酶浓度检测方法及应用软件
CN116385809A (zh) * 2023-06-05 2023-07-04 山东第一医科大学附属省立医院(山东省立医院) 一种基于半监督学习的mri脑肿瘤分类方法及系统
CN116402838A (zh) * 2023-06-08 2023-07-07 吉林大学 一种用于颅内出血的半监督图像分割方法及系统
CN116402838B (zh) * 2023-06-08 2023-09-15 吉林大学 一种用于颅内出血的半监督图像分割方法及系统
CN116596916A (zh) * 2023-06-09 2023-08-15 北京百度网讯科技有限公司 缺陷检测模型的训练和缺陷检测方法及其装置

Similar Documents

Publication Publication Date Title
CN114998202A (zh) 一种半监督深度学习缺陷检测方法
CN108399406B (zh) 基于深度学习的弱监督显著性物体检测的方法及系统
CN112053354B (zh) 一种轨道板裂缝检测方法
CN108305253A (zh) 一种基于多倍率深度学习的病理全切片诊断方法
CN109003234A (zh) 针对运动模糊图像复原的模糊核计算方法
CN114155213A (zh) 基于主动学习的芯片缺陷检测方法和装置
CN112613428B (zh) 基于平衡损失的Resnet-3D卷积牛视频目标检测方法
CN111860106A (zh) 一种无监督的桥梁裂缝识别方法
WO2023207389A1 (zh) 数据处理方法、装置、程序产品、计算机设备和介质
CN113743474A (zh) 基于协同半监督卷积神经网络的数字图片分类方法与系统
CN112949378A (zh) 一种基于深度学习网络的细菌显微图像分割方法
CN117152503A (zh) 一种基于伪标签不确定性感知的遥感图像跨域小样本分类方法
CN111239137A (zh) 基于迁移学习与自适应深度卷积神经网络的谷物质量检测方法
CN111260658A (zh) 一种用于图像分割的新型深度强化学习算法
CN112801162B (zh) 基于图像属性先验的自适应软标签正则化方法
CN112270404A (zh) 一种基于ResNet64网络的紧固件产品鼓包缺陷的检测结构及其方法
CN117058394A (zh) 一种零样本语义分割方法
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN113128455A (zh) 一种细胞图像重构模型训练方法和系统
CN115631186B (zh) 一种基于双分支神经网络的工业元件表面缺陷检测方法
WO2021237682A1 (zh) 显示面板的检测装置、检测方法、电子装置、可读介质
CN113989567A (zh) 垃圾图片分类方法及装置
CN112270370A (zh) 一种车辆表观毁伤评估方法
CN112132310A (zh) 基于改进lstm的电力设备状态预估方法及装置
CN114998706B (zh) 一种基于强化学习决策区域细划分的图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination