CN115131600A - 检测模型训练方法、检测方法、装置、设备及存储介质 - Google Patents

检测模型训练方法、检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115131600A
CN115131600A CN202210471503.1A CN202210471503A CN115131600A CN 115131600 A CN115131600 A CN 115131600A CN 202210471503 A CN202210471503 A CN 202210471503A CN 115131600 A CN115131600 A CN 115131600A
Authority
CN
China
Prior art keywords
model
image
teacher
student
model parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210471503.1A
Other languages
English (en)
Inventor
张博深
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202210471503.1A priority Critical patent/CN115131600A/zh
Publication of CN115131600A publication Critical patent/CN115131600A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种检测模型训练方法、检测方法、装置、设备及存储介质,该方法包括:在任一次迭代过程中,以样本图像为学生模型的输入,输出样本图像的第一预测概率,并以样本图像为教师模型的输入,输出样本图像的第二预测概率,根据第二预测概率和第一预设参数对样本图像的第一分类标签进行纠正,得到样本图像的第二分类标签,根据每次迭代过程得到的第一预测概率和第二分类标签,对学生模型的模型参数和教师模型的模型参数进行调整,直到满足停止训练条件,教师模型的模型参数根据学生模型调整后的模型参数调整,将满足停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。可提高检测模型质检的准确性。

Description

检测模型训练方法、检测方法、装置、设备及存储介质
技术领域
本申请实施例涉及人工智能技术领域,尤其涉及一种检测模型训练方法、检测方法、装置、设备及存储介质。
背景技术
工业缺陷质检是指对生产制造过程中的工业产品进行质量检测,传统的工业缺陷质检一般是由质检工人进行人工目检。近年来随着人工智能(Artificial Intelligence,AI)技术的兴起,基于机器视觉的AI质检可以大幅提升质检的准确率,并可节省人力成本。
现有技术中,通过预先训练的卷积神经网络模型进行工业产品图像的质检,卷积神经网络模型的输入为工业产品图像,输出为该工业产品图像是缺陷图像的置信度。卷积神经网络模型根据多个样本数据训练,每个样本数据包括样本图像和该样本图像的分类标签,分类标签用于指示该样本图像是缺陷图像或正常图像,样本图像的分类标签为人工标注。
然而,不同缺陷样本图像存在缺陷的程度不同,有些缺陷图像的缺陷程度较为轻微,可以归类为正常图像。由于样本图像的分类标签为人工标注,样本图像的分类标签带有人为主观性,在人工标注分类标签时会出现标注错误的情况。因此会导致缺陷程度较为轻微的缺陷图像的分类标签带有噪声,称该类分类标签为带噪标签,根据存在带噪标签的样本数据训练卷积神经网络模型时,卷积神经网络模型会拟合到这些噪声标签上,进而降低卷积神经网络模型的泛化性能,使得训练出的卷积神经网络模型质检的准确性不高。
发明内容
本申请提供一种检测模型训练方法、检测方法、装置、设备及存储介质,可提高检测模型质检的准确性。
第一方面,本申请提供一种检测模型训练方法,包括:
在任一次迭代过程中,以样本图像为学生模型的输入,输出所述样本图像的第一预测概率,并以所述样本图像为教师模型的输入,输出所述样本图像的第二预测概率;
根据所述第二预测概率和第一预设参数对所述样本图像的第一分类标签进行纠正,得到所述样本图像的第二分类标签;
根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,直到满足停止训练条件,所述教师模型的模型参数根据所述学生模型调整后的模型参数调整;
将满足所述停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
第二方面,本申请提供一种检测方法,包括:
获取待检测图像;
将所述待检测图像输入预先训练的检测模型,输出所述待检测图像的缺陷概率,所述检测模型根据第一方面所述的检测模型训练方法得到;
根据所述待检测图像的缺陷概率确定所述待检测图像的检测结果。
第三方面,本申请提供一种检测模型训练装置,包括:
处理模块,用于在任一次迭代过程中,以样本图像为学生模型的输入,输出所述样本图像的第一预测概率,并以所述样本图像为教师模型的输入,输出所述样本图像的第二预测概率;
纠正模块,用于根据所述第二预测概率和第一预设参数对所述样本图像的第一分类标签进行纠正,得到所述样本图像的第二分类标签;
调整模块,用于根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,直到满足停止训练条件,所述教师模型的模型参数根据所述学生模型调整后的模型参数调整;
确定模块,用于将满足所述停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
第四方面,本申请提供一种检测装置,包括:
获取模块,用于获取待检测图像;
处理模块,用于将所述待检测图像输入预先训练的检测模型,输出所述待检测图像的缺陷概率,所述检测模型根据第一方面所述的检测模型训练方法得到;
确定模块,用于根据所述待检测图像的缺陷概率确定所述待检测图像的检测结果。
第五方面,本申请提供一种计算机设备,包括:处理器和存储器,该存储器用于存储计算机程序,该处理器用于调用并运行该存储器中存储的计算机程序,以执行第一方面或第二方面的方法。
第六方面,本申请提供一种计算机可读存储介质,用于存储计算机程序,该计算机程序使得计算机执行第一方面或第二方面的方法。
第七方面,本申请提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现第一方面或第二方面所述方法的步骤。
综上,在本申请中,由于在模型迭代训练过程中,教师模型的模型参数根据学生模型的模型参数调整,通过教师模型输出的样本图像的第二预测概率对样本图像的第一分类标签进行纠正,可以使得教师模型在训练阶段就可以自动识别潜在的噪声分类标签并将其纠正为正确的分类标签,最终使得模型可以在存在噪声分类标签的数据集上进行训练,得到鲁棒的教师模型,进而对学生模型产生更好的指导作用,更好的学生模型又可以更新得到更好的教师模型,以此形成一个正向循环,学生模型和教师模型都会变得鲁棒且准确。从而,可提高训练出的学生模型和教师模型质检的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种检测方法的应用场景示意图;
图2为本申请实施例提供的一种检测模型训练方法的流程图;
图3为本申请实施例提供的一种检测方法的流程图;
图4为一种正常图像的示意图;
图5为一种缺陷图像的示意图;
图6为一种三种缺陷程度的样本图像的示意图;
图7为本申请实施例提供的一种检测模型训练方法的流程图;
图8为本申请实施例提供的一种检测模型训练方法的过程示意图;
图9为本申请实施例提供的一种检测模型训练装置的结构示意图;
图10为本申请实施例提供的一种检测装置的结构示意图;
图11是本申请实施例提供的计算机设备700的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在介绍本申请技术方案之前,下面先对本申请相关知识进行介绍:
1、人工智能(Artificial Intelligence,AI),是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
2、计算机视觉技术(Computer Vision,CV),计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
3、机器学习(Machine Learning,ML):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
4、深度学习(Deep Learning,DL):是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。深度学习是学习训练样本数据的内在规律和表示层次,这些学习过程中获得的信息对文字、图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
5、神经网络(Neural Network,NN):在机器学习和认知科学领域的一种模仿生物神经网络结构和功能的深度学习模型。
本申请实施例提供的技术方案主要涉及人工智能技术中的机器学习和深度学习等技术。具体可以通过下述实施例进行说明。
现有技术中,根据存在带噪标签的样本数据训练卷积神经网络模型时,卷积神经网络模型会拟合到这些噪声标签上,进而降低卷积神经网络模型的泛化性能,使得训练出的卷积神经网络模型质检的准确性不高。为了解决这一技术问题,本申请通过在模型迭代训练过程中,教师模型的模型参数根据学生模型的模型参数调整,通过教师模型输出的样本图像的第二预测概率对样本图像的第一分类标签进行纠正,可以使得教师模型在训练阶段就可以自动识别潜在的噪声分类标签并将其纠正为正确的分类标签,最终使得模型可以在存在噪声分类标签的数据集上进行训练,得到鲁棒的教师模型,进而对学生模型产生更好的指导作用,更好的学生模型又可以更新得到更好的教师模型,以此形成一个正向循环,学生模型和教师模型都会变得鲁棒且准确。从而,可提高训练出的学生模型和教师模型质检的准确性。
应理解的是,本申请技术方案可以应用于如下场景,但不限于:
示例性的,图1为本申请实施例提供的一种检测方法的应用场景示意图,如图1所示,终端设备110可以与服务器120进行通信。
在一些可实现方式中,图1所示的应用场景中还可以包括:基站、核心网侧设备等,此外,图1示例性地示出了一个终端设备、一台服务器,实际上可以包括其他数量的终端设备和服务器,本申请对此不做限制。
在一些可实现方式中,图1中的服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器。本申请对此不做限制。
在一些可实现方式中,如图1所示的终端设备110可以安装有应用客户端,当该应用客户端运行于终端设备中时,可以与服务器120进行数据交互。其中,该应用客户端可以为一种能够提供工业产品检测平台的客户端,客户端可以是网页或者APP。具体地,终端设备110将待检测的工业产品图像发送至服务器120,服务器120接收到该工业产品图像后,执行本申请实施例提供的检测方法,得到该工业产品图像是缺陷图像的置信度(或者是缺陷概率)或者是正常图像的置信度(或者是正常概率),进一步地可以向终端设备110发送该工业产品图像是缺陷图像的置信度或者是正常图像的置信度,或者,服务器120还可以根据得到的工业产品图像是缺陷图像的置信度(或者是正常图像的置信度)确定出该工业产品图像是缺陷图像还是正常图像,向终端设备110发送该工业产品图像是缺陷图像还是正常图像的检测结果。
可选的,本申请实施例中,终端设备可以是一类具备丰富人机交互方式、拥有接入互联网能力、通常搭载各种操作系统、具有较强处理能力的设备。终端设备可以是智能手机、平板电脑等,但不限于此。
下面将对本申请技术方案进行详细阐述:
图2为本申请实施例提供的一种检测模型训练方法的流程图,该方法的执行主体可以是服务器或其他计算机设备,如图2所示,该方法包括如下步骤:
S101、在任一次迭代过程中,以样本图像为学生模型的输入,输出样本图像的第一预测概率,并以样本图像为教师模型的输入,输出样本图像的第二预测概率。
具体来说,本实施例中的检测模型需要多次迭代训练,任一次迭代训练过程中,均是以样本图像为学生模型的输入,输出样本图像的第一预测概率,并以样本图像为教师模型的输入,输出样本图像的第二预测概率。
具体地,样本数据包括样本图像和样本图像的第一分类标签,样本图像可以是正常工业产品的图像,也可以是存在缺陷的工业产品的图像,第一分类标签可以是表示样本图像是正常图像的标签或表示样本图像是缺陷图像的标签,第一分类标签可以为样本图像的真实值,具体例如可以是0或者1之类的数值,0表示样本图像是正常图像,1表示样本图像是缺陷图像。可以理解的是,样本数据为多个,每个样本数据包括样本图像和样本图像的第一分类标签,在获取到多个样本数据后,可以是分批次进行训练,每批次训练可以选取1个样本数据、3个样本数据或者10个样本数据等等。每批次训练为一次迭代过程的训练。
其中,学生模型和教师模型可以是相同类型和结构的深度网络模型,例如可以是卷积神经网络(CNN)模型,比如ResNet,DenseNet,VGG-Net等等。
其中,以第一分类标签为正常或缺陷为例,第一预测概率可以是预测样本图像是正常图像的第一概率,第二预测概率可以是预测样本图像是正常图像的第二概率,或者,第一预测概率可以是预测样本图像是缺陷图像的第一概率,第二预测概率可以是预测样本图像是缺陷图像的第二概率。
S102、根据第二预测概率和第一预设参数对样本图像的第一分类标签进行纠正,得到样本图像的第二分类标签。
具体地,对样本图像的第一分类标签进行纠正,可以是将错误的样本图像的第一分类标签进行纠正,生成新的第二分类标签,例如第二分类标签为正确的分类标签。
作为一种可实施的方式,第一预设参数包括第一参数和第二参数,根据第二预测概率和第一预设参数对样本图像的第一分类标签进行纠正,得到样本图像的第二分类标签,具体可以为:
S1021、根据第一参数和第二参数,对第二预测概率和第一分类标签进行加权,得到第二分类标签。
其中,以第一参数和第二参数分别为α和β为例,第二分类标签y′可以被表示为第一分类标签和第二预测概率的凸组合,具体可以为如下公式(1)所示:
y′=αy+βPt (1)
α和β为第一预设参数,可以为0-1之间的数值,用来对第二预测概率Pt和第一分类标签y进行加权。其中,第一分类标签为样本图像的真实值,以第一分类标签为1为例,α为0.2,β为0.5,第二预测概率Pt为0-1之间的数值,例如为0.8,通过公式(1)的计算,第二分类标签y′=0.2*1+0.5*0.8=0.6。
S103、根据每次迭代过程得到的第一预测概率和第二分类标签,对学生模型的模型参数和教师模型的模型参数进行调整,直到满足停止训练条件,教师模型的模型参数根据学生模型调整后的模型参数调整。
其中,每次迭代过程均需要对学生模型的模型参数和教师模型的模型参数进行调整,直到满足停止训练条件,即可停止模型训练,可选的,停止训练条件例如为达到预设的迭代训练次数(例如为1000次);停止训练条件例如还可以为:当前迭代训练过程中学生模型的损失函数的值与上一次迭代训练过程中学生模型的损失函数的值的差值在预设范围内,例如,当前迭代训练过程中学生模型的损失函数的值相比较上一次迭代训练过程中学生模型的损失函数的值未发生变化。
作为一种可实施的方式,S103中根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,具体可以为:
S1031、根据第一预测概率和第二分类标签构建损失函数,损失函数用于表征第一预测概率和第二分类标签的相似度。
S1032、根据损失函数,反向传播调整学生模型的模型参数,以使第一预测概率和第二分类标签的相似度大于或等于预设阈值,得到学生模型调整后的模型参数。
具体地,根据第一预测概率和第二分类标签构建的损失函数是学生模型的损失函数,损失函数用于表征第一预测概率和第二分类标签的相似度,根据该损失函数反向传播调整学生模型的模型参数,损失函数的值越小,第一预测概率和第二分类标签的相似度越大,具体可以按照极小化损失函数的值的方法反向传播调整学生模型的模型参数。
可选的,学生模型的模型参数θt可以是根据学生模型的损失函数相较于θt的梯度进行反向传播调整得到,具体可以按照极小化损失函数的值的方法反向传播调整学生模型的模型参数。具体可以通过如下公式表示:
Figure BDA0003622636900000091
其中,Loss(x,y;θt)为学生模型的损失函数,损失函数的具体定义可以参见如下公式2中的描述。μ表示更新的步距,也即学习率的大小。
学生模型的损失函数用于表征第一预测概率和第二分类标签的相似度,可选的,学生模型的损失函数可以为交叉熵损失函数、L2损失函数或KL散度损失函数。
例如,以学生模型的损失函数为交叉熵损失函数为例,学生模型的损失函数可以定义为如下公式(2)所示:
Loss(x,y;θt)=Lce(Ps,y′) (2)
Ps=f(x;θ)
其中,θt为学生模型的模型参数,y和y′分别为第一分类标签和第二分类标签,Ps为第一预测概率,x为样本图像。以学生模型和教师模型为CNN模型为例,具体而言,对于一般的CNN网络,因为非线性激活层(ReLU)以及池化层不包含需要训练的参数,因此θt一般由卷积层参数
Figure BDA0003622636900000092
以及全连接层参数
Figure BDA0003622636900000093
构成,CNN网络中卷积层和全连接层一般含有多个层,这里
Figure BDA0003622636900000094
统一表示所有卷积层的参数,
Figure BDA0003622636900000095
统一表示所有全连接层的参数,因此
Figure BDA0003622636900000096
Figure BDA0003622636900000097
即θt包括卷积层参数
Figure BDA0003622636900000098
和全连接层参数
Figure BDA0003622636900000099
Lce(Ps,y′)表示交叉熵损失函数,用于表征第一预测概率Ps和第二分类标签y′的相似度。Lce(Ps,y′)具体可以为如下公式(3)所示:
Lce(Ps,y′)=-[y′*log Ps+(1-y′)*log(1-Ps) (3)
具体地,在根据损失函数,反向传播调整学生模型的模型参数时,得到第一预测概率和第二分类标签的相似度大于或等于预设阈值时对应的学生模型的模型参数即为学生模型调整后的模型参数。
S1033、根据学生模型调整后的模型参数,对教师模型的模型参数进行调整。
具体地,据学生模型调整后的模型参数,对教师模型的模型参数进行调整,具体可以是根据所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数,对所述教师模型的模型参数进行滑动平均更新,得到所述教师模型的当前迭代过程的模型参数。
其中,滑动平均更新也称为动量更新,本申请实施例中,滑动平均更新可以是:教师模型的当前迭代过程的模型参数可以根据当前迭代过程的学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数(即上一次迭代训练得到的教师模型的模型参数)进行加权求和得到。
作为一种可实施的方式,S1033具体可以为:
根据第二预设参数ε,对学生模型调整后的模型参数和教师模型的上一迭代过程的模型参数进行加权求和,得到教师模型的当前迭代过程的模型参数,ε∈[0,1]。
示例性地,教师模型的当前迭代过程的模型参数可以为如下公式(4)表示:
θ′t=εθ′t-1+(1-ε)θt (4)
其中,θ′t为教师模型的当前迭代过程的模型参数(也称为t时刻的模型参数),θt为学生模型的当前迭代过程的模型参数(也称为t时刻的模型参数),θ′t-1为教师模型的上一迭代过程的模型参数,ε∈[0,1],ε用来控制教师模型的上一迭代过程的模型参数θ′t-1与学生模型的当前迭代过程的模型参数θt之间的占比关系。ε可以是预先设置,还可以是根据模型训练经验设置。
S104、将满足停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
停止训练条件在上述实施例中已做具体解释。可选的,停止训练条件还可以是对样本数据训练完成。具体来说,在获取到多个样本数据后,可以是分批次进行每次的迭代训练,每批次训练可以选取1个样本数据、3个样本数据或者10个样本数据等等。例如,将获取到的样本数据划分为5个批次,若第5批次训练完成,则模型训练完成,停止训练,将第5次迭代过程所确定的学生模型或教师模型确定为检测模型。
本申请实施例中,通过采用同时对学生模型和教师模型的训练,通过模型参数滑动平均更新的教师模型来对带有噪声的第一分类标签进行纠正,之所以要采取滑动平均更新的方式来对教师模型进行模型参数更新,基于的原理是深度网络模型在带有标签噪声的数据中进行训练时,对于噪声样本,往往预测波动比较大,而滑动平均更新的方式可以使得教师模型的模型参数能够平稳更新,克服这种剧烈变化,因而大大增加模型输出(即第二预测概率)的鲁棒性,进而对学生模型产生更好的指导作用,更好的学生模型又可以动量更新得到更好的教师模型,以此形成一个正向循环,学生模型和教师模型都会变得鲁棒且准确。因此,训练得到的学生模型或教师模型可提高对图像进行质检的准确性。
最终在模型部署的时候只需要选择学生模型或教师模型中的一个即可,因此也并不影响实际模型部署阶段的耗时。
本实施例提供的检测模型训练方法,通过以样本图像分别为学生模型和教师模型的输入,输出样本图像的第一预测概率和样本图像的第二预测概率,根据第二预测概率和第一预设参数对样本图像的第一分类标签进行纠正,得到样本图像的第二分类标签,根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,直到满足停止训练条件,教师模型的模型参数根据所述学生模型调整后的模型参数调整,将满足所述停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。由于在模型迭代训练过程中,教师模型的模型参数根据学生模型的模型参数调整,通过教师模型输出的样本图像的第二预测概率对样本图像的第一分类标签进行纠正,可以使得教师模型在训练阶段就可以自动识别潜在的噪声分类标签并将其纠正为正确的分类标签,最终使得模型可以在存在噪声分类标签的数据集上进行训练,得到鲁棒的教师模型,进而对学生模型产生更好的指导作用,更好的学生模型又可以更新得到更好的教师模型,以此形成一个正向循环,学生模型和教师模型都会变得鲁棒且准确。从而,可提高训练出的学生模型和教师模型质检的准确性。
图3为本申请实施例提供的一种检测方法的流程图,该方法的执行主体可以是服务器或其他计算机设备,如图3所示,该方法包括如下步骤:
S201、获取待检测图像。
S202、将待检测图像输入预先训练的检测模型,输出待检测图像的缺陷概率。
其中,检测模型根据图2所示的检测模型训练方法得到,检测模型可以是学生模型或教师模型。
S203、根据待检测图像的缺陷概率确定待检测图像的检测结果。
可选的,本实施例的方法还可以包括:
S204、发送待检测图像的检测结果或者待检测图像的缺陷概率。
具体地,可以是从终端设备获取待检测图像,即就是从终端设备接收待检测图像。可以是向终端设备发送待检测图像的检测结果或者待检测图像的缺陷概率。
图4为一种正常图像的示意图,图5为一种缺陷图像的示意图,以图4和图5所示的图像为待检测图像,将待检测图像分别输入检测模型,可分别输出待检测图像的缺陷概率例如为0.05和0.95,根据缺陷概率即可获得检测结果,即分别为正常图像和缺陷图像。
本实施例提供的检测方法,通过将待检测图像输入预先训练的检测模型,输出待检测图像的缺陷概率,进而根据待检测图像的缺陷概率确定待检测图像的检测结果,由于检测模型根据图2所示的检测模型训练方法得到,因此可得到待检测图像的准确的检测结果。
本申请实施例中,不同缺陷样本图像存在缺陷的程度不同,有些缺陷图像的缺陷程度较为轻微,可以归类为正常图像。由于样本图像的分类标签为人工标注,样本图像的分类标签带有人为主观性,在人工标注分类标签时会出现标注错误的情况。示例性地,图6为一种三种缺陷程度的样本图像的示意图,如图6所示,(a)为正常图像,(b)为轻度缺陷图像,(c)为严重缺陷图像,例如,(b)所示的轻度缺陷图像可以归类为正常图像。因此存在人工标注的分类标签存在错误的情况。本申请实施例提供的检测额模型获取方法,可在模型训练过程中对错误的分类标签进行纠正,下面结合图7,以一个具体的实施例对本申请的技术方案进行详细的说明。
图7为本申请实施例提供的一种检测模型训练方法的流程图,该方法的执行主体可以是服务器或其他计算机设备,如图7所示,该方法包括如下步骤:
S301、获取多个样本数据,每个样本数据包括样本图像和样本图像的第一分类标签。
S302、将获取的多个样本数据分为多组样本数据集,每组样本数据集包括至少一个样本数据。
根据多组样本数据集进行如下S303-S307的迭代过程训练,满足停止训练条件时,最终得到学生模型和教师模型。对于每组样本数据集中的每个样本数据,进行S303-S307。
S303、以样本图像为学生模型的输入,输出样本图像的第一预测概率,并以样本图像为教师模型的输入,输出样本图像的第二预测概率。
图8为本申请实施例提供的一种检测模型训练方法的过程示意图,如图所示,样本图像x分别输入学生模型和教师模型,分别输出样本图像的第一预测概率Ps和第二预测概率Pt,样本图像x的第一分类标签为y,然后根据Pt、Ps和y以及损失函数进行学生模型的模型参数和教师模型的模型参数的调整,具体过程为S304-S306。
本实施例中以学生模型和教师模型为结构相同的CNN模型为例进行说明。
S304、根据第一参数和第二参数,对第二预测概率和第一分类标签进行加权,得到第二分类标签。
其中,以第一参数和第二参数分别为α和β为例,第二分类标签y′可以被表示为第一分类标签和第二预测概率的凸组合,具体可以为如下公式(1)所示:
y′=αy+βPt (1)
α和β可以为0-1之间的数值,用来对第二预测概率Pt和第一分类标签y进行加权。
S305、根据第一预测概率和第二分类标签构建损失函数,损失函数用于表征第一预测概率和第二分类标签的相似度。
S306、根据损失函数,反向传播调整学生模型的模型参数,以使第一预测概率和第二分类标签的相似度大于或等于预设阈值,得到学生模型调整后的模型参数。
具体地,根据第一预测概率和第二分类标签构建的损失函数是学生模型的损失函数,损失函数用于表征第一预测概率和第二分类标签的相似度,根据该损失函数反向传播调整学生模型的模型参数,损失函数的值越小,第一预测概率和第二分类标签的相似度越大,具体可以按照极小化损失函数的值的方法反向传播调整学生模型的模型参数。
学生模型的模型参数θt可以是根据学生模型的损失函数相较于θt的梯度进行反向传播调整得到,具体可以按照极小化损失函数的值的方法反向传播调整学生模型的模型参数。具体可以通过如下公式表示:
Figure BDA0003622636900000141
其中,Loss(x,y;θt)为学生模型的损失函数,损失函数的具体定义可以参见如下公式2中的描述。μ表示更新的步距,也即学习率的大小。
学生模型的损失函数用于表征第一预测概率和第二分类标签的相似度,可选的,学生模型的损失函数可以为交叉熵损失函数、L2损失函数或KL散度损失函数。
例如,以学生模型的损失函数为交叉熵损失函数为例,学生模型的损失函数可以定义为如下公式(2)所示:
Loss(x,y;θt)=Lce(Ps,y′) (2)
Ps=f(x;θ)
其中,θt为学生模型的模型参数,y和y′分别为第一分类标签和第二分类标签,Ps为第一预测概率,x为样本图像。本实施例中,学生模型和教师模型为CNN模型,
Figure BDA0003622636900000142
即θt包括卷积层参数
Figure BDA0003622636900000143
和全连接层参数
Figure BDA0003622636900000144
同样地,教师模型的模型参数也包括卷积层参数
Figure BDA0003622636900000145
和全连接层参数
Figure BDA0003622636900000146
Lce(Ps,y′)表示交叉熵损失函数,用于表征第一预测概率Ps和第二分类标签y′的相似度。Lce(Ps,y′)具体可以为如下公式(3)所示:
Lce(Ps,y′)=-[y′*log Ps+(1-y′)*log(1-Ps) (3)
具体地,在根据损失函数,反向传播调整学生模型的模型参数时,得到第一预测概率和第二分类标签的相似度大于或等于预设阈值时对应的学生模型的模型参数即为学生模型调整后的模型参数。
S307、根据学生模型调整后的模型参数,对教师模型的模型参数进行调整。
具体地,据学生模型调整后的模型参数,对教师模型的模型参数进行调整,具体可以是根据所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数,对所述教师模型的模型参数进行滑动平均更新,得到所述教师模型的当前迭代过程的模型参数。
作为一种可实施的方式,S307具体可以为:
根据第二预设参数ε,对学生模型调整后的模型参数和教师模型的上一迭代过程的模型参数进行加权求和,得到教师模型的当前迭代过程的模型参数,ε∈[0,1]。
其中,预设参数为ε,ε∈[0,1],示例性地,教师模型的当前模型参数可以为如下公式(4)表示:
θ′t=εθ′t-1+(1-ε)θt
其中,θ′t为教师模型的当前迭代过程的模型参数(也称为t时刻的模型参数),θt为学生模型的当前迭代过程的模型参数(也称为t时刻的模型参数),θ′t-1为教师模型的上一迭代过程的模型参数,ε∈[0,1],ε用来控制教师模型的上一迭代过程的模型参数θ′t-1与学生模型的当前迭代过程的模型参数θt之间的占比关系。ε可以是预先设置,还可以是根据模型训练经验设置。
S308、判断是否满足停止训练条件。
若确定不满足停止训练条件时,继续根据样本数据进行S303-S307的迭代过程训练。
具体地,停止训练条件可参见上述实施例的描述,此处不再赘述。
S309、确定满足停止训练条件时,将满足停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
本申请实施例中,通过模型参数滑动平均更新的教师模型来对带有噪声的第一分类标签进行纠正,之所以要采取滑动平均更新的方式来对教师模型进行模型参数更新,基于的原理是深度网络模型在带有标签噪声的数据中进行训练时,对于噪声样本,往往预测波动比较大,而滑动平均更新的方式可以使得教师模型的模型参数能够平稳更新,克服这种剧烈变化,因而大大增加模型输出(即第二预测概率)的鲁棒性,进而对学生模型产生更好的指导作用,更好的学生模型又可以动量更新得到更好的教师模型,以此形成一个正向循环,学生模型和教师模型都会变得鲁棒且准确。因此,训练得到的学生模型或教师模型可提高对图像进行质检的准确性。
图9为本申请实施例提供的一种检测模型训练装置的结构示意图,如图9所示,该检测模型训练装置可以包括:处理模块11、纠正模块12、调整模块13和确定模块14。
其中,处理模块11用于在任一次迭代过程中,以样本图像为学生模型的输入,输出所述样本图像的第一预测概率,并以所述样本图像为教师模型的输入,输出所述样本图像的第二预测概率;
纠正模块12用于根据所述第二预测概率和第一预设参数对所述样本图像的第一分类标签进行纠正,得到所述样本图像的第二分类标签;
调整模块13用于根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,直到满足停止训练条件,所述教师模型的模型参数根据所述学生模型调整后的模型参数调整;
确定模块14用于将满足所述停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
可选的,第一参数包括第一参数和第二参数,纠正模块12用于:
根据第一参数和第二参数,对第二预测概率和第一分类标签进行加权,得到第二分类标签。
可选的,调整模块13用于:根据所述第一预测概率和所述第二分类标签构建损失函数,所述损失函数用于表征所述第一预测概率和所述第二分类标签的相似度;
根据所述损失函数,反向传播调整所述学生模型的模型参数,以使所述第一预测概率和所述第二分类标签的相似度大于或等于预设阈值,得到所述学生模型调整后的模型参数;
根据所述学生模型调整后的模型参数,对所述教师模型的模型参数进行调整。
可选的,调整模块13用于:根据所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数,对所述教师模型的模型参数进行滑动平均更新,得到所述教师模型的当前迭代过程的模型参数。
可选的,调整模块13用于:根据第二预设参数ε,对所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数进行加权求和,得到所述教师模型的当前迭代过程的模型参数,ε∈[0,1]。
可选的,损失函数为交叉熵损失函数、L2损失函数或KL散度损失函数。
图10为本申请实施例提供的一种检测装置的结构示意图,如图10所示,该检测装置可以包括:获取模块11、处理模块12和确定模块13,其中,
获取模块11用于获取待检测图像;
处理模块12用于将待检测图像输入预先训练的检测模型,输出待检测图像的缺陷概率,检测模型根据图2所示的检测模型训练方法得到;
确定模块13用于根据待检测图像的缺陷概率确定待检测图像的检测结果。
可选的,本实施例的装置还可以包括:发送模块,该发送模块用于发送待检测图像的检测结果或者待检测图像的缺陷概率。
应理解的是,装置实施例与方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,图9或图10所示的装置可以执行服务器对应的方法实施例,并且装置中的各个模块的前述和其它操作和/或功能分别为了实现服务器对应的方法实施例,为了简洁,在此不再赘述。
上文中结合附图从功能模块的角度描述了本申请实施例的检测模型训练装置和检测装置。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本申请实施例中的方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本申请实施例公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法实施例中的步骤。
图11是本申请实施例提供的计算机设备700的示意性框图。
如图11所示,该计算机设备700可包括:
存储器710和处理器720,该存储器710用于存储计算机程序,并将该程序代码传输给该处理器720。换言之,该处理器720可以从存储器710中调用并运行计算机程序,以实现本申请实施例中的方法。
例如,该处理器720可用于根据该计算机程序中的指令执行上述方法实施例。
在本申请的一些实施例中,该处理器720可以包括但不限于:
通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。
在本申请的一些实施例中,该存储器710包括但不限于:
易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在本申请的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器710中,并由该处理器720执行,以完成本申请提供的方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在该计算机设备中的执行过程。
如图11所示,该计算机设备还可包括:
收发器730,该收发器730可连接至该处理器720或存储器710。
其中,处理器720可以控制该收发器730与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器730可以包括发射机和接收机。收发器730还可以进一步包括天线,天线的数量可以为一个或多个。
应当理解,该计算机设备中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
本申请还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的方法。或者说,本申请实施例还提供一种包含指令的计算机程序产品,该指令被计算机执行时使得计算机执行上述方法实施例的方法。
当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如数字视频光盘(digital video disc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
以上该,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以该权利要求的保护范围为准。

Claims (13)

1.一种检测模型训练方法,其特征在于,包括:
在任一次迭代过程中,以样本图像为学生模型的输入,输出所述样本图像的第一预测概率,并以所述样本图像为教师模型的输入,输出所述样本图像的第二预测概率;
根据所述第二预测概率和第一预设参数对所述样本图像的第一分类标签进行纠正,得到所述样本图像的第二分类标签;
根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,直到满足停止训练条件,所述教师模型的模型参数根据所述学生模型调整后的模型参数调整;
将满足所述停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
2.根据权利要求1所述的方法,其特征在于,所述第一预设参数包括第一参数和第二参数,所述根据所述第二预测概率和第一预设参数对所述样本图像的第一分类标签进行纠正,得到所述样本图像的第二分类标签,包括:
根据所述第一参数和所述第二参数,对所述第二预测概率和所述第一分类标签进行加权,得到所述第二分类标签。
3.根据权利要求1所述的方法,其特征在于,所述根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,包括:
根据所述第一预测概率和所述第二分类标签构建损失函数,所述损失函数用于表征所述第一预测概率和所述第二分类标签的相似度;
根据所述损失函数,反向传播调整所述学生模型的模型参数,以使所述第一预测概率和所述第二分类标签的相似度大于或等于预设阈值,得到所述学生模型调整后的模型参数;
根据所述学生模型调整后的模型参数,对所述教师模型的模型参数进行调整。
4.根据权利要求1所述的方法,其特征在于,所述根据所述学生模型调整后的模型参数,对所述教师模型的模型参数进行调整,包括:
根据所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数,对所述教师模型的模型参数进行滑动平均更新,得到所述教师模型的当前迭代过程的模型参数。
5.根据权利要求4所述的方法,其特征在于,所述根据所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数,对所述教师模型的模型参数进行滑动平均更新,得到所述教师模型的当前迭代过程的模型参数,包括:
根据第二预设参数ε,对所述学生模型调整后的模型参数和所述教师模型的上一迭代过程的模型参数进行加权求和,得到所述教师模型的当前迭代过程的模型参数,ε∈[0,1]。
6.根据权利要求3所述的方法,其特征在于,所述损失函数为交叉熵损失函数、L2损失函数或KL散度损失函数。
7.一种图像检测方法,其特征在于,包括:
获取待检测图像;
将所述待检测图像输入预先训练的检测模型,输出所述待检测图像的缺陷概率,所述检测模型根据权利要求1-6任一项所述的检测模型训练方法得到;
根据所述待检测图像的缺陷概率确定所述待检测图像的检测结果。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
发送所述待检测图像的检测结果或者所述待检测图像的缺陷概率。
9.一种检测模型训练装置,其特征在于,包括:
处理模块,用于在任一次迭代过程中,以样本图像为学生模型的输入,输出所述样本图像的第一预测概率,并以所述样本图像为教师模型的输入,输出所述样本图像的第二预测概率;
纠正模块,用于根据所述第二预测概率和第一预设参数对所述样本图像的第一分类标签进行纠正,得到所述样本图像的第二分类标签;
调整模块,用于根据每次迭代过程得到的所述第一预测概率和所述第二分类标签,对所述学生模型的模型参数和所述教师模型的模型参数进行调整,直到满足停止训练条件,所述教师模型的模型参数根据所述学生模型调整后的模型参数调整;
确定模块,用于将满足所述停止训练条件的迭代过程所确定的学生模型或教师模型确定为检测模型。
10.一种检测装置,其特征在于,包括:
获取模块,用于获取待检测图像;
处理模块,用于将所述待检测图像输入预先训练的检测模型,输出所述待检测图像的缺陷概率,所述检测模型根据权利要求1-6任一项所述的检测模型训练方法得到;
确定模块,用于根据所述待检测图像的缺陷概率确定所述待检测图像的检测结果。
11.一种计算机设备,其特征在于,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行权利要求1至6或7至8中任一项所述的方法。
12.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序使得计算机执行如权利要求1至6或7至8中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6或7至8中任一项所述方法的步骤。
CN202210471503.1A 2022-04-28 2022-04-28 检测模型训练方法、检测方法、装置、设备及存储介质 Pending CN115131600A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210471503.1A CN115131600A (zh) 2022-04-28 2022-04-28 检测模型训练方法、检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210471503.1A CN115131600A (zh) 2022-04-28 2022-04-28 检测模型训练方法、检测方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN115131600A true CN115131600A (zh) 2022-09-30

Family

ID=83376171

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210471503.1A Pending CN115131600A (zh) 2022-04-28 2022-04-28 检测模型训练方法、检测方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115131600A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071608A (zh) * 2023-03-16 2023-05-05 浙江啄云智能科技有限公司 目标检测方法、装置、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597907A (zh) * 2020-04-21 2020-08-28 广东工业大学 基于抗噪声元学习的人脸识别方法及系统
CN114037052A (zh) * 2021-10-29 2022-02-11 北京百度网讯科技有限公司 检测模型的训练方法、装置、电子设备及存储介质
CN114170461A (zh) * 2021-12-02 2022-03-11 匀熵教育科技(无锡)有限公司 基于特征空间重整化的师生架构含噪声标签图像分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597907A (zh) * 2020-04-21 2020-08-28 广东工业大学 基于抗噪声元学习的人脸识别方法及系统
CN114037052A (zh) * 2021-10-29 2022-02-11 北京百度网讯科技有限公司 检测模型的训练方法、装置、电子设备及存储介质
CN114170461A (zh) * 2021-12-02 2022-03-11 匀熵教育科技(无锡)有限公司 基于特征空间重整化的师生架构含噪声标签图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HWANJUN SONG 等: "Learning from Noisy Labels with Deep Neural Networks: A Survey", 《HTTPS://ARXIV.ORG/PDF/2007.08199》, 10 March 2022 (2022-03-10), pages 1 - 19 *
YEN-CHENG LIU 等: "UNBIASED TEACHER FOR SEMI-SUPERVISED OBJECT DETECTION", 《HTTPS://ARXIV.ORG/PDF/ 2102.09480》, 18 February 2021 (2021-02-18), pages 1 - 17 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071608A (zh) * 2023-03-16 2023-05-05 浙江啄云智能科技有限公司 目标检测方法、装置、设备和存储介质
CN116071608B (zh) * 2023-03-16 2023-06-06 浙江啄云智能科技有限公司 目标检测方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
CN110502976B (zh) 文本识别模型的训练方法及相关产品
CN116664719B (zh) 一种图像重绘模型训练方法、图像重绘方法及装置
CN114912612A (zh) 鸟类识别方法、装置、计算机设备及存储介质
CN113469088A (zh) 一种无源干扰场景下的sar图像舰船目标检测方法及系统
CN113095370A (zh) 图像识别方法、装置、电子设备及存储介质
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN115187772A (zh) 目标检测网络的训练及目标检测方法、装置及设备
CN110598869B (zh) 基于序列模型的分类方法、装置、电子设备
US20220269718A1 (en) Method And Apparatus For Tracking Object
CN115131600A (zh) 检测模型训练方法、检测方法、装置、设备及存储介质
CN112132269B (zh) 模型处理方法、装置、设备及存储介质
CN114078203A (zh) 一种基于改进pate的图像识别方法和系统
CN116561272A (zh) 开放域视觉语言问答方法、装置、电子设备及存储介质
CN117036843A (zh) 目标检测模型训练方法、目标检测方法和装置
CN114547308A (zh) 文本处理的方法、装置、电子设备及存储介质
CN115205546A (zh) 模型训练方法和装置、电子设备、存储介质
CN113657092A (zh) 识别标签的方法、装置、设备以及介质
CN112149426B (zh) 阅读任务处理方法及相关设备
CN113610228A (zh) 神经网络模型的构建方法及装置
CN112818084A (zh) 信息交互方法、相关装置、设备及计算机可读介质
CN117711001B (zh) 图像处理方法、装置、设备和介质
CN112417260A (zh) 本地化推荐方法、装置及存储介质
CN115203420B (zh) 实体关系分类模型训练方法、实体关系分类方法及装置
CN110598578B (zh) 身份识别方法、身份识别系统的训练方法、装置及设备
CN114626520B (zh) 训练模型的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination