CN115829983A - 一种基于知识蒸馏的高速工业场景视觉质量检测方法 - Google Patents

一种基于知识蒸馏的高速工业场景视觉质量检测方法 Download PDF

Info

Publication number
CN115829983A
CN115829983A CN202211601732.7A CN202211601732A CN115829983A CN 115829983 A CN115829983 A CN 115829983A CN 202211601732 A CN202211601732 A CN 202211601732A CN 115829983 A CN115829983 A CN 115829983A
Authority
CN
China
Prior art keywords
network model
training
student
teacher
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211601732.7A
Other languages
English (en)
Other versions
CN115829983B (zh
Inventor
吴衡
曾泽凯
陈梅云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202211601732.7A priority Critical patent/CN115829983B/zh
Publication of CN115829983A publication Critical patent/CN115829983A/zh
Application granted granted Critical
Publication of CN115829983B publication Critical patent/CN115829983B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

本发明涉及视觉检测技术领域,更具体地说,它涉及一种基于知识蒸馏的高速工业场景视觉质量检测方法,其技术方案要点是,包括以下步骤:S1、拍摄具有缺陷的产品图像,对所述图像进行处理以获得数据集;S2、构建教师网络模型,训练所述教师网络模型,获得第二教师网络模型训练参数Θt;S3、构建学生网络模型,基于所述第二教师网络模型训练参数Θt训练所述学生网络模型,获得第二学生网络模型训练参数Θs;S4、待检测目标图像输入所述学生网络模型,所述学生网络模型基于所述第二学生网络模型训练参数Θs和所述第二教师网络模型训练参数Θt输出所述待检测目标图像的检测结果。本发明既提高了视觉质量检测的准确性,又保持了较高的实时性能。

Description

一种基于知识蒸馏的高速工业场景视觉质量检测方法
技术领域
本发明涉及视觉检测技术领域,更具体地说,它涉及一种基于知识蒸馏的高速工业场景视觉质量检测方法。
背景技术
随着近几年深度学习的快速发展,许多深度学习算法引用到各个行业;而在工业界,视觉质量检测是工业自动化中重要的一环,基于深度学习的视觉质量检测技术已经应用到许多工业场景代替人工肉眼检测,包括电子、包装和印刷等行业。
目前大多数基于深度学习的方法都需要在大规模数据集上训练参数量大的复杂模型,以实现特定的工业智能应用;为了确保基于深度学习的方法所构建的视觉检测网络模型可以快速、准确地识别出缺陷,则需大量的计算能力和内存资源消耗,但是现有工业制造的技术远远达不到所需的要求,导致目前工业智能应用中基于深度学习的方法所构建的轻量化视觉检测网络模型在检测过程中存在检测速度慢和缺陷识别率低的问题。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种基于知识蒸馏的高速工业场景视觉质量检测方法,具有检测效率高、缺陷识别准确的优点。
本发明的上述技术目的是通过以下技术方案得以实现的,一种基于知识蒸馏的高速工业场景视觉质量检测方法,包括以下步骤:
S1、拍摄具有缺陷的产品图像,对所述图像进行处理以获得数据集;
S2、构建教师网络模型,训练所述教师网络模型,获得第二教师网络模型训练参数
Figure BDA0003997433520000011
S3、构建学生网络模型,基于所述第二教师网络模型训练参数
Figure BDA0003997433520000021
训练所述学生网络模型,获得第二学生网络模型训练参数
Figure BDA0003997433520000022
S4、待检测目标图像输入所述学生网络模型,所述学生网络模型基于所述第二学生网络模型训练参数
Figure BDA0003997433520000023
和所述第二教师网络模型训练参数
Figure BDA0003997433520000024
输出所述待检测目标图像的检测结果。
在其中一个实施例中,所述步骤S1包括以下步骤:
S11、拍摄有缺陷的产品图像;
S12、对所述产品图像进行数据扩充,构建图像数据集Ih=[Ih1,Ih2,...IhK];
S13、对所述图像数据集Ih=[Ih1,Ih2,...IhK]进行缺陷标定,获得标签数据集Ia=[Ia1,Ia2,...IaK]。
在其中一个实施例中,所述步骤S2包括以下步骤:
S21、在yolov5-m模型的基础上加入注意力模块,获得所述教师网络模型;
S22、训练所述教师网络模型,获得所述第二教师网络模型训练参数
Figure BDA0003997433520000025
在其中一个实施例中,所述注意力模块在Coordinate Attention的基础上加入了LA模块。
在其中一个实施例中,所述步骤S22具体包括:
S221、将所述图像数据集Ih与标签数据集Ia输入到所述教师网络模型中,获取所述图像数据集Ih与所述标签数据集Ia的第一特征图与第一图像预测结果,其数学模型为:
GIT=FT(Ih,Ia,heads1t)
FT(·)为神经网络函数,表示所述教师网络模型,heads1为网络预测的结果参数,Ih表示训练所述教师网络模型的输入图像,Ia表示所述输入图像的缺陷标签,Θt表示所述第一教师网络模型训练参数;
S222、多次重复步骤S221,获得多个所述第一教师网络模型训练参数Θt
S223、选取最后一个所述第一教师网络模型训练参数Θt作为所述第二教师网络模型训练参数
Figure BDA0003997433520000031
在其中一个实施例中,所述步骤S3包括以下步骤:
S31、基于yolov5模型,构建学生网络模型;
S32、基于所述第二教师网络模型训练参数
Figure BDA0003997433520000032
对所述学生网络模型进行训练,获得所述第二学生网络模型训练参数
Figure BDA0003997433520000033
在其中一个实施例中,所述步骤S32包括以下步骤:
S321、将所述所述第二教师网络模型训练参数
Figure BDA0003997433520000034
所述图像数据集Ih与标签数据集Ia输入到所述学生网络模型中,获取所述图像数据集Ih与所述标签数据集Ia的第二特征图与第二图像预测结果,其数学模型为:
GIS=FS(Ih,Ia,heads2st)
上式中FS(·)为神经网络函数,表示学生网络模型,heads2为网络预测的结果参数,Θs表示第一学生模型训练参数;
S322、多次重复步骤S321,获得多个所述第一学生网络模型训练参数Θs
S323、选取最后一个所述第一学生网络模型训练参数Θs作为所述第二学生网络模型训练参数数
Figure BDA0003997433520000035
在其中一个实施例中,所述步骤S321具体包括:对所述第二特征图进行特征自适应,获得第三特征图,其数学模型表示如下:
FAd=Adap(heads2)
上式中heads2为原始尺寸特征参数,Adap(·)为特征自适应过程;
神经网络Softmax输出层将所述第二图像预测结果转化为概率值p,同时输出层产生软化后的概率向量qi,用于蒸馏损失函数的计算,其计算过程表示如下:
Figure BDA0003997433520000041
上式中qi为“软化”后的概率向量,T为温度系数,预测结果取自然对数得到某一类的logit值zi,预测结果取自然对数得到所有类的logit值zj
在所述学生网络模型训练的过程中,所述学生网络模型的损失函数为Lloss,其过程表示如下:
Figure BDA0003997433520000042
Lloss=Lgt+λLkd
上式中Lkd表示学生网络模型和教师网络模型预测结果的蒸馏损失函数,Lgt表示学生网络模型的检测损失,λ表示模拟损失加权因子,H和W分别表示特征图的长和宽,N表示特征图上像素点个数和,C表示通道个数,i和j表示目标锚点在特征图上的坐标。
在其中一个实施例中,所述步骤S3还包括以下步骤:
S33、基于所述第二教师网络模型训练参数
Figure BDA0003997433520000043
构建知识蒸馏模块,用于优化所述教师网络模型和所述学生网络模型;
所述知识蒸馏模块提取所述第一特征图与所述第三特征图,计算所述第三特征图的蒸馏损失,所述第三特征图的蒸馏损失与所述学生网络模型的检测损失结合优化所述教师网络模型和所述学生网络模型。
在其中一个实施例中,所述步骤S4包括以下步骤:
S41、拍摄待检测目标,获得待检测目标图像W;
S42、将所述待检测目标图像W输入到所述学生网络模型内;
S43、所述学生网络模型对所述目标图像进行视觉质量检测获得异常得分Score_m,其表示过程如下:
Figure BDA0003997433520000051
当异常得分Score_m>φ,表示所拍摄的待检测产品存在质量问题,当异常得分Score_m<φ,表示所拍摄的待检测产品不存在质量问题,其中φ表示异常临界值。
上述一种基于知识蒸馏的高速工业场景视觉质量检测方法,具有以下有益效果:
本发明针对轻量级模型会导致性能下降问题,构建基于yo lov5m改进的网络更深、性能更好的教师网络模型,用教师网络模型中的监督信息来训练轻量级学生模型,由此提高轻量级模型性能,既可得到的轻量级学生模型提高了视觉质量检测的准确性,同时保持了较高的实时性能,有利于在高速工业场景视觉质量检测的嵌入式设备等边缘设备部署中推广,同时也有利于基于知识蒸馏的深度学习方法在工业视觉质量检测的应用研究。
附图说明
图1是本实施例的流程示意图;
图2是本实施例中整体神经网络架构示意图;
图3是本实施例中教师网络模型架构示意图;
图4是本实施中注意力模块示意图;
图5是本实施例中学生网络模型架构示意图。
图6是本实施例中知识蒸馏网络架构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
一种基于知识蒸馏的高速工业场景视觉质量检测方法,如图1、图2和图6所示,包括以下步骤:
S1、拍摄具有缺陷的产品图像,对图像进行处理以获得数据集;
具体的,步骤S1包括以下步骤:
S11、使用工业相机拍摄拍ψ=200张缺陷的产品图像;
S12、对上述200张产品图像分别通过调整图像亮度、旋转图像的方式扩充到K=5000张图像,然后构建图像数据集Ih=[Ih1,Ih2,...Ih5000];
S13、使用Roboflow平台对图像数据集Ih=[Ih1,Ih2,...Ih5000]进行缺陷标定,获得标签数据集Ia=[Ia1,Ia2,...Ia5000]。
S2、构建教师网络模型,训练教师网络模型,获得第二教师网络模型训练参数
Figure BDA0003997433520000071
具体的,如图3所示,S21、在yolov5-m模型的基础上加入注意力模块,获得教师网络模型;
其中,如图4所示,注意力模块在Coordinate Attention的基础上创新地加入了LA模块,LA模块能够校正通道中的特征信息,剔除无用的特征信息,从而加强特征信息,由此得到性能更好的教师网络模型。
S22、训练教师网络模型,获得第二教师网络模型训练参数
Figure BDA0003997433520000072
具体的,S221、将图像数据集Ih与标签数据集Ia输入到教师网络模型中,获取图像数据集Ih与标签数据集Ia的第一特征图与第一图像预测结果,其数学模型为:
GIT=FT(Ih,Ia,heads1t)
FT(·)为神经网络函数,表示教师网络模型,heads1为网络预测的结果参数,Ih表示训练教师网络模型的输入图像,Ia表示输入图像的缺陷标签,Θt表示第一教师网络模型训练参数。
S222、重复训练教师网络模型500次后,获得500个第一教师网络模型训练参数Θt
S223、选取最后一个第一教师网络模型训练参数Θt作为第二教师网络模型训练参数
Figure BDA0003997433520000073
如图5所示,S3、构建学生网络模型,基于第二教师网络模型训练参数
Figure BDA0003997433520000074
训练学生网络模型,获得第二学生网络模型训练参数
Figure BDA0003997433520000081
具体的,S31、基于yolov5模型,构建学生网络模型,其中学生网络模型为浅层、参数量小的轻量化yolov5-s模型,轻量化模型具有检测速度快,检测精度差的特点;
S32、基于第二教师网络模型训练参数
Figure BDA0003997433520000082
对学生网络模型进行训练,获得第二学生网络模型训练参数
Figure BDA0003997433520000083
具体的,S321、将第二教师网络模型训练参数
Figure BDA0003997433520000084
图像数据集Ih与标签数据集Ia输入到学生网络模型中,获取图像数据集Ih与标签数据集Ia的第二特征图与第二图像预测结果,其数学模型为:
GIS=FS(Ih,Ia,heads2st)
上式中FS(·)为神经网络函数,表示学生网络模型,heads2为网络预测的结果参数,Θs表示第一学生模型训练参数。
优选的,为了保证知识蒸馏的效果,必须使第一特征图与第二特征图的大小一致,因此在学生网络模型训练的过程中需要对第二特征图进行特征自适应,获得第三特征图,其数学模型表示如下:
FAd=Adap(heads2)
上式中heads2为原始尺寸特征参数,Adap(·)为特征自适应过程。
同时,在训练学生网络模型的过程中,神经网络Softmax输出层将第二图像预测结果转化为概率值p,同时输出层产生软化后的概率向量qi,用于蒸馏损失函数的计算,其计算过程表示如下:
Figure BDA0003997433520000085
上式中qi为“软化”后的概率向量,T为温度系数,预测结果取自然对数得到某一类的logit值zi,预测结果取自然对数得到所有类的logit值zj
在学生网络模型训练的过程中,学生网络模型的损失函数为Lloss,其过程表示如下:
Figure BDA0003997433520000091
Lloss=Lgt+λLkd
上式中Lkd表示学生网络模型和教师网络模型预测结果的蒸馏损失函数,Lgt表示学生网络模型的检测损失,λ表示模拟损失加权因子,H和W分别表示特征图的长和宽,N表示特征图上像素点个数和,C表示通道个数,i和j表示目标锚点在特征图上的坐标;
S322、重复训练学生网络模型500次后,获得500个第一学生网络模型训练参数Θs
S323、选取最后一个第一学生网络模型训练参数Θs作为第二学生网络模型训练参数数
Figure BDA0003997433520000092
进一步的,基于第二教师网络模型训练参数
Figure BDA0003997433520000093
构建知识蒸馏模块,用于优化教师网络模型和学生网络模型;
知识蒸馏模块提取第一特征图与第三特征图,计算第三特征图的蒸馏损失,第三特征图的蒸馏损失与学生网络模型的检测损失结合优化教师网络模型和学生网络模型。
S4、学生网络模型对待检测目标图像进行检测并输出检测结果;
具体的,S41、拍摄待检测目标,获得待检测目标图像W;
S42、将待检测目标图像W输入到学生网络模型内;
S43、学生网络模型对目标图像进行视觉质量检测获得异常得分Score_m,其表示过程如下:
Figure BDA0003997433520000101
当异常得分Score_m>φ,表示所拍摄的待检测产品存在质量问题,当异常得分Score_m<φ,表示所拍摄的待检测产品不存在质量问题,其φ=0.7表示异常临界值。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,包括以下步骤:
S1、拍摄具有缺陷的产品图像,对所述图像进行处理以获得数据集;
S2、构建教师网络模型,训练所述教师网络模型,获得第二教师网络模型训练参数
Figure FDA0003997433510000011
S3、构建学生网络模型,基于所述第二教师网络模型训练参数
Figure FDA0003997433510000012
训练所述学生网络模型,获得第二学生网络模型训练参数
Figure FDA0003997433510000013
S4、待检测目标图像输入所述学生网络模型,所述学生网络模型基于所述第二学生网络模型训练参数
Figure FDA0003997433510000014
和所述第二教师网络模型训练参数
Figure FDA0003997433510000015
输出所述待检测目标图像的检测结果。
2.根据权利要求1所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S1包括以下步骤:
S11、拍摄有缺陷的产品图像;
S12、对所述产品图像进行数据扩充,构建图像数据集Ih=[Ih1,Ih2,...IhK];
S13、对所述图像数据集Ih=[Ih1,Ih2,...IhK]进行缺陷标定,获得标签数据集Ia=[Ia1,Ia2,...IaK]。
3.根据权利要求2所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S2包括以下步骤:
S21、在yolov5-m模型的基础上加入注意力模块,获得所述教师网络模型;
S22、训练所述教师网络模型,获得所述第二教师网络模型训练参数
Figure FDA0003997433510000021
4.根据权利要求3所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于:所述注意力模块在Coordinate Attention的基础上加入了LA模块。
5.根据权利要求3所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S22具体包括:
S221、将所述图像数据集Ih与标签数据集Ia输入到所述教师网络模型中,获取所述图像数据集Ih与所述标签数据集Ia的第一特征图与第一图像预测结果,其数学模型为:
GIT=FT(Ih,Ia,heads1t)
FT(·)为神经网络函数,表示所述教师网络模型,heads1为网络预测的结果参数,Ih表示训练所述教师网络模型的输入图像,Ia表示所述输入图像的缺陷标签,Θt表示所述第一教师网络模型训练参数;
S222、多次重复步骤S221,获得多个所述第一教师网络模型训练参数Θt
S223、选取最后一个所述第一教师网络模型训练参数Θt作为所述第二教师网络模型训练参数
Figure FDA0003997433510000022
6.根据权利要求3或5所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S3包括以下步骤:
S31、基于yolov5模型,构建学生网络模型;
S32、基于所述第二教师网络模型训练参数
Figure FDA0003997433510000023
对所述学生网络模型进行训练,获得所述第二学生网络模型训练参数
Figure FDA0003997433510000031
7.根据权利要求6所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S32包括以下步骤:
S321、将所述所述第二教师网络模型训练参数
Figure FDA0003997433510000032
所述图像数据集Ih与标签数据集Ia输入到所述学生网络模型中,获取所述图像数据集Ih与所述标签数据集Ia的第二特征图与第二图像预测结果,其数学模型为:
GIS=FS(Ih,Ia,heads2st)
上式中FS(·)为神经网络函数,表示学生网络模型,heads2为网络预测的结果参数,Θs表示第一学生模型训练参数;
S322、多次重复步骤S321,获得多个所述第一学生网络模型训练参数Θs
S323、选取最后一个所述第一学生网络模型训练参数Θs作为所述第二学生网络模型训练参数数
Figure FDA0003997433510000033
8.根据权利要求7所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S321具体包括:对所述第二特征图进行特征自适应,获得第三特征图,其数学模型表示如下:
FAd=Adap(heads2)
上式中heads2为原始尺寸特征参数,Adap(·)为特征自适应过程;
神经网络Softmax输出层将所述第二图像预测结果转化为概率值p,同时输出层产生软化后的概率向量qi,用于蒸馏损失函数的计算,其计算过程表示如下:
Figure FDA0003997433510000041
上式中qi为“软化”后的概率向量,T为温度系数,预测结果取自然对数得到某一类的logit值zi,预测结果取自然对数得到所有类的logit值zj
在所述学生网络模型训练的过程中,所述学生网络模型的损失函数为Lloss,其过程表示如下:
Figure FDA0003997433510000042
Lloss=Lgt+λLkd
上式中Lkd表示学生网络模型和教师网络模型预测结果的蒸馏损失函数,Lgt表示学生网络模型的检测损失,λ表示模拟损失加权因子,H和W分别表示特征图的长和宽,N表示特征图上像素点个数和,C表示通道个数,i和j表示目标锚点在特征图上的坐标。
9.根据权利要求8所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S3还包括以下步骤:
S33、基于所述第二教师网络模型训练参数
Figure FDA0003997433510000043
构建知识蒸馏模块,用于优化所述教师网络模型和所述学生网络模型;
所述知识蒸馏模块提取所述第一特征图与所述第三特征图,计算所述第三特征图的蒸馏损失,所述第三特征图的蒸馏损失与所述学生网络模型的检测损失结合优化所述教师网络模型和所述学生网络模型。
10.根据权利要求8所述的一种基于知识蒸馏的高速工业场景视觉质量检测方法,其特征在于,所述步骤S4包括以下步骤:
S41、拍摄待检测目标,获得待检测目标图像W;
S42、将所述待检测目标图像W输入到所述学生网络模型内;
S43、所述学生网络模型对所述目标图像进行视觉质量检测获得异常得分Score_m,其表示过程如下:
Figure FDA0003997433510000051
当异常得分Score_m>φ,表示所拍摄的待检测产品存在质量问题,当异常得分Score_m<φ,表示所拍摄的待检测产品不存在质量问题,其中φ表示异常临界值。
CN202211601732.7A 2022-12-13 2022-12-13 一种基于知识蒸馏的高速工业场景视觉质量检测方法 Active CN115829983B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211601732.7A CN115829983B (zh) 2022-12-13 2022-12-13 一种基于知识蒸馏的高速工业场景视觉质量检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211601732.7A CN115829983B (zh) 2022-12-13 2022-12-13 一种基于知识蒸馏的高速工业场景视觉质量检测方法

Publications (2)

Publication Number Publication Date
CN115829983A true CN115829983A (zh) 2023-03-21
CN115829983B CN115829983B (zh) 2024-05-03

Family

ID=85547084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211601732.7A Active CN115829983B (zh) 2022-12-13 2022-12-13 一种基于知识蒸馏的高速工业场景视觉质量检测方法

Country Status (1)

Country Link
CN (1) CN115829983B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200293904A1 (en) * 2019-03-13 2020-09-17 Cortica Ltd. Method for object detection using knowledge distillation
CN112991330A (zh) * 2021-04-19 2021-06-18 征图新视(江苏)科技股份有限公司 基于知识蒸馏的正样本工业缺陷检测方法
CN113743514A (zh) * 2021-09-08 2021-12-03 庆阳瑞华能源有限公司 一种基于知识蒸馏的目标检测方法及目标检测终端
WO2022057078A1 (zh) * 2020-09-21 2022-03-24 深圳大学 基于集成知识蒸馏的实时肠镜影像分割方法及装置
CN114241282A (zh) * 2021-11-04 2022-03-25 河南工业大学 一种基于知识蒸馏的边缘设备场景识别方法及装置
CN114897160A (zh) * 2022-05-18 2022-08-12 四川云从天府人工智能科技有限公司 模型训练方法、系统及计算机存储介质
CN115131747A (zh) * 2022-08-25 2022-09-30 合肥中科类脑智能技术有限公司 基于知识蒸馏的输电通道工程车辆目标检测方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200293904A1 (en) * 2019-03-13 2020-09-17 Cortica Ltd. Method for object detection using knowledge distillation
WO2022057078A1 (zh) * 2020-09-21 2022-03-24 深圳大学 基于集成知识蒸馏的实时肠镜影像分割方法及装置
CN112991330A (zh) * 2021-04-19 2021-06-18 征图新视(江苏)科技股份有限公司 基于知识蒸馏的正样本工业缺陷检测方法
CN113743514A (zh) * 2021-09-08 2021-12-03 庆阳瑞华能源有限公司 一种基于知识蒸馏的目标检测方法及目标检测终端
CN114241282A (zh) * 2021-11-04 2022-03-25 河南工业大学 一种基于知识蒸馏的边缘设备场景识别方法及装置
CN114897160A (zh) * 2022-05-18 2022-08-12 四川云从天府人工智能科技有限公司 模型训练方法、系统及计算机存储介质
CN115131747A (zh) * 2022-08-25 2022-09-30 合肥中科类脑智能技术有限公司 基于知识蒸馏的输电通道工程车辆目标检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张彤彤;董军宇;赵浩然;李琼;孙鑫;: "基于知识蒸馏的轻量型浮游植物检测网络", 应用科学学报, no. 03, 30 May 2020 (2020-05-30) *
葛仕明;赵胜伟;刘文瑜;李晨钰;: "基于深度特征蒸馏的人脸识别", 北京交通大学学报, no. 06, 15 December 2017 (2017-12-15) *

Also Published As

Publication number Publication date
CN115829983B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
CN112561910B (zh) 一种基于多尺度特征融合的工业表面缺陷检测方法
CN110880176B (zh) 一种基于对抗生成网络的半监督工业图像缺陷分割方法
CN110598698B (zh) 基于自适应区域建议网络的自然场景文本检测方法和系统
CN111696079B (zh) 一种基于多任务学习的表面缺陷检测方法
CN115239638A (zh) 一种工业缺陷检测方法、装置、设备及可读存储介质
CN116863274A (zh) 一种基于半监督学习的钢板表面缺陷检测方法及系统
CN111833313A (zh) 基于深度主动学习的工业产品表面缺陷检测方法及系统
CN114757904A (zh) 一种基于ai深度学习算法的表面缺陷检测方法
CN113591978A (zh) 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质
CN112308129A (zh) 一种基于深度学习的植物线虫数据自动标注和分类识别方法
CN115731237A (zh) 一种基于半监督迁移学习的热轧钢带表面缺陷检测方法
CN115240259A (zh) 一种基于yolo深度网络的课堂环境下人脸检测方法及其检测系统
CN115861736B (zh) 基于知识蒸馏的高速瓦楞纸箱印刷缺陷检测方法、系统及存储介质
CN115100451B (zh) 一种用于液压泵漏油监控的数据扩充方法
CN115829983B (zh) 一种基于知识蒸馏的高速工业场景视觉质量检测方法
CN111898756A (zh) 一种多目标信息关联神经网络损失函数计算方法及装置
CN116188785A (zh) 运用弱标签的PolarMask老人轮廓分割方法
CN111126493A (zh) 深度学习模型的训练方法、装置、电子设备及存储介质
CN113361520B (zh) 基于样本偏移网络的输电线路设备缺陷检测方法
CN114429461A (zh) 基于域适应的跨场景带钢表面缺陷检测方法
CN114037856A (zh) 一种基于改进MSDNet与知识蒸馏的识别方法
CN109977819B (zh) 一种应用模板匹配方法的弱监督单个动作定位方法
CN111461060A (zh) 一种基于深度学习和极限学习机的交通标志识别方法
Wang et al. Prototype-based supervised contrastive learning method for noisy label correction in tire defect detection
CN112233071A (zh) 基于复杂环境下输电网图片的多粒度隐患检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant