CN113989267A - 基于轻量级神经网络的电池缺陷检测方法 - Google Patents

基于轻量级神经网络的电池缺陷检测方法 Download PDF

Info

Publication number
CN113989267A
CN113989267A CN202111337049.2A CN202111337049A CN113989267A CN 113989267 A CN113989267 A CN 113989267A CN 202111337049 A CN202111337049 A CN 202111337049A CN 113989267 A CN113989267 A CN 113989267A
Authority
CN
China
Prior art keywords
network
feature map
shufflenet
defect detection
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111337049.2A
Other languages
English (en)
Other versions
CN113989267B (zh
Inventor
陈海永
冯会川
袁乐
刘新如
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN202111337049.2A priority Critical patent/CN113989267B/zh
Publication of CN113989267A publication Critical patent/CN113989267A/zh
Application granted granted Critical
Publication of CN113989267B publication Critical patent/CN113989267B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明为一种基于轻量级神经网络的电池缺陷检测方法,基于轻量级神经网络构建缺陷检测模型;缺陷检测模型以ShuffleNetV2为骨干网络,将精炼的跨阶段局部机制融合到ShuffleNetV2网络中,得到精炼跨阶段局部ShuffleNetV2网络,精炼跨阶段局部ShuffleNetV2网络中还融合了并行分组注意力模块;精炼跨阶段局部ShuffleNetV2网络的输出特征图再经过低层特征引导的融合模块后,输入到区域推荐网络中推荐区域,对推荐区域进行分类和回归,得到缺陷类别和位置。并行分组注意力模块实现浅层与深层特征融合,低层特征引导的融合模块扩大了感受野;该方法解决了轻量化网络检测效果不理想的问题。

Description

基于轻量级神经网络的电池缺陷检测方法
技术领域
本发明涉及电池缺陷检测技术领域,具体涉及一种基于轻量级神经网络的电池缺陷检测方法。
背景技术
电池是制约新能源技术发展的重要因素之一,电池质量直接影响新能源设备的性能和使用寿命,表面缺陷检测是电池制造过程的一个重要环节。现有的人工检测方法受工人主观以及容易出现疲劳等因素影响较大,难以满足大规模生产需要,因此基于机器视觉的缺陷检测算法得以应用。通过机器视觉检测算法提取的缺陷特征主要依赖于人工定义的规则,只提取浅层特征,限制了其在工业检测中的广泛应用。而基于神经网络的缺陷检测算法能够取得令人难以置信的成果。
在以往的研究中已经证明,神经网络的深度越深、宽度越宽,拥有越强大的性能。然而,扩展神经网络的架构通常会带来更多的计算量,对硬件资源的要求较高,导致能部署深度神经网络的系统成本较高,极大地限制了基于深度神经网络的目标检测模型在实际工程中的应用,因此开发轻量化的网络很有必要。由于电池上缺陷存在多尺度特性和强烈的背景干扰,如背景纹理形状随机分布、表面缺陷在强度和形状上与背景重叠等,而轻量化的网络对于背景复杂和小目标缺陷的检测效果并不理想,因此开发轻量化的网络检测电池缺陷实施起来困难较大。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种基于轻量级神经网络的电池缺陷检测方法。
本发明解决所述技术问题采用的技术方案是:
一种基于轻量级神经网络的电池缺陷检测方法,其特征在于,该方法基于轻量级神经网络构建缺陷检测模型;缺陷检测模型以ShuffleNetV2为骨干网络,将精炼的跨阶段局部机制融合到ShuffleNetV2网络中,得到精炼跨阶段局部ShuffleNetV2网络,精炼跨阶段局部ShuffleNetV2网络中还融合了并行分组注意力模块;精炼跨阶段局部ShuffleNetV2网络的输出特征图再经过低层特征引导的融合模块后,输入到区域推荐网络中推荐区域,最后对推荐区域进行分类和回归,得到缺陷类别和位置。
所述精炼跨阶段局部ShuffleNetV2网络包含五个阶段,每个阶段由下采样、特征提取模块和通道混洗模块组成;在特征提取模块中,下采样后的特征图在通道维度上通过切片操作分为特征图x'0和x'0'两部分;特征图x'0'通过k个构建单元得到特征图xk,然后将特征图x'0'和xk在通道维度拼接在一起,得到特征图xc;特征图xc经过通道混洗模块,得到输出特征图xs
所述精炼跨阶段局部ShuffleNetV2网络各个阶段的每个构建单元之后均加入并行分组注意力模块;首先通过分组操作将构建单元的输出特征图在通道维度上分为多组,得到多个子特征;然后每个子特征的通道通过切片操作被拆分为两个分支;一个分支经过ECA操作,另一个分支经过ESA操作,最后将这两个分支的结果在通道维度上拼接在一起,得到拼接后的子特征;再将所有拼接后的子特征合并后,通过通道混洗操作得到并行分组注意力模块的输出特征图。
所述ESA操作具体为:通过ESA操作的输入特征图卷积得到空间注意力特征图,经过Sigmoid函数激活后,与ESA操作的输入特征图进行点乘。
低层特征引导的融合模块具体为:首先将精炼跨阶段局部ShuffleNetV2网络第五阶段的输出特征图C5经过全局平均池化操作,得到全局特征图Cg;然后将全局特征图Cg和精炼跨阶段局部ShuffleNetV2网络第三~五阶段的输出特征图C3、C4、C5分别经过1×1卷积,得到特征图P3、P4、P5和Pg;特征图P3通过Sigmoid函数得到重加权系数,将重加权系数与特征图P4、P5和Pg拼接后的特征图相乘,得到低层特征引导的融合模块的输出特征图。
与现有技术相比,本发明的有益效果是:
1.针对基于深度卷积神经网络的目标检测模型存在的参数量大、部署困难、难以满足实时检测要求等问题,本发明选取ShuffleNetV2作为骨干网络,实现模型的轻量化,满足实时检测的要求,使得该缺陷检测模型能够在移动设备上部署;将精炼的跨阶段局部机制应用到ShuffleNetV2网络中,以克服ShuffleNetV2网络在更新权重时存在的梯度重复利用问题。
2.引入了精炼的跨阶段局部机制,可以使缺陷检测模型在学习过程中获取需要重点关注的目标区域,得到注意力焦点,而后对这一区域投入更多注意力,以获取更多所需要关注目标的细节信息,从而抑制其他无用信息,这样就可以抑制背景,突出缺陷目标。
3.缺陷检测模型包含五个阶段,每个阶段均包含下采样,因此缺陷检测模型在提取特征过程经过五次下采样(每个卷积核大小为2*2、步长为2的最大池化层即为一次下采样),每次下采样后的特征图尺寸都会变为原来的一半,在这五次下采样过程中会丢失掉部分缺陷特征,若待检测图像中存在一个16像素*16像素的缺陷,通过三次下采样后,缺陷被保留下来的尺寸大小为4像素*4像素,而五次下采样后被保留下来的尺寸大小为1像素*1像素,因此小目标缺陷的细节信息更多的被保存在了浅层特征中,浅层特征包含了冗余的背景信息,这些信息会对缺陷的检测产生干扰,为了抑制冗余信息的干扰,而深层特征则保留了目标缺陷的高级语义特征;引入精炼的跨阶段局部机制之后,可能会引导网络更加关注深层特征,因为深层特征包含的语义信息更多,而浅层特征可能会受到抑制,被当成冗余特征忽略掉,会影响小目标缺陷的检测;为了更好地应对浅层特征与深层特征的差异性,本发明提出了并行分组注意力模块,实现浅层特征与深层特征的融合,即保留了目标缺陷的细节信息,又保留了目标缺陷的高级语义特征,使缺陷检测更加准确,提高了检测的精度。
4.针对电池中小目标缺陷占比大的特点,为了保证轻量级网络的检测性能,本申请提出了低层特征引导的融合模块,用具有更精确缺陷位置的低层特征引导多尺度特征图进行融合,保留小目标缺陷的位置信息;低层特征引导的融合模块的关键思想是聚合多尺度的局部信息和全局信息,通过利用局部和全局信息,这样既可以注意到拼接前每个特征图的局部特征,也能注意到拼接后的特征图的整体特征,使网络提取到的目标缺陷的特征信息更多,进而更加容易识别电池表面的小缺陷,提高识别的精确度;同时又可以发挥注意力机制抑制背景、突出目标的作用,使在非均匀纹理复杂背景下的目标特征提取更加容易。
5.本发明应用于工业缺陷检测中,对于小目标(目标尺度小于20*20像素)缺陷检测,效果明显,能够减少质检工序,减少后期人工质检项目,节约成本,提高了检测效率。本发明的缺陷检测模型在训练过程的计算量较小,大大节省了计算成本与检测时间,能够提高质检的质量和效率,进而提高电池的质量和生产效率,满足了实时性的要求。相比于常规的二阶段网络Faster R-CNN,本申请基于轻量级神经网络的缺陷检测模型对电池缺陷的检测精度更高,mAP达到90.9%。
附图说明
图1为本发明的整体流程图;
图2为本发明的缺陷检测模型的整体结构示意图;
图3为本发明的骨干网络第二阶段的结构示意图;
图4为本发明的并行分组注意力模块的结构示意图;
图5为本发明的低层特征引导的融合模块的结构示意图。
具体实施方式
下面结合附图对本发明的技术方案进行清楚、完整地描述,但并不以此限定本申请的保护范围。
本发明提供一种基于轻量级神经网络的电池缺陷检测方法(简称方法),包括以下步骤:
第一步、采集图像;
利用工业相机采集电池图像,作为缺陷检测的原始图像;原始图像包括无缺陷的图像和含有待检测缺陷的图像;含有待检测缺陷的图像既可以是包含单一缺陷的图像也可以是包含多种缺陷的图像,必须包含所有待检测缺陷种类。
第二步、对图像进行预测处理,得到数据集;
2-1、建立数据集存放文件夹
新建VOCdevkit文件夹,在VOCdevkit文件夹下VOC2007文件夹;在VOC2007文件夹下分别建立Annotations文件夹、JPEGImages文件夹以及ImageSets文件夹三个文件夹,在ImageSets文件夹下建立Main文件夹;在Main文件夹下建立train.txt、val.txt、test.txt以及trainval.txt四个文件,分别用于存放训练集、验证集、测试集和训练验证集;Annotations文件夹用于存放所有标注后的图像的xml文件,JPEGImages文件夹用于存放裁减掉背景的图像;
2-2、裁剪图像
对采集到的所有含有待检测缺陷的原始图像利用阈值切割法进行裁剪,根据图像阈值将每张待检测缺陷的原始图像的电池部分和背景分离,得到只含有电池部分的小图像,并将保存在JPEGImages文件夹中;原始图像含有大量的多余背景,有用的信息占比少,若直接缩小原始图像的尺寸,会计算大量的无用信息,而使用图像裁剪方法,不仅可以节省计算资源,还可以提高检测精度;
2-3、标注图像
使用软件Labelimg对步骤2-2中所有小图像进行手动标定,将其中的缺陷部分标注出来;然后每张标注后的图像都生成一个包含有图片名称、缺陷种类和缺陷位置坐标的xml文件,一个xml文件即为一个标签,并将所有的xml文件保存在Annotations文件夹中;
2-4、对数据集进行分组
将所有的xml文件按照比例分成VOC2007数据集中的训练集train.txt、验证集val.txt、训练验证集trainval.txt和测试集test.txt;首先提取Annotations文件夹中所有的xml文件,然后将所有的xml文件按照4:1的比例分为两组,分别作为训练集和验证集,训练验证集为训练集和验证集的总和,并将各个数据集对应的xml文件的文件名保存至相应的txt文件中;例如,将分到训练集的所有xml文件的文件名保存至train.txt文件中。
第三步、基于轻量级神经网络构建缺陷检测模型,用于检测电池的缺陷类别和位置;缺陷检测模型以ShuffleNetV2为骨干网络,将精炼的跨阶段局部机制融合到ShuffleNetV2网络中,得到精炼跨阶段局部ShuffleNetV2网络,精炼跨阶段局部ShuffleNetV2网络中还融合了并行分组注意力模块;精炼跨阶段局部ShuffleNetV2网络的输出特征图再经过低层特征引导的融合模块后,输入到区域推荐网络中推荐区域,最后对推荐区域进行分类和回归,得到缺陷类别和位置;
基于CNN的目标检测通常使用图像分类网络作为骨干网络,然而图像分类和目标检测的骨干网络承担的任务不同,因此需要调整图像分类网络的参数,以达到目标检测目的;针对电池缺陷呈现多尺度且小目标多的特征,同时综合考虑速度和精度,将骨干网络的输入分辨率设置为600×600;感受野的大小在CNN网络中起着重要作用,网络只能接收感受野内的信息,因此一个适合的感受野可以充分利用更多的上下文信息,更有效地编码像素之间的关系,这对于缺陷的定位是至关重要的;对于电池缺陷,小缺陷的尺寸只有20×20,而大缺陷能覆盖整张图;为了同时兼顾大小目标缺陷的检测准确性,因此ECSNet每个阶段的下采样(Unit2)使用5×5深度可分离卷积,构建单元(Unit1)使用3×3深度可分离卷积,以此来获得较大的感受野;ECSNet各个阶段的参数如表1所示;
表1 ShuffleNetV2各个阶段的参数
Figure BDA0003350949720000041
在原始的ShuffleNetV2网络中,每个阶段的特征提取模块首先将输入特征图差分为两部分,只对输入特征图的一半进行卷积处理,实现公式如下式:
Figure BDA0003350949720000051
式(1)中,xk-1和xk分别表示输入特征图和输出特征图,S表示通道混洗操作,w表示权重,c表示通道数,
Figure BDA0003350949720000052
表示卷积操作;
由式(1)知,每个构建单元的输出特征图都会保留输入特征图的一半信息,并将这一半信息继续传递下去,因此输出特征图xk还可以表示为下式:
Figure BDA0003350949720000053
式(2)中,Fk表示ShuffleNetV2网络第k层的操作函数,x0,x1,x2,…,xk-1表示各个层的输入特征图,wk表示第k层的权重;
由式(2)知,第k层的梯度会传递到前面的k-1,k-2,…,1层,并且这些层都会使用该梯度来更新权重,这将导致重复学习冗余信息;ShuffleNetV2利用反向传播来更新权重,其表达式为:
Figure BDA0003350949720000054
其中,fk是第k层的权重更新函数,gk-1表示传播到第k层的梯度;
通过式(3)可以发现,大量的梯度信息被重复用于不同层的权重更新,这将导致不同层重复学习相同的梯度信息,因此将精炼的跨阶段局部机制应用到ShuffleNetV2中,得到精炼跨阶段局部ShuffleNetV2网络(Efficient Cross stage partial ShuffleNet,ECSNet);ECSNet包含五个阶段,每个阶段由下采样、ShuffleNetV2网络原本的特征提取模块和通道混洗模块组成;其中,第二阶段的具体结构如图3所示,第二阶段的输入特征图首先经过下采样,下采样后的特征图经过特征提取模块和通道混洗模块,得到第二阶段的输出特征图;在特征提取模块中,下采样后的特征图在通道维度上通过切片操作分为特征图x'0和x”0两部分;特征图x”0通过k个构建单元(Unit1)得到特征图xk,然后将特征图x”0和xk在通道维度拼接在一起,得到特征图xc;特征图xc经过通道混洗模块,得到输出特征图xs;ECSNet前向推理和权重更新方程分别为式(4)和(5):
Figure BDA0003350949720000055
Figure BDA0003350949720000056
w′k=fk(wk,{g”0,g1,…,gk-1})
w′c=fc(wc,{g'0,gk}) (5)
其中,g'0、g”0分别为特征图x'0和x”0的梯度;
特征图x'0和x”0经过的两个支路的梯度都是独立的,两个支路在更新权重时都不会重复利用另一支路使用过的梯度信息,因此ECSNet通过给ShuffleNetV2每个阶段的梯度分流,来防止重复使用相同的梯度信息更新权重,该思想是通过把特征图先拆分再融合的策略实现,并通过通道混洗操作实现各个通道之间的信息交流;
由于浅层特征与深层特征所保留的信息有差异,在引入精炼的跨阶段局部机制之后,注意力机制会引导网络更加关注深层特征,因为深层特征包含的语义信息更多,而浅层特征可能会受到抑制,被当成冗余特征忽略掉,会影响小目标缺陷的检测;为了更好地应对浅层特征与深层特征的差异性,本发明提出了并行分组注意力模块,在ECSNet每个阶段的构建单元之后均加入并行分组注意力模块;并行分组注意力模块的结构如图4所示,首先通过分组操作将构建单元的输出特征图在通道维度上分为多组,得到多个子特征,每个子特征随着训练会逐渐捕获一种特定的语义信息,然后每个子特征的通道通过切片操作被拆分为两个分支;一个分支经过ECA(Efficient Channel Attention)操作,另一个分支经过ESA(Exact Spatial Attention)操作,最后将这两个分支的结果在通道维度上拼接在一起,得到拼接后的子特征;再将所有拼接后的子特征合并后,通过通道混洗操作来保证各组子特征之间的信息交互,得到与输入特征图同维度的特征图,即并行分组注意力模块的输出特征图;
在并行分组注意力模块中,用高效通道注意力(Efficient Channel Attention,ECA)学习通道间的依赖,用精准空间注意力(Exact Spatial Attention,ESA)捕获空间关系,通过并行分组注意力模块实现通道和空间上的注意;ECA使用一种不降维的局部跨通道交互策略,使用卷积核大小为i的一维卷积捕获每个通道及其i-1个临近通道的局部跨通道交互信息,其中i代表了局部跨通道交互的覆盖率,即该通道附近有多少相邻通道参与了这个通道的注意力预测,ECA高效地实现了通道注意力;而ESA直接用一个卷积得到空间注意力特征图,然后使用Sigmoid函数激活,最后与ESA操作的输入特征图进行点乘,可以精确地将注意力集中到每个点上;
由于ECSNet的感受野较小,解决这个问题的常见方法是使用特征金字塔网络(FPN),但是FPN结构中有许多额外的卷积和分支,增加了计算成本,造成推理延迟,难以满足实时检测;为此,本申请设计了低层特征引导的融合模块(Bottom feature GuidedFusion Module,BGFM),用具有更精确缺陷位置的低层特征引导多尺度特征图进行融合,保留小目标缺陷的位置信息,以提高缺陷检测模型对小目标缺陷的检测精度;扩大感受野的同时,不会增加太多计算成本;
低层特征引导的融合模块结构如图5所示,首先将ECSNet第五阶段的输出特征图C5经过全局平均池化操作,得到全局特征图Cg;然后将全局特征图Cg和ECSNet第三~五阶段的输出特征图C3、C4、C5分别经过1×1卷积,将这四个特征图调整为相同尺寸,得到特征图P3、P4、P5和Pg;特征图P3通过Sigmoid函数得到重加权系数,将重加权系数与特征图P4、P5和Pg拼接后的特征图相乘,得到低层特征引导的融合模块的输出特征图fBGFM,以此通过低层特征P3来引导其余三个特征图融合;BGFM的关键思想是聚合多尺度的局部信息和全局信息,通过利用局部和全局信息,BGFM有效地扩大了感受野,并提高了特征图的表征能力;
将低层特征引导的融合模块的输出特征图输入到区域推荐网络(RPN)中推荐区域,最后对推荐区域进行分类和回归,得到缺陷类别和位置。
第四步、训练缺陷检测模型;
4-1、设置模型训练参数
根据训练集中待检测缺陷的种类数和待检测缺陷名称修改缺陷检测模型的类别数和类别标签,训练集中一共6种待检测缺陷,故缺陷检测模型的类别数为6;根据待检测缺陷名称对应修改缺陷检测模型的类别标签;
4-2、设置模型初始权重
为了加快收敛速度减少训练时间,防止过拟合,将公共数据集ImageNet上预先训练ShuffleNetV2网络,将训练得到的权重作为缺陷检测模型的初始化权重;
4-3、计算训练损失
缺陷检测模型使用与少参数骨干网络匹配的轻量级检测头,针对数据集中小尺寸缺陷占比大的特点,本实施例使用8个尺度{122,162,202,242,322,642,1282,2562}和3种比例{1:2,1:1,2:1}生成小尺寸偏多的锚框;读取训练集中的图像,读入包括图像名称、缺陷类别和缺陷位置坐标信息在内的图像数据;将训练图像缩放至600*600像素,缩放后的图像通过缺陷检测模型的骨干网络进行特征提取,以锚框的尺寸作为先验框通过边框回归预测得到边界框,然后使用logistic分类器对边界框进行分类,获得每个边界框对应的缺陷类别分类概率;再通过非极大值抑制法(NMS)对所有边界框的缺陷类别分类概率进行排序,确定每个边界框对应的缺陷类别,得到预测值,预测值包括缺陷类别和缺陷位置信息,缺陷位置信息用于框出缺陷所在的位置;非极大抑制阈值为0.5;然后通过损失函数计算预测值和真实值之间的训练损失loss;
4-4、训练阶段
根据训练损失的变化来动态调整学习率与迭代次数,以更新整个缺陷检测模型的参数;训练分为两个阶段,第一阶段是训练开始的前100个周期,初始学习率固定为0.001,以加快收敛;第二阶段是指100个周期之后的训练周期,初始学习率设置为0.0001,当训练损失趋于稳定的时候,学习率依次变为原来的十分之一,设置最终学习率为0.00001,直到学习率减小到最终学习率0.00001时训练停止;
第五步、在线测试;
实验平台是在Ubuntu 16.04系统,CPU为酷睿i7系列(Intel 3.7GHz),显卡为TITAN Xp,使用的深度学习框架是Pytorch 1.3.0;首先裁剪掉测试所用图像的背景,再把图像缩放至600像素*600像素并输入缺陷检测模型中进行检测;测试结果表明,单张图像检测时间为0.017s,能满足企业生产实时性的要求;每张图像的缺陷会在图片上框出来,若有不同缺陷就会将所有的缺陷都框出来,只要有缺陷则认为这个电池为缺陷电池;将测试后的缺陷检测模型用于电池缺陷检测;
本实施例对太阳能电池虚焊、隐裂、线状缺陷、黑斑和断栅一共5种缺陷图像进行了实验,其中对虚焊、隐裂、黑斑和断栅的识别准确率能达到85%左右,线状缺陷的识别率在80%以上,本申请方法能够确定缺陷所处的位置,对于电池的召回率和精确度均有显著提升,能够用于动力电池、光伏电池以及锂电池等的缺陷检测。
本发明未述及之处适用于现有技术。

Claims (7)

1.一种基于轻量级神经网络的电池缺陷检测方法,其特征在于,该方法基于轻量级神经网络构建缺陷检测模型;缺陷检测模型以ShuffleNetV2为骨干网络,将精炼的跨阶段局部机制融合到ShuffleNetV2网络中,得到精炼跨阶段局部ShuffleNetV2网络,精炼跨阶段局部ShuffleNetV2网络中还融合了并行分组注意力模块;精炼跨阶段局部ShuffleNetV2网络的输出特征图再经过低层特征引导的融合模块后,输入到区域推荐网络中推荐区域,最后对推荐区域进行分类和回归,得到缺陷类别和位置。
2.根据权利要求1所述的基于轻量级神经网络的电池缺陷检测方法,其特征在于,所述精炼跨阶段局部ShuffleNetV2网络包含五个阶段,每个阶段由下采样、特征提取模块和通道混洗模块组成;在特征提取模块中,下采样后的特征图在通道维度上通过切片操作分为特征图x'0和x'0'两部分;特征图x'0'通过k个构建单元得到特征图xk,然后将特征图x'0'和xk在通道维度拼接在一起,得到特征图xc;特征图xc经过通道混洗模块,得到输出特征图xs
3.根据权利要求2所述的基于轻量级神经网络的电池缺陷检测方法,其特征在于,下采样的卷积核大小为5×5,构建单元的卷积核大小为3×3。
4.根据权利要求2所述的基于轻量级神经网络的电池缺陷检测方法,其特征在于,所述精炼跨阶段局部ShuffleNetV2网络各个阶段的每个构建单元之后均加入并行分组注意力模块;首先通过分组操作将构建单元的输出特征图在通道维度上分为多组,得到多个子特征;然后每个子特征的通道通过切片操作被拆分为两个分支;一个分支经过ECA操作,另一个分支经过ESA操作,最后将这两个分支的结果在通道维度上拼接在一起,得到拼接后的子特征;再将所有拼接后的子特征合并后,通过通道混洗操作得到并行分组注意力模块的输出特征图。
5.根据权利要求4所述的基于轻量级神经网络的电池缺陷检测方法,其特征在于,所述ESA操作具体为:通过ESA操作的输入特征图卷积得到空间注意力特征图,经过Sigmoid函数激活后,与ESA操作的输入特征图进行点乘。
6.根据权利要求2-5任一所述的基于轻量级神经网络的电池缺陷检测方法,其特征在于,低层特征引导的融合模块具体为:首先将精炼跨阶段局部ShuffleNetV2网络第五阶段的输出特征图C5经过全局平均池化操作,得到全局特征图Cg;然后将全局特征图Cg和精炼跨阶段局部ShuffleNetV2网络第三~五阶段的输出特征图C3、C4、C5分别经过1×1卷积,得到特征图P3、P4、P5和Pg;特征图P3通过Sigmoid函数得到重加权系数,将重加权系数与特征图P4、P5和Pg拼接后的特征图相乘,得到低层特征引导的融合模块的输出特征图。
7.根据权利要求1所述的基于轻量级神经网络的电池缺陷检测方法,其特征在于,缺陷检测模型的输入分辨率为600×600。
CN202111337049.2A 2021-11-12 2021-11-12 基于轻量级神经网络的电池缺陷检测方法 Active CN113989267B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111337049.2A CN113989267B (zh) 2021-11-12 2021-11-12 基于轻量级神经网络的电池缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111337049.2A CN113989267B (zh) 2021-11-12 2021-11-12 基于轻量级神经网络的电池缺陷检测方法

Publications (2)

Publication Number Publication Date
CN113989267A true CN113989267A (zh) 2022-01-28
CN113989267B CN113989267B (zh) 2024-05-14

Family

ID=79748071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111337049.2A Active CN113989267B (zh) 2021-11-12 2021-11-12 基于轻量级神经网络的电池缺陷检测方法

Country Status (1)

Country Link
CN (1) CN113989267B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710757A (zh) * 2024-02-05 2024-03-15 山东省计算中心(国家超级计算济南中心) 基于多尺度特征引导与融合的工业异常检测方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019104767A1 (zh) * 2017-11-28 2019-06-06 河海大学常州校区 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN111598860A (zh) * 2020-05-13 2020-08-28 河北工业大学 基于嵌入自注意力门模块的yolov3网络的锂电池缺陷检测方法
CN111612751A (zh) * 2020-05-13 2020-09-01 河北工业大学 基于嵌入分组注意力模块的Tiny-yolov3网络的锂电池缺陷检测方法
CN112465790A (zh) * 2020-12-03 2021-03-09 天津大学 基于多尺度卷积和三线性全局注意力的表面缺陷检测方法
CN113344188A (zh) * 2021-06-18 2021-09-03 东南大学 基于通道注意力模块的轻量级神经网络模型
CN113591968A (zh) * 2021-07-27 2021-11-02 中国人民解放军国防科技大学 一种基于非对称注意力特征融合的红外弱小目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019104767A1 (zh) * 2017-11-28 2019-06-06 河海大学常州校区 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN111598860A (zh) * 2020-05-13 2020-08-28 河北工业大学 基于嵌入自注意力门模块的yolov3网络的锂电池缺陷检测方法
CN111612751A (zh) * 2020-05-13 2020-09-01 河北工业大学 基于嵌入分组注意力模块的Tiny-yolov3网络的锂电池缺陷检测方法
CN112465790A (zh) * 2020-12-03 2021-03-09 天津大学 基于多尺度卷积和三线性全局注意力的表面缺陷检测方法
CN113344188A (zh) * 2021-06-18 2021-09-03 东南大学 基于通道注意力模块的轻量级神经网络模型
CN113591968A (zh) * 2021-07-27 2021-11-02 中国人民解放军国防科技大学 一种基于非对称注意力特征融合的红外弱小目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈海永;赵鹏;闫皓炜: "融合注意力的多尺度Faster RCNN的裂纹检测", 光电工程, vol. 48, no. 001, 31 December 2021 (2021-12-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710757A (zh) * 2024-02-05 2024-03-15 山东省计算中心(国家超级计算济南中心) 基于多尺度特征引导与融合的工业异常检测方法及系统
CN117710757B (zh) * 2024-02-05 2024-05-24 山东省计算中心(国家超级计算济南中心) 基于多尺度特征引导与融合的工业异常检测方法及系统

Also Published As

Publication number Publication date
CN113989267B (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
CN111461212B (zh) 一种用于点云目标检测模型的压缩方法
CN110046550B (zh) 基于多层特征学习的行人属性识别系统及方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN111798456A (zh) 一种实例分割模型的训练方法、装置、实例分割方法
CN110084817A (zh) 基于深度学习的数字高程模型生产方法
CN111598860A (zh) 基于嵌入自注意力门模块的yolov3网络的锂电池缺陷检测方法
CN113537244A (zh) 一种基于轻量化YOLOv4的家畜图像目标检测方法及装置
CN111798469A (zh) 基于深度卷积神经网络的数字图像小数据集语义分割方法
CN113297956B (zh) 一种基于视觉的手势识别方法及系统
CN112818849B (zh) 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
CN112598110B (zh) 神经网络构建方法、装置、设备及介质
CN110348503A (zh) 一种基于卷积神经网络的苹果品质检测方法
CN115761627A (zh) 一种火灾烟雾火焰图像识别方法
CN112597919A (zh) 基于YOLOv3剪枝网络和嵌入式开发板的实时药盒检测方法
CN116385958A (zh) 一种用于电网巡检和监控的边缘智能检测方法
CN111461211A (zh) 一种用于轻量级目标检测的特征提取方法及相应检测方法
CN115797808A (zh) 一种无人机巡检缺陷图像的识别方法、系统、装置及介质
CN114022727B (zh) 一种基于图像知识回顾的深度卷积神经网络自蒸馏方法
CN113989267A (zh) 基于轻量级神经网络的电池缺陷检测方法
Sridharan et al. Deep learning-based ensemble model for classification of photovoltaic module visual faults
CN110852255B (zh) 一种基于u型特征金字塔的交通目标检测方法
CN116630763A (zh) 一种基于多尺度上下文感知的多聚焦图像融合方法
CN115620238A (zh) 一种基于多元信息融合的园区行人属性识别方法
CN115761552A (zh) 面向无人机机载平台的目标检测方法、系统、设备及介质
CN115115552A (zh) 图像矫正模型训练及图像矫正方法、装置和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant