CN112418397B - 一种基于轻量级卷积神经网络的图像分类方法 - Google Patents

一种基于轻量级卷积神经网络的图像分类方法 Download PDF

Info

Publication number
CN112418397B
CN112418397B CN202011306236.XA CN202011306236A CN112418397B CN 112418397 B CN112418397 B CN 112418397B CN 202011306236 A CN202011306236 A CN 202011306236A CN 112418397 B CN112418397 B CN 112418397B
Authority
CN
China
Prior art keywords
convolution
input
convolutional neural
neural network
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011306236.XA
Other languages
English (en)
Other versions
CN112418397A (zh
Inventor
袁正午
卢晨星
李林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202011306236.XA priority Critical patent/CN112418397B/zh
Publication of CN112418397A publication Critical patent/CN112418397A/zh
Application granted granted Critical
Publication of CN112418397B publication Critical patent/CN112418397B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明涉及一种基于轻量级卷积神经网络的图像分类方法,属于计算机深度学习领域。该方法设计一种轻量级卷积单元,具体包括:S1:采用逐点卷积对输入特征图进行通道扩张;S2:采用深度卷积对输入特征图的通道进行分组;S3:批量标准化:对输入层和每一中间层的输入做标准化处理;S4:将输入特征图与批量标准化后的特征图进行concat拼接;S5:采用逐点卷积对输出通道进行收缩;S6:将经过步骤S5得到的特征图通过激活函数R_Hard_Swish。本发明相较于大型卷积神经网络,参数量和计算量大幅减少,在准确度性能的表现上相较于其他轻量级卷积神经网络而言效果更好。

Description

一种基于轻量级卷积神经网络的图像分类方法
技术领域
本发明属于计算机深度学习领域,涉及一种轻量级卷积神经网络的设计方法。
背景技术
卷积神经网络广泛应用于各种计算机视觉任务中,包括图像分类、目标检测和语义分割等。为了获得更高的准确度,最直接的方法是增加卷积神经网络的深度,例如AlexNet和VGGNet。然而,随着网络深度的增加,卷积神经网络往往含有大量的训练参数,导致计算量和模型体量大幅增加。因此,训练和部署深度学习模型仍然是一项困难的任务,需要大量的计算资源和存储资源。
随着智能化的移动端设备、物联网设备和嵌入式设备的发展,在这些设备上训练和部署卷积神经网络模型的需求越来越迫切,但这类设备计算资源和存储资源有限,ResNet这类大型卷积神经网络不适用于这类设备。
近年来,许多研究集中在构建轻量级的、高效的神经网络上,包括Exception、SqueezeNet、SqueezeNext、MobileNet系列和ShuffleNet系列等。SqueezeNet和SqueezeNext通过1×1的卷积将输入的特征图分为两组,再将两组卷积得到的特征图通过拼接和1×1卷积进行整合来替代传统卷积操作;MobileNet系列将每次卷积操作分为深度可分离卷积和逐点卷积两步;ShuffleNet系列将逐点分组卷积、通道混洗、深度可分离卷积、再次逐点分组卷积和残差连接四步作为一个基本单元替代传统卷积操作。
对以上方案进行总结,可以发现这些轻量级模型都包含了分组卷积和通道整合两个基本组成部分。分组卷积是通过给特征图进行分组再分别进行卷积操作,而不是将前一层输出的所有特征图进行卷积从而节省计算量,因此,分组卷积实际上成为轻量级网络的标准组件。虽然分组卷积可以大大减少神经网络的计算量,但由于每个组都是独立卷积的,因此也会导致组与组之间存在信息障壁,为了解决这个问题,在分组卷积之后还需要进行通道整合的操作。并且,这些轻量级卷积神经网络深度较浅,提取到的特征信息有限,在准确度上仍然有可提升的空间。
发明内容
有鉴于此,本发明的目的在于提供一种轻量级卷积神经网络的设计方法,解决深度较深的大型卷积神经网络难以在计算资源和存储资源有限的移动智能端设备、嵌入式设备和物联网设备等训练与部署,且现有的轻量级卷积神经网络在准确度性能上仍有较大提升空间的问题。结合深度可分离卷积和特征重用设计了一种卷积单元用于替代传统卷积操作,并改进Hard_Swish激活函数以解决神经元死亡的问题。不仅能够在准确度性能上优于其他深度较浅的轻量级卷积神经网络,而且能够在大型卷积神经网络上大幅减少参数量和计算量,使得卷积神经网络应用于智能移动端设备、嵌入式设备和物联网设备成为了可能。
为达到上述目的,本发明提供如下技术方案:
一种轻量级卷积神经网络的设计方法,设计一种轻量级卷积单元,具体包括以下步骤:
S1:采用逐点卷积对输入特征图进行通道扩张;
S2:采用深度卷积对输入特征图的通道进行分组;
S3:批量标准化:对输入层和每一中间层的输入做标准化处理;
S4:concat拼接:将输入特征图与批量标准化后的特征图进行concat拼接;
S5:采用逐点卷积对输出通道进行收缩;
S6:将经过步骤S5得到的特征图通过激活函数R_Hard_Swish。
进一步,步骤S2中,所述深度卷积具体包括:将一个卷积核为N×N的深度卷积拆分成一个卷积核为1×N的深度卷积和一个卷积核为N×1的深度卷积。
进一步,步骤S4中,设输入特征图为x,中间处理过程得到的是f(x),concat拼接得到的是[x||f(x)]。
进一步,步骤S5中,进行收缩后的输出通道数为原大型卷积神经网络卷积初期阶段输出通道数乘以参数α。
进一步,步骤S6中,激活函数R_Hard_Swish的计算公式为:
R_Hard_Swish(x)=Hard_Swish(x)+β×x
其中,
Figure GDA0003168741270000021
x表示输入特征图,ReLU6表示ReLU6激活函数,β取值范围为(0,1)。
本发明的有益效果在于:本发明设计的轻量级卷积单元,首先对输入特征图进行通道扩张,提升深度卷积提取特征信息的效果;将输入特征图与输出特征图进行concat拼接,实现对特征信息的重复利用以避免提取特征信息有限的情况发生;通过逐点卷积进行降维,有效减少参数量和计算量;将激活函数Hard_Swish函数进行改进,得到带有冗余相的R_Hard_Swish激活函数,以解决神经元无法更新参数的神经元死亡问题。本发明方法可以用于使用传统卷积方式且深度较深的大型卷积神经网络,相较于大型卷积神经网络,参数量和计算量大幅减少,并且由于深度相较于其他轻量级卷积神经网络而言更深并且使用了特征重用,在准确度性能的表现上相较于其他轻量级卷积神经网络而言效果更好。
本发明主要是针对深度较深的大型卷积神经网络在智能移动端设备、嵌入式设备和物联网设备上难以训练和部署,且当前的轻量级卷积神经网络在准确度性能上仍有提升空间的问题,结合深度可分离卷积和特征重用设计了一种卷积单元用于替代传统卷积操作,并改进了Hard_Swish激活函数以解决神经元死亡的问题。不仅能够在准确度性能上优于其他深度较浅的轻量级卷积神经网络,而且能够在大型卷积神经网络上大幅减少参数量和计算量,使得卷积神经网络应用于智能移动端设备、嵌入式设备和物联网设备成为了可能。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明轻量级卷积单元的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1,为本发明设计的一种轻量级卷积单元的流程示意图,本发明利用该轻量级卷积单元替代传统卷积操作。该轻量级卷积单元的设计方法,具体包括以下步骤:
1)逐点卷积:
逐点卷积本质上是使用1×1的卷积核进行卷积操作,除了可以整合通道,也可以用来改变输出通道数。假设输入通道数为N,输出通道数为M,输入特征图尺寸为F×F,参数量为1×1×M,计算量为F×F×N×M。深度卷积本身并不能改变卷积通道数,导致在卷积通道数较少的网络初期阶段提取特征信息的效果并不是很好,因此在步骤1使用逐点卷积进行通道扩张,提升深度卷积提起特征的效果。
2)深度卷积:
深度卷积是分组卷积的一种方式,通过输入特征图的通道进行分组。假设输入通道数为N,特征图尺寸为F×F,卷积核大小为K×K,此时参数量为K×K×N,计算量为F×F×N×K×K。步骤2与步骤4的操作实际上是将一个卷积核为3×3的深度卷积拆分成了一个卷积核为1×3的深度卷积和一个卷积核为3×1的深度卷积,这样的操作能在得到相同的卷积结果的前提下减少参数量。
3)批量标准化BatchNormalization(momentum=0.9,epsilon=10-5):
在统计机器学习中算法中,一个常见的问题是协变量偏移,协变量可以看作是输入变量。一般的深度神经网络都要求输入变量在训练数据和测试数据上的分布是相似的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。传统的深度神经网络在训练时,随着参数的不断更新,中间每一层输入的数据分布往往会和参数更新之前有较大的差异,导致网络要去不断的适应新的数据分布,进而使得训练变得异常困难,我们只能使用一个很小的学习速率和精调的初始化参数来解决这个问题。而且这个中间层的深度越大时,这种现象就越明显。由于是对层间数据的分析,也即是内部,因此这种现象叫做内部协变量偏移。为了解决这个问题,Sergey Ioffe’s和Christian Szegedy’s在2015年首次提出了批量标准化的想法。该想法是:不仅仅对输入层做标准化处理,还要对每一中间层的输入(激活函数前)做标准化处理,使得输出服从均值为0,方差为1的正态分布,从而避免内部协变量偏移的问题。之所以称之为批标准化,是因为在训练期间,仅通过计算当前层一小批数据的均值和方差来标准化每一层的输入。
4)concat拼接:
为了解决其他轻量级卷积神经网络提取特征信息有限的不足,在每个卷积单元都使用了特征重用,借鉴于DenseNet的思想,这里选择的是concat拼接策略而非add相加策略,即设输入特征图为x,中间处理过程得到的是f(x),concat拼接得到的是[x||f(x)]。
5)concat拼接之后的逐点卷积:
concat拼接之后使用逐点卷积对输出通道进行收缩,达到减少参数量和计算量的效果。这里的逐点卷积通道数选择为原大型卷积神经网络卷积初期阶段的输出通道数乘以参数α,这里的α可以调整输出通道数,进而调整整个网络的参数量,例如VGGNet的卷积初期阶段的输出通道数为64,则concat拼接之后的逐点卷积输出通道数为64×α。
6)激活函数R_Hard_Swish:
在2017年Google提出了Swish激活函数,Swish(x)=x×sigmoid(x),其中
Figure GDA0003168741270000041
Figure GDA0003168741270000042
并且通过实验证明Swish激活函数在准确度的表现上优于ReLU激活函数。但由于Swish激活函数涉及到指数运算,会导致计算量的增加,后续Google提出了Hard_Swish函数,
Figure GDA0003168741270000051
通过计算量较少的ReLU6函数来近似拟合Swish函数,但Hard_Swish函数在负半轴恒等于0,反向传播中梯度也是0,权重就不会被更新,导致神经元不再学习,即产生神经元死亡现象,所以针对神经元死亡现象对Hard_Swish函数进行改进,在Hard_Swish函数增加冗余相β×x,β取值范围为(0,1),R_Hard_Swish(x)=Hard_Swish(x)+β×x,这里取经验值0.1。
对于参数量和计算量的计算:假设输入与输出特征图尺寸均为F×F,输入通道数为N,输出通道数为M,大型卷积神经网络卷积初期阶段输出通道数为N0,传统卷积方式的卷积核大小为3×3,则单次传统卷积方式的参数量为3×3×M,即9×M,计算量为F×F×N×M×3×3,即9×N×M×F×F。在本发明提出的卷积单元中,单次卷积单元操作的参数量为1×1×M+3×1×M+1×3×M+1×1×N0,即7×M+N0,计算量为F×F×N0×M+F×F×3×1×M+F×F×1×3×M+F×F×(N0+M)×N0,即(6M+2×M×N0+N0 2)×F×F,其中N0小于等于M与N,尤其是到网络深层的时候N0会远小于M与N,所以可以比较得到本发明所提出的改进方法在参数量和计算量上相较于原大型神经网络而言大幅减少。
实施例1:使用本发明设计的轻量级卷积神经网络单元结合VGG16网络结构所构成的轻量级卷积神经网络处理图像分类问题的步骤如下:
(1)将VGG16网络中的传统卷积替换为本发明设计的轻量级卷积单元;
(2)将全连接层替换为全局均值池化进一步降低参数量与计算量;
(3)使用训练数据集对网络进行训练,得到分类模型。
(4)使用训练完毕的分类模型对待分类图像进行分类。
由于本发明设计的轻量级卷积神经网络对计算资源和存储资源的硬件要求远低于大型卷积神经网络,所以可以适用于当前和今后的物联网设备和嵌入式设备这类算力和存储能力有限的硬件当中,并在这类设备上处理图像分类、人脸识别、目标检测等图像相关领域问题。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.一种基于轻量级卷积神经网络的图像分类方法,将待训练图像数据集输入到轻量级卷积神经网络中进行训练,得到分类模型;然后使用训练完毕的分类模型对待分类图像进行分类;其特征在于,所述轻量级卷积神经网络包括轻量级卷积单元,构建该卷积单元具体包括以下步骤:
S1:采用逐点卷积对输入特征图进行通道扩张;
S2:采用深度卷积对输入特征图的通道进行分组;
S3:批量标准化:对输入层和每一中间层的输入做标准化处理;
S4:concat拼接:将输入特征图与批量标准化后的特征图进行concat拼接;
S5:采用逐点卷积对输出通道进行收缩;
S6:将经过步骤S5得到的特征图通过激活函数R_Hard_Swish;
激活函数R_Hard_Swish的计算公式为:
R_Hard_Swish(x)=Hard_Swish(x)+β×x
其中,
Figure FDA0003261106790000011
x表示输入特征图,ReLU6表示ReLU6激活函数,β取值范围为(0,1)。
2.根据权利要求1所述的图像分类方法,其特征在于,步骤S2中,所述深度卷积具体包括:将一个卷积核为N×N的深度卷积拆分成一个卷积核为1×N的深度卷积和一个卷积核为N×1的深度卷积。
3.根据权利要求1所述的图像分类方法,其特征在于,步骤S4中,设输入特征图为x,中间处理过程得到的是f(x),concat拼接得到的是[x||f(x)]。
4.根据权利要求1所述的图像分类方法,其特征在于,步骤S5中,进行收缩后的输出通道数为原大型卷积神经网络卷积初期阶段输出通道数乘以参数α。
CN202011306236.XA 2020-11-19 2020-11-19 一种基于轻量级卷积神经网络的图像分类方法 Active CN112418397B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011306236.XA CN112418397B (zh) 2020-11-19 2020-11-19 一种基于轻量级卷积神经网络的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011306236.XA CN112418397B (zh) 2020-11-19 2020-11-19 一种基于轻量级卷积神经网络的图像分类方法

Publications (2)

Publication Number Publication Date
CN112418397A CN112418397A (zh) 2021-02-26
CN112418397B true CN112418397B (zh) 2021-10-26

Family

ID=74774696

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011306236.XA Active CN112418397B (zh) 2020-11-19 2020-11-19 一种基于轻量级卷积神经网络的图像分类方法

Country Status (1)

Country Link
CN (1) CN112418397B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128116B (zh) * 2021-04-20 2023-09-26 上海科技大学 可用于轻量级神经网络的纯整型量化方法
CN113516655B (zh) * 2021-09-13 2022-01-18 常州市宏发纵横新材料科技股份有限公司 基于YOLOv4-Tiny神经网络的布面缺陷检测方法、装置及系统
CN114139689B (zh) * 2021-12-09 2024-05-07 东北大学 一种用于嵌入式系统的深层聚合神经网络轻量化方法
CN115330643B (zh) * 2022-10-13 2022-12-30 中国石油大学(华东) 基于卷积神经网络和视觉变换神经网络的地震去噪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840584A (zh) * 2017-11-24 2019-06-04 腾讯科技(深圳)有限公司 卷积神经网络模型、数据处理方法及装置
CN110349146A (zh) * 2019-07-11 2019-10-18 中原工学院 基于轻量级卷积神经网络的织物缺陷识别系统的搭建方法
CN110909630A (zh) * 2019-11-06 2020-03-24 腾讯科技(深圳)有限公司 一种异常游戏视频检测方法和装置
CN111428606A (zh) * 2020-03-19 2020-07-17 华南师范大学 一种面向边缘计算的轻量级人脸对比验证方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11734545B2 (en) * 2017-11-14 2023-08-22 Google Llc Highly efficient convolutional neural networks
CN109886209A (zh) * 2019-02-25 2019-06-14 成都旷视金智科技有限公司 异常行为检测方法及装置、车载设备
US20200285936A1 (en) * 2019-03-05 2020-09-10 STATGRAF Research LLP. Cognitive system
CN110853038A (zh) * 2019-10-15 2020-02-28 哈尔滨工程大学 一种用于肝脏肿瘤CT图像分割技术的DN-U-net网络方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840584A (zh) * 2017-11-24 2019-06-04 腾讯科技(深圳)有限公司 卷积神经网络模型、数据处理方法及装置
CN110349146A (zh) * 2019-07-11 2019-10-18 中原工学院 基于轻量级卷积神经网络的织物缺陷识别系统的搭建方法
CN110909630A (zh) * 2019-11-06 2020-03-24 腾讯科技(深圳)有限公司 一种异常游戏视频检测方法和装置
CN111428606A (zh) * 2020-03-19 2020-07-17 华南师范大学 一种面向边缘计算的轻量级人脸对比验证方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MobileNetV2 倒置残差和线性瓶颈;醉看长安花;《https://blog.csdn.net/qq_16130715/article/details/88984558》;20190123;全文 *
MobileNetV2: Inverted Residuals and Linear Bottlenecks;Mark Sandler 等;《https://arxiv.org/abs/1801.04381》;20190321;全文 *

Also Published As

Publication number Publication date
CN112418397A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN112418397B (zh) 一种基于轻量级卷积神经网络的图像分类方法
WO2020238293A1 (zh) 图像分类方法、神经网络的训练方法及装置
US20210042580A1 (en) Model training method and apparatus for image recognition, network device, and storage medium
CN107358262B (zh) 一种高分辨率图像的分类方法及分类装置
CN108446689B (zh) 一种人脸识别方法
CN110321967B (zh) 基于卷积神经网络的图像分类改进方法
CN109359725B (zh) 卷积神经网络模型的训练方法、装置、设备及计算机可读存储介质
CN109214353B (zh) 一种基于剪枝模型的人脸图像快速检测训练方法和装置
CN108875076B (zh) 一种基于Attention机制和卷积神经网络的快速商标图像检索方法
CN111507993A (zh) 一种基于生成对抗网络的图像分割方法、装置及存储介质
CN106778852A (zh) 一种修正误判的图像内容识别方法
WO2021051987A1 (zh) 神经网络模型训练的方法和装置
Cai et al. Softer pruning, incremental regularization
CN111738303A (zh) 一种基于层次学习的长尾分布图像识别方法
CN116503676B (zh) 一种基于知识蒸馏小样本增量学习的图片分类方法及系统
CN113378938B (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及系统
CN115862045B (zh) 基于图文识别技术的病例自动识别方法、系统、设备及存储介质
CN112861659A (zh) 一种图像模型训练方法、装置及电子设备、存储介质
KR102305575B1 (ko) 이미지 간 유사도를 이용한 유사 영역 강조 방법 및 시스템
Al-Amaren et al. RHN: A residual holistic neural network for edge detection
CN113378937A (zh) 一种基于自监督增强的小样本图像分类方法及系统
CN117152438A (zh) 一种基于改进DeepLabV3+网络的轻量级街景图像语义分割方法
CN108921852B (zh) 基于视差与平面拟合的双分支室外非结构化地形分割网络
CN114494284B (zh) 一种基于显式监督区域关系的场景解析模型及方法
Wang et al. Feature enhancement: predict more detailed and crisper edges

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant