CN114139689B - 一种用于嵌入式系统的深层聚合神经网络轻量化方法 - Google Patents
一种用于嵌入式系统的深层聚合神经网络轻量化方法 Download PDFInfo
- Publication number
- CN114139689B CN114139689B CN202111497896.5A CN202111497896A CN114139689B CN 114139689 B CN114139689 B CN 114139689B CN 202111497896 A CN202111497896 A CN 202111497896A CN 114139689 B CN114139689 B CN 114139689B
- Authority
- CN
- China
- Prior art keywords
- aggregation
- depth
- layer
- convolution
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002776 aggregation Effects 0.000 title claims abstract description 191
- 238000004220 aggregation Methods 0.000 title claims abstract description 191
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000004364 calculation method Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 24
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 239000010410 layer Substances 0.000 claims description 127
- 238000011176 pooling Methods 0.000 claims description 39
- 230000004913 activation Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 25
- 230000010354 integration Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 9
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 239000002356 single layer Substances 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 239000013585 weight reducing agent Substances 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种用于嵌入式系统的深层聚合神经网络轻量化方法,涉及深度学习技术领域。该方法首先使用深度可分离卷积块替换深层聚合神经网络中的标准卷积块,将一个标准卷积块拆分为深度卷积计算和逐点卷积计算,对输入进行处理生成特征图;并在深层聚合神经网络的深层聚合结点处的聚合操作之后接入瓶颈残差块,对特征图进行维度扩展;然后在深层聚合神经网络的瓶颈层中加入注意力模块,自适应地校准特征图中的特征;最后通过多个深度可分离卷积块和聚合节点构造出迭代深度聚合结构和分层深度聚合结构,实现对深层聚合神经网络结构的轻量化。该方法增强了特征提取的能力,达到了模型轻量化的目的,而且在层级上提高了多尺度目标的识别准确度。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种用于嵌入式系统的深层聚合神经网络轻量化方法。
背景技术
视觉识别任务需要丰富的信息,信息丰富程度从低到高,尺度从小到大。随着卷积神经网络的深度变化,单独的一层并不能够提供足够的信息,只有聚合这些信息,才能够提高获取是什么与在哪里信息的准确性。现有的很多致力于网络结构设计的工作,包括探索不同的网络结构,设计更深、更大的网络。在2019年有人提出深层聚合的网络结构,它更好地融合网络不同层、块之间的信息,能够迭代式地将网络结构特征信息融合起来,为多尺度目标识别提供了解决方案。
为了将深度卷积神经网络模型应用于实时应用和低内存的嵌入式设备,一个可行的解决方案是对深度神经网络进行压缩和加速,以减少参数、计算成本和功耗。例如MobileNet是一个轻量级的网络,它使用深度可分离的卷积来加深网络以达到减少参数和计算量。同时MobileNet在ImageNet数据集上的分类准确率仅降低了1%。但是,目前的轻量型网络没有对网络层进行探究以期适应多尺度识别,相比之下深层聚合的网络识别准确度更好,而目前还没有对深层聚合网络轻量化的方法。
中国发明“CN201910145961.4”主要使用mobilenet-ssd模型对手势进行检测,它主要是通过修改ssd中的vgg16部分,用mobilenet网络中的深度可分离卷积去替换vgg16中的标准卷积,以达到模型轻量化的目的。中国发明“CN201810745187.6”使用mobilenet-v2模型对目标进行识别,可以在嵌入式系统中实时运行。
中国专利“CN201910145961.4”所述的技术方案,采用mobilenet-ssd模型识别手势,依据该模型的特性,会将mobilenet模型后面多层的输出全部整合到一起,然后选择置信度最高的目标。中国专利“CN201810745187.6”所述的方案,采用mobilenet-v2模型对目标进行识别,mobilenet-v2模型通过多层bottleneck,最后得到的1×1×1280的特征图,再进行识别输出。这两种方法都没有针对模型层进行研究,在涉及多个不同尺度目标的识别中,会出现准确度不够高的问题。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种用于嵌入式系统的深层聚合神经网络轻量化方法,对模型层进行聚合实现多尺度识别,减少模型参数,提高运行速度。
为解决上述技术问题,本发明所采取的技术方案是:一种用于嵌入式系统的深层聚合神经网络轻量化方法,
使用深度可分离卷积块替换标准卷积块对输入进行处理生成特征图;
在深层聚合结构的聚合节点处构建瓶颈残差块结构,对特征图进行维度扩展;
在瓶颈残差块结构中加入注意力模块,重新校准特征图中的特征;
构造出迭代深度聚合结构和分层深度聚合结构,得到轻量化的深层聚合神经网络结构;
具体包括以下步骤:
步骤1:使用深度可分离卷积块替换深层聚合神经网络中的标准卷积块,将一个标准卷积块拆分为深度卷积计算和逐点卷积计算,对输入进行处理生成特征图;
步骤1.1:对输入的每一个特征图通道都采用只有一个层的卷积核进行深度卷积计算,所有的深度卷积都采用大小为3×3的单层卷积核,得到各个通道相互分离的输出特征图;在深度卷积时每一个输入通道对应一个卷积核表示为:
其中,m和n分别表示输入和输出的特征图通道数,i和j表示卷积过程中特征图长和宽的第i和j的数值,k表示卷积核的大小;K表示大小为Dk·Dk·M的深度卷积核,K中的第m个卷积核应用于特征图F中的第m个通道以生成卷积后的输出特征图G的第m个通道;
深度卷积的计算量为:Dk·Dk·M·Df·Df;
步骤1.2:对各个通道相互分离的输出特征图进行批量标准化处理,将数据分成小批次进行随机梯度下降,将分散的数据统一,而且在每批数据进行前向传递的时候,对每一层都进行标准化处理,让输入值经过激励函数加强神经网络的表达能力;
步骤1.3:对经过批量标准化处理的数据使用ReLu激活函数进行激活操作;
步骤1.4:对经过ReLU激活操作的数据再进行批量标准化处理;
步骤1.5:采用1×1卷积核对步骤1.4批量标准化处理后的数据进行逐点卷积计算,将特征通道之间相互分离的特征组合起来,输出线性组合,生成新的特征图;逐点卷积计算的计算量为:M·N·Df·Df;
步骤1.6:对步骤1.5生成的新特征图再次进行批量标准化操作、使用ReLU激活函数和批量标准化;
步骤2:在深层聚合神经网络的深层聚合结点处的聚合操作之后接入瓶颈残差块,对特征图进行维度扩展;
步骤2.1:采用单一的卷积接一个批量标准化层和一个非线性激活层的结构组合和压缩深层聚合结点的输入;深层聚合结点的聚合公式如下:
其中,σ表示非线性激活,Wi和b均表示卷积时的权重,i=1,2,…,n;xn表示输入到深层聚合结点的第n个特征图,N()表示聚合函数;
步骤2.2:在深层聚合结点聚合操作之后,构建瓶颈残差块结构对经过聚合输出的特征图进行特征提取,所述瓶颈残差块包括扩展层和投影层;
步骤2.2.1:构建倒残差结构;特征图在进入扩展层时,采用1×1的标准卷积核以步长为1按照一个扩展系数进行维度扩展,在维度扩展过程中输入和输出的特征图大小保持相等;
步骤2.2.2:用已经过维度扩展的特征图作为深度可分离卷积块中深度卷积计算的输入,进行深度卷积计算,输出的特征图大小与输入保持一致;
步骤2.2.3:对注意力层的输出作为深度可分离卷积块逐点卷积的输入,进行特征提取;深度可分离卷积块的逐点卷积计算作为瓶颈残差块的投影层,逐点卷积计算后输出的特征图维度与扩展前的维度一致,目的是将高维特征映射到低维空间上;
步骤2.2.4:将逐点卷积计算输出的特征图与扩展层的输入进行加操作;
步骤3:在深层聚合神经网络的瓶颈层中加入注意力模块;注意力模块包括样式池化模块和样式整合模块两个部分;注意力模块放在瓶颈残差块中的扩展层与深度可分离卷积块之间,通过利用扩展层输出的特征图的样式自适应地重新校准特征图中的特征;
步骤3.1:将经过扩展层进行维度扩展的特征图输入到样式池化模块中;
所述样式池化模块由平均池化层和全局标准差池化层组成;对于输入的特征图 这两个池化层分别对输入进行全局平均池化和全局标准差池化,分别得到两个输出/>和/>其中,/>然后将两个输出拼接起来,得到的输出/> 计算公式如下:
tnc=[μnc,σnc]
其中,xnchw表示经过扩展层进行维度扩展的特征图,H、W代表特征图的高和宽,μnc代表经过全局平均池化的特征图,σnc表示经过全局标准差池化的特征图,tnc表示将μnc和σnc拼接起来后的特征图,用来示例n和通道c的样式信息的摘要描述;
步骤3.2:将经过样式池化模块进行全局平均池化和全局标准差池化后的特征图输入样式整合模块;
对于输入首先进入通道全连接层,对输入进行一次全连接,学习样式权重;然后接批量标准化层,将所得数据按一定批次整理,再采用sigmoid激活函数对神经网络进行激活;得到的输出为/>样式整合模块的操作对通道执行的编码为znc=wc·tnc,其中,wc是训练时学习的权重参数,而/>代表编码的样式特征;样式整合模块对数据的处理公式为:
其中,是仿射变换函数,/>表示通道样式权重,/>表示进行批量化和标准化得到的特征图,/>表示进行批量标准化的最终特征图,gnc表示经过sigmod激活函数后得到的特征图;
将批量标准化层合并到通道全连接层中;每个通道的样式集成归结为单个通道全连接层fCFC:后跟激活函数fACT:/>最后,原始输入X被权重G重新校准;输出/>由以下公式获得:/>xnc表示注意力模块的输入
步骤4:通过多个深度可分离卷积块和聚合节点构造出迭代深度聚合结构和分层深度聚合结构,得到轻量化的深层聚合神经网络结构;所有的迭代深层聚合IDA结构都是二分结点,而分层深度聚合HDA结构根据深层聚合神经网络树结构的深度不同而有一系列的参数输入;
步骤4.1:构造分层深度聚合结构;
在整个深层聚合网络中一共有4个分层深度聚合结构;第一个分层深度聚合结构,是由两个深度可分离块和一个聚合结点组成一个两层的分层聚合结构,第一层由两个深度可分离卷积块构成,作为输入,两个深度可分离卷积块在聚合结点处进行聚合,聚合结点作为第二层,并通过下采样作为下一个深度可分离卷积块的输入;第二个分层深度聚合结构中,总共包含4个深度可分离卷积块和两个聚合节点构成三层的分层聚合结构,第一层由4个深度可分离卷积块构成,第二层的聚合结点由第一层的前两个深度可分离卷积块聚合而成,第三层的聚合结点由第二层的第一个聚合结点和第一层的后两个深度可分离卷积块聚合而成,并通过下采样输入到下一个深度可分离卷积块中;第三个分层深度聚合结构由8个深度可分离卷积块块和4个聚合结点组成,共有四层;最后一个分层聚合结构则是由两个深度可分离卷积块和一个聚合结点组成;深度为n的聚合结点Tn公式如下:
其中,N代表聚合节点,运算方式R和L定义如下:
其中,B()表示一个深度可分离卷积块;
步骤4.2:构造迭代深度聚合结构;
对于每一个深度聚合结构中最后的聚合结点,将通过迭代的方式传递给下一个深度聚合结构的最后一个聚合节点;聚合从最低、最小的尺度开始,经过一次次迭代,合并每一个分层聚合结构中不同尺度的感受野;深度聚合结构中每迭代一次就会得到深一层的语义信息,语义信息层x1,x2,…,xn的表示公式为:
其中,I()表示迭代深度聚合运算。
采用上述技术方案所产生的有益效果在于:本发明提供的一种用于嵌入式系统的深层聚合神经网络轻量化方法,用深度可分离卷积块替换每一个标准卷积块,然后对每两个深度可分离卷积块聚合成一个节点,在该聚合节点中构建瓶颈残差块,在该瓶颈残差块中应用倒残差结构,之后再引入注意力模块以增强特征提取的能力。多个深度可分离卷积块和聚合节点构成了分层深度聚合结构,不同的分层深度聚合结构中的聚合节点通过迭代的方式构造迭代深度聚合结构,以增强对不同尺度的特征的提取能力。
本发明方法使用深度可分离卷积块提取图像特征,计算量下降到改进前的1/8到1/9之间,而特征提取能力没有明显下降,引入的瓶颈残差块和注意力模块加强了特征的提取能力,而深层聚合结构在网络层级上进行优化。在这种机制下,达到了模型轻量化的目的,而且在层级上提高了多尺度目标的识别准确度。
附图说明
图1为本发明实施例提供的一种用于嵌入式系统的深层聚合神经网络轻量化方法的流程图;
图2为本发明实施例提供的深度可分离卷积块的结构示意图;
图3为本发明实施例提供的瓶颈残差块和注意力模块的结构示意图;
图4为本发明实施例提供的分层深度聚合结构和迭代深度聚合结构的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本实施例中,一种用于嵌入式系统的深层聚合神经网络轻量化方法,如图1所示,包括以下步骤:
步骤1:使用如图2所示的深度可分离卷积块(Depthwise SeparableConvolutions Block,即DSC)替换深层聚合神经网络中的标准卷积块,将一个标准卷积块拆分为深度卷积计算和逐点卷积计算,对输入进行处理生成特征图;
本实施例中,将整个深层聚合神经网络中所有共18个标准卷积块用深度可分离卷积块进行替换;对于一个标准卷积块,它的输入为Df×Df×M的特征图F,输出为Dg×Dg×N的特征图G;其中,M,N分别为输入和输出的特征图通道数,Df和Dg分别为输入和输出的特征图大小;标准卷积块使用大小为Dk×Dk×M×N的卷积核对输入特征图进行卷积计算,并设定步幅为1,卷积计算方式如下:
其中,m和n分别表示输入和输出的特征图通道数,i和j表示卷积过程中特征图长和宽的第i和j的数值,k表示卷积核的大小。
标准卷积块进行卷积计算计算量为:Dk·Dk·M·N·Df·Df;
步骤1.1:对输入的每一个特征图通道都采用只有一个层的卷积核进行深度卷积计算,所有的深度卷积都采用大小为3×3的单层卷积核,得到各个通道相互分离的输出特征图;在深度卷积时每一个输入通道对应一个卷积核表示为:
其中,m和n分别表示输入和输出的特征图通道数,i和j表示卷积过程中特征图长和宽的第i和j的数值,k表示卷积核的大小;K表示大小为Dk·Dk·M的深度卷积核,K中的第m个卷积核应用于特征图F中的第m个通道以生成卷积后的输出特征图G的第m个通道;
深度卷积的计算量为:Dk·Dk·M·Df·Df;
步骤1.2:对各个通道相互分离的输出特征图进行批量标准化处理,将数据分成小批次进行随机梯度下降,将分散的数据统一,使得输入的变化范围不会太大,而且在每批数据进行前向传递的时候,对每一层都进行标准化处理,让输入值经过激励函数加强神经网络的表达能力,以达到优化神经网络的目的;
步骤1.3:对经过批量标准化处理的数据使用ReLu激活函数进行激活操作;ReLu激活函数如下公式所示:
步骤1.4:对经过ReLU激活操作的数据再进行批量标准化处理;
步骤1.5:采用1×1卷积核对步骤1.4批量标准化处理后的数据进行逐点卷积计算,将特征通道之间相互分离的特征组合起来,输出线性组合,生成新的特征图;逐点卷积计算的计算量为:M·N·Df·Df;
经过深度可分离的两个步骤,相当于进行了一次标准卷积,这两步的计算复杂度为:Dk·Dk·M·Df·Df+M·N·Df·Df。
通过用深度可分离卷积代替标准卷积,我们可以减少的计算量为:
本实施例中,采用的都是3×3的深度可分离卷积,经过该步骤,可以将计算量减少到原来的1/8到1/9;
步骤1.6:对步骤1.5生成的新特征图再次进行批量标准化操作、使用ReLU激活函数和批量标准化,目的是使深层聚合神经网络更稳定和加快网络收敛;
步骤2:在深层聚合神经网络的深层聚合结点处的聚合操作之后接入瓶颈残差块(BottleneckResidualblock),对特征图进行维度扩展,提取更多特征;
步骤2.1:为了避免聚合结构过于复杂,本发明采用单一的卷积接一个批量标准化层和一个非线性激活层的结构组合和压缩深层聚合结点的输入;聚合节点通过训练来选择合适重要的信息来投影到与输入维度一致相同尺度的输出中去;深层聚合结点的聚合公式如下:
其中,σ表示非线性激活,Wi和b均表示卷积时的权重,i=1,2,…,n;xn表示输入到深层聚合结点的第n个特征图,N()表示聚合函数;
步骤2.2:在深层聚合结点聚合操作之后,构建瓶颈残差块结构对经过聚合输出的特征图进行特征提取,所述瓶颈残差块包括扩展层和投影层;
步骤2.2.1:在此步骤中,本发明参照了残差(Residual)的思想,构建倒残差(Inverted Residual)结构;特征图在进入扩展层时,采用1×1的标准卷积核以步长为1按照一个扩展系数进行维度扩展,将低维空间映射到高维空间,获取更多的特征,在维度扩展过程中输入和输出的特征图大小保持相等;
步骤2.2.2:用已经过维度扩展的特征图作为深度可分离卷积块中深度卷积计算的输入,按照步骤1.1,进行深度卷积计算,输出的特征图大小与输入保持一致;
步骤2.2.3:对注意力层的输出作为深度可分离卷积块逐点卷积的输入,进行特征提取;深度可分离卷积块的逐点卷积计算作为瓶颈残差块的投影层,逐点卷积计算后输出的特征图维度与扩展前的维度一致,目的是将高维特征映射到低维空间上;
步骤2.2.4:将逐点卷积计算输出的特征图与扩展层的输入进行加操作,目的是有效控制梯度消失和网络退化问题;
步骤3:在深层聚合神经网络的瓶颈层中加入注意力模块(Style-basedRecalibration Module,即SRM);注意力模块包括样式池化模块和样式整合模块两个部分;注意力模块放在瓶颈残差块中的扩展层与深度可分离卷积块之间,通过利用扩展层输出的特征图的样式自适应地重新校准特征图中的特征,使神经网络能更好地对这些特征进行提取;
步骤3.1:将经过扩展层进行维度扩展的特征图输入到样式池化模块中;
所述样式池化模块由平均池化层和全局标准差池化层组成;对于输入的特征图 这两个池化层分别对输入进行全局平均池化和全局标准差池化,分别得到两个输出/>和/>其中,/>然后将两个输出拼接起来,得到的输出/> 该操作通过汇总时空维度的响应特征,从每一个通道中提取样式特征。
计算公式如下:
tnc=[μnc,σnc]
其中,xnchw表示经过扩展层进行维度扩展的特征图,H、W代表特征图的高和宽,μnc代表经过全局平均池化的特征图,σnc表示经过全局标准差池化的特征图,tnc表示将μnc和σnc拼接起来后的特征图,用来示例n和通道c的样式信息的摘要描述;
步骤3.2:将经过样式池化模块进行全局平均池化和全局标准差池化后的特征图输入样式整合模块;
对于输入首先进入通道全连接层,对输入进行一次全连接,学习样式权重;然后接批量标准化层,将所得数据按一定批次整理,再采用sigmoid激活函数对神经网络进行激活;经过3步处理,得到的输出为/>样式整合模块[Styleintegration]的操作对通道执行的编码为znc=wc·tnc,其中,wc是训练时学习的权重参数,而/>代表编码的样式特征;样式整合模块对数据的处理公式为:
其中,是仿射变换函数,/>表示通道样式权重,/>表示进行批量化和标准化得到的特征图,/>表示进行批量标准化的最终特征图,gnc表示经过sigmod激活函数后得到的特征图;
批量标准化层在推理时使用均值和方差的固定近似值,可以将批量标准化层合并到通道全连接层中;每个通道的样式集成归结为单个通道全连接层后跟激活函数/>最后,原始输入X被权重G重新校准;输出/>由以下公式获得:/>xnc表示注意力模块的输入。
本实施例中,步骤2的构建瓶颈残差块和步骤3的注意力模块结构如图3所示。
步骤4:通过多个深度可分离卷积块和聚合节点构造出迭代深度聚合(IDA)结构和分层深度聚合(HDA)结构,得到轻量化的深层聚合神经网络结构,如图4所示;所有的迭代深层聚合IDA结构都是二分结点,而分层聚合HDA结构根据深层聚合神经网络树结构的深度不同而有一系列的参数输入;
步骤4.1:构造分层深度聚合(HDA)结构;
在整个深层聚合网络中一共有4个分层深度聚合结构;第一个分层深度聚合结构,是由两个深度可分离块和一个聚合结点组成一个两层的分层聚合结构,第一层由两个深度可分离卷积块构成,作为输入,两个深度可分离卷积块在聚合结点处进行聚合,聚合结点作为第二层,并通过下采样作为下一个深度可分离卷积块的输入;第二个分层深度聚合结构中,总共包含4个深度可分离卷积块(DBS)和两个聚合节点构成三层的分层聚合结构,第一层由4个深度可分离卷积块构成,第二层的聚合结点由第一层的前两个深度可分离卷积块聚合而成,第三层的聚合结点由第二层的第一个聚合结点和第一层的后两个深度可分离卷积块聚合而成,并通过下采样输入到下一个深度可分离卷积块中;第三个分层深度聚合结构由8个深度可分离卷积块块和4个聚合结点组成,共有四层;最后一个分层聚合结构则是由两个深度可分离卷积块和一个聚合结点组成;通过4个分层深度聚合块,合并树中的块和阶段来保留和组合特征通道,将上一步中得到的更浅层和更深层结合起来,用来学习跨越更多特征层次结构的更丰富的组合。深度为n的聚合结点Tn公式如下:
其中,N代表聚合节点,运算方式R和L定义如下:
其中,B()表示一个深度可分离卷积块;
步骤4.2:构造迭代深度聚合(IDA)结构;
对于每一个深度聚合结构中最后的聚合结点,将通过迭代的方式传递给下一个深度聚合结构的最后一个聚合节点;聚合从最低、最小的尺度开始,经过一次次迭代,合并每一个分层聚合结构中不同尺度的感受野;深度聚合结构中每迭代一次就会得到深一层的语义信息,语义信息层x1,x2,…,xn的表示公式为:
其中,I()表示迭代深度聚合运算。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (6)
1.一种用于嵌入式系统的深层聚合神经网络轻量化方法,其特征在于:
使用深度可分离卷积块替换标准卷积块对输入进行处理生成特征图;
在深层聚合结构的聚合节点处构建瓶颈残差块结构,对特征图进行维度扩展;
在瓶颈残差块结构中加入注意力模块,重新校准特征图中的特征;
构造出迭代深度聚合结构和分层深度聚合结构,得到轻量化的深层聚合神经网络结构;
具体包括以下步骤:
步骤1:使用深度可分离卷积块替换深层聚合神经网络中的标准卷积块,将一个标准卷积块拆分为深度卷积计算和逐点卷积计算,对输入进行处理生成特征图;
步骤2:在深层聚合神经网络的深层聚合结点处的聚合操作之后接入瓶颈残差块,对特征图进行维度扩展;
步骤3:在深层聚合神经网络的瓶颈层中加入注意力模块;注意力模块包括样式池化模块和样式整合模块两个部分;注意力模块放在瓶颈残差块中的扩展层与深度可分离卷积块之间,通过利用扩展层输出的特征图的样式自适应地重新校准特征图中的特征;
步骤4:通过多个深度可分离卷积块和聚合节点构造出迭代深度聚合结构和分层深度聚合结构,得到轻量化的深层聚合神经网络结构;所有的迭代深层聚合IDA结构都是二分结点,而分层深度聚合HDA结构根据深层聚合神经网络树结构的深度不同而有一系列的参数输入;
所述步骤1的具体方法为:
步骤1.1:对输入的每一个特征图通道都采用只有一个层的卷积核进行深度卷积计算,所有的深度卷积都采用大小为3×3的单层卷积核,得到各个通道相互分离的输出特征图;在深度卷积时每一个输入通道对应一个卷积核表示为:
其中,m和n分别表示输入和输出的特征图通道数,i和j表示卷积过程中特征图长和宽的第i和j的数值,k表示卷积核的大小;K表示大小为Dk·Dk·M的深度卷积核,K中的第m个卷积核应用于特征图F中的第m个通道以生成卷积后的输出特征图G的第m个通道;
深度卷积的计算量为:Dk·Dk·M·Df·Df;
步骤1.2:对各个通道相互分离的输出特征图进行批量标准化处理,将数据分成小批次进行随机梯度下降,将分散的数据统一,而且在每批数据进行前向传递的时候,对每一层都进行标准化处理,让输入值经过激励函数加强神经网络的表达能力;
步骤1.3:对经过批量标准化处理的数据使用ReLu激活函数进行激活操作;
步骤1.4:对经过ReLU激活操作的数据再进行批量标准化处理;
步骤1.5:采用1×1卷积核对步骤1.4批量标准化处理后的数据进行逐点卷积计算,将特征通道之间相互分离的特征组合起来,输出线性组合,生成新的特征图;逐点卷积计算的计算量为:M·N·Df·Df;
步骤1.6:对步骤1.5生成的新特征图再次进行批量标准化操作、使用ReLU激活函数和批量标准化。
2.根据权利要求1所述的一种用于嵌入式系统的深层聚合神经网络轻量化方法,其特征在于:所述步骤2的具体方法为:
步骤2.1:采用单一的卷积接一个批量标准化层和一个非线性激活层的结构组合和压缩深层聚合结点的输入;深层聚合结点的聚合公式如下:
其中,σ表示非线性激活,Wi和b均表示卷积时的权重,i=1,2,…,n;xn表示输入到深层聚合结点的第n个特征图,N()表示聚合函数;
步骤2.2:在深层聚合结点聚合操作之后,构建瓶颈残差块结构对经过聚合输出的特征图进行特征提取,所述瓶颈残差块包括扩展层和投影层。
3.根据权利要求2所述的一种用于嵌入式系统的深层聚合神经网络轻量化方法,其特征在于:所述步骤2.2的具体方法为:
步骤2.2.1:构建倒残差结构;特征图在进入扩展层时,采用1×1的标准卷积核以步长为1按照一个扩展系数进行维度扩展,在维度扩展过程中输入和输出的特征图大小保持相等;
步骤2.2.2:用已经过维度扩展的特征图作为深度可分离卷积块中深度卷积计算的输入,进行深度卷积计算,输出的特征图大小与输入保持一致;
步骤2.2.3:对注意力层的输出作为深度可分离卷积块逐点卷积的输入,进行特征提取;深度可分离卷积块的逐点卷积计算作为瓶颈残差块的投影层,逐点卷积计算后输出的特征图维度与扩展前的维度一致,目的是将高维特征映射到低维空间上;
步骤2.2.4:将逐点卷积计算输出的特征图与扩展层的输入进行加操作。
4.根据权利要求3所述的一种用于嵌入式系统的深层聚合神经网络轻量化方法,其特征在于:所述步骤3的具体方法为:
步骤3.1:将经过扩展层进行维度扩展的特征图输入到样式池化模块中;
所述样式池化模块由平均池化层和全局标准差池化层组成;对于输入的特征图这两个池化层分别对输入进行全局平均池化和全局标准差池化,分别得到两个输出/>和/>其中,/>然后将两个输出拼接起来,得到的输出/>计算公式如下:
tnc=[μnc,σnc]
其中,xnchw表示经过扩展层进行维度扩展的特征图,H、W代表特征图的高和宽,μnc代表经过全局平均池化的特征图,σnc表示经过全局标准差池化的特征图,tnc表示将μnc和σnc拼接起来后的特征图,用来示例n和通道c的样式信息的摘要描述;
步骤3.2:将经过样式池化模块进行全局平均池化和全局标准差池化后的特征图输入样式整合模块;
对于输入首先进入通道全连接层,对输入进行一次全连接,学习样式权重;然后接批量标准化层,将所得数据按一定批次整理,再采用sigmoid激活函数对神经网络进行激活;得到的输出为/>样式整合模块的操作对通道执行的编码为znc=wc·tnc,其中,wc是训练时学习的权重参数,而/>代表编码的样式特征;样式整合模块对数据的处理公式为:
其中,是仿射变换函数,/>表示通道样式权重,/>表示进行批量化和标准化得到的特征图,/>表示进行批量标准化的最终特征图,gnc表示经过sigmod激活函数后得到的特征图;
将批量标准化层合并到通道全连接层中;每个通道的样式集成归结为单个通道全连接层fCFC:后跟激活函数fACT:/>最后,原始输入X被权重G重新校准;输出由以下公式获得:/>xnc表示注意力模块的输入。
5.根据权利要求4所述的一种用于嵌入式系统的深层聚合神经网络轻量化方法,其特征在于:所述步骤4构造分层深度聚合结构的具体方法为:
在整个深层聚合网络中一共有4个分层深度聚合结构;第一个分层深度聚合结构,是由两个深度可分离块和一个聚合结点组成一个两层的分层聚合结构,第一层由两个深度可分离卷积块构成,作为输入,两个深度可分离卷积块在聚合结点处进行聚合,聚合结点作为第二层,并通过下采样作为下一个深度可分离卷积块的输入;第二个分层深度聚合结构中,总共包含4个深度可分离卷积块和两个聚合节点构成三层的分层聚合结构,第一层由4个深度可分离卷积块构成,第二层的聚合结点由第一层的前两个深度可分离卷积块聚合而成,第三层的聚合结点由第二层的第一个聚合结点和第一层的后两个深度可分离卷积块聚合而成,并通过下采样输入到下一个深度可分离卷积块中;第三个分层深度聚合结构由8个深度可分离卷积块块和4个聚合结点组成,共有四层;最后一个分层聚合结构则是由两个深度可分离卷积块和一个聚合结点组成;深度为n的聚合结点Tn公式如下:
其中,N代表聚合节点,运算方式R和L定义如下:
其中,B()表示一个深度可分离卷积块。
6.根据权利要求5所述的一种用于嵌入式系统的深层聚合神经网络轻量化方法,其特征在于:所述步骤4构造深度聚合结构的具体方法为:
对于每一个深度聚合结构中最后的聚合结点,将通过迭代的方式传递给下一个深度聚合结构的最后一个聚合节点;聚合从最低、最小的尺度开始,经过一次次迭代,合并每一个分层聚合结构中不同尺度的感受野;深度聚合结构中每迭代一次就会得到深一层的语义信息,语义信息层x1,x2,…,xn的表示公式为:
N代表聚合节点;
其中,I()表示迭代深度聚合运算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111497896.5A CN114139689B (zh) | 2021-12-09 | 2021-12-09 | 一种用于嵌入式系统的深层聚合神经网络轻量化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111497896.5A CN114139689B (zh) | 2021-12-09 | 2021-12-09 | 一种用于嵌入式系统的深层聚合神经网络轻量化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114139689A CN114139689A (zh) | 2022-03-04 |
CN114139689B true CN114139689B (zh) | 2024-05-07 |
Family
ID=80385200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111497896.5A Active CN114139689B (zh) | 2021-12-09 | 2021-12-09 | 一种用于嵌入式系统的深层聚合神经网络轻量化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114139689B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN112418397A (zh) * | 2020-11-19 | 2021-02-26 | 重庆邮电大学 | 一种轻量级卷积神经网络的设计方法 |
CN113344188A (zh) * | 2021-06-18 | 2021-09-03 | 东南大学 | 基于通道注意力模块的轻量级神经网络模型 |
CN113486726A (zh) * | 2021-06-10 | 2021-10-08 | 广西大学 | 一种基于改进卷积神经网络的轨道交通障碍物检测方法 |
-
2021
- 2021-12-09 CN CN202111497896.5A patent/CN114139689B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418397A (zh) * | 2020-11-19 | 2021-02-26 | 重庆邮电大学 | 一种轻量级卷积神经网络的设计方法 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN113486726A (zh) * | 2021-06-10 | 2021-10-08 | 广西大学 | 一种基于改进卷积神经网络的轨道交通障碍物检测方法 |
CN113344188A (zh) * | 2021-06-18 | 2021-09-03 | 东南大学 | 基于通道注意力模块的轻量级神经网络模型 |
Non-Patent Citations (1)
Title |
---|
基于RBF神经网络的Web服务QoS短期预测;张金宏;宋杰;;辽宁工程技术大学学报(自然科学版);20101015(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114139689A (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
He et al. | Asymptotic soft filter pruning for deep convolutional neural networks | |
CN112991354B (zh) | 一种基于深度学习的高分辨率遥感影像语义分割方法 | |
WO2019060670A1 (en) | LOW PROFOUND CONVOLUTIVE NETWORK WEIGHT COMPRESSION | |
CN113326930B (zh) | 数据处理方法、神经网络的训练方法及相关装置、设备 | |
US20210158166A1 (en) | Semi-structured learned threshold pruning for deep neural networks | |
CN112529146B (zh) | 神经网络模型训练的方法和装置 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN113435520A (zh) | 神经网络的训练方法、装置、设备及计算机可读存储介质 | |
CN112036475A (zh) | 融合模块和多尺度特征融合卷积神经网络及图像识别方法 | |
CN112633477A (zh) | 一种基于现场可编程阵列的量化神经网络加速方法 | |
CN113378938B (zh) | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 | |
Wang et al. | Evolutionary multi-objective model compression for deep neural networks | |
CN113298032A (zh) | 基于深度学习的无人机视角图像的车辆目标检测方法 | |
Wang et al. | Optimization-based post-training quantization with bit-split and stitching | |
CN115759237A (zh) | 端到端的深度神经网络模型压缩及异构转换系统及方法 | |
CN113516133A (zh) | 一种多模态图像分类方法及系统 | |
CN113344179A (zh) | 基于fpga的二值化卷积神经网络算法的ip核 | |
Qi et al. | Learning low resource consumption cnn through pruning and quantization | |
CN114139689B (zh) | 一种用于嵌入式系统的深层聚合神经网络轻量化方法 | |
CN116994093A (zh) | 基于对偶图卷积神经网络的高光谱图像分类方法 | |
Lv et al. | Deep convolutional network based on interleaved fusion group | |
CN115375922A (zh) | 一种基于多尺度空间注意力的轻量化显著性检测方法 | |
CN113177627B (zh) | 优化系统、重新训练系统及其方法及处理器和可读介质 | |
CN112001431B (zh) | 一种基于梳状卷积的高效图像分类方法 | |
WO2021055364A1 (en) | Efficient inferencing with fast pointwise convolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |