CN110119805B - 基于回声状态网络分类的卷积神经网络算法 - Google Patents
基于回声状态网络分类的卷积神经网络算法 Download PDFInfo
- Publication number
- CN110119805B CN110119805B CN201910387770.9A CN201910387770A CN110119805B CN 110119805 B CN110119805 B CN 110119805B CN 201910387770 A CN201910387770 A CN 201910387770A CN 110119805 B CN110119805 B CN 110119805B
- Authority
- CN
- China
- Prior art keywords
- layer
- cnn
- output
- esn
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供基于回声状态网络分类的卷积神经网络算法,主要包括:用ESN代替CNN模型中的全连接层,并推导出了新的残差迭代公式,在此基础上该模型继续沿用CNN的反向传播算法训练CNN的隐藏层参数,以及使用线性回归法则训练ESN的输出权重。通过在MNIST手写数字识别数据集、Fashion MNIST物体识别数据集和ORL人脸识别数据集上的仿真实验证明了本发明的可行性,同时实验结果反映出该模型既保留了CNN多层次特征提取的能力,又通过引入ESN模块减少了算法的训练时间以及提升了其在小样本数据集上的性能。
Description
技术领域
本发明涉及信号处理技术领域,特别是涉及基于回声状态网络分类的卷积神经网络算法。
背景技术
卷积神经网络(Convolution Neural Network,CNN)是一种可以自动提取图像多层次特征的深度神经网络,因具有权值共享、稀疏连接和池化操作的特点,使得其被广泛应用在目标检测、人脸识别和自然语言处理等领域。但目前的CNN算法普遍存在训练时间成本较高的问题,这使得其占用了大量的计算资源;同时CNN在小样本数据集上表现不佳,容易出现过拟合现象。如何解决这两个问题是目前CNN优化算法的研究重点。
发明内容
为了解决以上问题,本发明提供基于回声状态网络分类的卷积神经网络算法,将回声状态网络引入卷积神经网络中,代替卷积神经网络的全连接层,提出了基于回声状态网络分类的卷积神经网络模型。并推导出了该模型的前向和反向传播算法,并且将该算法应用在图像识别领域,为达此目的,本发明提供基于回声状态网络分类的卷积神经网络算法,所述基于回声状态网络分类的卷积神经网络算法包含卷积层、池化层和ESN层三种结构,所述模型的前向传播算法和反向传播算法的给出如下;
E-CNN的前向传播算法:
E-CNN的前向传播算法按照该隐藏层的类型可分为以下三种情况:
(1)该隐藏层是卷积层的情况;
设第l层是卷积层,则l的取值范围是l=2,3,...,L-1,其中第L层表示网络的输出层,表示第l层的第i个输入图片或特征图,共有I个图片或特征图,aj n,l表示第l层的第j个输出特征图,共有K个输出特征图;Wij表示向aj n,l映射的卷积矩阵,bj l表示为该过程的偏置,则该卷积层的运算过程可表示为:
其中,“*”表示第l层的卷积核与第l-1层各个输出特征图进行不补零卷积操作;σ(·)表示该隐藏层的激活函数;
(2)该隐藏层是池化层的情况:
设第l层是池化,该层池化矩阵的大小为k×k;该层的一个输入及其对应输出分别表示为an,l-1、an,l,则池化操作的表达式如(2)所示;
其中,down(·)表示下采样函数;
(3)该隐藏层是ESN层的情况:
首先将ESN层可以转化为一个包含两个隐藏层的网络结构,其an,L-1(t+1)表示t+1时刻ESN的第n个输入;hn(t)表示与an,L-1(t)对应的储备池状态向量;an,L-1(t+1)与hn(t)分别经过Win、WR两个权重的处理输出为hn(t+1);hn(t+1)表示与aan,L-1(t+1)对应的储备池状态向量,设aan,L-1(t+1)=hn(t+1)=f(zzn,L-1(t+1))为一个中间输出变量,t+1时刻第n个储备池状态向量表示为:
其中,Win、WR分别表示储备池输入矩阵、储备池矩阵;f(·)表示储备池激活函数,这里取tanh,t+1时刻第L层第n个输出可表示为:aan,L-1(t+1)经输出权值Wout加权后,再经过一个激活函数σ(·)处理后的输出向量,即
E-CNN的反向传播算法:
E-CNN模型的训练规则是:对ESN的输出权重更新采用线性回归算法,而对卷积层的权重更新仍采用基于梯度下降的BP算法;
设与t+1时刻E-CNN网络的输出aL(t+1)=[a1,L(t+1),...,an,L(t+1),...,aN,L(t+1)]对应的教师信号为y(t+1)=[y1(t+1),...,yn(t+1),...,yN(t+1)],采用网络实际输出与理想输出的均方误差作为网络训练的损失函数:
其中,||·||2表示对“·”取L2范数;W表示CNN各隐藏层的权重,b表示对应隐藏层的偏置;
(1)第L层的残差表达式为:
(2)中间变量δδn,L-1(t+1)表达式:
定义中间变量的残差为:
推导出中间变量表达式为:
其中,f′(·)表示对f(·)求导,表示储备池激活函数;“⊙”表示Hadamard积,对于两个维度相同的向量A=(a1,a2,...,an)T和B=(b1,b2,...,bn)T,则有A⊙B=(a1b1,a2b2,...,anbn)T;σ′(·)表示对σ(·)函数求导;
(3)δn,L-1(t+1)的表达式:
其中,σ′(·)表示对σ(·)求导,这里的σ(·)函数是第L-1层的输出激活函数;
(4)对于l=L-2~2的情况,残差δl(t+1)的表示表达式可以分为两种情况:
a)当第l层是卷积层时,其残差公式可以表示为:
其中,up(·)表示与down(·)函数相对应的上采样函数;
b)当第l层是池化层时,其残差公式可以表示为:
其中,表示全卷积计算,即先对δj n,l+1进行补零以使得其满足卷积后δi n,l的尺度要求;rot180(·)表示对Wij l+1旋转180度,在空间上表现为将矩阵Wij l+1先上下翻转再左右翻转;
(5)更新卷积层权重:
(6)更新ESN输出权值:
令Y=[y(1),y(2),...,y(T)]表示ESN层在t=0,1,...,T-1时刻的理想输出矩阵,用H=[h(1),h(2),...,h(T)]表示与之对应的储备池状态矩阵,则输出权值为:
Wout=YHT(HHT+λI)-1 (13)
其中,λ表示正则化系数;
训练结束后,输出模型各个隐藏层的权重和偏置。
作为本发明进一步改进,所述E-CNN的前向传播算法中隐藏层是卷积层的情况中隐藏层的激活函数采用sigmiod激活函数。
作为本发明进一步改进,所述E-CNN的前向传播算法中隐藏层是池化层的情况中隐藏层的下采样函数有MEAN和MAX两种类型。
本发明提供基于回声状态网络分类的卷积神经网络算法(E-CNN),主要包括:用ESN代替CNN模型中的全连接层,并推导出了新的残差迭代公式,在此基础上该模型继续沿用CNN的反向传播算法训练CNN的隐藏层参数,以及使用线性回归法则训练ESN的输出权重。通过在MNIST手写数字识别数据集、Fashion MNIST物体识别数据集和ORL人脸识别数据集上的仿真实验证明了本发明的可行性,同时实验结果反映出该模型既保留了CNN多层次特征提取的能力,又通过引入ESN模块减少了算法的训练时间以及提升了其在小样本数据集上的性能,本发明在多个数据集上均取得较好的识别性能,同时还减少了算法的训练时间成本;另外本发明在小样本数据集上的性能也远好于传统卷积神经网络。
附图说明
图1为本发明提供的基于回声状态网络分类的卷积神经网络(E-CNN)模型结构图;
图2为本发明提供的E-CNN模型的ESN层前向传播结构图;
图3为本发明提供的CNN、E-CNN在不同样本数量下的测试误识率示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供基于回声状态网络分类的卷积神经网络算法,将回声状态网络引入卷积神经网络中,代替卷积神经网络的全连接层,提出了基于回声状态网络分类的卷积神经网络模型。并推导出了该模型的前向和反向传播算法,并且将该算法应用在图像识别领域。
实施例1:
本仿真实验在主频为2.5GHz、12核、CPU型号为Intel Xeon E5-2678v3、内存为64GB的服务器上进行,使用MATLAB R2016b作为算法的编辑器。
这里CNN与E-CNN的两个卷积层C2、C4的卷积核个数设置为6、16,大小均为5×5;两个下采样层P3、P5的模式均为MEAN,采样区域均为2×2;激活函数均选择sigmoid函数,学习率均设为1。E-CNN的储备池规模NR=1000,储备池状态激活函数选择tanh,输出激活函数选则线性输出函数,正则化参数λ=1×e-7,这里同样不再设置储备池的空转。
将在CIFAR-10数据集上预训练得到的CNN模型参数作为实验的初始值。在28*28大小的图像周围补零,使其成为32*32大小的图像。本实验采用批处理方法,设N=50,并将CNN和E-CNN的梯度更新步长设为1。
在数据集Fashion MNIST上进行试验,表1、表2展示了CNN、E-CNN在不同迭代次数下的算法测试误识率和训练时间。
表1 CNN、E-CNN在不同迭代次数下的测试误识率(%)
表2 CNN、E-CNN在不同迭代次数下的训练时间(秒)
由表1看出:相同迭代次数下,E-CNN的误识率远小于CNN,这说明E-CNN的识别性能远好于CNN;同时E-CNN算法迭代10次的算法性能与CNN迭代20次的算法性能相近,而此时E-CNN算法的训练时间仅为CNN算法的一半左右(如表2所示),这说明E-CNN算法节约了算法的训练时间。
实施例2:
本仿真实验在主频为2.5GHz、12核、CPU型号为Intel Xeon E5-2678v3、内存为64GB的服务器上进行,使用MATLAB R2016b作为算法的编辑器。
这里CNN与E-CNN的两个卷积层C2、C4的卷积核个数设置为6、16,大小均为5×5;两个下采样层P3、P5的模式均为MEAN,采样区域均为2×2;激活函数均选择sigmoid函数,学习率均设为1。E-CNN的储备池规模NR=1000,储备池状态激活函数选择tanh,输出激活函数选则线性输出函数,正则化参数λ=1×e-7,这里同样不再设置储备池的空转。
将在CIFAR-10数据集上预训练得到的CNN模型参数作为实验的初始值。在28*28大小的图像周围补零,使其成为32*32大小的图像。本实验采用批处理方法,设N=50,并将CNN和E-CNN的梯度更新步长设为1。
通过比较E-CNN、CNN在Epoch=20、训练样本数分别为1万、2万、3万、4万时的表现,来验证两种算法在小样本训练数据集上的性能,具体见图3、表3。
表3 CNN、E-CNN在不同样本数量下的测试误识率(%)
由表3、图3可以看出,E-CNN在小样本数据集上的误识率远小于CNN,且样本数越小,E-CNN相比CNN的性能提升比越大,这说明E-CNN在小样本数据集上的性能远好于CNN。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
Claims (3)
1.基于回声状态网络分类的卷积神经网络方法,其特征在于:所述基于回声状态网络分类的卷积神经网络方法包含卷积层、池化层和ESN层三种结构,所述方法的前向传播方法和反向传播方法的给出如下;
E-CNN的前向传播方法:
E-CNN的前向传播方法按照隐藏层的类型分为以下三种情况:
(1)该隐藏层是卷积层的情况;
设第l层是卷积层,则l的取值范围是l=2,3,...,L-1,其中第L层表示网络的输出层,表示第l层的第i个输入图片或特征图,共有I个图片或特征图,aj n,l表示第l层的第j个输出特征图,共有K个输出特征图;Wij表示向aj n,l映射的卷积矩阵,bj l表示为该过程的偏置,则该卷积层的运算过程表示为:
其中,“*”表示第l层的卷积核与第l-1层各个输出特征图进行不补零卷积操作;σ(·)表示该隐藏层的激活函数;
(2)该隐藏层是池化层的情况:
设第l层是池化,该层池化矩阵的大小为k×k;该层的一个输入及其对应输出分别表示为an,l-1、an,l,则池化操作的表达式如(2)所示;
其中,down(·)表示下采样函数;
(3)该隐藏层是ESN层的情况:
首先将ESN层转化为一个包含两个隐藏层的网络结构,其an,L-1(t+1)表示t+1时刻ESN的第n个输入;hn(t)表示与an,L-1(t)对应的储备池状态向量;an,L-1(t+1)与hn(t)分别经过Win、WR两个权重的处理输出为hn(t+1);hn(t+1)表示与aan,L-1(t+1)对应的储备池状态向量,设aan,L-1(t+1)=hn(t+1)=f(zzn,L-1(t+1))为一个中间输出变量,t+1时刻第n个储备池状态向量表示为:
其中,Win、WR分别表示储备池输入矩阵、储备池矩阵;f(·)表示储备池激活函数,这里取tanh,t+1时刻第L层第n个输出表示为:aan,L-1(t+1)经输出权值Wout加权后,再经过一个激活函数σ(·)处理后的输出向量,即
E-CNN的反向传播方法:
E-CNN模型的训练规则是:对ESN的输出权重更新采用线性回归方法,而对卷积层的权重更新仍采用基于梯度下降的BP方法;
设与t+1时刻E-CNN网络的输出aL(t+1)=[a1,L(t+1),...,an,L(t+1),...,aN,L(t+1)]对应的教师信号为y(t+1)=[y1(t+1),...,yn(t+1),...,yN(t+1)],采用网络实际输出与理想输出的均方误差作为网络训练的损失函数:
其中,||·||2表示对“·”取L2范数;W表示CNN各隐藏层的权重,b表示对应隐藏层的偏置;
(1)第L层的残差表达式为:
(2)中间变量δδn,L-1(t+1)表达式:
定义中间变量的残差为:
推导出中间变量表达式为:
其中,f′(·)表示对f(·)求导,表示储备池激活函数;“·”表示Hadamard积,对于两个维度相同的向量A=(a1,a2,...,an)T和B=(b1,b2,...,bn)T,则有A·B=(a1b1,a2b2,...,anbn)T;σ′(·)表示对σ(·)函数求导;
(3)δn,L-1(t+1)的表达式:
其中,σ′(·)表示对σ(·)求导,这里的σ(·)函数是第L-1层的输出激活函数;
(4)对于l=L-2~2的情况,残差δl(t+1)的表示表达式分为两种情况:
a)当第l层是卷积层时,其残差公式表示为:
其中,up(·)表示与down(·)函数相对应的上采样函数;
b)当第l层是池化层时,其残差公式表示为:
其中,表示全卷积计算,即先对δj n,l+1进行补零以使得其满足卷积后δi n,l的尺度要求;rot180(·)表示对Wij l+1旋转180度,在空间上表现为将矩阵Wij l+1先上下翻转再左右翻转;
(5)更新卷积层权重:
(6)更新ESN输出权值:
令Y=[y(1),y(2),...,y(T)]表示ESN层在t=0,1,...,T-1时刻的理想输出矩阵,用H=[h(1),h(2),...,h(T)]表示与之对应的储备池状态矩阵,则输出权值为:
Wout=YHT(HHT+λI)-1 (13)
其中,λ表示正则化系数;
训练结束后,输出模型各个隐藏层的权重和偏置。
2.根据权利要求1所述的基于回声状态网络分类的卷积神经网络方法,其特征在于:所述E-CNN的前向传播方法中隐藏层是卷积层的情况中隐藏层的激活函数采用sigmiod激活函数。
3.根据权利要求1所述的基于回声状态网络分类的卷积神经网络方法,其特征在于:所述E-CNN的前向传播方法中隐藏层是池化层的情况中隐藏层的下采样函数有MEAN和MAX两种类型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910387770.9A CN110119805B (zh) | 2019-05-10 | 2019-05-10 | 基于回声状态网络分类的卷积神经网络算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910387770.9A CN110119805B (zh) | 2019-05-10 | 2019-05-10 | 基于回声状态网络分类的卷积神经网络算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110119805A CN110119805A (zh) | 2019-08-13 |
CN110119805B true CN110119805B (zh) | 2022-06-21 |
Family
ID=67522144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910387770.9A Active CN110119805B (zh) | 2019-05-10 | 2019-05-10 | 基于回声状态网络分类的卷积神经网络算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110119805B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110779477B (zh) * | 2019-09-16 | 2020-10-27 | 南京大学 | 一种用于实时识别物体形状的声学方法 |
CN111222465B (zh) * | 2019-11-07 | 2023-06-13 | 深圳云天励飞技术股份有限公司 | 基于卷积神经网络的图像分析方法及相关设备 |
CN111753776B (zh) * | 2020-06-29 | 2022-05-10 | 重庆交通大学 | 基于回声状态与多尺度卷积联合模型的结构损伤识别方法 |
CN115830401B (zh) * | 2023-02-14 | 2023-05-09 | 泉州装备制造研究所 | 一种小样本图像分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102002A (zh) * | 2018-07-17 | 2018-12-28 | 重庆大学 | 结合卷积神经网络和概念机递归神经网络的图像分类方法 |
CN109214250A (zh) * | 2017-07-05 | 2019-01-15 | 中南大学 | 一种基于多尺度卷积神经网络的静态手势识别方法 |
-
2019
- 2019-05-10 CN CN201910387770.9A patent/CN110119805B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214250A (zh) * | 2017-07-05 | 2019-01-15 | 中南大学 | 一种基于多尺度卷积神经网络的静态手势识别方法 |
CN109102002A (zh) * | 2018-07-17 | 2018-12-28 | 重庆大学 | 结合卷积神经网络和概念机递归神经网络的图像分类方法 |
Non-Patent Citations (1)
Title |
---|
Echo State Networks-Based Reservoir Computing for MNIST Handwritten Digits Recognition;N Schaetti等;《Computational Science & Engineering》;20170717;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110119805A (zh) | 2019-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119805B (zh) | 基于回声状态网络分类的卷积神经网络算法 | |
CN106845529B (zh) | 基于多视野卷积神经网络的影像特征识别方法 | |
CN113011499B (zh) | 一种基于双注意力机制的高光谱遥感图像分类方法 | |
CN109949255B (zh) | 图像重建方法及设备 | |
CN110728224B (zh) | 一种基于注意力机制深度Contourlet网络的遥感图像分类方法 | |
KR102662349B1 (ko) | 컨볼루션 뉴럴 네트워크들에 대한 슈퍼픽셀 방법들 | |
WO2020168844A1 (en) | Image processing method, apparatus, equipment, and storage medium | |
CN108171323B (zh) | 一种人工神经网络计算装置和方法 | |
CN109685819B (zh) | 一种基于特征增强的三维医学图像分割方法 | |
US9129222B2 (en) | Method and apparatus for a local competitive learning rule that leads to sparse connectivity | |
WO2022001805A1 (zh) | 一种神经网络蒸馏方法及装置 | |
CN114937151A (zh) | 基于多感受野和注意力特征金字塔的轻量级目标检测方法 | |
CN112561027A (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
CN113705769A (zh) | 一种神经网络训练方法以及装置 | |
JP2015052832A (ja) | 重み設定装置および方法 | |
Wang et al. | TRC‐YOLO: A real‐time detection method for lightweight targets based on mobile devices | |
CN113570029A (zh) | 获取神经网络模型的方法、图像处理方法及装置 | |
CN109190511B (zh) | 基于局部与结构约束低秩表示的高光谱分类方法 | |
CN113902622B (zh) | 基于深度先验联合注意力的光谱超分辨率方法 | |
WO2021042857A1 (zh) | 图像分割模型的处理方法和处理装置 | |
CN112561028A (zh) | 训练神经网络模型的方法、数据处理的方法及装置 | |
Ge et al. | Adaptive hash attention and lower triangular network for hyperspectral image classification | |
Yu et al. | Toward faster and simpler matrix normalization via rank-1 update | |
CN115527056A (zh) | 基于双混合卷积生成对抗网络的高光谱图像分类方法 | |
CN107239827B (zh) | 一种基于人工神经网络的空间信息学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |