一种深度记忆卷积神经网络的装置及其构建方法
技术领域
本发明涉及基于学习的神经网络领域,尤其是涉及一种深度记忆卷积神经网络的装置及其构建方法。
背景技术
深度学习的概念源于人工神经网络的研究,最早的深度学习结构之一就是多层感知器MLP。深度学习通过组合低层特征形成更加抽象的高层表示来发现数据的分布式特征。BP网络作为传统训练多层网络的典型算法,在大规模输入问题上存在缺陷。深度结构非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源。参考文献(Hinton G E,Osindero S,Teh Y W.A fast learning algorithm for deep belief nets[J].Neuralcomputation,2006,18(7):1527-1554.)提出基于深度信念网络(DBN),为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。Lecun等人提出的卷积神经网络(CNN)是第一个真正的多层结构学习算法,它利用空间相对关系减少参数数目以提高BP训练性能(LeCun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.)。当前多数分类、回归等学习方法为浅层结构算法,其局限性在于有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定制约。深度学习可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。
卷积神经网络存在训练过程收敛慢的问题,而且卷积运算非常耗时,目前有针对提高运算效率的一些方法如:设计新的卷积网络训练策略,使用GPU加速卷积运算过程,使用并行计算提高网络训练和测试速度,采用分布式计算提高网络训练和测试速度,硬件化卷积神经网络等(谢剑斌,兴军亮,张立宁,等.视觉机器学习20讲[M].北京:清华大学出版社,2015:228-239.)。
发明内容
本发明的目的是提供一种深度记忆卷积神经网络的装置及其构建方法,从一定程度上克服了有限样本和计算单元情况下对复杂函数的表示能力的缺点,提高现有卷积神经网络的运算效率。
本发明的技术方案:
一种深度记忆卷积神经网络的装置,包括五卷积层的含聚类降维卷积神经网络结构;深度记忆神经网络结构;BP网络结构三部分:
第一部分,五卷积层的含聚类降维卷积神经网络结构;
1)第一卷积层选择N1个卷积算子,每个卷积算子为一个大小s1×t1的卷积核,s1为卷积核的行数,t1为卷积核的列数;所述的卷积核由多种直线和多种圆盘和多种圆环组成,用以识别图像子图单元的一级形状特征;
2)第一卷积层卷积过程表达式为:
其中
为图像P
0在像素[(i-1)Δ
1+1+x,(j-1)Δ
1+1+y]处的灰度值,
表示第n
1个卷积算子在位置[x,y]处的权值,
为卷积后的图像P
1在像素[i,j]处的灰度值,Δ
1为卷积移动步长,n
1为卷积算子的序号,范围为1≤n
1≤N
1;
3)第一规则层的规则化处理过程为:
4)第一池化层的最大池化计算过程为:
5)第二卷积层选择N2个卷积算子,每个卷积算子为一个大小s2×t2的卷积核,s2为卷积核的行数,t2为卷积核的列数;每个卷积核提取图像子图的一个二级形状特征;
6)参考步骤2)、步骤3)、步骤4)计算第二层卷积运算的结果;
7)第三卷积层选择N3个卷积算子,每个卷积算子为一个大小s3×t3的卷积核,s3为卷积核的行数,t3为卷积核的列数;每个卷积核提取图像子图的一个三级形状特征;
8)参考步骤2)、步骤3)、步骤4)计算第三层卷积运算的结果;
9)对步骤8)得到的矩阵进行相似度聚类分析,保持图像第三级特征数量为M1个;
10)第四卷积层选择N4个卷积算子,每个卷积算子为一个大小s4×t4的卷积核,s4为卷积核的行数,t4为卷积核的列数;每个卷积核提取图像子图的一个四级形状特征;
11)参考步骤2)、步骤3)、步骤4)计算第四层卷积运算的结果;
12)对步骤11)得到的矩阵进行相似度聚类分析,保持图像第四级特征数量为M2个;
13)第五卷积层选择N5个卷积算子,每个卷积算子为一个大小s5×t5的卷积核,s5为卷积核的行数,t5为卷积核的列数;每个卷积核提取图像子图的一个五级形状特征;
14)参考步骤2)、步骤3)、步骤4)计算第五层卷积运算的结果;
15)对步骤14)得到的矩阵进行相似度聚类分析,以其矩阵所有元素的和为综合特征,得到M3个不同特征点;
16)每层特征点经过信息选择器进行选择,并通过总线集成器产生该含聚类降维卷积神经网络的输出,进入记忆神经网络;
第二部分,深度记忆神经网络结构:
所述的深度记忆神经网络模型是一个带有D个独立记忆单元的网络结构,模型更新规则为:
网络输入x(t)与记忆单元各记忆值进行对比,其最接近输入的单元k处的误差为:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,D} (4),
当δk(t)小于或等于网络识别阀值ε时,说明网络成功识别为第k类信息,此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
当δk(t)大于网络识别阀值ε时,说明网络识别过程中没有输入类,记忆网络按遗忘规律更新记忆最差的信息,βk(t)即将记忆系数最低的单元k处替换为当前输入信息;此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
βk(t)=Min{βi(t),i=1,2,…,D} (7),
网络输出h(t+1)规则为:
h(t+1)=Ck(t+1) (10);
第三部分,BP网络结构:
采用传统BP网络结构,根据输入和输出参数个数关系确定中间隐层层数,以递减方式设计中间隐层结点的数量;
上述五卷积层的含聚类降维卷积神经网络结构、深度记忆神经网络结构和BP网络结构按先后顺序串联连接,五卷积层的含聚类降维卷积神经网络结构的输出与深度记忆神经网络结构的输入相连,深度记忆神经网络结构的输出与BP网络结构的输入相连,实现一种深度记忆卷积神经网络的装置。
一种深度记忆卷积神经网络装置的构建方法,包括以下步骤:
第一步,设置第一卷积层参数:设置卷积算子个数N1的值,并以不同直线、圆盘和圆环数据给每个卷积算子赋值;
第二步,计算第一层卷积值:
第三步,计算第一规则层的规则化值:
第四步,计算第一池化层的最大池化值:
第五步,设置第二卷积层参数:设置卷积算子个数N2的值,并给每个卷积算子赋值;
第六步,计算第二层卷积值;
第七步,计算第二规则层的规则化值;
第八步,计算第二池化层的最大池化值;
第九步,设置第三卷积层参数:设置卷积算子个数N3的值,并给每个卷积算子赋值;
第十步,计算第三层卷积值;
第十一步,计算第三规则层的规则化值;
第十二步,计算第三池化层的最大池化值;
第十三步,将聚类输出类别设置为M1个,对第十二步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十四步,设置第四卷积层参数:设置卷积算子个数N4的值,并给每个卷积算子赋值;
第十五步,计算第四层卷积值;
第十六步,计算第四规则层的规则化值;
第十七步,计算第四池化层的最大池化值;
第十八步,将聚类输出类别设置为M2个,对第十七步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十九步,设置第五卷积层参数:设置卷积算子个数N5的值,并给每个卷积算子赋值;
第二十步,计算第五层卷积值;
第二十一步,计算第五规则层的规则化值;
第二十二步,计算第五池化层的最大池化值;
第二十三步,将聚类输出类别设置为M3个,对第二十二步得到的结果进行相似度聚类分析,得到类中心数据矩阵各元素之和的输出;
第二十四步,将第四步、第八步、第十三步和第十八步的输出进行优选,并计算对应矩阵的元素和,将优选矩阵元素和和第二十三步输出的结果汇总成为五卷积层的含聚类降维卷积神经网络的输出;
第二十五步,将第二十四步的输出作为记忆网络的输入x(t),计算记忆误差,得到最小误差δk(t)及其对应记忆单元序号k:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,D} (4),
第二十六步,判断当δk(t)是否大于网络识别阀值ε,δk(t)>ε时计算历时最远的记忆单元序号k(即记忆系数βi(t)最小的记忆单元):
βk(t)=Min{βi(t),i=1,2,…,D} (7),
第二十七步,更新记忆单元的记忆信息:当δk(t)≤ε时,
当δk(t)>ε时,
第二十八步,计算记忆网络输出:
h(t+1)=Ck(t+1) (10),
第二十九步,第二十八的输出作为BP网络的输入,根据求解问题和参数设置网络输出,并以此为依据构建中间隐层;
第三十步,将第二十九步作为整个网络的输出,一种深度记忆卷积神经网络的装置即构建完成。
本发明在现有CNN网络的基础上,针对高分辨率的图像采用多层变步长卷积运算。当分辨率较高时采用步长控制加速卷积收敛;当分辨率较低时采用单步长卷积控制保证特征数量。为避免卷积网络中后层规模激增现象,采用聚类分析减低层输出特征矩阵的数量,保证网络特征的差异性和计算规模。网络的每层特征均可通过深度记忆网络模型进行记忆和整形。最后通过BP网络对系统进行识别。本发明能够在一定程度上克服了有限样本和计算单元情况下对复杂函数的表示能力的缺点,提高现有卷积神经网络的效率。
附图说明
图1为本发明的深度记忆卷积神经网络装置方框图。
具体实施方式
本发明通过改进卷积神经网络的结构,并在卷积网络中加入记忆的方法来提高网络运算效率。
下面结合附图和实例对本发明进行详细说明。
一、网络装置
第一部分:五卷积层的含聚类降维卷积神经网络结构
1)第一卷积层选择96个卷积算子,每个卷积算子为一个16×16的灰度图像块,图像块包含72种不同形态的直线和8种不同大小的圆盘和16种不同形态的圆环;
2)第一卷积层卷积过程表达式为:
其中
为图像P
0在像素[2i-1+x,2j-1+y]处的灰度值,
表示卷积算子在位置[x,y]处的权值,
为卷积后的图像P
1在像素[i,j]处的灰度值;经过第一层卷积运算后,输出96个504×504大小的卷积图像;
3)第一规则层的规则化处理过程为:
4)第一池化层的最大池化计算过程为:
通过最大池化作用,输出96个252×252大小的特征矩阵;
5)第二卷积层选择256个卷积算子,每个卷积算子为一个8×8的灰度卷积核,每个卷积核提取图像子图的一个二级形状特征;
6)参考步骤2)、步骤3)、步骤4)计算第二层卷积运算的结果,选择参数s2和t2都为8,Δ2为2,得到24576个61×61大小的特征矩阵;
7)第三卷积层选择256个卷积算子,每个卷积算子为一个5×5的灰度图像块,每个卷积核提取图像子图的一个三级形状特征;
8)参考步骤2)、步骤3)、步骤4)计算第三层卷积运算的结果,选择参数s3和t3都为5,Δ3为1,得到629万个28×28大小的特征矩阵;
9)对步骤8)得到的矩阵进行相似度聚类分析,保持图像第三级特征数量为10万个;
10)第四卷积层选择384个卷积算子,每个卷积算子为一个3×3的灰度图像块,每个卷积核所提取图像子图一个四级形状特征;
11)参考步骤2)、步骤3)、步骤4)计算第四层卷积运算的结果,选择参数s4和t4都为3,Δ4为1,得到3840万个12×12大小的特征矩阵;
12)对步骤11)得到的矩阵进行相似度聚类分析,保持图像第四级特征数量为1万个;
13)第五卷积层选择384个卷积算子,每个卷积算子为一个3×3的灰度图像块,每个卷积核所提取图像子图一个五级形状特征;
14)参考步骤3)、步骤4)、步骤5)计算第五层卷积运算的结果,选择参数s5和t5都为3,Δ5为1,得到384万个4×4大小的特征矩阵;
15)对步骤14)得到的矩阵进行相似度聚类分析,以其矩阵所有元素的和为综合特征,得到1000个不同特征点;
16)每层特征点均可经过信息选择器进行选择,并通过总线集成器产生该含聚类降维卷积神经网络的输出,进入记忆神经网络;
第二部分:深度记忆神经网络结构
所述的深度记忆神经网络模型是一个带有10个独立记忆单元的网络结构,模型更新规则为:
网络输入x(t)与记忆单元各记忆值进行对比,其最接近输入的单元k处的误差为:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,10} (4),
当δk(t)小于或等于网络识别阀值ε时,说明网络成功识别为第k类信息,此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
当δk(t)大于网络识别阀值ε时,说明网络识别过程中没有输入类,记忆网络按遗忘规律更新记忆最差的信息,即将记忆系数最低的单元k处替换为当前输入信息;此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
βk(t)=Min{βi(t),i=1,2,…,10} (7),
网络输出规则为:
h(t+1)=Ck(t+1) (10),
根据第一部分输出结果,可以构建1万个深度记忆网络结构,第五层输出全部记忆,前面四层选择记忆;
第三部分:BP网络结构
BP网络采用4层结构,一个输入层,两个隐层和一个输出层;将第二部分的输出作为全连接BP网络的输入,第一隐层设计500个节点,第二隐层设计50个节点,输出层为5个节点;输出层的每个节点的含义分别为:第1个输出结点为模糊类型,失焦模糊为‘1’,运动模糊为‘2’,高斯模糊为‘3’;第2个输出结点为失焦模糊的半径r,当第1个输出结点为‘1’时,该输出为计算得到的半径值,否则,该项输出为‘0’;第3个输出结点为运动模糊的长度;第4个输出结点为运动模湖的方向角;第5个输出结点为高斯模糊的噪声方差;
上述五卷积层的含聚类降维卷积神经网络结构、深度记忆神经网络结构和BP网络结构按先后顺序串联连接,五卷积层的含聚类降维卷积神经网络结构的输出与深度记忆神经网络结构的输入相连,深度记忆神经网络结构的输出与BP网络结构的输入相连,实现一种深度记忆卷积神经网络的装置。
二、构建方法
第一步,设置第一卷积层参数:设置卷积算子个数N1的值为96,并以不同直线、圆盘和圆环数据给每个卷积算子赋值;
第二步,计算第一层卷积值:
第三步,计算第一规则层的规则化值:
第四步,计算第一池化层的最大池化值:
第五步,设置第二卷积层参数:设置卷积算子个数N2的值为256,并给每个卷积算子赋值;
第六步,计算第二层卷积值;
第七步,计算第二规则层的规则化值;
第八步,计算第二池化层的最大池化值;
第九步,设置第三卷积层参数:设置卷积算子个数N3的值为256,并给每个卷积算子赋值;
第十步,计算第三层卷积值;
第十一步,计算第三规则层的规则化值;
第十二步,计算第三池化层的最大池化值;
第十三步,将聚类输出类别设置为10万个,对第十二步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十四步,设置第四卷积层参数:设置卷积算子个数N4的值为384,并给每个卷积算子赋值;
第十五步,计算第四层卷积值;
第十六步,计算第四规则层的规则化值;
第十七步,计算第四池化层的最大池化值;
第十八步,将聚类输出类别设置为1万个,对第十七步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十九步,设置第五卷积层参数:设置卷积算子个数N5的值为384,并给每个卷积算子赋值;
第二十步,计算第五层卷积值;
第二十一步,计算第五规则层的规则化值;
第二十二步,计算第五池化层的最大池化值;
第二十三步,将聚类输出类别设置为1000个,对第二十二步得到的结果进行相似度聚类分析,得到类中心数据矩阵各元素之和的输出;
第二十四步,将第四步、第八步、第十三步和第十八步的输出进行优选,并计算对应矩阵的元素和,将优选矩阵元素和和第二十三步输出的结果汇总成为五卷积层的含聚类降维卷积神经网络的输出;
第二十五步,将第二十四步的输出作为记忆网络的输入x(t),计算记忆误差,得到最小误差δk(t)及其对应记忆单元序号k:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,10} (4),
第二十六步,判断当δk(t)是否大于网络识别阀值ε,δk(t)>ε时计算历时最远的记忆单元序号k(暨记忆系数βi(t)最小的记忆单元):
βk(t)=Min{βi(t),i=1,2,…,10} (7),
第二十七步,更新记忆单元的记忆信息:当δk(t)≤ε时,
当δk(t)>ε时,
第二十八步,计算记忆网络输出:
h(t+1)=Ck(t+1) (10),
第二十九步,第二十八的输出作为BP网络的输入,根据求解问题和参数设置网络输出,并以此为依据构建中间隐层;
第三十步,将第二十九步作为整个网络的输出,一种深度记忆卷积神经网络的装置即构建完成。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。