CN107368887B - 一种深度记忆卷积神经网络的装置及其构建方法 - Google Patents

一种深度记忆卷积神经网络的装置及其构建方法 Download PDF

Info

Publication number
CN107368887B
CN107368887B CN201710609466.5A CN201710609466A CN107368887B CN 107368887 B CN107368887 B CN 107368887B CN 201710609466 A CN201710609466 A CN 201710609466A CN 107368887 B CN107368887 B CN 107368887B
Authority
CN
China
Prior art keywords
convolution
layer
memory
calculating
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710609466.5A
Other languages
English (en)
Other versions
CN107368887A (zh
Inventor
鄢化彪
黄绿娥
尹宝勇
刘祚时
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Southern Power Grid Internet Service Co ltd
Jingchuang United Beijing Intellectual Property Service Co ltd
Original Assignee
Jiangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi University of Science and Technology filed Critical Jiangxi University of Science and Technology
Priority to CN201710609466.5A priority Critical patent/CN107368887B/zh
Publication of CN107368887A publication Critical patent/CN107368887A/zh
Application granted granted Critical
Publication of CN107368887B publication Critical patent/CN107368887B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

本发明涉及基于学习的神经网络领域,尤其是涉及一种深度记忆卷积神经网络的结构及其构建方法。本发明网络的结构包括五卷积层的含聚类降维卷积神经网络结构;深度记忆神经网络结构;BP网络结构三部分;本发明还涉及网络结构的构建方法。本发明能够在一定程度上克服有限样本和计算单元情况下对复杂函数的表示能力的缺点,提高现有卷积神经网络的效率。

Description

一种深度记忆卷积神经网络的装置及其构建方法
技术领域
本发明涉及基于学习的神经网络领域,尤其是涉及一种深度记忆卷积神经网络的装置及其构建方法。
背景技术
深度学习的概念源于人工神经网络的研究,最早的深度学习结构之一就是多层感知器MLP。深度学习通过组合低层特征形成更加抽象的高层表示来发现数据的分布式特征。BP网络作为传统训练多层网络的典型算法,在大规模输入问题上存在缺陷。深度结构非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源。参考文献(Hinton G E,Osindero S,Teh Y W.A fast learning algorithm for deep belief nets[J].Neuralcomputation,2006,18(7):1527-1554.)提出基于深度信念网络(DBN),为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。Lecun等人提出的卷积神经网络(CNN)是第一个真正的多层结构学习算法,它利用空间相对关系减少参数数目以提高BP训练性能(LeCun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.)。当前多数分类、回归等学习方法为浅层结构算法,其局限性在于有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定制约。深度学习可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。
卷积神经网络存在训练过程收敛慢的问题,而且卷积运算非常耗时,目前有针对提高运算效率的一些方法如:设计新的卷积网络训练策略,使用GPU加速卷积运算过程,使用并行计算提高网络训练和测试速度,采用分布式计算提高网络训练和测试速度,硬件化卷积神经网络等(谢剑斌,兴军亮,张立宁,等.视觉机器学习20讲[M].北京:清华大学出版社,2015:228-239.)。
发明内容
本发明的目的是提供一种深度记忆卷积神经网络的装置及其构建方法,从一定程度上克服了有限样本和计算单元情况下对复杂函数的表示能力的缺点,提高现有卷积神经网络的运算效率。
本发明的技术方案:
一种深度记忆卷积神经网络的装置,包括五卷积层的含聚类降维卷积神经网络结构;深度记忆神经网络结构;BP网络结构三部分:
第一部分,五卷积层的含聚类降维卷积神经网络结构;
1)第一卷积层选择N1个卷积算子,每个卷积算子为一个大小s1×t1的卷积核,s1为卷积核的行数,t1为卷积核的列数;所述的卷积核由多种直线和多种圆盘和多种圆环组成,用以识别图像子图单元的一级形状特征;
2)第一卷积层卷积过程表达式为:
Figure GDA0002532358820000021
其中
Figure GDA0002532358820000022
为图像P0在像素[(i-1)Δ1+1+x,(j-1)Δ1+1+y]处的灰度值,
Figure GDA0002532358820000023
表示第n1个卷积算子在位置[x,y]处的权值,
Figure GDA0002532358820000024
为卷积后的图像P1在像素[i,j]处的灰度值,Δ1为卷积移动步长,n1为卷积算子的序号,范围为1≤n1≤N1
3)第一规则层的规则化处理过程为:
Figure GDA0002532358820000025
其中
Figure GDA0002532358820000026
为规则化后的输出,ω为衰减系数;
4)第一池化层的最大池化计算过程为:
Figure GDA0002532358820000031
5)第二卷积层选择N2个卷积算子,每个卷积算子为一个大小s2×t2的卷积核,s2为卷积核的行数,t2为卷积核的列数;每个卷积核提取图像子图的一个二级形状特征;
6)参考步骤2)、步骤3)、步骤4)计算第二层卷积运算的结果;
7)第三卷积层选择N3个卷积算子,每个卷积算子为一个大小s3×t3的卷积核,s3为卷积核的行数,t3为卷积核的列数;每个卷积核提取图像子图的一个三级形状特征;
8)参考步骤2)、步骤3)、步骤4)计算第三层卷积运算的结果;
9)对步骤8)得到的矩阵进行相似度聚类分析,保持图像第三级特征数量为M1个;
10)第四卷积层选择N4个卷积算子,每个卷积算子为一个大小s4×t4的卷积核,s4为卷积核的行数,t4为卷积核的列数;每个卷积核提取图像子图的一个四级形状特征;
11)参考步骤2)、步骤3)、步骤4)计算第四层卷积运算的结果;
12)对步骤11)得到的矩阵进行相似度聚类分析,保持图像第四级特征数量为M2个;
13)第五卷积层选择N5个卷积算子,每个卷积算子为一个大小s5×t5的卷积核,s5为卷积核的行数,t5为卷积核的列数;每个卷积核提取图像子图的一个五级形状特征;
14)参考步骤2)、步骤3)、步骤4)计算第五层卷积运算的结果;
15)对步骤14)得到的矩阵进行相似度聚类分析,以其矩阵所有元素的和为综合特征,得到M3个不同特征点;
16)每层特征点经过信息选择器进行选择,并通过总线集成器产生该含聚类降维卷积神经网络的输出,进入记忆神经网络;
第二部分,深度记忆神经网络结构:
所述的深度记忆神经网络模型是一个带有D个独立记忆单元的网络结构,模型更新规则为:
网络输入x(t)与记忆单元各记忆值进行对比,其最接近输入的单元k处的误差为:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,D} (4),
当δk(t)小于或等于网络识别阀值ε时,说明网络成功识别为第k类信息,此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
Figure GDA0002532358820000041
Figure GDA0002532358820000042
当δk(t)大于网络识别阀值ε时,说明网络识别过程中没有输入类,记忆网络按遗忘规律更新记忆最差的信息,βk(t)即将记忆系数最低的单元k处替换为当前输入信息;此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
βk(t)=Min{βi(t),i=1,2,…,D} (7),
Figure GDA0002532358820000043
Figure GDA0002532358820000044
网络输出h(t+1)规则为:
h(t+1)=Ck(t+1) (10);
第三部分,BP网络结构:
采用传统BP网络结构,根据输入和输出参数个数关系确定中间隐层层数,以递减方式设计中间隐层结点的数量;
上述五卷积层的含聚类降维卷积神经网络结构、深度记忆神经网络结构和BP网络结构按先后顺序串联连接,五卷积层的含聚类降维卷积神经网络结构的输出与深度记忆神经网络结构的输入相连,深度记忆神经网络结构的输出与BP网络结构的输入相连,实现一种深度记忆卷积神经网络的装置。
一种深度记忆卷积神经网络装置的构建方法,包括以下步骤:
第一步,设置第一卷积层参数:设置卷积算子个数N1的值,并以不同直线、圆盘和圆环数据给每个卷积算子赋值;
第二步,计算第一层卷积值:
Figure GDA0002532358820000051
第三步,计算第一规则层的规则化值:
Figure GDA0002532358820000052
第四步,计算第一池化层的最大池化值:
Figure GDA0002532358820000053
第五步,设置第二卷积层参数:设置卷积算子个数N2的值,并给每个卷积算子赋值;
第六步,计算第二层卷积值;
第七步,计算第二规则层的规则化值;
第八步,计算第二池化层的最大池化值;
第九步,设置第三卷积层参数:设置卷积算子个数N3的值,并给每个卷积算子赋值;
第十步,计算第三层卷积值;
第十一步,计算第三规则层的规则化值;
第十二步,计算第三池化层的最大池化值;
第十三步,将聚类输出类别设置为M1个,对第十二步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十四步,设置第四卷积层参数:设置卷积算子个数N4的值,并给每个卷积算子赋值;
第十五步,计算第四层卷积值;
第十六步,计算第四规则层的规则化值;
第十七步,计算第四池化层的最大池化值;
第十八步,将聚类输出类别设置为M2个,对第十七步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十九步,设置第五卷积层参数:设置卷积算子个数N5的值,并给每个卷积算子赋值;
第二十步,计算第五层卷积值;
第二十一步,计算第五规则层的规则化值;
第二十二步,计算第五池化层的最大池化值;
第二十三步,将聚类输出类别设置为M3个,对第二十二步得到的结果进行相似度聚类分析,得到类中心数据矩阵各元素之和的输出;
第二十四步,将第四步、第八步、第十三步和第十八步的输出进行优选,并计算对应矩阵的元素和,将优选矩阵元素和和第二十三步输出的结果汇总成为五卷积层的含聚类降维卷积神经网络的输出;
第二十五步,将第二十四步的输出作为记忆网络的输入x(t),计算记忆误差,得到最小误差δk(t)及其对应记忆单元序号k:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,D} (4),
第二十六步,判断当δk(t)是否大于网络识别阀值ε,δk(t)>ε时计算历时最远的记忆单元序号k(即记忆系数βi(t)最小的记忆单元):
βk(t)=Min{βi(t),i=1,2,…,D} (7),
第二十七步,更新记忆单元的记忆信息:当δk(t)≤ε时,
Figure GDA0002532358820000071
Figure GDA0002532358820000072
当δk(t)>ε时,
Figure GDA0002532358820000073
Figure GDA0002532358820000074
第二十八步,计算记忆网络输出:
h(t+1)=Ck(t+1) (10),
第二十九步,第二十八的输出作为BP网络的输入,根据求解问题和参数设置网络输出,并以此为依据构建中间隐层;
第三十步,将第二十九步作为整个网络的输出,一种深度记忆卷积神经网络的装置即构建完成。
本发明在现有CNN网络的基础上,针对高分辨率的图像采用多层变步长卷积运算。当分辨率较高时采用步长控制加速卷积收敛;当分辨率较低时采用单步长卷积控制保证特征数量。为避免卷积网络中后层规模激增现象,采用聚类分析减低层输出特征矩阵的数量,保证网络特征的差异性和计算规模。网络的每层特征均可通过深度记忆网络模型进行记忆和整形。最后通过BP网络对系统进行识别。本发明能够在一定程度上克服了有限样本和计算单元情况下对复杂函数的表示能力的缺点,提高现有卷积神经网络的效率。
附图说明
图1为本发明的深度记忆卷积神经网络装置方框图。
具体实施方式
本发明通过改进卷积神经网络的结构,并在卷积网络中加入记忆的方法来提高网络运算效率。
下面结合附图和实例对本发明进行详细说明。
一、网络装置
第一部分:五卷积层的含聚类降维卷积神经网络结构
1)第一卷积层选择96个卷积算子,每个卷积算子为一个16×16的灰度图像块,图像块包含72种不同形态的直线和8种不同大小的圆盘和16种不同形态的圆环;
2)第一卷积层卷积过程表达式为:
Figure GDA0002532358820000081
其中
Figure GDA0002532358820000091
为图像P0在像素[2i-1+x,2j-1+y]处的灰度值,
Figure GDA0002532358820000092
表示卷积算子在位置[x,y]处的权值,
Figure GDA0002532358820000093
为卷积后的图像P1在像素[i,j]处的灰度值;经过第一层卷积运算后,输出96个504×504大小的卷积图像;
3)第一规则层的规则化处理过程为:
Figure GDA0002532358820000094
其中
Figure GDA0002532358820000095
为规则化后的输出;
4)第一池化层的最大池化计算过程为:
Figure GDA0002532358820000096
通过最大池化作用,输出96个252×252大小的特征矩阵;
5)第二卷积层选择256个卷积算子,每个卷积算子为一个8×8的灰度卷积核,每个卷积核提取图像子图的一个二级形状特征;
6)参考步骤2)、步骤3)、步骤4)计算第二层卷积运算的结果,选择参数s2和t2都为8,Δ2为2,得到24576个61×61大小的特征矩阵;
7)第三卷积层选择256个卷积算子,每个卷积算子为一个5×5的灰度图像块,每个卷积核提取图像子图的一个三级形状特征;
8)参考步骤2)、步骤3)、步骤4)计算第三层卷积运算的结果,选择参数s3和t3都为5,Δ3为1,得到629万个28×28大小的特征矩阵;
9)对步骤8)得到的矩阵进行相似度聚类分析,保持图像第三级特征数量为10万个;
10)第四卷积层选择384个卷积算子,每个卷积算子为一个3×3的灰度图像块,每个卷积核所提取图像子图一个四级形状特征;
11)参考步骤2)、步骤3)、步骤4)计算第四层卷积运算的结果,选择参数s4和t4都为3,Δ4为1,得到3840万个12×12大小的特征矩阵;
12)对步骤11)得到的矩阵进行相似度聚类分析,保持图像第四级特征数量为1万个;
13)第五卷积层选择384个卷积算子,每个卷积算子为一个3×3的灰度图像块,每个卷积核所提取图像子图一个五级形状特征;
14)参考步骤3)、步骤4)、步骤5)计算第五层卷积运算的结果,选择参数s5和t5都为3,Δ5为1,得到384万个4×4大小的特征矩阵;
15)对步骤14)得到的矩阵进行相似度聚类分析,以其矩阵所有元素的和为综合特征,得到1000个不同特征点;
16)每层特征点均可经过信息选择器进行选择,并通过总线集成器产生该含聚类降维卷积神经网络的输出,进入记忆神经网络;
第二部分:深度记忆神经网络结构
所述的深度记忆神经网络模型是一个带有10个独立记忆单元的网络结构,模型更新规则为:
网络输入x(t)与记忆单元各记忆值进行对比,其最接近输入的单元k处的误差为:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,10} (4),
当δk(t)小于或等于网络识别阀值ε时,说明网络成功识别为第k类信息,此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
Figure GDA0002532358820000101
Figure GDA0002532358820000102
当δk(t)大于网络识别阀值ε时,说明网络识别过程中没有输入类,记忆网络按遗忘规律更新记忆最差的信息,即将记忆系数最低的单元k处替换为当前输入信息;此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
βk(t)=Min{βi(t),i=1,2,…,10} (7),
Figure GDA0002532358820000111
Figure GDA0002532358820000112
网络输出规则为:
h(t+1)=Ck(t+1) (10),
根据第一部分输出结果,可以构建1万个深度记忆网络结构,第五层输出全部记忆,前面四层选择记忆;
第三部分:BP网络结构
BP网络采用4层结构,一个输入层,两个隐层和一个输出层;将第二部分的输出作为全连接BP网络的输入,第一隐层设计500个节点,第二隐层设计50个节点,输出层为5个节点;输出层的每个节点的含义分别为:第1个输出结点为模糊类型,失焦模糊为‘1’,运动模糊为‘2’,高斯模糊为‘3’;第2个输出结点为失焦模糊的半径r,当第1个输出结点为‘1’时,该输出为计算得到的半径值,否则,该项输出为‘0’;第3个输出结点为运动模糊的长度;第4个输出结点为运动模湖的方向角;第5个输出结点为高斯模糊的噪声方差;
上述五卷积层的含聚类降维卷积神经网络结构、深度记忆神经网络结构和BP网络结构按先后顺序串联连接,五卷积层的含聚类降维卷积神经网络结构的输出与深度记忆神经网络结构的输入相连,深度记忆神经网络结构的输出与BP网络结构的输入相连,实现一种深度记忆卷积神经网络的装置。
二、构建方法
第一步,设置第一卷积层参数:设置卷积算子个数N1的值为96,并以不同直线、圆盘和圆环数据给每个卷积算子赋值;
第二步,计算第一层卷积值:
Figure GDA0002532358820000121
第三步,计算第一规则层的规则化值:
Figure GDA0002532358820000122
第四步,计算第一池化层的最大池化值:
Figure GDA0002532358820000123
第五步,设置第二卷积层参数:设置卷积算子个数N2的值为256,并给每个卷积算子赋值;
第六步,计算第二层卷积值;
第七步,计算第二规则层的规则化值;
第八步,计算第二池化层的最大池化值;
第九步,设置第三卷积层参数:设置卷积算子个数N3的值为256,并给每个卷积算子赋值;
第十步,计算第三层卷积值;
第十一步,计算第三规则层的规则化值;
第十二步,计算第三池化层的最大池化值;
第十三步,将聚类输出类别设置为10万个,对第十二步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十四步,设置第四卷积层参数:设置卷积算子个数N4的值为384,并给每个卷积算子赋值;
第十五步,计算第四层卷积值;
第十六步,计算第四规则层的规则化值;
第十七步,计算第四池化层的最大池化值;
第十八步,将聚类输出类别设置为1万个,对第十七步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十九步,设置第五卷积层参数:设置卷积算子个数N5的值为384,并给每个卷积算子赋值;
第二十步,计算第五层卷积值;
第二十一步,计算第五规则层的规则化值;
第二十二步,计算第五池化层的最大池化值;
第二十三步,将聚类输出类别设置为1000个,对第二十二步得到的结果进行相似度聚类分析,得到类中心数据矩阵各元素之和的输出;
第二十四步,将第四步、第八步、第十三步和第十八步的输出进行优选,并计算对应矩阵的元素和,将优选矩阵元素和和第二十三步输出的结果汇总成为五卷积层的含聚类降维卷积神经网络的输出;
第二十五步,将第二十四步的输出作为记忆网络的输入x(t),计算记忆误差,得到最小误差δk(t)及其对应记忆单元序号k:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,10} (4),
第二十六步,判断当δk(t)是否大于网络识别阀值ε,δk(t)>ε时计算历时最远的记忆单元序号k(暨记忆系数βi(t)最小的记忆单元):
βk(t)=Min{βi(t),i=1,2,…,10} (7),
第二十七步,更新记忆单元的记忆信息:当δk(t)≤ε时,
Figure GDA0002532358820000141
Figure GDA0002532358820000142
当δk(t)>ε时,
Figure GDA0002532358820000143
Figure GDA0002532358820000144
第二十八步,计算记忆网络输出:
h(t+1)=Ck(t+1) (10),
第二十九步,第二十八的输出作为BP网络的输入,根据求解问题和参数设置网络输出,并以此为依据构建中间隐层;
第三十步,将第二十九步作为整个网络的输出,一种深度记忆卷积神经网络的装置即构建完成。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (2)

1.一种深度记忆卷积神经网络的装置,其特征是,包括五卷积层的含聚类降维卷积神经网络结构;深度记忆神经网络结构;BP网络结构三部分:
第一部分,五卷积层的含聚类降维卷积神经网络结构;
1)第一卷积层选择N1个卷积算子,每个卷积算子为一个大小s1×t1的卷积核,s1为卷积核的行数,t1为卷积核的列数;所述的卷积核由多种直线和多种圆盘和多种圆环组成,用以识别图像子图单元的一级形状特征;
2)第一卷积层卷积过程表达式为:
Figure FDA0002532358810000011
其中
Figure FDA0002532358810000012
为图像P0在像素[(i-1)Δ1+1+x,(j-1)Δ1+1+y]处的灰度值,
Figure FDA0002532358810000013
表示第n1个卷积算子在位置[x,y]处的权值,
Figure FDA0002532358810000014
为卷积后的图像P1在像素[i,j]处的灰度值,Δ1为卷积移动步长,n1为卷积算子的序号,范围为1≤n1≤N1
3)第一规则层的规则化处理过程为:
Figure FDA0002532358810000015
其中
Figure FDA0002532358810000016
为规则化后的输出,ω为衰减系数;
4)第一池化层的最大池化计算过程为:
Figure FDA0002532358810000017
5)第二卷积层选择N2个卷积算子,每个卷积算子为一个大小s2×t2的卷积核,s2为卷积核的行数,t2为卷积核的列数;每个卷积核提取图像子图的一个二级形状特征;
6)参考步骤2)、步骤3)、步骤4)计算第二层卷积运算的结果;
7)第三卷积层选择N3个卷积算子,每个卷积算子为一个大小s3×t3的卷积核,s3为卷积核的行数,t3为卷积核的列数;每个卷积核提取图像子图的一个三级形状特征;
8)参考步骤2)、步骤3)、步骤4)计算第三层卷积运算的结果;
9)对步骤8)得到的矩阵进行相似度聚类分析,保持图像第三级特征数量为M1个;
10)第四卷积层选择N4个卷积算子,每个卷积算子为一个大小s4×t4的卷积核,s4为卷积核的行数,t4为卷积核的列数;每个卷积核提取图像子图的一个四级形状特征;
11)参考步骤2)、步骤3)、步骤4)计算第四层卷积运算的结果;
12)对步骤11)得到的矩阵进行相似度聚类分析,保持图像第四级特征数量为M2个;
13)第五卷积层选择N5个卷积算子,每个卷积算子为一个大小s5×t5的卷积核,s5为卷积核的行数,t5为卷积核的列数;每个卷积核提取图像子图的一个五级形状特征;
14)参考步骤2)、步骤3)、步骤4)计算第五层卷积运算的结果;
15)对步骤14)得到的矩阵进行相似度聚类分析,以其矩阵所有元素的和为综合特征,得到M3个不同特征点;
16)每层特征点经过信息选择器进行选择,并通过总线集成器产生该含聚类降维卷积神经网络的输出,进入记忆神经网络;
第二部分,深度记忆神经网络结构:
所述的深度记忆神经网络模型是一个带有D个独立记忆单元的网络结构,模型更新规则为:
网络输入x(t)与记忆单元各记忆值进行对比,其最接近输入的单元k处的误差为:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,D} (4),
当δk(t)小于或等于网络识别阀值ε时,说明网络成功识别为第k类信息,此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
Figure FDA0002532358810000031
Figure FDA0002532358810000032
当δk(t)大于网络识别阀值ε时,说明网络识别过程中没有输入类,记忆网络按遗忘规律更新记忆最差的信息,βk(t)即将记忆系数最低的单元k处替换为当前输入信息;此时每个记忆单元的记忆系数βi(t)和记忆信息Ci(t)的选择性记忆更新规则为:
βk(t)=Min{βi(t),i=1,2,…,D} (7),
Figure FDA0002532358810000033
Figure FDA0002532358810000034
网络输出h(t+1)规则为:
h(t+1)=Ck(t+1) (10);
第三部分,BP网络结构:
采用传统BP网络结构,根据输入和输出参数个数关系确定中间隐层层数,以递减方式设计中间隐层结点的数量;
上述五卷积层的含聚类降维卷积神经网络结构、深度记忆神经网络结构和BP网络结构按先后顺序串联连接,五卷积层的含聚类降维卷积神经网络结构的输出与深度记忆神经网络结构的输入相连,深度记忆神经网络结构的输出与BP网络结构的输入相连,实现一种深度记忆卷积神经网络的装置。
2.构建权利要求1所述的一种深度记忆卷积神经网络装置的方法,其特征是,包括以下步骤:
第一步,设置第一卷积层参数:设置卷积算子个数N1的值,并以不同直线、圆盘和圆环数据给每个卷积算子赋值;
第二步,计算第一层卷积值:
Figure FDA0002532358810000041
第三步,计算第一规则层的规则化值:
Figure FDA0002532358810000042
第四步,计算第一池化层的最大池化值:
Figure FDA0002532358810000043
第五步,设置第二卷积层参数:设置卷积算子个数N2的值,并给每个卷积算子赋值;
第六步,计算第二层卷积值;
第七步,计算第二规则层的规则化值;
第八步,计算第二池化层的最大池化值;
第九步,设置第三卷积层参数:设置卷积算子个数N3的值,并给每个卷积算子赋值;
第十步,计算第三层卷积值;
第十一步,计算第三规则层的规则化值;
第十二步,计算第三池化层的最大池化值;
第十三步,将聚类输出类别设置为M1个,对第十二步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十四步,设置第四卷积层参数:设置卷积算子个数N4的值,并给每个卷积算子赋值;
第十五步,计算第四层卷积值;
第十六步,计算第四规则层的规则化值;
第十七步,计算第四池化层的最大池化值;
第十八步,将聚类输出类别设置为M2个,对第十七步得到的结果进行相似度聚类分析,得到类中心数据的输出;
第十九步,设置第五卷积层参数:设置卷积算子个数N5的值,并给每个卷积算子赋值;
第二十步,计算第五层卷积值;
第二十一步,计算第五规则层的规则化值;
第二十二步,计算第五池化层的最大池化值;
第二十三步,将聚类输出类别设置为M3个,对第二十二步得到的结果进行相似度聚类分析,得到类中心数据矩阵各元素之和的输出;
第二十四步,将第四步、第八步、第十三步和第十八步的输出进行优选,并计算对应矩阵的元素和,将优选矩阵元素和和第二十三步输出的结果汇总成为五卷积层的含聚类降维卷积神经网络的输出;
第二十五步,将第二十四步的输出作为记忆网络的输入x(t),计算记忆误差,得到最小误差δk(t)及其对应记忆单元序号k:
δk(t)=Min{|Ci(t)-x(t)|,i=1,2,…,D} (4),
第二十六步,判断当δk(t)是否大于网络识别阀值ε,δk(t)>ε时计算历时最远的记忆单元序号k即记忆系数βi(t)最小的记忆单元:
βk(t)=Min{βi(t),i=1,2,…,D} (7),
第二十七步,更新记忆单元的记忆信息:当δk(t)≤ε时,
Figure FDA0002532358810000061
Figure FDA0002532358810000062
当δk(t)>ε时,
Figure FDA0002532358810000063
Figure FDA0002532358810000064
第二十八步,计算记忆网络输出:
h(t+1)=Ck(t+1) (10),
第二十九步,第二十八的输出作为BP网络的输入,根据求解问题和参数设置网络输出,并以此为依据构建中间隐层;
第三十步,将第二十九步作为整个网络的输出,一种深度记忆卷积神经网络的装置即构建完成。
CN201710609466.5A 2017-07-25 2017-07-25 一种深度记忆卷积神经网络的装置及其构建方法 Active CN107368887B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710609466.5A CN107368887B (zh) 2017-07-25 2017-07-25 一种深度记忆卷积神经网络的装置及其构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710609466.5A CN107368887B (zh) 2017-07-25 2017-07-25 一种深度记忆卷积神经网络的装置及其构建方法

Publications (2)

Publication Number Publication Date
CN107368887A CN107368887A (zh) 2017-11-21
CN107368887B true CN107368887B (zh) 2020-08-07

Family

ID=60307757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710609466.5A Active CN107368887B (zh) 2017-07-25 2017-07-25 一种深度记忆卷积神经网络的装置及其构建方法

Country Status (1)

Country Link
CN (1) CN107368887B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107944553A (zh) * 2017-11-22 2018-04-20 浙江大华技术股份有限公司 一种cnn模型的微调方法及装置
WO2019100436A1 (en) 2017-11-22 2019-05-31 Zhejiang Dahua Technology Co., Ltd. Methods and systems for face recognition
CN109840584B (zh) * 2017-11-24 2023-04-18 腾讯科技(深圳)有限公司 基于卷积神经网络模型的图像数据分类方法及设备
CN111630787B (zh) * 2020-04-07 2022-12-20 东莞理工学院 基于深度学习的mimo多天线信号传输与检测技术
CN116054887A (zh) * 2020-04-07 2023-05-02 东莞理工学院 一种基于神经网络模型的天线信号调制方法
CN111860582B (zh) * 2020-06-11 2021-05-11 北京市威富安防科技有限公司 图像分类模型构建方法、装置、计算机设备和存储介质
CN111881033A (zh) * 2020-07-23 2020-11-03 深圳慕智科技有限公司 一种基于运行环境误差分析的深度学习模型质量评估方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105279495A (zh) * 2015-10-23 2016-01-27 天津大学 一种基于深度学习和文本总结的视频描述方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276339B1 (ko) * 2014-12-09 2021-07-12 삼성전자주식회사 Cnn의 근사화를 위한 학습 장치 및 방법
US10423874B2 (en) * 2015-10-02 2019-09-24 Baidu Usa Llc Intelligent image captioning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105279495A (zh) * 2015-10-23 2016-01-27 天津大学 一种基于深度学习和文本总结的视频描述方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cellular Neural Network for Associative Memory and Its;M.Namba 等;《The 2006 IEEE International Joint Conference on Neural Network Proceedings》;20060721;全文 *
基于深度学习的图像语义理解研究;梁欢;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315;全文 *

Also Published As

Publication number Publication date
CN107368887A (zh) 2017-11-21

Similar Documents

Publication Publication Date Title
CN107368887B (zh) 一种深度记忆卷积神经网络的装置及其构建方法
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
Cui et al. A new hyperparameters optimization method for convolutional neural networks
CN108764292B (zh) 基于弱监督信息的深度学习图像目标映射及定位方法
CN107274378B (zh) 一种融合记忆cnn的图像模糊类型识别及参数整定方法
KR101644998B1 (ko) Convolutional Neural Network를 이용하여 비정상 입력 데이터를 검출하는 방법 및 장치
CN110288048B (zh) 一种svm有向无环图的海底管道风险评估方法
CN107392919B (zh) 基于自适应遗传算法的灰度阈值获取方法、图像分割方法
KR20200094622A (ko) 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치
CN114170789B (zh) 基于时空图神经网络的智能网联车换道决策建模方法
CN111415025A (zh) 一种赤潮等级预测的方法
CN111898689A (zh) 一种基于神经网络架构搜索的图像分类方法
CN105427241B (zh) 一种大视场显示设备的畸变校正方法
CN110705029A (zh) 一种基于迁移学习的振荡扑翼能量采集系统流场预测方法
CN115510963A (zh) 一种增量式设备故障诊断方法
CN107832789B (zh) 基于平均影响值数据变换的特征加权k近邻故障诊断方法
CN107145943A (zh) 混沌背景中基于改进教学优化算法的检测回声状态网络微弱信号的方法
CN108009560A (zh) 商品图像相似类别判定方法及装置
CN114359631A (zh) 基于编码-译码弱监督网络模型的目标分类与定位方法
CN111145145A (zh) 一种基于MobileNets的图像表面缺陷检测方法
CN111598844B (zh) 一种图像分割方法、装置、电子设备和可读存储介质
CN107273922A (zh) 一种面向多源实例迁移学习的样本筛选和权重计算方法
CN116935128A (zh) 一种基于可学习提示的零样本异常图像检测方法
CN110110785B (zh) 一种快件物流过程状态检测分类方法
CN105844334A (zh) 一种基于径向基神经网络的温度插值算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221229

Address after: Room 606-609, Compound Office Complex Building, No. 757, Dongfeng East Road, Yuexiu District, Guangzhou, Guangdong Province, 510699

Patentee after: China Southern Power Grid Internet Service Co.,Ltd.

Address before: Room 02A-084, Building C (Second Floor), No. 28, Xinxi Road, Haidian District, Beijing 100085

Patentee before: Jingchuang United (Beijing) Intellectual Property Service Co.,Ltd.

Effective date of registration: 20221229

Address after: Room 02A-084, Building C (Second Floor), No. 28, Xinxi Road, Haidian District, Beijing 100085

Patentee after: Jingchuang United (Beijing) Intellectual Property Service Co.,Ltd.

Address before: 86 No. 341000 Jiangxi city of Ganzhou province Zhanggong District Hongqi Avenue

Patentee before: Jiangxi University of Science and Technology