CN105787557A - 一种计算机智能识别的深层神经网络结构设计方法 - Google Patents

一种计算机智能识别的深层神经网络结构设计方法 Download PDF

Info

Publication number
CN105787557A
CN105787557A CN201610100209.4A CN201610100209A CN105787557A CN 105787557 A CN105787557 A CN 105787557A CN 201610100209 A CN201610100209 A CN 201610100209A CN 105787557 A CN105787557 A CN 105787557A
Authority
CN
China
Prior art keywords
matrix
layer
network
input
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610100209.4A
Other languages
English (en)
Other versions
CN105787557B (zh
Inventor
李玉鑑
杨红丽
时康凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201610100209.4A priority Critical patent/CN105787557B/zh
Publication of CN105787557A publication Critical patent/CN105787557A/zh
Application granted granted Critical
Publication of CN105787557B publication Critical patent/CN105787557B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种计算机智能识别的深层神经网络结构设计方法,对于图像而言,由于相邻像素间的相关性,这就使得可以使用更少的数据表示同一个事物,降低数据维度。选定网络初始层数;输入层神经元个数为训练样本维数;是否需要归一化;训练样本做主成分分析确定第一个隐含层神经元个数;确定第二层隐含层神经元个数;训练网络,测评网络结构;结果不理想时增加一个隐含层,将上一层降维后的矩阵经过非线性变换函数作用后做主成分分析确定该隐含层神经元个数并训练网络,重复试验,直到取得良好效果。本发明解决了深层神经网络中结构设计的随机性、盲目性和不稳定性,大大提高了深层神经网络训练的速度和学习能力,为深层神经网络的发展奠定基础。

Description

一种计算机智能识别的深层神经网络结构设计方法
技术领域
本发明属于机器学习中的深度学习部分。具体内容是应用在计算机视觉和语音识别领域中深层神经网络的结构设计方法。
背景技术
深度学习是机器学习领域一个新的研究方向,近年来在语音识别、计算机视觉等多类应用中取得突破性的进展。其动机在于建立模型模拟人类大脑的神经连接结构,在处理图像、声音和文本这些信号时,通过多个变换阶段分层对数据特征进行描述,进而给出数据的解释。深度学习之所以被称为“深度”,是相对支持向量机(supportvectormachine,SVM)、提升方法(boosting)、最大熵方法等“浅层学习”方法而言的,深度学习所学到的模型中,非线性操作的层级数更多。浅层学习依靠人工经验抽取样本特征,网络模型学习后获得的是没有层次结构的单层特征;而深度学习通过对原始信号进行逐层特征变换,将样本在原空间的特征表示变换到新的特征空间,自动地学习得到层次化的特征表示,从而更有利于分类或特征的可视化。
深度学习可以完成需要高度抽象特征的人工智能任务,如语音识别、图像识别和检索、自然语言理解等。深层模型是包含多个隐含层的人工神经网络,多层非线性结构使其具备强大的特征表达能力和对复杂任务建模能力。训练深层模型是长期以来的难题,近年来以层次化、逐层初始化为代表的一系列方法的提出给训练深层模型带来了希望,并在多个应用领域获得了成功。深度学习是目前最接近人脑的智能学习方法,深度学习引爆的这场革命,将人工智能带上了一个新的台阶,将对一大批产品和服务产生深远影响。深度学习尝试解决人工智能中抽象认知的难题,从理论分析和应用方面都获得了很大的成功。
计算机视觉和语音识别领域中深层神经网络的结构设计一个非常重要并且一直未能得到很好解决的问题。现有应用在计算机视觉和语音识别中的深层神经网络结构一般由实验者经验和实验结果衡量,实验结果难以估计,需要不断地通过实验来验证,浪费了大量的时间和资源。这样设计的深层神经网络结构有很大的随机性和盲目性,为网络模型的构建造成很大的困难,结构不同对实验结果的影响也很难预测。可以说,目前在计算机视觉和语音识别中的深层神经网络模型还没有一个统一且准确的确定结构的方法,这就使得深层神经网络模型只对特定的图片和语音数据集以及特定的环境有很好的学习能力,但是这样的网络模型并不能很好的推广到所有情况。
目前,深度学习中应用在计算机视觉和语音识别领域的主要深层神经网络模型有:
1.自动编码器(AutoEncoder,AE),主要利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统。如果给定一个神经网络,假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素。
2.深信度神经网络(DeepBeliefNetworks,DBNs),DBNs是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布,对P(Observation|Label)和P(Label|Observation)都做了评估。DBNs由多个限制玻尔兹曼机(RestrictedBoltzmannMachines)层组成。这些网络被“限制”为一个可视层和一个隐层,层间存在连接,但层内的单元间不存在连接。隐含层单元被训练去捕捉在可视层表现出来的高阶数据的相关性。
3.卷积神经网络(ConvolutionalNeuralNetworks,CNN),卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。
发明内容
本发明属于机器学习中的深度学习部分。具体内容是应用在计算机视觉和语音识别领域中深层神经网络的结构设计方法。
针对上述所说的在计算机视觉和语音识别领域中深层神经网络结构设计的缺陷和不足,本发明提出了一种基于主成分分析算法设计深层神经网络结构的方法。该方法可以有效的避免网络模型构建过程中隐含层神经元个数确定的盲目性,同时主成分分析算法保证了数据在深层网络的不同隐含层中最大程度的保留原有分布,最大程度的反映数据内部结构。通过主成分分析后数据的保留维度确定深层神经网络中隐含层神经元的个数,大大减少深层神经网络中的训练参数,避免维数“爆炸”,提高深层神经网络的训练速度和学习能力,为设计深层神经网络的结构提供理论依据,为计算机视觉和语音识别的后续研究奠定重要基础。
主成分分析是一种能够极大提升无监督特征学习速度的数据降维算法。对于图像而言,由于相邻像素间的相关性,主成分分析算法可以将输入矩阵转换为一个维数低很多的近似矩阵,而且误差非常小。这就使得可以使用更少的数据表示同一个事物,降低数据维度。同时可以最大限度的保留原有数据的内部结构和分布。
深度学习的基本思想就是假设有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn=>O,如果输出O等于输入I,即输入I经过这个系统变化之后保持不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。所以在深层神经网络中,通过调整系统中参数,使得它的输出O仍然是输入I,那么就可以自动地获取得到输入I的一系列层次特征,即S1,…,Sn。通过这种方式,就可以实现对输入信息进行分级表达了。
所以,对图片和语音数据多次进行主成分分析的思想和深度学习的思想在一定程度上是吻合的,每次对数据进行主成分分析后得到的新的矩阵和深层神经网络中每层神经元都是对输入数据的不同表示形式,两者有很大的相似性。本发明正是基于此原理提出了一种应用在计算机视觉和语音识别领域中深层神经网络的结构设计方法。
此方法的特征在于包括以下步骤:
步骤1,人工选定计算机智能识别的深层神经网络初始层数L为4,即包括输入层、第一个隐含层、第二个隐含层和输出层,所述智能识别包括计算机视觉识别和语音识别;
步骤2,计算机视觉识别的图片或计算机语音识别的语音作为训练样本集,将训练样本集转化为矩阵的形式即Y0={Y01,Y02,...,Y0p},其中Y01,Y02,...,Y0p分别代表一个样本,共p个样本,p取正整数,每个样本维数为d;
步骤3,定义输入层神经元个数为训练样本的维数d;
步骤4,如果训练样本集是图片且取值范围在(0,255)之间,需要将训练样本进行归一化操作,否则直接进行下一步操作;如果训练样本集是语音,则直接进行下一步操作;
步骤5,训练样本集Y0为第一个隐含层的输入矩阵,通过对输入矩阵Y0做主成分分析确定第一个隐含层神经元的个数HN1,主成分分析算法的具体计算过程如下:
S5.1输入矩阵表示为Yi={Yi1,Yi2,...,Yip}(0≤i≤L-1),其中Yi代表不同隐含层的输入矩阵,
Yi的维数为变量n;
S5.2输入矩阵去均值化:
Y i = Y i - Y ‾ , 其中 Y ‾ = 1 p Σ p = 1 p Y p , ( i = 1 , 2 , ... p ) ;
S5.3计算输入矩阵Yi的协方差矩阵:
S n × n = Σ Y i = 1 P Σ k = 1 P ( Y i k - Y ‾ ) ( Y i k - Y ‾ ) T , ( 1 ≤ k ≤ p ) , 其中Yi={Yi1,Yi2,...,Yip},Yik∈Yi,T为矩阵的转置操作;
S5.4计算Yi的协方差矩阵的特征根和特征向量:
求得特征根λi1i2,...,λin及相应的单位化特征向量ξi1i2,...,ξin
S5.5根据各个特征根(主成分)累计贡献率的大小选取前m个最大特征根,这里贡献率就是指某个特征根占全部特征根合计的比重,即
λij代表矩阵Yi的协方差矩阵求得的各个特征根,贡献率越大说明该主成分所包含的原始数据的信息越强,一般要求累计贡献率达到85%——100%以保证原始数据的绝大多数信息,选择的m个最大特征根对应的单位化特征向量ξi1i2,...,ξim生成投影矩阵:
Mi=(ξi1i2,...,ξim)T,Mi∈Rm×n,其中ξi1i2,...,ξim代表Yi的协方差矩阵的前m个最大特征向量;
S5.6对输入矩阵Yi进行投影得到降维后的矩阵Yi *,矩阵的维数m即为第(i+1)层隐含层神经元的个数HNi+1=m:
Yi *=Mi×Yi
步骤6,降维后的矩阵经过非线性变换函数f作用产生第一层隐含层的输出矩阵Y1,f为sigmoid函数或tanh函数或ReLu函数:
Y 1 = f ( Y 0 * ) ;
步骤7,第二个隐含层输入矩阵即为第一个隐含层的输出矩阵Y1,通过对输入矩阵Y1做主成分分析(步骤S5.1至S5.6)确定第二个隐含层神经元的个数HN2
步骤8,输出层神经元的个数为标记类的个数;
步骤9,利用图像或语音的训练数据对深层神经网络进行训练,对网络结构进行测评;
步骤10,如果测评结果不理想,可以调整深层神经网络的层数L=L+1,(4≤L≤1000),增加一层隐含层,第i层降维后的矩阵Yi *经过非线性变换函数f作用产生第(i+1)层隐含层的输入矩阵Yi+1,公式表达为Yi+1=f(Yi *),(2≤i≤L-2),通过对输入矩阵Yi+1做主成分分析(步骤S5.1至S5.6)即可确定第(i+1)层隐含层神经元的个数HNi
步骤11,重复步骤9和10,不断调整网络层数并训练深层网络,直到取得良好的实验效果,确定深层神经网络的结构为输入层、第一个隐含层、第二个隐含层...、第(L-2)个隐含层、输出层。
本发明与现有技术相比,具有以下明显优势和有益效果:
本发明在设计应用在计算机视觉和语音识别领域中深层神经网络的结构上提出了新的思路和解决方法。目前相关的深层神经网络结构往往由实验者的经验和技巧确定,具有一定的盲目性,需要大量的事实实验支撑。而本发明恰恰解决了此类深层神经网络模型中结构确定的困难,弥补了其随机性、盲目性和不稳定性的缺陷。利用多层主成分分析后数据的保留维度逐层确定隐含层神经元的个数,为设计深层神经网络的结构提供一定理论依据,大大提高了应用在计算机视觉和语音识别领域中深层神经网络的训练速度和学习能力,挖掘不同图片或语音数据内部的结构和分布,为计算机视觉和语音识别的发展奠定基础。
附图说明
图1为本发明的流程图。
图2为主成分算法流程图。
图3为MNIST手写字降维具体过程。
图4为3次主成分分析的训练集错误率。
图5为3次主成分分析的测试集错误率。
图6为4次主成分分析的训练集错误率。
图7为4次主成分分析的测试集错误率。
图8为5次主成分分析的训练集错误率。
图9为5次主成分分析的测试集错误率。
图10为6次主成分分析的训练集错误率。
图11为6次主成分分析的测试集错误率。
具体实施方式
下面结合附图及具体实施案例对本发明作进一步的描述。
应用在计算机视觉和语音识别领域中深层神经网络的结构设计方法流程图。如图1所示。其特征在于包括以下步骤:
步骤1,人工选定计算机智能识别的深层神经网络初始层数L为4,即包括输入层、第一个隐含层、第二个隐含层和输出层,所述智能识别包括计算机视觉识别和语音识别;
步骤2,计算机视觉识别的图片或计算机语音识别的语音作为训练样本集,将训练样本集转化为矩阵的形式即Y0={Y01,Y02,...,Y0p},其中Y01,Y02,...,Y0p分别代表一个样本,共p个样本,p取正整数,每个样本维数为d;
步骤3,定义输入层神经元个数为训练样本的维数d;
步骤4,如果训练样本集是图片且取值范围在(0,255)之间,需要将训练样本进行归一化操作,否则直接进行下一步操作;如果训练样本集是语音,则直接进行下一步操作;
步骤5,训练样本集Y0为第一个隐含层的输入矩阵,通过对输入矩阵Y0做主成分分析确定第一个隐含层神经元的个数HN1,主成分分析算法的具体计算过程如下:
S5.1输入矩阵表示为Yi={Yi1,Yi2,...,Yip}(0≤i≤L-1),Yi的维数为变量n;
S5.2输入矩阵去均值化:
Y i = Y i - Y ‾ , 其中 Y ‾ = 1 p Σ p = 1 p Y p , ( i = 1 , 2 , ... p ) ;
S5.3计算输入矩阵Yi的协方差矩阵:
S n × n = Σ Y i = 1 P Σ k = 1 P ( Y i k - Y ‾ ) ( Y i k - Y ‾ ) T , ( 1 ≤ k ≤ p ) , 其中Yi={Yi1,Yi2,...,Yip},T为矩阵的转置操作;
S5.4计算Yi的协方差矩阵的特征根和特征向量:
求得特征根λi1i2,...,λin及相应的单位化特征向量ξi1i2,...,ξin
S5.5根据各个特征根(主成分)累计贡献率的大小选取前m个最大特征根,这里贡献率就是指某个特征根占全部特征根合计的比重,即
λij代表矩阵Yi的协方差矩阵求得的各个特征根,贡献率越大说明该主成分所包含的原始数据的信息越强,一般要求累计贡献率达到85%——100%以保证原始数据的绝大多数信息,选择的m个最大特征根对应的单位化特征向量ξi1i2,...,ξim生成投影矩阵:
Mi=(ξi1i2,...,ξim)T,Mi∈Rm×n,其中ξi1i2,...,ξim代表Yi的协方差矩阵的前m个最大特征向量;
S5.6对输入矩阵Yi进行投影得到降维后的矩阵Yi *,矩阵的维数m即为第(i+1)层隐含层神经元的个数HNi+1=m:
Yi *=Mi×Yi
步骤6,降维后的矩阵经过非线性变换函数f作用产生第一层隐含层的输出矩阵Y1,f为sigmoid函数或tanh函数或ReLu函数:
Y 1 = f ( Y 0 * ) ;
步骤7,第二个隐含层输入矩阵即为第一个隐含层的输出矩阵Y1,通过对输入矩阵Y1做主成分分析(步骤S5.1至S5.6)确定第二个隐含层神经元的个数HN2
步骤8,输出层神经元的个数为标记类的个数;
步骤9,利用图像或语音的训练数据对深层神经网络进行训练,对网络结构进行测评;
步骤10,如果测评结果不理想,可以调整深层神经网络的层数L=L+1,(4≤L≤1000),增加一层隐含层,第i层降维后的矩阵Yi *经过非线性变换函数f作用产生第(i+1)层隐含层的输入矩阵Yi+1,公式表达为Yi+1=f(Yi *),(2≤i≤L-2),通过对输入矩阵Yi+1做主成分分析(步骤S5.1至S5.6)即可确定第(i+1)层隐含层神经元的个数HNi
步骤11,重复步骤9和10,不断调整网络层数并训练深层网络,直到取得良好的实验效果,确定深层神经网络的结构为输入层、第一个隐含层、第二个隐含层...、第(L-2)个隐含层、输出层。
下面给出一个应用本发明设计MNIST手写字识别的深层神经网络结构的实例。
实例采用的数据集是MNIST手写字,是由Google实验室的CorinnaCortes和纽约大学柯朗研究所的YannLeCun所建,在深度学习中已有广泛的应用,被众多深度学习学者认可。其中训练数据集有60000张,测试训练集有10000张,原始手写字图片的维度为28*28,展开成一个行向量为784维。训练数据集和测试数据集的存储结构为60000*784和10000*784。
MNIST手写字共分为10类,分别是数字0、1、2、3、4、5、6、7、8、9。数据库详细信息如表1所示。
表1MNIST手写字详细信息
本实例选用的深层神经网络模型为自动编码器,对MNIST手写字进行识别。实验过程以及结果分析如下。
MNIST手写字通过主成分分析算法进行多次降维,上一层降维后的矩阵通过非线性函数作用产生的输出矩阵作为下一层主成分分析算法的输入矩阵,这里非线性函数选sigmoid函数,从而确定各隐含层神经元的个数,降维的具体过程如附图中图3所示。
实验结果如下表2所示。
表2MNIST手写字进行主成分分析以及非线性变换降维实验结果
根据不同次数的主成分算法设计不同结构的深层神经网络,对MNIST手写字进行识别。每次得到的降维后的数据维度依次作为每个隐含层神经元个数,网络的层与层之间进行全连接,层内神经元之间无连接。MNIST手写字输入到不同层数的深层神经网络中得到的实验结果如下表3所示。
表3深层神经网络中MNIST手写字识别结果
为了更形象的表示实验结果,对不同结构的神经网络的实验结果以折线图表示如下。
3次主成分分析设计深层神经网络的结构为784-388-352-325-10,识别错误率如图4-5所示(横轴代表迭代次数,纵轴代表识别错误的个数):
4次主成分分析设计深层神经网络的结构为784-388-352-325-302-10,识别错误率如图6-7所示(横轴代表迭代次数,纵轴代表识别错误的个数):
5次主成分分析设计深层神经网络的结构为784-388-352-325-302-282-10,识别错误率如图8-9所示(横轴代表迭代次数,纵轴代表识别错误的个数):
6次主成分分析设计深层神经网络的结构为784-388-352-325-302-282-264-10,识别错误率如图10-11所示(横轴代表迭代次数,纵轴代表识别错误的个数):
从以上实验结果中可以看出,由多层主成分分析后各层保留的数据维度构建深层神经网络,对于MNIST数据库的识别效果普遍优于其他的深层神经网络。从上图可以看出依据数据维度确定神经网络结构可以明显的提高网络的学习能力,并且需要非常少的迭代次数就能使网络训练结果收敛,相对于传统的自动编码器对MNIST手写字识别的训练速度大大提高,网络层数为6层,网络结构为784-388-352-325-302-10是识别正确率高达98.91%,充分证明了该方法的有效性以及优越性。由层级主成分分析设计深层神经网络结构避免了传统关于图片和语音的深层神经网络结构设计的随机性、盲目性和不稳定性,减少训练参数的同时降低了依据经验和大量实验构建深层神经网络带来的时间成本和资源成本。为应用在计算机视觉和语音识别领域的网络模型的构建提供了一定的理论依据,
以上实施例仅用以说明本发明,而并非限制本发明所描述的技术方案。因此,一切不脱离本发明的精神和范围的技术方案及其改进,均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.一种计算机智能识别的深层神经网络结构设计方法,主成分分析是一种能够极大提升无监督特征学习速度的数据降维算法;对于图像而言,由于相邻像素间的相关性,主成分分析算法可以将输入矩阵转换为一个维数低很多的近似矩阵,而且误差非常小;这就使得可以使用更少的数据表示同一个事物,降低数据维度;同时可以最大限度的保留原有数据的内部结构和分布;
深度学习的基本思想就是假设有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn=>O,如果输出O等于输入I,即输入I经过这个系统变化之后保持不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示;所以在深层神经网络中,通过调整系统中参数,使得它的输出O仍然是输入I,那么就可以自动地获取得到输入I的一系列层次特征,即S1,…,Sn;通过这种方式,就可以实现对输入信息进行分级表达了;
所以,对图片和语音数据多次进行主成分分析的思想和深度学习的思想在一定程度上是吻合的,每次对数据进行主成分分析后得到的新的矩阵和深层神经网络中每层神经元都是对输入数据的不同表示形式,两者有很大的相似性;本方法正是基于此原理提出了一种应用在计算机视觉和语音识别领域中深层神经网络的结构设计方法;
其特征在于:该方法包括以下步骤,
步骤1,人工选定计算机智能识别的深层神经网络初始层数L为4,即包括输入层、第一个隐含层、第二个隐含层和输出层,所述智能识别包括计算机视觉识别和语音识别;
步骤2,计算机视觉识别的图片或计算机语音识别的语音作为训练样本集,将训练样本集转化为矩阵的形式即Y0={Y01,Y02,...,Y0p},其中Y01,Y02,...,Y0p分别代表一个样本,共p个样本,p取正整数,每个样本维数为d;
步骤3,定义输入层神经元个数为训练样本的维数d;
步骤4,如果训练样本集是图片且取值范围在(0,255)之间,需要将训练样本进行归一化操作,否则直接进行下一步操作;如果训练样本集是语音,则直接进行下一步操作;
步骤5,训练样本集Y0为第一个隐含层的输入矩阵,通过对输入矩阵Y0做主成分分析确定第一个隐含层神经元的个数HN1,主成分分析算法的具体计算过程如下:
S5.1输入矩阵表示为Yi={Yi1,Yi2,...,Yip}(0≤i≤L-1),其中Yi代表不同隐含层的输入矩阵,Yi的维数为变量n;
S5.2输入矩阵去均值化:
Y i = Y i - Y ‾ , 其中 Y ‾ = 1 p Σ p = 1 p Y p , ( i = 1 , 2 , ... p ) ;
S5.3计算输入矩阵Yi的协方差矩阵:
S n × n = Σ Y i = 1 P Σ k = 1 P ( Y i k - Y ‾ ) ( Y i k - Y ‾ ) T , ( 1 ≤ k ≤ p ) , 其中Yi={Yi1,Yi2,...,Yip},Yik∈Yi,T为矩阵的转置操作;
S5.4计算Yi的协方差矩阵的特征根和特征向量:
求得特征根λi1i2,...,λin及相应的单位化特征向量ξi1i2,...,ξin
S5.5根据各个特征根(主成分)累计贡献率的大小选取前m个最大特征根,这里贡献率就是指某个特征根占全部特征根合计的比重,即
λij代表矩阵Yi的协方差矩阵求得的各个特征根,贡献率越大说明该主成分所包含的原始数据的信息越强,一般要求累计贡献率达到85%——100%以保证原始数据的绝大多数信息,选择的m个最大特征根对应的单位化特征向量ξi1i2,...,ξim生成投影矩阵:
Mi=(ξi1i2,...,ξim)T,Mi∈Rm×n,其中ξi1i2,...,ξim代表Yi的协方差矩阵的前m个最大特征向量;
S5.6对输入矩阵Yi进行投影得到降维后的矩阵矩阵的维数m即为第(i+1)层隐含层神经元的个数HNi+1=m:
Y i * = M i × Y i ;
步骤6,降维后的矩阵经过非线性变换函数f作用产生第一层隐含层的输出矩阵Y1,f为sigmoid函数或tanh函数或ReLu函数:
Y 1 = f ( Y 0 * ) ;
步骤7,第二个隐含层输入矩阵即为第一个隐含层的输出矩阵Y1,通过对输入矩阵Y1做主成分分析(步骤S5.1至S5.6)确定第二个隐含层神经元的个数HN2
步骤8,输出层神经元的个数为标记类的个数;
步骤9,利用图像或语音的训练数据对深层神经网络进行训练,对网络结构进行测评;
步骤10,如果测评结果不理想,调整深层神经网络的层数L=L+1,(4≤L≤1000),增加一层隐含层,第i层降维后的矩阵经过非线性变换函数f作用产生第(i+1)层隐含层的输入矩阵Yi+1,公式表达为通过对输入矩阵Yi+1做主成分分析(步骤S5.1至S5.6)即可确定第(i+1)层隐含层神经元的个数HNi
步骤11,重复步骤9和10,不断调整网络层数并训练深层网络,直到取得良好的实验效果,确定深层神经网络的结构为输入层、第一个隐含层、第二个隐含层...、第(L-2)个隐含层、输出层。
CN201610100209.4A 2016-02-23 2016-02-23 一种计算机智能识别的深层神经网络结构设计方法 Expired - Fee Related CN105787557B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610100209.4A CN105787557B (zh) 2016-02-23 2016-02-23 一种计算机智能识别的深层神经网络结构设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610100209.4A CN105787557B (zh) 2016-02-23 2016-02-23 一种计算机智能识别的深层神经网络结构设计方法

Publications (2)

Publication Number Publication Date
CN105787557A true CN105787557A (zh) 2016-07-20
CN105787557B CN105787557B (zh) 2019-04-19

Family

ID=56403232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610100209.4A Expired - Fee Related CN105787557B (zh) 2016-02-23 2016-02-23 一种计算机智能识别的深层神经网络结构设计方法

Country Status (1)

Country Link
CN (1) CN105787557B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766933A (zh) * 2017-10-24 2018-03-06 天津大学 一种解释卷积神经网络的可视化方法
CN108171329A (zh) * 2017-12-13 2018-06-15 华南师范大学 深度学习神经网络训练方法、层数调整装置和机器人系统
CN108256633A (zh) * 2018-02-06 2018-07-06 苏州体素信息科技有限公司 一种测试深度神经网络稳定性的方法
CN108508852A (zh) * 2017-02-27 2018-09-07 株式会社东芝 隔离管理系统与隔离管理方法
CN108596836A (zh) * 2018-05-09 2018-09-28 大国创新智能科技(东莞)有限公司 基于顶层生成深度学习的数据转换方法、系统、介质和设备
CN108985456A (zh) * 2018-07-25 2018-12-11 大国创新智能科技(东莞)有限公司 层数增减深度学习神经网络训练方法、系统、介质和设备
WO2019024772A1 (zh) * 2017-08-01 2019-02-07 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置及电子设备
CN109344873A (zh) * 2018-08-31 2019-02-15 北京智芯原动科技有限公司 一种深度神经网络的训练样本挖掘方法及装置
CN109726806A (zh) * 2017-10-30 2019-05-07 上海寒武纪信息科技有限公司 信息处理方法及终端设备
CN109736790A (zh) * 2018-12-28 2019-05-10 新疆工程学院 基于深度信念网络的测井岩性识别方法
CN109977258A (zh) * 2019-02-21 2019-07-05 中国科学院西安光学精密机械研究所 图像和语音的跨模态检索分类器模型、检索系统和检索方法
CN110232341A (zh) * 2019-05-30 2019-09-13 重庆邮电大学 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法
CN110569960A (zh) * 2018-06-06 2019-12-13 耐能有限公司 用于重组深层神经网络的自我微调模型压缩方法及装置
CN111060221A (zh) * 2019-12-31 2020-04-24 云领电气智能科技(苏州)有限公司 基于循环神经网络的变压器过热故障预警方法
CN111611893A (zh) * 2020-05-14 2020-09-01 青岛翰林汇力科技有限公司 应用神经网络深度学习的智能测判方法
CN113127663A (zh) * 2021-04-01 2021-07-16 深圳力维智联技术有限公司 目标图像搜索方法、装置、设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778704A (zh) * 2014-02-11 2014-05-07 上海理工大学 一种城市轨道交通闸机事件智能识别方法
CN104008395A (zh) * 2014-05-20 2014-08-27 中国科学技术大学 一种基于人脸检索的不良视频智能检测方法
CN104573688A (zh) * 2015-01-19 2015-04-29 电子科技大学 基于深度学习的移动平台烟草激光码智能识别方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778704A (zh) * 2014-02-11 2014-05-07 上海理工大学 一种城市轨道交通闸机事件智能识别方法
CN104008395A (zh) * 2014-05-20 2014-08-27 中国科学技术大学 一种基于人脸检索的不良视频智能检测方法
CN104573688A (zh) * 2015-01-19 2015-04-29 电子科技大学 基于深度学习的移动平台烟草激光码智能识别方法及装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108508852A (zh) * 2017-02-27 2018-09-07 株式会社东芝 隔离管理系统与隔离管理方法
WO2019024772A1 (zh) * 2017-08-01 2019-02-07 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置及电子设备
US11257007B2 (en) 2017-08-01 2022-02-22 Advanced New Technologies Co., Ltd. Method and apparatus for encrypting data, method and apparatus for training machine learning model, and electronic device
TWI689841B (zh) * 2017-08-01 2020-04-01 香港商阿里巴巴集團服務有限公司 資料加密、機器學習模型訓練方法、裝置及電子設備
CN107766933A (zh) * 2017-10-24 2018-03-06 天津大学 一种解释卷积神经网络的可视化方法
CN107766933B (zh) * 2017-10-24 2021-04-23 天津大学 一种解释卷积神经网络的可视化方法
CN109726806A (zh) * 2017-10-30 2019-05-07 上海寒武纪信息科技有限公司 信息处理方法及终端设备
CN108171329A (zh) * 2017-12-13 2018-06-15 华南师范大学 深度学习神经网络训练方法、层数调整装置和机器人系统
CN108256633A (zh) * 2018-02-06 2018-07-06 苏州体素信息科技有限公司 一种测试深度神经网络稳定性的方法
CN108256633B (zh) * 2018-02-06 2021-05-25 苏州体素信息科技有限公司 一种测试深度神经网络稳定性的方法
CN108596836A (zh) * 2018-05-09 2018-09-28 大国创新智能科技(东莞)有限公司 基于顶层生成深度学习的数据转换方法、系统、介质和设备
CN108596836B (zh) * 2018-05-09 2022-06-28 大国创新智能科技(东莞)有限公司 基于顶层生成深度学习的数据转换方法、系统、介质和设备
CN110569960A (zh) * 2018-06-06 2019-12-13 耐能有限公司 用于重组深层神经网络的自我微调模型压缩方法及装置
CN108985456A (zh) * 2018-07-25 2018-12-11 大国创新智能科技(东莞)有限公司 层数增减深度学习神经网络训练方法、系统、介质和设备
CN109344873B (zh) * 2018-08-31 2021-07-09 北京智芯原动科技有限公司 一种深度神经网络的训练样本挖掘方法及装置
CN109344873A (zh) * 2018-08-31 2019-02-15 北京智芯原动科技有限公司 一种深度神经网络的训练样本挖掘方法及装置
CN109736790B (zh) * 2018-12-28 2022-05-24 新疆工程学院 基于深度信念网络的测井岩性识别方法
CN109736790A (zh) * 2018-12-28 2019-05-10 新疆工程学院 基于深度信念网络的测井岩性识别方法
CN109977258A (zh) * 2019-02-21 2019-07-05 中国科学院西安光学精密机械研究所 图像和语音的跨模态检索分类器模型、检索系统和检索方法
CN110232341A (zh) * 2019-05-30 2019-09-13 重庆邮电大学 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法
CN110232341B (zh) * 2019-05-30 2022-05-03 重庆邮电大学 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法
CN111060221A (zh) * 2019-12-31 2020-04-24 云领电气智能科技(苏州)有限公司 基于循环神经网络的变压器过热故障预警方法
CN111611893A (zh) * 2020-05-14 2020-09-01 青岛翰林汇力科技有限公司 应用神经网络深度学习的智能测判方法
CN111611893B (zh) * 2020-05-14 2024-03-19 龙立强人工智能科技(苏州)有限公司 应用神经网络深度学习的智能测判方法
CN113127663A (zh) * 2021-04-01 2021-07-16 深圳力维智联技术有限公司 目标图像搜索方法、装置、设备及计算机可读存储介质
CN113127663B (zh) * 2021-04-01 2024-02-27 深圳力维智联技术有限公司 目标图像搜索方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN105787557B (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
CN105787557A (zh) 一种计算机智能识别的深层神经网络结构设计方法
Young et al. Optimizing deep learning hyper-parameters through an evolutionary algorithm
Li et al. A deep adversarial learning methodology for designing microstructural material systems
CN107273490B (zh) 一种基于知识图谱的组合错题推荐方法
CN109992779B (zh) 一种基于cnn的情感分析方法、装置、设备及存储介质
CN109783666B (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN112015868B (zh) 基于知识图谱补全的问答方法
CN113486190B (zh) 一种融合实体图像信息和实体类别信息的多模态知识表示方法
CN110032651A (zh) 一种基于知识图谱的个性化学习特征模型的建构方法
CN105160400A (zh) 基于l21范数的提升卷积神经网络泛化能力的方法
CN107132516A (zh) 一种基于深度置信网络的雷达一维距离像目标识别方法
CN103942749B (zh) 一种基于修正聚类假设和半监督极速学习机的高光谱地物分类方法
CN110516095A (zh) 基于语义迁移的弱监督深度哈希社交图像检索方法和系统
Feng et al. One-dimensional VGGNet for high-dimensional data
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN113591988B (zh) 知识认知结构分析方法、系统、计算机设备、介质、终端
CN106127330A (zh) 基于最小二乘支持向量机的脉动风速预测方法
CN110889450A (zh) 超参数调优、模型构建方法和装置
CN106959946A (zh) 一种基于深度学习的文本语义特征生成优化方法
CN117688974B (zh) 基于知识图谱的生成式大模型建模方法、系统及设备
CN111091916A (zh) 人工智能中基于改进粒子群算法的数据分析处理方法及系统
CN107862329A (zh) 一种基于深度置信网络的雷达一维距离像真假目标识别方法
CN112527993A (zh) 一种跨媒体层次化深度视频问答推理框架
CN116796810A (zh) 一种基于知识蒸馏的深度神经网络模型压缩方法及装置
CN113553918B (zh) 一种基于脉冲主动学习的机打发票字符识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190419

CF01 Termination of patent right due to non-payment of annual fee