CN103559538A - Bp神经网络结构优化方法 - Google Patents
Bp神经网络结构优化方法 Download PDFInfo
- Publication number
- CN103559538A CN103559538A CN201310560346.2A CN201310560346A CN103559538A CN 103559538 A CN103559538 A CN 103559538A CN 201310560346 A CN201310560346 A CN 201310560346A CN 103559538 A CN103559538 A CN 103559538A
- Authority
- CN
- China
- Prior art keywords
- square error
- mse
- hid
- hidden layer
- unit number
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Feedback Control In General (AREA)
Abstract
本发明提供了一种BP神经网络结构优化方法,包括如下步骤:(a)首先确定输入层神经元数目(Nin)和输出神经元数(Nout);(b)利用所述输入层神经元数目和所述输出神经元数确定所述神经网络的隐含层单元数(Nhid)的取值范围;及(c)获得所述取值范围中各值的最小均方误差(Mse),并以所述最小均方误差所对应的所述隐含层单元数(Nhid)为最佳隐含层单元数(Nhid)。本发明通过采取的在确定范围内比较均方误差来寻找最佳隐含层单元数,解决了设计三层BP神经网络结构的盲目性,避免了大量的无范围地试凑,不仅简化了繁琐的试凑过程和节省大量的训练时间,而且更具有科学性和实用性。
Description
技术领域
本发明涉及智能计算领域,尤其涉及对三层BP人工神经网络隐含层单元数确定方法的优化设计。
背景技术
随着科学技术的飞速发展,人工神经网络也迅速发展,它是智能领域中的一个重要组成部分,BP神经网络是人工智能网络中的一个典型算法,是目前研究最为成熟的神经网络结构之一,因其具有超强的自学习、自组织、自适应、联想记忆及容错能力,在信号处理、模式识别、机器控制、专家系统等、故障诊断、预测等领域中有广泛地应用。而且它本身具有很强的非线性映射能力,解决一些非线性问题更是它最突出的特点,有一个隐含层的BP网络可以逼近任何一个闭区间内的连续函数。因此三层BP神经网络是应用最为广泛的神经网络模型。
然而,BP神经网络在应用时仍存在一个难以突破的问题:难以快速精确地确定最优的隐含层单元数。目前BP神经网络单隐含层单元数确定方法主要有经验公式法和试凑法,但通过经验公式法确定的隐含层单元数并不一定是最佳的单元数,而通过试凑法确定没有一定的范围,导致训练过程繁琐又费时。
发明内容
为了解决三层BP神经网络隐含层单元数确定方法没有确定的理论依据,导致盲目设计BP神经网络结构,耗费大量的时间和精力确定隐含层单元数的问题。为此,本发明旨在提供一种能够快速且精确确定最佳隐含层单元数的优化方法。
由此,本发明提供了一种BP神经网络结构优化方法,包括如下步骤:(a)首先确定输入层神经元数目(Nin)和输出神经元数(Nout);(b)利用所述输入层神经元数目和所述输出神经元数确定所述神经网络的隐含层单元数(Nhid)的取值范围;及(c)获得所述取值范围中各值的最小均方误差(Mse),并以所述最小均方误差所对应的所述隐含层单元数(Nhid)为最佳隐含层单元数(Nhid)。
一些实施例中,以经验公式为基础确定的隐含层单元数的取值范围n1≤Nhid≤n2,n1为隐含层单元数最小取值,n2为隐含层单元数最大取值。
一些实施例中,所述经验公式为Nhid=log2Nin,Nhid≤p/[R+(Nin+Nout)],和Nhid≤2Nin+1,其中p是训练样本集的总体数目,5≤R≤10。
一些实施例中,首先确定一个三层BP神经网络模型,然后通过训练所构建的网络模型得到所述网络模型的所述均方误差(Mse)。
一些实施例中,所述步骤(c)包括如下步骤:(c1)根据所述取值范围中的最小取值(n1)确定所述隐含层单元数为,以确定一个三层BP神经网络模型,并且通过训练所构建的网络模型得到相应的第一均方误差(Mse1);(c2)令所述隐含层单元数为Nhid=n1+1,按照步骤(c2)得到相应的第二均方误差(Mse2);及(c3)比较第一均方误差(Mse1)和所述第二均方误差(Mse2)的大小,若第一均方误差(Mse1)小于所述第二均方误差(Mse2),则令所述隐含层单元数(Nhid)为与所述第一均方误差(Mse1)对应的所述最小值(n1),若所述第二均方误差(Mse2)小于所述第一均方误差(Mse1),则令所述隐含层单元数(Nhid)为与所述第二均方误差(Mse2)对应的所述最小值(n1+1)。
一些实施例中,所述步骤(c3)中,若所述第二均方误差(Mse2)小于所述第一均方误差(Mse1),则将所述第二均方误差(Mse2)赋值给所述第一均方误差(Mse1)后保存所述第一均方误差(Mse1)的值,再令所述隐含层单元数(Nhid)为与所述第一均方误差(Mse1)对应的所述最小值(n1)。
一些实施例中,还包括步骤(c4),比较所述隐含层单元数Nhid和所述隐含单元数最大取值(n2)的大小,如果Nhid<n2则返回步骤(c2),并依次循环直到满足条件Nhid≥n2,退出循环。
本发明通过采取的在确定范围内比较均方误差来寻找最佳隐含层单元数,解决了设计三层BP神经网络结构的盲目性,避免了大量的无范围地试凑,不仅简化了繁琐的试凑过程和节省大量的训练时间,而且更具有科学性和实用性。
结合附图,根据下文的通过示例说明本发明主旨的描述可清楚本发明的其它方面和优点。
附图说明
结合附图,通过下文详细说明,可更清楚地理解本发明的上述及其他特征和优点,其中:
图1为根据本发明实施例的BP神经网络结构优化方法所应用的三层BP神经网络结构示意图;及
图2为根据本发明实施例的BP神经网络结构优化方法的流程图。
具体实施方式
参见本发明实施例的附图,下文将更详细地描述本发明。然而,本发明可以以许多不同形式实现,并且不应解释为受在此提出之实施例的限制。相反,提出这些实施例是为了达成充分及完整公开,并且使本技术领域的技术人员完全了解本发明的范围。这些附图中,为清楚起见,可能对层及区域的尺寸及相对尺寸进行了放大或变形。
应理解,本发明的描述/图示为单个单元的部分可存在于两个或两个以上的物理上独立但合作实现所描述/图示之功能的实体。此外,描述/图示为两个或两个以上物理上独立的部分可集成入一个单独的物理上实体以进行所描述/图示的功能。
现参考附图详细说明根据本发明实施例的BP神经网络结构优化方法。
请参阅图1,图1所示为三层BP神经网络结构示意图。三层BP神经网络由输入层、隐含层和输出层组成,各层神经元单元数都可根据不同应用情况设定。在输入层和输出层神经元数确定的条件下,参照图2BP神经网络隐含层单元数确定优化方法流程图来确定隐含层单元数的数量。
本发明以BP神经网络训练后得到的均方误差Mse作为选取最佳隐含层单元数的性能评价参数,其中Nout对应的是输出端神经元数,p是训练样本集的总体数目,ypj是网络的期望输出,ypj是网络输出端实际输出值。在以经验公式Nhid=log2Nin、Nhid≤p/[R+(Nin+Nout)]、Nhid≤2Nin+1为基础确定的隐含层单元数的取值范围n1≤Nhid≤n2,其中p是训练样本集的总体数目,5≤R≤10,n1为隐含层单元数最小取值,n2为隐含层单元数最大取值。在确定的范围内计算和比较不同隐含层单元数构成的BP神经网络的均方误差,最后得到最小值均方误差所对应的隐含层单元数。
根据本发明实施例的BP神经网络结构优化方法,包括步骤(a)首先确定根据实际工程的需求首先确定输入层神经元数目Nin和输出神经元数Nout。在国内外学者提出的经验公式的基础上确定三层BP神经网络隐含层单元数Nhid的取值范围。以Nhid所取范围的最小值作为隐含层单元数的初始,通过训练网络得到其均方误差Mse,按照所取范围计算第二个隐含层单元数所构成网络的均方误差,比较两个所得均方误差的大小,保存小的均方误差Mse和其对应的隐含层单元数Nhid。依据顺序在Nhid取值范围内依次比较各个不同隐含层单元数训练后得到的均方误差Mse,最后通过比较得到的最小均方误差所对应的隐含层单元数便是最佳的隐含层单元数Nhid。
输入层神经元数目Nin和输出神经元数Nout。本实施例中,根据实际工程的需求首先确定输入层神经元数目Nin和输出神经元数Nout,此为业界常见的确定方法,在此不赘述。
根据本发明实施例的BP神经网络结构优化方法,包括步骤(b)利用所述输入层神经元数目和所述输出神经元数确定所述神经网络的隐含层单元数Nhid取值范围。
本实施例中,以经验公式为基础确定的隐含层单元数的取值范围n1≤Nhid≤n2,n1为隐含层单元数最小取值,n2为隐含层单元数最大取值。
具体地,所述经验公式为Nhid=log2Nin,Nhid≤p/[R+(Nin+Nout)],和Nhid≤2Nin+1,其中p是训练样本集的总体数目,5≤R≤10。
根据本发明实施例的BP神经网络结构优化方法,还包括步骤(c)获得所述取值范围中各值的最小均方误差Mse,并以所述最小均方误差所对应的所述隐含层单元数Nhid为最佳隐含层单元数Nhid。
本实施例中,首先确定一个三层BP神经网络模型,然后通过训练所构建的网络模型得到所述网络模型的所述均方误差Mse。
具体地,最小均方误差Mse确定方法如下。
首先根据所述取值范围中的最小取值n1确定所述隐含层单元数为,以确定一个三层BP神经网络模型,并且通过训练所构建的网络模型得到相应的第一均方误差Mse1。此后,令所述隐含层单元数为Nhid=n1+1,按照前述步骤得到相应的第二均方误差Mse2。再者,比较第一均方误差Mse1和所述第二均方误差Mse2的大小,若第一均方误差Mse1小于所述第二均方误差Mse2,则令所述隐含层单元数Nhid为与所述第一均方误差Mse1对应的所述最小值n1,若所述第二均方误差Mse2小于所述第一均方误差Mse1,则令所述隐含层单元数Nhid为与所述第二均方误差Mse2对应的所述最小值n1+1。最后,比较所述隐含层单元数Nhid和所述隐含单元数最大取值n2的大小,如果Nhid<n2则返回步骤前述,并依次循环直到满足条件Nhid≥n2,退出循环。
较佳实施例中,若所述第二均方误差Mse2小于所述第一均方误差Mse1,则也可将所述第二均方误差Mse2赋值给所述第一均方误差Mse1后保存所述第一均方误差Mse1的值,再令所述隐含层单元数Nhid为与所述第一均方误差Mse1对应的所述最小值n1。
现参考图2详细描述根据本发明实施例的优化方法流程图。
在输入层和输出层神经元数确定的条件下,参照图2BP神经网络隐含层单元数确定优化方法流程图来确定隐含层单元数的数量。根据图2流程图可以分为以下几个步骤:
步骤1,根据工程实例确定输入层神经元数目Nin和输出神经元数Nout。
步骤2,在以经验公式Nhid=log2Nin、Nhid≤p/[R+(Nin+Nout)]、Nhid≤2Nin+1为基础确定的隐含层单元数的取值范围n1≤Nhid≤n2,其中p是训练样本集的总体数目,5≤R≤10,n1为隐含层单元数最小取值,n2为隐含层单元数最大取值。
步骤3,取隐含层单元数为n1,确定一个三层BP神经网络模型。通过训练所构建的网络模型得到其均方误差Mse1。
步骤4,令隐含层单元数Nhid=n1+1,按照步骤2的方法计算得到均方误差Mse2。
步骤5,比较Mse1和Mse2的大小,如果Mse1<Mse2,则保存Mse1的值。如果Mse1>Mse2,则将Mse2赋值给Mse1后保存Mse1的值。然后令n1=Nhid。
步骤6,比较隐含层单元数Nhid和隐含单元数最大取值n2的大小,如果Nhid<n2则返回步骤4,并依次循环直到满足条件Nhid≥n2,退出循环。
通过图2的流程图,最后得到的Nhid值就是最佳的隐含层单元数。该发明在实际工程中用来确定未知三层BP神经网络隐含层单元数有很好的实用性。
本发明通过采取的在确定范围内比较均方误差来寻找最佳隐含层单元数,解决了设计三层BP神经网络结构的盲目性,避免了大量的无范围地试凑,不仅简化了繁琐的试凑过程和节省大量的训练时间,而且更具有科学性和实用性。
因本技术领域的技术人员应理解,本发明可以以许多其他具体形式实现而不脱离本发明的精神或范围。尽管业已描述了本发明的实施例,应理解本发明不应限制为这些实施例,本技术领域的技术人员可如所附权利要求书界定的本发明精神和范围之内作出变化和修改。
Claims (7)
1.一种BP神经网络结构优化方法,其特征在于,包括如下步骤:
(a)首先确定输入层神经元数目(Nin)和输出神经元数(Nout);
(b)利用所述输入层神经元数目和所述输出神经元数确定所述神经网络的隐含层单元数(Nhid)的取值范围;及
(c)获得所述取值范围中各值的最小均方误差(Mse),并以所述最小均方误差所对应的所述隐含层单元数(Nhid)为最佳隐含层单元数(Nhid)。
2.根据权利1所述的优化方法,其特征在于,以经验公式为基础确定的隐含层单元数的取值范围n1≤Nhid≤n2,n1为隐含层单元数最小取值,n2为隐含层单元数最大取值。
3.根据权利2所述的优化方法,其特征在于,所述经验公式为Nhid=log2Nin,Nhid≤p/[R+(Nin+Nout)],和Nhid≤2Nin+1,其中p是训练样本集的总体数目,5≤R≤10。
4.根据权利3述的优化方法,其特征在于,首先确定一个三层BP神经网络模型,然后通过训练所构建的网络模型得到所述网络模型的所述均方误差(Mse)。
5.根据权利3述的优化方法,其特征在于,所述步骤(c)包括如下步骤:
(c1)根据所述取值范围中的最小取值(n1)确定所述隐含层单元数为,以确定一个三层BP神经网络模型,并且通过训练所构建的网络模型得到相应的第一均方误差(Mse1);
(c2)令所述隐含层单元数为Nhid=n1+1,按照步骤(c2)得到相应的第二均方误差(Mse2);及
(c3)比较第一均方误差(Mse1)和所述第二均方误差(Mse2)的大小,若第一均方误差(Mse1)小于所述第二均方误差(Mse2),则令所述隐含层单元数(Nhid)为与所述第一均方误差(Mse1)对应的所述最小值(n1),若所述第二均方误差(Mse2)小于所述第一均方误差(Mse1),则令所述隐含层单元数(Nhid)为与所述第二均方误差(Mse2)对应的所述最小值(n1+1)。
6.根据权利5述的优化方法,其特征在于,所述步骤(c3)中,若所述第二均方误差(Mse2)小于所述第一均方误差(Mse1),则将所述第二均方误差(Mse2)赋值给所述第一均方误差(Mse1)后保存所述第一均方误差(Mse1)的值,再令所述隐含层单元数(Nhid)为与所述第一均方误差(Mse1)对应的所述最小值(n1)。
7.根据权利5述的优化方法,其特征在于,还包括步骤(c4),
比较所述隐含层单元数Nhid和所述隐含单元数最大取值(n2)的大小,如果Nhid<n2则返回步骤(c2),并依次循环直到满足条件Nhid≥n2,退出循环。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310560346.2A CN103559538A (zh) | 2013-11-12 | 2013-11-12 | Bp神经网络结构优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310560346.2A CN103559538A (zh) | 2013-11-12 | 2013-11-12 | Bp神经网络结构优化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103559538A true CN103559538A (zh) | 2014-02-05 |
Family
ID=50013779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310560346.2A Pending CN103559538A (zh) | 2013-11-12 | 2013-11-12 | Bp神经网络结构优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103559538A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318304A (zh) * | 2014-10-20 | 2015-01-28 | 上海电机学院 | 一种用于模式识别的基于样本学习的bp网络结构设计方法 |
CN105677496A (zh) * | 2016-01-12 | 2016-06-15 | 电子科技大学 | 基于两层神经网络的测试性指标分配方法 |
CN107077637A (zh) * | 2014-03-24 | 2017-08-18 | 高通股份有限公司 | 神经网络中的差分编码 |
CN107292387A (zh) * | 2017-05-31 | 2017-10-24 | 汪薇 | 一种基于bp识别蜂蜜质量的方法 |
CN107480787A (zh) * | 2017-08-10 | 2017-12-15 | 西安建筑科技大学 | 一种基于bp神经网络的露天矿旋回式破碎机故障诊断方法 |
-
2013
- 2013-11-12 CN CN201310560346.2A patent/CN103559538A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107077637A (zh) * | 2014-03-24 | 2017-08-18 | 高通股份有限公司 | 神经网络中的差分编码 |
CN104318304A (zh) * | 2014-10-20 | 2015-01-28 | 上海电机学院 | 一种用于模式识别的基于样本学习的bp网络结构设计方法 |
CN105677496A (zh) * | 2016-01-12 | 2016-06-15 | 电子科技大学 | 基于两层神经网络的测试性指标分配方法 |
CN105677496B (zh) * | 2016-01-12 | 2018-07-10 | 电子科技大学 | 基于两层神经网络的测试性指标分配方法 |
CN107292387A (zh) * | 2017-05-31 | 2017-10-24 | 汪薇 | 一种基于bp识别蜂蜜质量的方法 |
CN107480787A (zh) * | 2017-08-10 | 2017-12-15 | 西安建筑科技大学 | 一种基于bp神经网络的露天矿旋回式破碎机故障诊断方法 |
CN107480787B (zh) * | 2017-08-10 | 2020-12-11 | 西安建筑科技大学 | 一种基于bp神经网络的露天矿旋回式破碎机故障诊断方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107688825B (zh) | 一种改进型的集成加权极限学习机污水处理故障诊断方法 | |
CN103559538A (zh) | Bp神经网络结构优化方法 | |
CN113053115A (zh) | 一种基于多尺度图卷积网络模型的交通预测方法 | |
CN109784480A (zh) | 一种基于卷积神经网络的电力系统状态估计方法 | |
CN111832809B (zh) | 基于Holt-Winters和极限学习机的建筑用能负荷预测方法及系统 | |
CN107121926A (zh) | 一种基于深度学习的工业机器人可靠性建模方法 | |
CN109063939A (zh) | 一种基于邻域门长短期记忆网络的风速预测方法及系统 | |
CN106295794A (zh) | 基于光滑Group Lasso惩罚项的分数阶的神经网络建模方法 | |
CN112734002B (zh) | 一种基于数据层和模型层联合迁移学习的寿命预测方法 | |
CN111242380A (zh) | 一种基于人工智能算法的湖(库)富营养化预测方法 | |
CN108984830A (zh) | 一种基于模糊网络分析的建筑能效评价方法及装置 | |
Wang et al. | Short-term load forecasting of power system based on time convolutional network | |
CN111181164B (zh) | 一种改进的主从分裂输配协同潮流计算方法及系统 | |
CN116318754A (zh) | 针对分布式电源的多终端协同动态安全分析方法和系统 | |
CN112508279A (zh) | 基于空间相关性的区域分布式光伏预测方法及系统 | |
CN116484495A (zh) | 一种基于试验设计的气动数据融合建模方法 | |
CN113691993B (zh) | 基于图神经网络的5g连通簇基站群流量预测方法及系统 | |
CN105024645A (zh) | 一种基于矩阵进化的光伏阵列故障定位方法 | |
CN117668743A (zh) | 一种关联时空关系的时序数据预测方法 | |
CN109800517A (zh) | 一种改进的磁流变阻尼器逆向建模方法 | |
CN111091141B (zh) | 一种基于分层Softmax的光伏背板故障诊断方法 | |
CN117458453A (zh) | 电力系统暂态稳定性的预测方法、系统、设备及存储介质 | |
Zhang et al. | Multi channel spectrum prediction algorithm based on GCN and LSTM | |
CN116094758A (zh) | 一种大规模网络流量采集方法及系统 | |
CN114118592B (zh) | 一种智能电网用电端短期能耗预测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140205 |
|
RJ01 | Rejection of invention patent application after publication |