CN107367319A - 电容称重传感器非线性补偿的小波神经网络方法 - Google Patents

电容称重传感器非线性补偿的小波神经网络方法 Download PDF

Info

Publication number
CN107367319A
CN107367319A CN201710111344.3A CN201710111344A CN107367319A CN 107367319 A CN107367319 A CN 107367319A CN 201710111344 A CN201710111344 A CN 201710111344A CN 107367319 A CN107367319 A CN 107367319A
Authority
CN
China
Prior art keywords
mrow
msub
mfrac
wavelet
munderover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710111344.3A
Other languages
English (en)
Inventor
俞阿龙
戴金桥
孙红兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaiyin Normal University
Original Assignee
Huaiyin Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Normal University filed Critical Huaiyin Normal University
Priority to CN201710111344.3A priority Critical patent/CN107367319A/zh
Publication of CN107367319A publication Critical patent/CN107367319A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G23/00Auxiliary devices for weighing apparatus
    • G01G23/01Testing or calibrating of weighing apparatus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G3/00Weighing apparatus characterised by the use of elastically-deformable members, e.g. spring balances
    • G01G3/12Weighing apparatus characterised by the use of elastically-deformable members, e.g. spring balances wherein the weighing element is in the form of a solid body stressed by pressure or tension during weighing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明公开了一种电容称重传感器非线性补偿的小波神经网络方法,包括以下步骤:步骤一:电容称重传感器非线性补偿原理,电容称重传感器非线性补偿原理主要基于图1所示的基本环节,设传感器的输入载荷的重量为G,输出电压为u,u=f(G)为非线性关系,若在传感器后串联一个补偿环节,使y=f1(u)=kG。该电容称重传感器非线性补偿的小波神经网络方法,通过小波神经网络训练来确定传感器非线性补偿网络。介绍电容称重传感器非线性补偿原理,分析网络的拓扑结构,给出网络参数训练和初始化方法。结果表明,采用小波神经网络进行电容称重传感器非线性补偿具有好的鲁棒性,网络训练速度快、精度高,并能在线补偿,在测试领域有实用价值。

Description

电容称重传感器非线性补偿的小波神经网络方法
技术领域
本发明涉及传感器技术领域,具体为一种电容称重传感器非线性补偿的小波神经网络方法。
背景技术
在现代电子秤称重系统中,采用称重传感器得到重量信号,再将该重量信号送到调理电路中进行调理和显示,得到称重结果。目前,电阻应变式称重传感器在电子衡器中广泛采用,但是受应变极限的限制,电阻式传感器的金属应变丝电阻的相对变化一般低于1%,且应变丝的阻值受温度的影响很大。与之相比,电容式传感器电容值的相对变化量可大于100%,因此测量范围大得多;电容传感器一般用金属作电极,以无机材料作绝缘支承,因此能承受很大的温度变化。另外电容式传感器还具有灵敏度高、动态响应时间短、机械损失小等优点。但在利用电容称重传感器进行称重测量时,传感器输出电压值与载荷重量之间的关系是非线性的。为了保证一定的测量精度及便于在测控系统中应用,必须对其进行非线性补偿。目前常用补偿方法有硬件补偿法和软件法,但由于电容称重传感器严重的非线性,用硬件电路补偿时,电路复杂,补偿精度也不高。在微机化的智能仪器和控制系统中,常用软件代替硬件进行非线性补偿,并已得到了广泛的应用。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种电容称重传感器非线性补偿的小波神经网络方法,解决了电容称重传感器的非线性的问题。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:一种电容称重传感器非线性补偿的小波神经网络方法,包括以下步骤:
步骤一:电容称重传感器非线性补偿原理
电容称重传感器非线性补偿原理主要基于图1所示的基本环节,设传感器的输入载荷的重量为G,输出电压为u,u=f(G)为非线性关系,若在传感器后串联一个补偿环节,使y=f1(u)=kG,那么就实现了传感器的非线性补偿,当k=1时,y=G=f1(u)称为传感器的逆模型。
步骤二:小波神经网络
小波神经网络的结构是以小波分析作为理论依据的,设Ψ(t)为一平方可积函数,Ψ(t)∈L2(R),若其傅立叶变换满足“容许性条件”,即:
则称为Ψ(t)一基本小波或母小波,其特点是,它们都是在时域具有紧支撑,在频域具有正则性的实数或复数函数,即它们在时域和频域都有较好的局部特性,将母小波进行尺度为a的伸缩和因子为b的平移,可得小波基函数:
式(2)中,a,b∈R,a≠0,分别为尺度因子和平移因子。
小波神经网络的结果与RBF网络一样类似均为单隐层前向神经网络,它的隐层激励函数为小波函数,其结构示意图如图2所示,xi(i=0,1,2,…,m)为输入层第i个结点的输入,y为输出层结点的输出,vj为第j个隐层结点的输入,oj为第j个隐层结点的输出,w1ji为连接输入层结点i和隐层结点j(j=0,1,…,n)的权值,w2j为连接隐层结点j和输出层结点的权值,其中w1j0是第j个隐层结点的阈值(相应的x0=-1),w20是输出层结点阈值相应的o0=-1),aj和bj分别为第j个隐层结点的尺度因子和平移因子,则小波神经网络的数学模型为:
步骤三:小波神经网络参数的训练
设P为输入样本的模式个数,为第p个输入模式(p=1,2,…,P),yp为第p个模式的网络实际输出,dp为第p个模式的期望输出,那么误差函数如下:
小波神经网络的参数训练方法采用引入动量因子μ的最速下降算法,则参数的训练公式如下:
式(5)~(8)中,η为学习率。
步骤四:网络参数的初始化
小波神经网络参数的初始化是一个重要问题,它对于网络的后续学习是否收敛以及收敛的快慢都非常重要,初始权值一般的方法是用随机数产生的,用这种办法要来获得优良的初始权值是没有保障的,要想改变这种状况,得到高几率的优良的初始权值,可将初始化权值和学习样本、神经元传递函数等发生联系,下面以Mexicanhat小波神经网络为例,来说明小波网络的参数初始化过程,Mexicanhat小波基函数的表达式为:
网络初始参数的具体步骤如下:
设三层小波神经网络的隐层节点数为n,输入层节点数为m,w1ji为连接输入层结点i和隐层结点j(j=1,…,n)的权值,w1j0是隐层第j个神经元的阈值,首先进行w1ji的初始设置,步骤如下:
(1)首先随机产生[-1,1]区间上均匀分布的随机数作为w1ji初始值,用w1ji0表示;
(2)然后对w1ji0按行进行归一化:
(3)接着再乘以一个与输人层数节点m,隐层节点数n以及传递函数相关的因子:
w1ji2=C·n1/m·w1ji1,j=1,2,…,n (11)
式(11)中,C是和隐层传递函数相关的常数,对于Mexicanhat小波神经网络C可取2。
(4)最后再与学习样本发生联系,设输人层第i个神经元的输入样本中最大值为ximax,最小值为ximin,则
按照以上步骤得到的w1ji为输入层和隐层连接的初始权值,得到w1ji之后,再进行隐层神经元阈值w1j0的初始设置,其过程如下:
(1)首先随机产生[-1,1]区间上均匀分布的随机数作为w1j0的初始值,用w1j00表示;
(2)然后再乘以一个与输人层数节点m、隐层节点数n以及传递函数相关的因子:
w1j01=C·n1/m·w1j00 (13)
式(13)中,C和式(11)中的C值是一样的。
(3)最后再与学习样本以及w1ji相联系:
在设置了初始权值之后,对小波的伸缩平移参数进行初始设置也是非常重要的,由小波理论知道,若母小波的时域中心为θ,半径为β,则小波伸缩系在时域的集中区域为:
[b+aθ-aβ,b+aθ+aβ]
为了使小波伸缩系覆盖输人向量的整个范围,则伸缩平移参数的初始设置必须满足下式:
由上式可以得到:
式(16)中,母小波的时域中心和半径,可以根据小波时频参数的定义,计算得到Mexicanhat小波的时域中心和半径分别为0和1.0801。
对于隐层到输出层的初始参数设置,一般输出层采用线性神经元,则用[-1,1]区间上均匀分布的随机数作为初始权值和阈值即可。
(三)有益效果
本发明提供了一种电容称重传感器非线性补偿的小波神经网络方法,具备以下有益效果:
该电容称重传感器非线性补偿的小波神经网络方法,以电容称重传感器实验数据为基础,通过小波神经网络训练来确定传感器非线性补偿网络。介绍电容称重传感器非线性补偿原理,分析网络的拓扑结构,给出网络参数训练和初始化方法。结果表明,采用小波神经网络进行电容称重传感器非线性补偿具有好的鲁棒性,网络训练速度快、精度高,并能在线补偿,在测试领域有实用价值。
附图说明
图1为本发明传感器与补偿环节;
图2为本发明小波神经网络的结构示意图;
图3为本发明基于WNN网络补偿与理想补偿曲线;
图4为本发明补偿后电容称重传感器输入与输出关系曲线。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-4,本发明提供一种技术方案:一种电容称重传感器非线性补偿的小波神经网络方法,包括以下步骤:
步骤一:电容称重传感器非线性补偿原理
电容称重传感器非线性补偿原理主要基于图1所示的基本环节,设传感器的输入载荷的重量为G,输出电压为u,u=f(G)为非线性关系,若在传感器后串联一个补偿环节,使y=f1(u)=kG,那么就实现了传感器的非线性补偿,当k=1时,y=G=f1(u)称为传感器的逆模型。
步骤二:小波神经网络
小波神经网络的结构是以小波分析作为理论依据的,设Ψ(t)为一平方可积函数,Ψ(t)∈L2(R),若其傅立叶变换满足“容许性条件”,即:
则称为Ψ(t)一基本小波或母小波,其特点是,它们都是在时域具有紧支撑,在频域具有正则性的实数或复数函数,即它们在时域和频域都有较好的局部特性,将母小波进行尺度为a的伸缩和因子为b的平移,可得小波基函数:
式(2)中,a,b∈R,a≠0,分别为尺度因子和平移因子。
小波神经网络的结果与RBF网络一样类似均为单隐层前向神经网络,它的隐层激励函数为小波函数,其结构示意图如图2所示,xi(i=0,1,2,…,m)为输入层第i个结点的输入,y为输出层结点的输出,vj为第j个隐层结点的输入,oj为第j个隐层结点的输出,w1ji为连接输入层结点i和隐层结点j(j=0,1,…,n)的权值,w2j为连接隐层结点j和输出层结点的权值,其中w1j0是第j个隐层结点的阈值(相应的x0=-1),w20是输出层结点阈值相应的o0=-1),aj和bj分别为第j个隐层结点的尺度因子和平移因子,则小波神经网络的数学模型为:
步骤三:小波神经网络参数的训练
设P为输入样本的模式个数,为第p个输入模式(p=1,2,…,P),yp为第p个模式的网络实际输出,dp为第p个模式的期望输出,那么误差函数如下:
小波神经网络的参数训练方法采用引入动量因子μ的最速下降算法,则参数的训练公式如下:
式(5)~(8)中,η为学习率。
步骤四:网络参数的初始化
小波神经网络参数的初始化是一个重要问题,它对于网络的后续学习是否收敛以及收敛的快慢都非常重要,初始权值一般的方法是用随机数产生的,用这种办法要来获得优良的初始权值是没有保障的,要想改变这种状况,得到高几率的优良的初始权值,可将初始化权值和学习样本、神经元传递函数等发生联系,下面以Mexicanhat小波神经网络为例,来说明小波网络的参数初始化过程,Mexicanhat小波基函数的表达式为:
网络初始参数的具体步骤如下:
设三层小波神经网络的隐层节点数为n,输入层节点数为m,w1ji为连接输入层结点i和隐层结点j(j=1,…,n)的权值,w1j0是隐层第j个神经元的阈值,首先进行w1ji的初始设置,步骤如下:
(1)首先随机产生[-1,1]区间上均匀分布的随机数作为w1ji初始值,用w1ji0表示;
(2)然后对w1ji0按行进行归一化:
(3)接着再乘以一个与输人层数节点m,隐层节点数n以及传递函数相关的因子:
w1ji2=C·n1/m·w1ji1,j=1,2,…,n (11)
式(11)中,C是和隐层传递函数相关的常数,对于Mexicanhat小波神经网络C可取2。
(4)最后再与学习样本发生联系,设输人层第i个神经元的输入样本中最大值为ximax,最小值为ximin,则
按照以上步骤得到的w1ji为输入层和隐层连接的初始权值,得到w1ji之后,再进行隐层神经元阈值w1j0的初始设置,其过程如下:
(1)首先随机产生[-1,1]区间上均匀分布的随机数作为w1j0的初始值,用w1j00表示;
(2)然后再乘以一个与输人层数节点m、隐层节点数n以及传递函数相关的因子:
w1j01=C·n1/m·w1j00 (13)
式(13)中,C和式(11)中的C值是一样的。
(3)最后再与学习样本以及w1ji相联系:
在设置了初始权值之后,对小波的伸缩平移参数进行初始设置也是非常重要的,由小波理论知道,若母小波的时域中心为θ,半径为β,则小波伸缩系在时域的集中区域为:
[b+aθ-aβ,b+aθ+aβ]
为了使小波伸缩系覆盖输人向量的整个范围,则伸缩平移参数的初始设置必须满足下式:
由上式可以得到:
式(16)中,母小波的时域中心和半径,可以根据小波时频参数的定义,计算得到Mexicanhat小波的时域中心和半径分别为0和1.0801。
对于隐层到输出层的初始参数设置,一般输出层采用线性神经元,则用[-1,1]区间上均匀分布的随机数作为初始权值和阈值即可。
要获得电容称重传感器称重系统静态非线性误差补偿网络的学习样本点和检验样本点,需要多次对该称重系统的加载重量和输出值进行实际的测量,即用标定设备对电容称重传感器进行了标定实验。
表1为某电容称重传感器的一组标定实验数据[3],其中,G为传感器输入载荷的重量,u为其输出电压值,将表1中传感器的31个输入输出测量数据归一化后作为网络的训练样本,用WNN建立电容称重传感器非线性补偿模型,选取Mexicanhat小波函数作为隐层神经元的变换函数,隐层神经元取25个,输出层神经元的变换函数采用线性函数,输出节点1个,经过280次训练,误差平方和可达10-4数量级。
图3为基于WNN网络补偿与理想补偿曲线,用测试样本对训练后的WNN 补偿网络进行检验,得到的预测结果与实际实验值非常相近,误差很小,这表明WNN具有很强的泛化能力,经补偿,在所有测量测量点上的相对误差最大不大于0.2%,由此可知,由WNN网络补偿模型有很高的精度,图4所示为补偿后电容称重传感器输入与输出关系曲线,由图4可知,输入与输出呈良好的线性关系。
综上所述,该电容称重传感器非线性补偿的小波神经网络方法,由于电容称重传感器的输出与输入成非线性关系,非线性误差大小直接影响到测控系统的性能和测量准确度,所以设计非线性补偿器是必要的,神经网络具有良好的学习特性,而小波变换具有良好的时频局部化特性,将二者结合在一起构成小波神经网络,可使该网络兼具神经网络和小波变换的优点,将小波神经网络及本文介绍的小波神经网络参数训练和初始化方法对电容称重传感器的非线性补偿,证明是有效的,它的鲁棒性好,并可实现在线补偿,网络训练所用时间短,精度高,能更好满足实时性要求,在测控领域中更具有实用价值。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下。由语句“包括一个......限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素”。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (1)

1.一种电容称重传感器非线性补偿的小波神经网络方法,其特征在于:包括以下步骤:
步骤一:电容称重传感器非线性补偿原理
电容称重传感器非线性补偿原理主要基于图1所示的基本环节。设传感器的输入载荷的重量为G,输出电压为u,u=f(G)为非线性关系。若在传感器后串联一个补偿环节,使y=f1(u)=kG,那么就实现了传感器的非线性补偿,当k=1时,y=G=f1(u)称为传感器的逆模型;
步骤二:小波神经网络
小波神经网络的结构是以小波分析作为理论依据的,设Ψ(t)为一平方可积函数,Ψ(t)∈L2(R),若其傅立叶变换满足“容许性条件”,即:
<mrow> <msub> <mo>&amp;Integral;</mo> <mi>R</mi> </msub> <mfrac> <msup> <mrow> <mo>|</mo> <mover> <mi>&amp;Psi;</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>&amp;omega;</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mn>2</mn> </msup> <mi>&amp;omega;</mi> </mfrac> <mi>d</mi> <mi>&amp;omega;</mi> <mo>&lt;</mo> <mi>&amp;infin;</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
则称为Ψ(t)一基本小波或母小波,其特点是,它们都是在时域具有紧支撑,在频域具有正则性的实数或复数函数,即它们在时域和频域都有较好的局部特性,将母小波进行尺度为a的伸缩和因子为b的平移,可得小波基函数:
<mrow> <msub> <mi>&amp;Psi;</mi> <mrow> <mi>a</mi> <mo>,</mo> <mi>b</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mrow> <mo>|</mo> <mi>a</mi> <mo>|</mo> </mrow> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> </mrow> </msup> <mi>&amp;Psi;</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>t</mi> <mo>-</mo> <mi>b</mi> </mrow> <mi>a</mi> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
式(2)中,a,b∈R,a≠0,分别为尺度因子和平移因子;
小波神经网络的结果与RBF网络一样类似均为单隐层前向神经网络,它的隐层激励函数为小波函数,其结构示意图如图2所示,xi(i=0,1,2,…,m)为输入层第i个结点的输入,y为输出层结点的输出,vj为第j个隐层结点的输入,oj为第j个隐层结点的输出,w1ji为连接输入层结点i和隐层结点j(j=0,1,…,n)的权值,w2j为连接隐层结点j和输出层结点的权值,其中w1j0是第j个隐层结点的阈值(相应的x0=-1),w20是输出层结点阈值相应的o0=-1),aj和bj分别为第j个隐层结点的尺度因子和平移因子,则小波神经网络的数学模型为:
<mrow> <mi>y</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>&amp;sigma;</mi> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>0</mn> </mrow> <mi>n</mi> </munderover> <mi>w</mi> <msub> <mn>2</mn> <mi>j</mi> </msub> <mi>&amp;Psi;</mi> <mo>(</mo> <mo>(</mo> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>b</mi> <mi>j</mi> </msub> </mrow> <mo>)</mo> <mo>/</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
步骤三:小波神经网络参数的训练
设P为输入样本的模式个数,为第p个输入模式(p=1,2,…,P),yp为第p个模式的网络实际输出,dp为第p个模式的期望输出,那么误差函数如下:
<mrow> <mi>E</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>p</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>P</mi> </munderover> <msup> <mrow> <mo>(</mo> <msup> <mi>d</mi> <mi>p</mi> </msup> <mo>-</mo> <msup> <mi>y</mi> <mi>p</mi> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
小波神经网络的参数训练方法采用引入动量因子μ的最速下降算法,则参数的训练公式如下:
<mrow> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>&amp;eta;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> </mrow> </mfrac> <mo>+</mo> <mi>&amp;mu;</mi> <mi>&amp;Delta;</mi> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>w</mi> <msub> <mn>2</mn> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <mi>w</mi> <msub> <mn>2</mn> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>&amp;eta;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mi>w</mi> <msub> <mn>2</mn> <mi>j</mi> </msub> </mrow> </mfrac> <mo>+</mo> <mi>&amp;mu;</mi> <mi>&amp;Delta;</mi> <mi>w</mi> <msub> <mn>2</mn> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow> 1
<mrow> <msub> <mi>a</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>&amp;eta;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>+</mo> <msub> <mi>&amp;mu;&amp;Delta;a</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>b</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>b</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>&amp;eta;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>b</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>+</mo> <msub> <mi>&amp;mu;&amp;Delta;b</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
式(5)~(8)中,η为学习率;
步骤四:网络参数的初始化
小波神经网络参数的初始化是一个重要问题,它对于网络的后续学习是否收敛以及收敛的快慢都非常重要,初始权值一般的方法是用随机数产生的,用这种办法要来获得优良的初始权值是没有保障的,要想改变这种状况,得到高几率的优良的初始权值,可将初始化权值和学习样本、神经元传递函数等发生联系,下面以Mexicanhat小波神经网络为例,来说明小波网络的参数初始化过程,Mexicanhat小波基函数的表达式为:
<mrow> <mi>&amp;Psi;</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <mi>t</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msup> <mi>t</mi> <mn>2</mn> </msup> <mo>/</mo> <mn>2</mn> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
网络初始参数的具体步骤如下:
设三层小波神经网络的隐层节点数为n,输入层节点数为m,w1ji为连接输入层结点i和隐层结点j(j=1,…,n)的权值,w1j0是隐层第j个神经元的阈值,首先进行w1ji的初始设置,步骤如下:
(1)首先随机产生[-1,1]区间上均匀分布的随机数作为w1ji初始值,用w1ji0表示;
(2)然后对w1ji0按行进行归一化:
<mrow> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> <mn>0</mn> </mrow> </msub> </mrow> <msqrt> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msubsup> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> <mn>0</mn> </mrow> <mn>2</mn> </msubsup> </mrow> </msqrt> </mfrac> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
(3)接着再乘以一个与输人层数节点m,隐层节点数n以及传递函数相关的因子:
w1ji2=C·n1/m·w1ji1,j=1,2,…,n (11)
式(11)中,C是和隐层传递函数相关的常数,对于Mexicanhat小波神经网络C可取2;
(4)最后再与学习样本发生联系,设输人层第i个神经元的输入样本中最大值为ximax,最小值为ximin,则
<mrow> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> <mn>2</mn> </mrow> </msub> </mrow> <mrow> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </mfrac> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
按照以上步骤得到的w1ji为输入层和隐层连接的初始权值,得到w1ji之后,再进行隐层神经元阈值w1j0的初始设置,其过程如下:
(1)首先随机产生[-1,1]区间上均匀分布的随机数作为w1j0的初始值,用w1j00表示;
(2)然后再乘以一个与输人层数节点m、隐层节点数n以及传递函数相关的因子:
w1j01=C·n1/m·w1j00 (13)
式(13)中,C和式(11)中的C值是一样的;
(3)最后再与学习样本以及w1ji相联系:
<mrow> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mn>0</mn> </mrow> </msub> <mo>=</mo> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mn>01</mn> </mrow> </msub> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>min</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
在设置了初始权值之后,对小波的伸缩平移参数进行初始设置也是非常重要的,由小波理论知道,若母小波的时域中心为θ,半径为β,则小波伸缩系在时域的集中区域为:
[b+aθ-aβ,b+aθ+aβ]
为了使小波伸缩系覆盖输人向量的整个范围,则伸缩平移参数的初始设置必须满足下式:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mi>&amp;theta;</mi> <mo>-</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mi>&amp;beta;</mi> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>min</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mi>&amp;theta;</mi> <mo>+</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mi>&amp;beta;</mi> <mo>=</mo> <mi>&amp;Sigma;</mi> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
由上式可以得到:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>max</mi> </mrow> </msub> <mo>-</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>min</mi> </mrow> </msub> </mrow> <mrow> <mn>2</mn> <mi>&amp;beta;</mi> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mi>j</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>max</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>&amp;beta;</mi> <mo>-</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>w</mi> <msub> <mn>1</mn> <mrow> <mi>j</mi> <mi>i</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>min</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>&amp;beta;</mi> <mo>+</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>&amp;beta;</mi> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> </mrow>
式(16)中,母小波的时域中心和半径,可以根据小波时频参数的定义,计算得到Mexicanhat小波的时域中心和半径分别为0和1.0801;
对于隐层到输出层的初始参数设置,一般输出层采用线性神经元,则用[-1,1]区间上均匀分布的随机数作为初始权值和阈值即可。
CN201710111344.3A 2017-02-28 2017-02-28 电容称重传感器非线性补偿的小波神经网络方法 Pending CN107367319A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710111344.3A CN107367319A (zh) 2017-02-28 2017-02-28 电容称重传感器非线性补偿的小波神经网络方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710111344.3A CN107367319A (zh) 2017-02-28 2017-02-28 电容称重传感器非线性补偿的小波神经网络方法

Publications (1)

Publication Number Publication Date
CN107367319A true CN107367319A (zh) 2017-11-21

Family

ID=60304744

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710111344.3A Pending CN107367319A (zh) 2017-02-28 2017-02-28 电容称重传感器非线性补偿的小波神经网络方法

Country Status (1)

Country Link
CN (1) CN107367319A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108255786A (zh) * 2017-11-28 2018-07-06 中南大学 一种称重结果的干扰补偿计算方法及系统
CN109579967A (zh) * 2018-11-27 2019-04-05 上海交通大学 智能动态称重方法与系统
CN110375843A (zh) * 2019-07-22 2019-10-25 淮阴师范学院 一种基于wnn的振动速度传感器幅频特性补偿方法
CN110824922A (zh) * 2019-11-22 2020-02-21 电子科技大学 基于六阶b-样条小波神经网络的史密斯预估补偿方法
CN111829638A (zh) * 2020-07-24 2020-10-27 福建世新机器人科技有限公司 一种体重实时测量方法
CN112747813A (zh) * 2019-10-29 2021-05-04 杭州壬辰科技有限公司 一种零件自动称重计数系统及方法
CN113240821A (zh) * 2021-04-12 2021-08-10 西安科技大学 基于多信息融合的动态称重货车不停车计费系统及方法
CN114485877A (zh) * 2022-01-25 2022-05-13 常州纺织服装职业技术学院 一种结合惯性测量模块进行称重补偿的称重系统和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1155184A (zh) * 1996-01-12 1997-07-23 富士通株式会社 非线性补偿电路
CN102006012A (zh) * 2010-10-25 2011-04-06 苏州高新区禾云设备设计事务所 磁粉制动-离合器用非线性补偿放大器
CN105138976A (zh) * 2015-08-16 2015-12-09 东北石油大学 一种遗传小波神经网络的输电线路覆冰厚度识别方法
CN105139264A (zh) * 2015-06-06 2015-12-09 安徽工程大学 一种基于粒子群算法小波神经网络的光伏发电量的预测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1155184A (zh) * 1996-01-12 1997-07-23 富士通株式会社 非线性补偿电路
CN102006012A (zh) * 2010-10-25 2011-04-06 苏州高新区禾云设备设计事务所 磁粉制动-离合器用非线性补偿放大器
CN105139264A (zh) * 2015-06-06 2015-12-09 安徽工程大学 一种基于粒子群算法小波神经网络的光伏发电量的预测方法
CN105138976A (zh) * 2015-08-16 2015-12-09 东北石油大学 一种遗传小波神经网络的输电线路覆冰厚度识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
俞阿龙 等: "称重传感器动态补偿器的一种新的设计方法", 《传感器与检测技术》 *
俞阿龙: "基于小波神经网络的电容称重传感器非线性补偿研究", 《微计算机信息(测控自动化)》 *
俞阿龙: "基于遗传神经网络的电容称重传感器非线性补偿方法", 《电气自动化》 *
赵学智等: "小波神经网络的参数初始化研究", 《华南理工大学学报(自然科学版)》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108255786A (zh) * 2017-11-28 2018-07-06 中南大学 一种称重结果的干扰补偿计算方法及系统
CN108255786B (zh) * 2017-11-28 2021-07-16 中南大学 一种称重结果的干扰补偿计算方法及系统
CN109579967A (zh) * 2018-11-27 2019-04-05 上海交通大学 智能动态称重方法与系统
CN110375843A (zh) * 2019-07-22 2019-10-25 淮阴师范学院 一种基于wnn的振动速度传感器幅频特性补偿方法
CN112747813A (zh) * 2019-10-29 2021-05-04 杭州壬辰科技有限公司 一种零件自动称重计数系统及方法
CN110824922A (zh) * 2019-11-22 2020-02-21 电子科技大学 基于六阶b-样条小波神经网络的史密斯预估补偿方法
CN111829638A (zh) * 2020-07-24 2020-10-27 福建世新机器人科技有限公司 一种体重实时测量方法
CN113240821A (zh) * 2021-04-12 2021-08-10 西安科技大学 基于多信息融合的动态称重货车不停车计费系统及方法
CN113240821B (zh) * 2021-04-12 2022-08-26 西安科技大学 基于多信息融合的动态称重货车不停车计费系统及方法
CN114485877A (zh) * 2022-01-25 2022-05-13 常州纺织服装职业技术学院 一种结合惯性测量模块进行称重补偿的称重系统和方法
CN114485877B (zh) * 2022-01-25 2023-09-05 常州纺织服装职业技术学院 一种结合惯性测量模块进行称重补偿的称重系统和方法

Similar Documents

Publication Publication Date Title
CN107367319A (zh) 电容称重传感器非线性补偿的小波神经网络方法
CN101697084B (zh) 一种基于rls滤波器的电液伺服系统随机振动控制方法
Shi et al. Free vibration analysis of moderately thick rectangular plates with variable thickness and arbitrary boundary conditions
Thakur et al. A new efficient higher-order shear deformation theory for a doubly curved laminated composite shell
CN101702092B (zh) 一种基于卡尔曼滤波器的电液伺服系统随机振动控制方法
CN107942160A (zh) 基于bp神经网络的线路参数特性辨识模型的建立方法
Triki et al. Soliton solutions to KdV equation with spatio-temporal dispersion
Li et al. Dynamic system identification via recurrent multilayer perceptrons
CN107014339A (zh) 一种用于大数据的高精度角度传感器误差补偿方法
CN110059286A (zh) 一种基于fft的结构非平稳响应高效分析方法
CN103559340B (zh) 一种基于comi‑pso算法的不相关多源频域载荷识别方法
CN102087311B (zh) 一种提高电力互感器测量精度的方法
Keerthipala et al. Artificial neural network model for analysis of power system harmonics
CN103076194A (zh) 实时混合模拟试验效果的频域评价方法
Deng et al. Diagonal recurrent neural network with modified backlash operators for modeling of rate-dependent hysteresis in piezoelectric actuators
CN106021880A (zh) 基于bp神经网络的导管架平台结构响应计算方法
CN104899642A (zh) 基于混合神经网络模型的大变形柔性体动态应力补偿方法
Liu et al. ANFIS-based signal reconstruction for nonlinear multifunctional sensor
Tiwari et al. Lie symmetry analysis, optimal system and exact solutions of a new (2+ 1)-dimensional KdV equation
Demirkus et al. Shear horizontal waves in a nonlinear elastic layer overlying a rigid substratum
CN103577877B (zh) 一种基于时频分析和bp神经网络的船舶运动预报方法
JPH05197701A (ja) ニューラルネットワークを用いた情報処理装置
CN105572472B (zh) 分布式电源环境的频率测量方法与系统
CN111538948A (zh) 分布动载荷识别的动态标定方法
CN107587955A (zh) 基于深信度网络的火箭发动机推力偏移量的标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 223300, Huaiyin Normal University, 111 West Changjiang Road, Huaiyin District, Huaian, Jiangsu

Applicant after: Huaiyin Normal College

Address before: 223300 No. 71 traffic road, Jiangsu, Huaian

Applicant before: Huaiyin Normal College

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171121