CN102982373A - 一种混合svm回归算法的oin神经网络训练方法 - Google Patents

一种混合svm回归算法的oin神经网络训练方法 Download PDF

Info

Publication number
CN102982373A
CN102982373A CN2012105945361A CN201210594536A CN102982373A CN 102982373 A CN102982373 A CN 102982373A CN 2012105945361 A CN2012105945361 A CN 2012105945361A CN 201210594536 A CN201210594536 A CN 201210594536A CN 102982373 A CN102982373 A CN 102982373A
Authority
CN
China
Prior art keywords
vector
svm
input
oin
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105945361A
Other languages
English (en)
Other versions
CN102982373B (zh
Inventor
蔡珣
蔡菲
吕知辛
朱波
马军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201210594536.1A priority Critical patent/CN102982373B/zh
Publication of CN102982373A publication Critical patent/CN102982373A/zh
Application granted granted Critical
Publication of CN102982373B publication Critical patent/CN102982373B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种混合SVM回归算法的OIN神经网络训练方法,主要包括以下步骤:OIN前向传播部分;SVM回归部分;OIN后向传播部分;经过多次训练后最终得到一个优化的OIN/SVM混合模型,在测试阶段,将测试样本输入到优化后的OIN/SVM混合模型中,就得到预测结果,从而实现对样本的分类的预测或回归的预测。本发明采用最新设计的OIN人工神经网络训练方法,该方法可以大大提高传统后播算法的收敛性。

Description

一种混合SVM回归算法的OIN神经网络训练方法
技术领域
本发明涉及数据分析方法,尤其涉及一种混合SVM回归算法的OIN神经网络训练方法。
背景技术
人工神经网络(ANN,Artificial Neural Network)是一种优化的机器学习方法,并被广泛应用到各种数据分析领域中,来替代或补充基于多项式的回归分析和分类。现有的神经网络应用只能限定在含有少量设计参数的简单设计中,其用于建模的所需数据集规模应随设计参数的数量呈几何或指数级增加,因此,一个神经元分析需要具有大量充分的密度分布和实验数据,而另一方面,计算成本也相应增加,而在设计空间中的大量数据的低效利用也可能导致计算成本的过度浪费。
利用人工神经网络ANN来分析一个物理对象,优化在特定物理环境对象的反应,是非常常见的方法。人工神经网络ANN适合于多维数据的插补并提供合理的数学模型,即对现实的物理对象用复杂和精确的一系列数值解进行表达和优化。人工神经网络ANN尤其适合于需要满足多个设计条件的情况。
在人工神经网络ANN中,一个前向感知机人工神经网络(MLP ANN,Multilayer PerceptronArtificial Neural Network)是一种非线性估计技术。使用MLP ANN的困难来自于需要对连接权值进行非线性优化。当网络结构增大时,训练过程的成本可能非常高。因此,MLP ANN只适合小网络,且MLP ANN的优化主要是Newton法,这种算法的缺点是得到的优化都是局部的,无法实现全局优化。另外,某种程度上,MLP ANN采用Sigmoidal函数作为激活函数,这种函数在很多数据建模中不一定是最合适的基函数。
为了减少底层函数和激活函数间的差异性,一些神经网络,例如RBF神经网络,提供了一个从输入空间到特征空间的非线性转化。这个高维的特征空间可以通过包含特征空间坐标的kernel函数得到。从单变量输入空间到输出空间的全部映射就是特征空间的一个超平面。例如,对于一个需要具有线性项和二次项的输出空间,输入空间变量可以通过内积的kernel函数模型来得到。这种方法需要具有特征空间中输入和输出间的函数关系的先验知识。
为了解决人工神经网络ANN的局部最优问题,一种常见的方法是采用支持向量机SVM的方法。SVM法原本应用于统计学习理论,现在已经被开发和应用到各种分类和回归问题中。SVM可以很好得解决稀疏训练数据集的问题,并且利用高维特征空间来解决非线性分类。另一个SVM的好处是目标函数是凸包的,所以SVM得到的局部最优解通常也是全局最优解。这一点是多数神经网络所不具备的。然而,传统SVM方法对特征空间,即kernel函数(如多项式、Gaussian等)的选择也必须具有先验知识并预定义出来,而且当训练数据集过大时,需要计算成本来划分子集以实现模型的可用性。
现有一种将ANN分析和SVM分析相结合的混合机制,可以满足上述所有的需要。通过这种机制,学习过程不仅不需要提供对非线性函数的先验知识来实现非线性分析,而且利用了SVM实现全局最优的特点。但是根据该机制描述的输出是由SVM分类算法直接得到的一个布尔型的类别值,而布尔值在很难应用到神经网络的后向传播过程中;因此,该机制并没有具体指出ANN-SVM是如何进行训练并如何实现权值修正。
本发明适用于解决数据分析方面的相关问题,例如,图像分割中的颜色恒常性问题,即在不同光照影响下的图像分割问题,现有的图像分割没有利用学习算法,仅仅利用颜色空间的转换,在复杂的光照影响下,达不到理想的要求。
发明内容
本发明的目的就是为了解决上述问题,提出了一种混合SVM回归算法的OIN神经网络训练方法。该方法利用一种优化的快速收敛MLP ANN算法—优化输入向量规格化神经网络(OIN,optimal input normalization)和SVM回归算法相结合,实现多分类和回归分析,是对现有SVM/ANN的机制具体实现和优化。
为了实现上述目的,本发明采用如下技术方案:
一种混合SVM回归算法的OIN神经网络训练方法,主要包括以下步骤:
Step(1):初始化部分,对输入样本值进行归一化,产生初始隐含层权值,并计算出隐含层神经元的输入值,根据隐含层神经元采用的激活函数得到相应的隐含层神经元输出值;
Step(2):根据类别数M和原始样本的类别,利用输出重定向OR建立各个原始样本相应的MLP分类训练的M维理想分类向量;
Step(3):根据类别数M建立M个SVM回归分析模型,每个SVM回归分析模型的输入向量是Step(1)得到的隐含层神经元输出值,而每个SVM回归分析模型的理想输出值是Step(2)建立的M维理想分类向量的其中一个元素;
Step(4):SVM回归训练:分别对M个SVM回归分析模型进行训练,得到M个SVM回归分析训练模型;
Step(5):根据训练后的SVM回归分析训练模型进行SVM回归预测;
Step(6):OIN后向传播部分。将Step(5)的SVM回归预测结果进行组合得到一个新的分类向量,并通过比较M维理想分类向量,采用OIN后向传播算法对权值进行调整;
Step(7):迭代下一次训练,根据调整后的新的隐含层权值再回到Step(1)中,计算出新的隐含层神经元输入,继续Step(2)-(7),直至训练周期结束或达到理想值时结束;经过反复迭代最终得到一个优化的OIN/SVM混合模型。
在测试阶段,将测试样本输入到优化后的OIN/SVM混合模型中,就得到预测结果,从而实现对样本的分类的预测或回归的预测。
所述Step(1)细分为如下具体步骤:
Step(1.1):通过使用正态分布随机函数初始化隐含层权值向量Wih,即从第i个到第h个权值;归一化所有输入向量为零均值;
Step(1.2):对每一个输入样本计算出其在各个隐含层神经元的输入值并对这些神经元输入值进行归一化处理;
Step(1.3):根据神经元的激活函数计算出各个隐含层神经元的输出值。
所述Step(1.2)神经元的输入值的计算为
n p ( k ) = Σ i = 1 N + 1 w ih ( i , k ) x p ( i ) = ( W ih ) T x p - - - ( 1 )
其中,np(k)表示第p个样本在第k个隐含层神经元的输入值;Wih为连接输入层和隐含层的隐含层输入权值向量;xp是第p个样本的输入向量;i代表输入向量的第i个元素的索引号,k代表第k个隐含层神经元的索引号。
所述Step(1.2)中的神经元控制就是将计算得到的np(k)控制在[-0.5,0.5],从而保证了训练算法的可导性;np(k)表示第p个样本的第k个隐含层单元的输入值。
所述Step(1.3)中神经元的输出值为
Op(k)=f(np(k))      (2)
这里,f(·)代表了一个隐含层神经元非线性激活函数—Sigmoid函数,Op(k)表示神经元的输出值,np(k)表示第p个样本的第k个隐含层神经元的输入值。
f ( n p ( k ) ) = 1 1 + e - n p ( k ) - - - ( 3 )
Step(2)中的OR代表了输出重定向(Output Reset)。为了能够利用最小均方差法来训练人工神经网络实现分类功能,本发明根据第p个样本所属的类别设定一个浮点数型的理想输出向量,即tp=[tp(1),tp(2),…,tp(M)],M为类别总数。如果用Cp代表了类别,k代表了向量分量的索引号,则只有与第p个样本所属类别号Cp在相同的索引号所对应的分量值为1,其他分量值为0,即设定第p个样本的理想输出向量的第k个分量为
t p ( k ) = 1 ifk = C p 0 k ≠ C p - - - ( 4 )
tp(k)的参数含义是第p个样本的第k个分量的理想输出。
所述Step(4)分为如下步骤:
Step(4.1):选择某个kernal函数,在确定的复杂性妥协参数C和松弛变量ε下,计算Langruange乘子α*和b*
Step(4.2):根据全部满足优化条件的乘子,SVM将得到一个高维空间优化权值,从而建立SVM的输出模型yp
所述Step(4.1)SVM回归中如果本发明定义误差松弛变量不少于ε,C为复杂性和最小损失的妥协参数,则SVM回归的二次损失函数
L ϵ ( x p , t p , f ) = | t p - f ( x p ) | ϵ 2 - - - ( 5 )
f代表经过SVM训练后得到的模型函数,xp是第p个样本的输入向量,f(xp)是参数为xp的经过SVM训练后得到的模型函数。
这样,对某个参数C和ε的最小化线性损失和为
1 2 | | w | | 2 + C · Σ p = 1 N v L 2 ϵ ( x p , t p , f ) - - - ( 6 )
这里,w是SVM模型的权值向量;C为复杂性和最小损失的妥协参数;xp是第p个样本的输入向量;tp为公式(1)的理想输出和f在这里代表SVM模型函数。
因此,Step(4.2)根据Karush-Kuhm-Tucker互补条件得到下列二次优化求解式为:
max imise W ( α ) = Σ p = 1 1 t p α p - ϵ Σ p = 1 1 | α p | - 1 2 Σ i , p = 1 1 α i α p K ( O p , O i )
Subject to Σ p = 1 1 α p = 0 , - C ≤ α p ≤ C - - - ( 7 )
W(α)是以Langruange乘子为参数的SVM模型权值向量;αp是第p个样本的Langruange乘子;ε为松弛变量;αi是第i个样本支持向量的Langruange乘子;Oi是第i个支持向量;Op是第p样本在隐含层的输出向量,l代表计算得到的支持向量的个数。
这样,根据Step(4.2)得到的满足公式(7)的支持向量的Langruange乘子α*,本发明得到的系统输出变量yp为,
y p = Σ i = 1 1 α * i K ( O i , O P ) + b * - - - ( 8 )
其中,b*为满足yi-ti=ε,
Figure BDA00002693336100055
的任意值,Oi是第i个支持向量;Op是第p样本在隐含层的输出向量,l代表支持向量的个数。
所述Step(6)的OIN后向传播部分中,本发明采用最小均方值作为决策衡量标准,即
E = 1 N v Σ p = 1 N v Σ m = 1 M [ t p ( m ) - y p ( m ) ] 2 - - - ( 9 )
这里,Nv为样本总数;M为输出向量的维数;p为样本号、m为输出向量第m个分量的索引号;tp(m)是公式(4)设定的理想向量第m个分量的值;yp(m)为SVM预测得到的输出向量第m个分量的值。
本发明在Step(6)中,采用优化输入规则化(Optimal Input Normalization,简称OIN)人工神经网络进行权值调整。OIN的基本原理是通过一个优化转换矩阵将原始输入变量转化为可以实现最优效果的形式,其优化转化矩阵可以表示为
A = a ( 1 ) 0 . . 0 b ( 1 ) 0 a ( 2 ) . . 0 b ( 2 ) . . . . . . . . . . . . 0 0 . . a ( N ) b ( N ) 0 0 . . 0 a ( N + 1 ) - - - ( 10 )
这样一个原始的输入变量xp就可以转化为
Figure BDA00002693336100062
x ~ p ( n ) = a ( n ) · x p ( n ) + b ( n ) - - - ( 11 )
a(n)和b(n)分别对应连接输入向量的一般分量xp(n)和增广分量xp(N+1)到隐含层各个神经元的权值学习因子。
如果隐含层的神经元数量为Nh,则wih(n)是输入向量xp的第n个分量和隐含层的Nh维连接权值向量,wih(N+1)是输入向量xp的增广分量xp(N+1)对应的Nh维的权值分量;则优化算法的权值修正公式为
w ih ( n ) ← w ih ( n ) + a ( n ) · g ( n ) + b ( n ) · g ( N + 1 )
w ih ( N + 1 ) ← w ih ( N + 1 ) + a ( N + 1 ) g ( N + 1 ) + Σ n = 1 N b ( n ) g ( n ) - - - ( 12 )
其中,g(n)和g(N+1)分别是权值wih(n)和wih(N+1)的梯度向量,N是输入向量的维数;
这样,如果a(n),b(n),n从1到N,用学习因子向量a,b表示,则a和b就可以通过下列公式表示的Newton法计算得到
a b = [ H ab ] - 1 G a G b - - - ( 13 )
其中,a=[a(1)…a(n)…a(N)],b=[b(1)…b(n)…b(N+1)],Hab代表误差E对输入因子向量a和b的(N+1)*(N+1)维的二阶偏导数矩阵。如果Nv是所有样本的数量,Ga和Gb分别代表误差E对输入因子向量a和b的一阶偏导数向量,Ga的维数是N,Gb为1维,则Ga和Gb分别为
G a = ∂ E ∂ a = - 2 N v · [ ∂ y p ∂ a ] T [ t p - y p ] G b = ∂ E ∂ b = - 2 N v · [ ∂ y p ∂ b ] T [ t p - y p ] - - - ( 14 )
其中,
Figure BDA00002693336100073
Figure BDA00002693336100074
分别对应Ga和Gb的计算式。Hab的第m行u列的元素值,即h(m,u),计算为
{ h ( m , u ) = h ( u , m ) = ∂ 2 E ∂ a ( m ) ∂ b ( u ) = ∂ 2 E ∂ a ( u ) ∂ b ( m )
(15)
≈ 2 · 1 N v Σ p = 1 N v Σ i = 1 M ∂ y p ( i ) ∂ a ( m ) · ∂ y p ( i ) ∂ b ( u ) ,
其中,u=1…2N+1,m=1…2N+1分别为Hab的横纵坐标值;
Figure BDA00002693336100077
Figure BDA00002693336100078
是求解Hab的计算式;
Figure BDA00002693336100079
Figure BDA000026933361000710
分别对应输入向量y对输入因子向量a和b的一阶偏导数式。
将上述步骤反复迭代,最终,本发明将得到一个优化的OIN/SVM混合模型。在测试阶段,将测试样本输入到优化后的混合模型(如公式(8)所示)中,就可以得到预测结果,从而实现对样本的分类的预测或回归的预测。
本发明的有益效果:
1.通过OIN/SVM混合模型,本发明不仅可以避免MLP人工神经网络不能得到全局最优解的缺点,而且可以避免SVM对kernel函数的先验知识的需求,即使在没有kernel函数先验知识的背景下,本发明也可以通过改变MLP人工神经网络来实现非线性估计。
2.本发明不需要利用SVM分类法直接进行分类,如果利用SVM分类法直接进行分类,其布尔值型的输出结果将很难用于ANN部分的权值调整。
3.本发明首先根据类别,建立针对各个样本的输入向量。然后利用SVM回归来实现分类。其次,本发明采用最新设计的OIN人工神经网络训练方法,该方法可以大大提高传统后播算法的收敛性。
4.本发明除了应用到图像处理领域、信号处理领域,本发明还可以应用到任何需要进行数据分析的场合,如财务的股票预测,天气预报,控制系统和信号处理和分析、数据挖掘、图像分析等。
5.本发明在图像分割的光照恒常性问题上,能够获得具有很好的鲁棒性和适应性的分割效果。
附图说明
图1OIN-SVM系统框架图;
图2OIN-SVM的计算成本和收敛性性能比较示意图;
图3不同光照下的图像影响示意图;
图4不同光照影响下的图像分割结果示意图(左侧对应60%标准光照,右侧对应120%标准光照)。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
本发明的系统结构主要分为两大部分:OIN和SVM两大部分,如图1所示。其中,OIN部分只包含一个隐含层。在图1中,给定Nv个训练样本集{(xp,tp)},xp=[xp(1),xp(2),…xp(N+1)]T代表第p个样本的增广输入向量,其中,N输入向量的维数,Xp(N+1)是为方便计算隐含层阈值而设的输入向量的一个增广项,xp(N+1)=1。tp=[tp(1),tp(2),…tp(M)]T代表了第p个样本的输入向量,M代表维数;隐含层的神经单元数为Nh,则Wih={wih(i,k)}表示所有的从输入层到隐含层的连接权值,具有N*Nh维,Op(1),Op(2),…,Op(Nh)是各个隐含神经元的输出点节点并将这些输出作为SVM的输入向量。最后,本发明再SVM回归算法计算得到SVM的Lagrange乘子,并得到回归权值w和偏差b,最后计算得到系统输出yp=[yp(1),yp(2),…yp(M)]T
图2是本发明在一个阿拉伯数字手写体数据集上进行训练后得到的一个训练收敛性性能比较图。该数据集由0-9十个数字的3000个手写体样本组成。本实验的SVM部分采用的是LIBSVM回归软件。其中,核函数设为线性函数,容误差ε设为0.01,其余参数为LIBSVM的默认值。本算法主要是与LM-OWO-MLP、OIN-OWO-MLP和OLF-OWO-MLP进行了收敛性和计算成本的比较。其中,LM-OWO-MLP指的是基于Levenberg-Marquardt优化输出MLP算法;OIN-OWO-MLP即未采用SVM的优化输入输出MLP算法;OLF-OWO-MLP是具有单优化学习因子的优化输出MLP算法。从图2中可以看到,整合SVM后的OIN,比原始OIN具有更快的收敛性和几乎不变的计算成本。
图3、图4分别是不同光照对相同目标图像的影响图及不同算法对目标图像分割的效果图。从图4可以看出,相比之下,OLF-OWO-BP的处理效果最差;OIN-OWO-MLP和LM-OWO-MLP执行效果较OLF-OWO-BP好,但仍然存在少量误差尤其是对阴影的影响下图像部分的处理。只有OIN-SVM-MLP不仅能够正确保留对象的细节,而且对阴影部分能够实现准确识别和分割,因此OIN-SVM-MLP对光照影响下的图像分割具有很好的鲁棒性。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (9)

1.一种混合SVM回归算法的OIN神经网络训练方法,其特征是,主要包括以下步骤:
Step(1):初始化部分,对输入样本值进行归一化,产生初始隐含层权值,并计算出隐含层神经元的输入值,根据隐含层神经元采用的激活函数得到相应的隐含层神经元输出值;
Step(2):根据类别数M和原始样本的类别,利用输出重定向OR建立各个原始样本相应的MLP分类训练的M维理想分类向量;
Step(3):根据类别数M建立M个SVM回归分析模型,每个SVM回归分析模型的输入向量是Step(1)得到的隐含层神经元输出值,而每个SVM回归分析模型的理想输出值是Step(2)建立的M维理想分类向量的其中一个元素;
Step(4):SVM回归训练:分别对M个SVM回归分析模型进行训练,得到M个SVM回归分析训练模型;
Step(5):根据训练后的SVM回归分析训练模型进行SVM回归预测;
Step(6):OIN后向传播部分;将Step(5)的SVM回归预测结果进行组合得到一个新的分类向量,并通过比较M维理想分类向量,采用OIN后向传播算法对权值进行调整;
Step(7):迭代下一次训练,根据调整后的新的隐含层权值再回到Step(1)中,计算出新的隐含层神经元输入,继续Step(2)-(7),直至训练周期结束或达到理想值时结束;经过反复迭代最终得到一个优化的OIN/SVM混合模型;
在测试阶段,将测试样本输入到优化后的OIN/SVM混合模型中,就得到预测结果,从而实现对样本的分类的预测或回归的预测。
2.如权利要求1所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(1)分为如下具体步骤:
Step(1.1):通过使用正态分布随机函数初始化隐含层权值Wih,即从第i个到第h个权值;归一化所有输入向量为零均值;
Step(1.2):对每一个输入样本计算出其在各个隐含层神经元的输入值并对这些神经元输入值进行归一化处理;
Step(1.3):根据神经元的激活函数计算出各个隐含层神经元的输出值。
3.如权利要求2所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(1.2)神经元的输入值的计算为
n p ( k ) = Σ i = 1 N + 1 w ih ( i , k ) x p ( i ) = ( W ih ) T x p - - - ( 1 )
其中,np(k)表示第p个样本的第k个隐含层单元的输入值;Wih为连接输入层和隐含层的隐含层输入权值向量;xp是第p个样本的输入向量;i代表输入向量的元素的索引号,k代表隐含层单元的索引号;
所述Step(1.2)中的神经元控制就是将计算得到的np(k)控制在[-0.5,0.5],从而保证了训练算法的可导性;np(k)表示第p个样本的第k个隐含层单元的输入值。
4.如权利要求2所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(1.3)中神经元的输出值为
Op(k)=f(np(k))     (2)
这里,f(·)代表了第k个非线性隐含层激活函数—Sigmoid函数,Op(k)表示神经元的输出值,np(k)表示第p个样本的第k个隐含层单元的输入值;
f ( n p ( k ) ) = 1 1 + e - n p ( k ) - - - ( 3 ) .
5.如权利要求1所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(2)中的OR表示输出重定向;根据第p个样本所属的类别设定一个理想的输出向量,即tp=[tp(1),tp(2),…,tp(M)],M为类别总数;如果用Cp代表了类别,k代表了向量分量的索引号,则只有与第p个样本所属类别号Cp在相同的索引号所对应的分量值为1,其他分量值为0,即设定第p个样本的理想输出向量的第k个分量为
t p ( k ) = 1 ifk = C p 0 k ≠ C p - - - ( 4 )
tp(k)的参数含义是第p个样本的第k个分量的理想输出。
6.如权利要求1所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(4)分为如下步骤:
Step(4.1):选择某个kernal函数,在确定的复杂性妥协参数C和松弛变量ε下,计算Langruange乘子α*和b*
Step(4.2):根据全部满足优化条件的乘子,SVM将得到一个高维空间优化权值,从而建立SVM的输出模型yp。
7.如权利要求6所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(4.1)SVM回归中如果定义误差松弛变量不少于ε,C为复杂性和最小损失的妥协参数,则SVM回归的二次损失函数
L ϵ ( x p , t p , f ) = | t p - f ( x p ) | ϵ 2 - - - ( 5 )
f代表经过SVM训练后得到的模型函数,xp是第p个样本的输入向量;
这样,对某个参数C和ε的最小化线性损失和为
1 2 | | w | | 2 + C · Σ p = 1 N v L 2 ϵ ( x p , t p , f ) - - - ( 6 )
w是SVM的权值向量;C是容错因子;xp是第p个样本的输入向量;tp和f的参数含义同上。
8.如权利要求6所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(4.2)根据Karush-Kuhm-Tucker互补条件得到下列二次优化求解式为:
max imise W ( α ) = Σ p = 1 1 t p α p - ϵ Σ p = 1 1 | α p | - 1 2 Σ i , p = 1 1 α i α p K ( O p , O i ) - - - ( 7 )
Subject to Σ p = 1 1 α p = 0 , - C ≤ α p ≤ C
W(α)是以Langruange乘子为参数的SVM模型权值向量;αp是第p个样本的Langruange乘子;ε松弛变量;αi是第i个样本支持向量的Langruange乘子;Oi是第i个支持向量;Op是第p样本在隐含层的输出向量,l的参数含义为支持向量的个数;
这样,根据Step(4.2)得到的满足公式(7)的支持向量的Langruange乘子α*,得到的系统输出变量yp
y p = Σ i = 1 1 α * i K ( O i , O P ) + b * - - - ( 8 )
其中,b*为满足yi-ti=-ε,
Figure FDA00002693336000044
的任意值,Oi是第i个支持向量;Op是第p样本在隐含层的输出向量,l的参数含义为支持向量的个数。
9.如权利要求1所述的一种混合SVM回归算法的OIN神经网络训练方法,其特征是,所述Step(6)的OIN后向传播部分中,采用最小均方值作为决策衡量标准,即
E = 1 N v Σ p = 1 N v Σ m = 1 M [ t p ( m ) - y p ( m ) ] 2 - - - ( 9 )
这里,Nv为样本总数;M为输出向量的维数;p为样本号;m为输出向量第m个分量的索引号;tp(m)是公式(4)设定的理想向量第m个分量的值;yp(m)为SVM预测得到的输出向量第m个分量的值;
所述Step(6)中,采用优化输入规则化人工神经网络进行权值调整,优化输入规则化人工神经网络OIN的基本原理是通过一个优化转换矩阵将原始输入变量转化为实现最优效果的形式,其优化转化矩阵表示为
A = a ( 1 ) 0 . . 0 b ( 1 ) 0 a ( 2 ) . . 0 b ( 2 ) . . . . . . . . . . . . 0 0 . . a ( N ) b ( N ) 0 0 . . 0 a ( N + 1 ) - - - ( 10 )
这样一个原始的输入变量xp就转化为
Figure FDA00002693336000052
x ~ p ( n ) = a ( n ) · x p ( n ) + b ( n ) - - - ( 11 )
a(n)和b(n)分别对应连接输入向量的一般分量xp(n)和增广分量xp(N+1)到隐含层各个神经元的权值学习因子;
如果隐含层的神经元数量为Nh,则wih(n)是输入向量xp的第n个分量和隐含层的Nh维连接权值向量,wih(N+1)是输入向量xp的增广分量xp(N+1)对应的Nh维的权值分量;则优化算法的权值修正公式为
w ih ( n ) ← w ih ( n ) + a ( n ) · g ( n ) + b ( n ) · g ( N + 1 )
w ih ( N + 1 ) ← w ih ( N + 1 ) + a ( N + 1 ) g ( N + 1 ) + Σ n = 1 N b ( n ) g ( n ) - - - ( 12 )
其中,g(n)和g(N+1)分别是权值wih(n)和wih(N+1)的梯度向量,N是输入向量的维数;
这样,如果a(n),b(n),n从1到N,用学习因子向量a,b表示,则a和b就通过下列公式表示的Newton法计算得到
a b = [ H ab ] - 1 G a G b - - - ( 13 )
其中,a=[a(1)…a(n)…a(N)],b=[b(1)…b(n)…b(N+1)],Hab代表误差E对输入因子向量a和b的(N+1)*(N+1)维的二阶偏导数矩阵,如果Nv是所有样本的数量,Ga和Gb分别代表误差E对输入因子向量a和b的一阶偏导数向量,Ga的维数是N,Gb为1维,则Ga和Gb分别为
G a = ∂ E ∂ a = - 2 N v · [ ∂ y p ∂ a ] T [ t p - y p ] G b = ∂ E ∂ b = - 2 N v · [ ∂ y p ∂ b ] T [ t p - y p ] - - - ( 14 )
其中,
Figure FDA00002693336000062
分别对应Ga和Gb的计算式,Hab的第m行u列的元素值,h(m,u)计算为
{ h ( m , u ) = h ( u , m ) = ∂ 2 E ∂ a ( m ) ∂ b ( u ) = ∂ 2 E ∂ a ( u ) ∂ b ( m )
(15)
≈ 2 · 1 N v Σ p = 1 N v Σ i = 1 M ∂ y p ( i ) ∂ a ( m ) · ∂ y p ( i ) ∂ b ( u ) ,
其中,u=1…2N+1,m=1…2N+1分别为Hab的横纵坐标值;
Figure FDA00002693336000066
Figure FDA00002693336000067
是求解Hab的计算式;分别对应输入向量y对输入因子向量a和b的一阶偏导数式,
将上述步骤反复迭代,最终,将得到一个优化的OIN/SVM混合模型;在测试阶段,将测试样本输入到优化后的混合模型公式(8)中,就得到预测结果,从而实现对样本的分类的预测或回归的预测。
CN201210594536.1A 2012-12-31 2012-12-31 一种混合svm回归算法的oin神经网络训练方法 Active CN102982373B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210594536.1A CN102982373B (zh) 2012-12-31 2012-12-31 一种混合svm回归算法的oin神经网络训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210594536.1A CN102982373B (zh) 2012-12-31 2012-12-31 一种混合svm回归算法的oin神经网络训练方法

Publications (2)

Publication Number Publication Date
CN102982373A true CN102982373A (zh) 2013-03-20
CN102982373B CN102982373B (zh) 2015-04-22

Family

ID=47856349

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210594536.1A Active CN102982373B (zh) 2012-12-31 2012-12-31 一种混合svm回归算法的oin神经网络训练方法

Country Status (1)

Country Link
CN (1) CN102982373B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680023A (zh) * 2015-03-12 2015-06-03 重庆科技学院 基于多目标决策的抽油机参数优化方法
CN104680025A (zh) * 2015-03-12 2015-06-03 重庆科技学院 基于遗传算法极限学习机的抽油机参数优化方法
CN105045941A (zh) * 2015-03-13 2015-11-11 重庆科技学院 基于无迹卡尔曼滤波的抽油机参数优化方法
CN105046326A (zh) * 2015-03-13 2015-11-11 重庆科技学院 基于功图主元分析的抽油机参数优化方法
CN105913450A (zh) * 2016-06-22 2016-08-31 武汉理工大学 基于神经网络图像处理的轮胎橡胶炭黑分散度评价方法及系统
CN107103359A (zh) * 2017-05-22 2017-08-29 东南大学 基于卷积神经网络的大服务系统在线可靠性预测方法
CN107203782A (zh) * 2017-05-23 2017-09-26 哈尔滨工业大学 基于卷积神经网络的大动态信噪比下通信干扰信号识别方法
CN107198508A (zh) * 2016-08-26 2017-09-26 常州市钱璟康复股份有限公司 康复度排序方法及复合式交互训练系统
CN107256425A (zh) * 2017-05-18 2017-10-17 深圳大学 随机权网络泛化能力改进方法及装置
CN107481218A (zh) * 2017-07-12 2017-12-15 中国科学院自动化研究所 图像美感评估方法及装置
CN107784361A (zh) * 2017-11-20 2018-03-09 北京大学 一种提升邻近算子机神经网络优化方法
CN107909142A (zh) * 2017-11-14 2018-04-13 深圳先进技术研究院 一种神经网络的参数优化方法、系统及电子设备
WO2018209651A1 (zh) * 2017-05-18 2018-11-22 深圳大学 随机权网络泛化能力改进方法及装置
CN109787821A (zh) * 2019-01-04 2019-05-21 华南理工大学 一种大规模移动客户流量消费智能预测方法
CN109901110A (zh) * 2019-02-25 2019-06-18 西安电子科技大学 基于主成分分析的支持向量机近场声源定位方法
CN109903075A (zh) * 2019-01-16 2019-06-18 创新奇智(合肥)科技有限公司 基于dnn的回归分布模型及其训练方法、电子设备
CN111492406A (zh) * 2017-10-11 2020-08-04 通用电气公司 使用机器学习的图像生成

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070133877A1 (en) * 2005-12-13 2007-06-14 Microsoft Corporation Script recognition for ink notes
CN102208030A (zh) * 2011-06-03 2011-10-05 天津大学 基于支持向量机正则化路径的贝叶斯模型平均模型组合方法
CN102438257A (zh) * 2011-09-01 2012-05-02 哈尔滨工业大学 模糊支持向量机在话务量预测中的应用方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070133877A1 (en) * 2005-12-13 2007-06-14 Microsoft Corporation Script recognition for ink notes
CN102208030A (zh) * 2011-06-03 2011-10-05 天津大学 基于支持向量机正则化路径的贝叶斯模型平均模型组合方法
CN102438257A (zh) * 2011-09-01 2012-05-02 哈尔滨工业大学 模糊支持向量机在话务量预测中的应用方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
居琰: ""基于多层次信息融合的手写体汉字识别研究"", 《中国博士学位论文全文数据库信息科技辑》 *
胡卫东: ""基于粗糙集理论和神经网络的图像识别系统"", 《中国优秀硕士学位论文全文数据库》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680023A (zh) * 2015-03-12 2015-06-03 重庆科技学院 基于多目标决策的抽油机参数优化方法
CN104680025A (zh) * 2015-03-12 2015-06-03 重庆科技学院 基于遗传算法极限学习机的抽油机参数优化方法
CN104680025B (zh) * 2015-03-12 2017-08-25 重庆科技学院 基于遗传算法极限学习机的抽油机参数优化方法
CN104680023B (zh) * 2015-03-12 2017-08-29 重庆科技学院 基于多目标决策的抽油机参数优化方法
CN105045941A (zh) * 2015-03-13 2015-11-11 重庆科技学院 基于无迹卡尔曼滤波的抽油机参数优化方法
CN105046326A (zh) * 2015-03-13 2015-11-11 重庆科技学院 基于功图主元分析的抽油机参数优化方法
CN105046326B (zh) * 2015-03-13 2019-04-19 重庆科技学院 基于功图主元分析的抽油机参数优化方法
CN105045941B (zh) * 2015-03-13 2018-11-02 重庆科技学院 基于无迹卡尔曼滤波的抽油机参数优化方法
CN105913450A (zh) * 2016-06-22 2016-08-31 武汉理工大学 基于神经网络图像处理的轮胎橡胶炭黑分散度评价方法及系统
CN107198508A (zh) * 2016-08-26 2017-09-26 常州市钱璟康复股份有限公司 康复度排序方法及复合式交互训练系统
CN107256425A (zh) * 2017-05-18 2017-10-17 深圳大学 随机权网络泛化能力改进方法及装置
WO2018209651A1 (zh) * 2017-05-18 2018-11-22 深圳大学 随机权网络泛化能力改进方法及装置
CN107256425B (zh) * 2017-05-18 2020-04-14 深圳大学 随机权网络泛化能力改进方法及装置
CN107103359A (zh) * 2017-05-22 2017-08-29 东南大学 基于卷积神经网络的大服务系统在线可靠性预测方法
CN107203782A (zh) * 2017-05-23 2017-09-26 哈尔滨工业大学 基于卷积神经网络的大动态信噪比下通信干扰信号识别方法
CN107481218A (zh) * 2017-07-12 2017-12-15 中国科学院自动化研究所 图像美感评估方法及装置
CN107481218B (zh) * 2017-07-12 2020-03-27 中国科学院自动化研究所 图像美感评估方法及装置
CN111492406B (zh) * 2017-10-11 2023-12-22 通用电气公司 训练机器学习算法的方法、图像处理系统和图像重建方法
CN111492406A (zh) * 2017-10-11 2020-08-04 通用电气公司 使用机器学习的图像生成
CN107909142A (zh) * 2017-11-14 2018-04-13 深圳先进技术研究院 一种神经网络的参数优化方法、系统及电子设备
CN107784361A (zh) * 2017-11-20 2018-03-09 北京大学 一种提升邻近算子机神经网络优化方法
CN107784361B (zh) * 2017-11-20 2020-06-26 北京大学 一种神经网络优化的图像识别方法
CN109787821A (zh) * 2019-01-04 2019-05-21 华南理工大学 一种大规模移动客户流量消费智能预测方法
CN109903075A (zh) * 2019-01-16 2019-06-18 创新奇智(合肥)科技有限公司 基于dnn的回归分布模型及其训练方法、电子设备
CN109903075B (zh) * 2019-01-16 2021-05-04 创新奇智(合肥)科技有限公司 基于dnn的回归分布模型及其训练方法、电子设备
CN109901110A (zh) * 2019-02-25 2019-06-18 西安电子科技大学 基于主成分分析的支持向量机近场声源定位方法

Also Published As

Publication number Publication date
CN102982373B (zh) 2015-04-22

Similar Documents

Publication Publication Date Title
CN102982373B (zh) 一种混合svm回归算法的oin神经网络训练方法
Ma et al. A hybrid attention-based deep learning approach for wind power prediction
Yu et al. A neural-network-based nonlinear metamodeling approach to financial time series forecasting
Xu et al. Composite quantile regression neural network with applications
Dai et al. Combining nonlinear independent component analysis and neural network for the prediction of Asian stock market indexes
Young et al. Mixtures of regressions with predictor-dependent mixing proportions
Yu et al. Forecasting of hydrologic time series with ridge regression in feature space
CN111814607B (zh) 一种适用于小样本高光谱影像分类的深度学习模型
Zadeh et al. An efficient metamodel-based multi-objective multidisciplinary design optimization framework
Gupta et al. Clustering-Classification based prediction of stock market future prediction
Hu et al. Profit guided or statistical error guided? A study of stock index forecasting using support vector regression
Moradi et al. The application of water cycle algorithm to portfolio selection
Li et al. Asset returns in deep learning methods: An empirical analysis on SSE 50 and CSI 300
Chen et al. Combining fuzzy iteration model with dynamic programming to solve multiobjective multistage decision making problems
CN103279672A (zh) 基于噪声模型支持向量回归技术的短期风速预报方法
CN105513097B (zh) 一种基于最小体积与优化约束条件的高光谱解混方法
Wang et al. Ensemble probabilistic wind power forecasting with multi-scale features
CN113516019B (zh) 高光谱图像解混方法、装置及电子设备
Park et al. Regularization path algorithms for detecting gene interactions
Wu et al. A Gramian angular field-based data-driven approach for multiregion and multisource renewable scenario generation
Liu et al. A weight-incorporated similarity-based clustering ensemble method
Mahaweerawat et al. Adaptive self-organizing map clustering for software fault prediction
CN109523386A (zh) 一种gmm与lstm结合的投资组合风险预测方法
Dash et al. Stock price index movement classification using a CEFLANN with extreme learning machine
Zhang et al. Multi-step ahead probabilistic forecasting of multiple hydrological variables for multiple stations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant