CN111291898A - 一种多任务稀疏贝叶斯极限学习机回归方法 - Google Patents

一种多任务稀疏贝叶斯极限学习机回归方法 Download PDF

Info

Publication number
CN111291898A
CN111291898A CN202010097148.7A CN202010097148A CN111291898A CN 111291898 A CN111291898 A CN 111291898A CN 202010097148 A CN202010097148 A CN 202010097148A CN 111291898 A CN111291898 A CN 111291898A
Authority
CN
China
Prior art keywords
task
tasks
hidden layer
weight
learning machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010097148.7A
Other languages
English (en)
Other versions
CN111291898B (zh
Inventor
黄永
李惠
高竞泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology Institute of artificial intelligence Co.,Ltd.
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202010097148.7A priority Critical patent/CN111291898B/zh
Publication of CN111291898A publication Critical patent/CN111291898A/zh
Application granted granted Critical
Publication of CN111291898B publication Critical patent/CN111291898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提出一种多任务稀疏贝叶斯极限学习机回归方法,所述方法包括对于单隐含层神经网络的输入层至隐含层的随机特征提取、输出层权值的多任务稀疏建模及后验估计、多任务稀疏贝叶斯极限学习机参数和超参数快速优化估计等。本发明所述方法采用层次贝叶斯模型对极限学习机输出层权值进行多任务稀疏求解,在保证精度的前提下,裁剪了极限学习机的冗余隐含层神经元,得到了更为紧凑的神经网络,有效的避免了极限学习机的过拟合现象,并能使隐含层神经元个数无须预先确定。从稀疏贝叶斯学习的角度,前端的单隐含层神经网络可以使稀疏贝叶斯学习方法得以应用于非线性问题。

Description

一种多任务稀疏贝叶斯极限学习机回归方法
技术领域
本发明属于机器学习和土木工程技术领域,特别是涉及一种多任务稀疏贝叶斯极限学习机回归方法,所述方法适用于并非来自同一回归任务但却统计相关的数据。
背景技术
在数据量日趋庞大的当今时代,人工智能概念受到越来越广泛的关注。作为人工智能的核心部分,机器学习算法是赋予机器以人思考能力的部分。通过机器学习算法获得数据中隐含的函数关系,越来越普遍的使用在我们的日常生活中,解决了许多之前不能解决的问题。例如在岩土工程领域,对粘性土而言,液性指数、竖直有效应力、预固结应力、不排水抗剪强度、排水抗剪强度这五个参数之间的相关关系极为重要。如何利用实验实测数据拟合出高精度的参数回归关系公式是很有价值的科学问题。机器学习算法以其强大的逼近性能成为了这一科学问题的解决方案之一,针对实际土木工程问题,采用合适的机器学习算法加以解决,甚至从机器学习算法理论出发进行针对性的基础研究,是目前亟待开展的研究工作。
神经网络方法在几起几落后,随着近年来深度学习算法展现出的强大性能而再度受到人们关注。极限学习机作为其中较为经典的一个算法,通过单隐含层的简单结构,以最小二乘方法求解线性问题得到输出层权值,从而实现了极快的运算速度和较好的精度,并因此受到广泛关注。
但极限学习机算法中存在以下非常明显的不足:1、极限学习机通过最小二乘方法求解输出层权值向量,极易产生过拟合。2、极限学习机的性能严重依赖于隐含层神经元个数。相关理论研究已经证明,极限学习机的隐含层神经元个数足够多时,该模型可以以任意精度逼近数据点。但隐含层神经元个数的确定往往是人为的,这也是产生过拟合现象的主因。3、极限学习机一般在隐含层神经元取几百至几千时才能达到较高的精度,这将导致一个极为庞大的网络结构,其中必然存在许多冗余部分。
稀疏贝叶斯学习通过设置超参数来对待求解权值进行稀疏建模,可以得到待求解权值的后验概率分布且权值向量中大多数项均为零项。因此近几年提出的稀疏贝叶斯极限学习机将稀疏贝叶斯学习与极限学习机模型进行了结合,通过得到的稀疏输出层权值对隐含层神经元进行了裁剪,有效的缩减了神经网络规模,并且通过稀疏贝叶斯学习自动寻找训练精度和模型复杂度之间平衡点的能力,缓和了极限学习机中严重的过拟合现象,在一些数据集中取得了更优秀的结果。
从稀疏贝叶斯学习角度来说,传统稀疏贝叶斯学习由于其似然函数建模为线性函数,导致稀疏贝叶斯学习仅适用于线性问题。通过前置单层随机神经网络,即极限学习机的前端,可以将输入特征从低维映射到随机高维空间,从而解决线性不可分问题。由此可将稀疏贝叶斯学习从仅适用于线性问题推广到适用于非线性问题。
在实际问题中,我们往往拥有一些并非来自同一工况但却统计相关或并非针对同一目标而是针对若干个相关目标的数据。这些数据之间构成了多任务情景。研究如何将这些数据一起利用起来,服务于各自工况的模型训练,是非常有意义的。例如在岩土工程中,对于粘性土,可以通过液性指数、竖直有效应力两项信息分别推断预固结应力和土壤灵敏度,但考虑到预固结应力和土壤灵敏度之间具有相关关系,由此可将两个独立的单任务问题联合进行多任务学习,利用不同任务间的相关性进行学习,不仅能挖掘多余的数据信息,还可以避免针对单个任务的过拟合,提高泛化性能。基于层次稀疏贝叶斯模型的多任务学习算法已经得到了广泛的应用,如在压缩采样领域等。
目前,使用极限学习机算法进行多任务学习的例子还并不多,相关理论研究开展较少。将极限学习机及其相关算法推广到多任务情境下是亟待解决的问题。
发明内容
本发明目的是为了解决现有技术中的问题,提出了一种多任务稀疏贝叶斯极限学习机回归方法。
本发明是通过以下技术方案实现的,本发明提出一种多任务稀疏贝叶斯极限学习机回归方法,具体包括以下步骤:
步骤一、对于单隐含层神经网络,由零均值高斯分布随机生成神经网络输入层权值矩阵Φ和隐含层神经元偏置矩阵B,对全部L个任务的输入xi(i=1...L)均使用相同的Φ和B映射到高维空间Hi=f(xiΦ+B),从而构建L个任务的基函数矩阵Hi
步骤二、通过多任务稀疏贝叶斯学习方法,从L个任务的基函数矩阵Hi和L个任务的输出ti(i=1...L)中推断出L个任务共享的超参数αj,j=1...M,M为隐含层神经元个数,并得到每个任务各自的输出层权值wi的后验概率分布;
步骤三、从输出层权值wi的后验概率分布中选取合适的值作为神经网络输出层权值,一般令每个任务输出层权值wi=μi,μi为后验概率分布最大值处,在高斯分布中为均值。
进一步地,所述步骤一具体为:
步骤1.1、基于极限学习机的回归问题能够统一写为:
Figure BDA0002385851800000031
其中,wj为输出层权值,θj为与第j个隐含层节点相连输入层权值与隐含层偏置参数,对于全部M个隐含层节点Θ=[θ1,...,θM],包含了从零均值高斯分布中随机生成的神经网络输入层权值矩阵Φ和隐含层神经元的偏置矩阵B;hj(·)为激活函数,极限学习机中一般取为
Figure BDA0002385851800000032
步骤1.2、对全部L个任务,均使用相同输入层至隐含层参数Θ,即全部L个任务的输入层权值矩阵Φ和隐含层神经元偏置矩阵B均相同,仅输入xi不同;从而由不同任务中得到L个行数不同、列数相同的基函数矩阵:
Figure BDA0002385851800000033
其中,N为数据量;
步骤1.3、步骤1.1中的回归问题改写为矩阵形式:
Hw=T
对于极限学习机而言,通过求H的M-P广义逆能够求解输出层权值w;在多任务稀疏贝叶斯极限学习机中,我们通过层次贝叶斯模型对输出层权值w进行求解。
进一步地,所述步骤二具体为:
步骤2.1、对于第i个任务的输出层权值wi,其先验分布建模为零均值高斯分布:
Figure BDA0002385851800000034
其中,α0为噪声精度参数,其先验建模为Gamma分布;
p(α0|a,b)=Ga(α0|a,b)
其中,a是形状参数,b是逆尺度参数;
步骤2.2、对于第i个任务的输出层权值wi,其后验分布经推导为:
Figure BDA0002385851800000035
其中:
Figure BDA0002385851800000041
Figure BDA0002385851800000042
A=diag(α1,α2,...,αM)
步骤2.3、超参数α通过经验贝叶斯方法估计,并可得到输出层权值的后验分布μ,∑:具体为:
步骤2.3.1、初始化α:对j=1...M分别计算证据函数增量:
Figure BDA0002385851800000043
其中:
Ki=Ni+2a
si,,j=H′i,,jHi,j
qi,j=H′i,jti
gi,,j=t′iti+2b
对证据函数增量最大的神经元j,重新估计其对应的超参数αj
Figure BDA0002385851800000044
步骤2.3.2、如用j表示α发生更新的基函数序号,k表示当前已考虑的基函数序号,l表示全部基函数序号,只需进行如下步骤的循环即可求解参数和超参数α,μ,∑:
(1)通过αj可计算出每个任务的μi,∑i,Si,l,Qi,l,Gi
(2)通过以下公式计算判别式θj
Figure BDA0002385851800000045
Figure BDA0002385851800000046
Figure BDA0002385851800000047
Figure BDA0002385851800000048
si,j=αjSi,j/(αj-Si,j)
qi,j=αjQi,j/(αj-Si,j)
Figure BDA0002385851800000051
Figure BDA0002385851800000052
θj大于0的基函数保留在模型中,θj小于0的基函数从模型中剔除,由此形成三种状态:增添基函数、删除基函数、重新估计基函数。对应三种状态分别求出证据函数的增量,选择增量最大的方案对αj进行修改,即令
Figure BDA0002385851800000053
表示更新后的超参数αj,重复上述过程进行循环;
对于增添基函数、删除基函数和重新估计基函数,下面给出αj更新后证据函数增量及μi,∑i,Si,l,Qi,l,Gi的计算方法,对于多任务情况,总的证据函数增量只需对所有任务的证据函数增量进行求和即可;
a.增添基函数
通过以下公式计算
Figure BDA00023858518000000513
μi,∑i,Si,l,Qi,l,Gi
Figure BDA0002385851800000054
Figure BDA0002385851800000055
Figure BDA0002385851800000056
Figure BDA0002385851800000057
Figure BDA0002385851800000058
Figure BDA0002385851800000059
其中,∑i,jj=(αi,j+Si,j)-1,μi,j=∑i,jjQi,j,ei,j=Hi,j-HiiH'iHi,j
b.重新估计基函数
通过以下公式计算
Figure BDA00023858518000000512
μi,∑i,Si,l,Qi,l,Gi
Figure BDA00023858518000000510
Figure BDA00023858518000000511
Figure BDA0002385851800000061
Figure BDA0002385851800000062
Figure BDA0002385851800000063
Figure BDA0002385851800000064
其中,∑i,k是∑i的第k列,
Figure BDA0002385851800000065
c.删除基函数
通过以下公式计算
Figure BDA0002385851800000066
μi,∑i,Si,l,Qi,l,Gi
Figure BDA0002385851800000067
Figure BDA0002385851800000068
Figure BDA0002385851800000069
Figure BDA00023858518000000610
Figure BDA00023858518000000611
Figure BDA00023858518000000612
步骤2.4、当证据函数增量小于阈值时,结束循环,得到单隐含层神经网络输出层权值的后验概率分布均值μi,令每个任务的输出层权值wi=μi即可,得到的每个任务的输出层权值wi为高度稀疏的,且对于所有任务,wi中非零项出现在相同位置。
本发明的有益效果为:
1.本发明所述多任务稀疏贝叶斯极限学习机可以在多任务情境下取得相比于极限学习机和稀疏贝叶斯极限学习机更高的预测精度。
2.本发明有效的缓解了极限学习机中的过拟合问题。
3.本发明得到的最终神经网络架构节点个数极少,形式紧凑。
4.本发明将稀疏贝叶斯学习的适用范围从线性问题推广为非线性问题。
附图说明
图1为本发明所述多任务稀疏贝叶斯极限学习机回归方法的操作流程图;
图2为本发明中稀疏贝叶斯极限学习机的示意图;
图3为本发明针对统计相关的模拟数据集进行多任务回归的结果对比图;其中(a)为任务1,(b)为任务2,(c)为任务3,(d)为任务4,(e)为任务5;
图4为本发明针对模拟数据集的多任务稀疏贝叶斯极限学习机预测结果图;其中(a)为任务1,(b)为任务2,(c)为任务3,(d)为任务4,(e)为任务5;
图5为本发明针对岩土工程实际数据集进行多任务回归的结果对比图;其中(a)为任务1,(b)为任务2;
图6为本发明针对岩土工程实际数据集的多任务稀疏贝叶斯极限学习机预测结果图;其中(a)为任务1,(b)为任务2。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是为了解决现有稀疏贝叶斯极限学习机无法在多任务情境下实现数据交互从而充分利用数据的问题,而提出的一种多任务稀疏贝叶斯极限学习机回归方法。适用于多组数据之间统计相关的多任务回归问题。本方法可应用于岩土工程等方向的回归问题中。
结合图1,本发明提出一种多任务稀疏贝叶斯极限学习机回归方法,具体包括以下步骤:
步骤一、对于单隐含层神经网络,由零均值高斯分布随机生成神经网络输入层权值矩阵Φ和隐含层神经元偏置矩阵B,对全部L个任务的输入xi(i=1...L)均使用相同的Φ和B映射到高维空间Hi=f(xiΦ+B),从而构建L个任务的基函数矩阵Hi
步骤二、通过多任务稀疏贝叶斯学习方法,从L个任务的基函数矩阵Hi和L个任务的输出ti(i=1...L)中推断出L个任务共享的超参数αj(j=1...M,M为隐含层神经元个数),并得到每个任务各自的输出层权值wi的后验概率分布。
步骤三、从输出层权值wi的后验概率分布中选取合适的值作为神经网络输出层权值,一般令每个任务输出层权重wi=μi,μi为后验概率分布最大值处,在高斯分布中为均值。
所述步骤一具体为:
步骤1.1、基于极限学习机的回归问题可以统一写为:
Figure BDA0002385851800000081
其中,wj为输出层权值,θj为与第j个隐含层节点相连输入层权值与隐含层偏置参数,对于全部M个隐含层节点Θ=[θ1,...,θM],包含了从零均值高斯分布中随机生成的神经网络输入层权值矩阵Φ和隐含层神经元的偏置矩阵B。hj(·)为激活函数,极限学习机中一般取为
Figure BDA0002385851800000082
步骤1.2、对全部L个任务,均使用相同输入层至隐含层参数Θ,即全部L个任务的输入层权值矩阵Φ和隐含层神经元偏置矩阵B均相同,仅输入xi不同。从而由不同任务中得到L个行数可不同、列数相同的基函数矩阵:
Figure BDA0002385851800000083
其中,N为数据量。
步骤1.3、步骤1.1中的回归问题可改写为矩阵形式:
Hw=T
对于极限学习机而言,一般通过求H的M-P广义逆从而求解输出层权值w。在多任务稀疏贝叶斯极限学习机中,我们通过层次贝叶斯模型对输出层权值w进行求解。
所述步骤二具体为:
步骤2.1、对于第i个任务的输出层权重wi,其先验分布建模为零均值高斯分布:
Figure BDA0002385851800000084
其中,α0为噪声精度参数,其先验建模为Gamma分布。
p(α0|a,b)=Ga(α0|a,b)
其中,a是形状参数,b是逆尺度参数;
步骤2.2、对于第i个任务的输出层权重wi,其后验分布经推导为:
Figure BDA0002385851800000085
Figure BDA0002385851800000091
其中:
Figure BDA0002385851800000092
Figure BDA0002385851800000093
A=diag(α1,α2,...,αM)
步骤2.3、超参数α通过经验贝叶斯方法估计,并可得到输出层权值的后验分布μ,∑:具体为:
步骤2.3.1、初始化α:对j=1...M分别计算证据函数增量:
Figure BDA0002385851800000094
其中:
Ki=Ni+2a
si,j=H′i,jHi,j
qi,j=H′i,jti
gi,j=t′iti+2b
对证据函数增量最大的神经元j,重新估计其对应的超参数αj
Figure BDA0002385851800000095
步骤2.3.2、如用j表示α发生更新的基函数序号,k表示当前已考虑的基函数序号,l表示全部基函数序号,只需进行如下步骤的循环即可求解参数和超参数α,μ,∑:
(1)通过αj可计算出每个任务的μi,∑i,Si,l,Qi,l,Gi
(2)通过以下公式计算判别式θj
Figure BDA0002385851800000096
Figure BDA0002385851800000097
Figure BDA0002385851800000098
Figure BDA0002385851800000101
si,j=αjSi,j/(αj-Si,j)
qi,j=αjQi,j/(αj-Si,j)
Figure BDA0002385851800000102
Figure BDA0002385851800000103
θj大于0的基函数应该保留在模型中,θj小于0的基函数应从模型中剔除,由此形成三种状态:增添基函数、删除基函数、重新估计基函数。对应三种状态分别求出证据函数的增量,选择增量最大的方案进行对αj进行修改,即令
Figure BDA0002385851800000104
表示更新后的超参数αj,重复上述过程进行循环。
对于增添基函数、删除基函数、重新估计基函数,下面给出αj更新后证据函数增量及μi,∑i,Si,l,Qi,l,Gi的计算方法,对于多任务情况,总的证据函数增量只需对所有任务的证据函数增量进行求和即可。
a.增添基函数
通过以下公式计算
Figure BDA0002385851800000105
μi,∑i,Si,l,Qi,l,Gi
Figure BDA0002385851800000106
Figure BDA0002385851800000107
Figure BDA0002385851800000108
Figure BDA0002385851800000109
Figure BDA00023858518000001010
Figure BDA00023858518000001011
其中,∑i,jj=(αi,j+Si,j)-1,μi,j=∑i,jjQi,j,ei,j=Hi,j-HiiH′iHi,,j
b.重新估计基函数
通过以下公式计算
Figure BDA0002385851800000111
μi,∑i,Si,l,Qi,l,Gi
Figure BDA0002385851800000112
Figure BDA0002385851800000113
Figure BDA0002385851800000114
Figure BDA0002385851800000115
Figure BDA0002385851800000116
Figure BDA0002385851800000117
其中,∑i,k是∑i的第k列,
Figure BDA0002385851800000118
c.删除基函数
通过以下公式计算
Figure BDA0002385851800000119
μi,∑i,Si,l,Qi,l,Gi
Figure BDA00023858518000001110
Figure BDA00023858518000001111
Figure BDA00023858518000001112
Figure BDA00023858518000001113
Figure BDA00023858518000001114
Figure BDA00023858518000001115
步骤2.4、当证据函数增量小于阈值时,结束循环,得到单隐含层神经网络输出层权值的后验概率分布均值μi,令每个任务的输出层权值wi=μi即可。得到的每个任务的输出层权值wi为高度稀疏的,且对于所有任务,wi中非零项出现在相同位置。
实施例
本实施方式是将本发明应用于岩土工程中针对粘性土的参数关系回归问题。图1给出了本发明所述方法的流程图。图2给出了本发明中稀疏贝叶斯极限学习机的神经网络架构和求解模式。图3、图4给出了模拟数据集中本发明应用优势及应用效果。
针对ISSMGE-TC304数据库中CLAY数据集,以粘性土的液性指数、竖向有效应力、预固结应力、不排水抗剪强度、排水抗剪强度五个物理量为对象,研究参数之间的回归关系如下:
所述步骤一具体为:对于任务1,以液性指数、竖向有效应力为输入,土壤灵敏度的对数值为输出。对于任务2,以液性指数、竖向有效应力为输入,预固结应力的对数值为输出。两个任务隐含层神经元个数均设置为100,输入层权值和隐含层偏置均由标准正态分布中随机抽取,针对两个任务分别构建基函数矩阵。
所述步骤二具体为:使用多任务稀疏贝叶斯学习机在训练集上对两个任务的基函数矩阵和对应输出进行联合求解,推断出L个任务共享的超参数αj(j=1...M,M为隐含层神经元个数,这里为100),并得到每个任务各自的输出层权值wi的后验概率分布。
所述步骤三具体为:对于该回归问题,输出层权值的后验分布为高斯分布,取最大后验估计对应值为高斯分布均值。得到输出层权值,针对此问题非0的输出层权值仅为10个,证明大部分隐含层特征对回归问题无贡献。由训练集获得的输出层权重与随机抽取的输入层权值和隐含层偏置共同用于对测试集进行预测。多任务稀疏贝叶斯极限学习机、稀疏贝叶斯极限学习机、极限学习机三种方法的预测精度对比如图5所示,结果证明了多任务稀疏贝叶斯极限学习机的性能优势。多任务稀疏贝叶斯极限学习机的预测效果如图6所示。
以上对本发明所提出的一种多任务稀疏贝叶斯极限学习机回归方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (3)

1.一种多任务稀疏贝叶斯极限学习机回归方法,其特征在于:具体包括以下步骤:
步骤一、对于单隐含层神经网络,由零均值高斯分布随机生成神经网络输入层权值矩阵Φ和隐含层神经元偏置矩阵B,对全部L个任务的输入xi(i=1...L)均使用相同的Φ和B映射到高维空间Hi=f(xiΦ+B),从而构建L个任务的基函数矩阵Hi
步骤二、通过多任务稀疏贝叶斯学习方法,从L个任务的基函数矩阵Hi和L个任务的输出ti(i=1...L)中推断出L个任务共享的超参数αj,j=1...M,M为隐含层神经元个数,并得到每个任务各自的输出层权值wi的后验概率分布;
步骤三、从输出层权值wi的后验概率分布中选取合适的值作为神经网络输出层权值,令每个任务输出层权值wi=μi,μi为后验概率分布最大值处,在高斯分布中为均值。
2.根据权利要求1所述的方法,其特征在于:所述步骤一具体为:
步骤1.1、基于极限学习机的回归问题能够统一写为:
Figure FDA0002385851790000011
其中,wj为输出层权值,θj为与第j个隐含层节点相连输入层权值与隐含层偏置参数,对于全部M个隐含层节点Θ=[θ1,...,θM],包含了从零均值高斯分布中随机生成的神经网络输入层权值矩阵Φ和隐含层神经元的偏置矩阵B;hj(.)为激活函数,极限学习机中取为
Figure FDA0002385851790000012
步骤1.2、对全部L个任务,均使用相同输入层至隐含层参数Θ,即全部L个任务的输入层权值矩阵Φ和隐含层神经元偏置矩阵B均相同,仅输入xi不同,从而由不同任务中得到L个行数不同、列数相同的基函数矩阵:
Figure FDA0002385851790000013
其中,N为数据量;
步骤1.3、步骤1.1中的回归问题改写为矩阵形式:
Hw=T
对于极限学习机而言,通过求H的M-P广义逆能够求解输出层权值w;在多任务稀疏贝叶斯极限学习机中,通过层次贝叶斯模型对输出层权值w进行求解。
3.根据权利要求1所述的方法,其特征在于:所述步骤二具体为:
步骤2.1、对于第i个任务的输出层权值wi,其先验分布建模为零均值高斯分布:
Figure FDA0002385851790000021
其中,α0为噪声精度参数,其先验建模为Gamma分布:
p(α0|a,b)=Ga(α0|a,b)
其中,a是形状参数,b是逆尺度参数;
步骤2.2、对于第i个任务的输出层权值wi,其后验分布经推导为:
Figure FDA0002385851790000022
其中:
Figure FDA0002385851790000023
Figure FDA0002385851790000024
A=diag(α1,α2,...,αM)
步骤2.3、超参数α通过经验贝叶斯方法估计,并可得到输出层权值的后验分布μ,∑:具体为:
步骤2.3.1、初始化α:对j=1...M分别计算证据函数增量:
Figure FDA0002385851790000025
其中:
Ki=Ni+2a
si,j=H′i,jHi,j
qi,j=H′i,jti
gi,j=t′iti+2b
对证据函数增量最大的神经元j,重新估计其对应的超参数αj
Figure FDA0002385851790000026
步骤2.3.2、如用j表示α发生更新的基函数序号,k表示当前已考虑的基函数序号,l表示全部基函数序号,只需进行如下步骤的循环即可求解参数和超参数α,μ,∑:
(1)通过αj计算出每个任务的μi,∑i,Si,l,Qi,l,Gi
(2)通过以下公式计算判别式θj
Figure FDA0002385851790000031
Figure FDA0002385851790000032
Figure FDA0002385851790000033
Figure FDA0002385851790000034
si,j=αjSi,j/(αj-Si,j)
qi,j=αjQi,j/(αj-Si,j)
Figure FDA0002385851790000035
Figure FDA0002385851790000036
θj大于0的基函数保留在模型中,θj小于0的基函数从模型中剔除,由此形成三种状态:增添基函数、删除基函数、重新估计基函数;对应三种状态分别求出证据函数的增量,选择增量最大的方案对αj进行修改,即令
Figure FDA0002385851790000037
表示更新后的超参数αj,重复上述过程进行循环;
对于增添基函数、删除基函数和重新估计基函数,下面给出αj更新后证据函数增量及μi,∑i,Si,l,Qi,l,Gi的计算方法,对于多任务情况,总的证据函数增量只需对所有任务的证据函数增量进行求和即可;
a.增添基函数
通过以下公式计算
Figure FDA00023858517900000311
μi,∑i,Si,l,Qi,l,Gi
Figure FDA0002385851790000038
Figure FDA0002385851790000039
Figure FDA00023858517900000310
Figure FDA0002385851790000041
Figure FDA0002385851790000042
Figure FDA0002385851790000043
其中,∑i,jj=(αi,j+Si,j)-1,μi,j=∑i,jjQi,j,ei,j=Hi,j-HiiH′iHi,j
b.重新估计基函数
通过以下公式计算
Figure FDA00023858517900000416
μi,∑i,Si,l,Qi,l,Gi
Figure FDA0002385851790000044
Figure FDA0002385851790000045
Figure FDA0002385851790000046
Figure FDA0002385851790000047
Figure FDA0002385851790000048
Figure FDA0002385851790000049
其中,∑i,k是∑i的第k列,
Figure FDA00023858517900000410
c.删除基函数
通过以下公式计算
Figure FDA00023858517900000417
μi,∑i,Si,l,Qi,l,Gi
Figure FDA00023858517900000411
Figure FDA00023858517900000412
Figure FDA00023858517900000413
Figure FDA00023858517900000414
Figure FDA00023858517900000415
Figure FDA0002385851790000051
步骤2.4、当证据函数增量小于阈值时,结束循环,得到单隐含层神经网络输出层权值的后验概率分布均值μi,令每个任务的输出层权值wi=μi即可,得到的每个任务的输出层权值wi为高度稀疏的,且对于所有任务,wi中非零项出现在相同位置。
CN202010097148.7A 2020-02-17 2020-02-17 一种多任务稀疏贝叶斯极限学习机回归方法 Active CN111291898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010097148.7A CN111291898B (zh) 2020-02-17 2020-02-17 一种多任务稀疏贝叶斯极限学习机回归方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010097148.7A CN111291898B (zh) 2020-02-17 2020-02-17 一种多任务稀疏贝叶斯极限学习机回归方法

Publications (2)

Publication Number Publication Date
CN111291898A true CN111291898A (zh) 2020-06-16
CN111291898B CN111291898B (zh) 2020-12-11

Family

ID=71024435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010097148.7A Active CN111291898B (zh) 2020-02-17 2020-02-17 一种多任务稀疏贝叶斯极限学习机回归方法

Country Status (1)

Country Link
CN (1) CN111291898B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231204A1 (zh) * 2022-06-02 2023-12-07 苏州大学 一种基于 ics-bp 神经网络的传感器物理量回归方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103245570A (zh) * 2013-04-24 2013-08-14 中国水电顾问集团华东勘测设计研究院 十字板原位测试获取土体抗剪强度参数的方法
CN103559337A (zh) * 2013-10-18 2014-02-05 中冶集团武汉勘察研究院有限公司 一种基于线性回归建立细粒尾矿工程性质指标估算经验公式的方法
CN103589407A (zh) * 2013-12-09 2014-02-19 克拉玛依市金鑫科技有限公司 低表面张力无固相储层保护钻井液
CN104182622A (zh) * 2014-08-12 2014-12-03 大连海事大学 基于极限学习机的隧道施工中的反馈分析方法及其装置
CN106933585A (zh) * 2017-03-07 2017-07-07 吉林大学 一种分布式云环境下的自适应多通道界面选择方法
CN108008385A (zh) * 2017-11-20 2018-05-08 西安电子科技大学 基于稀疏贝叶斯学习的干扰环境isar高分辨成像方法
CN108846411A (zh) * 2018-05-03 2018-11-20 武汉理工大学 基于配对稀疏贝叶斯极限学习机的主减速器故障诊断方法
US20190042952A1 (en) * 2017-08-03 2019-02-07 Beijing University Of Technology Multi-task Semi-Supervised Online Sequential Extreme Learning Method for Emotion Judgment of User
CN109470580A (zh) * 2018-09-26 2019-03-15 中国石油天然气集团公司 一种评价我国不同海域粘性土强度参数的方法
CN109577972A (zh) * 2018-12-21 2019-04-05 西南石油大学 基于岩性分类的砂砾岩储层岩石力学参数测井评价方法
CN110308483A (zh) * 2019-05-23 2019-10-08 中国石油天然气股份有限公司 基于多任务贝叶斯压缩感知的反射系数求取方法及装置
US20190339688A1 (en) * 2016-05-09 2019-11-07 Strong Force Iot Portfolio 2016, Llc Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103245570A (zh) * 2013-04-24 2013-08-14 中国水电顾问集团华东勘测设计研究院 十字板原位测试获取土体抗剪强度参数的方法
CN103559337A (zh) * 2013-10-18 2014-02-05 中冶集团武汉勘察研究院有限公司 一种基于线性回归建立细粒尾矿工程性质指标估算经验公式的方法
CN103589407A (zh) * 2013-12-09 2014-02-19 克拉玛依市金鑫科技有限公司 低表面张力无固相储层保护钻井液
CN104182622A (zh) * 2014-08-12 2014-12-03 大连海事大学 基于极限学习机的隧道施工中的反馈分析方法及其装置
US20190339688A1 (en) * 2016-05-09 2019-11-07 Strong Force Iot Portfolio 2016, Llc Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things
CN106933585A (zh) * 2017-03-07 2017-07-07 吉林大学 一种分布式云环境下的自适应多通道界面选择方法
US20190042952A1 (en) * 2017-08-03 2019-02-07 Beijing University Of Technology Multi-task Semi-Supervised Online Sequential Extreme Learning Method for Emotion Judgment of User
CN108008385A (zh) * 2017-11-20 2018-05-08 西安电子科技大学 基于稀疏贝叶斯学习的干扰环境isar高分辨成像方法
CN108846411A (zh) * 2018-05-03 2018-11-20 武汉理工大学 基于配对稀疏贝叶斯极限学习机的主减速器故障诊断方法
CN109470580A (zh) * 2018-09-26 2019-03-15 中国石油天然气集团公司 一种评价我国不同海域粘性土强度参数的方法
CN109577972A (zh) * 2018-12-21 2019-04-05 西南石油大学 基于岩性分类的砂砾岩储层岩石力学参数测井评价方法
CN110308483A (zh) * 2019-05-23 2019-10-08 中国石油天然气股份有限公司 基于多任务贝叶斯压缩感知的反射系数求取方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIN, Y等: ""Multi-task clustering ELM for VIS-NIR cross-modal feature learning"", 《MULTIDIM SYST SIGN PROCESS 28》 *
KEELIN GREENLAW等: ""A Bayesian group sparse multi-task regression model for imaging genetics"", 《 DISEASE NEUROIMAGING INITIATIVE》 *
周勇: ""基于Storm的在线序列极限学习机的降雨量预测研究"", 《中国优秀硕士学位论文全文数据库 基础科学辑》 *
谈斐祺 等: ""基于稀疏性贝叶斯极限学习机的气动调节阀多类故障诊断"", 《上海应用技术学院学报(自然科学版)》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231204A1 (zh) * 2022-06-02 2023-12-07 苏州大学 一种基于 ics-bp 神经网络的传感器物理量回归方法

Also Published As

Publication number Publication date
CN111291898B (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
Mansor et al. Accelerating activation function for 3-satisfiability logic programming
Rahman et al. Fuzzy neural network models for liquefaction prediction
CN105335619A (zh) 适用于高计算代价数值计算模型参数反分析的协同优化法
Pramanik et al. Rt-gsom: rough tolerance growing self-organizing map
Ma et al. A combined data-driven and physics-driven method for steady heat conduction prediction using deep convolutional neural networks
Stach et al. Parallel learning of large fuzzy cognitive maps
Yang et al. Generative ensemble regression: Learning particle dynamics from observations of ensembles with physics-informed deep generative models
CN110633417B (zh) 一种基于服务质量的web服务推荐的方法及系统
Liu et al. EACP: An effective automatic channel pruning for neural networks
CN111291898B (zh) 一种多任务稀疏贝叶斯极限学习机回归方法
Vasechkina et al. Evolving polynomial neural network by means of genetic algorithm: some application examples
Wu et al. wpScalable Quantum Neural Networks for Classification
Wen et al. MapReduce-based BP neural network classification of aquaculture water quality
Cui et al. Extreme learning machine based on cross entropy
Wang et al. Sophisticated electromagnetic scattering solver based on deep learning
Wu et al. Disentangled multi-fidelity deep bayesian active learning
Pang et al. Fault diagnosis method based on KPCA and selective neural network ensemble
Albi et al. Kinetic based optimization enhanced by genetic dynamics
Bal et al. JMASM 55: MATLAB Algorithms and Source Codes of'cbnet'Function for Univariate Time Series Modeling with Neural Networks (MATLAB)
Niu et al. Neural architecture search based on particle swarm optimization
Guldas et al. A practical introduction to butterfly and adaptive resampling in sequential monte carlo
Kang et al. A hybrid training algorithm for recurrent neural network using particle swarm optimization-based preprocessing and temporal error aggregation
Tripathi et al. Granular F-transform and its application
Jin et al. Optimal Estimation of Entangled States in Classical Quantum Simulator
Chu et al. Least Angle Regression Adaptive Incremental Broad Learning System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210408

Address after: Room 206-10, building 16, 1616 Chuangxin Road, Songbei District, Harbin City, Heilongjiang Province

Patentee after: Harbin jizuo technology partnership (L.P.)

Patentee after: Harbin Institute of Technology Asset Management Co.,Ltd.

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: HARBIN INSTITUTE OF TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210611

Address after: Room 206-12, building 16, 1616 Chuangxin Road, Songbei District, Harbin City, Heilongjiang Province

Patentee after: Harbin Institute of Technology Institute of artificial intelligence Co.,Ltd.

Address before: Room 206-10, building 16, 1616 Chuangxin Road, Songbei District, Harbin City, Heilongjiang Province

Patentee before: Harbin jizuo technology partnership (L.P.)

Patentee before: Harbin Institute of Technology Asset Management Co.,Ltd.