CN111597757A - 基于多目标加点准则的gp模型辅助slpso算法 - Google Patents
基于多目标加点准则的gp模型辅助slpso算法 Download PDFInfo
- Publication number
- CN111597757A CN111597757A CN202010399983.6A CN202010399983A CN111597757A CN 111597757 A CN111597757 A CN 111597757A CN 202010399983 A CN202010399983 A CN 202010399983A CN 111597757 A CN111597757 A CN 111597757A
- Authority
- CN
- China
- Prior art keywords
- model
- slpso
- criterion
- individual
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 147
- 238000005457 optimization Methods 0.000 claims abstract description 84
- 238000000034 method Methods 0.000 claims abstract description 73
- 230000008569 process Effects 0.000 claims abstract description 38
- 239000002245 particle Substances 0.000 claims abstract description 22
- 230000009326 social learning Effects 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 149
- 230000003044 adaptive effect Effects 0.000 claims description 16
- 230000008901 benefit Effects 0.000 claims description 16
- 238000013461 design Methods 0.000 claims description 7
- 230000013016 learning Effects 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 14
- 230000006978 adaptation Effects 0.000 description 12
- 239000003795 chemical substances by application Substances 0.000 description 11
- 238000010276 construction Methods 0.000 description 11
- 239000000523 sample Substances 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 238000004088 simulation Methods 0.000 description 7
- 238000013178 mathematical model Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000692 Student's t-test Methods 0.000 description 3
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 238000005553 drilling Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000002028 premature Effects 0.000 description 3
- 238000012353 t test Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 240000005561 Musa balbisiana Species 0.000 description 1
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 235000019988 mead Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了基于多目标加点准则的GP模型辅助SLPSO算法,包括以下步骤:S1:选取社会学习粒子群算法;S2:建立高斯过程模型;S3:建立基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法;S4:利用MGP‑SLPSO对基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法的实验结果分析;解决了工程应用中更高维的复杂优化的问题。
Description
技术领域
本发明涉及基于多目标加点准则算法领域,特别是基于多目标加点准则的GP模型辅助 SLPSO算法。
背景技术
随着工程应用中问题维度的增高,样本更加稀疏,此时,代理模型辅助的优化算法因适应值估计的误差增大而很难应应用于30维以上的问题。因高斯过程(GP)模型在给出预测值的同时能够给出该预测值不确定性度量的独特优势,本申请选取高斯过程模型为代理模型,尝试解决工程应用中更高维的复杂优化问题。
除代理模型的选取之外,模型管理(也称为加点准则),即选择出哪些候选解使用昂贵的真实目标函数进行实际计算的策略,对于代理模型辅助进化算法的成功也至关重要。目前, GP模型通常被用于解决30维以下的复杂优化问题,目前常用的加点准则也仅限应用于低维问题。GP模型很难应用于高维优化问题的主要原因在于以下两点:第一,“维数灾难”问题。对于拥有30个以上决策变量的中高维度优化问题,GP模型的精度急剧下降,优化效率由此降低,同时,在高维小样本情况下难以构建GP模型,且构建模型本身所耗费的时间会随着维数的增加而指数级上涨。第二,由于在高维问题上样本过于稀疏,预测性能变差,对于不同候选解预测值的不确定性度量值也失去了显著性差异,致使常用的加点准则不再适用。
本发明主要从代理模型构建和模型管理两个角度出发,选择更适合高维复杂优化问题的 GP模型构建方法并针对常用加点准则在高维问题上的失效问题,提出了多目标加点准则。以在高维问题上具有寻优优势的社会学习粒子群算法(Social Learning PSO,SLPSO)作为基本算法,并将GP模型辅助的社会学习辅助粒子群算法扩展至解决100维的高维优化问题。
发明内容
为解决现有技术中存在的问题,本发明提供了基于多目标加点准则的GP模型辅助SLPSO算法,解决了工程应用中更高维的复杂优化的问题。
本发明采用的技术方案是,基于多目标加点准则的GP模型辅助SLPSO算法,包括以下步骤:
S1:选取社会学习粒子群算法;
S2:建立高斯过程模型;
S3:建立基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法;
S4:利用MGP-SLPSO对基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法的实验结果分析。
本发明基于多目标加点准则的GP模型辅助SLPSO算法的有益效果如下:
1.本发明从代理模型构建和模型管理两个角度出发,选择更适合高维复杂优化问题的GP 模型构建方法并针对常用加点准则在高维问题上的失效问题,提出了多目标加点准则。
2.在高维问题上具有寻优优势的社会学习粒子群算法作为基本算法,并将GP模型辅助的社会学习辅助粒子群算法扩展至解决100维的高维优化的问题。
附图说明
图1为本发明基于多目标加点准则的GP模型辅助SLPSO算法的GP模型构建过程图。
图2为本发明基于多目标加点准则的GP模型辅助SLPSO算法的五个基准问题的对比算法的收敛曲线图。
图3为本发明基于多目标加点准则的GP模型辅助SLPSO算法的预测10维的Rosenbrock函数所得的ESD值图。
图4为本发明基于多目标加点准则的GP模型辅助SLPSO算法预测50维的Rosenbrock 函数所得的ESD值图。
图5为本发明基于多目标加点准则的GP模型辅助SLPSO算法的MGP-SLPSO算法流程图。
图6为本发明基于多目标加点准则的GP模型辅助SLPSO算法的30维F1-F3收敛图。
图7为本发明基于多目标加点准则的GP模型辅助SLPSO算法的50维F1-F3收敛图。
图8为本发明基于多目标加点准则的GP模型辅助SLPSO算法的根据预测适应值和预测标准差作为两目标进行非支配排序的图解。
图9为本发明基于多目标加点准则的GP模型辅助SLPSO算法的10维Rosenbrock函数的预测适应值和预测标准差的非支配排序。
图10为本发明基于多目标加点准则的GP模型辅助SLPSO算法50维Rosenbrock函数的预测适应值和预测标准差的非支配排序。
图11为本发明基于多目标加点准则的GP模型辅助SLPSO算法的50维F1-F4收敛图。
图12为本发明基于多目标加点准则的GP模型辅助SLPSO算法100维F1-F4收敛图。
图13为本发明基于多目标加点准则的GP模型辅助SLPSO算法MIC中不同目标组合的实验结果图。
图14为本发明基于多目标加点准则的GP模型辅助SLPSO算法的复合实际问题的函数收敛图。
图15为本发明基于多目标加点准则的GP模型辅助SLPSO算法的结构图。
图16为本发明基于多目标加点准则的GP模型辅助SLPSO算法的2维Ellipsoid函数形态图。
图17为本发明基于多目标加点准则的GP模型辅助SLPSO算法的2维Rosenbrock函数形态图。
图18为本发明基于多目标加点准则的GP模型辅助SLPSO算法的2维Ackley函数形态图。
图19为本发明基于多目标加点准则的GP模型辅助SLPSO算法的2维Griewank函数形态图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
1.社会学习粒子群算法
与其他进化算法相比,其优点在于拥有较快的收敛速度,但在某些复杂问题上容易陷入局部最优。因此,为了防止算法早熟,近年来提出了多种改进的PSO算法,如综合学习PSO、基于距离的本地通知PSO、社会学习PSO等。其中社会学习PSO(Social LearningParticle Swarm Optimization,SLPSO)因其在高维问题上的优势,已作为基本算法已被成功的用于代理模型辅助优化算法处理高维费时优化问题。正如和中提到的,SLPSO算法与标准PSO算法相比,具有不易早熟且寻优能力强的优点,在高维乃至大规模优化问题上具有显著优势。因此,为更好的处理高维优化问题,选取SLPSO作为基本算法,用于多目标加点准则驱动的高斯过程模型辅助SLPSO。SLPSO与标准PSO的主要区别在于,在学习过程中,SLPSO并没有向全局最优个体Gbest和个体历史最优个体Pbest学习,而是在每一代将种群中的个体将按照其适应值的优劣排序,假设种群数为m,对于最小化问题,即为按适应值降序排序,当前最优个体为当前适应值最小的个体,排在最后一位,其位置为xm,所有个体(除了当前最优个体m外)将从当前种群中随机选择的一个优于当前个体适应值的个体k(称为示范个体)学习。
具体来说,在t+1代时,第j个个体的位置更新公式如下:
其中,1≤j<m,个体k为随机选择出的示范者,其适应值优于个体j即j<k≤m,xkd(t) 代表在t代中个体k在第d维上的取值,且1≤d≤D,D为决策空间维数。
值得注意的是,在第t+1代时,个体j其示范个体k并不局限为一个,在不同维上的元素会向不同的示范个体学习,即每一维上都会重新随机选择示范个体k,只要满足j<k≤m即可。是一个学习概率因子与个体j的适应值大小成反比,pj(t)是针对个体j的随机生成概率。r1,r2及r3为[0,1]范围内的随机数,当前种群在第d维上的平均位置,ε是社会影响因子用于控制的影响。
2.高斯过程模型
高斯过程模型通过在函数空间进行贝叶斯推理,将未知函数值y看成是一个静态随机过程的具体实现:
y=μ(x)+ε(x) (3)
其中,μ被称为均值函数或基函数,通常为多项式函数,代表y的数学期望,εN(0,σ2) 为均值为0,方差为σ2的静态随机过程。构建GP模型的主要步骤如图1所示。
给定一个训练集DB={(xi,yi)|i=1,…,n},其中xi表示D维决策空间中的第i个样本点, y为其对应的目标函数值。所有n个样本点集合为D×n的设计矩阵X,X=(x1,...,xn),对应的目标函数值为y,其先验分布为y~N(0,K+σ2I),I为单位矩阵。则决策空间中任一未知点x对应的目标函数预测值与y的联合先验分布为:
式中,K为协方差函数矩阵,矩阵中的每一个元素为Kij=C(xi,xj),用于描述第i个样本点xi与第j个样本点xj之间的相关性。通常两点间距离越小其相关性越大,反之,相关性越小。k(x)=[C(x,x1),…C(x,xn)]T为一个n×1的协方差函数矩阵用于描述预测点x与样本集X之间的相关性。κ(x)=C(x,x)为预测点x的自相关矩阵。协方差函数C(·,·)可以是任何能够生成半正定协方差矩阵的函数。表1列出了协方差函数C(,)的部分常用表达式,协方差函数的选取会直接影响GP模型对原函数的拟合效果,因此,选择合适的协方差函数为构建高质量GP 模型的关键因素。
结合贝叶斯推理及极大似然估计可得,x对应的目标函数的均值μ及σ的估算值为下式所示:
2.1协方差函数
表1列出了5种常用的协方差函数,均具有平稳且非退化的函数特点,函数公式中,σf及σl均大于0,σf为信号标准差参数,σl为特征长度尺度,信号标准差σf用于定义协方差函数的可微性,特征长度尺度σl用于定义各种输入之间的相关性。为任意两点间的欧式距离度量,α是正值比例混合参数。其中,高斯函数为目前高斯过程辅助进化算法中最常使用的。高斯函数对于一些复杂问题的建模过于平滑,建议在优化复杂问题时使用Matérn函数。因此,本申请选用机器学习应用中最常用的两种Matérn函数:Matérn32及Matérn52函数,在2.3节与其他协方差函数进行性能比较。
表1基于标准超参数定义的5个协方差函数列表
2.2超函数定义及优化
以上表1的平稳协方差函数都有含有超参数θ,该表中的超参数定义方法为标准定义方法θ=(θ1,θ2)为2维向量,其中,θ1=logσl,θ2=logσf。另一种常用的超参数定义方法为自动相关确定方法(automatic relevance determination,简称ARD),θ=(θ1,θ2,....,θ(D+1))为D+1 维向量。在D维的决策空间中,为便于理解样本点不同维度上的相关性,在每个维上设定单独的长度尺度参数θd,d=1,2,…,D,即θ的前D维元素为θd=logσd,d=1,2,…,D,第D+1 维元素为θD+1=logσf。由此,基于ARD超参数的函数公式如表2所示。
表2基于ARD超参数定义的5个协方差函数列表
自动相关确定(ARD)超参数定义方法应用于10维以下的低维问题上,该方法的提出确实使得GP模型拥有更好的拟合精度。但通过表2与表1的协方差函数公式比较易见,ARD超参数定义方法比标准超参数定义方法要多出D-1个参数,虽然使用更多的参数可以提高低维模型的预测精度,但在实践中,超参数寻优本身也是一个难优化问题,尤其在维度较高而样本量较小的情况下,很难快速得到这些参数较优值。复杂的超参数的优化过程也提高了构建GP模型(Kriging)的计算代价。
超参数的值通过最大似然估计化获得。首先,建立训练样本条件概率的负对数似然函数:
然后对上式的超参数θ求偏导,得下式:
其中,最后,采用优化方法对偏导数进行最小化寻优,得到超参数的最优解。传统的用于超参数优化的方法有共轭梯度法,牛顿法等,但超参数的增多,如使用ARD方法定义超参数时,超参数变得难以,为此很多更为复杂的优化算法被用于优化超参数,例如DE算法,使用协方差矩阵最适应方法(CMA-ES),Nelder 和Mead算法。将进化算法和准牛顿梯度法结合使用以求获得更好的结果。David等人比较了 5种不同的超参数寻优策略。Petelin等人通过实验对比了三种进化算法(GA、DE和PSO) 对超参数优化的有效性。值得注意的是,以上优化方法均仅用于10维以下的优化问题。随着优化问题维度的增高,超参数优化本身的高计算复杂度致使模型构建过程更加费时的情况变得更加严重。使用代理模型辅助进化算法主要目的是降低计算代价,因此,精度高但拥有高计算复杂度的代理模型并不适用。本发明使用序列二次规划方法(SQP)来优化超参数,该方法已经被证实,在程序运行时可以减少内存使用并加快执行时间并。接下来将使用相同的训练样本、硬件和软件环境,在10维以上的优化问题上,进行不同的协方差函数性能比较,以求选择出更适合高维问题的协方差函数进行模型构建。
2.3不同协方差函数的性能比较分析
为了评价具有不同协方差核函数构建的GP模型的构建效率及模型性能,分别对5个经典的基准函数(见表3)在20维及30维上进行了仿真实验的结果对比。表4列出了所对比的协方差函数。所有实验结果均在R2017A中独立运行20次以上。使用MathWorks 的Statistics and Machine Learning Toolbox工具箱构建Kriging模型,下表为选用不同协方差函数时的参数设置,以及将在后续结果对比时使用的对应的函数简称。下述实验分别比较了 GP-SLPSO使用10种不同的协方差核函数在20维和30维问题上得到的实验结果。表5和表 6给出了统计结果,其中“Best”、“Worst”、“Mean”和“Median”分别代表在20次独立运行中所获得的最好解的最优值、最差值、平均值和中位数。“Std”代表20次运行中的标准偏差。
表3基准函数列表
表4协方差函数列表
表5 20维基准函数的对比结果
从表5可以看出,所有的GP-SLPSO算法无论选用哪种协方差函数都比标准的SLPSO获得了更好的结果。选用SE函数在F3和F4上的性能优于选用其它协方差函数。M32函数在F2和F5上获得了与SE函数相似的结果。ardM52函数在F1上获得了最佳性能,ardSE函数在F5上获得了最优结果。与其他协方差函数相比,E函数和ardE函数的性能最差。另外,使用标准超参数定义的算法也可以比使用ARD超参数定义的算法获得更好的性能。
在F2上,使用ARD超参数定义的算法的性能比使用标准超参数定义的算法的性能差。此外,各个协方差函数的结果通过t检验进行了统计显著性差异的检验。如果一种算法在统计上优于另一种算法,则在比较算法的相应行中标记“+”;如果两种算法之间没有显著差异,则标记“≈”,如果差于其他算法则标记“-”。此外,突出显示了每个函数获得的最佳结果。从 t-test结果可以看出,GP-M32和GP-M52在F2上取得了较优的效果,GP-SE方法和GP-RQ 方法在F3上取得了较优的效果。
图2给出了对于五个基准问题的对比算法的收敛曲线,其中左侧图显示了20维问题的收敛曲线,右侧图显示了30维问题的收敛曲线。从这些图中可以看出,在F2、F3和F5这类非凸的多模型问题上,使用标准超参数定义方法的算法比使用ARD超参数定义方法的算法的收敛速度更快,在F1和F4上具有相似的收敛速度。
表6 30维基准函数的对比结果
表7平均花费时间的对比结果(单位:秒)
在30维问题上的实验结果如表5所示。同样,GP-SLSO都比标准的SLPSO获得更好的结果。GP-ardSE在F1、F4和F5上获得了最优结果,而GP-M32、GP-RQ和GP-ardRQ分别在F2、F3和F5上获得了最优结果。从总体上来看,在30维问题上,采用ARD超参数定义方法的算法相比采用标准超参数定义方法的算法,大都没有取得明显更优的效果。
尽管在低维问题中,更多的参数可以提高使用GP模型的近似精度,但所有超参数都必须合理的优化之后才能获得令人满意的结果。在实际应用中,这些参数的值很难确定,特别是当问题的维数变大时。因此,构造GP模型是GP模型辅助进化算法的主要计算成本。表.6 列出了基于不同协方差函数算法的计算时间成本。所有实验都是在一台4GB内存、3.20GHz 处理器的计算机上完成的。最大的适应值计算次数为1000。表中所列时间为每个算法独立运行20次后的平均结果。从表6可以看出,使用Matérn32、Matérn32和RQ函数的算法所花费的时间比其他算法少。
通过在GP-SLPSO算法框架下进行不同的协方差函数性能比较发现,最常用的平方指数函数(SE)并不是最佳的选择,Matérn类函数性能更优且在不同的问题中显现出了更稳定的性能。而在GP模型中常用的ARD超参数定义方法由于计算量的增加,使得超参数优化的计算复杂度增大,大大提高了算法所耗费的时间且优化性能在20维及30维函数上与标准的超参数定义方法相比没有显著优势。因此,接下来,在基于多目标的高斯过程模型辅助的社会学习粒子群算法中,选用Matérn32函数作为协方差函数,且使用标准的超参数定义方法节省模型构建时间。
3.基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法
当前,因在高维问题上,代理模型的精度降低等原因,多采用多代理模型集成学习的方法辅助算法寻优。针对高维问题,对当前的单代理模型辅助进化优化算法展开研究,选用高斯过程模型作为唯一的代理模型辅助SLPSO算法寻优,提出了一种基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法,其为单代理模型辅助优化算法,突破了单代理模型在高维问题上的局限。首先,通过对高斯过程核函数及超参数设计方法的对比,选出更适用于高维优化问题的核函数选择及超参数定义方法,用以构建高斯过程模型;随后,分别设计了两种不同的多目标加点准则来提高算法寻优速度及效率。将多目标的方法引入模型管理中,分别从不同的角度出发提出了两种不同的多目标加点准则:(1)从提高现有加点准则多样性的角度,将期望改进准则(EI)及统计下限最小值准则LCB作为两个目标,仅选择最优帕累托面上的候选解,进行实际计算。(2)从高斯过程模型所预测的不确定性在高维问题中变得不可靠甚至失效的角度出发,将模型预测值和预测值的不确定性作为两个目标,采用非支配排序进行模型管理,选择最优帕累托面及最差帕累托面两个面上的个体进行实际计算,从而避免了将近似适应度和近似不确定性组合成一个标量函数使所提出的算法在高维问题上的优势更为明显。
3.1常用加点准则及存在问题
在GP模型辅助进化优化算法中,除去GP模型的精度会影响算法性能外,模型管理,也称为加点准则,也是影响算法性能的关键因素。针对GP模型辅助优化算法,目前已产生了许多有效的加点准则,包括目标函数最小值准则(MP)、求期望改进最大准则(EI)、统计下限最小值准则(LCB)、改进概率最大值准则(PI)、均方根误差最大值准则(RMSE)等。以上加点准则数学模型如下所示:
目标函数最小值准则是最为简单直接的加点准则,其原理是直接在代理模型上寻找目标函数的最小值。数学模型为
求期望改进最大值准则(expected improvement,EI)求下式的最大值max(EI(x)):
改进概率最大值准则(PI)计算目标函数的改善概率,并选取改善概率最大点max(PI(x)):
统计下限最小值准则(LCB),选取预测值相对较优且方差相对较小的预测点 min(LCB(x))
均方根误差最大值准则(RMSE)其原理是直接选取代理模型上拥有最大均方差的点。
数学模型为
RMSE(x)=max(s(x)) (15)
图3和图4分别给出了在利用GP模型近似10维及50维Rosenbrock函数的100个候选解(种群个体)时所得到的不同候选解的预测适应值的预测均方差(ESD)图示。在每个图中用不同大小的训练样本(表示为τ)在迭代3、10、20和70中呈现每个个体的ESD。从图 3可以看出,在第3代(即t=3)中,所有的ESD值都很大,且几乎相同,因此很难区分不同个体的预测适应值的不确定性程度。随着训练样本的数量在迭代过程中不断增加(例如,迭代第10代和第20代),个体间的ESD差异逐渐明显,变得清晰可辨。但是,随着优化的收敛(例如在迭代70中),不同个体的ESD值再次变得不易区分。对于50维问题,上述问题变得更加严重,如图4所示,在迭代3、10和20中,所有个体的ESD值几乎相同,并且它们只能在第70代时变得较易区分。上述经验结果可以通过对高斯过程模型中求解预测均方差的公式的分析来解释,从中可以看出,新个体的ESD是由训练样本与训练样本之间的相关性决定的,最终由协方差函数和训练样本与训练样本之间的距离决定。因此,新种群中的所有个体都将具有极其相似的ESD,主要原因在于在高维空间,相同数量的训练样本与在低维空间相比会更加稀疏,新种群中的个体与稀疏的训练样本之间的距离都较大且距离差异不明显造成的。然而,常用的加点准则如RI,LCB及PI等,均为预测值及预测均方差s(x)的线性或非线性组合,此时,会因为s(x)的太过近似,而使得常用加点准则失去有效性。
图4给出了MGP-SLPSO的总体框架,它使用SL-PSO作为基本算法,高斯过程模型作为代理模型。算法种群大小为m个,采用拉丁超立方体采样(LHS)生成初始种群的个体位置(即决策变量)。使用实际的目标函数对初始群中的所有个体的适应值进行真实计算,并将个体信息存储在数据库A中。接下来根据社会粒子群算法的速度及位置更新公式来更新个体的位置及速度。值得注意的是,第二次迭代的种群中的所有个体也将使用真实目标函数来评估,并且生成的数据存储在数据库A中。请注意,第二次迭代中的所有新粒子也将使用实际目标函数进行评估,生成的数据存储在存档A中。从第三次迭代开始,存档A中的数据将用于训练高斯过程模型,该模型给出所有个体的预测适应值以及预测标准差。接下来,将使用多目标加点准则选择一部分个体,使用真实目标函数重新评价,给出这些个体的真实适应值。这些实际计算过的个体将存储在数据库A中,直到存至达到该数据库设定的最大容量为止。当实际计算的个体数量大于数据库最大容量时,只存储最新的实际计算过的个体。
从以上描述可以看出,MGP-SLPSO和SLPSO的主要区别在于模型管理策略,包括选择哪些个体应该使用真实的目标函数进行实际计算(即加点准则)、更新GP模型以及存储训练样本。另外,算法找到的当前最优解在每次迭代结束时都会记录及更新。
虽然GP模型之前作为代理模型已多次成功的应用于代理模型辅助的算法优化计算费时问题,但它们也有严重的局限性,特别是对于高维问题。首先,高维问题会需要更多的训练样本去构造模型,但随着训练样本数量的增加,构造一个GP模型本身变得非常费时且复杂。第二,在后续的实验中证实,对于高维问题,不同解决方案的预测标准差之间的差异将消失,从而降低现有加点准则的有效性。选择合适的协方差函数和合理的方法来优化GP模型中的超参数,可以部分缓解模型构造费时的问题。同时,提出多目标加点准则来解决在高维问题中GP辅助进化优化中的预测标准差差异不明显的问题。
该加点准则的设计存在两个问题:1)这两个目标如何选取;2)若两目标确定后,将其目标值按照非支配排序,该如何选取Pareto面上的点进行计算。接下来提出两种不同的多目标加点准则并进行性能分析。
Emmerich等在20维问题上比较了以上三种常用准则的性能,得出EI及LCB性能略优。因此,可选用最简单的假设,即将性能较优的两个准则EI及LCB作为两个目标,根据通常的多目标优化问题的优化思路,选取第一个Pareto面上的样本点进行实际计算,目的是为了可以从不同的加点准则中受益,提升算法性能,从而使加点准则能够适用于高维问题。在这里,多目标加点准则被定义为一个两目标的最小化问题,数学描述如下:
g1(x)=-(EI(x)) (17)
g2(x)=LCB(x) (18)
其中,S为决策空间,且S:=[xmin,xmax],xmin和xmax分别用来定义决策空间的上界和下界, LCB(x)统计下限最小值函数如公式所示,EI(x)期望改进函数如公式所示,因期望改进函数本身是求期望改进最大化的函数,因此,将该函数前加负号,作为最小化函数处理。
EI+LCB的多目标加点准则实验结果分析
为了测试多目标加点准则(EI+LCB)算法的有效性,分别针对F1-F4这4个函数的30维,50维,100维,分别与目前性能较优的CAL-SAPSO及SACOSO算法进行性能比较,每个算法独立运行20次后进行结果统计。
F1为Ellipsoid函数,为单模态函数,2维函数形态如图16所示,全局最小值为0,函数表达式为
2维Ellipsoid函数形态如图16所示:
F2为Rosenbrock函数,由Howard Harry Rosenbrock在1960年提出。也称为Rosenbrock 山谷或Rosenbrock香蕉函数。全局最小值为0,其位于抛物线形的山谷中(香蕉型山谷)。通常容易找到全局极小值所在的山谷,但由于山谷内的值区别不大,因此要找到全局最小值相当困难。函数表达式如下
2维Rosenbrock函数形态如图17所示
F3为Ackley函数,全局最小值为0,其特征为多个大小不一的孔或峰分布在一个几乎平坦的区域,全局最优点在一个很陡峭的山谷中。因为在搜索过程中,步长较小很容易陷入局部最优,步长较大又容易跳过全局最小值所在山谷,因此很难优化。函数表达式为
2维Ackley函数形态如图18所示:
F4为Griewank函数,全局最小值为0,该函数存在许多局部极小点,其数目与问题的维数有关,函数表达式为:
2维Griewank函数形态如图19所示:
由图6可得,所提出的EI+LCB的多目标加点准则在30维的问题上无明显优势,在50维及100维的F1,F2和F3函数上均获得了明显优于其他加点准则的结果,由此,从总体上来看,在高维问题上,将EI和LCB作为多目标设计的加点准则其性能要优于单使用LCB 或EI的加点准则,但在F3函数上性能略差。
由以上结果分析,若单纯从提高加点准则多样性的角度使用现有加点准则组合为多目标加点准则,虽在一定程度上可以提高算法寻优性能,但对于不同的问题,其性能差距较大,算法的性能不够稳定。接下来,从图3及4所发现的问题出发,分析对于高维问题,因不同个体间的ESD值将变得难以区分,基于预测适应值及预测标准差的加点准则在选择合适的个体进行实际计算时不再适用的情况。
为解决上述问题,提出了另一种多目标加点准则(简称为MIC),该加点准则中的两个目标为:预测适应值和用于度量预测适应值不确定性的预测标准差并深入分析利用该加点准则选取哪些个体进行实际计算。所提出的多目标加点准则中,将预测适应值和预测标准差视为两个独立的目标。然后,使用非支配排序来确定应该使用真实目标函数来实际计算哪些个体,而不再如其他的加点准则一样简单的对预测适应值和预测标准差进行线性或非线性组合。
对于最小化问题,将多目标加点准则(MIC)进行如下数学描述,具体由以下公式来表示:
其中,决策空间S定义为S:=[xmin,xmax],xmin及xmax分别为决策空间的上下限,多目标加点准则中的两个目标为预测适应值,为用于度量预测适应值不确定性的预测标准差。并在后续将该加点准则应用于GP模型辅助的SLPSO算法进行算法验证,将基于MIC 加点准则的GP模型辅助SLPSO算法简称为MGP-SLPSO。
在MGP-SLPSO中,首先,使用训练的GP模型近似当前种群中所有个体的适应值,然后使用中提出的快速非支配排序将个体分类到不同的前沿面。在所提出的MIC中,将由种群中非支配个体组成的第一前沿面上的个体由真实函数进行实际计算。另外,最后一个面上的个体(即那些不支配任何其他个体的解),也将利用原函数进行实际计算。图7给出了将使用真实目标函数评估的第一和最后一个前沿面上所选个体的图解,其中第一和最后一个前沿面的个体将使用真实目标函数进行实际计算。
为了更好的体现所提出的MIC加点准则的优势,在图8和图9中分别给出了第3、10、20和70的迭代中每个个体的预测适应值和预测标准差的结果。当求解10维和50维Rosenbrock函数时,从图9和10中可以看到,与现有的加点准则相比,MIC能够更好地区分不同情况下的候选解(种群个体),从而更容易选择需要实际计算的个体。即使在特殊情况下,不同个体间的预测标准差是相同的,如图10(a)和10(b)所示,使用预测适应值可以很容易地区分不同的解。实际计算第一个面上的点,有助于选取拥有较优预测值的个体进行计算,实际计算最后一个面上的点有助于选取不确定性较大的个体进行计算,同时选取第一个与最后一个Pareto面进行计算,有助于进一步提高加点准则的多样性,避免算法早熟。
3.3MGP-SLPSO实验结果分析
为了检验所提出的多目标加点准则对高维费时优化问题的有效性,对六个50-D和100-D 基准测试问题和一个综合实际问题做了仿真实验,并将该方法与性能较优的代理辅助进化算法GPEME CAL-SAPSO及SACOSO进行了比较。目前大多数GP辅助优化算法主要针对低维问题(通常小于15维,最高不大于30维)。
SA-COSO算法在求解50维问题时比的GPEME(GP+DR)算法具有更好的效果,而且在有限的计算资源下,SA-COSO算法在100维优化问题上也拥有较好的寻优能力。
通过比较所提出的MGP-SLPSO算法和SLPSO(无代理模型)的性能,以及由三种不同加点准则驱动下GP模型辅助SL-PSO,即基于预测适应值加点准则驱动的(简称GP-fit)、基于置信下限加点准则(简称GP-LCB)和基于最大化改进策略的加点准则(GP--EI)的GP模型辅助SL-PSO,用以研究所提出的MIC准则是否优于现有加点准则。为了方便起见,GP-fit、GP-LCB和GP-EI的所有设置都与MGP-SLPSO相同,唯一不同的是选用不同的加点准则。在GP-Fit中,当前种群中的个体根据其预测适应值进行排序。然后,选择拥有最优预测适应值的个体进行实际计算。所有实验都是在一台2.80GHz的4核CPU处理器和4GB内存的计算机上完成的。在R2017A的环境中,通过30次独立运行获得了实验结果。
实际计算次数的上限设置为1000。GP-Fit、GP-LCB、GP-EI和MGP-SLPSO中训练样本个数n定义为2*m≤n≤4*m,种群大小由搜索空间的维数m=100+|D/10|确定,2*m为训练样本的最小个数,4*m为训练样本的最大个数。如果数据库A中的样本数量大于4*m,则仅使用最新的4*m样本来训练GP模型。设置了训练训练样本数量的设定基于以下考虑:首先,由于GP模型的计算复杂度是O(n3),其中n是训练样本的个数,训练时间的成本会随着训练样本的个数而迅速增加。因此,有必要限制训练样本的数量。其次,鉴于模型的有效性,提出训练样本的最小数目应该是维数的两倍,因此,2*m被设置为训练样本大小的下界,其略大于2*D,D为决策空间的维数。
3.4高维问题上的实验结果
表8和表9给出了比较算法的统计结果,包括在显著性参数为α=0.05计算的t检验结果。所有算法一旦耗尽1000个实际计算次数后就终止GP模型。在表格中,“+”表示所提出的 MGP-SLPSO算法在统计上显著优于比较算法,而“≈”和“-”分别表明GP-MIC的性能与比较的算法性能相似及差于比较算法。此外,每个函数的最佳结果用粗体突出显示。从表8 和表9可以看出,所有GP辅助的SL-PSO算法都比没有GP辅助的SL-PSO算法获得更好的结果,这说明代理的确有助于加速SL-PSO的收敛。与GP-Fit和GP-EI相比,除了50维的 F2,MGP-SLPSO在所有50-D和100-D的基准问题上都获得了更好的结果。
表8 50维基准函数的对比结果
从图11至图12中,对比GP-FIT、GP-EI和GP-LCB的收敛曲线,可以发现它们在大多数基准问题上都是相似的,特别是在维数较高的情况下。这主要是由于种群中不同个体间的ESD太相似,无法选择出哪些具有较大估值不确定性的个体应该使用真实目标函数进行实际计算造成的。这与在图9和图10的观察结果一致。
表9为100维基准测试函数的比较结果,从100维的结果来看,MGP-SLPSO在100-D所有函数上的处理效果明显优于GP-LCB、GP-Fit。这些结果表明,所提出的MIC准则在100 维上比所有加点准则及算法更有效。同时,MGP-SLPSO在六个基准测试功能上也优于 SA-COSO。
表9 100维基准函数的对比结果
为了检验MGP-SLPSO在有限的计算资源下在低维问题上的性能,进一步比较了MGP-SLPSO与GPEME和CAL-SAPSO在30维测试问题上的性能。表10给出了与GPEME 在1000次实际计算次数下的统计结果,表VII给出了与330次实际计算次数下的CAL-SAPSO 相比的结果。
从表10可以看出,MGP-SLPSO在所有六个测试问题上都取得了较好的效果,表明在低维问题上,MGP-SLPSO比GPEME有更好的性能。从表11中可以发现,当实际计算次数的数量减少到330时,MGP-SLPSO在所有基准问题上仍然表现得更好,除了F2(Rosenbrock 函数),F2函数的Landscape中从局部最优到全局最优需要经过有一个非常窄的山谷,这可能对仅使用全局GP模型的MGP-SLPSO不占优势。因为在CAL-SAPSO中使用了本地搜索策略,这有助于在Rosenbrock函数上获得更好的结果。
表10 GPEME和MGP-SLPSO在30维问题上的结果比较
表11 CAL-SAPSO和MGP-SLPSO在30维问题上的结果比较
3.5MIC中不同目标组合的实验结果
为了说明多目标加点准则的优势,利用其他两个标量加点准则如Fit和LCB(用Fit+LCB 表示)或者Fit和EI(用Fit+EI表示)替换两个目标(Fit和ESD)的结果,并比较它们在100维函数上的性能。在MGP-SLPSO中使用的Fit+ESD组合在四个功能(F1、F2、F3和F6) 上表现出更好的性能,从表12中可以看出在F5函数上略差,在函数F6上表现出相似的性能。此外,从图13可以看出,在F1、F2、F3和F6的整个优化过程中,Fit+ESD(所提出的算法) 的组合比其他组合收敛得更快。
表12不同加点准则组的100维基准函数的对比结果
3.6对于计算复杂度的实验分析
MGP-SLPSO的计算复杂度由三部分组成,即函数适应值的计算时间、GP模型训练的计算时间和MIC中的非支配排序的计算时间。训练GP模型的计算复杂度为O(n3),非支配排序的计算复杂度为O(2m2)。下面,对求解50-D和100-D测试问题的比较算法所需的计算时间进行了实验检验。
表13列出了每个算法所消耗的平均计算时间。从表13可以看出,SL-PSO的计算时间主要用于适应性评估,计算时间最少。为了方便起见,在这里使用SL-PSO算法在1000实际计算次数下使用的时间作为比较基准。从表13可以看出,所提出的MGP-SLPSO比其他代理模型辅助优化算法需要的时间更少,这意味着训练代理模型比执行快速非支配排序需要更多的计算时间。与现实应用中最耗时的适应值评价相比,每次适应值评价可能需要数十分钟到数小时,这种代理模型和非支配排序计算时间的增加仍然可以被认为是可以接受的。
表13算法在1000次实际计算次数下的50-D和100-D问题所需的平均计算时间(单位:秒)
3.7复合实际问题的对比实验
为了进一步评估MGP-SLPSO的有效性,接下来将MGP-SLPSO应用于一个复杂的31维优化问题,该问题是通过总结四个实际问题的缩放输出而产生的,即钻孔优化问题、机翼重量优化问题、OTL电路优化和活塞模拟问题的函数模型组合,如下式所示:
以上四个函数分别为钻孔优化问题、机翼重量优化问题、OTL电路优化和活塞模拟函数的输出。钻孔优化问题的函数模型模拟了通过钻孔的水流量(y1)单位为立方米/年。机翼重量函数(y2)是一个轻型飞机机翼的数学模型,Forrester等人使用它来估算轻型飞机机翼的重量。OTL电路功能模拟无变压器推挽电路的输出,即中点电压(y3)。最后,活塞模拟功能模拟活塞在气缸(y4)内的圆周运动,这是以秒为单位的循环时间(完成一个循环所需的时间)。
表14钻孔优化问题的输入列表
1)钻孔优化问题:钻孔优化问题的函数模型模拟了通过钻孔的水流量(y1),单位为立方米/年,数学模型
其中,输入随机变量的分布由表14列出,用于量化其不确定性。
2)机翼轻量化函数:该机翼轻量化函数用于估算轻型飞机机翼的重量,是由Forrester等人提出的用于轻型飞机机翼重量估算的数学模型,用于轻型飞机机翼的轻量化设计,具体公式如下所示:
表15机翼轻量化函数问题的输入列表
3)OTL电路设计优化问题:OTL电路函数模型为一个无输出变压器的推挽电路,y3为中点输出电压。
表16 OTL电路函数问题的输入列表
4)活塞运动仿真函数:活塞函数模型模拟活塞在气缸内的圆周运动。该模型涉及一系列非线性函数。y4代表循环时间(完成一个循环所需的时间),以秒为单位。
表17活塞运动函数问题的输入列表
将MGP-SLPSO以及其他三种不同的填充标准,包括GP-Fit、GP-LCB和GP-EI用来优化这个综合实际问题,计算预算为11*D,D为问题的维数31,与CAL-SAPSO中所设定的最大实际计算次数相同。每个算法运行30次。比较算法的收敛曲线如图14所示。从图中可以看出,与比较算法相比,MGP-SLPSO具有明显的优势。表18列出了SLPSO算法,3种GP 辅助SLPSO与3种传统优化算法的比较结果,3种传统优化算法包括内点法(IP)、有效集法(AS)和序列二次规划法(SQP)。由表18所示,MGP-SLPSO优于所有比较算法。结合图14,可以看出基于多目标加点准则的MGPSLPSO的寻优速度要明显优于其他的GP辅助 SLPSO,这进一步证实了多目标加点准则的有效性。
表18对于复合实际问题的结果比较
本发明,从代理模型构建和模型管理两个角度出发,选择更适合高维复杂优化问题的GP 模型构建方法,同时,针对常用加点准则在高维问题上的失效问题,提出了多目标加点准则,以在高维问题上具有寻优优势的社会学习粒子群算法(Social Learning PSO,SLPSO)作为基本算法,并将基于多目标加点准则的GP模型辅助的社会学习辅助粒子群算法(MGP-SLPSO) 扩展至解决100维的高维优化问题。通过比较MGP-SLPSO与目前最先进的代理辅助进化算法在30D到100D基准问题的测试结果,以及对一个集成了钻孔优化问题、机翼重量优化问题、OTL电路优化和活塞模拟问题的函数模型组合的复合实际应用问题的寻优,证实了在有限计算资源下,多目标加点准则在高维复杂优化问题上具有明显优势。
Claims (5)
1.基于多目标加点准则的GP模型辅助SLPSO算法,其特征在于,包括以下步骤:
S1:选取社会学习粒子群算法;
S2:建立高斯过程模型;
S3:建立基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法;
S4:利用MGP-SLPSO对基于多目标加点准则的高斯过程模型辅助社会学习粒子群算法的实验结果分析。
2.根据权利要求1所述的基于多目标加点准则的GP模型辅助SLPSO算法,其特征在于,所述S1的社会学习粒子群算法包括以下子步骤:
S11:假设种群数为m,对于最小化问题,即为按适应值降序排序,当前最优个体为当前适应值最小的个体,排在最后一位,其位置为xm,所有个体,除了当前最优个体m外,将从当前种群中随机选择的一个优于当前个体适应值的个体k,称为示范个体,学习;
S12:在t+1代时,第j个个体的位置更新公式为:
其中,1≤j<m,个体k为随机选择出的示范者,其适应值优于个体j,j<k≤m,xkd(t)代表在t代中个体k在第d维上的取值,且1≤d≤D,D为决策空间维数,
3.根据权利要求1所述的基于多目标加点准则的GP模型辅助SLPSO算法,其特征在于,所述S2的高斯过程模型为:
高斯过程模型通过在函数空间进行贝叶斯推理,将未知函数值y看成是一个静态随机过程的具体实现:
y=μ(x)+ε(x)
其中,μ被称为均值函数或基函数,通常为多项式函数,代表y的数学期望,ε~N(0,σ2)为均值为0,方差为σ2的静态随机过程。
4.根据权利要求1所述的基于多目标加点准则的GP模型辅助SLPSO算法,其特征在于,所述S3包括以下步骤:
S31:通过对高斯过程核函数及超参数设计方法的对比,选出更适用于高维优化问题的核函数选择及超参数定义方法,用以构建高斯过程模型;
S32:分别设计了两种不同的多目标加点准则来提高算法寻优速度及效率。
5.根据权利要求1所述的基于多目标加点准则的GP模型辅助SLPSO算法,其特征在于,所述S4的结果在多目标加点准则在高维复杂优化问题上具有优势。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010399983.6A CN111597757A (zh) | 2020-05-13 | 2020-05-13 | 基于多目标加点准则的gp模型辅助slpso算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010399983.6A CN111597757A (zh) | 2020-05-13 | 2020-05-13 | 基于多目标加点准则的gp模型辅助slpso算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111597757A true CN111597757A (zh) | 2020-08-28 |
Family
ID=72185408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010399983.6A Pending CN111597757A (zh) | 2020-05-13 | 2020-05-13 | 基于多目标加点准则的gp模型辅助slpso算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111597757A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112149246A (zh) * | 2020-09-11 | 2020-12-29 | 华中科技大学 | 一种永磁电机多目标优化设计方法和系统 |
CN114372332A (zh) * | 2022-03-21 | 2022-04-19 | 南京航空航天大学 | 一种基于子集模拟的多目标稳健设计方法 |
CN114492279A (zh) * | 2022-01-27 | 2022-05-13 | 西安交通大学 | 一种模拟集成电路的参数优化方法及系统 |
CN114553489A (zh) * | 2022-01-24 | 2022-05-27 | 北京北卡星科技有限公司 | 一种基于多目标优化算法的工业控制系统安全防护方法及装置 |
CN117150934A (zh) * | 2023-10-30 | 2023-12-01 | 南京中鑫智电科技有限公司 | 变压器套管状态综合监测系统及其在线数据处理方法 |
-
2020
- 2020-05-13 CN CN202010399983.6A patent/CN111597757A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112149246A (zh) * | 2020-09-11 | 2020-12-29 | 华中科技大学 | 一种永磁电机多目标优化设计方法和系统 |
CN114553489A (zh) * | 2022-01-24 | 2022-05-27 | 北京北卡星科技有限公司 | 一种基于多目标优化算法的工业控制系统安全防护方法及装置 |
CN114492279A (zh) * | 2022-01-27 | 2022-05-13 | 西安交通大学 | 一种模拟集成电路的参数优化方法及系统 |
CN114492279B (zh) * | 2022-01-27 | 2024-01-19 | 西安交通大学 | 一种模拟集成电路的参数优化方法及系统 |
CN114372332A (zh) * | 2022-03-21 | 2022-04-19 | 南京航空航天大学 | 一种基于子集模拟的多目标稳健设计方法 |
CN117150934A (zh) * | 2023-10-30 | 2023-12-01 | 南京中鑫智电科技有限公司 | 变压器套管状态综合监测系统及其在线数据处理方法 |
CN117150934B (zh) * | 2023-10-30 | 2024-01-26 | 南京中鑫智电科技有限公司 | 变压器套管状态综合监测系统及其在线数据处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111597757A (zh) | 基于多目标加点准则的gp模型辅助slpso算法 | |
Wang et al. | Offline data-driven evolutionary optimization using selective surrogate ensembles | |
Dash et al. | Efficient stock price prediction using a self evolving recurrent neuro-fuzzy inference system optimized through a modified differential harmony search technique | |
Diwaker et al. | Prediction of software reliability using bio inspired soft computing techniques | |
Su et al. | Gaussian process machine-learning method for structural reliability analysis | |
Yang et al. | Truncated expected hypervolume improvement: Exact computation and application | |
Shah et al. | Estimating WCET using prediction models to compute fitness function of a genetic algorithm | |
Khatamsaz et al. | Efficient multi-information source multiobjective bayesian optimization | |
US10803218B1 (en) | Processor-implemented systems using neural networks for simulating high quantile behaviors in physical systems | |
WO2022147583A2 (en) | System and method for optimal placement of interacting objects on continuous (or discretized or mixed) domains | |
CN114580747A (zh) | 基于数据相关性和模糊系统的异常数据预测方法及系统 | |
Couckuyt et al. | Towards efficient multiobjective optimization: multiobjective statistical criterions | |
CN113435101A (zh) | 一种基于粒子群优化的支持向量机停电预测方法 | |
Keshk et al. | Automatic estimation of differential evolution parameters using Hidden Markov Models | |
Zhang et al. | Intelligent STEP-NC-compliant setup planning method | |
Bhuyan et al. | Software Reliability Assessment using Neural Networks of Computational Intelligence Based on Software Failure Data. | |
CN117273125A (zh) | 基于强化学习的多模型在线自适应择优技术驱动的进化算法 | |
Ghosh et al. | Efficient bayesian inverse method using robust gaussian processes for design under uncertainty | |
Hu et al. | Hyperparameters adaptive sharing based on transfer learning for scalable GPs | |
Ma et al. | Multi-spatial information joint guidance evolutionary algorithm for dynamic multi-objective optimization with a changing number of objectives | |
Yu et al. | An improved training algorithm for feedforward neural network learning based on terminal attractors | |
Wassington et al. | Prognnosis: A data-driven model to predict gnn computation time using graph metrics | |
Shen et al. | IIoT mobile business data placement strategy based on bayesian optimization algorithm | |
Thinakaran et al. | Predicting the 2-dimensional airfoil by using machine learning methods | |
Fu et al. | Accelerating Monte Carlo Tree Search with Probability Tree State Abstraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200828 |