CN112070200B - 一种谐波群优化方法及其应用 - Google Patents

一种谐波群优化方法及其应用 Download PDF

Info

Publication number
CN112070200B
CN112070200B CN201910497327.7A CN201910497327A CN112070200B CN 112070200 B CN112070200 B CN 112070200B CN 201910497327 A CN201910497327 A CN 201910497327A CN 112070200 B CN112070200 B CN 112070200B
Authority
CN
China
Prior art keywords
sso
big data
variable
hss
harmonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910497327.7A
Other languages
English (en)
Other versions
CN112070200A (zh
Inventor
郝志峰
叶维彰
刘翔宇
王金海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan University
Original Assignee
Foshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan University filed Critical Foshan University
Priority to CN201910497327.7A priority Critical patent/CN112070200B/zh
Publication of CN112070200A publication Critical patent/CN112070200A/zh
Application granted granted Critical
Publication of CN112070200B publication Critical patent/CN112070200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供一种谐波群优化方法及其应用,提出一种新的连续SSO集成单变量更新机制UM1和新型谐波步长策略HSS改进了连续简化群优化SSO,UM1和HSS能够平衡连续SSO在探索高维多变量和多模态数值连续基准函数中的探索与利用能力;更新机制UM1仅需要更新一个变量,并且它完全不同于SSO中的变量不需要更新所有变量;在所述的UM1中,HSS通过基于谐波序列减小步长来增强利用容量;并对18个高维函数进行了数值实验,以确认本公开所提供方法的效率;提高了传统的ABC和SSO的探索与利用性能、在探索与利用之间求得了一个比较优秀的平衡点,并且应用面广泛,能够大幅提高支持人工神经网络、向量机等对新获得的大数据的分类、预测精度。

Description

一种谐波群优化方法及其应用
技术领域
本公开涉及软计算应用、大数据处理技术领域,具体涉及一种谐波群优化方法及其应用。
背景技术
在实际应用中总是存在大量的优化问题,例如绿色供应链管理,大数据和网络可靠性问题。在实际现实问题中对优化模型应用微小变化(例如,整数变量,非线性方程和/或多目标)也是常见的。然而,即使仅仅使用整数变量,这些现实生活中的问题也变得非常难以解决,并且在可接受的时间内使用传统方法解决这些问题会更加复杂和巨大。因此,最近的各种研究的重点已经转移,使用软计算方法而不是在可接受的执行时间内的精确解来生产高质量的解,见参考文献[1-26]。
越来越多的新的软计算方法正在涌现,例如人工神经网络[2,37]、遗传算法(GA)[3,4,34]、模拟退火[5]、禁忌搜索[6]、蚁群优化[11]、粒子群优化算法[7,8,34]、差分进化[9,10]、算法估计分布[12]、人工蜂群算法(ABC)[13-16]、简化群优化算法/简化群体演算法(SSO))[17-26]、帝国主义竞争算法[35]、强化学习算法[36]、贝叶斯网络[38]、飓风优化算法[39]、引力搜索算法[40]、人类群集[41]、蝙蝠算法[42]、随机扩散搜索[43]等都是新的软计算方法,其灵感来自近年来解决科学技术中较大问题的自然现象。因此,软计算已经引起了值得注意的关注,并且已经应用于一系列现实世界中的问题,例如集群智慧(SwarmIntelligence)和演化算法(evolutionary algorithms,简称EAs),分别参见参考文献[44]和[45]。
在软计算中,基于局部搜索的探索是在已知解的邻域区域中找到最优的行为,以局部最优解的捕获为代价提高解质量的机会[2-26],并且以探索为重点的全局搜索指的是在未探索的解空间中搜索最优值,以避免在运行时间的成本下陷入局部最优[2-26]。探索(exploitation)与利用(exploration)是相反的,但相互补充。值得注意的是寻求探索与利用的平衡以保证任何软计算方法的实现。
Yeh介绍的SSO(简化群优化算法/简化群体演算法),见参考文献:【W.C.Yeh,“Study on Quickest Path Networks with Dependent Components and Apply to RAP”,Technical Report NSC97-2221-E-007-099-MY3,Distinguished Scholars ResearchProject granted by National Science Council,Taiwan】新提出的基于人口(population-based)的软计算方法之一。SSO从现有已知的数值实验中获得了很高的效率和效率[17-26]。此外,SSO可灵活应对各种现实问题,逐渐应用于不同的优化应用,如供应链管理[20,21],冗余分配问题[18,19,27],数据挖掘[20,21],和其它的优化问题[32,33]。
全变量更新机制(UMa)是SSO所有变体的基础,因此所有变量都在每个解中更新。然而,UMa总是探索未被发现的解空间,即使最佳接近当前的解[17-27,31,32],它也可能花费额外的时间来达到最佳状态。
本公开涉及的参考文献:
[1]L.Zadeh,“Fuzzy Logic,Neural Networks,and Soft Computing”,Communication of the ACM,vol.37,pp.77-84,1994.
[2]W.McCulloch,and W.Pitts,“A Logical Calculus of Ideas Immanent inNervous Activity”,Bulletin of Mathematical Biophysics,vol.5,pp.115-133,1943.
[3]A.Fraser,“Simulation of Genetic Systems by Automatic DigitalComputers.I.Introduction”,Australian Journal of Biological Sciences,vol.10,pp.484-491,1957.
[4]D.Goldberg,Algorithms in Search,Optimization and Machine Learning,Genetic,Reading,MA:Addison-Wesley Professional,1989.
[5]S.Kirkpatrick,C.Gelatt,and M.Vecchi,“Optimization by simulatedannealing”,Science,vol.220,pp.671-680,1983.
[6]F.Glover,“Future Paths for Integer Programming and Links toArtificial Intelligence”,Computers and Operations Research,vol.13,pp.533–549,1986.
[7]J.Kennedy and R.Eberhard,“Particle swarm optimization”,Proceedingsof IEEE International Conference on Neural Networks,Publishing,Piscataway,NJ,USA,pp.1942-1948,1995.
[8]M.F.Tasgetiren,Y.C.Liang,M.Sevkli,and G.Gencyilmaz,“A particleswarm optimization algorithm for makespan and total flowtime minimization inthe permutation flowshop sequencing problem”,European Journal of OperationalResearch,vol.177,pp.1930-1947,2007.
[9]R.Storn,“On the usage of differential evolution for functionoptimization”,Proceedings of the 1996 Biennial Conference of the NorthAmerican Fuzzy Information Processing Society,Publishing,pp.519-523,1996.
[10]R.Storn,and K.Price,“Differential evolution:A simple andefficient heuristic for global optimization over continuous spaces”,Journalof Global Optimization,vol.11,pp.341-359,1997.
[11]M.Dorigo and L.Gambardella,“Ant Colony System:A CooperativeLearning Approach to the Traveling Salesman Problem”,IEEE Transactions onEvolutionary Computation,vol.1,pp.53-66,1997.
[12]P.Lozano,Estimation of distribution algorithms:A new tool forevolutionary computation.Kluwer,Boston MA,2002.
[13]D.Karaboga,“An idea based on Honey Bee Swarm for NumericalOptimization”,Technical Report TR06,Engineering Faculty,Erciyes University,2005.
[14]F.Liu,Y.Sun,G.Wang,T.Wu,“An Artificial Bee Colony Algorithm Basedon Dynamic Penalty and Lévy Flight for Constrained Optimization Problems”,Arabian Journal for Science and Engineering,pp.1-20,2018.
[15]D.Karaboga and B.Bastur,“On the performance of artificial beecolony(ABC)algorithm”,Applied Soft Computing,vol.8,pp.687–697,2008.
[16]Y.C.Liang,A.H.L.Chen,Y.H.Nien,“Artificial bee colony for workflowscheduling”,Evolutionary Computation(CEC),2014 IEEE Congress on,558-564,2014.
[17]W.C.Yeh,“Study on Quickest Path Networks with DependentComponents and Apply to RAP”,Technical Report NSC97-2221-E-007-099-MY3,Distinguished Scholars Research Project granted by National Science Council,Taiwan.
[18]W.C.Yeh,“A Two-Stage Discrete Particle Swarm Optimization for theProblem of Multiple Multi-Level Redundancy Allocation in Series Systems”,Expert Systems with Applications,vol.36,pp.9192-9200,2009.
[19]C.M.Lai,W.C.Yeh,and Y.C.Huang,“Entropic simplified swarmoptimization for the task assignment problem”,Applied Soft Computing,vol.58,pp.115-127,2017.
[20]Y.Jiang,P.Tsai,W.C.Yeh,and L.Cao,“A honey-bee-mating basedalgorithm for multilevel image segmentation using Bayesian theorem”,AppliedSoft Computing,vol.52,pp.1181-1190,2017.
[21]W.C.Yeh,“Optimization of the Disassembly Sequencing Problem onthe Basis of Self-adaptive Simplified Swarm Optimization”,IEEE Transactionson Systems,Man,and Cybernetics--Part A:Systems and Humans,vol.42,pp.250-261,2012.
[22]W.C.Yeh,“Novel Swarm Optimization for Mining Classification Ruleson Thyroid Gland Data”,Information Sciences,vol.197,pp.65-76,2012.
[23]W.C.Yeh,“A New Parameter-Free Simplified Swarm Optimization forArtificial Neural Network training and its Application in Prediction of Time-Series”,IEEE Transactions on Neural Networks and Learning Systems,vol.24,pp.661-665,2013.
[24]C.Bae,K.Kang,G.Liu,Y.Y.Chung,“A novel real time video trackingframework using adaptive discrete swarm optimization”,Expert Systems withApplications,vol.64,pp.385-399,2016.
[25]K.Kang,C.Bae,H.W.F.Yeung,and Y.Y.Chung,“A Hybrid GravitationalSearch Algorithm with Swarm Intelligence and Deep Convolutional Feature forObject Tracking Optimization”,Applied Soft Computing,https://doi.org/10.1016/j.asoc.2018.02.037,2018.
[26]P.C.Chang and W.C.Yeh,“Simplified Swarm Optimization withDifferential Evolution Mutation Strategy for Parameter Search”,ICUIMC’13Proceedings of the7th International Conference on Ubiquitous InformationManagement and Communication,Article No.25,ACM New York,NY,USA,ISBN:978-1-4503-1958-4,doi:10.1145/2448556.2448581,2013.
[27]C.L.Huang,“A particle-based simplified swarm optimizationalgorithm for reliability redundancy allocation problems”,ReliabilityEngineering&System Safety,vol.142,pp.221-230,2015.
[28]R.Azizipanah-Abarghooee,T.Niknam,M.Gharibzadeh and F.Golestaneh,“Robust,fast and optimal solution of practical economic dispatch by a newenhanced gradient-based simplified swarm optimisation algorithm”,Generation,Transmission&Distribution,vol 7,pp.620-635,2013.
[29]Hai Xie,Bao Qing Hu,New extended patterns of fuzzy rough setmodels on two universes,International Journal of General Systems,vol.43,pp.570–585,2014.
[30]F.Rossi,D.Velázquez,I.Monedero and F.Biscarri,“Artificial neuralnetworks and physical modeling for determination of baseline consumption ofCHP plants”,Expert Systems with Applications,vol.41,pp.4568-4669,2014.
[31]P.Chang and X.He,“Macroscopic Indeterminacy Swarm Optimization(MISO)Algorithm for Real-Parameter Search”,Proceedings of the 2014 IEEECongress on Evolutionary Computation(CEC2014),Beijing,China,pp.1571-1578,2014.
[32]C.Chou,C.Huang,and P.Chang,“A RFID Network Design Methodology forDecision Problem in Health Care”,Proceedings of the 2014 IEEE Congress onEvolutionary Computation(CEC2014),Beijing,China,pp.1586-1592,2014.
[33]N.Esfandiari,M.Babavalian,A.Moghadam;and V.Tabar,“Knowledgediscovery in medicine:Current issue and future trend”,Expert Systems withApplications,vol.41,pp.4434-4463,2014.
[34]O.Abedinia,M.S.Naderi,A.Jalili,and A.Mokhtarpour,“A novel hybridGA-PSO technique for optimal tuning of fuzzy controller to improve multi-machine power system stability”,International Review of ElectricalEngineering,vol.6,no.2,pp.863-873,2011.
[35]O.Abedinia,N.Amjady,K.Kiani,H.A.Shayanfar,and A.Ghasemi,“Multiobjective environmental and economic dispatch using imperialistcompetitive algorithm”,International Journal on Technical and PhysicalProblems of Engineering,2012.
[36]M.Bagheri,V.Nurmanova,O.Abedinia,and M.S.Naderi,“Enhancing PowerQuality in Microgrids With a New Online Control Strategy for DSTATCOM UsingReinforcement Learning Algorithm”,IEEE Access,vol.6,pp.38986-38996,2018.
[37]O.Abedinia,N.Amjady,and N.Ghadimi,“Solar energy forecasting basedon hybrid neural network and improved metaheuristic algorithm”,ComputationalIntelligence,vol.34,no.1,pp.241-260,2017.
[38]Y.Jiang,P.Tsai,W.C.Yeh,and L.Cao,“A Honey-bee-mating BasedAlgorithm for Multilevel Image Segmentation Using Bayesian theorem”,AppliedSoft Computing,vol.52,pp.1181-1190,2017.
[39]R.M.Rizk-Allah,R.A.El-Sehiemy,G.G.Wang,“A novel parallelhurricane optimization algorithm for secure emission/economic load dispatchsolution”,Applied Soft Computing,vol.63,pp.206-222,2018.
[40]W.F.Yeung,G.Liu,Y.Y.Chung,E.Liu and W.C.Yeh,“Hybrid GravitationalSearch Algorithm with Swarm Intelligence for Object Tracking”,The 23rdInternational Conference on Neural Information Processing(ICONIP 2016),pp.213-221,2016.
[41]L.B.Rosenberg,“Human swarming,a real-time method for paralleldistributed intelligence”,Swarm/Human Blended Intelligence Workshop(SHBI),pp.1–7,2015.
[42]Q.Liu,L.Wu,W.Xiao,F.Wang,and L.Zhang,“A novel hybrid batalgorithm for solving continuous optimization problems,Applied SoftComputing,vol.73,pp.67-82,2018.
[43]S.J.Nasuto,J.M.Bishop,and S.Lauria,“Time complexity analysis ofthe Stochastic Diffusion Search”,Proc.Neural Computation'98,Vienna,Austria,pp.260-266,1998.
发明内容
本公开提供一种谐波群优化方法及其应用,为了提出一种新的连续SSO集成单变量更新机制(UM1)和新型谐波步长策略(HSS),通过引入单变量更新机制(UM1)和谐波步长策略(HSS)以改进连续简化群优化(SSO)。所述的UM1和HSS能够平衡连续SSO在探索高维多变量和多模态数值连续基准函数中的探索与利用能力;更新机制UM1仅需要更新一个变量,并且它完全不同于SSO中的变量不需要更新所有变量;在所述的UM1中,HSS通过基于谐波序列减小步长来增强利用容量。并对18个高维函数进行了数值实验,以确认本公开所提供方法的效率。
为了实现上述目的,根据本公开的一方面,提供一种谐波群优化方法,所述方法包括以下步骤:
步骤1,构建谐波步长策略HSS;
步骤2,建立单变量更新机制UM1
步骤3,通过UM1和HSS优化连续简化群优化SSO得到优化后的SSO;
步骤4,将优化后的SSO应用于大数据处理。
进一步地,在步骤1中,构建谐波步长策略HSS的方法为:为了提高探索性能,构建基于谐波序列的HSS如下式所示:
其中,Nvar是变量的数量,Uk和Lk是第k个变量的上限和下限,i是当前的代数,k是当前变量的索引,符号是floor函数/Floor()函数;将1,1/2,1/3,1/4,的序列称为谐波序列,则基于谐波序列HSS可表示如下:
如果每个遗传的周期持续50代,步长Δi,k的值从一代生成周期逐代减少。
gBest和一些解在长期运行或多代后更接近最佳状态,这些解的更新只需稍微改变即可更接近最佳状态而不会离开最佳区域。由于谐波序列减小,步长从早期生成的较长时间调整到HSS的后期生成中较短时间,从而克服了连续SSO的缺陷。
进一步地,在步骤2中,建立单变量更新机制UM1的方法为:在主要的软计算中,每种解都会略有更新,为了减少随机数并逐渐改变解的稳定性,令每个解的UM1中只更新一个随机选择变量,假设i是当前的生成数,xj,k是从第j个解Xj中随机选择的变量, 是通过修改Xj的xj,k得到的时间解,可以得到以下等式:
σk,1和σk,2是分别在[-0.5,0.5]和[0,1]中生成的均匀随机变量;
ρk是[0,1]中生成的均匀随机变量;gk表示PgBest的第k个(kth)变量;
Lk和Uk分别是第k个变量的下限和上限。
注:
(1)在本公开所提出的UM1中移除每个解的第一个下标和UMa中的变量以减少运行时间,例如,UMa中的Xi,j和xi,j,k被简化为所提出的UM1中的Xj和xj,k
(2)为简单起见而不失一般性,考虑到最小化问题,提出了上述方程的公式。
(3)的上述值如果在更新后不可行并且在代入X*计算F(X*)之前需要更改为其最近的边界。
例如,准备最小化下式:
gen为遗传的代数;
其中,具有以下属性:
属性1:在实施UM1后,每个解中的预期比较和随机值的数量从3·Nvar减少到3,Nvar减少到1。
证明:测试每个更新变量的可行性的数字对UMa和UM1都是一个。然而,对于每个解,UMa测试每个更新的变量,而UM1只测试一个变量。此外,对于每个解,基于式(4)的UMa预期比较数计算如下:
Nvar·(3cw+2cg+cr)≥Nvar·(3cw+3cg+3cr)=3·Nvar,
因为cr<cw<cg和cr+cw+cg=1以及它与cg、cw和cr在式(4)的第一、第二和第三项中的概率进行了1、2和3次比较,可以得到:
(cg+2cw+3cr)≤(3cg+3cw+3cr)=3。
进一步地,在步骤3中,通过UM1和HSS优化连续简化群优化SSO得到优化后的SSO的方法为:本公开所提出的改进的连续SSO方法描述如下:
步骤0,令i=j=gBest=1.
步骤1,通过Xj并计算F(Xj);
步骤2,如果F(XgBest)<F(Xj)则令gBest=j;
步骤3,如果j<Nsol,令j=j+1并转到步骤1;
步骤4,令n*=1,N*=50,且令其中,k=1,2,…,Nvar
步骤5,令i=i+1并且j=1;
步骤6,从Xj中随机选择一个变量,例如xj,k
步骤7,令
步骤8,令
步骤9,如果F(X*)<F(Xj)则令Xj=X*并转到步骤10,否则转到步骤11;
步骤10,如果F(Xj)<F(XgBest)令gBest=j;
步骤11,如果当前运行时间等于或大于T,则流程结束,并且XgBest是适合F(XgBest)的最终解;
步骤12,如果j<Nsol则令j=j+1,并转到步骤6;
步骤13.如果i<N*则转到步骤5;
步骤14.将n*增加1,将N*增加50,并令其中,k=1,2,…,Nvar,并转到步骤5,
其中, 为最佳的第k个变量,xi,j,k为第j个解中第k个变量的当前值,δ<<Δk,Δk为步长,δ与Δk的关系例如,如果δ=100·Δk是最好的情况,xi,j,k将需要100代才能收敛到
进一步地,在步骤4中,将优化后的SSO应用通过人工神经网络在大数据处理中的应用方法为:
步骤A1,采集符合大数据类型的大数据;
步骤A2,对所采集到的大数据进行预处理和清洗,然后抽取出大数据清洗后得到的数据集;
步骤A3,对清洗后得到的数据集进行降维;
步骤A4,将降维后的数据集划分为数据集划分为训练集和测试集;
步骤A5,确定一个人工神经网络的结构为6-5-1的三层感知器神经网络,神经网络共需优化设计41个参数,且神经网络优化设计参数的取值范围为[-1,1];
步骤A6,确定人工神经网络的输入变量为符合大数据类型的大数据,人工神经网络的输出变量为大数据输出;
步骤A7,确定人工神经网络的输入变量和输出变量;
步骤A8,将每个优化后的SSO中的Xj中的变量解码为人工神经网络需优化的参数,计算神经网络在训练了训练集和/或测试集后的误差,并将计算得到的误差作为适应度F(Xj),输入到优化后的SSO中,并将优化后的SSO的运行结果(步骤0到步骤14的运行结果)得到的适合F(XgBest)的最终解XgBest解码为人工神经网络的参数,并将得到的人工神经网络作为分类模型;
步骤A9,通过分类模型对新采集的符合大数据类型的大数据进行分类;
其中,符合大数据类型的大数据包括但不限于符合数据类型为传统企业数据、机器和传感器数据、社交数据中的任何一种大数据;传统企业数据包括CRM systems的消费者数据,传统的ERP数据,库存数据以及账目数据等。机器和传感器数据包括呼叫记录,智能仪表,工业设备传感器,设备日志,交易数据等。社交数据包括用户行为记录,反馈数据等。如Twitter,Facebook这样的社交媒体平台。
其中,大数据输出包括但不限于数据类别置信度、未来任意一段时间的预测值。
优化后的SSO的该项应用能够大幅提高人工神经网络在新获得的大数据的分类精度或预测能力。
进一步地,将优化后的SSO通过支持向量机在大数据处理中的应用的方法为:
步骤B1,采集符合大数据类型的大数据;
步骤B2,对所采集到的大数据进行预处理和清洗并进行特征提取,得到大数据的特征向量;
步骤B3,将大数据的特征向量作为训练数据集;
步骤B4,随机生成j个均匀的随机变量,随机变量集合为Xj,Xj中的每个随机选择的变量都存储了支持向量机的惩罚因子C和径向基核参数g;
步骤B5,计算Xj的适应度F(Xj),输入到优化后的SSO中,并将优化后的SSO的运行结果(步骤0到步骤14的运行结果)得到的适合F(XgBest)的最终解XgBest解码为支持向量机的参数,并将得到的支持向量机作为分类模型;
步骤B6,通过分类模型对新采集的符合大数据类型的大数据进行分类;
其中,符合大数据类型的大数据包括但不限于符合数据类型为传统企业数据、机器和传感器数据、社交数据中的任何一种大数据;传统企业数据包括CRM systems的消费者数据,传统的ERP数据,库存数据以及账目数据等。机器和传感器数据包括呼叫记录,智能仪表,工业设备传感器,设备日志,交易数据等。社交数据包括用户行为记录,反馈数据等。
其中,大数据输出包括但不限于数据分类结果、类别置信度。
优化后的SSO的该项应用能够大幅提高支持向量机对新获得的大数据的分类精度。
本公开的有益效果为:本发明提供一种谐波群优化方法及其应用,提高了传统的ABC和SSO的探索与利用性能、在探索(exploitation)与利用(exploration)之间求得了一个比较优秀的平衡点,并且应用面广泛,能够应用在人工神经网络、遗传算法(GA)、模拟退火、禁忌搜索、蚁群优化、粒子群优化算法、差分进化、算法估计分布、人工蜂群算法(ABC)、帝国主义竞争算法、强化学习算法、贝叶斯网络、飓风优化算法、引力搜索算法、人类群集、蝙蝠算法、随机扩散搜索等寻求优化解的方法通过本公开的方法进行参数等变量优化调整后直接应用于大数据处理、图像处理、音视频的识别等领域,能够大幅提高支持人工神经网络、向量机等对新获得的大数据的分类、预测精度;提高了图像处理、音视频的识别的准确度和速度。
附图说明
通过对结合附图所示出的实施方式进行详细说明,本公开的上述以及其他特征将更加明显,本公开附图中相同的参考标号表示相同或相似的元素,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,在附图中:
图1为在实验1中不同的Δ值和T值下SSO1的平均成功率条形图;
图2为不同Δ值和问题下的SSO1平均成功率和实验1中的问题条形图;
图3为从实验2中的ABC,GA,PSO,SSO1和SSOa获得的Fmin值条形图;
图4为AIO(ABC,SSO1),AIO(SSOa,SSO1),和AIO(ABC,SSOa)的柱状图;
图5为实验2中不同T值下的成功率条形图;
图6为实验2中ABC,SSO1,and SSOa的Fmin值条形图;
图7为实验2中T=1.25时ABC,SSO1和SSOa的平均适应度值的箱形图;
图8为实验2中T=1.50(a)时ABC,SSO1和SSOa的平均适应度值的箱形图;
图9为实验2中T=1.50(b)时ABC,SSO1和SSOa的平均适应度值的箱形图;
图10为实验2中T=1.75时ABC,SSO1和SSOa的平均适应度值的箱形图;
图11为实验2中T=2.00时ABC,SSO1和SSOa的平均适应度值的箱形图;
图12为实验2中T=2.25时ABC,SSO1和SSOa的平均适应度值的箱形图;
图13为实验2中T=2.50时ABC,SSO1和SSOa的平均适应度值的箱形图;
图14为实验2中T=2.75时ABC,SSO1和SSOa的平均适应度值的箱形图;
图15为实验2中T=3.00时ABC,SSO1和SSOa的平均适应度值的箱形图;
图16为实验2中T=3.50时ABC,SSO1和SSOa的平均适应度值的箱形图;
图17为实验2中T=3.75时ABC,SSO1和SSOa的平均适应度值的箱形图。
具体实施方式
以下将结合实施例和附图对本公开的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本公开的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
简化群优化(SSO)概述:
连续型SSO处理变量的方法见参考文献[23-25]。
在传统SSO的基础上,提出了新的连续SSO。此后,在提出本公开提出的新的SSO之前,简要介绍了传统的SSO。
传统(离散)SSO
传统的(离散的)SSO非常有效地解决离散(优化)问题(仅限离散变量)[17-21,32]或浮点数有限的连续问题[22],例如,每个值的数量功能在数据挖掘问题中受到限制。
所有类型的SSO的基本思想是,每个变量,比如xi+1,j,k,,都需要根据以下方程式进行更新:
其中x是随机生成的可行值。其具体细节见参考文献[17-27,31,32]。
cg、cp、cw为参数。
基于等式(1)所示的阶跃函数和生成的随机数ρk,离散SSO通过验证阶跃函数中的第一项到最后一项,更新每个变量,直到找到包含生成的随机数的间隔。
离散SSO仅将每个变量更新为以前从未出现过的低概率值,即cr。因此,大多数情况下,离散SSO只能将变量更新为有限数量的值,即gBest、pBest及其自身,并且这些值仅在以前的所有值中找到。更新过程。上述优点使得离散SSO在解决离散问题时变得非常有效,见参考文献[17-22,32]。
连续型的SSO:
对于一般的连续优化问题,在所有先前的更新过程中可能永远不会发现连续优化问题中的最终解的每个变量。因此,需要针对连续问题修改离散SSO,而不会失去离散SSO的简单性和方便性[23-27,32]。注意,连续SSO的优点正是离散SSO的缺点,反之亦然。
SSO变量的基本的流程从未改变,只是基于等式(1)中列出的更新变量的步骤函数,参见参考文献[17-27,31,32]。到目前为止,发展连续SSO的主要趋势是在等式(1)(参见参考文献[23-25])中的某些项上增加一个阶跃函数,或者将SSO与其他软计算方法结合起来[26,27,31],例如微分进化(参见参考文献[26,31])和PSO(参见参考文献【C.L.Huang,“Aparticle-based simplified swarm optimization algorithm for reliabilityredundancy allocation problems”,Reliability Engineering&System Safety,vol.142,pp.221-230,2015】)。
SSO中的全变量更新机制(例如,等式(1))能够逃避局部优化并探索未到达/未实现的空间。因此,连续SSO的目标是在探索中探索更好的方法,主要步骤是在更新机制的某些项中添加随机步长,该步长由一些随机数乘以步长获得。正如本公开所确定的方法那样,我们对本公开主要目的将是探索更好的步长。
Yeh首先通过在更新机制中添加步骤长度来提出一个连续的SSO,用于预测时间序列问题见参考文献(W.C.Yeh,“A New Parameter-Free Simplified Swarm Optimizationfor Artificial Neural Network training and its Application in Prediction ofTime-Series”,IEEE Transactions on Neural Networks and Learning Systems,vol.24,pp.661-665,2013),如下所示
其中σk是在[-1,1]范围内产生的均匀随机数,步长Δj是第i个解的适应性未得到改善的遗传代数的倒数。
注意,式(2)也是第一个自适应参数概念,它将参数cg(式(2)中表示为cg,i,j)和cw(式(2)中表示为cw,i,j)作为变量,这样每个解在SSO中都有自己的cg和cw。见参考文献【W.C.Yeh,“A New Parameter-Free Simplified Swarm Optimization for ArtificialNeural Network training and its Application in Prediction of Time-Series”,IEEE Transactions on Neural Networks and Learning Systems,vol.24,pp.661-665,2013】,这个概念与传统的SSO不同,SSO的所有参数从开始到结束都是固定的。
为了确定步长Δj的值仍然太大[23,24]即使对于方程(2)中更大的世代数,Yeh提出了一个新的UM(这里称为UMa)通过缩短来更新所有连续变量区间[-1,1]到[-0.5,0.5],将Δj改为并在方程(2)中再乘以一个随机数,(见参考文献【K.Kang,C.Bae,H.W.F.Yeung,and Y.Y.Chung,“A Hybrid Gravitational Search Algorithm withSwarm Intelligence and Deep Convolutional Feature for Object TrackingOptimization”,Applied Soft Computing,https://doi.org/10.1016/j.asoc.2018.02.037,2018】),如下。
其中,
cg、cr为参数,Nvar是变量的数量。σ1,k和σ2,k是在[-0.5,0.5]中生成的两个均匀随机变量;
ρk是在[0,1]中生成的均匀随机变量;Uk和Lk是第k个变量的上限和下限。
在式(3)中,解只能更新为更好的值;否则,UMa在更新之前保留原始解式(4)是UMa中最重要的部分,其背后的概念是每个变量更新到其自身的邻域,gBest的邻域,以及它自身与gBest之间的间隔(如果ρk 在与cr(式(4)中的第一项),cg(式(4)中的第二项)和cw=1-cr-cg(式(4)中的第三项)相关的区间内)。
注:
1、式(4)修正参考文献[25]中的错误,该错误为丢失了ρ2,var
2、在式(4)中,如果更新后的变量不可行,则将其设置为最近的边界。
当前连续SSO的缺点为:
在参考文献[23-25]中提出的现有的连续SSO中,步长都是固定的,并且每个变量需要所有遗传代数的步长。
从式(2)开始,随机步长ρk·Δj的最小值为1/Ngen,仅在ρk=-1和1/Δj=Ngen,即第j个解从开始到结束未改进。例如,如果是Ngen=1000,则为ρk·Δj=-0.001。对于某些特殊问题,上述值仍然太大,因此与最佳值相差太远。
在方程(4)和(5)中,当当前的代数接近其后期的终点时,如果步长Δk太长,更新机制就无法进行利用,使其收敛到最优值。相反,如果步长Δk太短,且解的动量不足,则需要很长时间才能达到最佳值附近,尤其是在早期阶段。
例如,让第j个解中第k个变量的当前值为xi,j,k,最佳的第k个变量为如果δ<<Δk甚至Δk需要计算在[-0.5,0.5]内生成的两个不同的随机数,则下一个更新的解接近最优的可能性很小。然而,如果δ=100·Δk是最好的情况,xi,j,k将需要100代才能收敛到
因此,在探索中具有自适应步长而不是固定步长更合理。因此,本公开提出了一种新的基于HSS的连续SSO更新机制。
本公开提出的UM1和HSS:
为了提高探索性能,本公开提出的基于谐波序列的HSS在式(6)中呈现如下:
其中,Nvar是变量的数量,Uk和Lk是第k个变量的上限和下限,i是当前的代数,k是当前变量的索引,符号是floor函数/Floor()函数。
若将1,1/2,1/3,1/4,的序列称为谐波序列,则本公开提出的基于谐波序列HSS可表示如下:
如果每个遗传的周期持续50代。步长Δi,k的值从一代生成周期逐代减少。如表1所示为基于HSS(如果Uk-Lk=10和Nvar=100)的步长。
表1 20个步长
周期i 1 2 3 4 5 6 7 8 9 10
Δi,k 0.08000 0.04000 0.02667 0.02000 0.01600 0.01333 0.01143 0.01000 0.00889 0.00800
周期i 11 12 13 14 15 16 17 18 19 20
Δi,k 0.00727 0.00667 0.00615 0.00571 0.00533 0.00500 0.00471 0.00444 0.00421 0.00400
gBest和一些解在长期运行或多代后更接近最佳状态。这些解的更新只需稍微改变即可更接近最佳状态而不会离开最佳区域。由于谐波序列减小,步长从早期生成的较长时间调整到HSS的后期生成中较短时间,从而克服了连续SSO的缺陷。
单变量UM(UM1)
在主要的软计算中,每种解都会略有更新。例如,PSO的UM是基于向量的UM为下面列出的两个等式,具体(参见参考文献[7,8,27]):
Vi+1,j=wVi,j+c1·σ1·(G-Xi,j)+c2·σ2·(Pi-Xi,j) (8)
Xi+1,j=Xi,j+Vi+1,j (9)
其中,Vi,j和Xi,j分别是第i代中第j个粒子的速度和位置;
w、c1、c2是常量;σ1和σ2是在区间[0,1]内生成的两个均匀随机变量;Pi是解i的pBest;
G=PgBest为gBest。注:SSO中的PgBest等于式(8)中的G。
在ABC中(参见参考文献[13-16]),为每个解随机选择一个变量进行更新。传统遗传算法(GA)中的更新算子(参见参考文献[3,4])可以通过一个切点交叉更改一半变量,也可以通过一个切点突变更新两个变量。但是,在SSO中,必须更新所有变量。
为了减少随机数并逐渐改变解的稳定性,每个解的UM1中只更新一个随机选择变量。假设i是当前的生成数,xj,k是从第j个解Xj中随机选择的变量,是通过修改Xj的xj,k得到的时间解。可以得到以下等式:
σk,1和σk,2是分别在[-0.5,0.5]和[0,1]中生成的均匀随机变量;
ρk是[0,1]中生成的均匀随机变量;
Lk和Uk分别是第k个变量的下限和上限。
注:
(1)在本公开所提出的UM1中移除每个解的第一个下标和UMa中的变量以减少运行时间,例如,UMa中的Xi,j和xi,j,k被简化为所提出的UM1中的Xj和xj,k
(2)为简单起见而不失一般性,考虑到最小化问题,提出了上述方程的公式。
(3)的上述值如果在更新后不可行并且在代入X*计算F(X*)之前需要更改为其最近的边界。
例如,准备最小化下式:
gen为遗传的代数; (14)
表2列出了基于拟定UM1的不同ρ1值的更新X7
表2 UM1的例子
标记为从1.216>U1=1.0开始用替换
标记!!为从F(X7)=F(-0.41467,-0.3)=0.008395<F(XgBest)=F(-0.5,-0.9)=0.0596开始用gBest=7替换gBest=3。
因此,以下引理为真。
属性1:在实施UM1后,每个解中的预期比较和随机值的数量从3·Nvar减少到3,Nvar减少到1。
证明:测试每个更新变量的可行性的数字对UMa和UM1都是一个。然而,对于每个解,UMa测试每个更新的变量,而UM1只测试一个变量。此外,对于每个解,基于式(4)的UMa预期比较数计算如下:
Nvar·(3cw+2cg+cr)≥Nvar·(3cw+3cg+3cr)=3·Nvar, (15)
因为cr<cw<cg和cr+cw+cg=1以及它与cg、cw和cr在式(4)的第一、第二和第三项中的概率进行了1、2和3次比较,可以得到:
(cg+2cw+3cr)≤(3cg+3cw+3cr)=3, (16)
如果基于式(11)实施UM1,则式(4)中的每个变量都需要σvar,1,σvar,2和ρvar,但仅适用于式(11)中的每个变量。
本公开所提出的改进的连续SSO方法描述如下:
步骤0,令i=j=gBest=1.
步骤1,创建任意Xj并计算F(Xj);
步骤2,如果F(XgBest)<F(Xj)则令gBest=j;
步骤3,如果j<Nsol,令j=j+1并转到步骤1;
步骤4,令n*=1,N*=50,且令其中,k=1,2,…,Nvar
步骤5,令i=i+1并且j=1;
步骤6,从Xj中随机选择一个变量,例如xj,k
步骤7,令
步骤8,令
步骤9,如果F(X*)<F(Xj)则令Xj=X*并转到步骤10,否则转到步骤11;
步骤10,如果F(Xj)<F(XgBest)令gBest=j;
步骤11,如果当前运行时间等于或大于T,则流程结束,并且XgBest是适合F(XgBest)的最终解;
步骤12,如果j<Nsol则令j=j+1,并转到步骤6;
步骤13.如果i<N*则转到步骤5;
步骤14.将n*增加1,将N*增加50,并令其中,k=1,2,…,Nvar,并转到步骤5。
其中, 为最佳的第k个变量,xi,j,k为第j个解中第k个变量的当前值,δ<<Δk,Δk为步长,δ与Δk的关系例如,如果δ=100·Δk是最好的情况,xi,j,k将需要100代才能收敛到
实施例性能评价:
在本实施例中,基于从基准问题扩展的18个50变量连续数值函数见参考文献[13-16,26,25],进行了两个实验,实验1和实验2,如表A实验数据所示。表A实验数据中的数据类型标记包括C:特征数据,U:单峰型数据,M:多峰型数据,S:可分离数据,N:不可分离数据。
表A 实验数据
实验设计:
为了便于识别,将参考文献[25](K.Kang,C.Bae,H.W.F.Yeung,and Y.Y.Chung,“AHybrid Gravitational Search Algorithm with Swarm Intelligence and DeepConvolutional Feature for Object Tracking Optimization”,Applied SoftComputing,https://doi.org/10.1016/j.asoc.2018.02.037,2018)中提出的UMa的SSO称为SSOa,将本实施例中的HSS和UM1实现的SSO在本实施例中称为SSO1。
在实验1中,仅测试HSS的作用和不同的相关步长策略,以确定所提出的HSS中步长的最佳值。在实验2的SSO1中使用实验1中具有最佳结果的步长。
在实验2中,重点转移到比较SSO1与其他四种算法的性能:ABC[13-16],SSOa[25],GA[3,4]和PSO[7,8];GA和PSO是进化计算和群体智能中的两种最先进的算法;如果停止标准分别是适应度函数评估数和运行时间,则ABC[13-16]和SSOa[25]是50个著名基准问题中最常见的算法,其变量小于或等于30。
在所有实验中测试的每个算法都是用C编程语言编写的。其中,ABC代码改编自http://mf.erciyes.edu.tr/abc/。
SSOa,GA和PSO均来自http://integrationandcollaboration.org/SSO.html。每个测试都应用于Intel Core i7-5960X CPU 3.00GHz,16GB RAM和64位Win10,运行时单位为CPU秒。
在所有测试中,在实验过程中在SSO1,SSOa和ABC中应用的所有参数都直接从参考文献[25]中获取,以进行更准确的比较:cr=0.45,cg=0.40,cw=0.15。
对于ABC,所有参数均采用参考文献[13-16]。蜂群大小为50,食物来源数为25,如果在50·25=750次更新后没有改善,则重新生成解。
对于GA,一点交叉,两点突变和精英选择分别以交叉率0.7和突变率0.3实现,见参考文献[3,4]。
对于PSO,在式(4)中cw=0.9并且c1=c2=2.0;如果速度函数的值大于2或小于-2,则将速度函数设置在2或-2的范围内见参考文献[7,8]。
在每一代中,ABC可能不止一次计算适应度值,见参考文献[13-16],因此,使用遗传代数作为停止标准是不正确和不公平的。
另外,ABC中的第二个UM,即“旁观者(the onlooker)”,需要花费额外的时间来更新解。
因此,为了进行公平的比较,实验2中每种算法在1.25、1.50……到3.75计算机秒的时间限制(用t表示)被用作停止标准,以观察每种算法的趋势和变化。
注:每一次运行对于所有三种算法都是独立的。例如,在t=1.50的情况下,每次运行SSO1必须从0秒重新开始,而不是简单地从t=1.25乘以0.25秒扩展到任何运行
对于每个基准函数,平均运行时间是获得50gBest的时间。在所有表中,每个下标表示值的排名。此外,Nrun=55且Nsol=100。
在实际应用中,算法被实施并执行很多次以找到最佳结果。只保留和使用具有最佳结果的解。因此,大多数相关的发表论文只是简单地报告和比较了从算法中获得的最佳结果来证明性,见参考文献[13-16,25,27]。因此,本公开也在实验2中也关注于最佳结果Fmin
实验1:找到最佳步长Δ:
实验1的实验结果,包括Favg、Fmin、Fmax、Fstd成功率(成功解决问题的案例的百分比),以及实验1的基于步长Δ=1.0获得的适应度函数计算的数量,在T=1.25,1.50,......,3.70秒内的55次运行的1.25和1.50,如表3和图1和图2所示,图1为在实验1中不同的Δ值和T值下SSO1的平均成功率,图2为不同Δ值和问题下的SSO1平均成功率和实验1中的问题。
尽管表3中随着T增加所有相关值趋于降低,但发现一些波动,例如,T=2.00时的Favg=0.04467947084586改善到T=2.25时的0.03980129242576,然后Δ=1.25的T=2.50时降低至0.06607165055859,这种波动是由于软计算的随机性以及每次运行是独立的。
根据表3,可以看出Δ=1.25对于T≥2.00(除了T=3.50)具有最佳Fmin,对于T=1.50,2.00,2.25和2.75具有最佳Favg、Fmax和Fstd;对于T=1.75,3.25和3.50,Δ=1.00具有最佳的Favg、Fmin、Fmax和Fstd(除了T=3.25时的Fmin);对于Favg,Fmax和Fstd,Δ=1.75是最小和最大T的最佳值,即T=1.25和T=3.75。
表3 从实验1中的不同Δ值获得的结果
图1和2分别显示了不同t值和基准问题的平均成功率。成功率定义为最终gBest与最优解相等的百分比。例如,62.020%的成功率意味着,Δ=1.25和t=1.25的100·55·18=99,000,最终gBest的62.020%等于相关的优化,其中Nsol=100,Nrun=55,其中,18是基准问题的数量。
根据以上所述可以观察到,对于图1和图2中的不同T值和基准问题,Δ=1.25总是具有最佳平均成功率。注意,Δ=1.25和Δ=1.00之间以及Δ=1.25和Δ=1.50之间的差异高达27%,即,Δ=1.25获得最佳值的概率比Δ=1.00和Δ=1.50高27%。在Δ=1.25下的SSO1能够解决18个基准问题中的14个,这也是Δ的三个设置中最好的。
从表3和图1和2可知,Δ=1.25在解的质量方面优于1.00和1.50。因此,在所提出的HSS和实验2中使用Δ=1.25而不进一步优化Δ。
实验2:ABC,GA,PSO,SSO1和SSOa之间的比较:
从T=1.25,1.50,......,3.70秒内的55次运行中,从五种测试算法(即ABC,GA,PSO,SSO1和SSOa)获得的Fmin的平均值如图3所示,图3为从实验2中的ABC,GA,PSO,SSO1和SSOa获得的Fmin值。将从ABC,SSO1和SSOa获得的结果作为与如图7、图8、图9、图10、图11、图12、图13、图14、图15、图16、图17所示,分别为实验2中T的值分别1.25、1.50(a)、1.50(b)、1.75、2.00、2.25、2.50、2.75、3.00、3.50、3.75时ABC,SSO1和SSOa的平均适应度值的箱形图中的11个箱形图一起显示在图6中,图6为实验2中ABC,SSO1,and SSOa的Fmin值条形图,以图形化的方式描绘了全部结果。注:这11个箱形图也显示了最佳结果。此外,为了获得关于结果的基本部分(从最佳四分位数到第三四分位数的平均值)的更多细节,第三四分位数到平均最差拟合结果被截断。
使用SSO1与ABC和SSOa的平均Fmin改善率(AIO),例如AIO(ABC,SSO1)和AIO(SSOa,SSO1),如图4所示,图4为AIO(ABC,SSO1),AIO(SSOa,SSO1),和AIO(ABC,SSOa)的柱状图。
其中,其中,α,β均表示测试算法;
相关的成功率总结在图5中,图5为实验2中不同T值下的成功率条形图。适应度函数计算的数量如表4所示。
此外,在实验2的一些结果中观察到一些波动。这些波动是由软计算的随机性质和每次运行是独立的实际情况引起的。
表4 实验2中适应度函数计算的数量
解的质量的综合分析
图3、图6和图7强调了ABC、SSO1和SSOA的有效性(即解的质量)。从图3可以看出,遗传算法和粒子群算法的性能都比其他三种算法差得多。这一观察是在其他研究中进行的[13-16]。此外,随着运行时间的增加,遗传算法和粒子群算法的弱点变得更加明显。因此,本公开的其余部分只关注ABC、SSO1和SSOA。
如图7、图8、图9、图10、图11、图12、图13、图14、图15、图16、图17所示,分别为实验2中T的值分别1.25、1.50、1.50、1.75、2.00、2.25、2.50、2.75、3.00、3.50、3.75时ABC,SSO1和SSOa的平均适应度值的箱形图,随着运行时间的增加,结果更接近最优解。从图6可以看出,图6为实验2中ABC,SSO1,and SSOa的Fmin值条形图,对于较小的运行时间,ABC优于SSO1和SSOa,例如,T=1.25和T=1.50。然而,由于现代先进的计算机技术,较小的“运行时间”的相关性并不重要。相反,在T≥2.75秒后SSO1优于ABC,而对于所有T,SSOa优于平均Fmin。对于T=3.75,SSO1和ABC之间的间隙几乎达到0.01,SSO1和SSOa之间的间隙几乎为0.005。此外,当T增加时,ABC对于Favg的SSO1没有提高到相同的程度。上述结果提供了证据表明ABC很容易陷入较大T的局部最优值。
如图7、图8、图9、图10、图11、图12、图13、图14、图15、图16、图17所示,ABC产生更好的Fmax和Fstd值。相反,SSOa产生Fmax和Fstd的最差值。这个结果的原因是SSOa中使用的UMa必须更新所有变量,而ABC中只选择了一个变量,并且SSO1中为每一代的每个解使用了UM1。ABC总是比SSO1和SSOa更强大的另一个原因是ABC容易陷入局部陷阱并且缺乏逃避局部最优的能力。
总之,本公开所提出的SSO1方法比其他的方法具有明显的优势。
平均Fmin改善率(AIO)
为了测量从ABC,SSO1和SSOa获得的平均Fmin的改善量,平均Fmin改善率(AIO)在图4中给出,其中AIO从ABC到SSO1,即AIO(ABC,SSO1),定义如下:
通过AIO(ABC,SSO1)测量ABC和SSO1之间的Fmin的差异,以改善SSO1中的一个Fmin单位,即更高的AIO(ABC,SSO1),SSO1越有效,反之亦然。例如,对于图4中的T=3.75,AIO(ABC,SSO1)=55.673%表明SSO1的平均Fmin的一个单位改善将导致ABC和SSO1的平均Fmin之间的差异增加0.55673。同样,可以得到AIO(SSOa,SSO1)和AIO(ABC,SSOa)。
从图4可以看出,AIO(ABC,SSO1)的值从T=1.25的-21.227%(最差)增加到T=3.75的55.673%(最好);AIO(ABC,SSOa)从T=1.25的48.396%(最好)下降到T=3.25(最差)的4.936%,然后在T=3.75时增加到29.960%。因此,可以得到有以下结论:
1.SSO1的性能总是比ABC快得多,即当T增加时,ABC与Favg的SSO1相比没有提高到相同的程度。
2.从T=1.25到T=3.25,SSOa的平均Fmin改善倾向于与SSO1的平均改善相似。然而,在T=3.25之后,SSO1的性能比SSOa提高了更多。
3.SSOa的解决的质量和稳健性超过ABC。
这些结论的原因是第三个UM“侦察”在逃避局部最优方面不是非常有效,因为如果当前解在预定次数的迭代中没有改善的话,ABC被设计为随机地再生当前解。此外,SSOa中使用的UMa需要更新所有变量,这使得它在全局搜索中更强大,但是逐渐和缓慢地提高其解决的质量。
成功率:
图5示出了相关值的成功率最多比精确解大0.0001,这是可取的,因为相关值应尽可能接近精确值。图5显示了与图7所示类似的观察结果。对于T<2.75的患者,ABC有更好的成功率,但是对于Fmin,SSO1总是有更好的成功率。
效果:
表4主要示出了适应度函数的计算数,以比较ABC、SSO1和SSOA之间的效率。
NABC是适应度函数的总计算数,nABC是从ABC获得最佳最终解的计算数。NSSO1和nSSO1组成的对以及NSSOa和nSSOa组成的对在它们彼此相关的意义上与NABC和nABC平行,因为每对的两个分量都是使用相同的算法导出的(NSSO1和nSSO1来自算法SSO1和NSSOa和nSSOa来自算法SSOa。)
在表4中,比率nABC/NABC小于42%,即在ABC的适应度函数的计算数量的42%之后,最终的最佳解永远不会改变。此外,随着运行时间的增加,比率nABC/NABC降低。这两个观察结果进一步证实,ABC非常适合局部搜索,但全局搜索能力较弱。比率NSSO1/NABC和比率NSSOa/NABC的值均大于918,并且nSSO1/nABC和nSSOa/nABC的值均至少为2,100。因此,UM1和UMa都比ABC中实现的UM快至少918倍,即,UM1和UMa比ABC更有效。表4中nSSOa/NSSOa和nSSO1/NSSO1的比例分别为至少95.5%和95.47%。因此,与ABC相反,SSO1和SSOa几乎在其各自的运行结束时继续改进它们的解,即SSO1和SSOa是非常强的全局搜索算法。
基于这些观察结果,与ABC和SSOa相比,SSO1在探索和利用之间实现了更好的平衡。
结论:
在本公开的实施例中,UM1更新每个解中的一个变量,以提高SSO的探索能力,并引入一个新的HSS来取代固定的步长,以提高SSO的利用能力。
通过对18个高维函数的广泛实验研究,得到的Δ=1.25的HSS实现了比Δ=1.00和Δ=1.50更好的性能。此外,所提出的UM1使用所提出的HSS用于Δ=1.25,在探索和利用之间实现了比ABC,GA,PSO和SSOa更好的折衷。
注:ABC总是具有较小的偏差,这使得它比SSO1和SSOa更加稳健,因为它相对SSO1和SSOa更不容易陷入局部最优。
然而,本公开所提出的算法仍然存在一些局限性,然而,对于所提出的算法仍然存在一些限制,甚至包括ABC,GA,PSO,SSOa和所有当前的软计算:a)在分析基准的一些问题中,被认为是全局最佳的配置没有最高的表现;b)提出的启发式方法需要了解最佳值的限制(上限和下限)。因此,必须改进所提出的算法以克服上述两个主要障碍。
尽管本公开所提出的算法的结果在解决方案质量和效率方面都优于ABC和SSOa。本公开所提出的算法可能对常数参数敏感。因此,考虑到SSO的演化过程,将在未来的工作中探索其灵敏度方面以调整步长。
缩写/术语
Δ表示步长(步进长度);
ρk表示在[0,1]中第k个(kth)变量创建的均匀随机数;
ABC表示人工蜂群算法;
AOI表示Fmin平均Fmin改善率;
F(Xi,j)表示Xi,j的适应度函数;
gBest表示历史上最好的解;
pBest表示其自身的历史上最好的解;
Favg表示50个最佳gBest的平均适应度;
Fmax表示50个最佳gBest中最差的适应度;
Fmin表示50个最佳gBest的最佳适应度;
Fstd表示50个最佳gBest的适应度标准差;
GA表示遗传算法;
gk表示PgBest的第k个(kth)变量;
N表示算法●的平均适应度评估数;
n表示找到算法●的最终gBest的平均适应度评估数;
Navg表示平均适应度评估数;
navg表示找到最终gBest的平均适应度评估数;
NgBest表示gBest的数量;
Ngen表示遗传代数;
Nrun表示独立运行次数;
Nsol表示解数量;
Nvar表示变量数量;
PgBest表示当前的gBest(历史上最好的解);
Pi表示第i个(ith)解的当前pBest(其自身的历史上最好的解);
pi,j表示Pi的第j(jth)个变量;
PSO表示粒子群优化算法/粒子群演算法;
SSO表示简化群优化算法/简化群体演算法;
T表示运行时间限制;
UM1表示单变量更新机制;
UMa表示全变量更新机制;
Xi,j表示第j(jth)代的第i(ith)个解;
xi,j,k表示Xgen,sol的第k个(kth)变量;
Xgen,sol表示第gen代第sol个解。

Claims (2)

1.一种谐波群优化方法在通过人工神经网络在大数据处理中的应用,其特征在于,所述一种谐波群优化方法包括以下步骤:
步骤1,构建谐波步长策略HSS;
步骤2,建立单变量更新机制UM1
步骤3,通过UM1和HSS优化连续简化群优化SSO得到优化后的SSO;
步骤4,将优化后的SSO应用于大数据处理;
在步骤1中,构建谐波步长策略HSS的方法为:构建基于谐波序列的HSS如下式所示:
其中,是floor函数/ Floor()函数,是变量的数量,是第k个变量的上限和下限,i是当前的代数,k是当前变量的索引;若将1,1/2,1/3,1/4,的序列称为谐波序列,则基于谐波序列HSS可表示如下:
如果每个遗传的周期持续50代,步长的值从一代生成周期逐代减少;
在步骤2中,建立单变量更新机制UM1的方法为:令每个解的UM1中只更新一个随机选择变量,假设i是当前的生成数,是从第j个解中随机选择的变量,X *=(x j,1,…,x j,k-1,,x j,k+1,…,x j,Nvar)是通过修改得到的时间解,可以得到以下等式:
是分别在[-0.5,0.5]和[0,1]中生成的均匀随机变量;
是[0,1]中生成的均匀随机变量;表示的第k个()变量;
分别是第k个变量的下限和上限;
在步骤3中,通过UM1和HSS优化连续简化群优化SSO得到优化后的SSO的方法为以下的步骤:
步骤0,令i=j=gBest=1.
步骤1,通过并计算F();
步骤2,如果F()<F()则令gBest=j
步骤3,如果j< j=j+1 并转到步骤1;
步骤4,令n*=1,N*=50,且令 ,其中,k=1,2,…,
步骤5,令i=i+1 并且j=1;
步骤6,从中随机选择一个变量,
步骤7,令
步骤8,令 X *=(x j,1,…,x j,k-1,,x j,k+1,…,x j,Nvar);
步骤9,如果 F(X *)<F()则令=X *并转到步骤10,否则转到步骤11;
步骤10,如果 F()<F()令gBest=j
步骤11,如果当前运行时间等于或大于T,则流程结束,并且是适合F()的最终解;
步骤12,如果j<则令j=j+1,并转到步骤6;
步骤13,如果i<N*则转到步骤5;
步骤14,将n*增加1,将N*增加50,并令=,其中,k=1,2,…,,并转到步骤5;
应用的方法为:
步骤A1,采集符合大数据类型的大数据;
步骤A2,对所采集到的大数据进行预处理和清洗,然后抽取出大数据清洗后得到的数据集;
步骤A3,对清洗后得到的数据集进行降维;
步骤A4,将降维后的数据集划分为数据集划分为训练集和测试集;
步骤A5,确定一个人工神经网络的结构为6-5-1的三层感知器神经网络,神经网络共需优化设计41个参数,且神经网络优化设计参数的取值范围为[-1,1];
步骤A6,确定人工神经网络的输入变量为符合大数据类型的大数据,人工神经网络的输出变量为大数据输出;
步骤A7,确定人工神经网络的输入变量和输出变量;
步骤A8,将每个优化后的SSO中的中的变量解码为人工神经网络需优化的参数,计算神经网络在训练了训练集和/或测试集后的误差,并将计算得到的误差作为适应度F(),输入到优化后的SSO中,并将优化后的SSO的运行结果得到的适合F()的最终解解码为人工神经网络的参数,并将得到的人工神经网络作为分类模型;
步骤A9,通过分类模型对新采集的符合大数据类型的大数据进行分类;
其中,所述符合大数据类型的大数据包括机器和传感器数据,所述机器和传感器数据包括呼叫记录、智能仪表、工业设备传感器、设备日志以及交易数据。
2.一种谐波群优化方法在通过支持向量机在大数据处理中的应用,其特征在于,所述一种谐波群优化方法包括以下步骤:
步骤1,构建谐波步长策略HSS;
步骤2,建立单变量更新机制UM1
步骤3,通过UM1和HSS优化连续简化群优化SSO得到优化后的SSO;
步骤4,将优化后的SSO应用于大数据处理;
在步骤1中,构建谐波步长策略HSS的方法为:构建基于谐波序列的HSS如下式所示:
其中,是floor函数/ Floor()函数,是变量的数量,是第k个变量的上限和下限,i是当前的代数,k是当前变量的索引;若将1,1/2,1/3,1/4,的序列称为谐波序列,则基于谐波序列HSS可表示如下:
如果每个遗传的周期持续50代,步长的值从一代生成周期逐代减少;
在步骤2中,建立单变量更新机制UM1的方法为:令每个解的UM1中只更新一个随机选择变量,假设i是当前的生成数,是从第j个解中随机选择的变量,X *=(x j,1,…,x j,k-1,,x j,k+1,…,x j,Nvar)是通过修改得到的时间解,可以得到以下等式:
是分别在[-0.5,0.5]和[0,1]中生成的均匀随机变量;
是[0,1]中生成的均匀随机变量;表示的第k个()变量;
分别是第k个变量的下限和上限;
在步骤3中,通过UM1和HSS优化连续简化群优化SSO得到优化后的SSO的方法为以下的步骤:
步骤0,令i=j=gBest=1.
步骤1,通过并计算F();
步骤2,如果F()<F()则令gBest=j
步骤3,如果j< j=j+1 并转到步骤1;
步骤4,令n*=1,N*=50,且令 ,其中,k=1,2,…,
步骤5,令i=i+1 并且j=1;
步骤6,从中随机选择一个变量,
步骤7,令
步骤8,令 X *=(x j,1,…,x j,k-1,,x j,k+1,…,x j,Nvar);
步骤9,如果 F(X *)<F()则令=X *并转到步骤10,否则转到步骤11;
步骤10,如果 F()<F()令gBest=j
步骤11,如果当前运行时间等于或大于T,则流程结束,并且是适合F()的最终解;
步骤12,如果j<则令j=j+1,并转到步骤6;
步骤13,如果i<N*则转到步骤5;
步骤14,将n*增加1,将N*增加50,并令=,其中,k=1,2,…,,并转到步骤5;
应用的方法为:
步骤B1,采集符合大数据类型的大数据;
步骤B2,对所采集到的大数据进行预处理和清洗并进行特征提取,得到大数据的特征向量;
步骤B3,将大数据的特征向量作为训练数据集;
步骤B4,随机生成j个均匀的随机变量,随机变量集合为中的每个随机选择的变量都存储了支持向量机的惩罚因子C和径向基核参数g;
步骤B5,计算的适应度F(),输入到优化后的SSO中,并将优化后的SSO的运行结果得到的适合F()的最终解解码为支持向量机的参数,并将得到的支持向量机作为分类模型;
步骤B6,通过分类模型对新采集的符合大数据类型的大数据进行分类;
其中,所述符合大数据类型的大数据包括机器和传感器数据,所述机器和传感器数据包括呼叫记录、智能仪表、工业设备传感器、设备日志以及交易数据。
CN201910497327.7A 2019-06-10 2019-06-10 一种谐波群优化方法及其应用 Active CN112070200B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910497327.7A CN112070200B (zh) 2019-06-10 2019-06-10 一种谐波群优化方法及其应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910497327.7A CN112070200B (zh) 2019-06-10 2019-06-10 一种谐波群优化方法及其应用

Publications (2)

Publication Number Publication Date
CN112070200A CN112070200A (zh) 2020-12-11
CN112070200B true CN112070200B (zh) 2024-04-02

Family

ID=73658186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910497327.7A Active CN112070200B (zh) 2019-06-10 2019-06-10 一种谐波群优化方法及其应用

Country Status (1)

Country Link
CN (1) CN112070200B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113141102B (zh) * 2021-04-13 2024-10-18 李怡心 基于改进混合粒子群禁忌算法的特定谐波消去方法
CN115830411B (zh) * 2022-11-18 2023-09-01 智慧眼科技股份有限公司 生物特征模型训练方法、生物特征提取方法及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881703A (zh) * 2015-05-20 2015-09-02 东北石油大学 图像阈值分割的Tent映射改进蜂群算法
CN108470018A (zh) * 2018-02-22 2018-08-31 中国铁道科学研究院 基于经验模态分解分解的内蕴模式函数的光滑方法及装置
CN109816000A (zh) * 2019-01-09 2019-05-28 浙江工业大学 一种新的特征选择与参数优化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881703A (zh) * 2015-05-20 2015-09-02 东北石油大学 图像阈值分割的Tent映射改进蜂群算法
CN108470018A (zh) * 2018-02-22 2018-08-31 中国铁道科学研究院 基于经验模态分解分解的内蕴模式函数的光滑方法及装置
CN109816000A (zh) * 2019-01-09 2019-05-28 浙江工业大学 一种新的特征选择与参数优化方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A new harmonic continuous simplified swarm optimization;Wei-Chang Yeh;《Applied Soft Computing Journal》;20190618;1-10 *
New Parameter-Free Simplified Swarm Optimization for Artificial Neural Network Training and Its Application in the Prediction of Time Series;Wei-Chang Yeh,;《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》;20130430;第24卷(第4期);661-665 *
一种基于粒子群优化算法的间谐波分析方法;吕干云 等;《电工技术学报》;20091231;第24卷(第12期);156-161 *
基于改进混合蜂群算法的非线性电路谐波平衡分析;公忠盛 等;《计算机应用研究》;20180731;第35卷(第7期);1970-1995 *

Also Published As

Publication number Publication date
CN112070200A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
Li et al. Deep reinforcement learning: Framework, applications, and embedded implementations
Ishibuchi et al. Analysis of interpretability-accuracy tradeoff of fuzzy systems by multiobjective fuzzy genetics-based machine learning
Hassan et al. Operational framework for recent advances in backtracking search optimisation algorithm: A systematic review and performance evaluation
Li et al. Development and investigation of efficient artificial bee colony algorithm for numerical function optimization
Xu An adaptive parameter tuning of particle swarm optimization algorithm
Mahmoodabadi et al. HEPSO: high exploration particle swarm optimization
Zheng et al. An accurate GRU-based power time-series prediction approach with selective state updating and stochastic optimization
Antonelli et al. Genetic training instance selection in multiobjective evolutionary fuzzy systems: A coevolutionary approach
Yang et al. Fast economic dispatch in smart grids using deep learning: An active constraint screening approach
Bukharov et al. Development of a decision support system based on neural networks and a genetic algorithm
Wang et al. A hybrid optimization-based recurrent neural network for real-time data prediction
Zhang et al. Efficient and merged biogeography-based optimization algorithm for global optimization problems
Zeng et al. A GA-based feature selection and parameter optimization for support tucker machine
CN114639483B (zh) 一种基于图神经网络的电子病历检索方法及装置
He et al. Optimising the job-shop scheduling problem using a multi-objective Jaya algorithm
Hardiansyah et al. Solving economic load dispatch problem using particle swarm optimization technique
Kaboli et al. An expression-driven approach for long-term electric power consumption forecasting
Biswas et al. Hybrid expert system using case based reasoning and neural network for classification
CN112070200B (zh) 一种谐波群优化方法及其应用
Czajkowski et al. Steering the interpretability of decision trees using lasso regression-an evolutionary perspective
Yang et al. Prediction of equipment performance index based on improved chaotic lion swarm optimization–LSTM
CN115185804A (zh) 服务器性能预测方法、系统、终端及存储介质
Cao et al. Differential evolution algorithm with dynamic multi-population applied to flexible job shop schedule
Huang et al. A coevolutionary estimation of distribution algorithm based on dynamic differential grouping for mixed-variable optimization problems
Mashwani et al. Hybrid differential evolutionary strawberry algorithm for real-parameter optimization problems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 528000 No. 18, Jiangwan Road, Chancheng District, Guangdong, Foshan

Patentee after: Foshan University

Country or region after: China

Address before: 528000 No. 18, Jiangwan Road, Chancheng District, Guangdong, Foshan

Patentee before: FOSHAN University

Country or region before: China

CP03 Change of name, title or address