CN111930011A - 一种基于离散时间反馈模型winner-take-all的智能优化算法 - Google Patents

一种基于离散时间反馈模型winner-take-all的智能优化算法 Download PDF

Info

Publication number
CN111930011A
CN111930011A CN202010628866.2A CN202010628866A CN111930011A CN 111930011 A CN111930011 A CN 111930011A CN 202010628866 A CN202010628866 A CN 202010628866A CN 111930011 A CN111930011 A CN 111930011A
Authority
CN
China
Prior art keywords
vector
model
value
input
take
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010628866.2A
Other languages
English (en)
Inventor
巫光福
廖云鹏
王盼盼
廖列法
李帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi University of Science and Technology
Original Assignee
Jiangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi University of Science and Technology filed Critical Jiangxi University of Science and Technology
Priority to CN202010628866.2A priority Critical patent/CN111930011A/zh
Publication of CN111930011A publication Critical patent/CN111930011A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于离散时间反馈模型winner‑take‑all的智能优化算法,包括为待优化函数在取值范围内随机生成初始值,生成的初始值形成初始向量,为优化算法设置步长,计算出待优化函数的初始,将fj作为所提出的WTA模型的输入,使用WTA模型计算出向量fj=[f1,f2,f3...f10]T中的最优值Fbest(Xbest),根据步长s搜索方向o再次生成10个下一步的搜索位置,计算出10个不同的fj=[f1,f2,f3...f10]T。该一种基于离散时间反馈模型winner‑take‑all的智能优化算法,基于非线性差分方程,提出了一个离散的时间模型,能够产生WTA现象,且能够使用这个模型设计了一种只能优化算法,该算法不需要获取优化问题的约束条件、梯度信息就能够对问题进行优化,能够使用该算法优化一些函数,进一步使用该算法优化了双闭环倒立摆系统的PID参数。

Description

一种基于离散时间反馈模型winner-take-all的智能优化 算法
技术领域
本发明涉及winner-take-all模型技术领域,具体为一种基于离散时间 反馈模型winner-take-all的智能优化算法。
背景技术
Winner-take-all(赢者通吃)指的是组内代理互相竞争激活的现象,最 终只有具有最大输入的代理保持激活状态,而其他代理则被抑制,“赢者通吃” 竞争模拟了自然界中存在的许多竞争现象:如植物的生成竞争,皮层竞争决 策,动物社会觅食和交配,和视觉系统中神经元之间的竞争等,并发现了许 多工程领域的应用,赢者通吃竞争的计算能力异常强大,可以产生计算智能 应用所需的一些有用的功能,由于工程应用中赢者通吃竞争的重要性,已经 有许多人尝试设计电路来实现它,研究人员提出了各种模型来解释或产生赢家通吃行为,如N物种Lotka-Volterra模型被设计用来解释winner-take-all 竞争现象,受到递归神经网络的巨大成功的启发,已经有许多人利用递归神 经网络来研究赢者通吃竞争,如FitzHughNagumo模型能够证明互动扣球,用 于研究赢家通吃行为。
在以往研究中,赢者通吃问题被认为是优化问题的解决方案,其结果是 通过解决这个问题而产生的,现基于离散的WTA模式,设计一种智能优化算 法,Winner-take-all神经网络具有高速并行分布处理的能力,可轻松的通过 硬件实现,能够被用于进行实时处理的强大工具,可成功应用于各种控制系 统。
针对上述问题,在原有winner-take-all模型的基础上进行创新设计。
发明内容
本发明的目的在于提供一种基于离散时间反馈模型winner-take-all的 智能优化算法,可轻松的通过硬件实现,能够被用于进行实时处理的强大工 具,可成功应用于各种控制系统。
为实现上述目的,本发明提供如下技术方案:一种基于离散时间反馈模 型winner-take-all的智能优化算法,包括以下步骤:
步骤1)、为待优化函数在取值范围内随机生成初始值,生成的初始值形 成初始向量X=[x1,x2,x3...xm]T,为优化算法设置步长s,随机生成10个搜 索方向0=[o1,o2,o3...o10]T,其中Oi在[-s,s]之间随机取值;
步骤2)、将初始向量x作为待优化函数的F(x)的输入,计算出待优化函 数的初始F(x);
步骤3)、初始向量X根据搜索方向o和步长s生成下10个下一步搜索的 位置Xj=[x1j,x2j,x3j...xmj]T将xj作为函数f(x)的输入,计算出10个不同 的fj=[f1,f2,f3...f10]T
步骤4)、将fj作为所提出的WTA模型的输入;使用WTA模型计算出向 量fj=[f1,f2,f3...f10]T中的最优值Fbest(Xbest);
步骤5)、Xbest是向量X取得f(x)取得最优值时的Xj,将取得Xbest的作为步骤3的输入,然后根据步长s搜索方向o再次生成10个下一步的搜 索位置Xj=[x1j,X2j,x3j...xmj]T,然后再次将xj作为函数f(x)的输入,计算 出10个不同的fj-[f1,f2,f3...f10]T
步骤6)、反复迭代,直到函数取得最优值。
优选的,所述该基于离散时间反馈模型winner-take-all的智能优化算 法不需要获取优化问题的约束条件、梯度信息就能够对问题进行优化。
优选的,所述步骤1中的10个搜索方向o的产生方式为: oj=s*rand;(-1,1)其中randj(-1,1)表示生成一个在在[-1,1]之间的随机 数,其中i表示对第i个搜索方向的操作。
优选的,所述步骤4所使用的WTA模型为:
Figure RE-GDA0002691794410000031
其中x表示一个向量,它是 一个由不同元素状态值组成的t时刻的状态向量,u表示由不同输入值来组成 的输入向量,其取值范围是u∈[-1,1],f表示其输出向量,f是由状态向量的 每一个分量的值除以状态向量的p范数得到,f2n-1表示输出向量的每个分量 的2n-1次方,可以加快模型的收敛速度,在输入值很接近时,能够很快的区 分出最大值,运算符
Figure RE-GDA0002691794410000032
代表hadamard乘积,即两个向量的对应位置的元 素相乘,t表示时刻,||x||p表示向量在t时刻的p范数,将上述模型中的符号 扩展为的形式,如下所示:
u=[u1,u2,u3…un]T x(t)=[x1,x2,x3…xn]T
f-[f1,f2,f3…fm]T u=f2a-1-[u1x1,u2x2,u3x3,…umxm]T
对于矩阵中每一个元素的,其运算过程如下:
xi(i+1)=uifi 2n-1(t)
Figure RE-GDA0002691794410000034
在上面的模型中,其中i=1...m表示向量中元素的索引,对于每一个元 素ui∈[-1,1]是对应位置元素的输入值,而对于其它符号ui∈[-1,1]表示向量 x中索引为i的元素在t时刻的状态,向量的p范数具体表示为
Figure RE-GDA0002691794410000041
fi(t+1)表示索引为i的元素在t+1时刻的输出值。
与现有技术相比,本发明的有益效果是:该一种基于离散时间反馈模型winner-take-all的智能优化算法,基于非线性差分方程,提出了一个离散的 时间模型,能够产生WTA现象,且能够使用这个模型设计了一种只能优化算 法,该算法不需要获取优化问题的约束条件、梯度信息就能够对问题进行优 化,能够使用该算法优化一些函数,进一步使用该算法优化了双闭环倒立摆 系统的PID参数。
附图说明
图1为本发明流程示意图;
图2为本发明WTA模型在静态竞争场景中y(t)在随机初始化下所有维度 上的输出象示意图;
图3为本发明WTA模型n取不同值时的收敛速度对比示意图;
图4为本发明待优化函数Michalewicz函数的函数示意图;
图5为本发明只能优化算法在迭代100次以内搜索Michalewicz的全局 最优解示意图;
图6为本发明待优化函数Ackley函数的函数示意图;
图7为本发明只能优化算法在迭代100次以内搜索Ackley的全局最优解 示意图;
图8为本发明待优化的倒立摆控制系统结构示意图;
图9为本发明倒立摆控制系统的Simulink仿真示意图;
图10为本发明倒立摆控制系统经过智能算法优化PID参数后的响应曲线 示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所 描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发 明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的 所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:
请参阅图1-10,本发明提供一种技术方案:一种基于离散时间反馈模型 winner-take-all的智能优化算法,包括以下步骤:
步骤1)、为待优化函数在取值范围内随机生成初始值,生成的初始值形 成初始向量X=[x1,x2,x3...xm]T,为优化算法设置步长s,随机生成10个搜 索方向0=[o1,o2,o3…o10]T,其中Oi在[-s,s]之间随机取值;
步骤2)、将初始向量x作为待优化函数的F(x)的输入,计算出待优化函 数的初始F(x);
步骤3)、初始向量X根据搜索方向o和步长s生成下10个下一步搜索的 位置Xj=[x1j,x2j,x3j...xmj]T将xj作为函数f(x)的输入,计算出10个不同 的fj=[f1,f2,f3...f10]T
步骤4)、将fj作为所提出的WTA模型的输入;使用WTA模型计算出向 量fj=[f1,f2,f3...f10]T中的最优值Fbest(Xbest);
步骤5)、Xbest是向量X取得f(x)取得最优值时的Xj,将取得Xbest的作为步骤3的输入,然后根据步长s搜索方向o再次生成10个下一步的搜 索位置Xj=[x1j,x2j,x3j...xmj]T,然后再次将xj作为函数f(x)的输入,计算 出10个不同的fj-[f1,f2,f3...f10]T
步骤6)、反复迭代,直到函数取得最优值。
本例中该基于离散时间反馈模型winner-take-all的智能优化算法不需 要获取优化问题的约束条件、梯度信息就能够对问题进行优化;
步骤1中的10个搜索方向0的产生方式为:oj=s*randj(-1,1)其中randj(-1,1)表示生成一个在在[-1,1]之间的随机数,其中i表示对第i个搜索 方向的操作;
步骤4所使用的WTA模型为:
Figure RE-GDA0002691794410000061
其中x表示一个向量,它是一个由不同元素状态值组成的t时刻的状态向量,u表示由不同输入值来 组成的输入向量,其取值范围是u∈[-1,1],而f表示它输出向量,它是由状 态向量的每一个分量的值除以状态向量的p范数得到的。f2n-1表示输出向量 的每个分量的2n-1次方,可以加快模型的收敛速度,在输入值很接近时,能 够很快的区分出最大值;运算符
Figure RE-GDA0002691794410000062
代表hadamard乘积,即两个向量的 对应位置的元素相乘;t表示时刻,||x||p表示向量在t时刻的p范数。把上述 模型中的符号扩展为的形式,如下所示
u=[u1,u2,u3...um]T x(t)=[x1,x2,x3...xn]T
f=[f1,f2,f3…fm]T u·f2n-1=[u1x1,u2x2,u3x3,…umxm]T
对于矩阵中每一个元素的,其运算过程如下:
xi(t+1)=uifi 2a-1 (t)
Figure RE-GDA0002691794410000064
在上面的模型中,其中i=1...m表示向量中元素的索引。对于每一个元 素ui∈[-1,1]是对应位置元素的输入值,而对于其它符号ui∈[-1,1]表示向 量x中索引为i的元素在t时刻的状态。向量的p范数具体表示为
Figure RE-GDA0002691794410000071
fi(t+1)表示索引为i的元素在t+1时刻的输出值。
实施例1
Ackley函数的优化流程:
Ackley函数中xi∈[-600,600],因此我们设置s=30,初始值设置 为X=(300,300,300,300,300),计算得f(x)=35C,然后随机生成10个搜 索方向O=[-8.090,-2.174,8.84,8.32,14.73,-9.44,-7.33,8,23, -2.27]至此初始化部分结束;
然后根据初始向量X和搜索方向O和步长s生成下10个下一 步搜索的位置Xj=[x1j,x2j,x3j...xmj]T将xj作为函数f(x)的输入, 计算出10个不同的fj=[f1,f2,f3...f10]T
然后将fj作为所提出的WTA模型的输入;使用WTA模型计算出向量 fj=[f1,f2,f3...f10]T中的最优值Fbest(Xbest);
经过多次迭代,最终计算出Ackley的最小值是f(x)≈0,当 x≈(0.0.0.0.0)时。
实施例2
Michalewicz函数的优化流程:
首先设置s=0.3,初始值设置为X=(0,0),计算得f(x)=0,然后随机 生成10个搜索方向o=[0.02,0.2,0.09.-0.02,-0.08,0.1,-0.123,0.17, 0,23,0.27]至此初始化部分结束;
进一步根据初始向量X根据搜索方向o和步长s生成下10个下一步搜索的 位置Xj=[x1j,x2j,x3j...xrej]T将xj作为函数f(x)的输入,计算出10个不同的 fj=[f1,f2,f3...f10]T
然后将fj作为所提出的WTA模型的输入;使用WTA模型计算出向量fj=[f1,f2,f3...f10]T中的最优值Fbest(Xbest);
经过多次迭代,最终计算出Michalewicz的最小值是f(x)≈-1.0013, 当x≈(2.20319,1.57049)时。
实施例3
倒立摆控制系PID参数的优化流程:
首先对倒立摆系统建模后得到它的状态空间方程:
Figure RE-GDA0002691794410000081
然后将其作为Simulink仿真模型状态空间方程的输入;
由于倒立摆是由两组PID控制控制,因此我们使用WTA算法优化两组PID 参数,其中使用ITAE作为评测函数;
最终得到的PID响应曲线如图10所示,其中上线条为位移响应曲线,下 线条为角度响应曲线。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而 言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行 多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限 定。

Claims (4)

1.一种基于离散时间反馈模型winner-take-all的智能优化算法,其特征在于:包括以下步骤:
步骤1)、为待优化函数在取值范围内随机生成初始值,生成的初始值形成初始向量X=[x1,x2,x3...xm]T,为优化算法设置步长s,随机生成10个搜索方向O=[o1,o2,o3...o10]T,其中oi在[-s,s]之间随机取值;
步骤2)、将初始向量x作为待优化函数的F(x)的输入,计算出待优化函数的初始F(x);
步骤3)、初始向量X根据搜索方向o和步长s生成下10个下一步搜索的位置Xj=[x1j,x2j,x3j...xmj]T将xj作为函数f(x)的输入,计算出10个不同的fj=[f1,f2,f3...f10]T
步骤4)、将fj作为所提出的WTA模型的输入;使用WTA模型计算出向量fj=[f1,f2,f3...f10]T中的最优值Fbest(Xbest);
步骤5)、Xbest是向量X取得f(x)取得最优值时的Xj,将取得Xbest的作为(3)的输入,然后根据步长s搜索方向o再次生成10个下一步的搜索位置Xj=[x1j,x2j,x3j...xmj]T,然后再次将xj作为函数f(x)的输入,计算出10个不同的fj=[f1,f2,f3...f10]T
步骤6)、反复迭代,直到函数取得最优值。
2.根据权利要求1所述的一种基于离散时间反馈模型winner-take-all的智能优化算法,其特征在于:所述该基于离散时间反馈模型winner-take-all的智能优化算法不需要获取优化问题的约束条件、梯度信息就能够对问题进行优化。
3.根据权利要求1所述的一种基于离散时间反馈模型winner-take-all的智能优化算法,其特征在于:所述步骤1中的10个搜索方向O的产生方式为:oj=s*randj(-1,1);其中randj(-1,1)表示生成一个在在[-1,1]之间的随机数;其中i表示对第i个搜索方向的操作。
4.根据权利要求1所述的一种基于离散时间反馈模型winner-take-all的智能优化算法,其特征在于:所述步骤4所使用的WTA模型为:
Figure RE-FDA0002626842100000021
Figure RE-FDA0002626842100000022
其中x表示一个向量,它是一个由不同元素状态值组成的t时刻的状态向量,u表示由不同输入值来组成的输入向量,其取值范围是u∈[-1,1],而f表示它输出向量,它是由状态向量的每一个分量的值除以状态向量的p范数得到的;f2n-1表示输出向量的每个分量的2n-1次方,可以加快模型的收敛速度,在输入值很接近时,能够很快的区分出最大值;运算符
Figure RE-FDA0002626842100000025
代表hadamard乘积,即两个向量的对应位置的元素相乘;t表示时刻,||x||p表示向量在t时刻的p范数;把上述模型中的符号扩展为的形式,如下所示:
u=[u1,u2,u3...um]T x(t)=[x1,x2,x3...xm]T
f=[f1,f2,f3...fm]T
Figure RE-FDA0002626842100000023
对于矩阵中每一个元素的,其运算过程如下:
xi(t+1)=uifi 2n-1(t)
Figure RE-FDA0002626842100000024
在上面的模型中,其中i=1...m表示向量中元素的索引,对于每一个元素ui∈[-1,1]是对应位置元素的输入值,而对于其它符号ui∈[-1,1]表示向量x中索引为i的元素在t时刻的状态,向量的p范数具体表示为
Figure RE-FDA0002626842100000031
fi(t+1)表示索引为i的元素在t+1时刻的输出值。
CN202010628866.2A 2020-07-01 2020-07-01 一种基于离散时间反馈模型winner-take-all的智能优化算法 Pending CN111930011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010628866.2A CN111930011A (zh) 2020-07-01 2020-07-01 一种基于离散时间反馈模型winner-take-all的智能优化算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010628866.2A CN111930011A (zh) 2020-07-01 2020-07-01 一种基于离散时间反馈模型winner-take-all的智能优化算法

Publications (1)

Publication Number Publication Date
CN111930011A true CN111930011A (zh) 2020-11-13

Family

ID=73317038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010628866.2A Pending CN111930011A (zh) 2020-07-01 2020-07-01 一种基于离散时间反馈模型winner-take-all的智能优化算法

Country Status (1)

Country Link
CN (1) CN111930011A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08321747A (ja) * 1995-05-24 1996-12-03 Sharp Corp 入力判定回路
US6462586B1 (en) * 2001-05-04 2002-10-08 Winbond Electronics Corp. Selectability of maximum magnitudes for K-winner take all circuit
CN109543813A (zh) * 2019-01-23 2019-03-29 江西理工大学 一种离散时间动态反馈辅助winner-take-all竞争方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08321747A (ja) * 1995-05-24 1996-12-03 Sharp Corp 入力判定回路
US6462586B1 (en) * 2001-05-04 2002-10-08 Winbond Electronics Corp. Selectability of maximum magnitudes for K-winner take all circuit
CN109543813A (zh) * 2019-01-23 2019-03-29 江西理工大学 一种离散时间动态反馈辅助winner-take-all竞争方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
巫光福等: "一种改进的winner-take-all模型及在图像中的应用", 《计算机应用研究》 *

Similar Documents

Publication Publication Date Title
Mohamed et al. Variational information maximisation for intrinsically motivated reinforcement learning
Davidson et al. Theory of morphological neural networks
Parsopoulos et al. Objective function" stretching" to alleviate convergence to local minima
WO2022134391A1 (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
Parsopoulos et al. Stretching technique for obtaining global minimizers through particle swarm optimization
Ydstie Forecasting and control using adaptive connectionist networks
Perrin et al. Mean field games flock! the reinforcement learning way
CN107909153A (zh) 基于条件生成对抗网络的模型化策略搜索学习方法
CN113792874A (zh) 基于先天知识的持续学习方法及装置
Curran et al. Using PCA to efficiently represent state spaces
Thornton et al. Robust character recognition using a hierarchical Bayesian network
Kozlova et al. The use of neural networks for planning the behavior of complex systems
US7788194B2 (en) Method for controlling game character
Bi et al. Avoiding the local minima problem in backpropagation algorithm with modified error function
Rabault et al. 18 Deep Reinforcement Learning Applied to Active Flow Control
CN111930011A (zh) 一种基于离散时间反馈模型winner-take-all的智能优化算法
Ghorbani et al. Reinforcement learning with subspaces using free energy paradigm
CN109543813A (zh) 一种离散时间动态反馈辅助winner-take-all竞争方法
Elomda et al. Fuzzy cognitive map with linguistic values
Betere et al. Investigation of multi-layer neural network performance evolved by genetic algorithms
Xu et al. Cascade attribute learning network
Li et al. A fuzzy logic based approach for crowd simulation
Lu et al. Accomplishing robot grasping task rapidly via adversarial training
Stollenga Advances in humanoid control and perception
Mohtasib et al. Robot Policy Learning from Demonstration Using Advantage Weighting and Early Termination

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201113

RJ01 Rejection of invention patent application after publication