CN108092307A - 基于虚拟狼群策略的分层分布式智能发电控制方法 - Google Patents
基于虚拟狼群策略的分层分布式智能发电控制方法 Download PDFInfo
- Publication number
- CN108092307A CN108092307A CN201711349509.7A CN201711349509A CN108092307A CN 108092307 A CN108092307 A CN 108092307A CN 201711349509 A CN201711349509 A CN 201711349509A CN 108092307 A CN108092307 A CN 108092307A
- Authority
- CN
- China
- Prior art keywords
- strategy
- power
- delta
- state
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000010248 power generation Methods 0.000 title claims abstract description 20
- 238000009826 distribution Methods 0.000 title abstract description 6
- 230000009471 action Effects 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims abstract description 42
- 230000008859 change Effects 0.000 claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims abstract description 7
- 238000012797 qualification Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 claims description 7
- 229910052799 carbon Inorganic materials 0.000 claims description 7
- 230000001105 regulatory effect Effects 0.000 claims description 7
- 150000001875 compounds Chemical class 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000013316 zoning Methods 0.000 abstract 1
- 239000003795 chemical substances by application Substances 0.000 description 39
- 238000005457 optimization Methods 0.000 description 8
- 230000009194 climbing Effects 0.000 description 3
- 230000009916 joint effect Effects 0.000 description 3
- 101150018690 CPS2 gene Proteins 0.000 description 2
- 241000282461 Canis lupus Species 0.000 description 2
- 101100020327 Salvia divinorum KPS gene Proteins 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 102100026422 Carbamoyl-phosphate synthase [ammonia], mitochondrial Human genes 0.000 description 1
- 101000855412 Homo sapiens Carbamoyl-phosphate synthase [ammonia], mitochondrial Proteins 0.000 description 1
- 101000983292 Homo sapiens N-fatty-acyl-amino acid synthase/hydrolase PM20D1 Proteins 0.000 description 1
- 101000861263 Homo sapiens Steroid 21-hydroxylase Proteins 0.000 description 1
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- H02J3/382—
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J3/00—Circuit arrangements for ac mains or ac distribution networks
- H02J3/38—Arrangements for parallely feeding a single network by two or more generators, converters or transformers
- H02J3/46—Controlling of the sharing of output between the generators, converters, or transformers
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J2203/00—Indexing scheme relating to details of circuit arrangements for AC mains or AC distribution networks
- H02J2203/20—Simulating, e g planning, reliability check, modelling or computer assisted design [CAD]
Landscapes
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
基于虚拟狼群策略的分层分布式智能发电控制方法,具体步骤如下:确定状态离散集S;确定联合动作离散集A;采集各个电网的实时运行数据;在当前状态s,某区域电网i获得一个短期的奖励函数信号Ri(k);对所有区域电网,更新所有状态‑动作(s,a)对应的Q函数表格和资格迹矩阵e(sk,ak);更新当前状态s下的混合策略合策略π(sk,ak);选择变学习率δ;更新决策变化率Δ(sk,ak)和决策空间斜率值Δ2(sk,ak);输出总功率参考值△P∑i,应用一致性算法;根据AGC的目标函数,计算区域电网i中机组u的调节功率△Pi;计算一致性变量ψi和区域电网i中机组u的调节功率△Pi;计算功率偏差△Perror‑i;输出区域电网i中机组u的调节功率△Piu;令k=k+1。本发明能解决多智能体大规模激增时产生的多解问题,解决新能源大规模接入所带来的随机扰动问题。
Description
技术领域
本发明涉及电力系统智能发电控制技术,特别涉及一种基于虚拟狼群策略的分层分布式智能发电控制方法。
背景技术
目前由主要以煤炭为原料生产的电能在社会生产中占据主导地位,使得环境污染问题日益严重,特别是大气污染,于是越来越多的风、光等大规模清洁能源不断并入强耦合的互联电网,给互联电网带来电压越限、功率波动、频率失稳等问题,影响电网的安全运行。特别是这些能源分布较为分散,传统集中式自动发电控制(automation generationcontrol,AGC)已无法满足电力系统能源管理系统(energy management system,EMS)的要求,因而研究分布式AGC来进行最优控制是未来智能电网发展的必然趋势。
近来,许多学者致力于电网分布式控制。有文献提出了多智能体的分布式相关均衡Q(λ)方法(decentralized correlated equilibrium Q(λ)-learning,DCEQ(λ))来解决分布式能源接入后智能发电控制(smart generation control,SGC)的复杂随机动态特性和最优协调控制问题。然而,当多智能体个数增加时,DCEQ(λ)在搜索多智能体均衡解时间呈几何数增加,限制了其在更大规模系统里的应用。
因此,基于多智能体的分散式赢与快速学习爬山方法(decentralized win orlearn fast policy hill-climbing(λ),DWoLF-PHC(λ))被提出,它利用平均混合策略取代了均衡,解决了多智能体个数增加时的多解问题,有效提高了系统动态特性,实现了对总功率指令动态优化控制。然而并没有对机组功率指令进行动态优化分配;且当多智能体大规模激增时,仍会出现多解,导致系统不稳定。因此需要探索新方法,解决多解问题的同时,对机组功率进行动态优化分配,以获得分布式控制系统的协同一致性。
在一个多智能体系统(multi-agent system,MAS)中,当智能体与临近智能体进行信息交互而取得相同目标,称为达到一致。有文献采用多智能系统协同一致性(multi-agent system collaborative consensus,MAS-CC)的理论对机组功率进行动态分配,有效地解决了多智能体个数大规模激增所带来多解问题,同时能够对机组功率进行动态优化分配。然而在追求机组功率分配具有协同一致性的同时,忽略了AGC总功率指令动态优化控制。国内外可查文献都没有对AGC总功率动态优化控制的同时对机组功率指令进行了动态优化分配,即没能从整体到分支自上而下实现真正意义的智能化。
发明内容
发明的目的在于克服现有技术的缺点与不足,提供一种基于虚拟狼群策略的分层分布式智能发电控制方法,该方法是从AGC角度来探索一种基于多智能体随机一致博弈原理,融入新输赢评判标准和资格迹的智能发电控制方法,即基于虚拟狼群策略的分层分布式结构控制方法,简称虚拟狼群策略。该策略结合了多智能体随机博弈(multi-agentsystem stochastic game,MAS-SG)和MAS-CC理论,即多智能体随机一致博弈(multi-agentsystem stochastic consensus game,MAS-SCG)原理。该方法在MAS-SG理论部分采用融合新的输赢评判标准、资格迹的PDWoLF-PHC(λ)算法,用以获得多区域SGC的均衡解,进而解决传统集中式AGC无法解决的新能源接入所带来的扰动问题。在MAS-CC理论部分的采用基于机组爬升时间的一致性算法,用以解决各个领地电网以及各个机组的功率最优分配问题。本发明可提高新能源利用率,减少碳排放,具有更快的动态优化速度和更强的鲁棒性。
本发明采取的技术方案为:
基于虚拟狼群策略的分层分布式智能发电控制方法,包括以下步骤:
步骤1、确定状态离散集S;
步骤2、确定联合动作离散集A;
步骤3、在每个控制周期开始时,采集各个电网的实时运行数据,所述实时运行数据包括频率偏差Δf和功率偏差ΔP,计算各个区域控制误差ACEi(k)的瞬时值与控制性能标准CPSi(k)的瞬时值,根据混合策略集合π(sk,ak)选择搜索动作ak;
步骤4、在当前状态s,某区域电网i获得一个短期的奖励函数信号Ri(k);
步骤5、对所有区域电网,更新所有状态-动作(s,a)对应的Q函数表格和资格迹e(sk,ak);
步骤6、更新当前状态s下的混合策略合策略π(sk,ak);
步骤7、选择变学习率δ;
步骤8、根据函数更新决策变化率Δ(sk,ak)和决策空间斜率值Δ2(sk,ak);
步骤9、输出总功率参考值△P∑i,应用一致性算法;
步骤10、根据AGC的目标函数,计算区域电网i中机组u的调节功率△Piu;
步骤11、如果没有越过机组功率约束,执行步骤13;
步骤12、更新一致性变量ψi和计算区域电网i中机组u的调节功率△Piu;
步骤13、计算功率偏差△Perror-i;
步骤14、如果不满足|△Perror-i|<εi,执行步骤9;
步骤15、输出区域电网i中机组u的调节功率△Piu;
步骤16、令k=k+1,并返回步骤3。
本发明一种基于虚拟狼群策略的分层分布式智能发电控制方法,有益效果如下:
(1):本发明基于MAS-SCG原理提出了一种新颖的,具有新赢输评判标准且融入资格迹的虚拟狼群策略,以解决传统集中式AGC无法解决的大规模新能源接入电网所带来的随机扰动问题。
(2):本发明基于MAS-SG原理,提出一种PDWoLF-PHC(λ)算法,以解决传统MAS-SG体系下智能体需要严格的知识体系的普适性问题;解决在2×2及以上博弈中,传统MAS-SG方法的赢输标准下,智能体无法进行精确计算,收敛到纳什均衡速度慢的问题。基于MAS-CC理论,采用爬升时间一致性算法对机组总功率进行动态优化分配。通过虚拟狼群策略最终获得AGC机组最优控制策略的最优解,并满足CPS要求。
(3):本发明通过以机组碳排放和区域控制误差ACE为优化目标,选取ACE和所有机组的碳排放的加权和作为奖励函数。并通过对IEEE标准两区域LFC电力系统改进模型以及某省电网模型进行仿真,结果验证所提虚拟狼群策略的有效性。与其他传统方法相比,所提策略能够满足CPS指标、提高闭环系统性能、减少碳排放、最大程度提高能源利用率。
(4):本发明能解决多智能体大规模激增时产生的多解问题,解决新能源大规模接入所带来的随机扰动问题,实现对分层分布式控制系统的协同控制与优化。本发明可提高新能源利用率,具有更快的动态优化速度和更强的鲁棒性。
附图说明
图1为某省电网的模型图。
图2为基于虚拟狼群策略的分层分布式智能发电控制方法的执行流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例:
本实施例是将所提策略应用到某省电网中。某省电网模型的结构如图1所示,包含了43个可调机组,总调节功率为13691.5kW,不可调机组作为负荷扰动出力。并且,每个可调机组都有对应的智能体,智能体之间的连接权重bij选为1。分别采用了阶跃扰动(最后幅值:1000;考核周期:86400s)、正弦扰动(振幅:1000;考核周期:86400s)和随机白噪声(噪声功率:10000;考核周期:86400s)来模拟电力系统中的负荷扰动和不确定性。使用Simulink进行建模仿真研究。每个区域电网AGC控制器在综合其它区域电网ACE实时值和所采取策略的条件下各自寻求最优联合动作策略。
1)、分析系统特性以对状态集S离散化:此实例根据某省电网调度中心CPS指标划分标准,将CPSl值划分为6个状态:(-∞,0),[0,100%),[100%,150%),[150%,180%),[180%,200%),[200%,+∞),再将ACE分成正负2个状态,由此每个智能体可以确定有12个状态。ACE的状态主要是为了区分引起CPS指标波动的原因。
2)、确定联合动作离散集A,第i区域电网的动作集为Ai=[-50,-40,-30,-20,-10,0,10,20,30,40,50]MW,联合动作策略集为A=A1×A2×L×Ai×L×An,A为控制器的输出动作,即AGC的功率调节指令。控制步长采用AGC控制周期,取4s。
3)、在每个控制周期开始时采集各个区域电网的实时运行数据:Δf,ΔP,其中Δf表示系统频率偏差,ΔP表示联络线功率偏差。根据国际通用考核办法ACE=Ta-Ts-10B(fa-fs),Ta,Ts分别为联络线实际潮流值与期望潮流值;B为频率偏差系数;fa,fs分别为系统实际频率值与期望频率值;Bi为控制区域i的频率偏差系数;ε1为互联电网对全年1分钟频率平均偏差均方根的控制目标值;n为该考核时段的分钟数;ΔfAVE为频率偏差的平均值;ACEAVE-1min为区域控制误差ACE在1分钟内的平均值;CPS2=(1-R)×100%、ε10为互联电网对全年10分钟频率平均偏差均方根的控制目标值;Bnet为整个互联电网的频率偏差系数;ACEAVE-10min为区域控制误差ACE在10分钟内的平均值;和式CPS2=(1-R)×100%计算各个区域的ACEi(k)与CPSi(k)瞬间值。
4)、根据各个区域的ACEi(k)与CPSi(k)瞬间值确定当前状态s,并获得区域电网的立即奖励值Ri(k),奖励函数设计如下:
式中,ΔPiu(k)和ACE(k)分别表示在第k次迭代时区域电网i中第u个机组的调节功率瞬时值和ACE的瞬时值,η和(1-η)分别为和ACE(k)的奖励权重,这里选择η=0.5。Ciu为区域电网i中第u个机组的碳排放强度系数。Ui为区域电网i中的机组总数。
5)、智能体在第k步迭代过程中的Q函数的表达式为:
式中,γ为折扣因子,为Q函数将来的奖励提供折扣;在热电厂为主导的负荷频率控制过程中,由于最新的奖励最重要,所以应该选取近似1的值。R(sk,sk+1,ak)为在选定的动作ak下,从状态sk转移到状态sk+1的智能体奖励函数;ek(sk,ak)为在状态s动作a下第k步迭代的资格迹,a'为贪婪动作策略。α为Q学习率,设置为0<α<1,对Q函数的收敛速率即算法稳定性进行权衡;更大的α可以加快学习速度,而更小的α能提高系统的稳定性;在预学习过程中,选择α的初始值为0.1以获得总体的探索,然后为了逐渐提高系统的稳定性,它将以线性方式减少。Qk(sk,ak)为动作ak下,状态sk的第k个智能体的Q函数;Qk+1(sk,ak)为动作ak下,状态sk的第k+1个智能体的Q函数。
资格迹ek(sk,ak)更新为:
式中,λ为资格迹衰减因子设置为0<λ<1,其作用是在状态动作对间分配信誉;对于长时延系统,它影响收敛速度及非马尔可夫效果,一般来说,回溯法里λ能被看作为时间标度因素,对于Q函数误差来说,小的λ意味着很少的信誉被赋予到历史状态动作对,而大的λ表明分配到了更多的信誉。γ为折扣因子,为Q函数将来的奖励提供折扣;ek(s,a)为为在状态s动作a下第k步迭代的资格迹;ek+1(s,a)为为在状态s动作a下第k+1步迭代的资格迹。
6)、混合策略π(sk,ak)更新为:
式中是策略更新时需要的增量变化量,它按照下面公式取值:
一般情况下,按照下面公式取值:
式中δ为变学习率,且δlose>δwin,|Ai|为状态s下可选行动的个数。
7)、变学习率δ为:
通过引入决策变化率以及决策空间斜率值,作为评判因素,若决策变化率和决策空间斜率值的乘积小于0,游戏者便赢了,变学习率δ设置为0<δ<1,根据动作值的最大化得到一个最优策略。
更新决策变化率Δ(sk,ak)和决策空间斜率值Δ2(sk,ak)为:
式中,是策略更新时需要的增量变化量,Δ(sk,ak)是决策变化率,Δ2(sk,ak)是决策空间斜率值。通过引入增量变化量与决策变化率Δ(sk,ak),更新决策空间斜率值Δ2(sk,ak)。
应用一致性算法为:
式中ψi是第i个智能体的状态;k表示离散时间序列;dij[k]表示行随机矩阵D=[dij]∈Rn×n在离散时刻k的第(i,j)项
式中lij为拉普拉斯矩阵,表示为:
式中常数bij(bij≥0)代表智能体间的权重因子,在智能体之间持续的相互交流及恒定增益bij条件下,当且仅当有向图是强连通时,能够实现协同一致性。
功率偏差△Perror-i:
式中△Perror-i是总功率指令和所有机组总调节功率的差值。
步骤14的功率偏差:
|△Perror-i|<εi
式中εi是最大功率偏差。
在下一个周期到来时,返回步骤3)。
本发明的核心是结合MAS-SG和MAS-CC两大框架体系,对资格迹思想、SARAS(λ)算法、PDWoLF-PHC算法的融合,奖励函数的设计、混合策略和变学习率的求解及每个智能体Q值的更新。其中结合MAS-SG和MAS-CC两大框架体系和资格迹思想的融合是关键创新点。MAS主从网络理论的出现,为MAS-CC和MAS-SG两大框架的融合提供了一种途径,即在智能体数量众多的跟随者网络中采用MAS-CC框架,智能体个数相对较少的领导者之间采用MAS-SG框架,我们称之为具有同构/异构相混合复杂结构的“多智能体随机协同对策(multi-agentsystem stochastic consensus game,MAS-SCG)”。MAS-SCG的思想源于野生狼群在恶劣的自然界中捕猎过程所采取的协同一致策略,从而保证了他们的生存与繁衍生息。资格迹是一种方法,它能详细记录各联合动作策略发生的频率,并依此对各动作策略的迭代Q值进行更新。在每次迭代过程中,联合状态与动作会被记录到资格迹中,对学习过程中多步历史决策给予奖励和惩罚。Q函数与资格迹以二维状态动作对的形式被记录下来。资格迹将历史决策过程的频度及渐新度联系在一起,以获得AGC控制器的最优Q函数。
本发明方法可以完整描述如下:
1)、分析系统特性确定状态离散集S,具体可以通过CPSl和ACE值的划分;
2)、确定联合动作离散集A,其中A=A1×A2×L×Ai×L×An,Ai为智能体i的输出离散动作集,n为智能体个数;
3)、在每个控制周期开始时,采集各个电网的实时运行数据,所述实时运行数据包括频率偏差Δf和功率偏差ΔP,各个区域的ACEi(k)与CPSi(k)瞬时值,其中Δf表示系统频率偏差,ΔP表示联络线功率偏差;根据混合策略集合π(sk,ak)选择搜索动作ak;
4)、在当前状态s,某区域电网i获得一个短期的奖励函数信号Ri(k),Ri(k)的设计为区域电网i第k步ACE和CPS1的差分值以及功率调节值的线性组合,公式为:
式中,ΔPiu(k)和ACE(k)分别表示在第k次迭代时区域电网i中第u个机组的调节功率瞬时值和ACE的瞬时值,η和(1-η)分别为和ACE(k)的奖励权重,这里选择η=0.5。Ciu为区域电网i中第u个机组的碳排放强度系数。Ui为区域电网i中的机组总数。
5)、智能体在第k步迭代过程中的Q函数的表达式为:
式中,γ为折扣因子,为Q函数将来的奖励提供折扣;在热电厂为主导的负荷频率控制过程中,由于最新的奖励最重要,所以应该选取近似1的值。R(sk,sk+1,ak)为在选定的动作ak下,从状态sk转移到状态sk+1的智能体奖励函数;ek(sk,ak)为在状态s动作a下第k步迭代的资格迹,a'为贪婪动作策略。α为Q学习率,设置为0<α<1,对Q函数的收敛速率即算法稳定性进行权衡;更大的α可以加快学习速度,而更小的α能提高系统的稳定性;在预学习过程中,选择α的初始值为0.1以获得总体的探索,然后为了逐渐提高系统的稳定性,它将以线性方式减少。Qk(sk,ak)为动作ak下,状态sk的第k个智能体的Q函数;Qk+1(sk,ak)为动作ak下,状态sk的第k+1个智能体的Q函数。
资格迹ek(sk,ak)更新为:
式中,λ为资格迹衰减因子设置为0<λ<1,其作用是在状态动作对间分配信誉;对于长时延系统,它影响收敛速度及非马尔可夫效果,一般来说,回溯法里λ能被看作为时间标度因素,对于Q函数误差来说,小的λ意味着很少的信誉被赋予到历史状态动作对,而大的λ表明分配到了更多的信誉。γ为折扣因子,为Q函数将来的奖励提供折扣;ek(s,a)为为在状态s动作a下第k步迭代的资格迹;ek+1(s,a)为为在状态s动作a下第k+1步迭代的资格迹。
6)、混合策略π(sk,ak)更新为:
式中是策略更新时需要的增量变化量,它按照下面公式取值:
一般情况下,按照下面公式取值:
式中δ为变学习率,且δlose>δwin,|Ai|为状态s下可选行动的个数。
7)、选择变学习率δ为:
通过引入决策变化率以及决策空间斜率值,作为评判因素,若决策变化率和决策空间斜率值的乘积小于0,游戏者便赢了,变学习率δ设置为0<δ<1,根据动作值的最大化得到一个最优策略。
8)、更新决策变化率Δ(sk,ak)和决策空间斜率值Δ2(sk,ak)为:
式中,是策略更新时需要的增量变化量,Δ(sk,ak)是决策变化率,Δ2(sk,ak)是决策空间斜率值。通过引入增量变化量与决策变化率Δ(sk,ak),更新决策空间斜率值Δ2(sk,ak)。
9)、输入总功率指令△P∑i,对功率指令进行一致性计算,一致性算法为
式中ψi是第i个智能体的状态;k表示离散时间序列;dij[k]表示行随机矩阵D=[dij]∈Rn×n在离散时刻k的第(i,j)项
式中lij为拉普拉斯矩阵,表示为:
式中常数bij(bij≥0)代表智能体间的权重因子,在智能体之间持续的相互交流及恒定增益bij条件下,当且仅当有向图是强连通时,能够实现协同一致性。
10)、功率偏差△Perror-i:
式中△Perror-i是总功率指令和所有机组总调节功率的差值。
11)、判断机组调节功率是否越过发电约束,若越过,执行下一步骤,没有越过执行步骤9)。
12)、比较功率偏差△Perror-i,当功率误差的绝对值小于等于最大功率误差时,执行下一步骤,否则执行步骤11。
|△Perror-i|<εi
式中εi是最大功率偏差。
13)、输出区域电网i中机组u的调节功率△Piu;
14)、在下一个周期到来时,返回步骤3)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于包括以下步骤:
步骤1、确定状态离散集S;
步骤2、确定联合动作离散集A;
步骤3、在每个控制周期开始时,采集各个电网的实时运行数据,所述实时运行数据包括频率偏差Δf和功率偏差ΔP,计算各个区域控制误差ACEi(k)的瞬时值与控制性能标准CPSi(k)的瞬时值,根据混合策略集合π(sk,ak)选择搜索动作ak;
步骤4、在当前状态s,某区域电网i获得一个短期的奖励函数信号Ri(k);
步骤5、对所有区域电网,更新所有状态-动作(s,a)对应的Q函数表格和资格迹e(sk,ak);
步骤6、更新当前状态s下的混合策略合策略π(sk,ak);
步骤7、选择变学习率δ;
步骤8、根据函数更新决策变化率Δ(sk,ak)和决策空间斜率值Δ2(sk,ak);
步骤9、输出总功率参考值△P∑i,应用一致性算法;
步骤10、根据AGC的目标函数,计算区域电网i中机组u的调节功率△Piu;
步骤11、如果没有越过机组功率约束,执行步骤13;
步骤12、更新一致性变量ψi和计算区域电网i中机组u的调节功率△Piu;
步骤13、计算功率偏差△Perror-i;
步骤14、如果不满足|△Perror-i|<εi,执行步骤9;
步骤15、输出区域电网i中机组u的调节功率△Piu;
步骤16、令k=k+1,并返回步骤3。
2.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤1的状态离散集S,通过控制性能标准CPS和区域控制误差ACE值的划分来确定。
3.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤2的联合动作离散集A的表达式为:
A=A1×A2×…×Aj×…×An,
其中,Ai为智能体i的输出离散动作集,n为智能体个数。
4.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤4的短期奖励函数信号Ri(k)的表达式为:
<mrow>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>U</mi>
<mi>i</mi>
</msub>
</munderover>
<msub>
<mi>C</mi>
<mrow>
<mi>i</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<msub>
<mi>&Delta;P</mi>
<mrow>
<mi>i</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>&rsqb;</mo>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mn>1000</mn>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&eta;</mi>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>&lsqb;</mo>
<mi>A</mi>
<mi>C</mi>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
式中,ΔPiu(k)和ACE(k)分别表示在第k次迭代时区域电网i中第u个机组的调节功率瞬时值和ACE的瞬时值,η和(1-η)分别为和ACE(k)的奖励权重,这里选择η=0.5。Ciu为区域电网i中第u个机组的碳排放强度系数。Ui为区域电网i中的机组总数。
5.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤5的智能体在第k步迭代过程中的Q函数的表达式为:
<mrow>
<msub>
<mi>Q</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>Q</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>&alpha;</mi>
<mo>&lsqb;</mo>
<mi>R</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>s</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>&gamma;</mi>
<munder>
<mi>max</mi>
<mrow>
<msup>
<mi>a</mi>
<mo>&prime;</mo>
</msup>
<mo>&Element;</mo>
<mi>A</mi>
</mrow>
</munder>
<msub>
<mi>Q</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msup>
<mi>a</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>Q</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<msub>
<mi>e</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
式中,γ为折扣因子,为Q函数将来的奖励提供折扣;在热电厂为主导的负荷频率控制过程中,由于最新的奖励最重要,所以应该选取近似1的值。R(sk,sk+1,ak)为在选定的动作ak下,从状态sk转移到状态sk+1的智能体奖励函数;ek(sk,ak)为在状态s动作a下第k步迭代的资格迹,a'为贪婪动作策略。α为Q学习率,设置为0<α<1,对Q函数的收敛速率即算法稳定性进行权衡;更大的α可以加快学习速度,而更小的α能提高系统的稳定性;在预学习过程中,选择α的初始值为0.1以获得总体的探索,然后为了逐渐提高系统的稳定性,它将以线性方式减少。Qk(sk,ak)为动作ak下,状态sk的第k个智能体的Q函数;Qk+1(sk,ak)为动作ak下,状态sk的第k+1个智能体的Q函数。
资格迹ek(sk,ak)更新为:
<mrow>
<msub>
<mi>e</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>a</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&gamma;&lambda;e</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>a</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>a</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&gamma;&lambda;e</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>a</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
式中,λ为资格迹衰减因子设置为0<λ<1,其作用是在状态动作对间分配信誉;对于长时延系统,它影响收敛速度及非马尔可夫效果,一般来说,回溯法里λ能被看作为时间标度因素,对于Q函数误差来说,小的λ意味着很少的信誉被赋予到历史状态动作对,而大的λ表明分配到了更多的信誉。γ为折扣因子,为Q函数将来的奖励提供折扣;ek(s,a)为为在状态s动作a下第k步迭代的资格迹;ek+1(s,a)为为在状态s动作a下第k+1步迭代的资格迹。
6.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤6的混合策略π(sk,ak)更新为:
<mrow>
<mi>&pi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>&pi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>&Delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
</mrow>
式中是策略更新时需要的增量变化量,它按照下面公式取值:
<mrow>
<msub>
<mi>&Delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<mi>a</mi>
<mo>&NotEqual;</mo>
<msub>
<mi>argmax</mi>
<msup>
<mi>a</mi>
<mo>&prime;</mo>
</msup>
</msub>
<mi>Q</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msup>
<mi>a</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mo>&Sigma;</mo>
<mrow>
<msup>
<mi>a</mi>
<mo>&prime;</mo>
</msup>
<mo>&NotEqual;</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
<msub>
<mi>&delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
一般情况下,按照下面公式取值:
<mrow>
<msub>
<mi>&delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
<mo>=</mo>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>&pi;</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>,</mo>
<mfrac>
<mi>&delta;</mi>
<mrow>
<mo>|</mo>
<msub>
<mi>A</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
式中δ为变学习率,且δlose>δwin,|Ai|为状态s下可选行动的个数。
7.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤7的选择变学习率δ为:
<mrow>
<mi>&delta;</mi>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&delta;</mi>
<mrow>
<mi>w</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mi>&Delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&times;</mo>
<msup>
<mi>&Delta;</mi>
<mn>2</mn>
</msup>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo><</mo>
<mn>0</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&delta;</mi>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
通过引入决策变化率Δ(sk,ak)以及决策空间斜率值Δ2(sk,ak)作为评判因素,若决策变化率和决策空间斜率值的乘积小于0,游戏者便赢了,变学习率δ设置为0<δ<1,根据动作值的最大化得到一个最优策略。
所述步骤8的更新决策变化率Δ(sk,ak)和决策空间斜率值Δ2(sk,ak)为:
<mrow>
<msup>
<mi>&Delta;</mi>
<mn>2</mn>
</msup>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&Delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
<mo>-</mo>
<mi>&Delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>&Delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&Delta;</mi>
<mrow>
<msub>
<mi>s</mi>
<mi>k</mi>
</msub>
<msub>
<mi>a</mi>
<mi>k</mi>
</msub>
</mrow>
</msub>
</mrow>
式中,是策略更新时需要的增量变化量,Δ(sk,ak)是决策变化率,Δ2(sk,ak)是决策空间斜率值。通过引入增量变化量与决策变化率Δ(sk,ak),更新决策空间斜率值Δ2(sk,ak)。
8.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤9的应用一致性算法为:
<mrow>
<msub>
<mi>&psi;</mi>
<mi>i</mi>
</msub>
<mo>&lsqb;</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>&rsqb;</mo>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>d</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>k</mi>
<mo>&rsqb;</mo>
<msub>
<mi>&psi;</mi>
<mi>j</mi>
</msub>
<mo>&lsqb;</mo>
<mi>k</mi>
<mo>&rsqb;</mo>
</mrow>
式中ψi是第i个智能体的状态;k表示离散时间序列;dij[k]表示行随机矩阵D=[dij]∈Rn×n在离散时刻k的第(i,j)项
<mrow>
<msub>
<mi>d</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>k</mi>
<mo>&rsqb;</mo>
<mo>=</mo>
<mo>|</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>/</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mo>|</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
</mrow>
式中lij为拉普拉斯矩阵,表示为:
<mrow>
<msub>
<mi>l</mi>
<mrow>
<mi>i</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mi>j</mi>
<mo>&NotEqual;</mo>
<mi>i</mi>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>b</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<mo>&ForAll;</mo>
<mi>i</mi>
<mo>&NotEqual;</mo>
<mi>j</mi>
</mrow>
式中常数bij(bij≥0)代表智能体间的权重因子,在智能体之间持续的相互交流及恒定增益bij条件下,当且仅当有向图是强连通时,能够实现协同一致性。
9.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:所述步骤13的功率偏差△Perror-i:
<mrow>
<msub>
<mi>&Delta;P</mi>
<mrow>
<mi>e</mi>
<mi>r</mi>
<mi>r</mi>
<mi>o</mi>
<mi>r</mi>
<mo>-</mo>
<mi>i</mi>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>&Delta;P</mi>
<mrow>
<mi>&Sigma;</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>&Delta;P</mi>
<mrow>
<mi>G</mi>
<mi>i</mi>
</mrow>
</msub>
</mrow>
10.根据权利要求1所述基于虚拟狼群策略的分层分布式智能发电控制方法,其特征在于:式中ΔPerror-i是总功率指令和所有机组总调节功率的差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711349509.7A CN108092307A (zh) | 2017-12-15 | 2017-12-15 | 基于虚拟狼群策略的分层分布式智能发电控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711349509.7A CN108092307A (zh) | 2017-12-15 | 2017-12-15 | 基于虚拟狼群策略的分层分布式智能发电控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108092307A true CN108092307A (zh) | 2018-05-29 |
Family
ID=62176630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711349509.7A Pending CN108092307A (zh) | 2017-12-15 | 2017-12-15 | 基于虚拟狼群策略的分层分布式智能发电控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108092307A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109301878A (zh) * | 2018-10-19 | 2019-02-01 | 三峡大学 | 一种基于多智能体的分布式电源一致性控制方法及控制系统 |
WO2020024170A1 (zh) * | 2018-08-01 | 2020-02-06 | 东莞理工学院 | 连续动作空间上的纳什均衡策略及社交网络舆论演变模型 |
CN116706997A (zh) * | 2023-06-12 | 2023-09-05 | 国网湖北省电力有限公司电力科学研究院 | 一种微网群的协同控制方法、装置、系统及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103490413A (zh) * | 2013-09-27 | 2014-01-01 | 华南理工大学 | 一种基于智能体均衡算法的智能发电控制方法 |
CN106899026A (zh) * | 2017-03-24 | 2017-06-27 | 三峡大学 | 基于具有时间隧道思想的多智能体强化学习的智能发电控制方法 |
CN107045655A (zh) * | 2016-12-07 | 2017-08-15 | 三峡大学 | 基于多智能体随机一致博弈和虚拟发电部落的狼群部落策略方法 |
-
2017
- 2017-12-15 CN CN201711349509.7A patent/CN108092307A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103490413A (zh) * | 2013-09-27 | 2014-01-01 | 华南理工大学 | 一种基于智能体均衡算法的智能发电控制方法 |
CN107045655A (zh) * | 2016-12-07 | 2017-08-15 | 三峡大学 | 基于多智能体随机一致博弈和虚拟发电部落的狼群部落策略方法 |
CN106899026A (zh) * | 2017-03-24 | 2017-06-27 | 三峡大学 | 基于具有时间隧道思想的多智能体强化学习的智能发电控制方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020024170A1 (zh) * | 2018-08-01 | 2020-02-06 | 东莞理工学院 | 连续动作空间上的纳什均衡策略及社交网络舆论演变模型 |
CN109301878A (zh) * | 2018-10-19 | 2019-02-01 | 三峡大学 | 一种基于多智能体的分布式电源一致性控制方法及控制系统 |
CN109301878B (zh) * | 2018-10-19 | 2024-02-02 | 三峡大学 | 一种基于多智能体的分布式电源一致性控制方法及控制系统 |
CN116706997A (zh) * | 2023-06-12 | 2023-09-05 | 国网湖北省电力有限公司电力科学研究院 | 一种微网群的协同控制方法、装置、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109103893B (zh) | 一种集群温控负荷参与电网agc的辅助调频方法 | |
CN106786807B (zh) | 一种基于模型预测控制的风电场有功功率控制方法 | |
CN104993522B (zh) | 一种基于mpc的主动配电网多时间尺度协调优化调度方法 | |
CN106451474B (zh) | 规模化空调负荷参与电网调峰优化调度方法 | |
CN108512258B (zh) | 一种基于改进多智能体一致性算法的风电场有功调度方法 | |
CN109345019A (zh) | 一种基于改进粒子群算法的微电网经济调度优化策略 | |
CN107045655A (zh) | 基于多智能体随机一致博弈和虚拟发电部落的狼群部落策略方法 | |
CN109217306A (zh) | 一种基于具有动作自寻优能力的深度强化学习的智能发电控制方法 | |
CN108092324A (zh) | 一种风电参与调峰调频的agc控制系统和控制方法 | |
CN108092307A (zh) | 基于虚拟狼群策略的分层分布式智能发电控制方法 | |
CN108736509A (zh) | 一种主动配电网多源协调优化控制方法及系统 | |
CN107589672A (zh) | 孤岛智能配电网下虚拟狼群控制策略的智能发电控制方法 | |
CN103746384B (zh) | 电力负荷调度控制方法及其系统 | |
CN106953363A (zh) | 一种风电场限功率运行状态下电网旋转备用优化配置方法 | |
CN109659963A (zh) | 一种分布式储能参与电网削峰填谷的控制方法及装置 | |
CN113054688B (zh) | 考虑不确定性的可再生能源集群出力分布式协调控制方法 | |
CN106602613A (zh) | 一种省地两级调度断面协调控制方法 | |
CN114722709B (zh) | 兼顾发电量和最小出力的梯级水库群优化调度方法及系统 | |
CN110474353A (zh) | 分层式储能系统及其参与的电网调频协调控制方法 | |
CN1937347A (zh) | 一种分级递阶无功电压优化控制方法 | |
CN115795992A (zh) | 一种基于运行态势虚拟推演的园区能源互联网在线调度方法 | |
CN116436033A (zh) | 一种基于用户满意度和强化学习的温控负荷频率响应控制方法 | |
CN108667077A (zh) | 一种风蓄联合系统优化调度方法 | |
CN109066769B (zh) | 风电全消纳下虚拟电厂内部资源调度控制方法 | |
CN114665519A (zh) | 一种基于分层模型的风电场集群有功功率协调控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180529 |
|
RJ01 | Rejection of invention patent application after publication |