CN113036772A - 一种基于深度强化学习的配电网拓扑电压调节方法 - Google Patents

一种基于深度强化学习的配电网拓扑电压调节方法 Download PDF

Info

Publication number
CN113036772A
CN113036772A CN202110511579.8A CN202110511579A CN113036772A CN 113036772 A CN113036772 A CN 113036772A CN 202110511579 A CN202110511579 A CN 202110511579A CN 113036772 A CN113036772 A CN 113036772A
Authority
CN
China
Prior art keywords
branch
distribution network
power distribution
deep reinforcement
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110511579.8A
Other languages
English (en)
Other versions
CN113036772B (zh
Inventor
许洪华
刘少君
王文帝
杨林青
胥鹏
王蓓蓓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Nanjing Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Original Assignee
Southeast University
Nanjing Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University, Nanjing Power Supply Co of State Grid Jiangsu Electric Power Co Ltd filed Critical Southeast University
Priority to CN202110511579.8A priority Critical patent/CN113036772B/zh
Publication of CN113036772A publication Critical patent/CN113036772A/zh
Application granted granted Critical
Publication of CN113036772B publication Critical patent/CN113036772B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J3/00Circuit arrangements for ac mains or ac distribution networks
    • H02J3/12Circuit arrangements for ac mains or ac distribution networks for adjusting voltage in ac networks by changing a characteristic of the network load
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J2203/00Indexing scheme relating to details of circuit arrangements for AC mains or AC distribution networks
    • H02J2203/20Simulating, e g planning, reliability check, modelling or computer assisted design [CAD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本发明公开一种基于深度强化学习的配电网拓扑电压调节方法,属于配网电压调节技术领域;调节方法包括:采集配电网历史运行数据作为深度强化学习模型的学习样本数据、根据深度强化学习对于基于拓扑的配电网调压问题进行建模、输入当前状态,基于深度强化学习中的Q值网络,根据动作策略从配电网当前闭合支路中选择一条支路断开、根据潮流计算结果计算奖励,并得到下一状态,将当前状态、动作、奖励以及下一状态保存以供Q值网络的训练、深度强化学习智能体根据记忆池中的数据进行Q值网络的参数更新,直到得到学习终止条件;缓解了传统配网调压资源逐渐满足不确定性电网调压需求的问题,节省外部调节设备的建设成本,保证电网安全经济运行。

Description

一种基于深度强化学习的配电网拓扑电压调节方法
技术领域
本公开属于配网电压调节技术领域,具体涉及一种基于深度强化学习的配电网拓扑电压调节方法。
背景技术
传统的配电网电压调节主要依赖于外部安装的设备,包括变电站有载调压器、智能逆变器和并联电容器等,并且只有智能逆变器被用于在线电压调节;近年来配电网中飞速发展的分布式电源加大了配电网调压的压力,导致出现已有调压资源无法完全满足在线调压需求的情况,而随着智能电网的发展出现了灵活性拓扑结构这一新型在线调节资源,可作为配电网的一种在线调节资源。
发明内容
针对现有技术的不足,本公开的目的在于提供一种基于深度强化学习的配电网拓扑电压调节方法,解决了现有配网电压调节资源的不足的问题。
本公开的目的可以通过以下技术方案实现:
一种基于深度强化学习的配电网拓扑电压调节方法,其特征在于,
步骤1:采集配电网历史运行数据作为深度强化学习模型的学习样本数据,包括分布式电源出力、负荷水平数据;
步骤2:根据深度强化学习对于基于拓扑的配电网调压问题进行建模,包括状态、动作、Q值网络结构以及奖励函数的定义;
步骤3:输入当前状态,基于深度强化学习中的Q值网络,根据ε-greedy动作策略从配电网当前闭合支路中选择一条支路断开;
步骤4:根据图论计算当前配电网拓扑下所述步骤2断开支路所对应的基本割集,选择基本割集中的最优支路断开,根据潮流计算结果计算奖励,并得到下一状态,将当前状态、动作、奖励以及下一状态保存以供Q值网络的训练;
步骤5:深度强化学习智能体根据记忆池中的数据进行Q值网络的参数更新,直到得到学习终止条件。
进一步地,在所述步骤2中的状态定义过程中,将状态表示为以下形式:
s=(G,Pnet,Qnet)
where G=(V,L)
Pnet=Pload+Pdg+Pdlc
Qnet=Qload+Qdg+Qcap
式中,s为智能体的状态,G为当前网络拓扑结构,Pnet为网络节点上的有功,包括有功负荷Pload,新能源有功出力Pdg以及直接负荷控制Pdlc。Qnet为网络节点上的无功功率,包括无功负荷Qload,新能源无功出力Qdg以及并联电容器无功值Qcap。
进一步地,在所述步骤2中的动作定义包括两部分:
1)基于Q值网络从当前配电网拓扑中的闭合支路集中选择一条断开;
2)基于潮流计算从该闭合支路的基本割集中选择一条使得控制目标函数最低的支路闭合;所述目标函数的计算如下:
Figure BDA0003060584990000021
式中,f1,f2及f3为目标函数的三个组成部分,分别为电压偏移量、变动的开关数即网损。α,β,δ为权重系数,vi为节点电压,
Figure BDA0003060584990000022
为节点标准电压,
Figure BDA0003060584990000023
为各线路初始状态,si为拓扑调节后各线路的状态,rij为各线路电阻,Pij,Qij为闭合支路上的有功无功功率。
进一步地,所述Q值网络结构Q值网络共包括三层集合图卷积神经网络,集合图卷积神经网络对配电网中的图数据进行特征挖掘,其中每层集合图卷积神经网络后还加上了一层多层感知器;
进一步地,Q值网络的输入信息包括节点特征矩阵和节点邻接矩阵,将第三层集合图卷积神经网络的节点邻接矩阵改成线路邻接矩阵,其取值具有如下形式:
Figure BDA0003060584990000031
式中,LAM为线路邻接矩阵,le为第e条线路,ni表示第i个节点,Lon为闭合支路集,Loff为断开支路集。
进一步地,所述奖励函数机制分为以下几个步骤:
第一步:输入当前状态s={NAM,LAM,NFM},基于Q值网络从闭合支路集合选择一条断开,其中NAM为节点邻接矩阵,NFM为节点特征矩阵;
第二步:根据目标函数将断开支路基本割集的最优支路闭合;
第三步:如果断开的支路与闭合的支路为同一条支路,则给智能体一个较大奖励,终止本次迭代学习,转第五步,奖励与当前所计算得到的目标函数值负相关;
第四步:如果断开的支路与闭合的支路不是同一条支路,则智能体奖励值为0,并且继续迭代学习,转第五步;
第五步:输出新的状态s′={NAM′,LAM′,NFM′}。
进一步地,步骤3中ε-greedy动作策略具体为:
Figure BDA0003060584990000041
其中,A表示开关的动作空间,a表示开关的动作,P表示随机生成的在(0,1)内的数,Q(s,a)表示第i个开关在环境s、动作a下的Q值,ar表示随机选择的动作。
本公开的有益效果:提供了一种基于深度强化学习的配电网拓扑调压方法,所给出的电压调节方法在完成电压控制目标的前提下,提高了拓扑资源的利用效率,规避了大量外接调压资源的投入,提高了电网运行控制的经济性。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为基于深度强化学习的配电网拓扑调压总体框架图;
图2为Q值网络结构图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
如图1-2所示,一种基于深度强化学习的配电网拓扑调压方法包括以下步骤:
步骤1:采集配电网历史运行数据作为深度强化学习模型的学习样本数据,包括分布式电源出力、负荷水平数据;
步骤2、根据深度强化学习对于基于拓扑的配电网调压问题进行建模,包括状态、动作、神经网络结构以及奖励函数的定义;
其中,步骤2包括:
深度强化学习的Q值迭代更新公式
根据新环境与奖励更新知识:
Figure BDA0003060584990000051
式中,α、β分别为学习、折扣因子,0<α,β<1;R为第k+1次迭代的奖励函数,sk为第k次迭代中的环境,a为动作,Q(s,a)分别为智能体在状态s、动作a下对应的Q值,
Figure BDA0003060584990000052
为智能体在状态s下所有动作对应Q值的最大值;
状态定义。将状态表示为以下形式:
s=(G,Pnet,Qnet)
where G=(V,L)
Pnet=Pload+Pdg+Pdlc
Qnet=Qload+Qdg+Qcap
式中,s为智能体的状态,G为当前网络拓扑结构,Pnet为网络节点上的有功,包括有功负荷Pload,新能源有功出力Pdg以及直接负荷控制Pdlc。Qnet为网络节点上的无功功率,包括无功负荷Qload,新能源无功出力Qdg以及并联电容器无功值Qcap。
动作定义。将动作定义为两部分:一是基于Q值网络从当前配电网拓扑中的闭合支路集中选择一条断开,二是基于潮流计算从该闭合支路的基本割集中选择一条使得控制目标函数最低的支路闭合,目标函数的计算如下:
Figure BDA0003060584990000053
式中,f1,f2及f3为目标函数的三个组成部分,分别为电压偏移量、变动的开关数即网损。α,β,δ为权重系数,vi为节点电压,
Figure BDA0003060584990000061
为节点标准电压,
Figure BDA0003060584990000062
为各线路初始状态,si为拓扑调节后各线路的状态,rij为各线路电阻,Pij,Qij为闭合支路上的有功无功功率。
Q值网络结构。集合图卷积神经网络(GCN,Graph Convolution Network)对配电网中的图数据进行特征挖掘,将深度强化学习中的Q值网络的结构设计如图2所示。Q值网络共包括三层GCN,其中每层GCN后还加上了一层多层感知器(MLP,Multilayer Perceptron)。Q值网络的输入信息包括节点特征矩阵(NFM,Node Feature Matrix)和节点邻接矩阵(NAM,Node Adjacency Matrix)。为了使最终输出线路的特征,即线路特征矩阵(LFM,LineFeature Matrix),将第三层GCN的节点邻接矩阵改成线路邻接矩阵(LAM,Line AdjacencyMatrix),其取值具有如下形式:
Figure BDA0003060584990000063
式中,le为第e条线路,ni表示第i个节点,Lon为闭合支路集,Loff为断开支路集。
5)奖励函数机制分为以下几个步骤:
第一步:输入当前状态s={NAM,LAM,NFM},基于Q值网络从闭合支路集合选择一条断开;
第二步:根据目标函数将断开支路基本割集的最优支路闭合;
第三步:如果断开的支路与闭合的支路为同一条支路,则给智能体一个较大奖励,终止本次迭代学习,转第五步,奖励与当前所计算得到的目标函数值负相关;
第四步:如果断开的支路与闭合的支路不是同一条支路,则智能体奖励值为0,并且继续迭代学习,转第五步;
第五步:输出新的状态s′={NAM′,LAM′,NFM′}。
其中,步骤3中ε-greedy动作策略具体为:
Figure BDA0003060584990000071
其中,A表示开关的动作空间,a表示开关的动作,P表示随机生成的在(0,1)内的数,Q(s,a)表示第i个开关在环境s、动作a下的Q值,ar表示随机选择的动作。
步骤3、输入当前状态,基于深度强化学习中的Q值网络,根据ε-greedy动作策略从配电网当前闭合支路中选择一条支路断开;
步骤4、根据图论计算当前配电网拓扑下步骤2断开支路所对应的基本割集,选择基本割集中的最优支路断开,根据潮流计算结果计算奖励,并得到下一状态,将当前状态、动作、奖励以及下一状态保存以供Q值网络的训练;
步骤5、深度强化学习智能体根据记忆池中的数据进行Q值网络的参数更新,直到得到学习终止条件。
下面就一个具体实施例进行介绍;
步骤1中选取IEEE14、33节点以及141节点配电网络为仿真对象,其中网络中负荷数据来源于Pecan Streetpot数据库。对于三个网络的参数设置如表1:
表1为设置的相关参数:
Figure BDA0003060584990000072
Figure BDA0003060584990000081
为了验证提出算法的优越性,将其与两种启发式算法与一种最优化方法进行对比,启发式算法包括粒子群算法(particle swarm optimization,PSO)与遗传算法(genetic algorithm,GA),最优化方法为基于二阶锥优化(second-order coneoptimization,SOCP)的最优化方法,四种算法各求解10次,统计10次求解结果于表2-4。
表2为14节点网络求解结果
Figure BDA0003060584990000082
表3为33节点网络求解结果
Figure BDA0003060584990000083
表4为141节点网络求解结果
Figure BDA0003060584990000084
如表2所示,四种方法都能找到14节点网络的最优解,表3的结果表明,对于33节点网络,SOCP方法得到了最优解,而GA方法得到了最差解。但是,表格4表明,由于决策变量规模的增大,SOCP方法不能在20分钟内得到141节点网络的结果。对于三个网络,所提出的基于深度强化学习的方法总是能获得较好的结果。从计算时间的角度来看,该方法的优势更加明显,特别是对于较大的网络。在GA、PSO和SOCPA算法中,计算时间随着网络规模的增大而迅速增加;例如,PSO方法分别需要30.53秒和400.53秒才能找到14节点和141节点网络的解决方案。而GA方法所需的时间比PSO少,但求得解质量稍差。值得注意的是,我们提出的基于DRL的方法对所有网络大小要求不到3秒。其速度的主要原因是,无论是SOCP方法还是启发式算法(包括PSO和GA)都不能使用先验知识。对于每个电压调节问题,这些方法都是从头开始搜索解,这需要大量计算时间。相比之下,我们的DRL算法将基于历史训练数据离线学习,并将这些学习信息保存在Q网络中。在解决在线问题时,基于DRL的方法能够根据离线时所学和保存的知识,快速找到最优的解决方案。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。

Claims (6)

1.一种基于深度强化学习的配电网拓扑电压调节方法,其特征在于,
步骤1:采集配电网历史运行数据作为深度强化学习模型的学习样本数据,包括分布式电源出力、负荷水平数据;
步骤2:根据深度强化学习对于基于拓扑的配电网调压问题进行建模,包括状态、动作、Q值网络结构以及奖励函数的定义;
步骤3:输入当前状态,基于深度强化学习中的Q值网络,根据ε-greedy动作策略从配电网当前闭合支路中选择一条支路断开;
步骤4:根据图论计算当前配电网拓扑下所述步骤2断开支路所对应的基本割集,选择基本割集中的最优支路断开,根据潮流计算结果计算奖励,并得到下一状态,将当前状态、动作、奖励以及下一状态保存以供Q值网络的训练;
步骤5:深度强化学习智能体根据记忆池中的数据进行Q值网络的参数更新,直到得到学习终止条件。
2.根据权利要求1所述的一种基于深度强化学习的配电网拓扑调压方法,其特征在于,在所述步骤2中的状态定义过程中,将状态表示为以下形式:
s=(G,Pnet,Qnet)
where G=(V,L)
Pnet=Pload+Pdg+Pdlc
Qnet=Qload+Qdg+Qcap
式中,s为智能体的状态,G为当前网络拓扑结构,Pnet为网络节点上的有功,包括有功负荷Pload,新能源有功出力Pdg以及直接负荷控制Pdlc。Qnet为网络节点上的无功功率,包括无功负荷Qload,新能源无功出力Qdg以及并联电容器无功值Qcap。
3.根据权利要求1所述的一种基于深度强化学习的配电网拓扑调压方法,其特征在于,在所述步骤2中的动作定义包括两部分:
1)基于Q值网络从当前配电网拓扑中的闭合支路集中选择一条断开;
2)基于潮流计算从该闭合支路的基本割集中选择一条使得控制目标函数最低的支路闭合;所述目标函数的计算如下:
Figure FDA0003060584980000021
式中,f1,f2及f3为目标函数的三个组成部分,分别为电压偏移量、变动的开关数即网损。α,β,δ为权重系数,vi为节点电压,
Figure FDA0003060584980000022
为节点标准电压,
Figure FDA0003060584980000023
为各线路初始状态,si为拓扑调节后各线路的状态,rij为各线路电阻,Pij,Qij为闭合支路上的有功无功功率。
4.根据权利要求1所述的一种基于深度强化学习的配电网拓扑调压方法,其特征在于,所述Q值网络结构Q值网络共包括三层集合图卷积神经网络,集合图卷积神经网络对配电网中的图数据进行特征挖掘,其中每层集合图卷积神经网络后还加上了一层多层感知器;
Q值网络的输入信息包括节点特征矩阵和节点邻接矩阵,将第三层集合图卷积神经网络的节点邻接矩阵改成线路邻接矩阵,其取值具有如下形式:
Figure FDA0003060584980000024
式中,LAM为线路邻接矩阵,le为第e条线路,ni表示第i个节点,Lon为闭合支路集,Loff为断开支路集。
5.根据权利要求4所述的一种基于深度强化学习的配电网拓扑调压方法,其特征在于,所述奖励函数机制分为以下几个步骤:
第一步:输入当前状态s={NAM,LAM,NFM},基于Q值网络从闭合支路集合选择一条断开,其中NAM为节点邻接矩阵,NFM为节点特征矩阵;
第二步:根据目标函数将断开支路基本割集的最优支路闭合;
第三步:如果断开的支路与闭合的支路为同一条支路,则给智能体一个较大奖励,终止本次迭代学习,转第五步,奖励与当前所计算得到的目标函数值负相关;
第四步:如果断开的支路与闭合的支路不是同一条支路,则智能体奖励值为0,并且继续迭代学习,转第五步;
第五步:输出新的状态s′={NAM′,LAM′,NFM′}。
6.根据权利要求1所述的一种基于深度强化学习的配电网拓扑调压方法,其特征在于,步骤3中ε-greedy动作策略具体为:
Figure FDA0003060584980000031
其中,A表示开关的动作空间,a表示开关的动作,P表示随机生成的在(0,1)内的数,Q(s,a)表示第i个开关在环境s、动作a下的Q值,ar表示随机选择的动作。
CN202110511579.8A 2021-05-11 2021-05-11 一种基于深度强化学习的配电网拓扑电压调节方法 Active CN113036772B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110511579.8A CN113036772B (zh) 2021-05-11 2021-05-11 一种基于深度强化学习的配电网拓扑电压调节方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110511579.8A CN113036772B (zh) 2021-05-11 2021-05-11 一种基于深度强化学习的配电网拓扑电压调节方法

Publications (2)

Publication Number Publication Date
CN113036772A true CN113036772A (zh) 2021-06-25
CN113036772B CN113036772B (zh) 2022-07-19

Family

ID=76455602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110511579.8A Active CN113036772B (zh) 2021-05-11 2021-05-11 一种基于深度强化学习的配电网拓扑电压调节方法

Country Status (1)

Country Link
CN (1) CN113036772B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113536509A (zh) * 2021-08-05 2021-10-22 合肥工业大学 一种基于图卷积网络的微电网拓扑辨识方法
CN113627533A (zh) * 2021-08-11 2021-11-09 北京邮电大学 一种基于强化学习的电力设备检修决策生成方法
CN113725853A (zh) * 2021-08-30 2021-11-30 浙江大学 基于主动性人在回路强化学习的电网拓扑控制方法和系统
CN113761791A (zh) * 2021-08-02 2021-12-07 国网江苏省电力有限公司电力科学研究院 一种基于物理信息和深度强化学习的电力系统自动化操作方法及装置
CN113852080A (zh) * 2021-08-25 2021-12-28 中国电力科学研究院有限公司 一种智能电网的潮流优化方法、系统、设备及存储介质
CN114400675A (zh) * 2022-01-21 2022-04-26 合肥工业大学 基于权重均值深度双q网络的主动配电网电压控制方法
CN115225561A (zh) * 2022-08-15 2022-10-21 南京邮电大学 一种基于图结构特征的路由优化方法与系统
CN115660324A (zh) * 2022-10-09 2023-01-31 浙江大学 基于图强化学习的电网多断面越限调控方法和系统
EP4148939A1 (en) * 2021-09-09 2023-03-15 Siemens Aktiengesellschaft System and method for controlling power distribution systems using graph-based reinforcement learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111064201A (zh) * 2019-12-31 2020-04-24 东南大学 一种基于网络拓扑优化控制的配电网电压优化调节方法
CN111884213A (zh) * 2020-07-27 2020-11-03 国网北京市电力公司 一种基于深度强化学习算法的配电网电压调节方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111064201A (zh) * 2019-12-31 2020-04-24 东南大学 一种基于网络拓扑优化控制的配电网电压优化调节方法
CN111884213A (zh) * 2020-07-27 2020-11-03 国网北京市电力公司 一种基于深度强化学习算法的配电网电压调节方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113761791A (zh) * 2021-08-02 2021-12-07 国网江苏省电力有限公司电力科学研究院 一种基于物理信息和深度强化学习的电力系统自动化操作方法及装置
CN113536509A (zh) * 2021-08-05 2021-10-22 合肥工业大学 一种基于图卷积网络的微电网拓扑辨识方法
CN113536509B (zh) * 2021-08-05 2023-04-18 合肥工业大学 一种基于图卷积网络的微电网拓扑辨识方法
CN113627533A (zh) * 2021-08-11 2021-11-09 北京邮电大学 一种基于强化学习的电力设备检修决策生成方法
CN113627533B (zh) * 2021-08-11 2023-11-10 北京邮电大学 一种基于强化学习的电力设备检修决策生成方法
CN113852080A (zh) * 2021-08-25 2021-12-28 中国电力科学研究院有限公司 一种智能电网的潮流优化方法、系统、设备及存储介质
CN113725853B (zh) * 2021-08-30 2022-10-11 浙江大学 基于主动性人在回路强化学习的电网拓扑控制方法和系统
CN113725853A (zh) * 2021-08-30 2021-11-30 浙江大学 基于主动性人在回路强化学习的电网拓扑控制方法和系统
EP4148939A1 (en) * 2021-09-09 2023-03-15 Siemens Aktiengesellschaft System and method for controlling power distribution systems using graph-based reinforcement learning
CN114400675A (zh) * 2022-01-21 2022-04-26 合肥工业大学 基于权重均值深度双q网络的主动配电网电压控制方法
CN115225561A (zh) * 2022-08-15 2022-10-21 南京邮电大学 一种基于图结构特征的路由优化方法与系统
CN115660324A (zh) * 2022-10-09 2023-01-31 浙江大学 基于图强化学习的电网多断面越限调控方法和系统
CN115660324B (zh) * 2022-10-09 2023-06-13 浙江大学 基于图强化学习的电网多断面越限调控方法和系统

Also Published As

Publication number Publication date
CN113036772B (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
CN113036772B (zh) 一种基于深度强化学习的配电网拓扑电压调节方法
CN111342461B (zh) 一种考虑网架动态重构的配电网优化调度方法及系统
CN104037776B (zh) 随机惯性因子粒子群优化算法的电网无功容量配置方法
CN110350510B (zh) 一种考虑故障影响度的配电网供电恢复方法
Tang et al. Study on day-ahead optimal economic operation of active distribution networks based on Kriging model assisted particle swarm optimization with constraint handling techniques
CN111416359A (zh) 一种考虑加权潮流熵的配电网络重构方法
CN114362187B (zh) 一种基于多智能体深度强化学习的有源配电网协同调压方法及系统
CN115986750B (zh) 分层多智能体深度强化学习配电网电压调节方法
CN113378100B (zh) 考虑碳排放的配电网源网荷储协同优化调度模型和方法
CN111062632A (zh) 一种基于边缘智能的5g能源互联网虚拟电厂经济调度方法
CN106033887A (zh) 一种基于改进pso-de混合算法的配电网重构方法
CN113937829B (zh) 一种基于d3qn的主动配电网多目标无功控制方法
CN115293052A (zh) 电力系统有功潮流在线优化控制方法、存储介质和装置
CN112803434A (zh) 有源配电网的无功优化方法、装置、设备和存储介质
CN107332277B (zh) 一种考虑源储荷运行特性的有源配电网孤岛运行方法
CN117808151A (zh) 一种基于粒子群-遗传融合算法的变电站无功优化方法
CN108683189B (zh) 基于高维多目标演化算法的配电网重构方法、装置及设备
CN110460043A (zh) 基于多目标改进粒子群算法的配电网网架重构方法
CN113364057A (zh) 一种配电网调控方法、装置及终端设备
CN111064201B (zh) 一种基于网络拓扑优化控制的配电网电压优化调节方法
CN111786382B (zh) 一种考虑加权潮流熵的配电网负荷恢复量计算方法
CN115276067A (zh) 一种适应配电网拓扑动态变化的分布式储能电压调节方法
CN108281964A (zh) 一种基于运行和网架风险的配电网运行方式优化方法
CN111399381B (zh) 一种变换器输出阻抗塑造方法及系统
CN113270867A (zh) 一种薄弱电网潮流无解自动调整方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant