CN114065452A - 基于深度强化学习的电网拓扑优化和潮流控制的方法 - Google Patents

基于深度强化学习的电网拓扑优化和潮流控制的方法 Download PDF

Info

Publication number
CN114065452A
CN114065452A CN202111362751.4A CN202111362751A CN114065452A CN 114065452 A CN114065452 A CN 114065452A CN 202111362751 A CN202111362751 A CN 202111362751A CN 114065452 A CN114065452 A CN 114065452A
Authority
CN
China
Prior art keywords
time
value
topology optimization
power
agent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111362751.4A
Other languages
English (en)
Inventor
周毅
周良才
丁佳立
何红玉
高佳宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Branch Of State Grid Corp ltd
Original Assignee
East China Branch Of State Grid Corp ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Branch Of State Grid Corp ltd filed Critical East China Branch Of State Grid Corp ltd
Priority to CN202111362751.4A priority Critical patent/CN114065452A/zh
Publication of CN114065452A publication Critical patent/CN114065452A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/18Network design, e.g. design based on topological or interconnect aspects of utility systems, piping, heating ventilation air conditioning [HVAC] or cabling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Economics (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本发明提供了一种基于深度强化学习的电网拓扑优化和潮流控制的方法,包括:构建智能体;获取历史断面潮流数据,并对多历史断面潮流数据进行模仿学习,以确定智能体的参数的初始值;对t时刻的在线断面潮流数据进行训练,得到N个动作价值排在前列的控制策略;在电网环境仿真器中验证N个价值排在前列的控制策略,获得回报最高的控制策略;执行回报最高的控制策略,得到执行该控制策略的奖励值;t的取值加1;循环求奖励值的步骤,每求得M次奖励值,根据动作价值函数的目标值更新智能体参数,完成所有时刻的在线断面潮流数据的智能体训练,从中选出最优的智能体参数;使用训练好的智能体在实时环境下完成电网拓扑优化和潮流控制。

Description

基于深度强化学习的电网拓扑优化和潮流控制的方法
技术领域
本发明涉及电网领域,尤其是涉及一种基于深度强化学习的电网拓扑优化和潮流控制的方法。
背景技术
随着新能源和有源化负荷的占比不断提升,电网的动态性和不确定性逐渐增强,给电网运行和系统调度人员带来了新的挑战。现有的电网调控手段多集中于发电侧和负荷侧,而对电网拓扑结构的优化控制在研究中考虑较少。
电网拓扑优化控制是一种成本低、有前景且未被充分利用的系统缓解措施。由于其对应数学问题的组合和高度非线性等特点,常规的优化算法很难在短时间完成求解。从安全和经济角度来看,最大化系统的可用传输容量(Available Transfer Capability,ATC)对电力系统至关重要。从环境和经济方面考虑,今后通过建设新线路的方式来扩大系统传输能力对于电网公司将会越来越难。此外,可再生能源、需求响应、电动汽车和电力电子设备的日益普及导致了更多随机和动态行为,威胁到电网的安全稳定运行。因此,在满足各种约束的同时,考虑到系统的不确定性,开发电网拓扑优化的控制策略变得至关重要。
然而,现有电网拓扑优化的方法存在一定的局限性,首先,现有方法通常使用不考虑安全约束的直流潮流对问题进行近似,这样大大降低了调控的精度。其次,线路开合和母线分裂运行的排列组合呈指数爆炸性增长,而基于灵敏度的方法容易受到不断变化的系统运行状态的影响,因此,对于大电网,优化问题的求解耗时较久,无法满足拓扑实时优化控制的需求。
发明内容
本发明的目的在于提供一种基于深度强化学习的电网拓扑优化和潮流控制的方法,可以缩短电网拓扑优化的时间,并且可以提高拓扑优化的精度。
为了达到上述目的,本发明提供了一种基于深度强化学习的电网拓扑优化和潮流控制的方法,包括:
S1:构建智能体;
S2:获取电网的多个历史断面潮流数据,并对多个历史断面潮流数据进行模仿学习,以确定所述智能体的参数的初始值;
S3:获取用于所述智能体训练的样本,并将所述样本输入所述智能体,所述样本包括多个时刻的在线断面潮流数据;
S4:对t时刻的所述在线断面潮流数据进行训练,得到多个电网拓扑优化的控制策略,并按价值的大小从大到小排列,获取N个动作价值排在前列的控制策略,其中,N为正整数;
S5:在电网环境仿真器中验证所述N个动作价值排在前列的控制策略,以获得回报最高的控制策略;
S6:电网环境仿真器执行所述回报最高的控制策略并获取t时刻的奖励值、t时刻的结束标志和t+1时刻的系统状态;
S7:将t时刻的系统状态、t时刻回报最高的控制策略、t时刻的奖励值、t+1时刻的系统状态和t时刻的结束标志作为数组存储到缓冲区中,t时刻的结束标志为真的数组存储次数越多;
S8:从缓冲区中随机采样多个数组,对采样得到的奖励值计算动作价值函数的目标值;
S9:t的取值加1;
S10:循环步骤S6~步骤S9,其中,每求得M次奖励值后,根据所述动作价值函数的目标值更新智能体参数,M为设定的正整数,完成所有时刻的在线断面潮流数据的智能体训练,从中选出最优的智能体参数;
S11:使用具有最优的智能体参数的智能体在实时环境下完成电网拓扑优化和潮流控制,以得到电网拓扑优化和潮流控制的方法。
可选的,在所述的电网拓扑优化和潮流控制的方法中,所述智能体为竞争深度Q网络训练得到的神经网络模型。
可选的,在所述的电网拓扑优化和潮流控制的方法中,所述样本的个数为多个,每个所述样本均包括多个时刻的在线断面潮流数据,每个所述样本均输入所述智能体进行训练。
可选的,在所述的电网拓扑优化和潮流控制的方法中,N的值为10。
可选的,在所述的电网拓扑优化和潮流控制的方法中,所述数组的形式为<st,at,rt,st+1,dt>,其中,st为t时刻的系统状态,at为t时刻的系统状态,rt为t时刻的奖励值,st+1为t+1时刻的系统状态,dt为t时刻的结束标志。
可选的,在所述的电网拓扑优化和潮流控制的方法中,t的初始值为1,并且t为正整数。
可选的,在所述的电网拓扑优化和潮流控制的方法中,所述智能体的参数包括:所述智能体中的网络神经元之间的权重和连接关系。
可选的,在所述的电网拓扑优化和潮流控制的方法中,获取用于所述智能体训练的样本的方法包括:
获取多个在线断面潮流数据;
判断所述在线断面潮流数据是否越限;
如果断面潮流数据越限,则此在线断面潮流数据作为样本。
可选的,在所述的电网拓扑优化和潮流控制的方法中,判断断面潮流数据越限的方法包括:
判断所述断面潮流数据是否大于设定值,如果大于设定值,则认为断面潮流数据越限。
可选的,在所述的电网拓扑优化和潮流控制的方法中,所述控制策略包括:改变电网拓扑结构。
在本发明提供的基于深度强化学习的电网拓扑优化和潮流控制的方法中,通过提前模仿学习,根据历史断面潮流数据确定智能体的参数的初始值,可以节省智能体训练的时间。在智能体训练过程中,智能体先获取N个动作价值较高的控制策略,电网仿真器直接在这N个动作价值较高的控制策略仿真获得奖励值最高的控制策略,进一步节省了时间,同时,在在对不同时刻的断面潮流数据训练时,不断更新智能体参数,提高了智能体训练的精度,完成所有时刻的断面潮流数据的智能体训练后,选出最优的智能体参数,采用最优的智能体参数的智能体在实时环境下完成电网拓扑优化,通过电网拓扑优化进行潮流控制,提升了电网拓扑优化和潮流控制的精度。
附图说明
图1是本发明实施例的基于深度强化学习的电网拓扑优化和潮流控制的方法的流程图。
具体实施方式
下面将结合示意图对本发明的具体实施方式进行更详细的描述。根据下列描述,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
在下文中,术语“第一”“第二”等用于在类似要素之间进行区分,且未必是用于描述特定次序或时间顺序。要理解,在适当情况下,如此使用的这些术语可替换。类似的,如果本文所述的方法包括一系列步骤,且本文所呈现的这些步骤的顺序并非必须是可执行这些步骤的唯一顺序,且一些所述的步骤可被省略和/或一些本文未描述的其他步骤可被添加到该方法。
请参照图1,一种基于深度强化学习的电网拓扑优化和潮流控制的方法,包括:
S1:构建智能体;
S2:获取电网的多个历史断面潮流数据,并对多个历史断面潮流数据进行模仿学习,以确定智能体的参数的初始值;
S3:获取用于智能体训练的样本,并将样本输入所述智能体,样本包括多个时刻的在线断面潮流数据;
S4:利用深度强化学习技术对t时刻的在线断面潮流数据进行训练,得到多个电网拓扑优化的控制策略,并按动作价值的大小从大到小排列,获取N个价值排在前列的控制策略,其中,N为正整数;
S5:在电网环境仿真器中验证N个动作价值排在前列的控制策略,以获得回报最高的控制策略;
S6:电网环境仿真器执行所述回报最高的控制策略并获取t时刻的奖励值、t时刻的结束标志和t+1时刻的系统状态;
S7:将t时刻的系统状态、t时刻回报最高的控制策略、t时刻的奖励值、t+1时刻的系统状态和t时刻的结束标志作为数组存储到缓冲区中,t时刻的结束标志为真的数组存储次数越多;
S8:从缓冲区中随机采样多个数组,对采样得到的奖励值计算动作价值函数的目标值;
S9:t的取值加1;
S10:循环步骤S6~步骤S9,其中,每求得M次奖励值后,根据动作价值函数的目标值更新智能体参数,M为设定的正整数,完成所有时刻的在线断面潮流数据的智能体训练,从中选出最优的智能体参数;
S11:使用具有最优的智能体参数的智能体在实时环境下完成电网拓扑优化和潮流控制,以得到电网拓扑优化和潮流控制的方法。
本发明实施例中,所述智能体为竞争深度Q网络训练得到的神经网络模型。
优选的,所述样本的个数为多个,每个所述样本均包括多个时刻的在线断面潮流数据,每个所述样本均输入所述智能体进行训练。同样的,每个样本都具有一个控制方法。
本发明实施例中,N的值为10。在本发明的其他实施例中,N的取值也可以是其他数值。同样的,M也是设定的值,不同的实施例有不同的值。
优选的,数组的形式为<st,at,rt,st+1,dt>,其中,st为t时刻的系统状态,at为t时刻的系统状态,rt为t时刻的奖励值,st+1为t+1时刻的系统状态,dt为t时刻的结束标志。以上计算动作价值的方法适用于程序中,奖励值越高的数组存储次数越多,被随机采样到的几率越大,相当于赋予了更大的权重。t时刻是时间点,例如,t秒。
优选的,智能体的参数包括:所述智能体中的网络神经元之间的权重和连接关系。而智能体的参数决定智能体训练结果的好坏,所以本发明实施例的参数初始值在进行智能体训练之前通过使用历史断面潮流数据模仿学习而得,根据以往历史断面潮流数据来确定参数的初始值,可以增加智能体的参数和断面潮流数据的相关性,使得智能体训练的结果更接近实际的断面潮流。并且,智能体的参数在训练过程中,会根据前面训练的结果不断更新改进,最终得到更优秀的智能体。
优选的,获取用于所述智能体训练的样本的方法包括:获取多个在线断面潮流数据;判断所述在线断面潮流数据是否越限;如果断面潮流数据越限,则此在线断面潮流数据作为样本。而判断断面潮流数据越限的方法包括:判断所述断面潮流数据是否大于设定值,如果大于设定值,则认为断面潮流数据越限。相当于在进行智能体训练之前进行了提前预警,在每个时刻,该机制使用如下公式中定义的告警标志(WF,Warning Flag)模拟对电网环境不采取任何行动的后果。如果线路的负载水平高于预先确定的设定值λ,则告警并将告警标志位设为“是”。之后智能体提供N个得分最高的控制策略以进行进一步的模拟,最后从这些动作中选取奖励值最高的动作予以执行。引导式探索和预警机制都提高了本文提出的深度强化学习算法的性能和鲁棒性。
Figure BDA0003359905670000061
其中:WF为告警标志,λ为设定值,
Figure BDA0003359905670000062
线路负载水平。
优选的,计算动作价值函数的目标值的公式为:
Figure BDA0003359905670000063
其中:yi为动作价值函数的目标值,ri为奖励值,dt为结束标志,γ为奖励折扣系数,Q(st+1,a′;θ-)为t+1时刻的控制策略的价值。控制策略并不是智能体直接产生,智能体产生的是动作,经过动作函数Q(-|st;θ)转换为电网环境仿真器可以执行的控制策略。
优选的,通过损耗函数更新所述参数。损耗函数根据动作价值函数的目标值计算,所述损耗函数为:
Li(θ)=(yi-Q(st,at;θ))2
其中:Li(θ)为损耗,yi为动作价值函数的目标值,Q(st,at;θ)为t时刻的控制策略的价值。
具体的训练过程如果使用更为具体的程序进行举例,如下:
1.从模仿学习结果中读取DQN网络的初始参数
2.初始化容量为Nd的回放缓存D
3.for:k=1,2,…执行,k代表样本个数
4.for:t=1,2,...每一步控制迭代,执行
5.获取Q(-|st;θ)值并取Q值最高的N个动作
6.在环境中验证所有N个动作并找到回报最高的控制策略at
7.在环境中执行at并获取下一时刻的系统状态st+1、奖励值rt、结束标志dt
8.储存元组<st,at,rt,st+1,dt>至回放缓存D中;如果结束标志为真,则多存几次
9.从回放缓存D中根据重要性采样Nb个小批量样本
10.按照下述公式计算动作价值函数的目标值:
Figure BDA0003359905670000071
11.每Ns步通过损耗函数Li(θ)=(yi-Q(st,at;θ))2进行主网络参数的更新
12.将主网络参数θ拷贝至目标网络θ-
13.更新系统状态st=st+1
14.end for
15.end for
其中:动作和控制策略有一定的映射关系,N是设置的值,Ns是程序设置的值,是程序经过的步骤,可以根据M设定。本发明实施例就是一个智能体和电网环境仿真器不断交互的一个过程,智能体输出动作,根据动作和控制策略的映射关系,电网环境仿真器得到相应的控制策略,电网环境仿真器对控制策略进行验证和执行,并将回报值返给智能体,智能体给动作值赋予奖励值,并且根据奖励值再获得动作价值,再根据动作价值更新智能体的参数。
本发明实施例中,控制策略包括:改变电网拓扑结构。具体包括三个:1)线路切断或闭合;2)母线分裂运行或母线合并;3)线路切断或闭合和母线分裂运行或母线合并同时进行,即1)和2)同时执行。每执行一个控制策略就会,就会根据执行后的断面潮流的值来判断此次执行的控制策略的效果,例如,可以将效果打分或者分为等级,再返回给智能体,智能体可以根据得分判断此次控制策略的好坏,将效果更好的控制策略给与更高的奖励值,具体的算法在此不做赘述。
综上,在本发明实施例提供的基于深度强化学习的电网拓扑优化和潮流控制的方法中,通过提前模仿学习,根据历史断面潮流数据确定智能体的参数的初始值,可以节省智能体训练的时间。在智能体训练过程中,智能体先获取N个动作价值较高的控制策略,电网仿真器直接在这N个动作价值较高的控制策略仿真获得奖励值最高的控制策略,进一步节省了时间,同时,在在对不同时刻的断面潮流数据训练时,不断更新智能体参数,提高了智能体训练的精度,完成所有时刻的断面潮流数据的智能体训练后,选出最优的智能体参数,采用最优的智能体参数的智能体在实时环境下完成电网拓扑优化,通过电网拓扑优化进行潮流控制,提升了电网拓扑优化和潮流控制的精度。
上述仅为本发明的优选实施例而已,并不对本发明起到任何限制作用。任何所属技术领域的技术人员,在不脱离本发明的技术方案的范围内,对本发明揭露的技术方案和技术内容做任何形式的等同替换或修改等变动,均属未脱离本发明的技术方案的内容,仍属于本发明的保护范围之内。

Claims (10)

1.一种基于深度强化学习的电网拓扑优化和潮流控制方法,其特征在于,包括:
S1:构建智能体;
S2:获取电网的多个历史断面潮流数据,并对多个历史断面潮流数据进行模仿学习,以确定所述智能体的参数的初始值;
S3:获取用于所述智能体训练的样本,并将所述样本输入所述智能体,所述样本包括多个时刻的在线断面潮流数据;
S4:对t时刻的所述在线断面潮流数据进行训练,得到多个电网拓扑优化的控制策略,并按动作价值的大小从大到小排列,获取N个动作价值排在前列的控制策略,其中,N为正整数;
S5:在电网环境仿真器中验证所述N个动作价值排在前列的控制策略,以获得回报最高的控制策略;
S6:电网环境仿真器执行所述回报最高的控制策略并获取t时刻的奖励值、t时刻的结束标志和t+1时刻的系统状态;
S7:将t时刻的系统状态、t时刻回报最高的控制策略、t时刻的奖励值、t+1时刻的系统状态和t时刻的结束标志作为数组存储到缓冲区中,t时刻的结束标志为真的数组存储次数越多;
S8:从缓冲区中随机采样多个数组,对采样得到的奖励值计算动作价值函数的目标值;
S9:t的取值加1;
S10:循环步骤S6~步骤S9,其中,每求得M次奖励值后,根据所述动作价值函数的目标值更新智能体参数,M为设定的正整数,完成所有时刻的在线断面潮流数据的智能体训练,从中选出最优的智能体参数;
S11:使用具有最优的智能体参数的智能体在实时环境下完成电网拓扑优化和潮流控制,以得到电网拓扑优化和潮流控制的方法。
2.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,所述智能体为竞争深度Q网络训练得到的神经网络模型。
3.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,所述样本的个数为多个,每个所述样本均包括多个时刻的在线断面潮流数据,每个所述样本均输入所述智能体进行训练。
4.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,N的值为10。
5.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,所述数组的形式为<st,at,rt,st+1,dt>,其中,st为t时刻的系统状态,at为t时刻的系统状态,rt为t时刻的奖励值,st+1为t+1时刻的系统状态,dt为t时刻的结束标志。
6.如权利要求5所述的电网拓扑优化和潮流控制的方法,其特征在于,t的初始值为1,并且t为正整数。
7.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,所述智能体的参数包括:所述智能体中的网络神经元之间的权重和连接关系。
8.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,获取用于所述智能体训练的样本的方法包括:
获取多个在线断面潮流数据;
判断所述在线断面潮流数据是否越限;
如果断面潮流数据越限,则此在线断面潮流数据作为样本。
9.如权利要求8所述的电网拓扑优化和潮流控制的方法,其特征在于,判断断面潮流数据越限的方法包括:
判断所述断面潮流数据是否大于设定值,如果大于设定值,则认为断面潮流数据越限。
10.如权利要求1所述的电网拓扑优化和潮流控制的方法,其特征在于,所述控制策略包括:改变电网拓扑结构。
CN202111362751.4A 2021-11-17 2021-11-17 基于深度强化学习的电网拓扑优化和潮流控制的方法 Pending CN114065452A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111362751.4A CN114065452A (zh) 2021-11-17 2021-11-17 基于深度强化学习的电网拓扑优化和潮流控制的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111362751.4A CN114065452A (zh) 2021-11-17 2021-11-17 基于深度强化学习的电网拓扑优化和潮流控制的方法

Publications (1)

Publication Number Publication Date
CN114065452A true CN114065452A (zh) 2022-02-18

Family

ID=80273357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111362751.4A Pending CN114065452A (zh) 2021-11-17 2021-11-17 基于深度强化学习的电网拓扑优化和潮流控制的方法

Country Status (1)

Country Link
CN (1) CN114065452A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114625091A (zh) * 2022-03-21 2022-06-14 京东城市(北京)数字科技有限公司 一种优化控制方法、装置、存储介质及电子设备
CN114880932A (zh) * 2022-05-12 2022-08-09 中国电力科学研究院有限公司 一种电网运行环境模拟方法、系统、设备及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TU LAN, ET AL.: "AI-Based Autonomous Line Flow Control via Topology Adjustment for Maximizing Time-Series ATCs", 《ARXIV》, 8 November 2019 (2019-11-08) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114625091A (zh) * 2022-03-21 2022-06-14 京东城市(北京)数字科技有限公司 一种优化控制方法、装置、存储介质及电子设备
CN114880932A (zh) * 2022-05-12 2022-08-09 中国电力科学研究院有限公司 一种电网运行环境模拟方法、系统、设备及介质
CN114880932B (zh) * 2022-05-12 2023-03-10 中国电力科学研究院有限公司 一种电网运行环境模拟方法、系统、设备及介质

Similar Documents

Publication Publication Date Title
CN102496069B (zh) 基于模糊层次分析法的电缆多状态安全运行评估方法
CN114065452A (zh) 基于深度强化学习的电网拓扑优化和潮流控制的方法
CN106503923B (zh) 一种电力系统连锁故障风险评估的方法及系统
CN104636823B (zh) 一种风电功率预测方法
CN103488869A (zh) 一种最小二乘支持向量机的风力发电短期负荷预测方法
CN104155574A (zh) 基于自适应神经模糊推理系统的配电网故障分类方法
CN111967696B (zh) 基于神经网络的电动汽车充电需求预测方法、系统及装置
CN104951834A (zh) 基于遗传算法和粒子群集成的lssvm风速预测方法
CN105354363A (zh) 基于核极限学习机的脉动风速预测方法
CN106446571A (zh) 风电场功率预测的误差评价方法
CN109214708A (zh) 基于交叉熵理论优化支持向量机的电力系统风险评估方法
CN111416797A (zh) 改进天牛群算法优化正则化极限学习机的入侵检测方法
CN104899431A (zh) 基于蚁群和粒子群集成的lssvm脉动风速预测方法
CN106126944A (zh) 一种电力变压器顶层油温区间预测方法及系统
CN104503420A (zh) 一种基于新型fde-elm和时延efsm的非线性过程工业故障预测方法
CN108879732A (zh) 电力系统暂态稳定评估方法及装置
CN109829627A (zh) 一种基于集成学习方案的电力系统动态安全置信评估方法
Tagliaferri et al. A real-time strategy-decision program for sailing yacht races
Wendt et al. Knowledge-guided genetic algorithm for input parameter optimisation in environmental modelling
CN114742209A (zh) 一种短时交通流预测方法及系统
CN115965177A (zh) 基于注意力机制改进的自回归误差补偿风电功率预测方法
CN103984996A (zh) 基于禁忌搜索和遗传算法的湖库藻类水华生成机理时变模型优化及预测方法
Yang et al. A new self-learning TLBO algorithm for RBF neural modelling of batteries in electric vehicles
CN104866679A (zh) 一种开关设备的机械特性预测方法
KR101725629B1 (ko) 오차 크기를 고려하는 적합도 함수를 이용한 유전 프로그래밍 기반의 교통량 예측 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination