CN117421571A - 一种基于配电网的拓扑实时辨识方法及系统 - Google Patents
一种基于配电网的拓扑实时辨识方法及系统 Download PDFInfo
- Publication number
- CN117421571A CN117421571A CN202311334566.3A CN202311334566A CN117421571A CN 117421571 A CN117421571 A CN 117421571A CN 202311334566 A CN202311334566 A CN 202311334566A CN 117421571 A CN117421571 A CN 117421571A
- Authority
- CN
- China
- Prior art keywords
- distribution network
- power distribution
- topology
- layer
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009826 distribution Methods 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000005259 measurement Methods 0.000 claims abstract description 108
- 238000012549 training Methods 0.000 claims abstract description 51
- 230000007246 mechanism Effects 0.000 claims abstract description 29
- 230000015654 memory Effects 0.000 claims abstract description 25
- 238000012360 testing method Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 239000010410 layer Substances 0.000 claims description 130
- 239000013598 vector Substances 0.000 claims description 94
- 239000011159 matrix material Substances 0.000 claims description 61
- 230000006870 function Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 6
- 238000012804 iterative process Methods 0.000 claims description 6
- 238000011960 computer-aided design Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- 239000002356 single layer Substances 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 30
- 238000004088 simulation Methods 0.000 abstract 1
- 230000003935 attention Effects 0.000 description 67
- 238000002347 injection Methods 0.000 description 13
- 239000007924 injection Substances 0.000 description 13
- 230000000694 effects Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000010606 normalization Methods 0.000 description 8
- 238000013136 deep learning model Methods 0.000 description 6
- 230000006403 short-term memory Effects 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000010332 selective attention Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 230000031068 symbiosis, encompassing mutualism through parasitism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J3/00—Circuit arrangements for ac mains or ac distribution networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2113/00—Details relating to the application field
- G06F2113/04—Power grid distribution networks
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J2203/00—Indexing scheme relating to details of circuit arrangements for AC mains or AC distribution networks
- H02J2203/10—Power transmission or distribution systems management focussing at grid-level, e.g. load flow analysis, node profile computation, meshed network optimisation, active network management or spinning reserve management
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J2203/00—Indexing scheme relating to details of circuit arrangements for AC mains or AC distribution networks
- H02J2203/20—Simulating, e g planning, reliability check, modelling or computer assisted design [CAD]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Economics (AREA)
- Public Health (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Water Supply & Treatment (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Power Engineering (AREA)
- Supply And Distribution Of Alternating Current (AREA)
Abstract
本发明公开了一种基于配电网的拓扑实时辨识方法及系统,该方法针对实际配电网拓扑结构因运维频繁变动的情况,搭建了可智能辨识配电网拓扑结构的深度学习模型。首先,根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据,并进行预处理;其次,构建了融合CNN(卷积神经网络)、LSTM(长短期记忆网络)和Attention(注意力机制)的拓扑结构智能辨识模型,并结合历史量测数据对模型训练并测试;最后,在IEEE33节点配电网系统仿真算例中,验证了本发明相较于传统辨识方法在辨识精度上的优越性,实现了该模型的在线应用。
Description
技术领域
本发明涉及配电物联网技术领域,尤其涉及一种基于配电网的拓扑实时辨识方法及系统。
背景技术
随着现代电力系统的不断发展,配电网中新能源渗透率持续增加,配电网的调度运行、电能质量和系统保护等方面将迎来新的新的挑战,不仅配电系统中的不确定性显著增加,其运行方式也愈发复杂多变。由于配电网运行过程中的经济性和可靠性要求,需要频繁进行网络拓扑重构,因此具有网络拓扑复杂多变的特点。然而,配电网拓扑辨识与潮流计算、状态估计、故障定位等方面存在密切联系,可为含高比例新能源的配电网优化运行提供解决方案,因此拓扑辨识具有重要意义。
根据辨识技术的不同,部分研究对现代配电网拓扑辨识研究可以划分为传统辨识方法和人工智能辨识方法。在已有的传统辨识方法中,主要可以分为相关性判断法,信号注入法和线性规划法等等。利用配电网的量测时序数据,可以以潮流计算方法构建原始拓扑结构库,并比对输入量测数据与拓扑库中的样本,选定误差最小的拓扑为最终辨识类型。为了实现了配电网数字化运行,可以采用“有功电流注入+频域信号检测”作为低压配电网中的拓扑识别技术方案。配电网拓扑便是工作还可以通过生成节点与支路的关联矩阵,并根据矩阵分析母线状态,形成待辨识区域的生成树来完成。通过马尔可夫随机场模型挖掘配电网节点电压间的关联性,可以避免馈线和变压器间拓扑辨识错误。但上述方法需要复杂的运算,影响了拓扑在线辨识的时效性。
随着人工智能技术的发展,基于机器学习的拓扑辨识方法逐渐应用在相关领域中。Zhao等人建立了两种神经网络体系,分别训练不同的线路及节点并共享节点的信息,实现配电网拓扑辨识。常见的方法是基于最小生成树算法生成配电网拓扑的邻接矩阵,并结合线性回归和Distflow潮流模型进行拓扑结构辨识。也有一种基于GCN(图卷积网络)的方法,根据配电网中各分布式单元断路器的开断状态实现拓扑辨识,但该方法输入的节点信息仅限于节点电压数据,难以学习量测数据深层特征,并且无法区分不同量测数据的重要性差异,导致拓扑辨识准确率不高。
发明内容
发明目的:本发明针对已有拓扑辨识方法精度不足的缺陷,构建了采用时间断面量测进行特征学习的配电网拓扑辨识框架,提出基于CNN(卷积神经网络)-LSTM(长短期记忆网络)-Attention(注意力机制)模型的智能配电网拓扑辨识方法,本发明还提出一种与该方法对应的系统。
技术方案:一方面,本发明提供基于配电网的拓扑实时辨识方法,该方法包括以下步骤:
S1根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据;
S2对得到的节点量测数据进行预处理;
S3将各类型拓扑结构的标签与对应的配电网历史量测数据共同构建初始训练数据集;
S4将所述初始训练数据输入已调参的配电网拓扑辨识模型中迭代训练,迭代过程中模型逐步缩小预测输出和实际输出的偏差值,直至训练完成,所述配电网拓扑辨识模型首先通过CNN和LSTM网络提取量测序列数据特征,其次,在神经网络结构中引入了自注意力机制增强对于计算单元各时间步特征信息的控制;
S5将实时断面量测数据输入训练完毕的模型中智能辨识出对应拓扑结构类型。
进一步的,包括:
步骤S1包括:
首先,对于任一配电网系统,根据潮流方程确定当前配电网的状态;
然后,确定所述配电网系统中包含的支路和联络线,并在所述配电网系统中接入相应的风力分布式电源和光伏分布式电源,进而生成多种状态下的拓扑结构,对以上配电网拓扑结构通过不同时间断面的分布式能源出力和节点负荷变化进行生成样本,从而各类型拓扑结构取若干个时间断面生成样本数据;
最后,共生成多组样本数据,并将样本数据中各节点预处理后的电压幅值和注入有功功率量测作为模型的输入特征,以拓扑类型作为模型输出的样本标签。
进一步的,包括:
所述步骤S4中配电网拓扑辨识模型包括:
输入层:将同一时间断面的n个节点的预处理后的节点电压幅值和注入有功功率经数据标准化后的堆叠量测矩阵作为输入;
卷积层:对于输入量测矩阵采用行数和H相同,列数为e的卷积矩阵对其进行卷积操作,分别采用2×1和2×2尺寸的卷积核进行卷积运算,最后分别得到量测特征图G1和G2;
拼接层:将卷积层以两种卷积特征解构方式产生的量测特征图G1和G2进行堆叠,形成拼接特征矩阵Gstack,其为下游网络的序列特征学习提供先决条件;
LSTM层:其用于学习节点量测全局序列间的关联特征,总时间步长为N,各时间步上的输入为特征矩阵Gstack的第i列向量hstack-i,在解析全局序列相关性后输出各时间步的编码向量hi,1≤i≤N;
注意力层:单一时间断面的输入量测综合了多个节点量测信息,根据各时间步的编码向量hi得到注意力层的输出向量A;
输出层:首先,设置全连接层的维度为m,其对应于训练样本中的拓扑类型标签总数,其次,采用Softmax分类器和注意力层的输出向量A得到拓扑标签 为拓扑类型标签的概率向量,最后,由argmax函数选取/>中最大元素所对应的拓扑类型作为拓扑辨识结果。
进一步的,包括:
所述卷积层的具体实现方式为:
(1)对量测矩阵H从左到右按照固定的间隔s平滑移动卷积矩阵Wc并进行重复卷积操作,此处设置固定的间隔s=1;
(2)单次卷积计算生成的卷积向量为:
其中,ra为第a次卷积运算的卷积向量,符号代表矩阵间的哈达玛积,Ha:a+e-1为输入量测矩阵H第a列至第a+e-1列向量构成的子矩阵;
(3)将各卷积向量经过ReLU激活函数的非线性变换操作得到:
ga=ReLU(ra+ba)
其中,ga为第a次卷积运算并经ReLU激活函数生成的特征向量;
(4)将同类型卷积操作生成的特征向量ga按顺序堆叠生成量测特征图G。
进一步的,包括:
所述注意力层的输出向量A表示为:
ui=tanh(Wahi+ba)
其中,Wa和ba为hi的权重参数矩阵和偏置向量,ui为hi经过单层感知机的输出,代表注意力层的键值向量,us代表根据量测信息随机初始化的查询向量,为注意力层的输出,αi为i时刻键值向量ui对应的注意力分数。
进一步的,包括:
所述拓扑标签表示为:
其中,WA和bA分别为该层的权重参数矩阵和偏置向量。
另一方面,本发明还提供一种基于配电网的拓扑实时辨识系统,该系统包括:
数据采集模块,用于根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据;
预处理模块,用于对得到的节点量测数据进行预处理;
训练集生成模块,用于将各类型拓扑结构的标签与对应的配电网历史量测数据共同构建初始训练数据集;
模型训练模块,用于将所述初始训练数据输入已调参的配电网拓扑辨识模型中迭代训练,迭代过程中模型逐步缩小预测输出和实际输出的偏差值,直至训练完成,所述配电网拓扑辨识模型首先通过CNN和LSTM网络提取量测序列数据特征,其次,在神经网络结构中引入了自注意力机制增强对于计算单元各时间步特征信息的控制;
测试模块,用于将实时断面量测数据输入训练完毕的模型中智能辨识出对应拓扑结构类型。
进一步的,包括:
所述模型训练模块中,配电网拓扑辨识模型包括:
输入层:将同一时间断面的n个节点的预处理后的节点电压幅值和注入有功功率经数据标准化后的堆叠量测矩阵作为输入;
卷积层:对于输入量测矩阵采用行数和H相同,列数为e的卷积矩阵对其进行卷积操作,分别采用2×1和2×2尺寸的卷积核进行卷积运算,最后分别得到量测特征图G1和G2;
拼接层:将卷积层以两种卷积特征解构方式产生的量测特征图G1和G2进行堆叠,形成拼接特征矩阵Gstack,其为下游网络的序列特征学习提供先决条件;
LSTM层:其用于学习节点量测全局序列间的关联特征,总时间步长为N,各时间步上的输入为特征矩阵Gstack的第i列向量gstack-i,在解析全局序列相关性后输出各时间步的编码向量hi,1≤i≤N;
注意力层:单一时间断面的输入量测综合了多个节点量测信息,根据各时间步的编码向量hi得到注意力层的输出向量A;
输出层:首先,设置全连接层的维度为m,其对应于训练样本中的拓扑类型标签总数,其次,采用Softmax分类器和注意力层的输出向量A得到拓扑标签为拓扑类型标签的概率向量,最后,由argmax函数选取/>中最大元素所对应的拓扑类型作为拓扑辨识结果。
其次,本发明还提供一种计算机设备,包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述所述的基于配电网的拓扑实时辨识方法的步骤。
最后,本发明还提供一种存储介质,存储有计算机程序,该程序使计算机执行上述所述的基于配电网的拓扑实时辨识方法中的步骤。
有益效果:相比现有技术,本发明具有以下优点:
(1)本发明构建了采用时间断面量测进行特征学习的配电网拓扑辨识框架,提出基于CNN(卷积神经网络)-LSTM(长短期记忆网络)-Attention(注意力机制)模型的智能配电网拓扑辨识方法。本发明的方法能够应对配电网拓扑运行状态频繁变化的场景,满足拓扑在线辨识的时效性且辨识精度高。
(2)本方法采用注意力机制筛选出拓扑辨识任务中的有效特征,以应对少量实时量测的情形。在IEEE33节点标准配电网算例中,验证了本发明方法对于辐射状和弱环网运行的有源配电网能够实现高精度和高效率的拓扑辨识。
附图说明
图1是本发明所述的基于配电网的拓扑实时辨识方法流程图;
图2是本发明所述的卷积核计算示意图;
图3是本发明所述的LSTM单元结构示意图;
图4是本发明所述的注意力机制模型示意图;
图5是本发明所述的基于CNN-LSTM-Attention的配电网拓扑辨识模型示意图;
图6是本发明所述的接入分布式电源的IEEE33节点配电网拓扑结构示意图;
图7是本发明所述的CNN-LSTM-Attention模型辨识的混淆矩阵示意图;
图8是本发明所述的各量测节点的注意力权重图;
图9是本发明所述的保留量测的节点数和测试集准确率的比较示意图。
具体实施方式
为了更好地理解本发明,下面结合附图和实施例对本发明的技术方案作进一步的说明。
一方面,如图1所示,本发明所述的基于配电网的拓扑实时辨识方法是一种基于CNN-LSTM-Attention的配电网拓扑实时辨识方法。该方法搭建了可智能辨识配电网拓扑结构的深度学习模型。首先,通过生成不同拓扑结构下的配电网量测数据并进行数据预处理;其次,构建了融合CNN(卷积神经网络)、LSTM(长短期记忆网络)和Attention(注意力机制)的拓扑结构智能辨识模型,并结合历史量测数据对模型训练并测试。
步骤S1通过生成不同拓扑结构下的配电网量测数据并进行数据预处理,包括以下步骤:
(1)根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据;
节点量测数据包括;确定节点注入有功功率、节点注入无功功率、节点电压幅值和相邻节点间电压相角差中的其中两组具体数据;
(2)根据潮流方程确定当前配电网的状态,具体如下:
式中:Pi、Qi和Ui分别代表节点i的注入有功功率,注入无功功率和电压幅值,θij代表节点i和节点j之间的相角差;
(3)将电压幅值量测数据采用min-max标准化方法归一化处理:
式中:U和Unom分别为该节点电压幅值经归一化前后的具体数值;Umin和Umax分别为该节点处历史电压幅值的最大值和最小值;
同理,也应对节点注入有功功率进行归一化处理,以避免取值量纲不统一对模型训练的负面影响:
式中:P和Pnom分别为该节点注入有功功率经归一化前后的具体数值;Pmin和Pmax分别为该节点处历史注入有功功率的最大值和最小值;
并选用配电网中易获取的部分断面量测数据:节点电压幅值U以及节点注入有功功率P,构建量测矩阵作为拓扑辨识模型输入的主要特征。
步骤S2将初始训练数据输入已调参的配电网拓扑辨识模型中迭代训练,迭代过程中模型逐步缩小预测输出和实际输出的偏差值,直至训练完成,所述配电网拓扑辨识模型首先通过CNN和LSTM网络提取量测序列数据特征,其次,在神经网络结构中引入了自注意力机制增强对于计算单元各时间步特征信息的控制。
构建了融合CNN(卷积神经网络)、LSTM(长短期记忆网络)和Attention(注意力机制)的拓扑结构智能辨识模型,包括以下步骤:
针对配电网中的节点量测数据,本发明主要采用多尺寸卷积核的CNN进行首层特征提取,卷积层的卷积计算为:
式中:代表第l层的第i个特征映射,/>代表第l-1层的第i个特征映射,/>代表第l层的第i个卷积核,/>代表第l层的第i个偏置权重,M输入特征映射数量,ReLU(·)代表ReLU激活函数。
LSTM的网络结构包括输入门、遗忘门、记忆单元和输出门。其中,输入门由Sigmoid神经网络层和tanh激活层两部分组成,该门结构对当前时刻网络输入信息进行控制,由下式计算当前时刻输入中保存到记忆单元的信息:
it=σ(Wi·[ht-1,xt])+bi#(5)
式中:it、分别表示输入门的输出和临时记忆单元的输出;Wi、Wc分别表示输入门和更新后的权重;ht-1、xt分别表示前一时刻隐含层输入和当前时刻输入;bi、bc分别为输入门和临时记忆单元的偏置,σ(·)代表Sigmoid激活函数。
遗忘门对上一时刻隐含层中的信息进行控制,计算出能保留在当前时刻记忆单元中的信息,从而实现长期重要信息的保存。计算公式如下:
ft=σ(Wf·[ht-1,xt]+bf)#(7)
式中:ft、Wf、bf分别表示遗忘门的输出、权重和偏置值。
记忆单元由遗忘门的输出和输入门的临时记忆单元两部分组成,遗忘门保留了序列数据的长期重要信息,输入门单元使得当前时刻的无用信息不进入记忆单元。计算过程为:
式中:Ct表示当前时刻记忆单元输出值;Ct-1表示前一时刻记忆单元输出值。
输出门为网络输出结果,由当前输入、记忆单元和前一时刻隐含层共同确定。计算公式如下:
Ot=σ(Wo·[ht-1,xt]+bo)#(9)
ht=Ot·tanh(Ct) (10)
式中:Ot、ht分别表示输出门和隐含层的输出;Wo、bo分别表示输出门的权重和偏置值。
由于配电网输入量测信息重要程度的区分需求,需计算不同量测信息的注意力分数。在当前注意力机制模型中,可以把计算注意力分数的对象抽象为查询向量和键矩阵,如图4所示,查询向量对应解码器状态,键矩阵对应编码器状态。输入到注意力层的序列数据由键值对构成。对于给定的查询向量,这里首先按照和键值矩阵K中各向量相似性以点积乘法的方式计算注意力分数:
score(q,ki)=qTki#(11)
式中:score(q,ki)表示查询向量q和任一时刻i的键值向量ki按照点积乘法求得的注意力分数。
对于注意力分数进行归一化,使得所有键值对应的注意力分数总和为1,即:
根据计算出的各时刻键值向量ki对应注意力分数αi,可以对值向量矩阵V进行加权求和,从而得到对应t时刻的注意力机制输出:
式中:Attention(q,K,V)代表注意力机制的输出,vi代表t时刻的值向量。
如图5所示该模型共分为6层,分别为输入层、卷积层、拼接层、LSTM层、注意力层和输出层。
输入层:输入层中,将同一时间断面的n个节点的节点电压幅值和注入有功功率经数据标准化后的堆叠量测矩阵作为输入。
卷积层:对于输入量测矩阵采用行数和H相同,列数为e的卷积矩阵对其进行卷积操作。具体实现方式为:对H从左到右按照固定的间隔s平滑移动卷积矩阵Wc并进行重复卷积操作。
若设置卷积核移动固定间隔为1,则单次卷积计算生成的卷积向量为:
式中:ra为第a次卷积运算的卷积向量,符号代表矩阵间的哈达玛积,Ha:a+e-1为输入量测矩阵H第a列至第a+e-1列向量构成的子矩阵。
将各卷积向量经过ReLU激活函数的非线性变换操作得到:
ga=ReLU(ra+ba)#(16)
式中:ga为第a次卷积运算并经ReLU激活函数生成的特征向量。将同类型卷积操作生成的特征向量ga按顺序堆叠生成量测特征图G。
本发明的模型中分别采用2×1和2×2尺寸的卷积核进行卷积运算,以此获取单一节点内的局部量测特征,并解析相邻节点量测间可能存在的局部关联特征。为确保输出的特征图维度相同,采用SamePadding的同尺寸填充方式,将超出边界部分的卷积核补0填充,因此两种卷积方式输出的和/>维度相同,其中,th为卷积核的通道数。
拼接层:拼接层中,将卷积层以两种卷积特征解构方式产生的量测特征图G1和G2进行堆叠,形成拼接特征矩阵为下游网络的序列特征学习提供先决条件。
LSTM层:LSTM层中用于学习节点量测全局序列间的关联特征,总时间步长为n。各时间步上的输入为特征矩阵Gstack的第i列向量gstack-i,在解析全局序列相关性后输出各时间步的编码向量hi:
hi=LSTM(gstack-i)#(17)
注意力层:单一时间断面的输入量测综合了多个节点量测信息,可通过注意力层对于给定拓扑辨识任务目标的节点量测信息特征贡献予以重要性差异区分,以达到优化模型的计算资源分配并实现更优拓扑辨识效果的目的。
ui=tanh(Wahi+ba) (18)
式中:Wa和ba为hi的权重参数矩阵和偏置向量,ui为hi经过单层感知机的输出,代表注意力层的键值向量,us代表根据量测信息随机初始化的查询向量,为注意力层的输出。
输出层:输出层由全连接层和Softmax激活函数层构成,实现对上游网络深层特征的归纳总结。全连接层的维度为m,对应于训练样本中的拓扑类型标签总数,最后由Softmax分类器输出拓扑标签。
式中:WA和bA分别为该层的权重参数矩阵和偏置向量。为拓扑类型标签的概率向量,最终由argmax函数选取/>中最大元素所对应的拓扑类型作为拓扑辨识结果。
步骤S3在线应用阶段中,将实时断面量测数据输入已迭代完毕的模型中,便可智能辨识出对应拓扑结构类型。
另一方面,本发明还提供一种基于配电网的拓扑实时辨识系统,该系统包括:
数据采集模块,用于根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据;
预处理模块,用于对得到的节点量测数据进行预处理;
训练集生成模块,用于将各类型拓扑结构的标签与对应的配电网历史量测数据共同构建初始训练数据集;
模型训练模块,用于将所述初始训练数据输入已调参的配电网拓扑辨识模型中迭代训练,迭代过程中模型逐步缩小预测输出和实际输出的偏差值,直至训练完成,所述配电网拓扑辨识模型首先通过CNN和LSTM网络提取量测序列数据特征,其次,在神经网络结构中引入了自注意力机制增强对于计算单元各时间步特征信息的控制;
测试模块,用于将实时断面量测数据输入训练完毕的模型中智能辨识出对应拓扑结构类型。
本系统结合了量测数据的min-max标准归一化处理、CNN、LSTM和Attention模型几种方法,最终形成了基于CNN(卷积神经网络)-LSTM(长短期记忆网络)-Attention(注意力机制)模型的智能配电网拓扑辨识系统,以下分别对这几个部分进行详细的说明。
1、min-max标准归一化处理
对于任一给定的配电网,在潮流求解方程中若确定了节点注入有功功率、节点注入无功功率、节点电压幅值和相邻节点间电压相角差中的其中2组具体数据,便可根据潮流方程确定当前配电网的状态。
由于配电网稳定性较高,较近的负荷间距离使得线损相对较小,因此相邻节点电压幅值比较接近。对于不同拓扑结构下的同一节点,其电压幅值标幺值差异较小,若采用未处理的初始量测数据训练配电网拓扑辨识模型,会影响模型分析样本间的差异性进而影响辨识效果。鉴于此,本发明将电压幅值量测数据采用min-max标准化方法归一化处理:
式中:U和Unom分别为该节点电压幅值经归一化前后的具体数值;Umin和Umax分别为该节点处历史电压幅值的最大值和最小值;
同理,也应对节点注入有功功率进行归一化处理,以避免取值量纲不统一对模型训练的负面影响:
式中:P和Pnom分别为该节点注入有功功率经归一化前后的具体数值;Pmin和Pmax分别为该节点处历史注入有功功率的最大值和最小值。
2、卷积神经网络
CNN作为深度学习的一种经典模型,是具有深层特征学习能力的前馈神经网络,以局部感知与权值共享的方式深度学习和提取输入数据中蕴含的主要特征。针对配电网中的节点量测数据,本发明主要采用多尺寸卷积核的CNN进行首层特征提取,卷积层的卷积计算为:
式中:代表第l层的第i个特征映射,/>代表第l-1层的第i个特征映射,/>代表第l层的第i个卷积核,/>代表第l层的第i个偏置权重,M输入特征映射数量,ReLU(·)代表ReLU激活函数。
卷积核的具体计算操作以图2为示例,若以单节点的注入有功功率和电压幅值作为输入的某个子矩阵,通过含三通道的2×1尺寸的卷积核和偏置向量计算后,将生成尺寸为3×2的卷积输出。卷积神经网络通常包含池化层,但考虑到本模型输入特征量较少,为尽量保留卷积层提取到的各量测量局部特征,无需池化层对卷积输出实现降维。
3、长短期记忆网络
RNN(循环神经网络)擅长处理序列数据,但应用时存在梯度消失或梯度爆炸的问题,LSTM在RNN的基础上,通过引入“门”机制,解决了RNN的梯度消失和梯度爆炸问题。作为目前比较成熟的循环神经网络架构,LSTM在RNN的基础上采用3个独立的门控单元来控制相邻计算单元间的信息传递,使其对长时间序列数据具有更强的学习能力,有效解决RNN对较长时间跨度序列进行特征提取时出现的梯度消失和梯度爆炸问题,目前在序列预测领域广泛应用。LSTM单元结构如图3所示。
LSTM的网络结构包括输入门、遗忘门、记忆单元和输出门。其中,输入门由Sigmoid神经网络层和tanh激活层两部分组成,该门结构对当前时刻网络输入信息进行控制,由下式计算当前时刻输入中保存到记忆单元的信息:
it=σ(Wi·[ht-1,xt])+bi#(4)
式中:it、分别表示输入门的输出和临时记忆单元的输出;Wi、Wc分别表示输入门和更新后的权重;ht-1、xt分别表示前一时刻隐含层输入和当前时刻输入;bi、bc分别为输入门和临时记忆单元的偏置,σ(·)代表Sigmoid激活函数。
遗忘门对上一时刻隐含层中的信息进行控制,计算出能保留在当前时刻记忆单元中的信息,从而实现长期重要信息的保存。计算公式如下:
ft=σ(Wf·[ht-1,xt]+bf)#(6)
式中:ft、Wf、bf分别表示遗忘门的输出、权重和偏置值。
4、注意力机制
注意力机制起初源于计算机视觉领域,核心目标是从给定的所有信息中选择出对当前目标任务更关键的信息。通常认为处理信息时应当选择性地关注局部重点信息,该行为和注意力机制有共通之处。由于配电网输入量测信息重要程度的区分需求,需计算不同量测信息的注意力分数。在当前注意力机制模型中,可以把计算注意力分数的对象抽象为查询向量和键矩阵,如图4所示,查询向量对应解码器状态,键矩阵对应编码器状态。输入到注意力层的序列数据由键值对构成。
对于给定的查询向量,这里首先按照和键值矩阵K中各向量相似性以点积乘法的方式计算注意力分数:
score(q,ki)=qTki#(7)
式中:score(q,ki)表示查询向量q和任一时刻i的键值向量ki按照点积乘法求得的注意力分数。
对于注意力分数进行归一化,使得所有键值对应的注意力分数总和为1,即:
根据计算出的各时刻键值向量ki对应注意力分数αi,可以对值向量矩阵V进行加权求和,从而得到对应t时刻的注意力机制输出:
式中:Attention(q,K,V)代表注意力机制的输出,vi代表t时刻的值向量。
5、基于CNN-LSTM-Attention模型的智能配电网拓扑辨识系统
本发明将注意力机制和卷积神经网络、长短期记忆网络相结合,提出一种基于CNN-LSTM-Attention的深度学习配电网拓扑辨识模型,首先通过CNN和LSTM网络提取量测序列数据特征,其次在神经网络结构中引入了自注意力结构增强对于计算单元各时间步特征信息的控制,模型整体结构见图5。
如图5所示该模型共分为6层,分别为输入层、卷积层、拼接层、LSTM层、注意力层和输出层。
输入层:输入层中,将同一时间断面的n个节点的节点电压幅值和注入有功功率经数据标准化后的堆叠量测矩阵作为输入。
卷积层:对于输入量测矩阵采用行数和H相同,列数为e的卷积矩阵对其进行卷积操作。
具体实现方式为:对H从左到右按照固定的间隔s平滑移动卷积矩阵Wc并进行重复卷积操作。
若设置卷积核移动固定间隔为1,则单次卷积计算生成的卷积向量为:
式中:ra为第a次卷积运算的卷积向量,符号代表矩阵间的哈达玛积,Ha:a+e-1为输入量测矩阵H第a列至第a+e-1列向量构成的子矩阵。
将各卷积向量经过ReLU激活函数的非线性变换操作得到:
ga=ReLU(ra+ba)#(12)
式中:ga为第a次卷积运算并经ReLU激活函数生成的特征向量。将同类型卷积操作生成的特征向量ga按顺序堆叠生成量测特征图G。
本发明的模型中分别采用2×1和2×2尺寸的卷积核进行卷积运算,以此获取单一节点内的局部量测特征,并解析相邻节点量测间可能存在的局部关联特征。为确保输出的特征图维度相同,采用Same Padding的同尺寸填充方式,将超出边界部分的卷积核补0填充,因此两种卷积方式输出的和/>维度相同,其中th为卷积核的通道数。
拼接层:拼接层中,将卷积层以两种卷积特征解构方式产生的量测特征图G1和G2进行堆叠,形成拼接特征矩阵为下游网络的序列特征学习提供先决条件。
LSTM层:LSTM层中用于学习节点量测全局序列间的关联特征,总时间步长为N。各时间步上的输入为特征矩阵Gstack的第i列向量gstack-i,在解析全局序列相关性后输出各时间步的编码向量hi:
hi=LSTM(gstack-i)#(13)
注意力层:单一时间断面的输入量测综合了多个节点量测信息,可通过注意力层对于给定拓扑辨识任务目标的节点量测信息特征贡献予以重要性差异区分,以达到优化模型的计算资源分配并实现更优拓扑辨识效果的目的。
ui=tanh(Wahi+ba) (14)
式中:Wa和ba为hi的权重参数矩阵和偏置向量,ui为hi经过单层感知机的输出,代表注意力层的键值向量,us代表根据量测信息随机初始化的查询向量,为注意力层的输出。
输出层:输出层由全连接层和Softmax激活函数层构成,实现对上游网络深层特征的归纳总结。全连接层的维度为m,对应于训练样本中的拓扑类型标签总数,最后由Softmax分类器输出拓扑标签。
式中:WA和bA分别为该层的权重参数矩阵和偏置向量。为拓扑类型标签的概率向量,最终由argmax函数选取/>中最大元素所对应的拓扑类型作为拓扑辨识结果。
本发明的算例测试包括:
本发明算例测试集成的开发环境为MATLAB和Pycharm,计算机运行硬件条件为CPUi7-9750H(2.6GHz),GPU为RTX-2080。拓扑辨识模型应用的深度学习框架采用了程序设计语言Python3.7的Torch1.11.1,Tensorflow2.2.0和Keras2.4.0工具包。
本发明测试算例为IEEE 33节点标准配电网,系统基准电压为12.66kV,基准功率为10MW,母线1为平衡节点,标准电压为1.0p.u.(标幺值),最大承受电压为1.05p.u.且最小电压为0.90p.u.,线路最大通过电流为300A。作为训练数据集的节点电压幅值和注入有功功率等量测数据由MATPOWER软件生成。为模拟实际配电网运行环境,选择系统中部分节点加入了PV(光伏)、WT(风力发电机)等分布式能源,在节点12和18接入WT,WT采用定功率因数发电,功率因数恒等于0.95。在节点12和18接入PV,PV也采用定功率因数发电,功率因数恒等于0.95。
由于风力发电机可在其无功容量范围内维持发电机端的电压稳定,因此设置接入风力发电机的节点为PV节点,设置接入光伏装置的节点为PQ节点。节点负荷由恒功率因数控制,其中功率因数按照取值为0.75~0.85的均匀分布。
接入分布式电源的IEEE33节点配电网整体拓扑结构如图6所示。该配电网中共包含32条支路和5条联络线,在配电网中分别接入2组风力分布式电源和2组光伏分布式电源。以改变联络线开关状态的方式生成配电网的15种运行态拓扑结构,其中包含辐射形网络10种,环形网络5种。
对以上配电网拓扑结构通过不同时间断面的分布式能源出力和节点负荷变化进行不确定性建模,各类型拓扑结构取2000个时间断面生成样本数据,共生成30000组样本。
样本数据中各节点的电压幅值和注入有功功率量测作为深度学习模型的输入特征,分别记为P1~P33和U1~U33,并以拓扑类型作为模型输出的样本标签。
按照十折验证法将每类拓扑结构数据样本随机选取10%作为测试集,其余作为训练集,并在训练过程中随机取训练集的5%作为验证样本,以修正每次迭代的输出偏差。
评价指标采用对多分类模型的准确率、召回率和F1值,其中拓扑类型i的辨识效果评价指标为:
式中:Pi、Ri分别为拓扑结构类型i的辨识准确率和召回率;Ti为诊断正确的拓扑结构类型i样本;E为拓扑结构类型i的实际样本总数;F为所有被辨识为拓扑结构类型i的样本总数。
表1CNN-LSTM-Attention模型参数设置
对于深度学习模型参数设置,首先以F1值为优化目标,以CNN通道数和LSTM隐藏神经元个数为变量,由网格搜索方法寻优最佳参数设置,CNN-LSTM-Attention模型具体参数设置见表1。
为验证CNN-LSTM-Attention模型在配电网拓扑结构辨识任务的有效性,本发明选择其他常用的机器学习模型作为对比,对比模型的具体实现代码来源于它们公开发表的论文或基于论文指定的源码进行微调。模型实际训练过程中以Early Stopping工具监视每轮迭代的测试集损失变化,若无明显降低则终止训练。
表2不同深度学习模型的识别结果
根据表2可以做出以下分析:
1)单一CNN由于其卷积窗口的作用机理,具备局部感知能力强和共享权值的特点,但仅能识别邻近节点量测的局部关系,并且缺乏对关键信息的辨识能力,因此模型识别准确率较低,为96.48%。而CNN-LSTM的组合模型在基于CNN的深度学习算法中加入LSTM网络,可同时学习节点量测的局部特征信息和全局序列相关性,从而提升模型对数据特征的提取能力,但存在无法辨识数据中关键特征的缺陷,导致辨识精度提升幅度有限。ACNN(注意力卷积网络)在CNN基础上增加了注意力机制,能够有效感知特征的重要性差异,因此辨识准确率有所提升。SVM(支持向量机)的最终决策函数仅由少数支持向量决定,对含有大规模训练样本的多分类任务辨识效果不佳。DNN(深度神经网络)采用简单的全连接层堆叠架构的信息传递方式,无法有效地对具有前后依赖的量测数据建模,并且容易陷入过拟合并导致参数膨胀等问题,因此测试算例中的整体精度和效率比较低下。
2)本发明模型虽然结合了CNN、LSTM和注意力机制等网络,在一定程度上增大了模型参数总量,但由于模型特征提取能力的增强,在每一轮迭代中训练样本的损失函数值下降得更快,因此可以结合Early Stopping工具以更少的迭代轮数提前完成训练。所以总体上本发明模型在实现99.45%的高辨识精度下,训练和测试效率相比于其它基准模型的衰减幅度并不明显,对于单断面输入量测对应拓扑类型的平均辨识时间约为0.0016s,能够满足拓扑结构在线辨识的时效性要求。
为验证模型对各类型拓扑辨识的精度,根据测试集实验结果输出归一化混淆矩阵,其可视化热力图如图7所示,其中第i行第j列元素代表实际拓扑类型i被模型辨识为拓扑类型j的概率。由图示结果可以看出:混淆矩阵左上至右下的对角线元素几乎全为1,拓扑正确辨识概率为99.45%,因此可说明本发明模型在拓扑结构辨识任务中的有效性。图8展示了测试样本经CNN-LSTM-Attention输出的各节点量测注意力权重差异,其中对应于单断面的量测数据,将其输入至已经迭代训练完毕的静态模型中,由注意力层输出对应节点的注意权重,最终对于测试集中各时间断面的注意权重取平均值并输出结果,从图示可以看出关联线路频繁开断的节点会被分配更高的注意权重,因此可验证本发明模型能够区分各节点量测信息输入对于配电网拓扑结构辨识的重要性。
为验证本发明模型在少量实时量测的条件下,仍能维持较好辨识效果,从原始配电网的全部节点中,按图8中节点量测的重要性权重由低到高逐个减少节点电压幅值和注入有功功率的量测特征,得到相应的特征子集,并分别训练各深度学习模型,得到保留量测的节点数与测试集准确率对应关系如图9所示,图9也可知本发明的模型准确率与其他几个模型相比,准确率最高。由图可知,在使用16个关键节点的量测特征时,本发明所述的CNN-LSTM-Attention模型的准确率仍能够达到98.32%,对比输入33个节点量测特征时仅衰减1.13%,因此验证少量测场景下本发明模型的有效性。
本发明构建了一种基于CNN-LSTM-Attention的配电网拓扑实时辨识方法,该方法与传统的配电网拓扑结构辨识方法相比,本发明提出的模型对训练样本数据的特征数量要求低,辨识精度较高,并且能够满足在线辨识的时效性要求,可实现辐射网和弱环网的拓扑结构辨识;深度学习模型中结合了卷积神经网络、长短期记忆网络和注意力机制结合,通过算例验证,模型拥有全局和局部的特征提取能力,以及关键信息的区分能力,对比传统算法的分类性能、鲁棒性均得到有效提升,泛化能力更强;通过实际算例验证了可仅使用部分关键节点的量测特征实现高精度的拓扑辨识效果,比较符合配电网装配的量测装置较少的场景,使得本发明的拓扑结构辨识模型在未来具备广阔的应用前景。
本发明针对已有拓扑辨识方法精度不足的缺陷,构建了采用时间断面量测进行特征学习的配电网拓扑辨识框架,提出基于CNN-LSTM-Attention模型的智能配电网拓扑辨识方法。所提方法能够应对配电网拓扑运行状态频繁变化的场景,满足拓扑在线辨识的时效性。该方法基于注意力机制筛选出拓扑辨识任务中的有效特征,以应对少量实时量测的情形。在IEEE33节点标准配电网算例中,验证了本发明方法对于辐射状和弱环网运行的有源配电网能够实现高精度和高效率的拓扑辨识。
本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
Claims (10)
1.一种基于配电网的拓扑实时辨识方法,其特征在于,该方法包括以下步骤:
S1根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据;
S2对得到的节点量测数据进行预处理;
S3将各类型拓扑结构的标签与对应的配电网历史量测数据共同构建初始训练数据集;
S4将所述初始训练数据输入已调参的配电网拓扑辨识模型中迭代训练,迭代过程中模型逐步缩小预测输出和实际输出的偏差值,直至训练完成,所述配电网拓扑辨识模型首先通过CNN和LSTM网络提取量测序列数据特征,其次,在神经网络结构中引入了自注意力机制增强对于计算单元各时间步特征信息的控制;
S5将实时断面量测数据输入训练完毕的模型中智能辨识出对应拓扑结构类型。
2.根据权利要求1所述的基于配电网的拓扑实时辨识方法,其特征在于,步骤S1包括:
首先,对于任一配电网系统,根据潮流方程确定当前配电网的状态;
然后,确定所述配电网系统中包含的支路和联络线,并在所述配电网系统中接入相应的风力分布式电源和光伏分布式电源,进而生成多种状态下的拓扑结构,对以上配电网拓扑结构通过不同时间断面的分布式能源出力和节点负荷变化进行生成样本,从而各类型拓扑结构取若干个时间断面生成样本数据;
最后,共生成多组样本数据,并将样本数据中各节点预处理后的电压幅值和注入有功功率量测作为模型的输入特征,以拓扑类型作为模型输出的样本标签。
3.根据权利要求2所述的基于配电网的拓扑实时辨识方法,其特征在于,所述步骤S4中配电网拓扑辨识模型包括:
输入层:将同一时间断面的n个节点的预处理后的节点电压幅值和注入有功功率经数据标准化后的堆叠量测矩阵作为输入;
卷积层:对于输入量测矩阵采用行数和H相同,列数为e的卷积矩阵对其进行卷积操作,分别采用2×1和2×2尺寸的卷积核进行卷积运算,最后分别得到量测特征图G1和G2;
拼接层:将卷积层以两种卷积特征解构方式产生的量测特征图G1和G2进行堆叠,形成拼接特征矩阵Gstack,其为下游网络的序列特征学习提供先决条件;
LSTM层:其用于学习节点量测全局序列间的关联特征,总时间步长为N,各时间步上的输入为特征矩阵Gstack的第i列向量gstack-i,在解析全局序列相关性后输出各时间步的编码向量hi,1≤i≤N;
注意力层:单一时间断面的输入量测综合了多个节点量测信息,根据各时间步的编码向量hi得到注意力层的输出向量A;
输出层:首先,设置全连接层的维度为m,其对应于训练样本中的拓扑类型标签总数,其次,采用Softmax分类器和注意力层的输出向量A得到拓扑标签 为拓扑类型标签的概率向量,最后,由argmax函数选取/>中最大元素所对应的拓扑类型作为拓扑辨识结果。
4.根据权利要求3所述的基于配电网的拓扑实时辨识方法,其特征在于,所述卷积层的具体实现方式为:
(1)对量测矩阵H从左到右按照固定的间隔s平滑移动卷积矩阵Wc并进行重复卷积操作,此处设置固定的间隔s=1;
(2)单次卷积计算生成的卷积向量为:
其中,ra为第a次卷积运算的卷积向量,符号代表矩阵间的哈达玛积,Ha:a+e-1为输入量测矩阵H第a列至第a+e-1列向量构成的子矩阵;
(3)将各卷积向量经过ReLU激活函数的非线性变换操作得到:
ga=ReLU(ra+ba)
其中,ga为第a次卷积运算并经ReLU激活函数生成的特征向量;
(4)将同类型卷积操作生成的特征向量ga按顺序堆叠生成量测特征图G。
5.根据权利要求3所述的基于配电网的拓扑实时辨识方法,其特征在于,所述注意力层的输出向量A表示为:
ui=tanh(Wahi+ba)
其中,Wa和ba为hi的权重参数矩阵和偏置向量,ui为hi经过单层感知机的输出,代表注意力层的键值向量,us代表根据量测信息随机初始化的查询向量,为注意力层的输出,αi为i时刻键值向量ui对应的注意力分数。
6.根据权利要求5所述的基于配电网的拓扑实时辨识方法,其特征在于,所述拓扑标签表示为:
其中,WA和bA分别为该层的权重参数矩阵和偏置向量。
7.一种基于配电网的拓扑实时辨识系统,其特征在于,该系统包括:
数据采集模块,用于根据配电网系统得到整体拓扑结构,并根据得到的配电网拓扑结构从各类型拓扑结构取若干个时间断面生成节点量测数据;
预处理模块,用于对得到的节点量测数据进行预处理;
训练集生成模块,用于将各类型拓扑结构的标签与对应的配电网历史量测数据共同构建初始训练数据集;
模型训练模块,用于将所述初始训练数据输入已调参的配电网拓扑辨识模型中迭代训练,迭代过程中模型逐步缩小预测输出和实际输出的偏差值,直至训练完成,所述配电网拓扑辨识模型首先通过CNN和LSTM网络提取量测序列数据特征,其次,在神经网络结构中引入了自注意力机制增强对于计算单元各时间步特征信息的控制;
测试模块,用于将实时断面量测数据输入训练完毕的模型中智能辨识出对应拓扑结构类型。
8.根据权利要求7所述的基于配电网的拓扑实时辨识系统,其特征在于,所述模型训练模块中,配电网拓扑辨识模型包括:
输入层:将同一时间断面的n个节点的预处理后的节点电压幅值和注入有功功率经数据标准化后的堆叠量测矩阵作为输入;
卷积层:对于输入量测矩阵采用行数和H相同,列数为e的卷积矩阵对其进行卷积操作,分别采用2×1和2×2尺寸的卷积核进行卷积运算,最后分别得到量测特征图G1和G2;
拼接层:将卷积层以两种卷积特征解构方式产生的量测特征图G1和G2进行堆叠,形成拼接特征矩阵Gstack,其为下游网络的序列特征学习提供先决条件;
LSTM层:其用于学习节点量测全局序列间的关联特征,总时间步长为N,各时间步上的输入为特征矩阵Gstack的第i列向量hstack-i,在解析全局序列相关性后输出各时间步的编码向量hi,1≤i≤N;
注意力层:单一时间断面的输入量测综合了多个节点量测信息,根据各时间步的编码向量hi得到注意力层的输出向量A;
输出层:首先,设置全连接层的维度为m,其对应于训练样本中的拓扑类型标签总数,其次,采用Softmax分类器和注意力层的输出向量A得到拓扑标签 为拓扑类型标签的概率向量,最后,由argmax函数选取/>中最大元素所对应的拓扑类型作为拓扑辨识结果。
9.一种计算机设备,其特征在于,包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的基于配电网的拓扑实时辨识方法的步骤。
10.一种存储介质,其特征在于,存储有计算机程序,该程序使计算机执行如权利要求1至6任一项所述的基于配电网的拓扑实时辨识方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311334566.3A CN117421571A (zh) | 2023-10-16 | 2023-10-16 | 一种基于配电网的拓扑实时辨识方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311334566.3A CN117421571A (zh) | 2023-10-16 | 2023-10-16 | 一种基于配电网的拓扑实时辨识方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117421571A true CN117421571A (zh) | 2024-01-19 |
Family
ID=89531754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311334566.3A Pending CN117421571A (zh) | 2023-10-16 | 2023-10-16 | 一种基于配电网的拓扑实时辨识方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117421571A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117972396A (zh) * | 2024-03-26 | 2024-05-03 | 吉林省枫瑞科技有限公司 | 一种基于深度学习的载荷位移曲线故障检测方法 |
-
2023
- 2023-10-16 CN CN202311334566.3A patent/CN117421571A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117972396A (zh) * | 2024-03-26 | 2024-05-03 | 吉林省枫瑞科技有限公司 | 一种基于深度学习的载荷位移曲线故障检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mohammadi et al. | PMU based voltage security assessment of power systems exploiting principal component analysis and decision trees | |
Ma et al. | A new method for transformer fault prediction based on multifeature enhancement and refined long short-term memory | |
CN111210024A (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
CN111860982A (zh) | 一种基于vmd-fcm-gru的风电场短期风电功率预测方法 | |
Yang et al. | Fast economic dispatch in smart grids using deep learning: An active constraint screening approach | |
Gu et al. | Feature selection for transient stability assessment based on kernelized fuzzy rough sets and memetic algorithm | |
Hou et al. | Sparse oblique decision tree for power system security rules extraction and embedding | |
US20210334658A1 (en) | Method for performing clustering on power system operation modes based on sparse autoencoder | |
CN108879732B (zh) | 电力系统暂态稳定评估方法及装置 | |
Zheng et al. | Real-time transient stability assessment based on deep recurrent neural network | |
CN116245033B (zh) | 人工智能驱动的电力系统分析方法及智能软件平台 | |
Cui et al. | Data-driven joint voltage stability assessment considering load uncertainty: A variational bayes inference integrated with multi-CNNs | |
CN117421571A (zh) | 一种基于配电网的拓扑实时辨识方法及系统 | |
Huang et al. | Research on transformer fault diagnosis method based on GWO optimized hybrid kernel extreme learning machine | |
Kumar et al. | Wind speed prediction using deep learning-LSTM and GRU | |
Huang et al. | Resilient power network structure for stable operation of energy systems: A transfer learning approach | |
Chen et al. | Ultra-short-term wind power prediction based on bidirectional gated recurrent unit and transfer learning | |
Zhang et al. | Encoding time series as images: A robust and transferable framework for power system DIM identification combining rules and VGGNet | |
CN113033898A (zh) | 基于k均值聚类与bi-lstm神经网络的电负荷预测方法及系统 | |
Xu et al. | An improved ELM-WOA–based fault diagnosis for electric power | |
Abiyev | Fuzzy wavelet neural network for prediction of electricity consumption | |
CN114565051B (zh) | 基于神经元影响程度的产品分类模型的测试方法 | |
CN113128130B (zh) | 一种判断直流配电系统稳定性的实时监测方法及装置 | |
Zemouri et al. | Towards accurate and reproducible predictions for prognostic: An approach combining a RRBF network and an autoRegressive model | |
Du et al. | A hierarchical power system transient stability assessment method considering sample imbalance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |