CN113408648B - 一种结合深度学习的机组组合计算方法 - Google Patents
一种结合深度学习的机组组合计算方法 Download PDFInfo
- Publication number
- CN113408648B CN113408648B CN202110770017.5A CN202110770017A CN113408648B CN 113408648 B CN113408648 B CN 113408648B CN 202110770017 A CN202110770017 A CN 202110770017A CN 113408648 B CN113408648 B CN 113408648B
- Authority
- CN
- China
- Prior art keywords
- unit
- output
- deep learning
- gate
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 16
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000013136 deep learning model Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 17
- 230000004913 activation Effects 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 12
- 210000004027 cell Anatomy 0.000 claims description 9
- 210000002569 neuron Anatomy 0.000 claims description 9
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 claims description 6
- 238000003064 k means clustering Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 5
- 230000009194 climbing Effects 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 241000764238 Isis Species 0.000 claims description 3
- 239000003245 coal Substances 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 238000012887 quadratic function Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000010977 unit operation Methods 0.000 claims description 3
- 238000010248 power generation Methods 0.000 claims description 2
- 239000007787 solid Substances 0.000 claims 1
- 230000003313 weakening effect Effects 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 3
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种结合深度学习的机组组合计算方法,首先,对大量的历史数据进行预处理;接着构建深度学习模型得出机组启停状态,将机组启停状态输入到优化程序中,得到次日的机组组合计划。所提出的深度学习模型采用LSTM神经网络,通过学习大量的历史数据,模型训练完成后得出映射关系。在实时决策中,调用训练好的深度学习模型,即可直接得到机组启停状态;并将结果代入到机组组合优化程序中,较传统机组组合模型减少了计算量。实验结果表明,根据本发明所公开的机组组合计算方法,能够达到较高的计算精度,且提升了求解速度。
Description
技术领域
本发明属于电力系统调度自动化技术领域,具体涉及一种结合深度学习的机组组合计算方法。
背景技术
机组组合问题是一个高维数、非凸的、离散的、非线性的混合整数优化问题,属于一个NP-hard问题,很难找出理论上的最优解,但由于它能够带来显著的经济效益,人们一直在积极研究,提出各种方法来解决这个问题。关于机组组合问题的求解方法,主要有三种:(1)启发式算法;(2)数学优化法,如动态规划法、内点法、分支定界法等;(3)智能优化算法,如遗传算法、粒子群算法等。这些方法理论性强,逻辑推导严密,但求解过程较为复杂,耗费时间较长。而基于数据驱动的理论方法能够通过深度学习模型,从大量的历史数据中学习映射关系,极大地简化了求解过程。
发明内容
本发明提供了一种结合深度学习的机组组合计算方法,其特征在于,包括以下步骤:
步骤1:对大量的历史数据进行预处理,具体是选取MinMaxScaler方法实现历史数据的归一化,使用K-means聚类算法对历史数据进行划分;
所述MinMaxScaler归一化方法表征为如式(1)所示:
式中,为归一化的值;X为待处理数据,即样本数据;Xmax和Xmin分别为样本数据的最大值和最小值。
所述K-means聚类算法是一种循环迭代的算法,通过以下4步实现:
(1)选择K个初始中心点,作为初始聚类中心a1,a2,…,ak;
(2)计算每个样本xi到K个聚类中心的距离,并将其分到距离最小的类中;
(3)计算K类中所有样本点的均值,作为下一次迭代的聚类中心;
(4)重复步骤(2)、(3),直到聚类中心不再改变或达到迭代次数;
步骤2:构建深度学习模型,输入负荷的预测数据,得到机组启停状态,所述深度学习模型的输入为负荷的预测数据,输出为机组启停状态;
步骤3:将机组启停状态和负荷的预测数据代入到机组组合优化模型中,得到机组出力值;其中,所述机组组合优化模型以火电机组发电成本最小为目标构建目标函数;以系统节点功率平衡约束、火电机组出力上下限约束、火电机组爬坡约束、火电机组开停机时间约束和输电线路潮流约束为约束条件。
优选地,所述深度学习模型包括LSTM神经网络层、Dropout层、全连接层共三个部分,其输入为负荷的预测数据,输出为机组启停状态;
其中,所述LSTM神经网络层是基于RNN改善的结构模型,引入了存储单元和门机制,当前时刻能利用上一时刻句子中的信息;所述LSTM神经网络由4个部分组成:即输入门it、输出门ot、遗忘门ft和记忆单元Ct;
在所述Dropout层中,Dropout是指在深度学习的训练过程中,每次更新参数时随机断开一定比例的神经元,减弱神经元对某些局部特征的依赖性,从而提高模型的泛化能力;
所述全连接层使用了softmax激励函数作为输出层的多层感知;所述全连接指当前层与前一层网络的所有神经元是相互连接的,将提取的高维特征进行降维;该层;位于网络的末端,最后一层的单元数与分类个数相同,并且与softmax激活函数配合使用,以实现对输出特征的分类。
优选地,所述输入门it、输出门ot、遗忘门ft和记忆单元Ct
所述遗忘门ft决定是否保留记忆单元Ct之前的信息,其输出表示为如式(1-1)所示:
ft=σ(Wfhht-1+Wfxxt+bf) (1-1),
式中,ht-1为t-1时刻隐藏层的输出;xt为当前时刻的输入;σ为sigmoid激活函数;Wfh为遗忘门的ht-1的权值;Wfx为遗忘门的xt的权重;bf为遗忘门的偏置参数;
所述输入门it和记忆单元Ct的状态更新如式(1-2)、(1-3)、(1-4)所示:
it=σ(Wihht-1+Wixxt+bi) (1-2),
式中,Wih为输入门的ht-1的权值;Wix为输入门的xt的权重;bi为输入门的偏置参数;为待更新的记忆单元状态;tanh为产生的激活函数;Wch为的ht-1的权值;Wcx为的xt的权重;bc为的偏置参数。Ct和Ct-1为t和t-1时刻的记忆单元状态;
当LSTM神经网络层更新记忆单元Ct后,其输出状态的具体表达式如式(1-5)、(1-6)所示:
ot=σ(Wohht-1+Woxxt+bo) (1-5),
ht=ot·tanh(Ct) (1-6),式中,Woh为输出门的ht-1的权值;Wox为输出门的xt的权重;bo为输出门的偏置参数;ht为当前时刻隐藏层的输出。
更优选地,所述深度学习模型的训练过程包括:
采用Adam算法对所述深度模型进行训练,所述训练过程包括前向传播和反向传播两个阶段;首先,在前向传播中计算输入信号的乘积及其对应的权重,然后,将激活函数作用于这些乘积的总和,得到的输出结果与真实值所形成的误差;接着,在网络的反向传播过程中回传所形成的相关误差,通过计算损失函数对于对各参数的梯度,根据梯度下降法对权值W和偏置b进行更新,如式(2)、(3)所示
式中,为学习率,L(W,b)为损失函数;
选取交叉熵误差作为损失函数,计算公式如式(4)所示:
式中,yi为样本的实际标签,为预测值。
更优选地,在所述深度学习模型的训练过程中,采用Adam算法对参数进行调整,选取均方误差作为损失函数,计算公式如式(5)所示:
式中,yi为数据样本的真实值,为数据样本的预测值。
优选地,步骤3中所述以火电机组发电成本最小为目标所构建目标函数表征为如式(6)所示;
所述系统节点功率平衡约束、火电机组出力上下限约束、火电机组爬坡约束、火电机组开停机时间约束和输电线路潮流约束为约束条件分别表征为如式(7)-(11)所示:
ug,tPg,min≤Pg,t≤ug,tPg,max (8),
其中,Pg,t为火电机组出力,C(Pg,t)表示机组的煤耗成本,C(Pg,t)是一个二次函数,需对其进行分段线性化处理;SUit、SDit为机组的启停成本;ug,t表示机组运行状态。Pd,t为t时段的系统负荷;Pg,max和Pg,min分别为常规机组出力的上、下限;xmn为线路mn的电抗值;Xon,g,t、Xoff,g,t表示机组已经连续开机和停机的时间;Ton,g、Toff,g表示机组开机和停机时间限制;URi和DRi为上下爬坡限制;PLl,t为输电线路的传输功率;为输电线路的最大有功传输容量;θmt为节点m的相角。
附图说明
图1为本发明提供的方法流程图;
图2为LSTM网络结构图;
图3为火电机组启停状态的预测准确率图;
具体实施方式
本发明提供了一种结合深度学习的机组组合计算方法,对大量的历史数据进行预处理,并构建深度学习模型得出机组启停状态,将机组启停状态输入到优化程序中,得到次日的机组组合计划。所提出的深度学习模型采用LSTM神经网络,通过学习大量的历史数据,模型训练完成后得出映射关系。在实时决策中,调用训练好的深度学习模型,即可直接得到机组启停状态;并将结果代入到到机组组合优化程序中,得到机组出力值。结合图1的方法流程图进行介绍,具体包括:
步骤1:对大量的历史数据进行预处理;
步骤2:构建深度学习模型,输入负荷的预测数据,得到机组启停状态;
步骤3:将机组启停状态和负荷的预测数据代入到机组组合优化程序中,得到机组出力值。
其中,步骤1具体包括以下子步骤:
子步骤S11、选取MinMaxScaler方法对历史数据进行归一化处理,如式(1)所示:
式中,为归一化的值;X为待处理数据;Xmax和Xmin分别为样本数据的最大值和最小值;
子步骤S12、使用K-means聚类算法对所述历史数据进行划分,所述K-means聚类算法是一个循环迭代的算法,通过以下4步实现:
(1)选择K个初始中心点,作为初始聚类中心a1,a2,…,ak;
(2)计算每个样本xi到K个聚类中心的距离,并将其分到距离最小的类中;
(3)计算K类中所有样本点的均值,作为下一次迭代的聚类中心;
(4)重复步骤(2)、(3),直到聚类中心不再改变或达到迭代次数。
所述步骤2中,所构建的深度学习模型的输入为负荷的预测数据,输出为机组启停状态;
所述深度学习模型包括LSTM层、Dropout层、全连接层共三部分,具体如下:
①LSTM层。RNN是一种可以获得之前的信息并进行学习的网络模型。在实践中,RNN随着时间的增长会出现梯度消失或梯度爆炸问题。为了这些问题,有学者提出了特殊的循环网络结构,如LSTM网络。
LSTM网络是基于RNN改善的结构模型,LSTM网络引入了存储单元和门机制,当前时刻能利用上一时刻句子中的信息。LSTM网络结构见图2。
LSTM网络的基本结构由4个部分组成:即输入门it、输出门ot、遗忘门ft和记忆单元Ct。遗忘门决定是否保留记忆单元之前的信息,遗忘门的输出为:
ft=σ(Wfhht-1+Wfxxt+bf) (1-1)
式中,ht-1为t-1时刻隐藏层的输出;xt为当前时刻的输入;σ为sigmoid激活函数;Wfh为遗忘门的ht-1的权值;Wfx为遗忘门的xt的权重;bf为遗忘门的偏置参数。
输入门和记忆单元的状态更新如式(1-2)、(1-3)、(1-4)所示:
it=σ(Wihht-1+Wixxt+bi)(1-2),
式中,Wih为输入门的ht-1的权值;Wix为输入门的xt的权重;bi为输入门的偏置参数。为待更新的记忆单元状态;tanh为产生的激活函数;Wch为的ht-1的权值;Wcx为的xt的权重;bc为的偏置参数。Ct和Ct-1为t和t-1时刻的记忆单元状态。式(4)表明,记忆单元的状态由遗忘门控制的历史信息和输入门控制的共同决定。LSTM网络更新记忆单元后,其输出状态的具体表达式如式(1-5)、(1-6)所示:
ot=σ(Wohht-1+Woxxt+bo) (1-5),
ht=ot·tanh(Ct) (1-6),式中,Woh为输出门的ht-1的权值;Wox为输出门的xt的权重;bo为输出门的偏置参数。ht为当前时刻隐藏层的输出。表达式(1-5)说明LSTM网络的输出由输出门控制的记忆单元决定,并由输出门决定其对结果的影响程度。
②Dropout层。在深度学习问题中,过拟合是一个很常见的问题。过拟合是指只能拟合训练数据,对于不在训练集中的数据不能很好地拟合,泛化能力差。对于复杂的网络模型,会使用Dropout方法防止过拟合。Dropout是指在深度学习的训练过程中,每次更新参数时随机断开一定比例的神经元,减弱神经元对某些局部特征的依赖性,从而提高模型的泛化能力。
③全连接层。全连接层使用了softmax激励函数作为输出层的多层感知,其他很多分类器如支持向量机也使用了softmax。“全连接”指的是当前层与前一层网络的所有神经元是相互连接的,将提取的高维特征进行降维。该层一般位于网络的末端,最后一层的单元数与分类个数相同,并且常与softmax激活函数配合使用,以实现对输出特征的分类。
(2)训练算法
本专利采用Adam算法对网络模型进行训练。网络的训练过程包括前向传播和反向传播两个阶段。首先在前向传播中计算输入信号的乘积及其对应的权重,然后将激活函数作用于这些乘积的总和,得到的输出结果与真实值形成误差。在网络的反向传播过程中回传相关误差,通过计算损失函数对于对各参数的梯度,根据梯度下降法对权值W和偏置b进行更新:
式中,为学习率,L(W,b)为损失函数。
选取交叉熵误差作为损失函数,计算公式如下:
式中,yi为样本的实际标签,为预测值;
选取均方误差作为损失函数,计算公式如式(5)所示:
式中,yi为数据样本的真实值,为数据样本的预测值。
步骤3:将机组启停状态和负荷的预测数据代入到到机组组合优化模型中,得到机组出力值;所述机组组合优化模型以火电机组发电成本最小为目标构建目标函数,表征为如式(6)所示:
以系统节点功率平衡约束、火电机组出力上下限约束、火电机组爬坡约束、火电机组开停机时间约束和输电线路潮流约束为约束条件,分别表征为如式(7)-(11)所示:
ug,tPg,min≤Pg,t≤ug,tPg,max (8),
其中,Pg,t为火电机组出力,C(Pg,t)表示机组的煤耗成本,C(Pg,t)是一个二次函数,需对其进行分段线性化处理;SUit、SDit为机组的启停成本;ug,t表示机组运行状态。Pd,t为t时段的系统负荷;Pg,max和Pg,min分别为常规机组出力的上、下限;xmn为线路mn的电抗值;Xon,g,t、Xoff,g,t表示机组已经连续开机和停机的时间;Ton,g、Toff,g表示机组开机和停机时间限制;URi和DRi为上下爬坡限制;PLl,t为输电线路的传输功率;为输电线路的最大有功传输容量;θmt为节点m的相角。
实施例:
为了验证所提模型的合理性,采用IEEE 30系统作为算例,该系统有6台常规机组。本文使用MATLAB2016a上调用YALMIP和Gurobi-8.0.1产生100组数据集,以6:2:2的比例划分为训练集、验证集和测试集,利用python完成数据的预处理。并在基于TensorFlow后端的keras深度学习框架下进行模型的搭建、训练和测试。硬件仿真环境为Intel(R)Core(TM)i7-6700HQ CPU@2.60GHz,运行内存大小为4GB。机组组合优化模型在MATLAB2016a上调用YALMIP和Gurobi-8.0.1实现编程求解
图3为深度学习模型输出结果的准确率,可以看出本专利建立的深度学习模型能够准确地预测火电机组启停状态。
表1为两种方法的性能比较:
方法一:使用深度学习模型得出机组启停状态,将机组启停状态和负荷的预测值代入到机组组合优化模型中,得出机组出力值;
方法二:根据负荷预测值,运行机组组合优化程序,得出机组启停状态和机组出力值。
表1两种方法的性能比较
从表中可以看出,方法一的步骤比方法二多,但决策时间更短。这是因为数据驱动的方法在模型训练完成后,在线决策的时间会非常短,通常不到0.1s。在获得机组启停状态的情况下,较传统的机组组合模型省去了整数变量,这时机组组合优化模型会更容易求解,因此整体的决策时间更短。
与现有技术相比,本发明的有益效果为:在实时决策中,调用训练好的深度学习模型,即可直接得到机组启停状态;并将结果代入到到机组组合优化程序中,较传统机组组合模型减少了计算量。实验结果表明,根据所提出模型得到的机组组合计划,能够达到较高的计算精度,且提升了求解速度。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
以上仅为本发明的实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均包含在申请待批的本发明的权利要求范围之内。
Claims (4)
1.一种结合深度学习的机组组合计算方法,其特征在于,包括
以下步骤:步骤1:对大量的历史数据进行预处理,具体是选
取MinMaxScaler方法实
现历史数据的归一化,使用K-means聚类算法对历史数据
进行划分;所述MinMaxScaler归一化方法表征为如
式(1)所示:
式中,为归一化的值;X为待处理数据,即样本数据;Xmax和Xmin分别为样本数据的最大值和最小值。
所述K-means聚类算法是一种循环迭代的算法,通过以下4步实现:
(1)选择K个初始中心点,作为初始聚类中心a1,a2,...,ak;
(2)计算每个样本xi到K个聚类中心的距离,并将其分到距离最小的类中;
(3)计算K类中所有样本点的均值,作为下一次迭代的聚类中心;
(4)重复步骤(2)、(3),直到聚类中心不再改变或达到迭代次数;
步骤2:构建深度学习模型,输入负荷的预测数据,得到机组启停状态,所述深度学习模型的输入为负荷的预测数据,输出为机组启停状态;
深度学习模型的训练过程包括:
采用Adam算法对所述深度模型进行训练,所述训练过程包括前向传播和反向传播两个阶段;首先,在前向传播中计算输入信号的乘积及其对应的权重,然后,将激活函数作用于这些乘积的总和,得到的输出结果与真实值所形成的误差;接着,在网络的反向传播过程中回传所形成的相关误差,通过计算损失函数对于对各参数的梯度,根据梯度下降法对权值W和偏置b进行更新,如式(2)、(3)所示
式中,为学习率,L(W,b)为损失函数;
选取交叉熵误差作为损失函数,计算公式如式(4)所示:
式中,yi为样本的实际标为预测值;
在所述深度学习模型的训练过程中,采用Adam算法对参数进行调整,选取均方误差作为损失函数,计算公式如式(5)所示:
式中,yi为数据样本的真实值,为数据样本的预测值。
步骤3:将机组启停状态和负荷的预测数据代入到机组组合优化模型中,得到机组出力值;其中,所述机组组合优化模型以火电机组发电成本最小为目标构建目标函数;以系统节点功率平衡约束、
火电机组出力上下限约束、火电机组爬坡约束、火电机组开停机时间约束和输电线路潮流约束为约束条件。
2.如权利要求1所述的一种结合深度学习的机组组合计算方法,
其特征在于,所述深度学习模型包括LSTM神经网络层、Dropout层、全连接层共三个部分,其输入为负荷的预测数据,输出为机组启停状态;
其中,所述LSTM神经网络层是基于RNN改善的结构模型,引入了存储单元和门机制,当前时刻能利用上一时刻句子中的信息;所述LSTM神经网络由4个部分组成:即输入门it、输出门ot、遗忘门ft和记忆单元Ct;
在所述Dropout层中,Dropout是指在深度学习的训练过程中,
每次更新参数时随机断开一定比例的神经元,减弱神经元对某些局部特征的依赖性,从而提高模型的泛化能力;
所述全连接层使用了softmax激励函数作为输出层的多层感知;所述全连接指当前层与前一层网络的所有神经元是相互连接的,将提取的高维特征进行降维;该层;位于网络的末端,最后一层的单元数与分类个数相同,并且与softmax激活函数配合使用,以实现对输出特征的分类。
3.如权利要求2所述的一种结合深度学习的机组组合计算方法,其特征在于,所述输入门it、输出门ot、遗忘门ft和记忆单元Ct
所述遗忘门ft决定是否保留记忆单元Ct之前的信息,其输出表示为如式(1-1)所示:
ft=σ(Wfhht-1+Wfxxt+bf) (1-1),
式中,ht-1为t-1时刻隐藏层的输出;xt为当前时刻的输入;σ为sigmoid激活函数;Wfh为遗忘门的ht-1的权值;Wfx为遗忘门的xt的权重;bf为遗忘门的偏置参数;
所述输入门it和记忆单元Ct的状态更新如式(1-2)、(1-3)、(1-4)所示:
it=σ(Wihht-1+Wixxt+bi) (1-2),
式中,Wih为输入门的ht-1的权值;Wix为输入门的xt的权重;bi为输入门的偏置参数;为待更新的记忆单元状态;tanh为产生的激活函数;Wch为的ht-1的权值;Wcx为的xt的权重;bc为的偏置参数。Ct和Ct-1为t和t-1时刻的记忆单元状态;
当LSTM神经网络层更新记忆单元Ct后,其输出状态的具体表达式如式(1-5)、(1-6)所示:
ot=σ(Wohht-1+Woxxt+bo) (1-5),
ht=ot.tanh(Ct) (1-6),
式中,Woh为输出门的ht-1的权值;Wox为输出门的xt的权重;bo为输出门的偏置参数;ht为当前时刻隐藏层的输出。
4.根据权利要求1所述的一种结合深度学习的机组组合计算方法,其特征在于,步骤3中所述以火电机组发电成本最小为目标所构建目标函数表征为如式(6)所示;
所述系统节点功率平衡约束、火电机组出力上下限约束、火电机组爬坡约束、火电机组开停机时间约束和输电线路潮流约束为约束条件分别表征为如式(7)-
(11)所示:
ug,tPg,min≤Pg,t≤ug,tPg,max (8),
其中,Pg,t为火电机组出力,C(Pg,t)表示机组的煤耗成本,C(Pg,t)是一个二次函数,需对其进行分段线性化处理;SUit、SDit为机组的启停成本;ug,t表示机组运行状态。Pd,t为t时段的系统负荷;Pg,max和Pg,min分别为常规机组出力的上、下限;xmn为线路mn的电抗值;Xon,g,t、Xoff,g,t表示机组已经连续开机和停机的时间;Ton,g、Toff,g表示机组开机和停机时间限制;URi和DRi为上下爬坡限制;PLl,t为输电线路的传输功率;为输电线路的最大有功传输容量;θmt为节点m的相角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110770017.5A CN113408648B (zh) | 2021-07-07 | 2021-07-07 | 一种结合深度学习的机组组合计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110770017.5A CN113408648B (zh) | 2021-07-07 | 2021-07-07 | 一种结合深度学习的机组组合计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408648A CN113408648A (zh) | 2021-09-17 |
CN113408648B true CN113408648B (zh) | 2024-08-23 |
Family
ID=77685463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110770017.5A Active CN113408648B (zh) | 2021-07-07 | 2021-07-07 | 一种结合深度学习的机组组合计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408648B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935600A (zh) * | 2021-09-29 | 2022-01-14 | 国网宁夏电力有限公司 | 一种基于深度学习的自适应经济调度系统及方法 |
CN114129175A (zh) * | 2021-11-19 | 2022-03-04 | 江苏科技大学 | 基于lstm和bp的运动想象脑电信号的分类方法 |
CN114362258B (zh) * | 2022-03-21 | 2022-05-31 | 山东大学 | 机组组合及调度分布式事件触发强化学习优化方法及系统 |
CN114926009B (zh) * | 2022-05-16 | 2024-07-02 | 广西大学 | 基于改进Transformer神经网络的机组组合两阶段快速求解方法 |
CN114841282A (zh) * | 2022-05-20 | 2022-08-02 | 北京百度网讯科技有限公司 | 预训练模型的训练方法、求解模型的生成方法及装置 |
CN116454890B (zh) * | 2023-04-20 | 2024-02-06 | 中国南方电网有限责任公司 | 基于scuc模型的机组组合控制方法、装置和设备 |
CN117908456B (zh) * | 2024-03-20 | 2024-06-14 | 国能大渡河检修安装有限公司 | 基于深度学习的水电站启闭机监控方法及系统 |
CN118246351B (zh) * | 2024-05-28 | 2024-08-16 | 长春工业大学 | 一种考虑机组置信度的深度学习机组组合问题求解方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109167383A (zh) * | 2018-08-17 | 2019-01-08 | 国网福建省电力有限公司 | 基于精确线性化电力网络模型的电力系统调峰优化方法 |
CN111753893A (zh) * | 2020-06-12 | 2020-10-09 | 国网福建省电力有限公司 | 一种基于聚类和深度学习的风电机组功率集群预测方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361416B (zh) * | 2014-11-27 | 2018-09-21 | 国家电网公司 | 一种考虑大规模电动汽车接入的电网双层优化调度方法 |
CN107730044A (zh) * | 2017-10-20 | 2018-02-23 | 燕山大学 | 一种可再生能源发电和负荷的混合预测方法 |
JP2019204268A (ja) * | 2018-05-23 | 2019-11-28 | 株式会社日立製作所 | ニューラルネットワークを用いた情報処理方法、システムおよびその構築システム |
JP7370710B2 (ja) * | 2018-08-28 | 2023-10-30 | 日鉄エンジニアリング株式会社 | 電力需要予測システム、電力需要予測モデルの構築方法、プログラム、及び営業支援システム |
CN109214566B (zh) * | 2018-08-30 | 2021-02-26 | 华北水利水电大学 | 基于长短期记忆网络的风电功率短期预测方法 |
CN110674459B (zh) * | 2019-09-16 | 2023-03-10 | 三峡大学 | 基于GRU和Seq2Seq技术的数据驱动型机组组合智能决策方法 |
-
2021
- 2021-07-07 CN CN202110770017.5A patent/CN113408648B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109167383A (zh) * | 2018-08-17 | 2019-01-08 | 国网福建省电力有限公司 | 基于精确线性化电力网络模型的电力系统调峰优化方法 |
CN111753893A (zh) * | 2020-06-12 | 2020-10-09 | 国网福建省电力有限公司 | 一种基于聚类和深度学习的风电机组功率集群预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113408648A (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113408648B (zh) | 一种结合深度学习的机组组合计算方法 | |
CN109102126B (zh) | 一种基于深度迁移学习的理论线损率预测模型 | |
CN102521656B (zh) | 非平衡样本分类的集成迁移学习方法 | |
CN109918708B (zh) | 一种基于异质集成学习的材料性能预测模型构建方法 | |
Pai | System reliability forecasting by support vector machines with genetic algorithms | |
CN113420508B (zh) | 一种基于lstm的机组组合计算方法 | |
CN111047085B (zh) | 一种基于元学习的混合动力车辆工况预测方法 | |
Nellikkath et al. | Physics-informed neural networks for minimising worst-case violations in dc optimal power flow | |
Bai et al. | Deep neural network for manufacturing quality prediction | |
CN106650920A (zh) | 一种基于优化极限学习机的预测模型 | |
CN109445935A (zh) | 云计算环境下一种高性能大数据分析系统自适应配置方法 | |
CN104156560A (zh) | 一种基于SaE-ELM的煤矿多等级突水预测方法 | |
CN112947300A (zh) | 一种加工质量虚拟量测方法、系统、介质及设备 | |
CN109255726A (zh) | 一种混合智能技术的超短期风功率预测方法 | |
Jia et al. | Deriving operating rules of hydropower reservoirs using Gaussian process regression | |
CN114511063A (zh) | 电力数据预测模型构建方法、装置、设备、介质及程序 | |
Niu et al. | Short term load forecasting model using support vector machine based on artificial neural network | |
Dong et al. | Reinforcement Learning-Based Wind Farm Control: Toward Large Farm Applications via Automatic Grouping and Transfer Learning | |
CN107527093B (zh) | 一种风电机组运行状态诊断方法及装置 | |
Zivkovic et al. | Optimized recurrent neural networks with attention for wind farm energy generation forecasting | |
CN115528750B (zh) | 一种面向电网安全稳定的数据模型混合驱动机组组合方法 | |
Liu et al. | Prediction of share price trend using FCM neural network classifier | |
Liu et al. | Network traffic big data prediction model based on combinatorial learning | |
Lemos et al. | Evolving fuzzy linear regression trees with feature selection | |
Li et al. | The research on electric load forecasting based on nonlinear gray bernoulli model optimized by cosine operator and particle swarm optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |