CN115270921B - 基于组合预测模型的电力负载预测方法、系统及存储介质 - Google Patents
基于组合预测模型的电力负载预测方法、系统及存储介质 Download PDFInfo
- Publication number
- CN115270921B CN115270921B CN202210709270.4A CN202210709270A CN115270921B CN 115270921 B CN115270921 B CN 115270921B CN 202210709270 A CN202210709270 A CN 202210709270A CN 115270921 B CN115270921 B CN 115270921B
- Authority
- CN
- China
- Prior art keywords
- model
- load
- data
- module
- load prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 239000011159 matrix material Substances 0.000 claims abstract description 11
- 230000015654 memory Effects 0.000 claims description 100
- 238000004364 calculation method Methods 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 25
- 238000003066 decision tree Methods 0.000 claims description 11
- 230000003993 interaction Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 description 18
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 7
- 238000007621 cluster analysis Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 241000288105 Grus Species 0.000 description 2
- 101001095088 Homo sapiens Melanoma antigen preferentially expressed in tumors Proteins 0.000 description 2
- 102100037020 Melanoma antigen preferentially expressed in tumors Human genes 0.000 description 2
- 102220564795 Protein Lines homolog 1_K20M_mutation Human genes 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013506 data mapping Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J3/00—Circuit arrangements for ac mains or ac distribution networks
- H02J3/003—Load forecast, e.g. methods or systems for forecasting future load demand
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Power Engineering (AREA)
- Public Health (AREA)
- Water Supply & Treatment (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开一种基于组合预测模型的电力负载预测方法、系统及存储介质,基于GRU网络和LightGBM模型,构建用于电力负载预测的组合预测模型;基于第一时间区间,采集组合预测模型的预测值误差与真实值误差,通过获取负荷采样总数,生成组合预测模型的偏移矩阵,并获取GRU网络的第一权重系数和LightGBM模型的第二权重系数;通过采集电力负荷数据,根据GRU网络获取第一负荷预测结果,以及根据LightGBM模型获取第二负荷预测结果;基于第一负荷预测结果和第一权重系数、第二负荷预测结果和第二权重系数,生成电力负荷数据的负荷预测结果。通过GPU的加速计算为电力负载预测提供高性能的预测计算方案。
Description
技术领域
本申请涉及电力负载预测技术领域,尤其涉及一种基于组合预测模型的电力负载预测方法、系统及存储介质。
背景技术
传统的电力负载预测采用的XGboost采用的是level-wise的增长策略,该策略遍历一次数据可以同时分裂同一层的叶子,容易进行多线程优化与后面的OpenCL技术想相结合,也好控制模型的复杂度,不容易过拟合。但实际上level-wise是一种低效的算法,因为它不加区分的对待同一层的叶子,实际上很多叶子的分裂增益较低,没必要进行搜索和分裂,带来了很多没必要的计算开销。因此,急需一种基于组合预测模型的电力负载预测方法及系统,用于解决现有技术效率低的问题。
发明内容
为了解决现有的技术问题,本申请提供了一种基于组合预测模型的电力负载预测方法,包括以下步骤:
基于GRU网络和LightGBM模型,构建用于电力负载预测的组合预测模型;
基于第一时间区间,采集GRU网络和LightGBM模型的预测值误差与真实值误差,通过获取负荷采样总数,生成组合预测模型的偏移矩阵;
基于偏移矩阵,通过拉格朗日乘子法,分别获取GRU网络的第一权重系数和LightGBM模型的第二权重系数,其中,第一权重系数和第二权重系数的和为1;
基于第二时间区间,通过采集电力负荷数据,根据GRU网络获取第一负荷预测结果,以及根据LightGBM模型获取第二负荷预测结果,其中,第二时间区间小于等于第一时间区间,或第二时间区间大于第一时间区间;
基于第一负荷预测结果和第一权重系数、第二负荷预测结果和第二权重系数,生成电力负荷数据的负荷预测结果。
优选地,在进行电力负载预测过程中,将GRU网络设置于CPU模块,将LightGBM模型设置于GPU模块;
基于PostgersSQL,建立CPU模块与GPU模块的数据交互关系,将哈希排序后的电力负荷数据通过CPU模块的线程传输到GPU模块,生成具有映射关系的第一负荷预测结果和第二负荷预测结果。
优选地,在建立CPU模块与GPU模块的数据交互关系的过程中,将PostgersSQL中的Pycopg2模块与Python相连接,构建数据交互关系。
优选地,在生成第二负荷预测结果的过程中,基于GPU模块,通过LightGBM模型,生成决策树;
基于决策树的叶子节点的分裂方式,通过计算得到直方图,根据直方图并行前缀和操作,找到分裂增益最大的叶子节点进行分裂,并进行循环迭代。
优选地,在将GRU网络设置于CPU模块的过程中,基于OpenCL模块分配CPU模块的计算任务,建立基于OpenCL模块和GPU模块的并行运算空间。
优选地,在建立并行运算空间的过程中,OpenCL模块包括全局内存、局部内存和私有内存;
基于电力负荷数据的访问频次,将全局内存的数据分配到局部内存和/或私有内存中,其中,当访问频次为低频次时,将全局内存的数据分配到局部内存中,当访问频次为高频次时,将全局内存的数据分配到私有内存中。
优选地,在建立并行运算空间的过程中,通过隐藏GPU模块的指令延迟,用于保证并行运算空间的并发性。
本申请还公开了一种基于组合预测模型的电力负载预测系统,包括:
数据采集模块,用于采集电力负荷数据;
电力负载预测模块,用于通过建立基于GRU网络和LightGBM模型的组合预测模型;基于第一时间区间,采集GRU网络和LightGBM模型的预测值误差与真实值误差,通过获取负荷采样总数,生成组合预测模型的偏移矩阵,通过拉格朗日乘子法,分别获取GRU网络的第一权重系数和LightGBM模型的第二权重系数,并基于第二时间区间,通过采集电力负荷数据,根据GRU网络获取第一负荷预测结果,以及根据LightGBM模型获取第二负荷预测结果;
预测结果生成模块,用于基于第一负荷预测结果和第一权重系数、第二负荷预测结果和第二权重系数,生成电力负荷数据的负荷预测结果。
可选地,所述系统包括存储器和分别与所述存储器连接的CPU与GPU,所述存储器包括全局内存、局部内存和私有内存。
另一方面,本申请还提供一种存储介质,具体地,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述的基于组合预测模型的电力负载预测方法的步骤。
本申请公开了以下技术效果:
与现有技术相比,本申请通过通过GPU的加速计算提升了算法的算力,提升了运算速度和运算精度,为电力负载预测提供了高性能计算的技术思路。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例的GRU模型的输入输出结构图。
图2为本申请一实施例的GRU与LightGBM组合预测流程图。
图3为本申请一实施例的异构计算框架示意图。
图4为本申请一实施例的OpenCL加速原理图。
图5为本申请一实施例的LightGBM模型的OpenCL并行模式框架图。
图6为本申请一实施例的单一模型和组合模型的预测曲线对比图。
图7为本申请一实施例的电力负载预测方法流程图。
具体实施方式
下为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
第一实施例
本申请公开了一种基于组合预测模型的电力负载预测系统,包括:
数据采集模块,用于采集电力负荷数据;
电力负载预测模块,用于通过建立基于GRU网络和LightGBM模型的组合预测模型;基于第一时间区间,采集GRU网络和LightGBM模型的预测值误差与真实值误差,通过获取负荷采样总数,生成组合预测模型的偏移矩阵,通过拉格朗日乘子法,分别获取GRU网络的第一权重系数和LightGBM模型的第二权重系数,并基于第二时间区间,通过采集电力负荷数据,根据GRU网络获取第一负荷预测结果,以及根据LightGBM模型获取第二负荷预测结果;
预测结果生成模块,用于基于第一负荷预测结果和第一权重系数、第二负荷预测结果和第二权重系数,生成电力负荷数据的负荷预测结果。
可选地,本申请提供的一种基于组合预测模型的电力负载预测方法及系统,包括以下过程:
一、数据处理:
可选地,在数据库方面舍弃了市面现在功能强大的Oracle数据库管理系统,采用PostgersSQL,它是一种小众数据库,PostgersSQL比Oracle更方便操作,在处理单条数据上的功能也相对于Oracle数据库强大,这里假设电能表采集数据来自测量点数据表A和日冻结电能表B,表A中的每条记录最多对应表B中的2条记录,然后对其数据按照用户ID大小进行排序,记录两个表的ID相同完成A表和B表的映射关系,在一般的电力负载预测的负荷数据,大多数人会选择先对数据库内的数据采用二分法对其进行排序,这里使用哈希排序,二分法对于数据集较大时,是需要很长的时间才能处理数据,而使用哈希排序只需要消耗空间,在时间上优于二分法排序。
二、组合模型
2.1、GRU模型:
图1为本申请一实施例的GRU模型的输入输出结构图。
可选地,请参考图1,GRU是循环神经网络的一种,是为了解决长期记忆和反向传播中的梯度等问题提出来的,GRU模型有一个当前的输入xt,和上一个节点传递下来的隐状态(hiddenstate)ht-1,这个隐状态包含了之前节点的相关信息。结合xt和ht-1,GRU会得到当前隐藏节点的输出yt和传递给下一个节点的隐状态ht。
先通过上一个传输下来的状态ht-1和当前节点的输入xt来获取两个门控状态。
得到门控信号之后,首先使用重置门控来得到“重置”之后的数据ht-1‘=ht-1⊙r,再将ht-1‘与输入xt进行拼接,再通过一个tanh激活函数来将数据放缩到-1~1的范围内,可以得到一个激活结果h’。
与LSTM相比,GRU内部少了一个“门控”,参数比LSTM少,但是却也能够达到与LSTM相当的功能。其中:
(1-Z)⊙ht-1:表示对原本隐藏状态的选择性“遗忘”。这里的(1-Z)可以想象成遗忘门(forgetgate),忘记ht-1维度中一些不重要的信息。
Z⊙h′:表示对包含当前节点信息的h′进行选择性“记忆”。与上面类似,这里的1-Z同理会忘记h′维度中的一些不重要的信息。或者,这里我们更应当看做是对h′维度中的某些信息进行选择。
ht=(1-Z)⊙ht-1+Z⊙h′:结合上述,这一步的操作就是忘记传递下来的ht-1中的某些维度信息,并加入当前节点输入的某些维度信息。
GRU使用同一个门控Z就同时可以进行遗忘和选择记忆,可以节约硬件的计算能力和时间成本。
基于GRU网络的负载预测模型改造:
对于GRU网络预测模型首先需要确定其输入和输出序列。不同于传统的神经双网络需要将t-1到t-n各个滞后时刻数据作为多个特征输入,GRU网络因其独特的记忆结构可以直接将整个时间序列作为单个特征,大大减小了网络结构,提高了节点参数的计算效率。本文的输入数据x主要由以下特征组成:历史负荷、温度份当月的第几日当日的第几小时、是否为周末(周六日)以及是否为法定节假日,分别用和表示。由于待预测日的负荷数据与前一周负荷具有很大的相关性,故选取前一周每小时(共168h)的特征数据作为输入,输出则为待预测日24h的负荷值。示例性地,获取待预测24个时刻的负荷预测结果,获取的方式为根据GRU网络的输入一周每小时的特征数据,最后输出24个时刻的负荷预测结果。
输入和输出数据确定后,需对其进行归一化处理,这样不仅能够消除特征之间量纲不同的影响,还可以使模型快速收敛。将各个特征序列归一化在[0,1]范围内,周末及法定节假日特征均以哑变量来表示,其中0表示非,1表示是。归一化公式为:
其中式中:xt和分别为归一化前后的值;xmax和xmin分别为原数据24个时刻数据中的最小值和最大值。模型网络的前一个隐藏层的输出作为后一个隐藏层的输入,实现对输入的深度提取,最后输出归一化,得到24个时刻的负荷预测值。示例性地,归一化预测值包括温度数据,日期数据,节假日信息等等。
2.2、LightGBM模型:
可选地,LightGBM模型是为了避免XGboost的缺陷在能够在不损害准确率的条件下加快GBDT模型的训练速度,LightGBM在传统的GBDT算法上进行了优化,是一种改进的梯度提升决策树框架,它的基本思想是通过M棵弱回归树线性组合为强回归树。
式中:F(x)为最终的输出值;fm(x)为第m棵弱回归树的输出值。
LightGBM模型改进主要在两个方面一个是直方图算法,把连续的浮点特征值离散化成K个整数,同时构造一个宽度为K的直方图。在遍历数据的时候,根据离散化后的值作为索引在直方图中累计统计量,当遍历一次数据后,直方图累积了需要的统计量,然后根据直方图的离散值,遍历寻找最优的分割点。特征离散化具有存储方便、运算更快、鲁棒性强、模型更加稳定等。
另一个方面是带深度限制的leaf-wise算法,LightGBM放弃了大多数GBDT工具使用的按层生长(level-wise)的决策树生长策略,而使用带有深度限制的按叶子生长(leaf-wise)算法。传统的电力负载预测采用的XGboost采用的是level-wise的增长策略,该策略遍历一次数据可以同时分裂同一层的叶子,容易进行多线程优化与后面的Open CL技术想相结合,也好控制模型的复杂度,不容易过拟合。但实际上level-wise是一种低效的算法,因为它不加区分的对待同一层的叶子,实际上很多叶子的分裂增益较低,没必要进行搜索和分裂,因此带来了很多没必要的计算开销。LightGBM采用leaf-wise的增长策略,该策略每次从当前所有叶子中,找到分裂增益最大的一个叶子,然后分裂,如此循环。因此通level-wise相比,leaf-wise的优点是可能在分裂次数相同的情况下,leaf-wise可以降低更多的误差,得到更好的精度。
基于LightGBM模型的负荷预测模型构造:
与LightGBM模型的输入输出结构与GRU网络有所不同,它无法一次性得到预测24h的负荷值,因此需要利用训练好的模型对每一个时刻分别进行预测。选取待预测的气温预报值,对应的月份、当月几日几小时、是否为周末、是否为法定节假日以及前一天对应时刻的负荷值等作为该模型的输入,输出为待预测时刻的负荷值。示例性地,计算过程是将输入数据x主要由以下特征组成:历史负荷、温度份当月的特定日的特定小时、是否为周末(周六日)以及是否为法定节假日。由2.2.1下面的数据表示,将输入数据放入训练好的LightGBM模型中,最后得到输出数据。
由于LightGBM模型是基于概率的决策树模型,无须对输入特征做归一化操作,只要对其适当编码即可。
输入数据:
2.3、组合预测模型:
图2为本申请一实施例的GRU与LightGBM组合预测流程图。
可选地,请参考图2,在分别采用GRU网络和LightGBM模型得出负荷预测的结果之后,需要确定权重系数来将两者进行线性组合,采用的方法是最优加权组合的线性组合方法。
求出偏移矩阵E,即:
式中:N为负荷采样总数;e1te2t分别为GRU网络和LightGBM模型在t时刻的预测值与真实值的误差。
通过拉格朗日乘子法可以求出最优权值,如下式所示:
式中:ω1ω2分别为GRU网络和LightGBM模型的权重系数,系数之和为1;[1,1]T。其中R为元素全为1的m维行向量。可选地,R保证非负最优加权系数可使得线性组合模型有效地提高预测精度。
综上,可以得出最终的负荷预测结果如下:
式中:为组合模型在t时刻的负荷预测结果;和分别为GRU网络和LightGBM模型在t时刻的负荷预测结果。示例性地,y1t的意思是第一个预测模型在t时刻的预测值。y2t的意思是第二个预测模型在t时刻的预测值。
组合预测流程:
可选地,请继续参考图2,首先对原始数据进行预处理并划分训练集,验证集和测试集。其中,训练集用于训练每个模型的连接值等普通参数。根据验证集的评估效果,可以对迭代次数等超参数进行调优。测试集则用于实际的负荷预测试验。在经过模型训练与参数调优后,对待测试集中的待预测日进行独立预测,最后通过最优加权法得出组合预测的结果。
2.4、聚类分析:
可选地,考虑到各地电力负荷的多样性,这里采用均值漂移算法,相比较于K-Means聚类算法进行的聚类分析而言,不需要知道有多少类或者组,在密度算法相比于K-Means受均值影响也许比较小,可以很好的减少分析时间。首先通过均值漂移算法进行聚类分析,然后采用组合模型对区域内多个台区的日负荷情况进行统一建模预测。
表1为台区特征作为聚类分析输入数据。通过因子分析法,将多个类聚数量,在未被分类的聚类数据点中随机选择一个点作为中心点,找出离中心点距离在带宽之内的所有点记作集合M,认为这些点属于簇C。计算从中心点开始到集合M中每个元素的向量,将向量相加,得到偏移向量。中心点会发生移动,移动距离是偏移向量的模,重复上述步骤,直到偏移向量的大小满足设定值,中心点更换为此点,将其所有点归类,根据每个类,对每个点的访问频率,取访问频率最大的类作为当前点集的所属类。
示例性地,首先设置需要的因子个数,因子得分和综合得分,用KMO值判断标准是否大于0.6和Bartleft检验对应P值是否小于0.05,提取出因子个数将其按照表2-1分成8类,因此因子个数设为8,然后根据指标旋转前每个因子的贡献程度,值越大,则因子的贡献就越大,最后根据因子得分,得分越高的的因子,就是效果最好的聚类数量。
表1
序号 | 台区信息字段 | 说明 |
1 | EDRL | 额定容量 |
2 | YXRL | 运行容量 |
3 | PJGLYS | 平均功率因数 |
4 | GDL | 供电量 |
5 | SDL | 售电量 |
6 | DLBPHL | 电流不平衡率 |
7 | DYBPHL | 电压不平衡率 |
8 | XSL | 线损率 |
表2为所选的输入特征值针对聚类结果,对于每一类别台区进行模型训练,选取历史负荷数据,天气信息,时间规则3个方面特征作为输入数据,从而预测未来一天的日负荷数据。历史负荷数据除了前一天和前一周的负荷数据,还对过去一周的负荷和负载率做均值处理,使得输入数据更加平滑。天气信息包括每个台区每日的平均温度和平均湿度。时间规则信息包括了预测目标对应的星期、日期、月度、季节以及是否属于节假日。为了防止各个连续数据间互相影响,对于时间规则的特征采用独热编码的离散处理形式。
表2
三、GPU加速负荷预测:
3.1、数据集预处理:
可选地,为了解决大规模数据的并行计算,本设计使用OpenCL多线程技术完成多个并行计算任务,全称OpenComputingLanguage,开放运算语言,是第一个面向异构系统通用目的并行编程的开放式、免费标准,也是一个统一的编程环境,便于软件开发人员为高性能计算服务器、桌面计算系统、手持设备编写高效轻便的代码,而且广泛适用于多核心处理器(CPU)、图形处理器(GPU)、Cell类型架构以及数字信号处理器(DSP)等其他并行处理器,在游戏、娱乐、科研、医疗等各种领域都有广阔的发展前景。OpenMP是用来处理CPU中的并行,OpenCL是用来处理异构系统中的GPU并行,此设计需要异构计算框架完成CPU与GPU之间的任务分配,而且相对实际来说,OpenCL不光是NVGPU/XeonPhi可以用,Intel的核芯显卡甚至Altera的FPGA都能用,在现在的高性能计算中,也是可以跨平台的技术。
因为电信息采集的数据量过大,所以将电信息统计计算的工作从CPU设备放到GPU设备中去,将PostgersSQL中的Pycopg2模块与Python相连接,CPU擅长处理复杂逻辑运算任务,GPU擅长处理计算密集型的任务,将其哈希排序后的数据根据流通过CPU线程放入GPU计算网格中,CPU一个线程控制GPU的一个网格计算,实现计算的独立和并行,得到A表和B表的数据映射关系,完成后将不同网格中的计算结果进行汇总,回传到CPU中,通过Pycopg2模块返回到PostgersSQL中,得到数据集。
3.2、组合模型加速:
GRU本质上是线性代数运算,用CPU或者GPU都可以。可选地,组合模型中的GRU采取CPU进行训练,而LightGBM可以在GPU上实现决策树的生成,从而加速训练过程。针对叶子节点的分裂方式,GPU先并行计算得到直方图,然后根据直方图并行前缀和操作来找到分裂增益最大的叶子,然后分裂,如此循环迭代,而GPU有浮点计算速度和内存带宽方面的优点,可以提高效率。
3.3、异构计算框架方案:
图3为本申请一实施例的异构计算框架示意图。
可选地,请参考图3,复杂逻辑运算和流程控制任务在CPU上完成,密集型的数值计算任务在GPU上并行完成,减少CPU和GPU之间的数据流动开销。因此,CPU负责数据集预处理,负荷数据清洗,台区聚类分析,特征分析,训练GRU模型等环节。示例性地,CPU负责数据集预处理,也可以负责电信息的统计计算。通过OpenCL分配计算任务,GPU负责完成电信息统计的并行计算和LightGBM模型的训练等环节。
3.4、OpenCL加速计算过程:
图4为本申请一实施例的OpenCL加速原理图。
可选地,请参考图4,在OpenCL计算模型中,主机端程序在CPU上运行,整个计算由CPU控制,用于解决初始化、内存分配,Kernel也是在主机端上定义,由主机端发出命令队列,把Kernel提交在一个OpenCL设备上执行,以较低开销来高效管理复杂的并发程序,CPU的计算主要体现在CPU-GPU数据传送、Kernel的调用。主机端程序执行步骤严格按照OpenCL执行流程进行。OpenCL在编程时,CPU被视为主机,GPU被认为是能够并行执行多个线程的设备。在主机端NDRange,work-group和work-item都被定义为逻辑上的3维。启动NDRange后Kernel会在GPU上运行。在GPU上创立大量逻辑上三维物理上的一维的work-item,每个work-item可以独立的并发执行。电信息的统计计算处理和LightGBM模型在GPU-OpenCL并行实现基于网格节点与work-item之间的对应关系,在该方法中并行任务由每个网格节点由一个work-iten计算。
图5为本申请一实施例的LightGBM模型的OpenCL并行模式框架图。
可选地,在具体计算任务执行过程中,主机端先创建内核对象并初始化内核参数,然后将内核通过命令队列发送到计算设备端执行,内核执行完成后生成的结果数据依然保存在计算设备端,在OpenCL计算设备执行完网络的最后一层的内核后,主机需要将结果数据从设备内存读取到主机内存,这一步依然要使用命令队列调用OpenCLAPI函数执行。这里需要注意的一点是,虽然在模型运行的过程中,每一层前向传播内核执行完之后都需要在主机端重新创建新的内核,再将内核发送到设备上执行,但是内核的输入数据一直都是在设备内存中。OpenCL程序设计应该尽量减少主机与计算设备之间的数据通信。在结束程序前,主机需释放之前创建的一系列OpenCL对象。
3.5、OpenCL内存模型设计:
可选地,由OpenCL的内存模型可知,OpenCL设备内存分为全局内存、局部内存和私有内存,三种内存的容量和访存速度是负相关的,全局内存容量最大,但访存最慢,访存延时是私有内存的数百倍。OpenCL设备的优势之一在于拥有可管理的局部内存和私有内存。局部内存和私有内存在概念上类似于CPU的各级缓存,这就给了程序设计者极大的发挥空间,合理地使用OpenCL局部内存和私有内存可以带来极大的性能提升。内存设计如下:
(1)对全局内存的访问是否高效。在同一线程束的工作项能否进行合并访存,从而充分利用全局内存的带宽。由于全局内存的访问延迟较高,OpenCL内核工作项在执行工程中,除了输入数据的读取和计算结果的写入,减少对全局内存的访问。
(2)局部内存和私有内存的利用是否高效。局部内存和私有内存的容量远小于全局内存,但它们的访存速度远快于全局内存。由于局部内存对同一工作组内的所有工作项可见,对于同一工作组内的所有工作项都需要使用的全局内存数据,将这些数据先拷贝至局部内存,再由各工作项取用,从而减少对全局内存的访问。对于工作项需要高频次访问的数据,将这些数据拷贝至每个工作项的私有内存中,相较于局部内存,私有内存有更低的访存延迟。
(3)指令延迟能否充分隐藏。指令可以分为算术指令和内存指令,在指令发出和完成之间的时钟周期被定义为指令延迟。GPU是为处理大量并发和轻量级线程以最大化吞吐量设计的,当每个时钟周期中的所有的线程调度器都有一个符合条件的线程束时,通过其他常驻线程束中发布其他指令,可以隐藏GPU的每个指令的延迟,从而达到计算资源的完全利用。计算资源的利用率与常驻并发线程束的数量直接相关,因此,通过内核的合理设计从而保证足够的并发性,达到计算资源的充分利用,从而提高计算性能。
四、模型验证:
可选地,硬件环境采用CPU+GPU异构高性能能集群上进行的,该集群配置了TeslaK20M GPU和Tesla M2090 GPU两种类型的GPU设备,表3为硬件设备参数图。
表3
平台 | NVIDIA Tesla K20M | NVIDIA Tesla M2090 |
处理器核数 | 2486 | 448 |
内存总线类型 | DDR5 | GDDR5 |
设备内存大小 | 5GB | 6GB |
双精度峰值 | 1.17Tflops | 515Gflops |
最大工作频率 | 825MHZ | 1.15GHZ |
内存带宽 | 208GB/s | 177GB/s |
OpenCL版本 | OpenCL1.1 | OpenCL1.1 |
超参数的设置对于GRU网络和LightGBM模型的收敛速度及预测效果有重要影响,可选地,采用网格搜索法得出2种模型的最优超参数,其中,GRU网络的层数为2层,神经元个数为100,学习率0.01,迭代次数为100。LightGBM模型的弱回归树数量为200,叶子数为55,学习率为0.07,L1和L2正则化参数分别为0.1和0.9,迭代次数为3000次。
不同模型的预测结果对比中,数据集采用的是开源数据集,2012年全球能源预测竞赛数据公开数据集,分别采用不同模型和组合模型对一天的数据进行短期负荷预测。
可选地,选取平均绝对百分比误差EMAPE和平均方根误差ERMSE作为实验的评价指标,分别用以下两个式子表示:
式中:yt为t时刻负荷的真实值。
表4为CPU+GPU计算时间与数据库计算性能分析。如下表4所示,存储过程中串行计算方案的性能与异构结构下进行对比,两种方案总耗时分别为70.63s和652.8s,虽然CPU+GPU异构方案牺牲了一定的时间进行数据交互和预处理,但是GPU却可以加速用电信息的计算。日负荷量计算在数据库方案中需要456.12s,而在异构结构中只需要2.3s,效率提高了两个数量级,总体加速比提高到了18.52倍。
表4
通过表5可以看出组合模型和单一模型相对比的评价结果,组合模型的误差得到了显著的降低。
表5
模型名称 | <![CDATA[E<sub>MAPE</sub>/%]]> | <![CDATA[E<sub>RMSE</sub>/KW]]> |
LightGBM | 2.15 | 5273.31 |
GRU | 2.06 | 5332.28 |
组合模型 | 1.62 | 4232.12 |
图6为本申请一实施例的单一模型和组合模型的预测曲线对比图。
请参考图6,在负荷的峰谷点附近,由于负荷变化的不确定性会大大增加,则单一模型的误差均较大,组合模型的预测则可以有效的降低这些极端时刻的误差。综合来说组合模型的误差变化更加平稳,可以一直保持在较低水平,更好的拟合出负荷变化的趋势。
第二实施例
图7为本申请一实施例的电力负载预测方法流程图。
请参考图7,本申请还提供了一种基于组合预测模型的电力负载预测方法,包括以下步骤:
S10:基于GRU网络和LightGBM模型,构建用于电力负载预测的组合预测模型。
S20:基于第一时间区间,采集GRU网络和LightGBM模型的预测值误差与真实值误差,通过获取负荷采样总数,生成组合预测模型的偏移矩阵。
S30:基于偏移矩阵,通过拉格朗日乘子法,分别获取GRU网络的第一权重系数和LightGBM模型的第二权重系数,其中,第一权重系数和第二权重系数的和为1。
S40:基于第二时间区间,通过采集电力负荷数据,根据GRU网络获取第一负荷预测结果,以及根据LightGBM模型获取第二负荷预测结果,其中,第二时间区间小于等于第一时间区间,或第二时间区间大于第一时间区间。
S50:基于第一负荷预测结果和第一权重系数、第二负荷预测结果和第二权重系数,生成电力负荷数据的负荷预测结果。
示例性地,分别采用GRU网络和LightGBM模型得出负荷预测的结果之后,可以确定权重系数来将两者进行线性组合,采用的方法可以是最优加权组合的线性组合方法。可选地,对原始数据进行预处理并划分训练集,验证集和测试集。其中,训练集用于训练每个模型的连接值等普通参数。根据验证集的评估效果,可以对迭代次数等超参数进行调优。测试集则用于实际的负荷预测试验。在经过模型训练与参数调优后,对待测试集中的待预测日进行独立预测,最后通过最优加权法得出组合预测的结果。
示例性地,请参考图3,复杂逻辑运算和流程控制任务在CPU上完成,密集型的数值计算任务在GPU上并行完成,减少CPU和GPU之间的数据流动开销,以构建GPU加速的高性能计算的组合预测模型。因此,CPU负责数据集预处理,负荷数据清洗,台区聚类分析,特征分析,训练GRU模型等环节。可选地,CPU负责数据集预处理,也可以负责电信息的统计计算。通过OpenCL分配计算任务,GPU负责完成电信息统计的并行计算和LightGBM模型的训练等环节。通过GPU的加速计算提升了算法的算力,提升了组合预测模型的运算速度和运算精度。
优选地,在进行电力负载预测过程中,将GRU网络设置于CPU模块,将LightGBM模型设置于GPU模块;
基于PostgersSQL,建立CPU模块与GPU模块的数据交互关系,将哈希排序后的电力负荷数据通过CPU模块的线程传输到GPU模块,生成具有映射关系的第一负荷预测结果和第二负荷预测结果。
示例性地,复杂逻辑运算和流程控制任务在CPU上完成,密集型的数值计算任务在GPU上并行完成,减少CPU和GPU之间的数据流动开销。因此,CPU负责数据集预处理,负荷数据清洗,台区聚类分析,特征分析,训练GRU模型等环节。通过OpenCL分配计算任务,GPU负责完成电信息统计的并行计算和LightGBM模型的训练等环节。
优选地,在建立CPU模块与GPU模块的数据交互关系的过程中,将PostgersSQL中的Pycopg2模块与Python相连接,构建数据交互关系。
示例性地,将电信息统计计算的工作从CPU设备放到GPU设备中去,将PostgersSQL中的Pycopg2模块与Python相连接,CPU擅长处理复杂逻辑运算任务,GPU擅长处理计算密集型的任务,将其哈希排序后的数据根据流通过CPU线程放入GPU计算网格中,CPU一个线程控制GPU的一个网格计算,实现计算的独立和并行,得到A表和B表的数据映射关系,完成后将不同网格中的计算结果进行汇总,回传到CPU中,通过Pycopg2模块返回到PostgersSQL中,得到数据集。
优选地,在生成第二负荷预测结果的过程中,基于GPU模块,通过LightGBM模型,生成决策树;
基于决策树的叶子节点的分裂方式,通过计算得到直方图,根据直方图并行前缀和操作,找到分裂增益最大的叶子节点进行分裂,并进行循环迭代。
示例性地,GRU本质上是线性代数运算,用CPU或者GPU都可以。可选地,组合模型中的GRU采取CPU进行训练,而LightGBM可以在GPU上实现决策树的生成,从而加速训练过程。针对叶子节点的分裂方式,GPU先并行计算得到直方图,然后根据直方图并行前缀和操作来找到分裂增益最大的叶子,然后分裂,如此循环迭代,而GPU有浮点计算速度和内存带宽方面的优点,可以提高效率。
优选地,在将GRU网络设置于CPU模块的过程中,基于OpenCL模块分配CPU模块的计算任务,建立基于OpenCL模块和GPU模块的并行运算空间。
优选地,在建立并行运算空间的过程中,OpenCL模块包括全局内存、局部内存和私有内存;
基于电力负荷数据的访问频次,将全局内存的数据分配到局部内存和/或私有内存中,其中,当访问频次为低频次时,将全局内存的数据分配到局部内存中,当访问频次为高频次时,将全局内存的数据分配到私有内存中。
示例性地,由OpenCL的内存模型可知,OpenCL设备内存分为全局内存、局部内存和私有内存,三种内存的容量和访存速度是负相关的,全局内存容量最大,但访存最慢,访存延时是私有内存的数百倍。OpenCL设备的优势之一在于拥有可管理的局部内存和私有内存。局部内存和私有内存在概念上类似于CPU的各级缓存,这就给了程序设计者极大的发挥空间,合理地使用OpenCL局部内存和私有内存可以带来极大的性能提升。
优选地,在建立并行运算空间的过程中,通过隐藏GPU模块的指令延迟,用于保证并行运算空间的并发性。
示例性地,指令可以分为算术指令和内存指令,在指令发出和完成之间的时钟周期被定义为指令延迟。GPU是为处理大量并发和轻量级线程以最大化吞吐量设计的,当每个时钟周期中的所有的线程调度器都有一个符合条件的线程束时,通过其他常驻线程束中发布其他指令,可以隐藏GPU的每个指令的延迟,从而达到计算资源的完全利用。计算资源的利用率与常驻并发线程束的数量直接相关,因此,通过内核的合理设计从而保证足够的并发性,达到计算资源的充分利用,从而提高计算性能。
第三实施例
本申请还提供一种存储介质,具体地,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述的基于组合预测模型的电力负载预测方法的步骤。
在本申请提供的存储介质的实施例中,可以包含任一上述方法实施例的全部技术特征,说明书拓展和解释内容与上述方法的各实施例基本相同,在此不再做赘述。
本申请通过构建的组合预测模型,通过GPU的加速计算提升了算法的算力,提升了运算速度和运算精度,为电力负载预测提供了高性能计算的技术思路。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在本文中,采用了诸如S10、S20等步骤代号,其目的是为了更清楚简要地表述相应内容,不构成顺序上的实质性限制,本领域技术人员在具体实施时,可能会先执行S20后执行S10等,但这些均应在本申请的保护范围之内。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (7)
1.一种基于组合预测模型的电力负载预测方法,其特征在于,包括以下步骤:
基于GRU网络和LightGBM模型,构建用于电力负载预测的组合预测模型;基于第一时间区间,采集所述GRU网络和所述LightGBM模型的预测值误差与真实值误差,通过获取负荷采样总数,生成所述组合预测模型的偏移矩阵;
基于所述偏移矩阵,通过拉格朗日乘子法,分别获取所述GRU网络的第一权重系数和所述LightGBM模型的第二权重系数,其中,所述第一权重系数和所述第二权重系数的和为1;
基于第二时间区间,通过采集电力负荷数据,根据所述GRU网络获取第一负荷预测结果,以及根据所述LightGBM模型获取第二负荷预测结果,其中,所述第二时间区间小于等于所述第一时间区间,或所述第二时间区间大于所述第一时间区间;
基于所述第一负荷预测结果和所述第一权重系数、所述第二负荷预测结果和所述第二权重系数,生成所述电力负荷数据的负荷预测结果;
将所述LightGBM模型设置于GPU模块,在生成所述第二负荷预测结果的过程中,基于所述GPU模块,通过所述LightGBM模型,生成决策树;
基于所述决策树的叶子节点的分裂方式,通过计算得到直方图,根据直方图并行前缀和操作,找到分裂增益最大的所述叶子节点进行分裂,并进行循环迭代;
将所述GRU网络设置于CPU模块,基于OpenCL模块分配所述CPU模块的计算任务,建立基于所述OpenCL模块和所述GPU模块的并行运算空间;
在建立并行运算空间的过程中,所述OpenCL模块包括全局内存、局部内存和私有内存;
基于所述电力负荷数据的访问频次,将所述全局内存的数据分配到所述局部内存和/或所述私有内存中,其中,当所述访问频次为低频次时,将所述全局内存的数据分配到所述局部内存中,当所述访问频次为高频次时,将所述全局内存的数据分配到所述私有内存中。
2.根据权利要求1所述一种基于组合预测模型的电力负载预测方法,其特征在于:
在进行电力负载预测过程中,将所述GRU网络设置于CPU模块,将所述LightGBM模型设置于GPU模块;
基于PostgersSQL,建立所述CPU模块与所述GPU模块的数据交互关系,将哈希排序后的所述电力负荷数据通过所述CPU模块的线程传输到所述GPU模块,生成具有映射关系的所述第一负荷预测结果和所述第二负荷预测结果。
3.根据权利要求2所述一种基于组合预测模型的电力负载预测方法,其特征在于:
在建立所述CPU模块与所述GPU模块的数据交互关系的过程中,将所述PostgersSQL中的Pycopg2模块与Python相连接,构建所述数据交互关系。
4.根据权利要求1所述一种基于组合预测模型的电力负载预测方法,其特征在于:
在建立并行运算空间的过程中,通过隐藏所述GPU模块的指令延迟,用于保证所述并行运算空间的并发性。
5.一种基于组合预测模型的电力负载预测系统,其特征在于,用于实现如权利要求1-4任一项所述的基于组合预测模型的电力负载预测方法,包括:
数据采集模块,用于采集电力负荷数据;
电力负载预测模块,用于通过建立基于GRU网络和LightGBM模型的组合预测模型;基于第一时间区间,采集所述GRU网络和所述LightGBM模型的预测值误差与真实值误差,通过获取负荷采样总数,生成所述组合预测模型的偏移矩阵,通过拉格朗日乘子法,分别获取所述GRU网络的第一权重系数和所述LightGBM模型的第二权重系数,并基于第二时间区间,通过采集电力负荷数据,根据所述GRU网络获取第一负荷预测结果,以及根据所述LightGBM模型获取第二负荷预测结果;
预测结果生成模块,用于基于所述第一负荷预测结果和所述第一权重系数、所述第二负荷预测结果和所述第二权重系数,生成所述电力负荷数据的负荷预测结果。
6.根据权利要求5所述的一种基于组合预测模型的电力负载预测系统,其特征在于,所述系统包括存储器和分别与所述存储器连接的CPU与GPU,所述存储器包括全局内存、局部内存和私有内存。
7.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的基于组合预测模型的电力负载预测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210709270.4A CN115270921B (zh) | 2022-06-22 | 2022-06-22 | 基于组合预测模型的电力负载预测方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210709270.4A CN115270921B (zh) | 2022-06-22 | 2022-06-22 | 基于组合预测模型的电力负载预测方法、系统及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115270921A CN115270921A (zh) | 2022-11-01 |
CN115270921B true CN115270921B (zh) | 2023-05-02 |
Family
ID=83761475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210709270.4A Active CN115270921B (zh) | 2022-06-22 | 2022-06-22 | 基于组合预测模型的电力负载预测方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115270921B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116610513B (zh) * | 2023-07-20 | 2023-09-26 | 四川华鲲振宇智能科技有限责任公司 | 一种自动化进行昇腾环境搭建并验证的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084424A (zh) * | 2019-04-25 | 2019-08-02 | 国网浙江省电力有限公司 | 一种基于lstm与lgbm的电力负荷预测方法 |
CN111738512A (zh) * | 2020-06-22 | 2020-10-02 | 昆明理工大学 | 一种基于cnn-ipso-gru混合模型的短期电力负荷预测方法 |
CN114552570A (zh) * | 2022-02-24 | 2022-05-27 | 广东电网有限责任公司 | 一种海上风电功率预测管理系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9251543B2 (en) * | 2012-06-21 | 2016-02-02 | Christopher Sticht | Predictive method, apparatus and program product |
CN112215426A (zh) * | 2020-10-16 | 2021-01-12 | 国网山东省电力公司信息通信公司 | 一种短期用电负荷预测方法 |
CN112330077B (zh) * | 2021-01-04 | 2021-09-24 | 南方电网数字电网研究院有限公司 | 电力负荷预测方法、装置、计算机设备和存储介质 |
CN113222279A (zh) * | 2021-05-28 | 2021-08-06 | 国网浙江桐乡市供电有限公司 | 一种考虑需求响应的短期负荷预测方法 |
CN114511135A (zh) * | 2021-12-31 | 2022-05-17 | 国网浙江省电力有限公司绍兴供电公司 | 基于人工智能的短期负荷预测方法、计算机设备及存储介质 |
-
2022
- 2022-06-22 CN CN202210709270.4A patent/CN115270921B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084424A (zh) * | 2019-04-25 | 2019-08-02 | 国网浙江省电力有限公司 | 一种基于lstm与lgbm的电力负荷预测方法 |
CN111738512A (zh) * | 2020-06-22 | 2020-10-02 | 昆明理工大学 | 一种基于cnn-ipso-gru混合模型的短期电力负荷预测方法 |
CN114552570A (zh) * | 2022-02-24 | 2022-05-27 | 广东电网有限责任公司 | 一种海上风电功率预测管理系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115270921A (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11782926B2 (en) | Automated provisioning for database performance | |
Zeng et al. | GraphACT: Accelerating GCN training on CPU-FPGA heterogeneous platforms | |
Xuan et al. | Multi-model fusion short-term load forecasting based on random forest feature selection and hybrid neural network | |
Van Luong et al. | GPU computing for parallel local search metaheuristic algorithms | |
Chen et al. | Distributed modeling in a MapReduce framework for data-driven traffic flow forecasting | |
CN105468439B (zh) | 在cpu-gpu异构框架下遍历固定半径内邻居的自适应并行方法 | |
Sardar et al. | Partition based clustering of large datasets using MapReduce framework: An analysis of recent themes and directions | |
CN115270921B (zh) | 基于组合预测模型的电力负载预测方法、系统及存储介质 | |
Takahashi et al. | kEDM: A performance-portable implementation of empirical dynamic modeling using Kokkos | |
Al-Andoli et al. | Parallel stacked autoencoder with particle swarm optimization for community detection in complex networks | |
Dong et al. | A hybrid algorithm for workflow scheduling in cloud environment | |
Gong et al. | GWMA: the parallel implementation of woodpecker mating algorithm on the GPU | |
Liang et al. | Prediction method of energy consumption based on multiple energy-related features in data center | |
Karatzas et al. | OmniBoost: Boosting Throughput of Heterogeneous Embedded Devices under Multi-DNN Workload | |
Chen et al. | PEDAL: A Power Efficient GCN Accelerator with Multiple DAtafLows | |
Kumar et al. | Massively parallel simulations for disordered systems | |
Miao et al. | Cuwide: Towards efficient flow-based training for sparse wide models on gpus | |
Pan et al. | G-SLIDE: A GPU-Based Sub-Linear Deep Learning Engine via LSH Sparsification | |
Wang et al. | Design and optimization of DBSCAN Algorithm based on CUDA | |
Kavin Kumar et al. | A Cascaded Technique for Hyper Parameters Optimization in Convolutional Neural Network Using K-Means and Bayesian Approach | |
Wen et al. | EdgeCloudBenchmark: A Benchmark Driven by Real Trace to Generate Cloud-Edge Workloads | |
US20220129743A1 (en) | Neural network accelerator output ranking | |
Al-Obaidy et al. | Power-Aware Computing on GPGPU Systems Using ML Classification Techniques | |
Lin et al. | SongC: A Compiler for Hybrid Near-Memory and In-Memory Many-Core Architecture | |
De et al. | Energy-efficient energy analytics using a general purpose graphics processing unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: Power load prediction method, system, and storage medium based on combination prediction model Effective date of registration: 20230621 Granted publication date: 20230502 Pledgee: Bank of Beijing Limited by Share Ltd. Shanghai branch Pledgor: TIANNA ENERGY TECHNOLOGY (SHANGHAI) CO.,LTD. Registration number: Y2023980044969 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |