CN114036823A - 基于编解码和记忆机制的电力变压器负载控制方法及装置 - Google Patents
基于编解码和记忆机制的电力变压器负载控制方法及装置 Download PDFInfo
- Publication number
- CN114036823A CN114036823A CN202111246475.5A CN202111246475A CN114036823A CN 114036823 A CN114036823 A CN 114036823A CN 202111246475 A CN202111246475 A CN 202111246475A CN 114036823 A CN114036823 A CN 114036823A
- Authority
- CN
- China
- Prior art keywords
- term
- long
- prediction
- memory
- time step
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015654 memory Effects 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000007246 mechanism Effects 0.000 title claims abstract description 40
- 230000007774 longterm Effects 0.000 claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 238000013461 design Methods 0.000 claims abstract description 4
- 238000009423 ventilation Methods 0.000 claims abstract description 4
- 230000007787 long-term memory Effects 0.000 claims description 21
- 230000006403 short-term memory Effects 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000000737 periodic effect Effects 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 230000001932 seasonal effect Effects 0.000 claims description 3
- 230000035772 mutation Effects 0.000 claims description 2
- 230000007123 defense Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 8
- 238000013467 fragmentation Methods 0.000 description 5
- 238000006062 fragmentation reaction Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 244000290333 Vanilla fragrans Species 0.000 description 1
- 235000009499 Vanilla fragrans Nutrition 0.000 description 1
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003915 air pollution Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005541 medical transmission Effects 0.000 description 1
- YHXISWVBGDMDLQ-UHFFFAOYSA-N moclobemide Chemical compound C1=CC(Cl)=CC=C1C(=O)NCCN1CCOCC1 YHXISWVBGDMDLQ-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于编解码和记忆机制的电力变压器负载控制方法及装置,同时提取电力数据长期模式和短期模式,方法包括:计算机根据过去一段时间内电力变压器的历史负载和油温,加载预测模型来计算未来一段时间的负载与油温;将日期信息作为参数加载入预测模型中;预测模型针对序列数据中存在的长期模式和短期模式,设计了不同的模块来捕获相应的特征;预测模型的编码器结构通过注意力机制计算来控制长期模式与短期模式;最后得到模型所预测的未来值,并根据经验进行决策,如果油温过高,降低负荷电流或者加强室内通风控制油温。装置包括:处理器和存储器。本发明通过对预测结果的控制可以有助于电力变压器负载控制和规划系统采取积极防御措施。
Description
技术领域
本发明涉及机器学习的时序数据控制领域,尤其涉及一种基于编解码和记忆机制的电力变压器负载控制方法及装置,通过对过去一段时间内采集到的电力变压器负载和油温的分析和利用,来预测未来一段时间内该变压器的负载与油温,进而实现对变压器负载的合理控制。
背景技术
时间序列预测是许多领域的重要组成部分,例如:交通流量预测,空气污染预测,智能电网管理,疾病传播分析等。一般而言,时间序列数据被描述为一组按照时间顺序采样得到的观测值,它可以被分为单变量时间序列和多变量时间序列。传统的时间序列预测模型(例如自回归模型ARIMA,状态空间模型SSM等)仍在被广泛使用。这些传统模型大多采用统计模型来研究时序数据的演变。但是,随着数据量的不断增加以及输入变量间的全局和局部依赖关系逐渐复杂,传统方法渐渐无法在现代的大规模预测任务上进行有效建模。
一直以来,深度学习方法都在被广泛地关注,并且它在许多问题领域(例如:自然语言处理,计算机视觉等)中都取得了不错的成绩。在时序数据问题中,同样也有许多深度学习方法被提了出来。为了解决上述传统模型中的不足,循环神经网络(RNN)被提出作为一种替代的解决方法。但因梯度消失和梯度爆炸的原因,在应用过程中RNN表现出难以训练的缺点。之后,一些RNN的变体(例如LSTM(长短期记忆网络),GRU(门控循环单元)等)被相继提出,虽然在一定程度上缓解了梯度消失及爆炸的问题,但当面对较长的输入序列时,这些模型仍无法对其中的全局依赖进行有效捕获。
之后,一种全新的框架Transformer(转换器)被提出。相比较于基于RNN的模型,Transformer在捕获长期依赖方面表现出了优越的性能。它通过注意力机制来处理时序数据,这使得模型可以访问过去时间步的数据而不受到距离的限制。但是,在之前的Transformer变体中,模型的训练通常是在输入数据的一段固定长度的分段上执行的,分段与分段之间并没有信息流传递,这就导致了模型没有办法捕获到超出了这个固定长度之外的任何长期依赖信息,从而导致了预测的碎片化。
另外,许多时序预测的经典方法着重解决了单步预测的问题,但在很多情况下,只预测一个点对于整个事件的预测是不够的,这就要求进行多步预测。而多步预测与单步预测相比又面临着误差累计和预测性能下降的问题。同时,在实际应用中,通常需要大量的与过去的动作行为有关的时间数据来进行长序列预测。一般来说,历史数据的长度需要远长于预测数据长度(例如,输入长度是192,输出长度是48)。这就导致了当输入的历史数据较少时,模型就无法捕捉到一些必要的信息,比如说数据的周期性或变量之间的相关性,从而导致整体模型的参数无法很好表达出输入数据的变化,从而导致预测出现误差。以电力负载为例,不正确的预测值可能会导致相关管理部门无法合理制定调度策略或安排检修计划,同时也可能会导致线路损耗增加或供电成本提高。
发明内容
本发明提供了一种基于编解码和记忆机制的电力变压器负载控制方法及装置,本发明利用编码器结合记忆机制来学习序列数据的短期、长期时序依赖联系,同时使用解码器来实施准确预测,验证了Transformer做时序预测的可行性,通过对预测结果的控制可以有助于电力变压器负载控制和规划系统采取积极的防御措施,详见下文描述:
第一方面,一种基于编解码和记忆机制的电力变压器负载控制方法,同时提取电力数据长期模式和短期模式,用于辅助预测未来的负载数据,所述方法包括:
将安装在电力变压器附近的传感器收集的负载与油温数据,通过无线网传输到计算机;
计算机根据过去一段时间内电力变压器的历史负载和油温,加载预测模型来计算未来一段时间的负载与油温;将日期信息作为参数加载入预测模型中;
所述预测模型针对序列数据中存在的长期模式和短期模式,设计了不同的模块来捕获相应的特征;
所述预测模型的编码器结构通过注意力机制计算来控制长期模式与短期模式;
最后得到模型所预测的未来值,并根据经验进行决策,如果油温过高,降低负荷电流或者加强室内通风控制油温。
第二方面,一种基于编解码和记忆机制的电力变压器负载控制装置,所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行第一方面中的方法步骤。
第三方面,一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时使所述处理器执行第一方面中的方法步骤。
本发明提供的技术方案的有益效果是:
1、电力变压器的温度是决定变压器使用年限的关键指标,良好的温度把控在电力长期部署中至关重要;通过获取到的稳定准确的电力变压器油温的预测结果,可以协助电网人员了解到电力变压器的工况,这为预测变压器负载提供了参考,同时也为电力分配决策提供了帮助,减少不必要的电力和设备折旧浪费;
2、通过电力变压器负载预测能够帮助电站生产计划人员合理安排电站的运行方式,例如选择在低负载期间进行设备的检修维护,节约了能源、时间成本。
附图说明
图1为基于编解码和记忆机制的电力变压器负载控制方法的示意图;
图2为ETTh1数据集中油温数据概览示意图;
图3为模型在ETTm2数据集上的预测(输入长度=192,预测长度=384)示意图;
图4为一种基于编解码和记忆机制的电力变压器负载控制装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
多元时间序列预测是横跨许多领域的重要问题,包括:对发电厂能量输出,电力消耗和交通拥堵状况的预测。这个问题面临的挑战之一是时间步长和不同变量之间的复杂且非线性的相互依赖关系。另一方面,传统的预测模型在预测未来的长期数据时,往往需要大量的输入数据来支撑模型进行训练。但在很多现实情况下,由于设备损坏或天气等原因,无法提供足够长度的输入数据对模型进行预测。
为了解决这一局限,本发明实施例提出了一个基于Transformer结构同时结合了记忆模块的时序数据预测模型(SWLHT)。它通过记忆模块使模型不再只依赖于单次的输入,而是可以结合之前预测到的信息来辅助捕获长期依赖,从而避免了模型需要过长输入序列的问题,同时该模块也可以缓解预测碎片化的问题。本发明实施例提出的记忆力模块包含两个部分,分别是短期记忆和长期记忆,这使模型能够同时学习到数据的局部和全局相关性。同时,为了解决模型对数据尺度不敏感的问题,本发明实施例在SWLHT的基础上,并行集成了传统的自回归模型。在多个实际采集的多元时间序列数据集上的实验表明,本发明实施例设计的模型是有效的且优于其他模型的。
实施例1
本发明实施例描述了一种基于编码器解码器结构和记忆力机制的用于多元时间序列预测的深度网络结构(SWLHT),所提方法的概述如图1所示。
图1概述了本发明实施例提出的SWLHT。SWLHT分为编码器和解码器两部分,输入数据XT进入编码器(Encoder)中,与前一个时间步的记忆信息(Memory)一起进行注意力机制然后传入前向传播网络,将得到的隐藏层状态传入解码器(Decoder)中。在解码器(Decoder)部分,其先对输入进行有遮盖的注意力操作,然后与编码器(Encoder)传入的隐藏状态再进行一次注意力操作。最后,解码器的输出将会与自回归模块(AR)的输出合并成模型最终的预测结果,下面将详细介绍每个模块的信息。
一、缩放的多头注意力机制
通过经典注意力机制计算得到缩放后的向量输出:
其中,T为矩阵的转置操作。
注意,为了避免未来的信息被模型提前知晓,本发明实施例在解码器中使用经过上三角矩阵M遮盖过的注意力矩阵来对解码器的输入进行计算。
前向传播网络由两个一维卷积组成,两个卷积变换之间使用ReLU激活函数,可以表示为:
二、记忆模块
为了使Transformer结构或自注意力机制能够捕获时序数据中更长的依赖关系,对于普通的Transformer结构来说一种简单的解决办法就是增加其输入数据的长度。然而在实践中,由于资源有限,没有办法无限增加输入长度。
为了缓解这个问题,现有技术中提出了另一种可行的方法:它将一整个较长的输入划分为较短的分段,并且仅使用这些分段来训练模型。这样做使得模型在训练过程中无法得知特定分段的上下文信息,也就无法捕获到超出该分段长度之外的依赖信息,从而导致分段与分段之间无法产生时序联系。因此,虽然与基于RNN的模型相比,自注意力机制在提取时序数据的长期依赖方面具有优势,但将输入序列分成固定长度的分段从而导致的上下文碎片化的问题使得这方面优势不再明显。
为了缓解预测碎片化,本发明实施例提出将记忆模块引入模型中。图1右边部分概括了该模块的基本内容。记忆模块分为两部分,短期记忆模块与长期记忆模块。首先本发明实施例介绍了短期记忆模块。短期记忆模块中存放的是上一个时间步中编码层计算得到的隐藏状态表示第τ个时间步中第n层编码层生成的隐藏状态。将在下一个时间步τ+1中被重用为扩展内容。另外,当更新短期记忆时,无需用每个新的重新计算记忆信息,而是可以直接拼接编码层输出的隐藏状态,以此来减小计算量:
另一方面,因为资源有限,无法无限的存储短期记忆信息,所以当短期记忆信息超出一定长度后,将对超出长度的短期记忆信息进行压缩来作为长期记忆信息存储。本发明实施例首先对长期和短期记忆信息以及编码层的隐藏状态进行注意力机制计算,然后使用nBRC门控机制控制长期记忆信息的更新。nBRC门控机制可以使得记忆单元根据自身过去的状态和当前的输入经过计算后进入到不同的稳定状态,从而可以将过去的信息更新并存储到当前记忆单元状态中。
Attnτ=Attention(Qτ,Kτ,Vτ) (7)
其中,表示拼接,⊙表示矩阵乘法,U*、WQ、WK、WV皆为可训练参数,分别得到查询向量、键向量、值向量,为前一个时间步的短期记忆信息,为前一个时间步的长期记忆信息,aτ为结合注意力信息和前一个时间步长期记忆的中间结果,cτ为结合注意力信息与前一个时间步长期记忆通过计算所得到的权重值,Qτ为当前时间步的查询向量,Kτ为当前时间步的键向量,Vτ为当前时间步的值向量,Attnτ为当前时间步的值向量,为计算所得到的当前时间步的长期记忆信息。
另外,根据之前的相关工作,在编码器的每一层都集成记忆模块是没有必要的,其提出先对短期相关性进行特征表示,然后再对长期相关性进行特征表示的结果将会更有效。参考这个结论,本发明实施例提出的模型仅在编码器的最后几层添加了记忆模块。
本发明实施例提出的记忆模块通过重用隐藏状态作为当前段的记忆信息,从而实现了在分段之间建立了联系。通过压缩超出存储长度的短期记忆,模型能够存储更长期的记忆,因此可以对非常长期的依赖关系建模。同时,传递来自前一段的记忆信息也可以解决上下文碎片的问题。另一方面,对于短输入长输出模式的预测问题,本发明实施例添加的记忆模块可以在某种层面上被当作额外的输入信息,这为模型预测超长期序列提供了有力支撑。
三、多段预测方式
本发明实施例将“Start Token”的概念引入原始解码器中。在自然语言处理领域,“Start Token”是动态解码的一种有效方法。
本发明实施例首先采样一段长度为Ltoken的已知数据段,该数据段选取目标序列之前的最近时间步。然后本发明实施例准备一个Xpredict,它是一个长度为Lpredict的用零填充的张量,表示要预测的内容,如图1中展示的:
其中,Xtoken为目标序列之前的最近一段时间步,Xdecoder_in为解码器的输入。
通过这个过程,本发明实施例就可以在一个前向过程中得到一个分段的模型预测值,随后便可以将这个分段拼接到输入中进行下一轮的循环预测。
相比较于传统的多步预测方式,多段加快了预测的速度,同时也缓解了预测过程中的误差累计而导致的模型预测精度下降的问题。
四、自回归模块
由于注意力机制的非线性特性,Transformer模型的一个缺点是输出的规模对输入的规模不敏感。在某些真实数据集上,输入数据的大小以非周期的形式不断变化,这将导致模型预测的准确性大大减低。为了缓解这个问题,本发明实施例将SWLHT的最终预测视为线性分量和非线性分量的组合。除了上面介绍的非线性分量外,本发明实施例使用经典的自回归模型当作线性分量。自回归组件的预测表示为:
Yar=WarXdecoder_in+bar (12)
最后,通过整合线性和非线性部分的输出,得到了SWLHT的最终预测结果:
Yfinal=Ypredict+Yar (13)
其中,bar为自回归计算部分的偏置系数,Yar为自回归计算所得结果,War为自回归模块的可训练参数,Ypredict为模型中非线性部分(除自回归模块外的其余部分)计算所得结果。
五、技术流程
1、将安装在电力变压器附近的传感器收集的负载与油温等数据,通过无线网传输到计算机;
2、计算机在特定时刻或者在用户操作下,根据过去一段时间内电力变压器的历史负载和油温,加载预测模型来计算未来一段时间的负载与油温;另外,需要同时将日期信息作为参数加载入预测模型中,根据工作日与节假日的不同,人们的用电习惯会发生改变,从而变压器的负载也将会随之变化,因此日期是提取周期模式的一个重要变量。
3、该预测模型针对序列数据中存在的长期模式和短期模式,设计了不同的模块来捕获这些特征,实验证明本发明实施例提出的预测模型比对比的其他深度学习模型更具有稳定性和有效性。
4、该预测模型的编码器结构通过注意力机制计算来控制信息流通,由于是对当前一段时序数据输入进行计算,所以这里捕获的是短期模式;同时考虑到记忆模块,该部分因为使用的是历史数据来进行更新以及存储,因此能够提供长期模式。
实施例2
下面结合具体的实验数据、实例对实施例1中的方案进行可行性验证,详见下文描述:
一、实验设置
本发明实施例中的实验使用NVIDIA GTX 1080Ti GPU,模型代码基于Python和Pytorch工具箱搭建。另外本模型使用Adam优化器,同时使用了一个有衰减的学习率计划,从1e-4到5e-8。在实验中,本发明实施例设计的SWLHT的编码器部分包含三层注意力机制层,其中第二和第三层为其添加了记忆模块,同时解码器部分包含两层注意力机制层。模型的输入数据是经过零均值归一化的。根据长时间序列预测的问题设置,本实验主要测试了三种长度情况下的输入输出结果,即{48,96,192}。
二、数据集及评价指标
(1)本实验将在公开数据集ETT上评估模型的预测能力
该数据集时间跨度为两年(从2016年7月到2018年7月),记录了来自中国同一个省的两个不同地区的电力数据。其中变量包括:日期,负载和油温。数据集中包含短周期模式,长周期模式,长期趋势和大量不规则模式。图2给出了数据的概览,其中可以看出数据有明显的季节趋势。本发明实施例在此数据集上训练提出的模型来测试模型在短输入长输出的预测模式下有效捕获这些时间模式的能力。
本实验使用了两个评估指标,分别是:
其中,y表示实际测量值,表示模型预测值,从公式上看,MAE可以很好地反映预测值误差的实际情况,而MSE则更能反映误差变化的稳定程度。这两个评估指标都是越低的值表示越好的结果。同时在多元预测中取其平均值。
(2)实验性能比较
在本节中,对本发明实施例提出的模型进行了评估。选择了2种经典的时间序列预测法以及3种近期的相关研究工作进行比较,包括:LSTMa,LSTnet,Transformer,LogTransformer以及Informer。
表1展示了6种预测模型在4个数据集上进行多变量预测的评估结果,其中每列为特定输入长度-输出长度下不同模型结果的对比,每行为所有情况下特定模型的结果。随着对模型预测能力要求的提高,本发明实施例逐步扩大了预测的范围。最佳结果以黑体字显示。
表1 6种方法的对比实验结果
如表1所示,实验结果表明本发明实施例提出的模型在大多数情况下都可以取得较好的成绩(最后一列的最优结果次数)。同时注意到,本模型胜过了最相关的工作LogTrans以及Informer。相比较于这两个工作,本模型因为具有记忆模块,可以在短窗口长范围的预测模式下能够捕获更长期的时间模式。而且通过集成在模型中的自回归模块,使得模型能够对输入数据规模的变化更加敏感。另外,一个普遍的现象是,当预测范围扩大时,所有模型的MSE和MAE都会有不同程度的增加,这表明视野越大时,模型进行超长期预测时捕获长短期时间模式的难度也在增加。
图3展示了六个模型的一部分预测结果。对比几个模型,本发明实施例提出的模型可以更好地拟合曲线的变化趋势,尤其在极点位置。在短输入长输出的预测方法下,本模型利用记忆模块,更好的捕获了时间序列局部和全局的相关性,得到了更好的预测结果。LSTMa和Informer显示了可接受的结果。LSTNet和LogTrans虽然结果稍差,但也捕获了长序列的近似趋势。而Vanilla Trans最终的预测结果为一条直线,本发明实施例推测的原因是Transformer的编码层和解码层过多,导致训练过程中数据特征被过分抽象,以至于最后模型无法从这些抽象特征中学到数据的具体表示。
在本发明实施例中,提出了用于多元时间序列预测的序列到序列结构模型,该模型在原始Transformer结构基础上加入了记忆机制以及自回归模块。这使得本发明实施例提出的SWLHT模型可以捕获超长期的时间模式,并且由于结合了线性和非线性模型的特点,该模型对输入数据规模的变化更加敏感。对4个多元时间序列数据集进行的实验表明,该模型可以在输入长度较短的情况下,有效地预测未来一段远超输入长度的长序列值。
实施例3
一种基于编解码和记忆机制的电力变压器负载控制装置,该装置包括:处理器和存储器,存储器中存储有程序指令,处理器调用存储器中存储的程序指令以使装置执行实施例1中的以下方法步骤:
将安装在电力变压器附近的传感器收集的负载与油温数据,通过无线网传输到计算机;
计算机根据过去一段时间内电力变压器的历史负载和油温,加载预测模型来计算未来一段时间的负载与油温;将日期信息作为参数加载入预测模型中;
预测模型针对序列数据中存在的长期模式和短期模式,设计了不同的模块来捕获相应的特征;
预测模型的编码器结构通过注意力机制计算来控制长期模式与短期模式;
最后得到模型所预测的未来值,并根据经验进行决策,如果油温过高,降低负荷电流或者加强室内通风控制油温。
其中,长期模式包括:周期性、季节性;短期模式包括:局部趋势、突变数据。
在一种实施方式中,预测模型基于Transformer结构同时结合了记忆模块的时序数据,且并行集成了自回归。
本发明实施例对长期和短期记忆信息以及编码层的隐藏状态进行注意力机制计算,使用nBRC门控机制控制长期记忆信息的更新;
Attnτ=Attention(Qτ,Kτ,Vτ)
其中,表示拼接,⊙表示矩阵乘法,U*、WQ、WK、WV分别为查询向量、键向量、值向量,为前一个时间步的短期记忆信息,为前一个时间步的长期记忆信息,aτ为结合注意力信息和前一个时间步长期记忆的中间结果,cτ为结合注意力信息与前一个时间步长期记忆通过计算所得到的权重值,Qτ为当前时间步的查询向量,Kτ为当前时间步的键向量,Vτ为当前时间步的值向量,Attnτ为当前时间步的值向量,为计算所得到的当前时间步的长期记忆信息。
本发明实施例采用多段预测方式,即在一个前向过程中得到一个分段的模型预测值,将模型预测值拼接到输入中进行下一轮的循环预测。
本发明实施例将最终预测视为线性分量和非线性分量的组合,将自回归作为线性分量。
这里需要指出的是,以上实施例中的装置描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
上述的处理器1和存储器2的执行主体可以是计算机、单片机、微控制器等具有计算功能的器件,具体实现时,本发明实施例对执行主体不做限制,根据实际应用中的需要进行选择。
存储器2和处理器1之间通过总线3传输数据信号,本发明实施例对此不做赘述。
实施例4
基于同一发明构思,本发明实施例还提供了一种计算机可读存储介质,存储介质包括存储的程序,在程序运行时控制存储介质所在的设备执行上述实施例中的方法步骤。
该计算机可读存储介质包括但不限于快闪存储器、硬盘、固态硬盘等。
这里需要指出的是,以上实施例中的可读存储介质描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例的流程或功能。
计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者通过计算机可读存储介质进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质或者半导体介质等。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于编解码和记忆机制的电力变压器负载控制方法,其特征在于,同时提取电力数据长期模式和短期模式,用于辅助预测未来的负载数据,所述方法包括:
将安装在电力变压器附近的传感器收集的负载与油温数据,通过无线网传输到计算机;
计算机根据过去一段时间内电力变压器的历史负载和油温,加载预测模型来计算未来一段时间的负载与油温;将日期信息作为参数加载入预测模型中;
所述预测模型针对序列数据中存在的长期模式和短期模式,设计了不同的模块来捕获相应的特征;
所述预测模型的编码器结构通过注意力机制计算来控制长期模式与短期模式;
最后得到模型所预测的未来值,并根据经验进行决策,如果油温过高,降低负荷电流或者加强室内通风控制油温。
2.根据权利要求1所述的一种基于编解码和记忆机制的电力变压器负载控制方法,其特征在于,所述长期模式包括:周期性、季节性;所述短期模式包括:局部趋势、突变数据。
3.根据权利要求1所述的一种基于编解码和记忆机制的电力变压器负载控制方法,其特征在于,所述预测模型基于Transformer结构同时结合了记忆模块的时序数据,且并行集成了自回归。
5.根据权利要求1所述的一种基于编解码和记忆机制的电力变压器负载控制方法,其特征在于,所述方法对长期和短期记忆信息以及编码层的隐藏状态进行注意力机制计算,使用nBRC门控机制控制长期记忆信息的更新;
Attnτ=Attention(Qτ,Kτ,Vτ)
6.根据权利要求1所述的一种基于编解码和记忆机制的电力变压器负载控制方法,其特征在于,所述方法采用多段预测方式,即在一个前向过程中得到一个分段的模型预测值,将模型预测值拼接到输入中进行下一轮的循环预测。
7.根据权利要求3所述的一种基于编解码和记忆机制的电力变压器负载控制方法,其特征在于,所述方法将最终预测视为线性分量和非线性分量的组合,将自回归作为线性分量。
8.一种基于编解码和记忆机制的电力变压器负载控制装置,其特征在于,所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行权利要求1-7中的任一项所述的方法步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时使所述处理器执行权利要求1-7中的任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111246475.5A CN114036823B (zh) | 2021-10-26 | 2021-10-26 | 基于编解码和记忆机制的电力变压器负载控制方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111246475.5A CN114036823B (zh) | 2021-10-26 | 2021-10-26 | 基于编解码和记忆机制的电力变压器负载控制方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114036823A true CN114036823A (zh) | 2022-02-11 |
CN114036823B CN114036823B (zh) | 2024-05-10 |
Family
ID=80135411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111246475.5A Active CN114036823B (zh) | 2021-10-26 | 2021-10-26 | 基于编解码和记忆机制的电力变压器负载控制方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114036823B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111694924A (zh) * | 2020-06-17 | 2020-09-22 | 合肥中科类脑智能技术有限公司 | 一种事件抽取方法和系统 |
WO2020224570A1 (zh) * | 2019-05-09 | 2020-11-12 | 阿里巴巴集团控股有限公司 | 交互方法及装置、音箱、电子设备和存储介质 |
US20210042605A1 (en) * | 2019-08-08 | 2021-02-11 | Nec Laboratories America, Inc. | Ensemble of clustered dual-stage attention-based recurrent neural networks for multivariate time series prediction |
CN112784532A (zh) * | 2021-01-29 | 2021-05-11 | 电子科技大学 | 用于短文本情感分类的多头注意力记忆网络 |
CN113312843A (zh) * | 2021-05-28 | 2021-08-27 | 北京航空航天大学 | 一种大型多变压器极限负载预测系统和装置 |
-
2021
- 2021-10-26 CN CN202111246475.5A patent/CN114036823B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020224570A1 (zh) * | 2019-05-09 | 2020-11-12 | 阿里巴巴集团控股有限公司 | 交互方法及装置、音箱、电子设备和存储介质 |
US20210042605A1 (en) * | 2019-08-08 | 2021-02-11 | Nec Laboratories America, Inc. | Ensemble of clustered dual-stage attention-based recurrent neural networks for multivariate time series prediction |
CN111694924A (zh) * | 2020-06-17 | 2020-09-22 | 合肥中科类脑智能技术有限公司 | 一种事件抽取方法和系统 |
CN112784532A (zh) * | 2021-01-29 | 2021-05-11 | 电子科技大学 | 用于短文本情感分类的多头注意力记忆网络 |
CN113312843A (zh) * | 2021-05-28 | 2021-08-27 | 北京航空航天大学 | 一种大型多变压器极限负载预测系统和装置 |
Non-Patent Citations (2)
Title |
---|
MIKHAIL S. BURTSEV等: "MEMORY TRANSFORMER", 《ARXIV:2006.11527V2 [ CS.CL]》, 16 February 2021 (2021-02-16) * |
ZIHANG DAI等: "Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context", 《ARXIV:1901.02860V3 [CS.LG]》, 2 June 2019 (2019-06-02) * |
Also Published As
Publication number | Publication date |
---|---|
CN114036823B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111161535A (zh) | 基于注意力机制的图神经网络交通流量预测方法及系统 | |
CN110928993A (zh) | 基于深度循环神经网络的用户位置预测方法及系统 | |
Yu et al. | Error correction method based on data transformational GM (1, 1) and application on tax forecasting | |
CN113762338B (zh) | 一种基于多重图注意力机制的交通流预测方法、设备及介质 | |
CN114428803B (zh) | 空压站运行优化方法、系统、存储介质及终端 | |
Huo et al. | Long-term span traffic prediction model based on STL decomposition and LSTM | |
CN117132135B (zh) | 基于数字孪生的城市信息化管理系统及方法 | |
CN114004338A (zh) | 基于神经网络的混合时间周期模式多变量时序预测方法 | |
CN104881563A (zh) | 径流的混沌特性分析及非线性预测方法 | |
CN114492978A (zh) | 一种基于多层注意力机制的时空序列预测方法及设备 | |
Li et al. | Temporal attention based tcn-bigru model for energy time series forecasting | |
CN117133129B (zh) | 一种基于多分量注意力图神经网络的交通速度预测方法 | |
CN109190800A (zh) | 一种基于spark框架的海面温度预测方法 | |
Wang et al. | A Transformer-based multi-entity load forecasting method for integrated energy systems | |
CN117472511A (zh) | 容器资源监控方法、装置、计算机设备和存储介质 | |
CN116703003A (zh) | 一种居民用水量的预测方法 | |
CN114036823A (zh) | 基于编解码和记忆机制的电力变压器负载控制方法及装置 | |
CN116502774A (zh) | 一种基于时间序列分解和勒让德投影的时间序列预测方法 | |
Wang et al. | A comparison of deep learning models in time series forecasting of web traffic data from Kaggle | |
Rathnayaka et al. | Specialist vs generalist: A transformer architecture for global forecasting energy time series | |
Zhao et al. | Enformer: Encoder-based sparse periodic self-attention time-series forecasting | |
Liu et al. | Time series analysis model for forecasting unsteady electric load in buildings | |
Li et al. | Umformer: A Transformer Dedicated to Univariate Multistep Prediction | |
Heghedus et al. | Neural Network Architectures for Electricity Consumption Forecasting | |
Wang et al. | Research on traffic speed prediction based on wavelet transform and ARIMA-GRU hybrid model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |