CN116468175A - 一种建筑能耗预测方法以及Seq-GRU深度学习模型 - Google Patents
一种建筑能耗预测方法以及Seq-GRU深度学习模型 Download PDFInfo
- Publication number
- CN116468175A CN116468175A CN202310442462.8A CN202310442462A CN116468175A CN 116468175 A CN116468175 A CN 116468175A CN 202310442462 A CN202310442462 A CN 202310442462A CN 116468175 A CN116468175 A CN 116468175A
- Authority
- CN
- China
- Prior art keywords
- data
- energy consumption
- building energy
- gru
- historical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005265 energy consumption Methods 0.000 title claims abstract description 115
- 238000013136 deep learning model Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 31
- 230000007246 mechanism Effects 0.000 claims abstract description 14
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 51
- 238000010606 normalization Methods 0.000 claims description 8
- 230000002159 abnormal effect Effects 0.000 claims description 7
- 101001093143 Homo sapiens Protein transport protein Sec61 subunit gamma Proteins 0.000 claims description 6
- 101000694017 Homo sapiens Sodium channel protein type 5 subunit alpha Proteins 0.000 claims description 6
- 102100027198 Sodium channel protein type 5 subunit alpha Human genes 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 101100120905 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) TDH1 gene Proteins 0.000 claims description 3
- 230000002411 adverse Effects 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 2
- 238000010187 selection method Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000012407 engineering method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004134 energy conservation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Evolutionary Computation (AREA)
- Economics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种建筑能耗预测方法以及Seq‑GRU深度学习模型,涉及建筑能耗预测技术领域,包括:S10、中间向量C的获取:将训练集数据按时间步输入到Seq‑GRU深度学习模型的编码层中,通过注意力机制对GRU各时间步的输出赋予权重,获得中间向量C;S20、模型参数的修正:将S10获取的中间向量C以及历史真实建筑能耗Ni同时输入Seq‑GRU深度学习模型中的解码层,当Seq‑GRU模型输出的预测建筑能耗No小于或大于历史真实建筑能耗Ni时,结合数据贪婪处理修正模型参数;S30、建筑能耗预测;将测试集数据输入经过修正后的模型中获得预测建筑能耗数据;在缺少建筑物的物理参数条件下,根据建筑物的历史能耗数据对建筑能耗进行精准的预测;同时,基于能耗相关数据不同特征对预测结果的影响,并提高模型的预测精度。
Description
技术领域
本发明涉及建筑能耗预测技术领域,特别地,涉及一种建筑能耗预测方法以及Seq-GRU深度学习模型。
背景技术
随着社会的快速发展,我国建筑规模不断扩大,建筑能耗逐年增加。目前,我国的建筑运行阶段能耗占全国总能耗的21.7%,建筑碳排放占全社会总排放的40%,因此,建筑是我国实现节能减排的关键领域。
通过对建筑能耗进行预测以指导建筑运行模式,优化运行效率,帮助管理者合理控制各种设备,对于建筑节能减排有着重要的意义。
目前,建筑能耗预测方法主要基于物理模型的工程方法,该方法基于物理模型的工程方法将建筑物的物理参数和环境参数作为仿真工具的输入,由于建筑物的物理参数和环境参数获取难度大,因此,基于物理模型的工程方法常在使用时因缺少精确的数据,导致其预测结果不准确。
基于此,有必要提出一种建筑能耗预测方法以及Seq-GRU深度学习模型以解决或至少缓解上述缺陷。
发明内容
本发明的主要目的在于提供一种建筑能耗预测方法以及Seq-GRU深度学习模型,旨在解决现有的建筑能耗预测模型在能耗预测过程中,建筑能耗预测所需的物理参数和环境参数难以获取,导致对于预测结果不准确的技术问题。
为实现上述目的,本发明采用的技术方案如下:
一种建筑能耗预测方法,包括如下步骤:
S10、中间向量C的获取:将训练集数据按时间步输入到Seq-GRU深度学习模型的编码层中,并通过注意力机制对GRU各时间步的输出赋予权重,从而获得中间向量C;
S20、模型参数的修正:将S10获取的中间向量C以及历史真实建筑能耗Ni同时输入Seq-GRU深度学习模型中的解码层,当该Seq-GRU深度学习模型输出的预测建筑能耗No小于或大于历史真实建筑能耗Ni时,结合数据贪婪处理修正模型参数;
S30、建筑能耗预测;将测试集数据输入经过S20后的Seq-GRU深度学习模型中获得预测建筑能耗数据。
进一步地,所述S10中训练集获取的具体步骤如下:
S101、数据采集:采集历史目标时间段内建筑能耗相关数据,该建筑能耗相关数据包括数据特征M以及建筑能耗N,所述数据特征M包括历史时刻、历史温度、历史湿度、历史云覆盖、历史气压、历史风向、历史风速、历史工作日、历史紫外线指数等特征;
S102、数据预处理:对S101所采集到的数据进行清洗,剔除数据中的异常值,从而将剔除的异常值按缺失值进行处理,然后对缺失值采用线性插值法进行填充;
S103、数据归一化处理:对经S102的数据进行归一化处理,使预处理后的数据限定在一定的范围内,以消除奇异样本数据导致的不良影响;
S104、数据特征选取:采用距离相关系数法对S103获取的数据进行筛选,并按时间先后顺序排列,生成二维输入序列;
S105、数据升维处理:将S104中获得的二维输入序列采用Embedding函数将其映射成三维向量数据集,并将所获得的三维向量数据集划分为训练集和测试集。
进一步地,所述步骤S102中数据预处理的具体步骤如下:
采用3sigma对数据进行清洗,具体根据目标函数:
P(|x-μ|>3σ)≤0.003;
其中,μ表示均值,σ表示标准差,当数据超出(μ-3σ,μ+3σ)这一区间时,该数据被标定为异常值。
进一步地,所述步骤S102中所述线性插值法的具体步骤如下:
根据目标函数:
其中,(x0,y0)、(x1,y1)为异常值左右的两个值,为补全数据,且/>y0、y1表示时刻值,/>x0、x1表示与/>y0、y1对应的数值。
进一步地,所述步骤S103中对于数据归一化的具体方法如下:
根据目标函数:
其中,表示归一化后的数据,x表示原始数据,xmin、xmax分别表示原始数据的最小值以及最大值。
进一步地,所述步骤S104中对数据特征选取方法的具体内容如下:
S1、根据目标函数计算数据特征M和建筑能耗N的Aop和Bop;
aop=|Mo-Mp|;
bop=|No-Np|;
其中,o,p=1,2,3,...,n;
S2、根据目标函数计算数据特征M和建筑能耗N的样本协方差V(M,N);
S3、根据目标函数计算数据特征M和建筑能耗N的距离相关系数R(M,N);
其中,R(M,N)数值越大,数据特征M和建筑能耗N的相关性越强,V(M)、V(N)为样本方差。
进一步地,所述S10中三维向量的训练集按时间步输入到Seq-GRU深度学习模型的编码层中具体的处理步骤如下:
SS1、根据目标函数计算编码层GRU更新门、重置门状态,
zt=θ(Wz*[ht-1,xt]);
rt=θ(Wr*[ht-1,xt]);
SS2、将SS1获得的rt根据目标函数计算编码层GRU候选隐藏状态,
gt=tanh(Wg*[rt*ht-1,xt]);
SS3、将SS1获得的zt以及SS2中获得的gt根据目标函数计算编码层GRU记忆状态,
ht=(1-zt)*ht-1+zt*gt;
SS4、将SS3获得的ht根据目标函数计算编码层GRU的输出,
ft=θ(Wy*ht);
其中,zt为t时刻的更新门状态,rt为t时刻的重置门状态,gt为t时刻的候选影藏状态,W为权重系数,ht-1为t-1时刻的记忆,xt为t时刻的输入,ft为t时刻的输出,θ是激活函数。
进一步地,所述S10中的注意力机制具体的处理方法如下:
根据目标函数获得中间向量C;
其中,n为输入数据的条数,ki为第i条输入数据,ai为第i条输入数据各特征的权值。
进一步地,所述S20者中的中间向量C在Seq-GRU深度学习模型中的解码层进行处理,具体步骤如下:
SSS1、根据目标函数计算解码层GRU隐藏状态,
st=δ(Wss*st-1);
SSS2、将SSS1获得的st代入目标函数求得解码层GRU输出的序列数据yt,
yt=γ(Wsy*st);
其中,δ为编码层GRU的变换函数,γ为编码层GRU的激活函数,Wss、Wsy分别为解码层GRU隐藏状态以及输出的权重系数,st为t时刻解码层GRU的隐藏状态,st-1为t-1时刻解码层GRU的隐藏状态。
本发明还公开了一种应用于上述任一项方案的Seq-GRU深度学习模型,包括:
编码层,用于预处理后的历史建筑能耗相关数据进行处理获得处理数据;
注意力机制逻辑层,用于对编码层所输出的处理数据进行权重赋予,获取中间向量C;
解码层,用于接收中间向量C同时结合预测时刻的历史真实建筑能耗Ni一起训练,获得二维数据;
贪婪处理逻辑层,用于对二维数据赋予权重,选取权重最大的二维数据数据,并将其于历史真实建筑能耗Ni对比,从而判断是否对模型的参数进行修正;
其中,所述解码层电连接有一信息输入串口,用于在模型训练阶段输入历史真实建筑能耗Ni的相关数据信息。
本发明具有以下有益效果:
相较于现有的预测模型,通过运用Seq-GRU深度学习模型,对历史建筑能耗数据进行学习,研究建筑能耗数据不同特征对预测结果的相关性,生成建筑能耗数据与预测结果的映射关系网络,以达到缺少建筑物的物理参数条件下,根据建筑物的历史能耗数据对建筑能耗进行精准的预测;
另外,结合实际来说,对于普通Seq2Seq模型来说,其编码层在读取一周内建筑相关能耗数据后,才输出一个中间向量C,即通过一个中间向量C来表征输入一周内所有的历史建筑能耗相关数据,这会带来一个问题,由于数据的长度过于冗长,从而导致该模型容易忽视掉一些对于预测结果来说关键的信息,而本申请中的Seq-GRU深度学习模型通过引入注意力机制,对于一周内所有的历史建筑能耗相关数据中的每一个单独数据都会有一个单独表征,会将模型的注意力放在当前输入的这条数据上,便于捕捉三维向量训练集数据中的关键信息,以达到对该学习模型运算力的合理分配,同时,在中间向量C经过学习模型获得预测建筑能耗No,通过预测建筑能耗No和历史真实建筑能耗Ni的比较,来判断其是否需要修正该建筑预测模型的系数,以增强预测的精准性。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明中Seq-GRU深度学习模型架构图;
图2是本发明的流程架构原理图。
图例说明:1、编码层;2、注意力机制逻辑层;3、解码层;4、贪婪处理层。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
请参考图1,本发明中提供了一种Seq-GRU深度学习模型用于能耗预测,该Seq-GRU深度学习模型包括编码层1,所述编码层1电连接有注意力机制逻辑层2,所述注意力机制逻辑层2电连接有解码层3,所述解码层3点连接有贪婪处理逻辑层4;值得注意的是,所述解码层3还电连接有信息输入串口,用于在模型训练阶段接收建筑真实能耗数据N;
通过GRU构建Seq2Seq模型的编码层1和解码层3,在解码层3和编码层1之间引入注意力机制,并在解码层3层后引入贪婪处理,同时,在Seq-GRU深度学习模型训练阶段,使用teacher forcing训练方法,输入预测时刻的真实建筑能耗数据M,提高模型的训练速度和精度。
参考图2可知,本发明实施例提供的一种建筑能耗预测方法,包括如下具体步骤:
S10、中间向量C的获取
S101、数据采集,在本实施例中,所述数据指历史目标时间段内历史建筑能耗相关数据,所述历史建筑能耗相关数据包括各种数据特征M以及建筑能耗N,更具体地说,各种数据特征M包括时刻、温度、湿度、云覆盖、气压、风向、风速、工作日、紫外线指数等;
S102、数据预处理,对S101所采集到的数据进行清洗,剔除数据中的异常值,从而将剔除的异常值按缺失值进行处理,然后对缺失值采用线性插值法进行填充;
S103、数据归一化处理:对经S102的数据进行归一化处理,使预处理后的数据限定在一定的范围内,以消除奇异样本数据导致的不良影响;可以理解的,此处的“奇异样本数据”是指相对于其它输入样本特别大或特别小的样本矢量(即特征向量),由于其会引起训练时间增大,同时也可能导致无法收敛,因此,需要进行数据归一化处理;
S104、数据特征M选取:采用距离相关系数法对S103获取的数据进行筛选,并按时间先后顺序排列,生成二维输入序列;
具体来说,通过距离相关系数法计算数据特征M中各个数据特征和建筑能耗N的距离相关系数R(M,N),当R(M,N)的数值越大时,说明该数据特征和建筑能耗N的相关性越强,也就是我们需要选择的;
具体计算步骤如下:
S1、根据目标函数计算数据特征M和建筑能耗N的Aop和Bop;
aop=|Mo-Mp|;
bop=|No-Np|;
其中,o,p=1,2,3,...,n;
S2、根据目标函数计算数据特征M和建筑能耗N的样本协方差V(M,N);
S3、根据目标函数计算数据特征M和建筑能耗N的距离相关系数R(M,N);
其中,V(M)、V(N)为样本方差。
结合实际例子,可以理解的是,当本模型解码层GRU每时刻输出一组二维输入序列[10,2],其中,“10”表示行数,即每一时刻输出十个结果,“2”表示列数,即分别是输出结果以及权重,最终,解码层输出二维预测能耗数据[10,48]。
此外,本实施例中的贪婪处理的在上述基础上,贪婪处理逻辑层4对每一时刻输出的二维输入序列[10,2]选取权重最大的值作为预测时刻的输出,由此,模型输出的预测数据[1,24]。
结合实际应用进行举例,基于Seq-GRU深度学习模型可以输入任意时间段内建筑能耗相关数据,快速预测之后某段时间内的建筑能耗N,在此设定模型输入七天的历史建筑能耗相关数据,预测后一天的建筑能耗数据,时间粒度为小时;假设在若干个数据特征M中有5个特征符合我们的要求,此时,历史能耗相关数据转化为二维输入序列集合应当为[24*7,6],可以理解的是,一天有24小时,因此,输入七天历史数据,那24*7这一数据就可以得出,而“6”这一数字的得出是在于我们选取了5个特征,然后需要再加上建筑能耗N这一特征;
但需要注意的是,本申请技术方案中所采用的Seq-GRU深度学习模型相较于现有的一些深度学习模型最大优势在于,其输入的历史建筑能耗相关数据可以是任一时长内的,而其输出也可以是任一时长的,具体来说,当输入七天内的历史建筑能耗相关数据,其可以预测后一天的建筑能耗数据,也可以预测后n天的建筑能耗数据。
S105、数据升维处理:将S104中获得的二维输入序列采用Embedding函数将其映射成三维向量,并将所获得的众多三维向量数据集划分为训练集和测试集;具体来说,在本实施例中,将三维向量数据集按照8:2的比例进行划分,其中80%为训练集,20%为测试集,通过较多的训练集对模型进行训练,以提升模型预测的精度。
可选地,S10中三维向量的训练集按时间步输入到Seq-GRU深度学习模型的编码层1中具体的处理步骤如下:
SS1、根据目标函数计算编码层1GRU更新门、重置门状态,
zt=θ(Wz*[ht-1,xt]);
rt=θ(Wr*[ht-1,xt]);
SS2、将SS1获得的rt根据目标函数计算编码层1GRU候选隐藏状态,
gt=tanh(Wg*[rt*ht-1,xt]);
SS3、将SS1获得的zt以及SS2中获得的gt根据目标函数计算编码层1 GRU记忆状态,
ht=(1-zt)*ht-1+zt*gt;
SS4、将SS3获得的ht根据目标函数计算编码层1GRU的输出,
ft=θ(Wy*ht);
其中,zt为t时刻的更新门状态,rt为t时刻的重置门状态,gt为t时刻的候选影藏状态,W为权重系数,ht-1为t-1时刻的记忆,xt为t时刻的输入,ft为t时刻的输出,θ是激活函数。
在采集的历史建筑相关能耗数据中,必然会存在干扰项,我们对其定义为异常值,因此,通过S102对这一类的数据进行清洗,更优地,为了避免在将这一类数据进行清洗后导致数据缺失,影响整个模型后续的预测结果,同时对这一类清理的数据进行线性插值法进行补充,具体内容如下:
采用3sigma对数据进行清洗,具体根据目标函数:
P(|x-μ|>3σ)≤0.003;
其中,μ表示均值,σ表示标准差,当数据超出(μ-3σ,μ+3σ)这一区间时,该数据被标定为异常值;
其次,根据目标函数进行缺陷补充:
其中,(x0,y0)、(x1,y1)为异常值左右的两个值,为补全数据,且/>y0、y1表示时刻值,/>x0、x1表示与/>y0、y1对应的数值。
更优地,考虑到在对异常值进行清理并补充后,为了进一步提升该模型的预测能力,因此,通过S103进行数据的约束,从而以达到目的,而进行归一化的具体方法如下:
根据目标函数:
其中,表示归一化后的数据,x表示原始数据,xmin、xmax分别表示原始数据的最小值以及最大值,可以理解的是,x所表示的原始数据为经过清洗后的数据。
另外,为了进一步提升该深度学习模型对于预测结果的精准性,通过S20、模型参数的修正,将S10获取的中间向量C以及预测时刻的真实能耗同时输入Seq-GRU深度学习模型并结合数据贪婪处理获得修正参数;
值得注意的是,在该步骤中,不仅将S10所获取的中间向量C作为输入输送至Seq-GRU深度学习模型的解码层3,同时,还通过信息输入串口将历史真实建筑能耗Ni输入(图1中表达为实际建筑能耗)将二者共同在解码层3进行训练,从而输出二维数据;
具体来说,本模型在引入注意力机制逻辑层2来进行中间向量C的输出,能够提升模型在运算力方面合理分配,同时增强本模型的运行效率,具体来说,中间向量C是如何在注意力机制逻辑层2产出的具体步骤如下:
根据目标函数获得中间向量C;
其中,n为输入数据的条数,ki为第i条输入数据,ai为第i条输入数据各特征的权值,需要注意的是,此处所述的输入数据为步骤SS4所获得的ft的值。
其次,中间向量C在Seq-GRU深度学习模型中的解码层3进行处理,具体步骤如下:
SSS1、根据目标函数计算解码层3GRU隐藏状态,
st=δ(Wss*st-1);
SSS2、将SSS1获得的st代入目标函数求得解码层3GRU输出的序列数据yt,
yt=γ(Wsy*st);
其中,δ为编码层1GRU的变换函数,γ为编码层1GRU的激活函数,Wss、Wsy分别为解码层3GRU隐藏状态以及输出的权重系数,st为t时刻解码层3GRU的隐藏状态,st-1为t-1时刻解码层3GRU的隐藏状态。
更详细的说,训练集和测试集这二者中所包含的数据特征M和建筑能耗N,这两类数据应当都已是历史真实发生了,而我们将其输入学习模型时,是通过将训练集或测试集进一步分别划分成输入数据和验证数据,当将输入数据输入时,该模型会得出一个预测数据,然后将这个预测数据和验证数据进行比较,即图2中的判定是否与真实建筑能耗相等。
S30、建筑能耗预测;将测试集数据输入经过S20后的Seq-GRU深度学习模型中获得预测建筑能耗数据,从而验证该模型的精度。
为了更进一步对本模型工作原理的理解,对该Seq-GRU深度学习模型对建筑能耗预测的具体流程做如下阐述:首先,采集建筑能耗相关数据集(此处应当是指历史建筑能耗相关数据集),然后,对这些数据集进行预处理,从而获得训练集数据以及测试集数据;
为了确保该模型的一个预测精准度的要求,先将训练集数据输入Seq-GRU深度学习模型中,进行编码,从而获得预测的建筑能耗数据No,由于本身为训练集,因此,其输出的预测的能耗数据No同样会被打上训练标签,此时,会和对应时刻的历史真实建筑能耗数据Ni比对,若其相等,则模型参数无须调整,若其不等,则需要进行模型参数的调整,具体调整方式存在较多现有文件,在此就不做过多赘述,其次,在建筑能耗数据判定完成后,该模型还需要进行迭代次数的判定,若迭代次数为达到设定的迭代次数,则继续进行模型训练,反之,结束训练,此时,
向学习模型的输入测试集,进行历史真实建筑能耗数据Ni的验证。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种建筑能耗预测方法,其特征在于,包括如下步骤:
S10、中间向量C的获取:将训练集数据按时间步输入到Seq-GRU深度学习模型的编码层中,并通过注意力机制对GRU各时间步的输出赋予权重,从而获得中间向量C;
S20、模型参数的修正:将S10获取的中间向量C以及历史真实建筑能耗Ni同时输入Seq-GRU深度学习模型中的解码层,当该Seq-GRU深度学习模型输出的预测建筑能耗No小于或大于历史真实建筑能耗Ni时,结合数据贪婪处理修正模型参数;
S30、建筑能耗预测;将测试集数据输入经过S20后的Seq-GRU深度学习模型中获得预测建筑能耗数据。
2.根据权利要求1所述的一种建筑能耗预测方法,其特征在于,还包括:所述S10中训练集获取的具体步骤如下:
S101、数据采集:采集历史目标时间段内建筑能耗相关数据,该建筑能耗相关数据包括数据特征M以及建筑能耗N,所述数据特征M包括历史时刻、历史温度、历史湿度、历史云覆盖、历史气压、历史风向、历史风速、历史工作日、历史紫外线指数等特征;
S102、数据预处理:对S101所采集到的数据进行清洗,剔除数据中的异常值,从而将剔除的异常值按缺失值进行处理,然后对缺失值采用线性插值法进行填充;
S103、数据归一化处理:对经S102的数据进行归一化处理,使预处理后的数据限定在一定的范围内,以消除奇异样本数据导致的不良影响;
S104、数据特征选取:采用距离相关系数法对S103获取的数据进行筛选,并按时间先后顺序排列,生成二维输入序列;
S105、数据升维处理:将S104中获得的二维输入序列采用Embedding函数将其映射成三维向量数据集,并将所获得的三维向量数据集划分为训练集和测试集。
3.根据权利要求2所述的一种建筑能耗预测方法,其特征在于,所述步骤S102中数据预处理的具体步骤如下:
采用3sigma对数据进行清洗,具体根据目标函数:
P(|x-μ|>3σ)≤0.003;
其中,μ表示均值,σ表示标准差,当数据超出(μ-3σ,μ+3σ)这一区间时,该数据被标定为异常值。
4.根据权利要求3所述的一种建筑能耗预测方法,其特征在于,所述步骤S102中所述线性插值法的具体步骤如下:
根据目标函数:
其中,(x0,y0)、(x1,y1)为异常值左右的两个值,为补全数据,且/>y0、y1表示时刻值,/>x0、x1表示与/>y0、y1对应的数值。
5.根据权利要求4所述的一种建筑能耗预测方法,其特征在于,所述步骤S103中对于数据归一化的具体方法如下:
根据目标函数:
其中,表示归一化后的数据,x表示原始数据,xmin、xmax分别表示原始数据的最小值以及最大值。
6.根据权利要求6所述的一种建筑能耗预测方法,其特征在于,所述步骤S104中对数据特征选取方法的具体内容如下:
S1、根据目标函数计算数据特征M和建筑能耗N的Aop和Bop;
aop=|Mo-Mp|;
bop=|No-Np|;
其中,o,p=1,2,3,...,n;
S2、根据目标函数计算数据特征M和建筑能耗N的样本协方差V(M,N);
S3、根据目标函数计算数据特征M和建筑能耗N的距离相关系数R(M,N);
其中,R(M,N)数值越大,数据特征M和建筑能耗N的相关性越强,V(M)、V(N)为样本方差。
7.根据权利要求1-6中任一项所述的一种建筑能耗预测方法,其特征在于,所述S10中三维向量的训练集按时间步输入到Seq-GRU深度学习模型的编码层中具体的处理步骤如下:
SS1、根据目标函数计算编码层GRU更新门、重置门状态,
zt=θ(Wz*[ht-1,xt]);
rt=θ(Wr*[ht-1,xt]);
SS2、将SS1获得的rt根据目标函数计算编码层GRU候选隐藏状态,
gt=tanh(Wg*[rt*ht-1,xt]);
SS3、将SS1获得的zt以及SS2中获得的gt根据目标函数计算编码层GRU记忆状态,
ht=(1-zt)*ht-1+zt*gt;
SS4、将SS3获得的ht根据目标函数计算编码层GRU的输出,
ft=θ(Wy*ht);
其中,zt为t时刻的更新门状态,rt为t时刻的重置门状态,gt为t时刻的候选影藏状态,W为权重系数,ht-1为t-1时刻的记忆,xt为t时刻的输入,ft为t时刻的输出,θ是激活函数。
8.根据权利要求7所述的一种建筑能耗预测方法,其特征在于,所述S10中的注意力机制具体的处理方法如下:
根据目标函数获得中间向量C;
其中,n为输入数据的条数,ki为第i条输入数据,ai为第i条输入数据各特征的权值。
9.根据权利要求1或8所述的一种建筑能耗预测方法,其特征在于,所述S20者中的中间向量C在Seq-GRU深度学习模型中的解码层进行处理,具体步骤如下:
SSS1、根据目标函数计算解码层GRU隐藏状态,
st=δ(Wss*st-1);
SSS2、将SSS1获得的st代入目标函数求得解码层GRU输出的序列数据yt,
yt=γ(Wsy*st);
其中,δ为编码层GRU的变换函数,γ为编码层GRU的激活函数,Wss、Wsy分别为解码层GRU隐藏状态以及输出的权重系数,st为t时刻解码层GRU的隐藏状态,st-1为t-1时刻解码层GRU的隐藏状态。
10.一种应用于上述权利要求1-9中任一项的Seq-GRU深度学习模型,其特征在于,包括:
编码层,用于预处理后的历史建筑能耗相关数据进行处理获得处理数据;
注意力机制逻辑层,用于对编码层所输出的处理数据进行权重赋予,获取中间向量C;
解码层,用于接收中间向量C同时结合历史真实建筑能耗Ni一起训练,获得二维数据;
贪婪处理逻辑层,用于对二维数据赋予权重,选取权重最大的二维数据数据,并将其于历史真实建筑能耗Ni对比,从而判断是否对模型的参数进行修正;其中,所述解码层电连接有一信息输入串口,用于在模型训练阶段输入历史真实建筑能耗Ni的相关数据信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310442462.8A CN116468175A (zh) | 2023-04-23 | 2023-04-23 | 一种建筑能耗预测方法以及Seq-GRU深度学习模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310442462.8A CN116468175A (zh) | 2023-04-23 | 2023-04-23 | 一种建筑能耗预测方法以及Seq-GRU深度学习模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116468175A true CN116468175A (zh) | 2023-07-21 |
Family
ID=87180435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310442462.8A Pending CN116468175A (zh) | 2023-04-23 | 2023-04-23 | 一种建筑能耗预测方法以及Seq-GRU深度学习模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116468175A (zh) |
-
2023
- 2023-04-23 CN CN202310442462.8A patent/CN116468175A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160620B (zh) | 一种基于端到端记忆网络的短期风电功率预测方法 | |
CN111079836B (zh) | 基于伪标签方法和弱监督学习的过程数据故障分类方法 | |
CN113128113B (zh) | 一种基于深度学习和迁移学习的贫乏信息建筑负荷预测方法 | |
CN111639783A (zh) | 一种基于lstm神经网络的线损预测方法及系统 | |
CN113449919B (zh) | 一种基于特征和趋势感知的用电量预测方法及系统 | |
CN112949902A (zh) | 一种基于lstm多状态向量序列到序列模型的径流预测方法 | |
CN110083125A (zh) | 一种基于深度学习的机床热误差建模方法 | |
CN114254695B (zh) | 一种航天器遥测数据自适应异常检测方法及装置 | |
CN114462718A (zh) | 基于时间滑动窗口的cnn-gru风电功率预测方法 | |
CN116707331B (zh) | 基于模型预测的逆变器输出电压高精度调节方法及系统 | |
CN115146580A (zh) | 基于特征选择和深度学习的集成电路路径延时预测方法 | |
CN114781744A (zh) | 基于编码解码器的深度学习多步长辐照度预测方法 | |
CN116187548A (zh) | 一种光伏发电功率预测方法、装置、存储介质及电子装置 | |
CN115618269A (zh) | 基于工业传感器生产的大数据分析方法及系统 | |
CN117543544A (zh) | 一种负荷预测方法、装置、设备及存储介质 | |
CN103885867A (zh) | 一种模拟电路性能的在线评价方法 | |
CN114971090A (zh) | 一种电供暖负荷预测方法、系统、设备和介质 | |
CN110738363A (zh) | 一种光伏发电功率预测模型及其构建方法和应用 | |
CN110532629A (zh) | 一种多模态退化过程的剩余寿命预测方法 | |
CN116894180B (zh) | 一种基于异构图注意力网络的产品制造质量预测方法 | |
CN113762591A (zh) | 一种基于gru和多核svm对抗学习的短期电量预测方法及系统 | |
CN112232570A (zh) | 一种正向有功总电量预测方法、装置及可读存储介质 | |
CN110852415B (zh) | 基于神经网络算法的植被指数预测方法、系统及设备 | |
CN116468175A (zh) | 一种建筑能耗预测方法以及Seq-GRU深度学习模型 | |
CN114093433B (zh) | 基于观测器的精馏过程单吨能耗预报精度评价方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |