CN117473382A - 基于图神经网络的水库水位预测方法 - Google Patents
基于图神经网络的水库水位预测方法 Download PDFInfo
- Publication number
- CN117473382A CN117473382A CN202311385867.9A CN202311385867A CN117473382A CN 117473382 A CN117473382 A CN 117473382A CN 202311385867 A CN202311385867 A CN 202311385867A CN 117473382 A CN117473382 A CN 117473382A
- Authority
- CN
- China
- Prior art keywords
- data
- water level
- graph
- reservoir water
- level prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 24
- 230000003993 interaction Effects 0.000 claims abstract description 8
- 230000007774 longterm Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000009471 action Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 9
- 238000005096 rolling process Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 238000005065 mining Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 125000004122 cyclic group Chemical group 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 101001095088 Homo sapiens Melanoma antigen preferentially expressed in tumors Proteins 0.000 description 1
- 102100037020 Melanoma antigen preferentially expressed in tumors Human genes 0.000 description 1
- 208000037004 Myoclonic-astatic epilepsy Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 238000000874 microwave-assisted extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C13/00—Surveying specially adapted to open water, e.g. sea, lake, river or canal
- G01C13/008—Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
- G06F18/15—Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Hydrology & Water Resources (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出一种基于图神经网络的水库水位预测方法,提出了一种联合LSTM和GCN的水库水位预测模型。通过LSTM提取包含多变量序列的长期、短期时序依赖的潜在特征,在此基础上,引入图结构学习模块,将每个变量视作一个节点来学习不同变量特征之间的相互作用关系。最后,通过GCN将图结构的拓扑信息融入潜在特征中,并进行最终的水位预测。
Description
技术领域
本发明属于水库、湖泊水位预测技术领域,其涉及时序预测,用于多变量时间序列中的长、短期依赖问题及不同变量因素之间的复杂影响问题。尤其涉及一种基于图神经网络的水库水位预测方法。
背景技术
时间序列预测是根据过去的数据观察和分析来预测未来数据表现的任务,而水库水位预测通过挖掘过去的水位及其相关因素数据中的信息预测未来水位,其本质就是时序预测。在现实场景中,水库能保障人类的生产活动及生命安全[1],因此,准确预测水库水位波动具有重要的意义[2]。
随着人工智能、大数据技术的发展,基于数据驱动的水库水位预测成为主流。为了捕获大型水库水位变化规律,刘晓阳等[3]使用了人工神经网络、支持向量机和随机森林构建了以小时为尺度的坝前水位预测模型,为水库短期发电调度提供有效支撑。循环神经网络在提取特征时不仅考虑了当前的输入,还考虑了先前时间步的输出信息,由此引入了时间信息。如刘威等[4]使用基于LSTM网络的模型,学习降雨中心的空间信息和时间依赖信息。GRU[5]网络通过简化门结构减少了模型参数,从而对计算资源需求更少,提高训练效率的同时也更不容易出现过拟合的问题。LSTNet[6]则融合了卷积和循环神经网络的框架,首先使用CNN提取原始数据的局部特征,其次再使用循环神经网络(LSTM或者GRU)捕获CNN提取的特征中的长期依赖关系,有效建立时间依赖关系的同时关注多变量中的相互影响信息。然而,在水库水位预测应用场景中,这些方法不能很好地应对多变量时间序列中对目标序列影响程度不一且复杂的特性,这在一定程度上会影响预报的准确性。
目前,水库水位预测常见方法是使用单一的循环神经网络[7]构建其时序上的依赖关系,循环神经网络通过学习序列数据中的时间信息和先后关系,捕捉序列中出现的周期性模式、趋势或其它特征。但受限于循环神经网络的结构,在多变量序列数据之间的相互影响的特征提取上稍显不足。因此,有学者[8]提出先对时间序列进行卷积处理提取多变量之间的相互影响关系,再使用循环神经网络建立时序依赖关系。使用卷积网络在一定程度上可以提取变量之间的相互作用关系,但卷积网络通常是通过局部感受野和权值共享来实现平移不变性,在某些任务中,平移不变性并不是一个理想的性质。例如,在水库水位预测应用场景中,水库容量富余时无需泄洪,降雨对水库水位影响较大,泄洪影响微小;在水库容量不足时,降雨提高了水库水位,泄洪需要同时作用减小大坝压力,因此泄洪量同降雨都有较大的影响。
[1]黎华东.防洪水库在山区城市防洪的应用研究[J].水利科技与经
济,2023,29(02):121-124.
[2]Wu H,Chen J,Xu J,et al.Effects of dam construction onbiodiversity:A review[J].Journal of cleaner production,2019,221:480-489.
[3]刘晓阳,姚华明,张海荣等.基于机器学习的三峡水库小时尺度坝前水位预测[J].人民长
江,2023,54(02):147-151.DOI:10.16232/j.cnki.1001-4179.2023.02.022.
[4]刘威,尹飞.一种基于LSTM模型的水库水位预测方法[J].无线电工程,2022,52(01):83-87.
[5]Park K,Seong Y,Jung Y,et al.Development of Water Level PredictionImprovement Method Using Multivariate Time Series Data by GRU Model[J].Water,2023,15(3):587.
[6]Lai G,Chang W C,Yang Y,et al.Modeling long-and short-term temporalpatterns with deep neural networks[C]//The 41st international ACM SIGIRconference on research&development in information retrieval.2018:95-104.
[7]Jung S,Cho H,Kim J,et al.Prediction of water level in a tidalriver using a deep-learning based LSTM model[J].Journal of Korea WaterResources Association,2018,51(12):1207-1216.
[8]Pan M,Zhou H,Cao J,et al.Water level prediction model based on GRUand CNN[J].Ieee Access,2020,8:60090-60100.。
发明内容
图卷积网络(Graph Convolutional Network,GCN)可以将数据表示为图的节点,并考虑节点之间的边关系和相互作用,使得GCN能够更好地捕捉时序数据中的依赖关系和相互影响。在此基础上,本发明提出了一种联合LSTM和GCN的水库水位预测模型。通过LSTM提取包含多变量序列的长期、短期时序依赖的潜在特征,在此基础上,引入图结构学习模块,将每个变量视作一个节点来学习不同变量特征之间的相互作用关系。最后,通过GCN将图结构的拓扑信息融入潜在特征中,并进行最终的水位预测。
本发明具体采用以下技术方案:
一种基于图神经网络的水库水位预测方法;采用联合LSTM和GCN的水库水位预测模型;通过LSTM提取包含多变量序列的长期、短期时序依赖的潜在特征,在此基础上,引入图结构学习模块,将每个变量视作一个节点学习不同变量特征之间的相互作用关系;最后,通过GCN将图结构的拓扑信息融入潜在特征中,并进行最终的水位预测。
进一步地,通过记录水库水位、降雨量、泄洪量3个变量的时间序列数据,定义为其中i={1,2,3},代表不同特征序列,n为记录的时间天数;令历史观测天数为d,将问题定义为给定历史观测数据/> 预测水库未来1天的水位Yd+1。
进一步地,首先对数据进行预处理,再通过滑动窗口法对数据切分形成数据集,划分训练集和测试集;数据处理流程步骤如下:
步骤1:数据缺失处理;检查水库水位、降雨量、泄洪量数据序列中的缺失数据,若缺失,使用前一个时间点的数据对缺失点进行填充;
步骤2:数据归一化;对数据进行归一化处理,使其量纲统一,归一化方法如下所示:
其中,为data中的原始数据值,/>为原始数据中第i列的最小值,/>为原始数据中第i列的最大值,x'为归一化后的数据;
步骤3:模型输入、输出处理;对归一化后的数据data处理成模型输入输出的需求大小,根据问题定义,使用窗口滑动的方法,选取长度为d的窗口作为采样片段,从3个特征序列的起始时间点开始,每次移动一个时间单位,直至到数据序列末尾;形成的数据表示为:
Youtput=(yd+1 … yn)
其中,Xinput为模型输入的历史观测数据集合,Youtput为模型标签集,序列y为所需要预测的水库水位数据,用于与模型预测输出值比较。
进一步地,在水位预测中,使用LSTM作为时序编码器对输入数据编排,嵌入时序特征。
进一步地,引入图结构学习模块学习变量之间的深层关系;在时序编码器模块中提取出嵌入特征E后将各变量的特征展平形成1维的张量,随后使用多层感知机与非线性函数学习特征内的作用关系,用于表示节点间的联系;其次将张量与其自身的转置相乘形成矩阵再正则化;最后用Top-k函数排序机制选择节点的前k个最近邻,用以生成多元序列作用关系图,即邻接矩阵A,为图卷积网络深入挖掘不同因素之间的深层作用关系提供保障。
进一步地,使用图卷积网络充当关系编码器挖掘节点间的深层作用;执行过程如下:
其中,Hl为各个节点的特征集合,初始输入H1为嵌入特征E;A为图结构的邻接矩阵,由图结构模块学习得到;表示矩阵A的度矩阵,其对角线上的元素表示每个节点的度数(即与该节点相连的边的数量),第i个度数由对应i行的j列值求和得出;Wl为第l层的权重参数,σ为非线性激活函数。
进一步地,获得关系编码器挖掘的深层特征HL后,将每个样本中的多个变量特征表示进行拼接,并将其表示为最后通过MLP输出预测水位,其过程如下所示:
其中,ω为多层感知机的权重参数,b为偏置向量,为预测水位,用于与真实水库水位值Yd+1比较预测精度。
与现有技术相比,本发明及其优选方案提出一种LSTM-GCN的水库水位预测模型,其利用图结构显式建模多变量间的关联关系,并借助GCN进行表征学习和预测。引入一种图结构学习模块,使水库水位及相关变量之间的关联关系能被模型自动捕捉,而非人为进行设定。
此外,在真实水库数据上展开广泛实验,通过与多个模型算法对比,本发明算法具有更好的预测表现和鲁棒性。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
图1本发明实施例算法网络模型架构示意图;
图2LSTM网络结构示意图;
图3 LSTM-GCN模型预测值与真实值示意图;
图4对比本发明实施例模型预测值与真实值示意图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,作详细说明如下:
本发明实施例算法的总体框架如下:1问题定义
如图1所示,在本发明中,记录有水库水位、降雨量、泄洪量3个变量的时间序列数据,定义为其中i={1,2,3},代表不同特征序列,n为记录的时间天数。而在实际应用中,通常以固定的时间序列数据预测未来水位;因此令历史观测天数为d,则问题定义为给定历史观测数据/> 预测水库未来1天的水位Yd+1。
2数据预处理
为使数据便于模型使用同时避免误差或量纲差异带来影响,首先对数据进行预处理,再通过滑动窗口法对数据切分形成数据集,最后以7:3的比例划分为训练集和测试集。数据处理流程步骤如下:
步骤1:数据缺失处理。检查水库水位、降雨量、泄洪量数据序列中的缺失数据,若缺失,使用前一个时间点的数据对缺失点进行填充。
步骤2:数据归一化。对数据进行归一化处理,使其量纲统一,更适合模型学习,归一化方法如下所示:
其中,为data中的原始数据值,/>为原始数据中第i列的最小值,/>为原始数据中第i列的最大值,x'为归一化后的数据。
步骤3:模型输入、输出处理。对归一化后的数据data处理成模型输入输出的需求大小,根据问题定义,在此使用窗口滑动的方法,选取长度为d的窗口作为采样片段,从3个特征序列的起始时间点开始,每次移动一个时间单位(1天),直至到数据序列末尾。形成的数据可表示为:
Youtput=(yd+1 … yn)
其中Xinput为模型输入的历史观测数据集合,Youtput为模型标签集(序列y即所需要预测的水库水位数据),用于与模型预测输出值比较。
3时序编码器
在水位预测中,对时序上的依赖建模是必不可少的,而长短期记忆(LSTM)网络通过在结构中引入门函数,很好地解决长、短期依赖问题[9]。因此我们使用LSTM作为时序编码器对输入数据编排,嵌入时序特征。LSTM网络结构如图2所示,其中xt(xt∈X)为t时刻的输入;ct-1与ht-1分别为t-1时刻的细胞状态和隐藏状态,通过多个门结构作用更新为ct与ht即t时刻的细胞状态和隐藏状态。具体上,ft为遗忘门,用于遗忘上个细胞状态中无用的信息;it为输入门,它联合候选态决定将新的信息添加到细胞状态中,通过遗忘门与输入门作用细胞状态完成一次更新;ot为输出门,它联合更新后的细胞状态输出我们需要的信息;σ与tanh为非线性激活函数,其中σ产生0~1之间的值,用于信息的直接记忆或遗忘,tanh函数输出值限制在-1~1之间,符合多数特征以0为分布中心,如图2所示。
更新过程如下:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot*th(ct)
其中:Wf、Wi、Wc、Wo为遗忘门、输入门、候选态、更新门对应的权重向量,bf、bi、bc、bo则为对应的偏置向量。最后将观测数据3个特征序列输入,时序编码器对每个时刻数据作用得到的隐藏状态ht按照先后顺序拼接为一个嵌入特征E。
4图结构学习
常见的图结构数据中,节点之间的关系明确,易于构建。例如,交通预测中的图结构可通过空间位置构建[10];社交网络中的图结构可根据用户间的社会关系构建[11]。然而,水位预测中多变量间的作用关系是不明确的,且在不同水库受地理因素、气候等影响因而具有特异性,难以人为进行定义。因此,我们引入图结构学习模块学习变量之间的深层关系。具体来说,在时序编码器模块中提取出嵌入特征E后将各变量的特征展平形成1维的张量,随后使用多层感知机(Multi Layer Perceptron,MLP)与非线性函数学习特征内的作用关系,用于表示节点间的联系;其次将张量与其自身的转置相乘形成矩阵再正则化;最后用Top-k函数排序机制选择节点的前k个最近邻,用以生成多元序列作用关系图(即邻接矩阵A),为GCN深入挖掘不同因素之间的深层作用关系提供保障。其多元序列作用关系图生成的伪代码如算法1所示。
算法1:多元序列作用关系图生成算法
输入:嵌入特征E
输出:多元序列作用关系图A(即邻接矩阵A)
1.V←Flatten(E)//将嵌入特征展平得到张量V
2.//使用非线性函数学习特征的内部联系得到张量/>
3.//使用Matmul函数计算出一个矩阵
4.K_norm=Normalization(K)//对矩阵K进行归一化操作
5.A=Top-k{K_norm}//根据top-k排序机制选择前k个最近邻生成多元序列作用关系图
5关系编码器
图卷积网络(GCN)是一种基于图结构数据的深度学习模型,它可以有效地处理不归则的图数据,其基本思想是对节点之间的依赖关系进行建模,将每个节点的特征与其相邻节点的特征进行卷积操作,再将卷积结果聚合,得到一个新的表示。因此我们使用GCN充当关系编码器挖掘节点间的深层作用。执行过程如下:
其中,Hl为各个节点的特征集合,初始输入H1为嵌入特征E;A为图结构的邻接矩阵,由图结构模块学习得到;表示矩阵A的度矩阵,其对角线上的元素表示每个节点的度数(即与该节点相连的边的数量),第i个度数由对应i行的j列值求和得出;Wl为第l层的权重参数,σ为非线性激活函数。
5 MLP与预测输出
获得关系编码器挖掘的深层特征HL后,将每个样本中的多个变量特征表示进行拼接,并将其表示为最后通过MLP输出预测水位,其过程如下所示:
其中,ω为多层感知机的权重参数,b为偏置向量,为预测水位,用于与真实水库水位值Yd+1比较预测精度。
以下对本发明实施例方案进行验证和评估:
1评价标准
为了评估本发明算法,以均方误差(MSE)、平均绝对误差(MAE)、平均绝对百分比误差(MAPE)作为模型的评价标准。三个指标中,MSE对离群值更敏感,能捕捉预测偏离情况,MAE对于异常值的鲁棒性更强,MAPE则可以帮助我们评估模型在不同数据点上的预测能力。评价标准的值越小,则表示其预测效果越好。公式如下所示:
其中为预测值,yi为观测记录的真实值。
2定性比较
为验证本发明算法的预测效果,将对比模型算法和我们的算法进行定性比较,在预处理后的测试集中输出可视化后的预测结果。
如图3、图4所示,相比较于图4,图3的LSTM-GCN模型拟合真实水库水位更加准确;而图4中的RNN、LSTM、GRU、LSTNet模型也能够大致拟合真实水库水位数据,但相比较于LSTM-GCN模型,RNN、LSTM、GRU、LSTNet模型在水位变化的节点上预测值波动剧烈,在高水位上预测偏低,在现实中可能会造成更恶劣的影响。本文模型在时序编码器中嵌入时序特征的基础上,又凭借关系编码器深入挖掘不同时段不同因素的内部作用信息,一定程度上减小预测水位的波动,提高拟合精度。
表1各模型算法在测试集上的定量比较
3定量比较
表1显示了各模型在测试集上的评价结果。LSTM-GCN模型在构建时序依赖关系的同时利用图卷积网络挖掘多变量数据之间的复杂关系,因此具有竞争力的预测表现。相比较于对比模型RNN、LSTM、GRU、LSTNet,MSE分别降低29.89%、18.68%、13.83%、18.21%,MAE分别降低26.91%、7.70%、1.56%、8.11%,MAPE分别降低27.46%、7.44%、1.61%、7.70%。
[9]Yu Y,Si X,Hu C,et al.A review of recurrent neural networks:LSTMcells and network architectures[J].Neural computation,2019,31(7):1235-1270.
[10]户佐安,邓锦程,韩金丽等.图神经网络在交通预测中的应用综述[J/OL].交通运输工程学报:1-25[2023-07-14].http://kns.cnki.net/kcms/detail/61.1369.u.20230530.1422.002.html
[11]Awasthi A K,Garov A K,Sharma M,et al.GNN Model Based On NodeClassification Forecasting in Social Network[C]//2023International Conferenceon Artificial Intelligence and Smart Communication(AISC).IEEE,2023:1039-1043.
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的基于图神经网络的水库水位预测方法,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。
Claims (7)
1.一种基于图神经网络的水库水位预测方法,其特征在于;采用联合LSTM和GCN的水库水位预测模型;通过LSTM提取包含多变量序列的长期、短期时序依赖的潜在特征,在此基础上,引入图结构学习模块,将每个变量视作一个节点学习不同变量特征之间的相互作用关系;最后,通过GCN将图结构的拓扑信息融入潜在特征中,并进行最终的水位预测。
2.根据权利要求1所述的基于图神经网络的水库水位预测方法,其特征在于:通过记录水库水位、降雨量、泄洪量3个变量的时间序列数据,定义为 其中i={1,2,3),代表不同特征序列,m为记录的时间天数;令历史观测天数为d,将问题定义为给定历史观测数据/>d<n,X∈data,预测水库未来1天的水位Yd+1。
3.根据权利要求2所述的基于图神经网络的水库水位预测方法,其特征在于:
首先对数据进行预处理,再通过滑动窗口法对数据切分形成数据集,划分训练集和测试集;数据处理流程步骤如下:
步骤1:数据缺失处理;检查水库水位、降雨量、泄洪量数据序列中的缺失数据,若缺失,使用前一个时间点的数据对缺失点进行填充;
步骤2:数据归一化;对数据进行归一化处理,使其量纲统一,归一化方法如下所示:
其中,为data中的原始数据值,/>为原始数据中第i列的最小值,/>为原始数据中第i列的最大值,x'为归一化后的数据;
步骤3:模型输入、输出处理;对归一化后的数据data处理成模型输入输出的需求大小,根据问题定义,使用窗口滑动的方法,选取长度为d的窗口作为采样片段,从3个特征序列的起始时间点开始,每次移动一个时间单位,直至到数据序列末尾;形成的数据表示为:
Youtput=(yd+1…yn)
其中,Xinput为模型输入的历史观测数据集合,Youtput为模型标签集,序列y为所需要预测的水库水位数据,用于与模型预测输出值比较。
4.根据权利要求3所述的基于图神经网络的水库水位预测方法,其特征在于:在水位预测中,使用LSTM作为时序编码器对输入数据编排,嵌入时序特征。
5.根据权利要求4所述的基于图神经网络的水库水位预测方法,其特征在于:引入图结构学习模块学习变量之间的深层关系;在时序编码器模块中提取出嵌入特征E后将各变量的特征展平形成1维的张量,随后使用多层感知机与非线性函数学习特征内的作用关系,用于表示节点间的联系;其次将张量与其自身的转置相乘形成矩阵再正则化;最后用Top-k函数排序机制选择节点的前k个最近邻,用以生成多元序列作用关系图,即邻接矩阵A,为图卷积网络深入挖掘不同因素之间的深层作用关系提供保障。
6.根据权利要求5所述的基于图神经网络的水库水位预测方法,其特征在于:使用图卷积网络充当关系编码器挖掘节点间的深层作用;执行过程如下:
其中,Hl为各个节点的特征集合,初始输入H1为嵌入特征E;A为图结构的邻接矩阵,由图结构模块学习得到;表示矩阵A的度矩阵,其对角线上的元素表示每个节点的度数,第i个度数由对应i行的j列值求和得出;Wl为第l层的权重参数,σ为非线性激活函数。
7.根据权利要求6所述的基于图神经网络的水库水位预测方法,其特征在于:
获得关系编码器挖掘的深层特征HL后,将每个样本中的多个变量特征表示进行拼接,并将其表示为最后通过MLP输出预测水位,其过程如下所示:
其中,ω为多层感知机的权重参数,b为偏置向量,为预测水位,用于与真实水库水位值Yd+1比较预测精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311385867.9A CN117473382A (zh) | 2023-10-24 | 2023-10-24 | 基于图神经网络的水库水位预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311385867.9A CN117473382A (zh) | 2023-10-24 | 2023-10-24 | 基于图神经网络的水库水位预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117473382A true CN117473382A (zh) | 2024-01-30 |
Family
ID=89632375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311385867.9A Pending CN117473382A (zh) | 2023-10-24 | 2023-10-24 | 基于图神经网络的水库水位预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117473382A (zh) |
-
2023
- 2023-10-24 CN CN202311385867.9A patent/CN117473382A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205028B2 (en) | Estimating physical parameters of a physical system based on a spatial-temporal emulator | |
CN114220271A (zh) | 基于动态时空图卷积循环网络的交通流预测方法、设备及存储介质 | |
CN110138595A (zh) | 动态加权网络的时间链路预测方法、装置、设备及介质 | |
CN113516304B (zh) | 基于时空图网络的区域污染物时空联合预测方法及装置 | |
CN114330935B (zh) | 基于多种结合策略集成学习的新能源功率预测方法和系统 | |
CN109344992B (zh) | 一种融合时空因素的智能家居用户操控行为习惯建模方法 | |
Massaoudi et al. | Performance evaluation of deep recurrent neural networks architectures: Application to PV power forecasting | |
CN113449919B (zh) | 一种基于特征和趋势感知的用电量预测方法及系统 | |
CN114971748B (zh) | 预测数据生成、模型训练方法、计算机设备以及存储介质 | |
Maddu et al. | Prediction of land surface temperature of major coastal cities of India using bidirectional LSTM neural networks | |
Hu et al. | Air quality prediction using spatio-temporal deep learning | |
CN113240219A (zh) | 一种土地利用模拟及预测方法 | |
Asaei-Moamam et al. | Air quality particulate-pollution prediction applying GAN network and the Neural Turing Machine | |
Guo et al. | Learning and integration of adaptive hybrid graph structures for multivariate time series forecasting | |
CN116702992A (zh) | 一种发电功率预测方法、装置、电子设备及存储介质 | |
CN113537607B (zh) | 停电预测方法 | |
CN117473382A (zh) | 基于图神经网络的水库水位预测方法 | |
CN115759413A (zh) | 一种气象预测方法、装置、存储介质及电子设备 | |
Suhartono et al. | Hybrid Machine Learning for Forecasting and Monitoring Air Pollution in Surabaya | |
Geiß et al. | Anticipating a risky future: LSTM models for spatiotemporal extrapolation of population data in areas prone to earthquakes and tsunamis in Lima, Peru | |
CN117408394B (zh) | 电力系统的碳排放因子预测方法、装置及电子设备 | |
Kahraman et al. | Comparison of the Effect of Regularization Techniques and Lookback Window Length on Deep Learning Models in Short Term Load Forecasting | |
Deshpande et al. | Physics-Informed Deep Learning with Kalman Filter Mixture: A New State Prediction Model | |
Shan et al. | A Deep Learning Model with Attention-BiLSTM Networks Combining XGBoost Residual Correction for Short-Term Water Demand Forecast | |
Kierul | Neural Network Models for the Prediction of Time Series Representing Water Consumption: A Comparative Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |