CN117316334A - 一种水厂混凝剂用量预测方法及系统 - Google Patents

一种水厂混凝剂用量预测方法及系统 Download PDF

Info

Publication number
CN117316334A
CN117316334A CN202311619187.9A CN202311619187A CN117316334A CN 117316334 A CN117316334 A CN 117316334A CN 202311619187 A CN202311619187 A CN 202311619187A CN 117316334 A CN117316334 A CN 117316334A
Authority
CN
China
Prior art keywords
data
coagulant
gru
model
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311619187.9A
Other languages
English (en)
Other versions
CN117316334B (zh
Inventor
王冬生
陈乐�
蒋福春
林皓
姚顺洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Water Meter Co ltd
Nanjing University of Posts and Telecommunications
Original Assignee
Suzhou Water Meter Co ltd
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Water Meter Co ltd, Nanjing University of Posts and Telecommunications filed Critical Suzhou Water Meter Co ltd
Priority to CN202311619187.9A priority Critical patent/CN117316334B/zh
Publication of CN117316334A publication Critical patent/CN117316334A/zh
Application granted granted Critical
Publication of CN117316334B publication Critical patent/CN117316334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • G06F18/15Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/10Analysis or design of chemical reactions, syntheses or processes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A20/00Water conservation; Efficient water supply; Efficient water use
    • Y02A20/152Water filtration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Databases & Information Systems (AREA)
  • Analytical Chemistry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Separation Of Suspended Particles By Flocculating Agents (AREA)

Abstract

本发明公开了一种水厂混凝剂用量预测方法及系统,包括以下步骤,步骤1:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据;步骤2:采用门控循环单元自编码器GRU‑AE对历史运行数据进行异常数据检测与替换;步骤3:采用带局部注意力机制的门控循环单元网络LA‑GRU架构,构建混凝剂用量预测模型;步骤4:利用弹性权重整合EWC算法对混凝剂用量预测模型进行增量深度学习;步骤5:将步骤2得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。与现有方法相比,本发明的方法可有效提高混凝剂投加控制精度。

Description

一种水厂混凝剂用量预测方法及系统
技术领域
本发明涉及一种水厂混凝剂用量预测方法,属于水厂净水工艺过程控制与人工智能交叉领域。
背景技术
水厂的净水工艺及管控措施是人民群众饮水安全的重要保障。混凝沉淀工艺涉及混凝剂水解,将沉积物、腐殖质和植物残渣凝聚成较大的颗粒,通过重力沉降将这些颗粒从水中去除,同时附着于颗粒上的细菌、病毒、致病原和藻类等也被去除。传统的混凝剂用量根据进水流量比例投加或瓶试控制,存在人为经验和环境变化的影响,导致控制精度和效率较低。更重要的问题在于,从投加混凝剂、混凝沉淀到砂滤,整个过程至少经历两个小时的滞后时间。这种长时间滞后使得当原水水质因暴雨、大风或其他原因而突然变差时,水厂工作人员难以及时准确地调整混凝剂投加量。因此,提出一种适应原水水质变化和混凝沉淀工艺长时间滞后特性的智能化混凝剂用量预测方法显得非常重要。
近年来,国内外关于混凝剂用量预测方法进行了一些研究工作。例如,国内某水厂采用BP神经网络与贝叶斯优化算法相结合的方法对混凝剂用量进行建模,在6万个样本上的平均绝对误差为3.66 L/h。同时,k均值聚类和自适应神经模糊推理系统相结合的模型也被应用于预测混凝剂用量,并得到了R2>0.8的预测效果。国外研究人员开发了不同的模型来预测所需混凝剂用量。其中,季节性人工神经网络模型和基于减法聚类的人工模糊神经网络模型分别被提出,并在实验中得到了验证:季节性人工神经网络模型的R2值在0.78~0.89之间,基于减法聚类的人工模糊神经网络的R2值在0.63~0.79之间。然而,一般的人工神经网络在寻找最优值的过程中可能会陷入鞍点导致停止优化,同时由于其对于模型初始参数值比较敏感,导致构建模型的难度较高。除此之外,该模型架构由于缺少针对时间序列的处理,导致对具有周期性特征的原水水质和水厂过程变量数据的动态预测效果不佳。
发明内容
本发明所要解决的技术问题:如何在保障饮用水水质安全的前提下,提高净水工艺运行效率和稳定性,同时提升净水工艺运行管控水平,以降低人力成本。
为解决上述技术问题,本发明提供一种水厂混凝剂用量预测方法,包括以下步骤:
步骤1:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据;
步骤2:采用门控循环单元自编码器GRU-AE对历史运行数据进行异常数据检测与替换;
步骤3:采用带局部注意力机制的门控循环单元网络LA-GRU构建混凝剂用量预测模型;
步骤4:利用弹性权重整合EWC算法对混凝剂用量预测模型进行增量深度学习;
步骤5:将步骤2得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。
前述的一种水厂混凝剂用量预测方法,所述步骤1中,所述历史运行数据包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度。
前述的一种水厂混凝剂用量预测方法,在所述步骤2中,门控循环单元自编码器GRU-AE的编码器和解码器均由一系列GRU层组成,GRU层将输入数据压缩为低维表示,并将降低维度的输入数据还原为原始数据,再通过输入数据重构误差来判定输入数据是否异常,GRU网络模型计算公式如下:
(1)
式中,是更新门,/>是重置门,/>是新的候选隐藏状态,/>是更新后的隐藏状态,/>是t时刻的输入向量,/>是前一个时间步的隐藏状态,/>是sigmoid函数,/>是点积运算,分别为更新门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为重置门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为前一时间步的输入权重矩阵、隐含状态权重矩阵和偏置向量;
门控循环单元自编码器GRU-AE的编码器和解码器的公式如下:
编码器:
(2)
式中,是编码器最后一个时间步的隐藏状态,/>是双曲正切函数,/>和/>是编码器最后一个隐含层的权重和偏置,/>是编码器的输出结果;
解码器:
(3)
式中,和/>分别是解码器最后一个隐含层的权重和偏置,/>是重构后的水厂原水水质和过程变量数据,门控循环单元网络自编码器GRU-AE的目标是最小化原始输入数据/>和GRU-AE重构输入数据/>之间的误差,/>和/>分别为/>和/>时刻神经网络的隐含层输出数据;
数据重构误差阈值设置为:
(4)
式中,为水厂原水水质和过程变量数据中特征/>的重构误差阈值区间,/>为该特征的均值,/>为该特征的标准差;
数据重构模型如下:
(5)
式中,为重构后的特征/>在t时刻的数据,/>为基于门控循环单元自编码器GRU-AE的数据重构模型,/>为特征/>在t时刻的经过归一化处理后的数据;
水厂原水水质和过程变量数据异常情况判断如下:
(6)
在水厂原水水质和过程变量数据重构模型的构建过程中,使网络结构输入层和输出层的神经元节点数相等,且内部隐含层的神经元节点数小于等于其他层的节点数。
前述的一种水厂混凝剂用量预测方法,在所述步骤3中,所述带局部注意力机制的门控循环单元网络LA-GRU模型的构建步骤如下:
采用GRU网络模型构建的混凝剂用量预测模型为:
(7)
式中,为t时刻的混凝剂用量预测值,/>为采用GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,/>为混凝剂反应时间,/>为/>时刻的出水浊度;
在GRU网络模型架构中加入局部注意力机制,局部注意力机制的公式如下:
(8)
式中,是注意力权重,/>是局部上下文向量,/>是输入向量,/>是窗口大小,/>和/>分别为前一个隐含层的模型权重和模型偏置,/>为激活函数;
将前一时间步的隐藏状态作为输入,通过一个全连接层根据式(8)计算得到注意力权重/>
表示第/>个输入向量/>在时间步/>的注意力权重,将注意力权重/>应用于输入向量序列/>的/>到/>窗口,通过加权求和的方式来计算局部上下文向量/>
局部上下文向量与前一时间步的隐藏状态/>一起输入到GRU网络模型中,产生当前时间步的隐藏状态/>
前述的一种水厂混凝剂用量预测方法,在所述步骤4中,增量学习的具体步骤如下:
(1)计算历史运行数据中步骤3得到的混凝剂用量预测模型参数的重要性,每个模型参数重要性权重的计算方式如下:
(9)
式中,是Fisher矩阵,用于描述混凝剂用量预测模型参数的变化对模型输出的影响程度,/>是历史运行数据的训练数据集,/>是模型的似然函数,/> 是期望值计算操作,/>是正则化参数,/>表示模型参数/>的重要性程度;
(2)更新每个模型参数,对于每个模型参数,更新方式如下:
(10)
式中,是采用历史运行数据训练得到的混凝剂用量预测模型中的参数,/>是单位矩阵,/>是学习率,/>是新的损失函数,/>是正则化参数,/>是更新后的混凝剂用量预测模型参数。
前述的一种水厂混凝剂用量预测方法,在所述步骤5中,将更新后的混凝剂用量预测模型表示如下:
(11)
式中,为t时刻的混凝剂用量预测值,/>为更新后的采用带有局部注意力机制的GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征。
一种水厂混凝剂用量预测系统,包括以下模块:
数据提取模块:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据;
数据预处理模块:采用门控循环单元自编码器GRU-AE对历史运行数据进行异常数据检测与替换;
预测模型构建模块:采用带局部注意力机制的门控循环单元网络LA-GRU架构,构建混凝剂用量预测模型;
模型深度学习模块:利用弹性权重整合EWC算法对混凝剂用量预测模型进行增量深度学习;
预测结果输出模块:将数据预处理模块得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。
前述的一种水厂混凝剂用量预测系统,所述数据提取模块中,所述历史运行数据包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度。
前述的一种水厂混凝剂用量预测系统,在所述数据预处理模块中,门控循环单元自编码器GRU-AE的编码器和解码器均由一系列GRU层组成,GRU层将输入数据压缩为低维表示,并将降低维度的输入数据还原为原始数据,再通过输入数据重构误差来判定输入数据是否异常,GRU网络模型计算公式如下:
(1)
式中,是更新门,/>是重置门,/>是新的候选隐藏状态,/>是更新后的隐藏状态,/>是t时刻的输入向量,/>是前一个时间步的隐藏状态,/>是sigmoid函数,/>是点积运算,分别为更新门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为重置门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为前一时间步的输入权重矩阵、隐含状态权重矩阵和偏置向量;
门控循环单元自编码器GRU-AE的编码器和解码器的公式如下:
编码器:
(2)
式中,是编码器最后一个时间步的隐藏状态,/>是双曲正切函数,/>和/>是编码器最后一个隐含层的权重和偏置,/>是编码器的输出结果;
解码器:
(3)
式中,和/>分别是解码器最后一个隐含层的权重和偏置,/>是重构后的水厂原水水质和过程变量数据,门控循环单元网络自编码器GRU-AE的目标是最小化原始输入数据/>和GRU-AE重构输入数据/>之间的误差,/>和/>分别为/>和/>时刻神经网络的隐含层输出数据;
数据重构误差阈值设置为:
(4)
式中,为水厂原水水质和过程变量数据中特征/>的重构误差阈值区间,/>为该特征的均值,/>为该特征的标准差;
数据重构模型如下:
(5)
式中,为重构后的特征/>在t时刻的数据,/>为基于门控循环单元自编码器GRU-AE的数据重构模型,/>为特征/>在t时刻的经过归一化处理后的数据;
水厂原水水质和过程变量数据异常情况判断如下:
(6)
在水厂原水水质和过程变量数据重构模型的构建过程中,使网络结构输入层和输出层的神经元节点数相等,且内部隐含层的神经元节点数小于等于其他层的节点数。
前述的一种水厂混凝剂用量预测系统,在所述预测模型构建模块中,所述带局部注意力机制的门控循环单元网络LA-GRU模型的构建步骤如下:
采用GRU网络模型构建的混凝剂用量预测模型为:
(7)
式中,为t时刻的混凝剂用量预测值,/>为采用GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,/>为混凝剂反应时间,/>为/>时刻的出水浊度;
在GRU网络模型架构中加入局部注意力机制,局部注意力机制的公式如下:
(8)
式中,是注意力权重,/>是局部上下文向量,/>是输入向量,/>是窗口大小,/>和/>分别为前一个隐含层的模型权重和模型偏置,/>为激活函数;
将前一时间步的隐藏状态作为输入,通过一个全连接层根据式(8)计算得到注意力权重/>
表示第/>个输入向量/>在时间步/>的注意力权重,将注意力权重/>应用于输入向量序列/>的/>到/>窗口,通过加权求和的方式来计算局部上下文向量/>
局部上下文向量与前一时间步的隐藏状态/>一起输入到GRU网络模型中,产生当前时间步的隐藏状态/>
本发明达到的有益效果:本发明提出的一种基于增量深度学习的水厂混凝剂用量预测方法,采用带门控循环单元网络GRU层的自编码器进行异常数据检测和处理,同时采用GRU架构建立混凝剂用量预测模型,并在预测模型结构中加入局部注意力机制保证模型更小的计算量和更高的可解释性。GRU相比于一般的神经网络,具有针对时序数据的处理机制、更少的参数以及内存占用。并且,混凝剂用量预测模型基于弹性权重整合EWC算法进行快速增量学习,在保护旧知识的前提下提高模型对新数据的适应能力,实际应用效果表明,增量混凝剂用量预测模型能够准确地预测混凝剂用量,提高混凝沉淀过程对原水水质变化的适应性,从而稳定出水浊度。
附图说明
图1是本发明提供的一种水厂混凝剂用量预测方法的工作流程图;
图2是本发明方法实施例1中的训练曲线收敛示意图;
图3是本发明方法实施例1中的异常数据检测过程中原水浊度特征示意图;
图4是本发明方法实施例1中的异常数据检测过程中温度特征示意图;
图5是本发明方法实施例1中的异常数据检测过程中pH值特征示意图;
图6是本发明方法实施例1中的异常数据检测过程中溶解氧特征示意图;
图7是本发明方法实施例1中的异常数据检测过程中耗氧量特征示意图;
图8是本发明方法实施例1中的异常数据检测过程中混凝剂用量特征示意图;
图9是本发明方法实施例1中的异常数据检测过程中进水流量特征示意图;
图10是本发明方法实施例1中的异常数据检测过程中出水浊度特征示意图;
图11是本发明方法实施例1中的测试集预测效果图;
图12是本发明方法实施例1中的测试集残差分布示意图;
图13是本发明方法实施例1中实际运行时的出水浊度效果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例1
如图1所示,本发明提供的一种水厂混凝剂用量预测方法,包括以下步骤:
步骤1:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据,所述历史运行数据包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度;设定期限可以为最近3~5年;
步骤2:采用门控循环单元自编码器(GRU-AE)对历史运行数据进行异常数据检测与替换;
步骤3:采用带局部注意力机制的门控循环单元网络(LA-GRU)架构,构建混凝剂用量预测模型;
步骤4:利用弹性权重整合(EWC)算法对混凝剂用量预测模型进行增量深度学习;
步骤5:将步骤2得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。
在上述步骤1中,构建模型所需要的水厂原水水质和过程变量数据,包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度。在水厂净水工艺运行过程中,使用PLC周期性在线采集对应水质仪表和设备数据并存储到数据库中,然后,从数据库中提取最近3~5年历史运行数据,用于构建混凝剂用量预测模型。
在上述步骤2中,为了提高深度学习模型性能,需要对原始数据进行异常数据检测与替换。异常数据检测目的是发现并处理原始数据异常值,避免异常值对后续数据分析和建模产生不利影响。在进行异常数据处理时,采用门控循环单元网络自编码器(GRU-AE)建立数据重构模型,门控循环单元网络自编码器是一种使用门控循环单元网络(GRU)层代替传统的全连接层的自编码器,用于无监督的特征提取和数据压缩,GRU层是一种循环神经网络,可以更好地捕捉原水水质和过程变量序列数据中的长期依赖关系,在GRU-AE中,编码器和解码器均由一系列GRU层组成,GRU层将输入数据压缩为低维表示,并将降低维度的输入数据还原为原始数据,再通过输入数据重构误差来判定输入数据是否异常,GRU网络模型计算公式如下:
(1)
式中,是更新门,/>是重置门,/>是新的候选隐藏状态,/>是更新后的隐藏状态,/>是t时刻的输入向量,/>是前一个时间步的隐藏状态,/>是sigmoid函数,/>是点积运算,分别为更新门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为重置门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为前一时间步的输入权重矩阵、隐含状态权重矩阵和偏置向量;
GRU-AE的编码器和解码器的公式如下:
编码器:
(2)
式中,是编码器最后一个时间步的隐藏状态,/>是双曲正切函数,/>和/>是编码器最后一个隐含层的权重和偏置,/>是编码器的输出结果;
解码器:
(3)
式中,和/>分别是解码器最后一个隐含层的权重和偏置,/>是重构后的水厂原水水质和过程变量数据,门控循环单元网络自编码器GRU-AE的目标是最小化原始输入数据/>和GRU-AE重构输入数据/>之间的误差,/>和/>分别为/>和/>时刻神经网络的隐含层输出数据;
由于训练集中体现的原水水质和过程变量数据的误差符合高斯分布,故以3σ原则来设定重构误差的阈值,即符合正态分布的数据有99.7%在平均值正负三个标准差的范围内,判定其他0.3%的数据为异常值,具体的数据重构误差阈值设置为:
(4)
式中,为水厂原水水质和过程变量数据中特征/>的重构误差阈值区间,/>为该特征的均值,/>为该特征的标准差;
针对异常检测出的数据,选择以重构的水厂原水水质和过程变量数据作为新值来保证时序数据的连续性,从而达到清洗数据的目的,并尽可能地降低数据噪音对模型的不利影响。
数据重构模型如下:
(5)
式中,为重构后的特征/>在t时刻的数据,/>为基于门控循环单元自编码器GRU-AE的数据重构模型,/>为特征/>在t时刻的经过归一化处理后的数据;
水厂原水水质和过程变量数据异常情况判断如下:
(6)
在水厂原水水质和过程变量数据重构模型的构建过程中,需使网络结构输入层和输出层的神经元节点数相等,且内部隐含层的神经元节点数小于等于其他层的节点数,以使数据重构模型能够从低维度的编码中提取出输入数据的信息。
在所述步骤3中,所述LA-GRU模型的构建步骤如下:
采用GRU网络模型构建的混凝剂用量预测模型为:
(7)
式中,为t时刻的混凝剂用量预测值,/>为采用带有局部注意力机制的GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,包括:原水浊度、温度、pH、溶解氧、耗氧量和进水流量,/>为混凝剂反应时间,/>为/>时刻的出水浊度。
为了降低模型的计算量和增加模型的可解释性,在GRU网络模型架构中加入了局部注意力机制,局部注意力机制只关注一个窗口内的输入数据,从而避免了长序列数据的模糊性问题,提高了模型的准确性和鲁棒性,并且可以减少模型的计算复杂度。局部注意力机制的公式如下:
(8)
式中,是注意力权重,/>是局部上下文向量,/>是输入向量,/>是窗口大小,/>和/>分别为前一个隐含层的模型权重和模型偏置,/>为激活函数。
首先,注意力权重是将前一时间步的隐藏状态/>作为输入,通过一个全连接层根据式(8)计算得到的;然后,/>表示第/>个输入向量/>在时间步/>的注意力权重,通过将/>应用于输入向量序列/>的一部分(即从/>到/>窗口),通过加权求和来计算局部上下文向量;最后,局部上下文向量/>与前一时间步的隐藏状态/>一起输入到GRU网络模型中,产生当前时间步的隐藏状态/>
在上述步骤4中,实时数据变化和模型漂移可能导致预测结果不准确,为了提高水厂混凝剂用量预测模型的准确性,采用弹性权重整合(EWC)算法进行增量学习,弹性权重整合EWC算法可以动态地更新混凝剂用量预测模型的部分参数(权重或者偏置),从而使混凝剂用量预测模型更好地适应新数据,同时保护模型从历史运行数据中学习到的数据拟合关系。在选择更新周期时,需要综合考虑多因素,包括水质变化情况、模型准确度等,一般情况下,更新周期为2~4周。
EWC算法中,在历史运行数据训练完毕后,计算各个混凝剂用量预测模型参数(权重或者偏置)的重要性程度,并将这些模型参数的重要性程度存储下来,在新数据到来时,EWC算法会根据模型参数的重要性程度和新的损失函数更新模型权重。EWC算法通过在损失函数中引入一个正则化项,来限制新数据对重要参数的影响,从而保护旧知识。增量学习的具体步骤如下:
(1)计算历史运行数据中步骤3得到的混凝剂用量预测模型参数的重要性,每个模型参数重要性权重的计算方式如下:
(9)
式中,是Fisher矩阵,用于描述混凝剂用量预测模型参数的变化对模型输出的影响程度,/>是历史运行数据的训练数据集,/>是模型的似然函数,/> 是期望值计算操作,/>是正则化参数,/>表示模型参数/>的重要性程度。
(2)更新每个模型参数,对于每个混凝剂用量预测模型参数,更新方式如下:
(10)
式中,是采用历史运行数据训练得到的混凝剂用量预测模型中的参数,/>是单位矩阵,/>是学习率,/>是新的损失函数,/>是正则化参数,/>是更新后的混凝剂用量预测模型参数。
在所述步骤5中,更新后的混凝剂用量预测模型表示如下:
(11)
式中,为t时刻的混凝剂用量预测值,/>为更新后的采用带有局部注意力机制的GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,包括:原水浊度、温度、pH、溶解氧、耗氧量和进水流量,/>为出水浊度设定值,/>为混凝剂反应时间,/>为/>时刻的出水浊度。
如图2所示,是本发明方法实施例中预测模型的训练收敛示意图,从曲线可知,在有限的迭代中,训练集的误差逐渐下降,同时验证集的误差也降低到了与训练集误差相当的水平,说明混凝剂用量预测模型已经很好的拟合了该数据集,具有准确预测混凝剂用量的能力。
如图3~图10所示,是本发明方法实施例1中的门控循环单元-自编码器(GRU-AE)水质和过程变量数据重构模型针对溶解氧特征的检测效果,由图可知,门控循环单元-自编码器(GRU-AE)水质和过程变量数据重构模型可有效检测出时序数据中的异常点,针对异常数据进行处理,以保证混凝剂用量预测模型训练数据的质量。
如图11~图12所示,是本发明方法实施例1中预测模型的测试集的预测值和预测残差,可以看出混凝剂用量的预测残差均匀分布在0附近,说明该模型的拟合程度很好。同时,基于增量深度学习的水厂混凝剂用量预测模型的预测残差在±1mg/L之内,在测试集中的精度足以满足本发明实施例水厂的应用要求。
如图13所示,是本发明方法实施例1在实际运行过程中的出水浊度,采样间隔为5分钟,共288个数据。可以看到,出水浊度设定值为0.5NTU,本发明的方法可以保持一天99%以上时间的出水浊度实际值与设定值偏差在0.1NTU以内。
本发明提出的水厂混凝剂用量预测方法,通过深度学习和动态增量学习保证混凝剂用量预测的持续准确性,提高对原水水质和过程变化的适应性。通过实时预测混凝剂用量,提高混凝剂投加控制精度,提升净水工艺运行管控水平和降低人力成本,符合当前智慧水务建设需要。
一种水厂混凝剂用量预测系统,包括以下模块:
数据提取模块:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据;
数据预处理模块:采用门控循环单元自编码器GRU-AE对历史运行数据进行异常数据检测与替换;
预测模型构建模块:采用带局部注意力机制的门控循环单元网络LA-GRU构建混凝剂用量预测模型;
模型深度学习模块:利用弹性权重整合EWC算法对混凝剂用量预测模型进行增量深度学习;
预测结果输出模块:将数据预处理模块得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。
所述数据提取模块中,所述历史运行数据包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度。
在所述数据预处理模块中,门控循环单元自编码器GRU-AE的编码器和解码器均由一系列GRU层组成,GRU层将输入数据压缩为低维表示,并将降低维度的输入数据还原为原始数据,再通过输入数据重构误差来判定输入数据是否异常,GRU网络模型计算公式如下:
(1)
式中,是更新门,/>是重置门,/>是新的候选隐藏状态,/>是更新后的隐藏状态,/>是t时刻的输入向量,/>是前一个时间步的隐藏状态,/>是sigmoid函数,/>是点积运算,分别为更新门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为重置门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为前一时间步的输入权重矩阵、隐含状态权重矩阵和偏置向量;
门控循环单元自编码器GRU-AE的编码器和解码器的公式如下:
编码器:
(2)
式中,是编码器最后一个时间步的隐藏状态,/>是双曲正切函数,/>和/>是编码器最后一个隐含层的权重和偏置,/>是编码器的输出结果;
解码器:
(3)
式中,和/>分别是解码器最后一个隐含层的权重和偏置,/>是重构后的水厂原水水质和过程变量数据,门控循环单元网络自编码器GRU-AE的目标是最小化原始输入数据/>和GRU-AE重构输入数据/>之间的误差,/>和/>分别为/>和/>时刻神经网络的隐含层输出数据;
数据重构误差阈值设置为:
(4)
式中,为水厂原水水质和过程变量数据中特征/>的重构误差阈值区间,/>为该特征的均值,/>为该特征的标准差;
数据重构模型如下:
(5)
式中,为重构后的特征/>在t时刻的数据,/>为基于门控循环单元自编码器GRU-AE的数据重构模型,/>为特征/>在t时刻的经过归一化处理后的数据;
水厂原水水质和过程变量数据异常情况判断如下:
(6)
在水厂原水水质和过程变量数据重构模型的构建过程中,使网络结构输入层和输出层的神经元节点数相等,且内部隐含层的神经元节点数小于等于其他层的节点数。
在所述预测模型构建模块中,所述带局部注意力机制的门控循环单元网络LA-GRU模型的构建步骤如下:
采用GRU网络模型构建的混凝剂用量预测模型为:
(7)
式中,为t时刻的混凝剂用量预测值,/>为采用GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,/>为混凝剂反应时间,/>为/>时刻的出水浊度;
在GRU网络模型架构中加入局部注意力机制,局部注意力机制的公式如下:
(8)
式中,是注意力权重,/>是局部上下文向量,/>是输入向量,/>是窗口大小,/>和/>分别为前一个隐含层的模型权重和模型偏置,/>为激活函数;
注意力权重是将前一时间步的隐藏状态/>作为输入,通过一个全连接层根据式(8)计算得到;
表示第/>个输入向量/>在时间步/>的注意力权重,将注意力权重/>应用于输入向量序列/>的一部分,即从/>到/>窗口,通过加权求和的方式来计算局部上下文向量/>
局部上下文向量与前一时间步的隐藏状态/>一起输入到GRU网络模型中,产生当前时间步的隐藏状态/>
在所述模型深度学习模块中,增量学习的具体步骤如下:
(1)计算历史运行数据中步骤3得到的混凝剂用量预测模型参数的重要性,每个模型参数重要性权重的计算方式如下:
(9)
式中,是Fisher矩阵,用于描述混凝剂用量预测模型参数的变化对模型输出的影响程度,/>是历史运行数据的训练数据集,/>是模型的似然函数,/> 是期望值计算操作,/>是正则化参数,/>表示模型参数/>的重要性程度;
(2)更新每个模型参数,对于每个模型参数,更新方式如下:
(10)
式中,是采用历史运行数据训练得到的混凝剂用量预测模型中的参数,/>是单位矩阵,/>是学习率,/>是新的损失函数,/>是正则化参数,/>是更新后的混凝剂用量预测模型参数。
在所述预测结果输出模块中,将更新后的混凝剂用量预测模型表示如下:
(11)
式中,为t时刻的混凝剂用量预测值,/>为更新后的采用带有局部注意力机制的GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者同等替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。

Claims (10)

1.一种水厂混凝剂用量预测方法,其特征在于,包括以下步骤:
步骤1:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据;
步骤2:采用门控循环单元自编码器GRU-AE对历史运行数据进行异常数据检测与替换;
步骤3:采用带局部注意力机制的门控循环单元网络LA-GRU构建混凝剂用量预测模型;
步骤4:利用弹性权重整合EWC算法对混凝剂用量预测模型进行增量深度学习;
步骤5:将步骤2得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。
2.根据权利要求1所述的一种水厂混凝剂用量预测方法,其特征在于,所述步骤1中,所述历史运行数据包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度。
3.根据权利要求1所述的一种水厂混凝剂用量预测方法,其特征在于,在所述步骤2中,门控循环单元自编码器GRU-AE的编码器和解码器均由一系列GRU层组成,GRU层将输入数据压缩为低维表示,并将降低维度的输入数据还原为原始数据,再通过输入数据重构误差来判定输入数据是否异常,GRU网络模型计算公式如下:
(1)
式中,是更新门,/>是重置门,/>是新的候选隐藏状态,/>是更新后的隐藏状态,/>是t时刻的输入向量,/>是前一个时间步的隐藏状态,/>是sigmoid函数,/>是点积运算,/>分别为更新门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为重置门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为前一时间步的输入权重矩阵、隐含状态权重矩阵和偏置向量;
门控循环单元自编码器GRU-AE的编码器和解码器的公式如下:
编码器:
(2)
式中,是编码器最后一个时间步的隐藏状态,/>是双曲正切函数,/>和/>分别是编码器最后一个隐含层的权重和偏置,/>是编码器的输出结果;
解码器:
(3)
式中,和/>分别是解码器最后一个隐含层的权重和偏置,/>是重构后的水厂原水水质和过程变量数据,门控循环单元网络自编码器GRU-AE的目标是最小化原始输入数据/>和GRU-AE重构输入数据/>之间的误差,/>和/>分别为/>和/>时刻神经网络的隐含层输出数据;
数据重构误差阈值设置为:
(4)
式中,为水厂原水水质和过程变量数据中特征/>的重构误差阈值区间,/>为该特征的均值,/>为该特征的标准差;
数据重构模型如下:
(5)
式中,为重构后的特征/>在t时刻的数据,/>为基于门控循环单元自编码器GRU-AE的数据重构模型,/>为特征/>在t时刻的经过归一化处理后的数据;
水厂原水水质和过程变量数据异常情况判断如下:
(6)
在水厂原水水质和过程变量数据重构模型的构建过程中,使网络结构输入层和输出层的神经元节点数相等,且内部隐含层的神经元节点数小于等于其他层的节点数。
4.根据权利要求1所述的一种水厂混凝剂用量预测方法,其特征在于,在所述步骤3中,所述带局部注意力机制的门控循环单元网络LA-GRU模型的构建步骤如下:
采用GRU网络模型构建的混凝剂用量预测模型为:
(7)
式中,为t时刻的混凝剂用量预测值,/>为采用GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,/>为混凝剂反应时间,/>为/>时刻的出水浊度;
在GRU网络模型架构中加入局部注意力机制,局部注意力机制的公式如下:
(8)
式中,是注意力权重,/>是局部上下文向量,/>是输入向量,/>是窗口大小,/>和/>分别为前一个隐含层的模型权重和模型偏置,/>为激活函数;
将前一时间步的隐藏状态作为输入,通过一个全连接层根据式(8)计算得到注意力权重/>
表示第/>个输入向量/>在时间步/>的注意力权重,将注意力权重/>应用于输入向量序列的/>到/>窗口,通过加权求和的方式来计算局部上下文向量/>
局部上下文向量与前一时间步的隐藏状态/>一起输入到GRU网络模型中,产生当前时间步的隐藏状态/>
5.根据权利要求4所述的一种水厂混凝剂用量预测方法,其特征在于,在所述步骤4中,增量学习的具体步骤如下:
(1)计算历史运行数据中步骤3得到的混凝剂用量预测模型参数的重要性,每个模型参数重要性权重的计算方式如下:
(9)
式中,是Fisher矩阵,用于描述混凝剂用量预测模型参数的变化对模型输出的影响程度,/>是历史运行数据的训练数据集,/>是模型的似然函数,/> 是期望值计算操作,/>是正则化参数,/>表示模型参数/>的重要性程度;
(2)更新每个模型参数,对于每个模型参数,更新方式如下:
(10)
式中,是采用历史运行数据训练得到的混凝剂用量预测模型中的参数,/>是单位矩阵,/>是学习率,/>是新的损失函数,/>是正则化参数,/>是更新后的混凝剂用量预测模型参数。
6.根据权利要求5所述的一种水厂混凝剂用量预测方法,其特征在于,在所述步骤5中,将更新后的混凝剂用量预测模型表示如下:
(11)
式中,为t时刻的混凝剂用量预测值,/>为更新后的采用带有局部注意力机制的GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征。
7.一种水厂混凝剂用量预测系统,其特征在于,包括以下模块:
数据提取模块:从水厂数据库中提取原水水质和过程变量在设定期限内的历史运行数据;
数据预处理模块:采用门控循环单元自编码器GRU-AE对历史运行数据进行异常数据检测与替换;
预测模型构建模块:采用带局部注意力机制的门控循环单元网络LA-GRU构建混凝剂用量预测模型;
模型深度学习模块:利用弹性权重整合EWC算法对混凝剂用量预测模型进行增量深度学习;
预测结果输出模块:将数据预处理模块得到的历史运行数据输入到基于增量深度学习的混凝剂用量预测模型中,得到水厂混凝剂用量。
8.根据权利要求7所述的一种水厂混凝剂用量预测系统,其特征在于,所述数据提取模块中,所述历史运行数据包括原水浊度、温度、pH值、溶解氧、耗氧量、混凝剂用量、进水流量和出水浊度。
9.根据权利要求7所述的一种水厂混凝剂用量预测系统,其特征在于,在所述数据预处理模块中,门控循环单元自编码器GRU-AE的编码器和解码器均由一系列GRU层组成,GRU层将输入数据压缩为低维表示,并将降低维度的输入数据还原为原始数据,再通过输入数据重构误差来判定输入数据是否异常,GRU网络模型计算公式如下:
(1)
式中,是更新门,/>是重置门,/>是新的候选隐藏状态,/>是更新后的隐藏状态,/>是t时刻的输入向量,/>是前一个时间步的隐藏状态,/>是sigmoid函数,/>是点积运算,/>分别为更新门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为重置门的输入权重矩阵、隐含状态权重矩阵和偏置向量,/>分别为前一时间步的输入权重矩阵、隐含状态权重矩阵和偏置向量;
门控循环单元自编码器GRU-AE的编码器和解码器的公式如下:
编码器:
(2)
式中,是编码器最后一个时间步的隐藏状态,/>是双曲正切函数,/>和/>是编码器最后一个隐含层的权重和偏置,/>是编码器的输出结果;
解码器:
(3)
式中,和/>分别是解码器最后一个隐含层的权重和偏置,/>是重构后的水厂原水水质和过程变量数据,门控循环单元网络自编码器GRU-AE的目标是最小化原始输入数据/>和GRU-AE重构输入数据/>之间的误差,/>和/>分别为/>和/>时刻神经网络的隐含层输出数据;
数据重构误差阈值设置为:
(4)
式中,为水厂原水水质和过程变量数据中特征/>的重构误差阈值区间,/>为该特征的均值,/>为该特征的标准差;
数据重构模型如下:
(5)
式中,为重构后的特征/>在t时刻的数据,/>为基于门控循环单元自编码器GRU-AE的数据重构模型,/>为特征/>在t时刻的经过归一化处理后的数据;
水厂原水水质和过程变量数据异常情况判断如下:
(6)
在水厂原水水质和过程变量数据重构模型的构建过程中,使网络结构输入层和输出层的神经元节点数相等,且内部隐含层的神经元节点数小于等于其他层的节点数。
10.根据权利要求9所述的一种水厂混凝剂用量预测系统,其特征在于,在所述预测模型构建模块中,所述带局部注意力机制的门控循环单元网络LA-GRU模型的构建步骤如下:
采用GRU网络模型构建的混凝剂用量预测模型为:
(7)
式中,为t时刻的混凝剂用量预测值,/>为采用GRU网络模型构建的混凝剂用量预测模型,/>为t时刻的水厂原水水质和过程变量数据特征,/>为混凝剂反应时间,/>为/>时刻的出水浊度;
在GRU网络模型架构中加入局部注意力机制,局部注意力机制的公式如下:
(8)
式中,是注意力权重,/>是局部上下文向量,/>是输入向量,/>是窗口大小,/>和/>分别为前一个隐含层的模型权重和模型偏置,/>为激活函数;
将前一时间步的隐藏状态作为输入,通过一个全连接层根据式(8)计算得到注意力权重/>
表示第/>个输入向量/>在时间步/>的注意力权重,将注意力权重/>应用于输入向量序列的/>到/>窗口,通过加权求和的方式来计算局部上下文向量/>
局部上下文向量与前一时间步的隐藏状态/>一起输入到GRU网络模型中,产生当前时间步的隐藏状态/>
CN202311619187.9A 2023-11-30 2023-11-30 一种水厂混凝剂用量预测方法及系统 Active CN117316334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311619187.9A CN117316334B (zh) 2023-11-30 2023-11-30 一种水厂混凝剂用量预测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311619187.9A CN117316334B (zh) 2023-11-30 2023-11-30 一种水厂混凝剂用量预测方法及系统

Publications (2)

Publication Number Publication Date
CN117316334A true CN117316334A (zh) 2023-12-29
CN117316334B CN117316334B (zh) 2024-03-12

Family

ID=89250347

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311619187.9A Active CN117316334B (zh) 2023-11-30 2023-11-30 一种水厂混凝剂用量预测方法及系统

Country Status (1)

Country Link
CN (1) CN117316334B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118426430A (zh) * 2024-07-05 2024-08-02 南京邮电大学 基于双阶段注意力机制的混凝剂投加串级控制方法
CN118586746A (zh) * 2024-08-06 2024-09-03 浙江中控信息产业股份有限公司 一种多水源切换下的自来水厂智能混凝剂投加方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095550A (zh) * 2021-03-26 2021-07-09 北京工业大学 基于变分递归网络和自注意力机制的空气质量预测方法
CN113537586A (zh) * 2021-07-12 2021-10-22 浙江大学 集成小波分解与深度神经网络的水质指标多步预测方法
CN113537566A (zh) * 2021-06-16 2021-10-22 广东工业大学 一种基于dccso优化深度学习模型的超短期风电功率预测方法
CN114064623A (zh) * 2021-11-01 2022-02-18 上海威派格智慧水务股份有限公司 一种智能投加模型的生成系统及方法
WO2022090461A1 (en) * 2020-10-30 2022-05-05 Clearbox Ai Solutions S.R.L. A computer-implemented method for generating local explanations and error estimates in machine learning models, as well as a decision support system and computer program implementing said method
CN115611393A (zh) * 2022-11-07 2023-01-17 中节能晶和智慧城市科技(浙江)有限公司 一种多端协同的多水厂混凝剂投放方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022090461A1 (en) * 2020-10-30 2022-05-05 Clearbox Ai Solutions S.R.L. A computer-implemented method for generating local explanations and error estimates in machine learning models, as well as a decision support system and computer program implementing said method
CN113095550A (zh) * 2021-03-26 2021-07-09 北京工业大学 基于变分递归网络和自注意力机制的空气质量预测方法
CN113537566A (zh) * 2021-06-16 2021-10-22 广东工业大学 一种基于dccso优化深度学习模型的超短期风电功率预测方法
CN113537586A (zh) * 2021-07-12 2021-10-22 浙江大学 集成小波分解与深度神经网络的水质指标多步预测方法
CN114064623A (zh) * 2021-11-01 2022-02-18 上海威派格智慧水务股份有限公司 一种智能投加模型的生成系统及方法
CN115611393A (zh) * 2022-11-07 2023-01-17 中节能晶和智慧城市科技(浙江)有限公司 一种多端协同的多水厂混凝剂投放方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LAN HUANG等: "A Text Normalization Method for Speech Synthesis Based on Local Attention Mechanism", 《IEEE ACCESS》, pages 36202 - 36209 *
XIAOQIAN LIU等: "Time-series forecasting based on fuzzy cognitive maps and GRU-autoencoder", APPLICATION OF SOFT COMPUTING, pages 1 - 17 *
余峰等: "基于遗传算法优化BP神经网络的水生态修复原位控浊混凝投药预测", 《环境工程》, pages 154 - 163 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118426430A (zh) * 2024-07-05 2024-08-02 南京邮电大学 基于双阶段注意力机制的混凝剂投加串级控制方法
CN118586746A (zh) * 2024-08-06 2024-09-03 浙江中控信息产业股份有限公司 一种多水源切换下的自来水厂智能混凝剂投加方法

Also Published As

Publication number Publication date
CN117316334B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN117316334B (zh) 一种水厂混凝剂用量预测方法及系统
CN111291937A (zh) 基于支持向量分类与gru神经网络联合的处理污水水质预测方法
CN113177633B (zh) 一种深度解耦时间序列预测方法
CN109583565B (zh) 基于注意力模型长短时记忆网络的洪水预测方法
CN112990556A (zh) 一种基于Prophet-LSTM模型的用户用电能耗预测方法
Qiu et al. Date-driven soft-sensor design for biological wastewater treatment using deep neural networks and genetic algorithms
CN113554466B (zh) 一种短期用电量预测模型构建方法、预测方法和装置
CN110363349B (zh) 一种基于ascs的lstm神经网络水文预测方法及系统
CN114596726B (zh) 基于可解释时空注意力机制的停车泊位预测方法
CN115343784A (zh) 一种基于seq2seq-attention模型的局部气温预测方法
CN114218872A (zh) 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法
CN113065704A (zh) 一种非侵入式负荷分解模型的超参数优化和后处理方法
Bi et al. An improved attention-based LSTM for multi-step dissolved oxygen prediction in water environment
CN115206444A (zh) 基于fcm-anfis模型的最佳投药量预测方法
CN116384572A (zh) 基于多维门控循环单元的序列到序列电力负荷预测方法
Vien et al. A machine learning approach for anaerobic reactor performance prediction using long short-term memory recurrent neural network
CN106453294A (zh) 基于模糊淘汰机制的小生境技术的安全态势预测方法
CN117293790A (zh) 一种考虑预测误差不确定性的短期电力负荷预测方法
Wang et al. A general knowledge-guided framework based on deep probabilistic network for enhancing industrial process modeling
CN117407763A (zh) 一种基于深度强化学习的气候因果发现方法
CN117035152A (zh) 一种基于ssa-lstm-am的污水水质预测方法
CN113283642A (zh) 一种家禽饲料检测与配方系统
CN116306803A (zh) 一种基于wsfa-afe的ilstm神经网络的出水bod浓度预测方法
Cao et al. Deep learning based soft sensor for microbial wastewater treatment efficiency prediction
Juan et al. Multi-step prediction of dissolved oxygen in river based on random forest missing value imputation and attention mechanism coupled with recurrent neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant