CN115330019A - 一种基于自组织互联模块化神经网络的出水bod预测方法 - Google Patents

一种基于自组织互联模块化神经网络的出水bod预测方法 Download PDF

Info

Publication number
CN115330019A
CN115330019A CN202210810926.1A CN202210810926A CN115330019A CN 115330019 A CN115330019 A CN 115330019A CN 202210810926 A CN202210810926 A CN 202210810926A CN 115330019 A CN115330019 A CN 115330019A
Authority
CN
China
Prior art keywords
network
sub
hidden layer
output
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210810926.1A
Other languages
English (en)
Inventor
乔俊飞
李萌
李文静
苏尹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202210810926.1A priority Critical patent/CN115330019A/zh
Publication of CN115330019A publication Critical patent/CN115330019A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water
    • G01N33/1806Biological oxygen demand [BOD] or chemical oxygen demand [COD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A20/00Water conservation; Efficient water supply; Efficient water use
    • Y02A20/152Water filtration

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Chemical & Material Sciences (AREA)
  • Molecular Biology (AREA)
  • Human Resources & Organizations (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medicinal Chemistry (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biochemistry (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Development Economics (AREA)
  • Food Science & Technology (AREA)
  • Game Theory and Decision Science (AREA)
  • Emergency Medicine (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Activated Sludge Processes (AREA)

Abstract

一种基于自组织互联模块化神经网络的出水BOD预测方法涉及人工智能领域,直接应用于污水处理领域。模块化神经网络是一种由“类脑”模块化属性构建的网络模型,而“类脑”模块化网络的各个模块之间存在着一定的连接,在处理复杂任务时连接或节点根据任务自适应进行调节。因此,本发明设计了一种基于自组织互联模块化神经网络的污水处理出水BOD预测方法,通过模拟“类脑”模块化处理信息的方式,实现对出水BOD浓度的精准预测。

Description

一种基于自组织互联模块化神经网络的出水BOD预测方法
技术领域:
本发明涉及人工智能领域,直接应用于污水处理领域,尤其涉及一种基于自组织互联模块化神经网络的出水BOD预测方法。
背景技术:
生化需氧量(Biochemical Oxygen Demand,BOD)是在一定条件下,微生物分解存在于水中的可生化降解有机物所进行的生物化学反应过程中所消耗的溶解氧的数量。它是反应水中有机污染物的一个重要指标。当前测量出水BOD浓度的方法有微生物电极法,稀释接种法,仪器法等。但同时伴有时间较长,精度低的缺陷。因此,如何低成本、高效率地对出水BOD浓度进行预测是污水处理过程面临的难题。
模块化神经网络是一种由“类脑”模块化属性构建的网络模型,而“类脑”模块化网络的各个模块之间存在着一定的连接,在处理复杂任务时连接或节点根据任务自适应进行调节。因此,本发明设计了一种基于自组织互联模块化神经网络的污水处理出水BOD预测方法,通过模拟“类脑”模块化处理信息的方式,实现对出水BOD浓度的精准预测。
发明内容
1、本发明需要且能够解决的技术问题。
本发明提出了一种基于自组织互联模块化神经网络的污水处理出水BOD预测方法。采用软聚类的方式将输入变量分为若干子集合,每个子集合由不同的子网络进行处理,同时,所有的子网络相互连接,并采用基于梯度的增长策略和基于阈值的修剪策略调整子网络的结构,对污水处理出水BOD进行预测,旨在提高预测精度。
2、本发明具体的技术方案:
1、一种基于自组织互联模块化神经网络的出水BOD预测方法,主要包括:
步骤1:水质变量子集划分;
采集污水处理厂实际水质变量数据,记O为出水BOD浓度,on为出水BOD浓度的第n个样本值,其中n=1,2,…,N;Mf为第f个输入水质变量,其中f=1,2,…,F;F为水质变量个数,N为水质变量的样本个数,
Figure BDA0003740768680000023
为第f个水质变量的第n个样本值;
步骤1.1:设定软聚类算法指标如下:
Figure BDA0003740768680000021
其中,ukf为第f个变量属于第k个聚类的隶属度,α=1.5为模糊系数,wkn为第n个样本在第k类中的权重,vkn为第n个样本在第k个聚类中的中心,γ=0.5为强化参数;
步骤1.2:设定i=1,软聚类算法最大迭代次数Maxc=20,设定聚类总个数K=2,随机在-1至1区间内初始化聚类中心vkn和权重wkn=1/N,其中N为水质变量的样本个数,k=1,2,…,K;n=1,2,…,N;
步骤1.3:按照下式计算第f个水质变量对第k个聚类的隶属度ukf
Figure BDA0003740768680000022
步骤1.4:利用步骤1.3的ukf计算第k个聚类中第n个样本的聚类中心vkn如下:
Figure BDA0003740768680000031
步骤1.5:利用步骤1.3的第f个水质变量对第k个聚类的隶属度ukf和步骤1.4的第k个聚类中第n个样本的聚类中心vkn计算第k个聚类中第n个样本的权重wkn如下:
Figure BDA0003740768680000032
其中e(·)为以e为底的指数函数;
步骤1.6:根据步骤1.3,1.4和1.5的结果计算式(1)的值,记为J(i),当i=1时,i=i+1返回步骤1.3,当i>1时,转为步骤1.7;
步骤1.7:当|J(i)-J(i-1)|<0.001或i>Maxc时软聚类算法结束,其中J为公式(1)定义的软聚类算法指标,执行步骤1.8,否则i=i+1返回步骤1.3;
步骤1.8:利用迭代生成的隶属度ukf对水质变量进行子集划分,设定划分阈值δ=0.3,对第k个聚类,若第f个水质变量的隶属度ukf>δ,则将该水质变量划入该聚类当中,直到所有水质变量划分完毕;
经步骤1,得到K个包含不同水质变量的子集合Zk(k=1,2,…,K);
步骤2:设计预测出水BOD的互联模块化神经网络模型结构;
步骤2.1:将由步骤1获取的K个子集合Zk中的水质变量按照公式(5)归一化至区间-1到1内,其中k=1,2,…,K;输出变量出水BOD按照公式(6)归一化至区间0到1内:
Figure BDA0003740768680000041
j∈Zk且k=1,2,...,K(5)
Figure BDA0003740768680000042
其中,mj表示集合Zk内的第j个水质变量,O表示输出变量,xj和d分别表示归一化后的第j个水质变量和输出变量;然后将每个子集合内的样本分为训练集,验证集,测试集三个部分;
步骤2.2:设计互联模块化神经网络的子网络结构,模型共由K个子网络构成,每个子网络采用具有双隐层的多层感知器,包含输入层,第一隐层,第二隐层及输出层四层结构。每个子网络的初始拓扑结构为zk-H1-H2-1;k=1,2,…,K,其中zk为第k个子网络的输入神经元数量,与集合Zk内的水质变量数量相同,H1和H2分别为第一隐层和第二隐层的神经元数量,输出层神经元数量为1。同时,每个子网络的第二隐层节点与其它子网络的输出节点相连;
设定稀疏率Spa=0.3,对每个子网络所有相邻层之间的权值进行稀疏处理,初始时,输入层到第一隐层的权值数量为zk×H1,第一到第二隐层的权值数量为H1×H2。第二隐层到输出层的权值数量为H2×K,随后分别对每个相邻层内的权值按照从小到大的顺序排序,记排序后的第r个权值作为删减阈值λ=Sr,其中r=层内权值数量×(1-Spa),删除本层内小于λ的权值,被删除的权值视为休眠权值。记稀疏后第k个子网络第一隐层和第二隐层被删除的节点数量分别为
Figure BDA0003740768680000043
Figure BDA0003740768680000044
结构为
Figure BDA0003740768680000045
k=1,2,…,K,其中
Figure BDA0003740768680000046
Figure BDA0003740768680000047
分别为第k个子网络第一隐层和第二隐层的剩余神经元数量,并且满足
Figure BDA0003740768680000048
Figure BDA0003740768680000049
k=1,2,…,K;
步骤2.3:假设对第k个子集合Zk,k=1,2,…,K,第n个输入样本为
Figure BDA0003740768680000051
n=1,2,…,N;此时,第k个子网络的第一隐层第h1个神经元的输出为:
Figure BDA0003740768680000052
其中,
Figure BDA0003740768680000053
为第k个子网络中输入层的第j个节点和第一隐层的第h1个神经元的连接权重,B()子网络第h1个隐含层神经元的激活函数,定义如公式(8)所示:
Figure BDA0003740768680000054
步骤2.4:计算第k个子网络第二隐层第h2个神经元的输出:
Figure BDA0003740768680000055
其中,
Figure BDA0003740768680000056
为第k个子网络中第一隐层的第h1个节点和第二隐层的第h2个神经元的连接权重;
步骤2.5:计算第k个子网络的输出:
Figure BDA0003740768680000057
其中,
Figure BDA0003740768680000058
为第k个子网络中第二隐层的第h2个节点和第k个子网络输出节点的连接权重;
步骤2.6:计算互联模块化神经网络的输出:
Figure BDA0003740768680000059
其中
Figure BDA00037407686800000510
为第k个子网络第n个样本的输出,K为子网络数量。
步骤2.7:选取均方误差函数作为互联模块化神经网络的目标函数:
Figure BDA0003740768680000061
其中dn为输出变量的第n样本的期望输出;
步骤3:互联模块化神经网络结构自组织设计
步骤3.1:设定结构自组织次数lmax=8,令l=1;
步骤3.2:计算当前第n个样本的输出误差:
en=dn-Yn n=1,2,…,N (13)
步骤3.3:在当前神经网络结构下,令向量Δ包含所有子网络当中的权值:
Δ=[Δ12,...,ΔK] (14)
其中,Δk为第k个子网络内的参数,包括各层之间的连接权值
Figure BDA0003740768680000062
Figure BDA0003740768680000063
Figure BDA0003740768680000064
参数更新公式如下:
Δ(t+1)=Δ(t)-(Q(t)+μ(t)I)-1g(t) (16)
其中,t表示迭代步数,Q为类海森矩阵,g为梯度向量,I为单位矩阵,μ为学习率。类海森矩阵及梯度向量分别根据公式(17)和(18)计算得到:
Figure BDA0003740768680000065
Figure BDA0003740768680000071
其中,en为第n个样本的神经网络输出误差,根据式(13)计算,jn为对应样本的雅可比矩阵行向量,定义如下:
jn=[jn,1,jn,2,...,jn,K] (19)
其中,jn,k为第k个子网络的雅各比行向量,定义如下:
Figure BDA0003740768680000072
根据公式(7)-(11)(13),求得:
Figure BDA0003740768680000073
Figure BDA0003740768680000074
Figure BDA0003740768680000075
通过公式(21)-(23),可得到雅可比矩阵的行向量jn,k,当将所有训练样本遍历一遍后,则可得到类海森矩阵Q和梯度向量g,进而根据更新公式(16)对向量Δ内包含的所有子网络当中的连接权值进行更新;
在训练过程中,由公式(12)计算得到t时刻与t+1时刻神经网络的训练目标函数值Etr(t)与Etr(t+1),当Etr(t+1)≤Etr(t)时,学习率μ(t+1)=μ(t)/10,网络内的所有权值参数保留;反之,学习率μ(t+1)=μ(t)×10,网络内的所有权值参数恢复至其更新前,基于当前μ对神经网络参数进行更新,同时在训练时记录每个时刻神经网络在验证集上的目标函数值Eva;设最大迭代步数为Tmax=40,期望误差值为Ed=0.08;参数学习过程经过不断迭代,当迭代步数t=Tmax时,若训练误差Etr>Ed,跳至步骤3.4;若当前训练误差Etr≤Ed但|Etr-Eva|>0.01,|·|为取绝对值,,则跳至步骤3.5;如果当前训练误差Etr≤Ed且|Etr-Eva|≤0.01,则训练停止;
步骤3.4:根据下式计算相邻层之间所有休眠权值的梯度:
Figure BDA0003740768680000081
Figure BDA0003740768680000082
Figure BDA0003740768680000083
其中,
Figure BDA0003740768680000084
Figure BDA0003740768680000085
此时分别代表各层神经元之间的休眠连接权值;
计算跨层神经元间的梯度,跨一层神经元的梯度为:
Figure BDA0003740768680000086
跨二层神经元的梯度为:
Figure BDA0003740768680000091
其中
Figure BDA0003740768680000092
代表输入层第j个输入神经元和第二隐层第h2个神经元之间的连接权值,
Figure BDA0003740768680000093
代表第一隐层第h1个输入神经元和输出层第k个神经元的连接权值;
若l>lmax跳至步骤4;若l<lmax,通过步骤3.4的计算找出所有子网络中相邻层之间休眠权值的梯度和跨层神经元间的梯度的最大值,若最大值出现在
Figure BDA0003740768680000094
Figure BDA0003740768680000095
当中,则将梯度最大值对应的休眠权值重新激活,并在0到1区间内赋随机值,l=l+1,返回步骤3.2;若梯度最大值出现在
Figure BDA0003740768680000096
中,且第一隐层神经元数量小于
Figure BDA0003740768680000097
时,在第k个子网络的第一隐层内添加1个神经元,
Figure BDA0003740768680000098
输入权值和输出权值分别设置为0到1之间的随机数,l=l+1,返回步骤3.2,否则如果第一隐层神经元数量等于
Figure BDA0003740768680000099
时,跳至步骤4;若梯度最大值出现在
Figure BDA00037407686800000910
中,且第二隐层神经元数量小于
Figure BDA00037407686800000911
时,在第k个子网络的第二隐层内添加1个神经元,
Figure BDA00037407686800000912
输入权值和输出权值分别设置为0到1之间的随机数,l=l+1,返回步骤3.2,否则如果第二隐层神经元数量等于
Figure BDA00037407686800000913
时,跳至步骤4;
步骤3.5:设定权值删减阈值Thw=0.1,依次判断每个子网络的各层之间的连接权值
Figure BDA00037407686800000914
Figure BDA00037407686800000915
是否存在小于Thw的值,若存在,则删除,l=l+1,返回步骤3.2,否则结束。
步骤4:将测试样本数据作为训练后的自组织互联模块化神经网络的输入,得到自组织互联模块化神经网络的输出,将其进行反归一化得到出水BOD浓度的预测值。
3、本发明与现有技术相比,具有以下明显的优势和有益效果:
本发明针对当前污水处理过程出水BOD测量精度低等问题,采用软聚类算法将辅助变量划分为若干子集,提出了一种基于自组织互联模块化神经网络的出水BOD预测方法,实现了出水BOD浓度的精准测量,在一定程度上提高了出水BOD的预测精度。
附图说明:
图1为本发明的自组织互联模块化神经网络的结构示意图;
图2为本实施例自组织互联模块化神经网络的训练均方误差变化图;
图3为本实施例出水BOD预测模型的预测结果图;
图4为本实施例出水BOD测试误差图;
图5为本实施例自组织互联模块化神经网络隐层节点数量变化图;
图6为本实施例自组织互联模块化权值数量变化图;
具体实施方式:
本发明提供了一种基于自组织互联模块化神经网络的出水BOD预测方法,实现了出水BOD的精准测量,提高了城市污水处理厂出水BOD的预测精度。
本发明实例采用某污水厂2011年水质分析数据,共包含360组数据,23个水质变量,包括(1)进水PH;(2)出水PH;(3)进水固体悬浮物浓度(Suspended Solid,SS);(4)出水SS;(5)进水BOD浓度;(6)进水化学需氧量(Chemical Oxygen Demand,COD)浓度;(7)出水COD浓度;(8)生化池污泥沉降比(Settling Velocity,SV);(9)生化池混合液悬浮固体浓度(Mixed Liquid Suspended Solids,MLSS);(10)生化池溶解氧浓度(Dissolved Oxygen,DO);(11)进水油类;(12)出水油类;(13)进水氨氮浓度;(14)出水氨氮浓度;(15)进水色度;(16)出水色度;(17)进水总氮浓度;(18)出水总氮浓度;(19)进水磷酸盐浓度;(20)出水磷酸盐浓度;(21)进水水温;(22)出水水温;(23)出水BOD浓度;随机选取219组数据作为训练样本,73组数据作为测试样本,73组数据做为验证样本;
一种基于自组织互联模块化神经网络的出水BOD预测方法包括以下步骤:
步骤1:水质变量子集划分;
采集污水处理厂实际水质变量数据,记O为出水BOD浓度,on为出水BOD浓度的第n个样本值,其中n=1,2,…,N;Mf为第f个输入水质变量,其中f=1,2,…,F;F为水质变量个数,N为水质变量的样本个数,mfn为第f个水质变量的第n个样本值;
步骤1.1:设定软聚类算法指标如下:
Figure BDA0003740768680000111
其中,ukf为第f个变量属于第k个聚类的隶属度,α=1.5为模糊系数,wkn为第n个样本在第k类中的权重,vkn为第n个样本在第k个聚类中的中心,γ=0.5为强化参数;
步骤1.2:设定i=1,软聚类算法最大迭代次数Maxc=20,设定聚类总个数K=2,随机在-1至1区间内初始化聚类中心vkn和权重wkn=1/N,其中N为水质变量的样本个数,k=1,2,…,K;n=1,2,…,N;
步骤1.3:按照下式计算第f个水质变量对第k个聚类的隶属度ukf
Figure BDA0003740768680000121
步骤1.4:利用步骤1.3的ukf计算第k个聚类中第n个样本的聚类中心vkn如下:
Figure BDA0003740768680000122
步骤1.5:利用步骤1.3的第f个水质变量对第k个聚类的隶属度ukf和步骤1.4的第k个聚类中第n个样本的聚类中心vkn计算第k个聚类中第n个样本的权重wkn如下:
Figure BDA0003740768680000123
其中e(·)为以e为底的指数函数;
步骤1.6:根据步骤1.3,1.4和1.5的结果计算式(30)的值,记为J(i),当i=1时,i=i+1返回步骤1.3,当i>1时,转为步骤1.7;
步骤1.7:当|J(i)-J(i-1)|<0.001或i>Maxc时软聚类算法结束,其中J为公式(30)定义的软聚类算法指标,执行步骤1.8,否则i=i+1返回步骤1.3;
步骤1.8:利用迭代生成的隶属度ukf对水质变量进行子集划分,设定划分阈值δ=0.3,对第k个聚类,若第f个水质变量的隶属度ukf>δ,则将该水质变量划入该聚类当中,直到所有水质变量划分完毕;
经步骤1,得到K个包含不同水质变量的子集合Zk,其中k=1,2,…,K;
本实施例中,共得到2个水质变量子集合第一个集合包括:(1)出水PH;(2)进水固体悬浮物浓度(Suspended Solid,SS);(3)进水油类;(4)进水色度;(5)进水总氮浓度;(6)进水磷酸盐浓度;第二个集合包括:(1)进水PH;(2)出水SS;(3)进水BOD浓度;(4)进水化学需氧量(Chemical Oxygen Demand,COD)浓度;(5)出水COD浓度;(6)生化池污泥沉降比(Settling Velocity,SV);(7)生化池混合液悬浮固体浓度(Mixed Liquid SuspendedSolids,MLSS);(8)生化池溶解氧浓度(Dissolved Oxygen,DO);(9)出水油类;(10)进水氨氮浓度;(11)出水氨氮浓度;(12)出水色度;(13)进水总氮浓度;(14)出水总氮浓度;(15)进水磷酸盐浓度;(16)出水磷酸盐浓度;(17)进水水温;(18)出水水温;随机选取219组数据作为训练样本,73组数据作为测试样本,73组数据做为验证样本;
步骤2:设计预测出水BOD的互联模块化神经网络模型结构;
步骤2.1:将由步骤1获取的K个子集合Zk中的水质变量按照公式(34)归一化至区间-1到1内,其中k=1,2,…,K;输出变量出水BOD按照公式(35)归一化至区间0到1内:
Figure BDA0003740768680000131
j∈Zk且k=1,2,...,K (34)
Figure BDA0003740768680000132
其中,mj表示集合Zk内的第j个水质变量,O表示输出变量,xj和d分别表示归一化后的第j个水质变量和输出变量;然后将每个子集合内的样本分为训练集,验证集,测试集三个部分;
步骤2.2:设计互联模块化神经网络的子网络结构,模型共由K个子网络构成,每个子网络采用具有双隐层的多层感知器,包含输入层,第一隐层,第二隐层及输出层四层结构。每个子网络的初始拓扑结构为zk-H1-H2-1;k=1,2,…,K,其中zk为第k个子网络的输入神经元数量,与集合Zk内的水质变量数量相同,H1和H2分别为第一隐层和第二隐层的神经元数量,输出层神经元数量为1。同时,每个子网络的第二隐层节点与其它子网络的输出节点相连;
设定稀疏率Spa=0.3,对每个子网络所有相邻层之间的权值进行稀疏处理,初始时,输入层到第一隐层的权值数量为zk×H1,第一到第二隐层的权值数量为H1×H2。第二隐层到输出层的权值数量为H2×K,随后分别对每个相邻层内的权值按照从小到大的顺序排序,记排序后的第r个权值作为删减阈值λ=Sr,其中r=层内权值数量×(1-Spa),删除本层内小于λ的权值,被删除的权值视为休眠权值。记稀疏后第k个子网络第一隐层和第二隐层被删除的节点数量分别为
Figure BDA0003740768680000141
Figure BDA0003740768680000142
结构为
Figure BDA0003740768680000143
k=1,2,…,K,其中
Figure BDA0003740768680000144
Figure BDA0003740768680000145
分别为第k个子网络第一隐层和第二隐层的剩余神经元数量,并且满足
Figure BDA0003740768680000146
Figure BDA0003740768680000147
k=1,2,…,K;
步骤2.3:假设对第k个子集合Zk,k=1,2,…,K,第n个输入样本为
Figure BDA0003740768680000148
n=1,2,…,N;此时,第k个子网络的第一隐层第h1个神经元的输出为:
Figure BDA0003740768680000151
其中,
Figure BDA0003740768680000152
为第k个子网络中输入层的第j个节点和第一隐层的第h1个神经元的连接权重,B()子网络第h1个隐含层神经元的激活函数,定义如公式(37)所示:
Figure BDA0003740768680000153
步骤2.4:计算第k个子网络第二隐层第h2个神经元的输出:
Figure BDA0003740768680000154
其中,
Figure BDA0003740768680000155
为第k个子网络中第一隐层的第h1个节点和第二隐层的第h2个神经元的连接权重;
步骤2.5:计算第k个子网络的输出:
Figure BDA0003740768680000156
其中,
Figure BDA0003740768680000157
为第k个子网络中第二隐层的第h2个节点和第k个子网络输出节点的连接权重;
步骤2.6:计算互联模块化神经网络的输出:
Figure BDA0003740768680000158
其中
Figure BDA0003740768680000159
为第k个子网络第n个样本的输出,K为子网络数量。
步骤2.7:选取均方误差函数作为互联模块化神经网络的目标函数:
Figure BDA00037407686800001510
其中dn为输出变量的第n样本的期望输出;
步骤3:互联模块化神经网络结构自组织设计
步骤3.1:设定结构自组织次数lmax=8,令l=1;
步骤3.2:计算当前第n个样本的输出误差:
en=dn-Yn n=1,2,…,N (42)
步骤3.3:在当前神经网络结构下,令向量Δ包含所有子网络当中的权值:
Δ=[Δ12,...,ΔK] (43)
其中,Δk为第k个子网络内的参数,包括各层之间的连接权值
Figure BDA0003740768680000161
Figure BDA0003740768680000162
Figure BDA0003740768680000163
参数更新公式如下:
Δ(t+1)=Δ(t)-(Q(t)+μ(t)I)-1g(t) (45)
其中,t表示迭代步数,Q为类海森矩阵,g为梯度向量,I为单位矩阵,μ为学习率。类海森矩阵及梯度向量分别根据公式(46)和(47)计算得到:
Figure BDA0003740768680000164
Figure BDA0003740768680000165
其中,en为第n个样本的神经网络输出误差,根据式(42)计算,jn为对应样本的雅可比矩阵行向量,定义如下:
jn=[jn,1,jn,2,...,jn,K] (48)
其中,jn,k为第k个子网络的雅各比行向量,定义如下:
Figure BDA0003740768680000171
根据公式(37)-(40)(42),求得:
Figure BDA0003740768680000172
Figure BDA0003740768680000173
Figure BDA0003740768680000174
通过公式(50)-(52),可得到雅可比矩阵的行向量jn,k,当将所有训练样本遍历一遍后,则可得到类海森矩阵Q和梯度向量g,进而根据更新公式(45)对向量Δ内包含的所有子网络当中的连接权值进行更新;
在训练过程中,由公式(41)计算得到t时刻与t+1时刻神经网络的训练目标函数值Etr(t)与Etr(t+1),当Etr(t+1)≤Etr(t)时,学习率μ(t+1)=μ(t)/10,网络内的所有权值参数保留;反之,学习率μ(t+1)=μ(t)×10,网络内的所有权值参数恢复至其更新前,基于当前μ对神经网络参数进行更新,同时在训练时记录每个时刻神经网络在验证集上的目标函数值Eva;设最大迭代步数为Tmax=40,期望误差值为Ed=0.08;参数学习过程经过不断迭代,当迭代步数t=Tmax时,若训练误差Etr>Ed,跳至步骤3.4;若当前训练误差Etr≤Ed但|Etr-Eva|>0.01,|·|为取绝对值,,则跳至步骤3.5;如果当前训练误差Etr≤Ed且|Etr-Eva|≤0.01,则训练停止;
步骤3.4:根据下式计算相邻层之间所有休眠权值的梯度:
Figure BDA0003740768680000181
Figure BDA0003740768680000182
Figure BDA0003740768680000183
其中,
Figure BDA0003740768680000184
Figure BDA0003740768680000185
此时分别代表各层神经元之间的休眠连接权值;
计算跨层神经元间的梯度,跨一层神经元的梯度为:
Figure BDA0003740768680000186
跨二层神经元的梯度为:
Figure BDA0003740768680000187
其中
Figure BDA0003740768680000188
代表输入层第j个输入神经元和第二隐层第h2个神经元之间的连接权值,
Figure BDA0003740768680000191
代表第一隐层第h1个输入神经元和输出层第k个神经元的连接权值;
若l>lmax跳至步骤4;若l<lmax,通过步骤3.4的计算找出所有子网络中相邻层之间休眠权值的梯度和跨层神经元间的梯度的最大值,若最大值出现在
Figure BDA0003740768680000192
Figure BDA0003740768680000193
当中,则将梯度最大值对应的休眠权值重新激活,并在0到1区间内赋随机值,l=l+1,返回步骤3.2;若梯度最大值出现在
Figure BDA0003740768680000194
中,且第一隐层神经元数量小于
Figure BDA0003740768680000195
时,在第k个子网络的第一隐层内添加1个神经元,
Figure BDA0003740768680000196
输入权值和输出权值分别设置为0到1之间的随机数,l=l+1,返回步骤3.2,否则如果第一隐层神经元数量等于
Figure BDA0003740768680000197
时,跳至步骤4;若梯度最大值出现在
Figure BDA0003740768680000198
中,且第二隐层神经元数量小于
Figure BDA0003740768680000199
时,在第k个子网络的第二隐层内添加1个神经元,
Figure BDA00037407686800001910
输入权值和输出权值分别设置为0到1之间的随机数,l=l+1,返回步骤3.2,否则如果第二隐层神经元数量等于
Figure BDA00037407686800001911
时,跳至步骤4;
步骤3.5:设定权值删减阈值Thw=0.1,依次判断每个子网络的各层之间的连接权值
Figure BDA00037407686800001912
Figure BDA00037407686800001913
是否存在小于Thw的值,若存在,则删除,l=l+1,返回步骤3.2,否则结束。
在本实施例中,出水BOD预测模型的训练均方误差(MSE)变化图如图2所示,X轴:训练总迭代次数,Y轴:训练MSE
步骤4:将测试样本数据作为训练后的自组织互联模块化神经网络的输入,得到自组织互联模块化神经网络的输出,将其进行反归一化得到出水BOD浓度的预测值。
在本实施例中,出水BOD预测模型的预测结果如图3所示,X轴:测试样本个数,单位是个,Y轴:预测出水BOD浓度值,单位是mg/L,实线为出水BOD浓度预测输出值,虚线为出水BOD浓度期望输出值;测试误差如图4所示,X轴:测试样本个数,单位是个,Y轴:出水BOD预测误差,单位是mg/L;结果表明基于自组织互联模块化神经网络的出水BOD预测方法的有效性。

Claims (1)

1.一种基于自组织互联模块化神经网络的出水BOD预测方法,其特征在于包括以下步骤:
步骤1:水质变量子集划分;
采集污水处理厂实际水质变量数据,记O为出水BOD浓度,on为出水BOD浓度的第n个样本值,其中n=1,2,…,N;Mf为第f个输入水质变量,其中f=1,2,…,F;F为水质变量个数,N为水质变量的样本个数,mfn为第f个水质变量的第n个样本值;
步骤1.1:设定软聚类算法指标如下:
Figure FDA0003740768670000011
其中,ukf为第f个变量属于第k个聚类的隶属度,α=1.5为模糊系数,wkn为第n个样本在第k类中的权重,vkn为第n个样本在第k个聚类中的中心,γ=0.5为强化参数;
步骤1.2:设定i=1,软聚类算法最大迭代次数Maxc=20,设定聚类总个数K=2,随机在-1至1区间内初始化聚类中心vkn和权重wkn=1/N,其中N为水质变量的样本个数,k=1,2,…,K;n=1,2,…,N;
步骤1.3:按照下式计算第f个水质变量对第k个聚类的隶属度ukf
Figure FDA0003740768670000012
步骤1.4:利用步骤1.3的ukf计算第k个聚类中第n个样本的聚类中心vkn如下:
Figure FDA0003740768670000021
步骤1.5:利用步骤1.3的第f个水质变量对第k个聚类的隶属度ukf和步骤1.4的第k个聚类中第n个样本的聚类中心vkn计算第k个聚类中第n个样本的权重wkn如下:
Figure FDA0003740768670000022
其中e(·)为以e为底的指数函数;
步骤1.6:根据步骤1.3,1.4和1.5的结果计算式(1)的值,记为J(i),当i=1时,i=i+1返回步骤1.3,当i>1时,转为步骤1.7;
步骤1.7:当|J(i)-J(i-1)|<0.001或i>Maxc时软聚类算法结束,其中J为公式(1)定义的软聚类算法指标,执行步骤1.8,否则i=i+1返回步骤1.3;
步骤1.8:利用迭代生成的隶属度ukf对水质变量进行子集划分,设定划分阈值δ=0.3,对第k个聚类,若第f个水质变量的隶属度ukf>δ,则将该水质变量划入该聚类当中,直到所有水质变量划分完毕;
经步骤1,得到K个包含不同水质变量的子集合Zk,其中k=1,2,…,K;
步骤2:设计预测出水BOD的互联模块化神经网络模型结构;
步骤2.1:将由步骤1获取的K个子集合Zk中的水质变量按照公式(5)归一化至区间-1到1内,其中k=1,2,…,K;输出变量出水BOD按照公式(6)归一化至区间0到1内:
Figure FDA0003740768670000031
Figure FDA0003740768670000032
其中,mj表示集合Zk内的第j个水质变量,O表示输出变量,xj和d分别表示归一化后的第j个水质变量和输出变量;然后将每个子集合内的样本分为训练集,验证集,测试集三个部分;
步骤2.2:设计互联模块化神经网络的子网络结构,模型共由K个子网络构成,每个子网络采用具有双隐层的多层感知器,包含输入层,第一隐层,第二隐层及输出层四层结构;每个子网络的初始拓扑结构为zk-H1-H2-1;k=1,2,…,K;其中zk为第k个子网络的输入神经元数量,与集合Zk内的水质变量数量相同,H1和H2分别为第一隐层和第二隐层的神经元数量,输出层神经元数量为1;同时,每个子网络的第二隐层节点与其它子网络的输出节点相连;
设定稀疏率Spa=0.3,对每个子网络所有相邻层之间的权值进行稀疏处理,初始时,输入层到第一隐层的权值数量为zk×H1,第一到第二隐层的权值数量为H1×H2;第二隐层到输出层的权值数量为H2×K,随后分别对每个相邻层内的权值按照从小到大的顺序排序,记排序后的第r个权值作为删减阈值λ=Sr,其中r=层内权值数量×(1-Spa),删除本层内小于λ的权值,被删除的权值视为休眠权值;记稀疏后第k个子网络第一隐层和第二隐层被删除的节点数量分别为H1 dk
Figure FDA0003740768670000033
结构为
Figure FDA0003740768670000034
其中
Figure FDA0003740768670000035
Figure FDA0003740768670000041
分别为第k个子网络第一隐层和第二隐层的剩余神经元数量,并且满足
Figure FDA0003740768670000042
Figure FDA0003740768670000043
步骤2.3:假设对第k个子集合Zk,k=1,2,…,K,第n个输入样本为
Figure FDA0003740768670000044
此时,第k个子网络的第一隐层第h1个神经元的输出为:
Figure FDA0003740768670000045
其中,
Figure FDA0003740768670000046
为第k个子网络中输入层的第j个节点和第一隐层的第h1个神经元的连接权重,B()子网络第h1个隐含层神经元的激活函数,定义如公式(8)所示:
Figure FDA0003740768670000047
步骤2.4:计算第k个子网络第二隐层第h2个神经元的输出:
Figure FDA0003740768670000048
其中,
Figure FDA0003740768670000049
为第k个子网络中第一隐层的第h1个节点和第二隐层的第h2个神经元的连接权重;
步骤2.5:计算第k个子网络的输出:
Figure FDA00037407686700000410
其中,
Figure FDA00037407686700000411
为第k个子网络中第二隐层的第h2个节点和第k个子网络输出节点的连接权重;
步骤2.6:计算互联模块化神经网络的输出:
Figure FDA00037407686700000412
其中
Figure FDA0003740768670000051
为第k个子网络第n个样本的输出,K为子网络数量;
步骤2.7:选取均方误差函数作为互联模块化神经网络的目标函数:
Figure FDA0003740768670000052
其中dn为输出变量的第n样本的期望输出;
步骤3:互联模块化神经网络结构自组织设计
步骤3.1:设定结构自组织次数lmax=8,令l=1;
步骤3.2:计算当前第n个样本的输出误差:
en=dn-Ynn=1,2,…,N (13)
步骤3.3:在当前神经网络结构下,令向量Δ包含所有子网络当中的权值:
Δ=[Δ12,...,ΔK] (14)
其中,Δk为第k个子网络内的参数,包括各层之间的连接权值
Figure FDA0003740768670000053
Figure FDA0003740768670000054
Figure FDA0003740768670000055
参数更新公式如下:
Δ(t+1)=Δ(t)-(Q(t)+μ(t)I)-1g(t) (16)
其中,t表示迭代步数,Q为类海森矩阵,g为梯度向量,I为单位矩阵,μ为学习率;类海森矩阵及梯度向量分别根据公式(17)和(18)计算得到:
Figure FDA0003740768670000061
Figure FDA0003740768670000062
其中,en为第n个样本的神经网络输出误差,根据式(13)计算,jn为对应样本的雅可比矩阵行向量,定义如下:
jn=[jn,1,jn,2,...,jn,K] (19)
其中,jn,k为第k个子网络的雅各比行向量,定义如下:
Figure FDA0003740768670000063
根据公式(7)-(11)(13),求得:
Figure FDA0003740768670000064
Figure FDA0003740768670000065
Figure FDA0003740768670000066
通过公式(21)-(23),可得到雅可比矩阵的行向量jn,k,当将所有训练样本遍历一遍后,则可得到类海森矩阵Q和梯度向量g,进而根据更新公式(16)对向量Δ内包含的所有子网络当中的连接权值进行更新;
在训练过程中,由公式(12)计算得到t时刻与t+1时刻神经网络的训练目标函数值Etr(t)与Etr(t+1),当Etr(t+1)≤Etr(t)时,学习率μ(t+1)=μ(t)/10,网络内的所有权值参数保留;反之,学习率μ(t+1)=μ(t)×10,网络内的所有权值参数恢复至其更新前,基于当前μ对神经网络参数进行更新,同时在训练时记录每个时刻神经网络在验证集上的目标函数值Eva;设最大迭代步数为Tmax=40,期望误差值为Ed=0.08;参数学习过程经过不断迭代,当迭代步数t=Tmax时,若训练误差Etr>Ed,跳至步骤3.4;若当前训练误差Etr≤Ed但|Etr-Eva|>0.01,|·|为取绝对值,,则跳至步骤3.5;如果当前训练误差Etr≤Ed且|Etr-Eva|≤0.01,则训练停止;
步骤3.4:根据下式计算相邻层之间所有休眠权值的梯度:
Figure FDA0003740768670000071
Figure FDA0003740768670000072
Figure FDA0003740768670000073
其中,
Figure FDA0003740768670000074
Figure FDA0003740768670000075
此时分别代表各层神经元之间的休眠连接权值;
计算跨层神经元间的梯度,跨一层神经元的梯度为:
Figure FDA0003740768670000076
Figure FDA0003740768670000081
跨二层神经元的梯度为:
Figure FDA0003740768670000082
其中
Figure FDA0003740768670000083
代表输入层第j个输入神经元和第二隐层第h2个神经元之间的连接权值,
Figure FDA0003740768670000084
代表第一隐层第h1个输入神经元和输出层第k个神经元的连接权值;
若l>lmax跳至步骤4;若l<lmax,通过步骤3.4的计算找出所有子网络中相邻层之间休眠权值的梯度和跨层神经元间的梯度的最大值,若最大值出现在
Figure FDA0003740768670000085
Figure FDA0003740768670000086
当中,则将梯度最大值对应的休眠权值重新激活,并在0到1区间内赋随机值,l=l+1,返回步骤3.2;若梯度最大值出现在
Figure FDA0003740768670000087
中,且第一隐层神经元数量小于
Figure FDA0003740768670000088
时,在第k个子网络的第一隐层内添加1个神经元,
Figure FDA0003740768670000089
输入权值和输出权值分别设置为0到1之间的随机数,l=l+1,返回步骤3.2,否则如果第一隐层神经元数量等于
Figure FDA00037407686700000810
时,跳至步骤4;若梯度最大值出现在
Figure FDA00037407686700000811
中,且第二隐层神经元数量小于
Figure FDA00037407686700000812
时,在第k个子网络的第二隐层内添加1个神经元,
Figure FDA00037407686700000813
输入权值和输出权值分别设置为0到1之间的随机数,l=l+1,返回步骤3.2,否则如果第二隐层神经元数量等于
Figure FDA00037407686700000814
时,跳至步骤4;
步骤3.5:设定权值删减阈值Thw=0.1,依次判断每个子网络的各层之间的连接权值
Figure FDA00037407686700000815
Figure FDA00037407686700000816
是否存在小于Thw的值,若存在,则删除,l=l+1,返回步骤3.2,否则结束;
步骤4:将测试样本数据作为训练后的自组织互联模块化神经网络的输入,得到自组织互联模块化神经网络的输出,将其进行反归一化得到出水BOD浓度的预测值。
CN202210810926.1A 2022-07-11 2022-07-11 一种基于自组织互联模块化神经网络的出水bod预测方法 Pending CN115330019A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210810926.1A CN115330019A (zh) 2022-07-11 2022-07-11 一种基于自组织互联模块化神经网络的出水bod预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210810926.1A CN115330019A (zh) 2022-07-11 2022-07-11 一种基于自组织互联模块化神经网络的出水bod预测方法

Publications (1)

Publication Number Publication Date
CN115330019A true CN115330019A (zh) 2022-11-11

Family

ID=83917349

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210810926.1A Pending CN115330019A (zh) 2022-07-11 2022-07-11 一种基于自组织互联模块化神经网络的出水bod预测方法

Country Status (1)

Country Link
CN (1) CN115330019A (zh)

Similar Documents

Publication Publication Date Title
CN108469507B (zh) 一种基于自组织rbf神经网络的出水bod软测量方法
Bagherzadeh et al. Comparative study on total nitrogen prediction in wastewater treatment plant and effect of various feature selection methods on machine learning algorithms performance
Shi et al. Novel performance prediction model of a biofilm system treating domestic wastewater based on stacked denoising auto-encoders deep learning network
Han et al. A soft computing method to predict sludge volume index based on a recurrent self-organizing neural network
CN107358021B (zh) 一种基于优化bp神经网络的do预测模型建立方法
Yang et al. Prediction of effluent quality in a wastewater treatment plant by dynamic neural network modeling
CN106698642A (zh) 一种污水处理过程多目标实时优化控制方法
CN109657790B (zh) 一种基于pso的递归rbf神经网络出水bod预测方法
CN112989704B (zh) 一种基于de算法的irfm-cmnn出水bod浓度预测方法
CN109978024B (zh) 一种基于互联模块化神经网络的出水bod预测方法
Simsek Mathematical modeling of wastewater-derived biodegradable dissolved organic nitrogen
CN103793604A (zh) 一种基于相关向量机的污水处理软测量方法
CN112967763A (zh) 基于模糊神经网络的出水总磷预测方法、电子设备及介质
Grieu et al. KSOM and MLP neural networks for on-line estimating the efficiency of an activated sludge process
CN110991616B (zh) 一种基于删减型前馈小世界神经网络出水bod预测方法
CN115330019A (zh) 一种基于自组织互联模块化神经网络的出水bod预测方法
Güçlü et al. Amelioration of carbon removal prediction for an activated sludge process using an artificial neural network (ANN)
Pai et al. Comparisons of grey and neural network prediction of industrial park wastewater effluent using influent quality and online monitoring parameters
CN110837886A (zh) 一种基于elm-sl0神经网络的出水nh4-n软测量方法
CN113222324B (zh) 一种基于pls-pso-rbf神经网络模型的污水质量监测方法
CN114462208A (zh) 一种基于自组织rbfnn的出水bod在线软测量方法
Qiao et al. Recurrent High Order Neural Network Modeling for Wastewater Treatment Process.
Al-Mutairi et al. Modeling and predicting biological performance of contact stabilization process using artificial neural networks
Heddam et al. Predicting water quality indicators from conventional and nonconventional water resources in Algeria country: Adaptive neuro-fuzzy inference systems versus artificial neural networks
Hanai et al. Application of knowledge information processing methods to biochemical engineering, biomedical and bioinformatics fields

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination