CN116610973A - 一种传感器故障监测及失效信息重构方法及系统 - Google Patents
一种传感器故障监测及失效信息重构方法及系统 Download PDFInfo
- Publication number
- CN116610973A CN116610973A CN202310420475.5A CN202310420475A CN116610973A CN 116610973 A CN116610973 A CN 116610973A CN 202310420475 A CN202310420475 A CN 202310420475A CN 116610973 A CN116610973 A CN 116610973A
- Authority
- CN
- China
- Prior art keywords
- sensor
- data
- value
- model
- reconstruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 238000012544 monitoring process Methods 0.000 title claims abstract description 14
- 239000002245 particle Substances 0.000 claims abstract description 65
- 230000015654 memory Effects 0.000 claims abstract description 61
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 238000005457 optimization Methods 0.000 claims abstract description 16
- 230000002159 abnormal effect Effects 0.000 claims abstract description 11
- 238000012847 principal component analysis method Methods 0.000 claims abstract description 10
- 238000012360 testing method Methods 0.000 claims description 38
- 239000013598 vector Substances 0.000 claims description 37
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 25
- 210000004027 cell Anatomy 0.000 claims description 24
- 230000006978 adaptation Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 230000005856 abnormality Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010219 correlation analysis Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 230000007787 long-term memory Effects 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000009960 carding Methods 0.000 claims description 3
- 230000001413 cellular effect Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 20
- 230000002829 reductive effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000012804 iterative process Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 238000005312 nonlinear dynamic Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000016273 neuron death Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G21—NUCLEAR PHYSICS; NUCLEAR ENGINEERING
- G21C—NUCLEAR REACTORS
- G21C17/00—Monitoring; Testing ; Maintaining
- G21C17/02—Devices or arrangements for monitoring coolant or moderator
- G21C17/035—Moderator- or coolant-level detecting devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Plasma & Fusion (AREA)
- High Energy & Nuclear Physics (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
Abstract
本发明提出了一种传感器故障监测及失效信息重构方法及系统,首先基于鲁棒性改进的主元分析方法对核电厂传感器故障检测与故障辨识;然后基于最大互信息系数、卷积自编码器、长短时记忆网络和自注意力机制对核电厂传感器的失效信息进行重构;最后基于改进粒子群优化算法的超参数自动寻优;本发明的方法能够实现鲁棒性更强的传感器故障检测以及速度更快、准确度更高的传感器失效信息重构;能够在准确检测出蒸汽发生器水位传感器示数异常的同时,准确判别异常原因是“虚假水位”所致还是传感器故障所致,并能够准确、快速地对蒸汽发生器的异常水位信息就行重构,保证控制系统的正常运行,提高了核电厂的安全性与经济性。
Description
技术领域
本发明属于传感器信息重构技术领域,具体地,涉及一种传感器故障监测及失效信息重构方法及系统。
背景技术
由于核动力装置的复杂性和安全性问题,对仪器和设备的运行状态进行监测显得尤为重要。而保证传感器测量值的准确性和有效性则是实现状态监测的基础。由于核电厂传感器的特殊工作环境,传感器故障的概率相对较高。作为核电厂中连接一、二回路的关键设备,U形管式蒸汽发生器是一个具有非线性与最小相位的复杂系统,有着“虚假水位”的现象,即功率突变导致的给水流量、蒸汽流量突变会使蒸汽发生器水位在短时间内反向变化,水位的反向变化在具体表现上与传感器故障类似,可能导致控制系统的错误判断。因此,在核电厂的实际运行过程中,有必要对蒸汽发生器的水位传感器进行状态监测,并且要能够区分故障是“虚假水位”导致的还是传感器本身故障导致的。同时针对“虚假水位”或传感器故障导致的数据异常,有必要对蒸汽发生器的水位信息进行重构,保证控制系统的正常运作。
因此,需要针对传感器故障检测和失效信息重构进行研究;用重构值暂时代替失效值,为人为替换失效传感器提供一段缓冲期,在检测出蒸汽发生器水位传感器示数异常的同时,准确判别异常原因是“虚假水位”所致还是传感器故障所致,确保核动力装置的正常运行。
发明内容
针对上述问题,本发明提出了一种传感器故障监测及失效信息重构方法及系统,选用基于数据驱动的状态监测方法中的主元分析法对核电厂传感器进行故障检测、采用深度学习方法对传感器失效信息进行重构;采用信号处理领域的Savitzky-Golay滤波器处理测试数据的统计量曲线与统计量曲线,。
本发明通过以下技术方案实现:
一种传感器故障监测及失效信息重构方法:
所述方法具体包括以下步骤:
步骤1,建立核电厂的传感器模型,采用基于数据驱动的主元分析方法对传感器故障检测与故障辨识;
步骤2,根据步骤1建立的传感器模型,获取不同工况下各传感器的运行数据,进行基于最大互信息系数的不同工况特征相关性分析,选取重构参考特征,构建传感器失效信息重构模型;
步骤3,根据步骤2的失效信息重构模型,使用改进粒子群优化算法,进行超参数自动寻优,将多轮迭代计算得到的群体历史最优位置作为重构模型超参数的取值;
步骤4:完成步骤3后进行模型验证与测试;手动插入传感器故障数据,调用重构模型对故障数据进行重构,分析重构值与真实值在归一化之后的误差。
进一步地,在步骤1中,
步骤1.1:利用核电厂全范围仿真机获取多种工况正常运行下的传感器原始测量数据Xm×n,其中n为待监测传感器总数,m为测量样本总数,建立核电厂的传感器模型;
步骤1.2:依据式(1)、(2),对原始测量数据Xm×n进行标准差标准化处理;
式中,Xj为第j个传感器的原始运行数据;E(Xj)为第j个传感器的原始运行数据的均值;D(Xj)是第j个传感器的原始运行数据的标准差;Xj *是第j个传感器标准化后的数据,Xj *的均值为0,标准差为1;Xm×n *为原始测量数据标准化后的矩阵;
步骤1.3:依据式(3),近似求解标准化矩阵X*的协方差矩阵∑;
步骤1.4:根据矩阵分解定理,对∑进行特征值分解,得到∑的特征值λ1,λ2,...λn(λ1≥λ2≥...≥λn)和与之对应的标准特征向量P1,P2,...,Pn;
Σ=P×diag(λ1,λ2,…,λn)×PT (4)
式中,正交矩阵P=[P1,P2,...,Pn];diag(λ1,λ2,...,λn)表示以λ1,λ2,...,λn为对角线元素的n阶对角矩阵;
步骤1.5:采用累积方差贡献率法,以CPV≥90%为判断依据选取k个主元;
式中,特征值λ反映了每个主元包含信息的多少;PV表示第i个主元包含的信息占原始数据总信息量的百分比;CPV表示前k个主元所包含原始信息的总百分比;
步骤1.6:用前k个主元的特征向量组成主元空间和剩余(n-k)个主元组成残差空间/>则某一时刻的测试向量可用式(6)表示:
式中,xn×1为某一时刻的测试向量,包含该时刻下n个传感器的示数;和/>分别是xn×1在主元空间和残差空间内的投影;/>为主元空间投影矩阵,/>为残差空间投影矩阵;
步骤1.7:依据式(7)、(8),按照划分的主元空间和残差空间计算Hotelling’s T2,即T2统计量的阈值Tα 2,以及平方预测误差SPE,即Q统计量的阈值Qα;
式中,Fα(k,n-k)表示带有k和n-k个自由度,置信水平为α的F分布的临界值;λi为Σ的特征值;k为主元个数;cα为标准正态分布的(1-α)置信限值。
进一步地,在步骤1中还包括:
步骤1.8:开始进行故障检测,输入传感器实时数据测试向量xn×1,并依据式(2)对其进行标准化处理得到x*;
步骤1.9:依据式(9)、(10),计算该时刻下测试向量xn×1的T2统计量与Q统计量;
式中,Λk=diag(λ1,λ2,…,λk);
步骤1.10:依据式(11),使用S-G滤波方法处理T2统计量与Q统计量随时间变化的曲线;
式中,为对应统计量的拟合值;Yj+1为对应统计量的原始输入值;Ci为第i个统计量滤波时的系数;m为半个滤波窗口的宽度;N为滤波器长度,等于滑动数组的宽度(2m+1);
步骤1.11:若经过S-G滤波方法处理后的T2统计量与Q统计量均未超过对应的阈值,则表明系统运行正常;
若经过S-G滤波方法处理后的T2统计量或Q统计量超过了对应的阈值,说明出现了异常,但异常的原因仍需进一步分析判断;
步骤1.12:进行故障辨识,依据式(12)、(13)计算xn×1中第i个传感器对Q统计量的贡献率Qi和对T2统计量的贡献率Ti 2,定位测试向量xn×1中出现异常的传感器;
若各传感器贡献率分布均匀则表明异常原因为系统层级的故障;
若某一传感器的贡献率显著偏高则表明异常原因为该传感器失效;
式中,t表示xn×1的得分向量, 表示传感器变量xj对第j个得分向量tj的贡献率;xi=[0,…0,xi,0…,0]T。
进一步地,在步骤2中,
步骤2.1:若故障来源是目标传感器,则调用重构模型对失效传感器的数据进行重构;
步骤2.2:利用核电厂全范围仿真机获取目标工况下各传感器的运行数据;
步骤2.3:分析传感器之间的统计相关性;依据式(14)分别计算不同功率稳态与多种事故工况下参考传感器与目标传感器的最大互信息系数;
式中,a(X;Y)表示X与Y的最大互信息系数;表示某一M、N取值下,X与Y的最大互信息值;
步骤2.4:选取重构参考传感器;选出稳态工况下最大互信息系数排行前十的传感器,在其他事故工况下选出最大互信息数排行前五的传感器,然后在挑选出的传感器中取并集,得到重构模型参考传感器组合;
步骤2.5:构造重构模型数据集;对全范围仿真机运行数据进行处理,剔除与目标传感器相关程度低的传感器,保留步骤2.4选择的传感器;
步骤2.6:数据标准化处理;依据式(15),对步骤2.5选取的传感器运行数据进行min-max标准化处理,消除不同传感器量纲不同的影响,加快重构模型的收敛速度;
式中,x*表示某一传感器归一化后的数据;x表示某一传感器归一化之前的数据;min表示某一传感器样本数据中的最小值;max表示某一传感器样本数据中的最大值;
步骤2.7:使用滑窗法构造重构模型输入数据,运行数据时间间隔为0.25s,滑动时窗长度设置为2.5s,将步骤2.6所得到的二维张量(n×m)转换为三维张量((n-10+1)×(10×m))。
进一步地,在步骤2中还包括,
步骤2.8:在TensorFlow框架下搭建由卷积自编码器、长短时记忆网络、自注意机制堆叠形成的深度学习网络结构;该模型由输入层、多层卷积层、池化层、上采样层、多层长短时记忆网络层、自注意层、全连接层与输出层逐层连接而成;
步骤2.9:结合卷积层与池化层构建卷积自编码器的编码层;采用一维卷积运算对数据进行特征提取;
结合卷积层与上采样层构建卷积自编码器的解码层,将数据特征还原为原始数据;数据通过多层卷积自编码器之后输出到长短时记忆网络层中;
步骤2.10:构建长短时记忆网络;LSTM网络使用门(gate)机制对信息的流通与损失进行控制;分别表示为:
输入门(门限):决定了多少比例的信息会被存入当前细胞态;
it=σ(Wi·[ht-1,xt]+bi) (16)
遗忘门(门限):将细胞态中的信息选择性遗忘;
ft=σ(Wf·[ht-1,xt]+bf) (17)
输出门(门限):将细胞态中的信息选择性进行输出;
ot=σ(Wo·[ht-1,xt]+bo) (18)
以上三式中,Wi、Wf、Wo是待训练的参数矩阵;bi、bf、bo是待训练偏置项;σ为sigmoid激活函数;
记忆体ht表征短期记忆,是当前细胞态经过输出门得到的:
ht=ot*tanh(Ct) (19)
候选态表征归纳出的待存入细胞态的新知识,是当前时刻的输入特征xt和上个时刻的短期记忆ht-1的函数:
细胞态Ct表示长期记忆,等于上个时刻的长期记忆Ct-1通过遗忘门的值和当前时刻归纳出的新知识通过输入门的值之和:
总的计算流程为:遗忘门,输入门和输出门通过sigmoid函数决定上一时刻信息中需要舍弃的内容ft,需要保留的内容it和需要输出的内容ot;本时刻输出的内容ot与细胞态Ct决定了记忆体ht;上一时刻的记忆体ht-1和本时刻的输入xt决定了该时刻的候选态本时刻的输入门it,输出门ot,上一时刻的细胞态Ct和本时刻的候选态/>共同决定了本时刻的细胞态Ct,然后以此类推针对每一个时间步长进行反复计算;
步骤2.11:在长短时记忆网络层与自注意层之间加入Dropout操作;
步骤2.12:引入自注意力机制;首先依据式(22)、(23)和(24)对长短时记忆网络的输出结果X进行线性变换得到Q、K、V;
式中,WQ、WK和WV是待训练的参数矩阵;
自注意层的输出向量可由式(25)计算得到:
式中,i,j∈[1,N]为输出和输入向量的位置,连接权重αij由注意力机制动态生成;
步骤2.13:依据式(26),采用ELU函数作为模型全连接层的激活函数,α的取值为0.2;
步骤2.14:依据式(27),采用均分误差(MSE)作为损失函数;
进一步地,在步骤3中,
步骤3.1:训练重构模型;将数据集随机打乱并按一定比例划分为训练集和测试集,选用Adam优化器训练模型;
步骤3.2:梳理重构模型的所有超参数并确定对应超参数的可行解域:卷积层的层数、卷积核大小、卷积步长、池化层大小、上采样层大小、长短时记忆网络的层数和单元内部隐藏层的大小、全连接层的层数和每层神经元个数,以及Dropout的比例;
步骤3.3:初始化粒子群中每一个粒子的位置信息,每个粒子的位置可由式(28)表示;
Xi=(xi1,xi2,…,xiD) (28)
式中,Xi是第i个粒子的位置;xi1,xi2,…,xiD是步骤27所述超参数的取值;
步骤3.4:计算每一个粒子的适应值fi;以粒子的位置Xi作为重构模型超参数取值,采用步骤2.13和步骤2.14所述的损失函数和优化方法训练模型,将训练后模型的重构误差作为粒子的适应值;
步骤3.5:更新每一个粒子的个体历史最优适应值fi,p和个体历史最优位置Pi,pbest;如果粒子目前位置下的适应值比个体历史最优适应值小,则更新该粒子的个体历史最优适应值和最优位置;
步骤3.6:更新群体的历史最优适应值fg和最优位置Pgbest;如果某个粒子的个体历史最优适应值比群体的历史最优适应值小,则更新群体的历史最优适应值和最优位置;
步骤3.7:依据式(29),更新每一个粒子的速度;
式中,Vi k+1为第i个粒子在第k+1轮迭代时的速度;为第i个粒子在第k轮迭代时的速度;/>为第i个粒子在第k轮迭代时的个体最优位置;/>为第k轮迭代时的群体最优位置;/>表示第i个粒子在k轮迭代时的位置;c1为个体学习因子,取值为2;c2为群体学习因子,取值为2;r1,r2为区间[0,1]内的随机数;ωk为自适应惯性权重,ωk依据式(30)更新,其中ωstart取经验值0.9,ωend取经验值0.4;
步骤3.8:依据式(31),更新每一个粒子的位置;
步骤3.9:重复步骤3.3到步骤3.7直到达到最大迭代次数,将多轮迭代计算得到的群体历史最优位置Pgbest作为重构模型超参数的取值。
一种传感器故障监测及失效信息重构系统:
所述系统包括模型建立及故障检测模块、失效信息重构模块、超参数自动寻优模块和验证测试模块;
所述模型建立及故障检测模块,用于建立核电厂的传感器模型,采用基于数据驱动的主元分析方法对传感器故障检测与故障辨识;
所述失效信息重构模块,根据模型建立及故障检测模块建立的传感器模型,获取不同工况下各传感器的运行数据,进行基于最大互信息系数的不同工况特征相关性分析,选取重构参考特征,构建传感器失效信息重构模型;
所述超参数自动寻优模块,根据失效信息重构模块的失效信息重构模型,使用改进粒子群优化算法,进行超参数自动寻优,将多轮迭代计算得到的群体历史最优位置作为重构模型超参数的取值;
所述验证测试模块,用于在完成超参数自动寻优后,进行模型验证与测试;手动插入传感器故障数据,调用重构模型对故障数据进行重构,分析重构值与真实值在归一化之后的误差。
一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时实现上述方法的步骤。
本发明有益效果
本发明采用具有明显降噪效果的基于数据驱动的主元分析方法对传感器进行故障检测,并采用深度学习方法进行传感器失效信息重构,不需要建立系统精确的数学模型,也不需要分析系统内传感器变量间的因果关系及详细专家知识库,对核电厂中数量庞大的传感器而言具有很大的优越性;
主元分析法中的两个关键统计量对数据噪声十分敏感,容易发生误报警,本发明采用信号处理领域的Savitzky-Golay滤波器处理测试数据的统计量曲线与统计量曲线,在滤除噪声的同时可以确保信号的形状、宽度不变,抑制了因随机噪声导致的统计量突增,经过Savitzky-Golay滤波器处理后的T2统计量与Q统计量曲线变得更加平滑,减少了模型的误报警,使故障检测的结果更加可靠。
本发明在同步考虑时间和空间维度特征的情况下提高了模型的准确度与泛化能力,并引用了自注意力机制,通过给数据的不同位置赋予不同权重来实现计算资源的合理分配,把重点放在对当前任务最重要的部分上,降低对其他信息的关注度,有效降低了模型的计算负担,提高了模型的运行效率;粒子群算法用于寻找重构模型的最优超参数组合,可实现对有“虚假水位”现象的蒸汽发生器水位传感器进行重构,保证了控制系统的正常运作,具有重要的应用价值。
本发明搭建深度学习模型,用系统其他传感器不同时刻下的示数作为模型的输入,对蒸汽发生的水位传感器的失效信息进行重构;利用互信息能够捕捉变量间非线性相关性的特点,在建立重构模型之前计算了各传感器与目标传感器之间的最大互信息系数,基于最大互信息系数选取了一组与蒸汽发生器水位传感器相关程度高的传感器作为重构模型的输入,避免了“维度灾难”“过拟合”等问题,有效提高了模型的准确度与泛化能力。
在搭建深度学习模型的过程中,本发明的方法利用卷积自编码器与长短时记忆网络同时提取原始运行数据的空间维度特征与时间维度特征,有效提高了模型的拟合能力;还在长短时记忆网络与全连接输出层之间引入了自注意力机制,通过对数据的不同部分赋予权重实现了资源的合理分配,提高了模型的运行效率;
本发明用非线性的自适应惯性权重代替粒子群算法中的常数惯性权重,使惯性权值跟随迭代过程而自动调整,增强了算法的全局搜索能力,有效避免了超参数寻优过程陷入局部最优。
综上所述,相对于现有技术,本发明的方法能够实现鲁棒性更强的传感器故障检测以及速度更快、准确度更高的传感器失效信息重构;能够在准确检测出蒸汽发生器水位传感器示数异常的同时,准确判别异常原因是“虚假水位”所致还是传感器故障所致,并能够准确、快速地对蒸汽发生器的异常水位信息就行重构,保证控制系统的正常运行,提高了核电厂的安全性与经济性。
附图说明
图1为本发明基于鲁棒性改进的主元分析方法对传感器故障检测与故障辨识流程;
图2为基于最大互信息系数、卷积自编码器、长短时记忆网络和自注意力机制的传感器失效信息重构模型;
图3为本发明基于改进粒子群优化算法的超参数自动寻优流程。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种传感器故障监测及失效信息重构方法:
所述方法具体包括以下步骤:
步骤1,建立核电厂的传感器模型,采用基于数据驱动的主元分析方法对传感器故障检测与故障辨识;
步骤2,根据步骤1建立的传感器模型,获取不同工况下各传感器的运行数据,进行基于最大互信息系数的不同工况特征相关性分析,选取重构参考特征,构建传感器失效信息重构模型;
步骤3,根据步骤2的失效信息重构模型,使用改进粒子群优化算法,进行超参数自动寻优,将多轮迭代计算得到的群体历史最优位置作为重构模型超参数的取值;
步骤4:完成步骤3后进行模型验证与测试;手动插入传感器故障数据,调用重构模型对故障数据进行重构,分析重构值与真实值在归一化之后的误差。
在步骤1中,步骤1.1:利用核电厂全范围仿真机获取多种工况正常运行下的传感器原始测量数据Xm×n,其中n为待监测传感器总数,m为测量样本总数,建立核电厂的传感器模型;
步骤1.2:依据式(1)、(2),对原始测量数据Xm×n进行标准差标准化处理,以消除实际运行过程中不同传感器读数数量级上的差异;
式中,Xj为第j个传感器的原始运行数据;E(Xj)为第j个传感器的原始运行数据的均值;D(Xj)是第j个传感器的原始运行数据的标准差;Xj *是第j个传感器标准化后的数据,Xj *的均值为0,标准差为1;Xm×n *为原始测量数据标准化后的矩阵;
步骤1.3:依据式(3),近似求解标准化矩阵X*的协方差矩阵∑;
步骤1.4:根据矩阵分解定理,对∑进行特征值分解,得到∑的特征值λ1,λ2,...λn(λ1≥λ2≥...≥λn)和与之对应的标准特征向量P1,P2,...,Pn;
Σ=P×diag(λ1,λ2,…,λn)×PT (4)
式中,正交矩阵P=[P1,P2,...,Pn];diag(λ1,λ2,...,λn)表示以λ1,λ2,...,λn为对角线元素的n阶对角矩阵;
步骤1.5:采用累积方差贡献率法(CumulativePercentageVariance,CPV),以CPV≥90%为判断依据选取k个主元,达到用少量主元表征所有传感器运行状态的目的;
式中,特征值λ反映了每个主元包含信息的多少;PV表示第i个主元包含的信息占原始数据总信息量的百分比;CPV表示前k个主元所包含原始信息的总百分比;
步骤1.6:用前k个主元的特征向量组成主元空间和剩余(n-k)个主元组成残差空间/>则某一时刻的测试向量可用式(6)表示:
式中,xn×1为某一时刻的测试向量,包含该时刻下n个传感器的示数;和/>分别是xn×1在主元空间和残差空间内的投影;/>为主元空间投影矩阵,/>为残差空间投影矩阵;
步骤1.7:依据式(7)、(8),按照划分的主元空间和残差空间计算Hotelling’s T2,即T2统计量的阈值Tα 2,以及平方预测误差SPE(SquaredPredictionError,SPE),即Q统计量的阈值Qα;
式中,Fα(k,n-k)表示带有k和n-k个自由度,置信水平为α的F分布的临界值;λi为Σ的特征值;k为主元个数;cα为标准正态分布的(1-α)置信限值。
步骤1.8:开始进行故障检测,输入传感器实时数据测试向量xn×1,并依据式(2)对其进行标准化处理得到x*;
步骤1.9:依据式(9)、(10),计算该时刻下测试向量xn×1的T2统计量与Q统计量;
式中,Λk=diag(λ1,λ2,…,λk);
步骤1.10:依据式(11),使用S-G滤波方法处理T2统计量与Q统计量随时间变化的曲线,消除因随机噪声而带来的波动,减少误报警;
式中,为对应统计量的拟合值;Yj+1为对应统计量的原始输入值;Ci为第i个统计量滤波时的系数;m为半个滤波窗口的宽度;N为滤波器长度,等于滑动数组的宽度(2m+1);
步骤1.11:若经过S-G滤波方法处理后的T2统计量与Q统计量均未超过对应的阈值,则表明系统运行正常;
若经过S-G滤波方法处理后的T2统计量或Q统计量超过了对应的阈值,说明出现了异常,但异常的原因仍需进一步分析判断;
步骤1.12:进行故障辨识,依据式(12)、(13)计算xn×1中第i个传感器对Q统计量的贡献率Qi和对T2统计量的贡献率Ti 2,定位测试向量xn×1中出现异常的传感器;
若各传感器贡献率分布均匀则表明异常原因为系统层级的故障;
若某一传感器的贡献率显著偏高则表明异常原因为该传感器失效;
式中,t表示xn×1的得分向量, 表示传感器变量xj对第j个得分向量tj的贡献率;xi=[0,…0,xi,0…,0]T。/>
在步骤2中,步骤2.1:若故障来源是目标传感器,则调用重构模型对失效传感器的数据进行重构;
步骤2.2:利用核电厂全范围仿真机获取目标工况下各传感器的运行数据;
步骤2.3:分析传感器之间的统计相关性;依据式(14)分别计算不同功率稳态与多种事故工况下参考传感器与目标传感器的最大互信息系数(Maximal InformationCoefficient,MIC);
式中,a(X;Y)表示X与Y的最大互信息系数,本质上是一种归一化互信息,屏蔽了互信息绝对值的数量级差异;表示某一M、N取值下,X与Y的最大互信息值;
步骤2.4:选取重构参考传感器;由于核电厂大部分时间处于稳态工况,只在极少数时间处于事故工况,本发明选出稳态工况下最大互信息系数排行前十的传感器,在其他事故工况下选出最大互信息数排行前五的传感器,然后在挑选出的传感器中取并集,得到重构模型参考传感器组合;
步骤2.5:构造重构模型数据集;对全范围仿真机运行数据进行处理,剔除与目标传感器相关程度低的传感器,保留步骤2.4选择的传感器;
步骤2.6:数据标准化处理;依据式(15),对步骤2.5选取的传感器运行数据进行min-max标准化处理,消除不同传感器量纲不同的影响,加快重构模型的收敛速度;
式中,x*表示某一传感器归一化后的数据;x表示某一传感器归一化之前的数据;min表示某一传感器样本数据中的最小值;max表示某一传感器样本数据中的最大值;
步骤2.7:使用滑窗法构造重构模型输入数据,运行数据时间间隔为0.25s,滑动时窗长度设置为2.5s,将步骤2.6所得到的二维张量(n×m)转换为三维张量((n-10+1)×(10×m))。
步骤2.8:在TensorFlow框架下搭建由卷积自编码器、长短时记忆网络、自注意机制堆叠形成的深度学习网络结构;如图2所示,该模型由输入层、多层卷积层、池化层、上采样层、多层长短时记忆网络层、自注意层、全连接层与输出层逐层连接而成;
步骤2.9:结合卷积层与池化层构建卷积自编码器的编码层;采用一维卷积运算对数据进行特征提取;
结合卷积层与上采样层构建卷积自编码器的解码层,将数据特征还原为原始数据;数据通过多层卷积自编码器之后输出到长短时记忆网络层中;
步骤2.10:构建长短时记忆网络;LSTM网络使用门(gate)机制对信息的流通与损失进行控制;分别表示为:
输入门(门限):决定了多少比例的信息会被存入当前细胞态;
it=σ(Wi·[ht-1,xt]+bi) (16)
遗忘门(门限):将细胞态中的信息选择性遗忘;
ft=σ(Wf·[ht-1,xt]+bf) (17)
输出门(门限):将细胞态中的信息选择性进行输出;
ot=σ(Wo·[ht-1,xt]+bo) (18)
以上三式中,Wi、Wf、Wo是待训练的参数矩阵;bi、bf、bo是待训练偏置项;σ为sigmoid激活函数;
记忆体ht表征短期记忆,是当前细胞态经过输出门得到的:
ht=ot*tanh(Ct) (19)
候选态表征归纳出的待存入细胞态的新知识,是当前时刻的输入特征xt和上个时刻的短期记忆ht-1的函数:
细胞态Ct表示长期记忆,等于上个时刻的长期记忆Ct-1通过遗忘门的值和当前时刻归纳出的新知识通过输入门的值之和:
总的计算流程为:遗忘门,输入门和输出门通过sigmoid函数决定上一时刻信息中需要舍弃的内容ft,需要保留的内容it和需要输出的内容ot;本时刻输出的内容ot与细胞态Ct决定了记忆体ht;上一时刻的记忆体ht-1和本时刻的输入xt决定了该时刻的候选态本时刻的输入门it,输出门ot,上一时刻的细胞态Ct和本时刻的候选态/>共同决定了本时刻的细胞态Ct,然后以此类推针对每一个时间步长进行反复计算;
步骤2.11:在长短时记忆网络层与自注意层之间加入Dropout操作;
步骤2.12:引入自注意力机制;首先依据式(22)、(23)和(24)对长短时记忆网络的输出结果X进行线性变换得到Q、K、V;
式中,WQ、WK和WV是待训练的参数矩阵;
自注意层的输出向量可由式(25)计算得到:
式中,i,j∈[1,N]为输出和输入向量的位置,连接权重αij由注意力机制动态生成;
步骤2.13:依据式(26),采用ELU函数作为模型全连接层的激活函数,本发明α的取值为0.2;
步骤2.14:依据式(27),采用均分误差(MSE)作为损失函数;
在步骤3中,
步骤3.1:训练重构模型;将数据集随机打乱并按一定比例划分为训练集和测试集,选用Adam优化器训练模型;
步骤3.2:梳理重构模型的所有超参数并确定对应超参数的可行解域:卷积层的层数、卷积核大小、卷积步长、池化层大小、上采样层大小、长短时记忆网络的层数和单元内部隐藏层的大小、全连接层的层数和每层神经元个数,以及Dropout的比例;
步骤3.3:初始化粒子群中每一个粒子的位置信息,每个粒子的位置可由式(28)表示;
Xi=(xi1,xi2,…,xiD) (28)
式中,Xi是第i个粒子的位置;xi1,xi2,…,xiD是步骤27所述超参数的取值;
步骤3.4:计算每一个粒子的适应值fi;以粒子的位置Xi作为重构模型超参数取值,采用步骤2.13和步骤2.14所述的损失函数和优化方法训练模型,将训练后模型的重构误差作为粒子的适应值;
步骤3.5:更新每一个粒子的个体历史最优适应值fi,p和个体历史最优位置Pi,pbest;如果粒子目前位置下的适应值比个体历史最优适应值小,则更新该粒子的个体历史最优适应值和最优位置;
步骤3.6:更新群体的历史最优适应值fg和最优位置Pgbest;如果某个粒子的个体历史最优适应值比群体的历史最优适应值小,则更新群体的历史最优适应值和最优位置;
步骤3.7:依据式(29),更新每一个粒子的速度;
式中,Vi k+1为第i个粒子在第k+1轮迭代时的速度;为第i个粒子在第k轮迭代时的速度;/>为第i个粒子在第k轮迭代时的个体最优位置;/>为第k轮迭代时的群体最优位置;/>表示第i个粒子在k轮迭代时的位置;c1为个体学习因子,取值为2;c2为群体学习因子,取值为2;r1,r2为区间[0,1]内的随机数;ωk为自适应惯性权重,ωk依据式(30)更新,其中ωstart取经验值0.9,ωend取经验值0.4;
步骤3.8:依据式(31),更新每一个粒子的位置;
步骤3.9:重复步骤3.3到步骤3.7直到达到最大迭代次数,将多轮迭代计算得到的群体历史最优位置Pgbest作为重构模型超参数的取值。
一种传感器故障监测及失效信息重构系统:
所述系统包括模型建立及故障检测模块、失效信息重构模块、超参数自动寻优模块和验证测试模块;
所述模型建立及故障检测模块,用于建立核电厂的传感器模型,采用基于数据驱动的主元分析方法对传感器故障检测与故障辨识;
所述失效信息重构模块,根据模型建立及故障检测模块建立的传感器模型,获取不同工况下各传感器的运行数据,进行基于最大互信息系数的不同工况特征相关性分析,选取重构参考特征,构建传感器失效信息重构模型;
所述超参数自动寻优模块,根据失效信息重构模块的失效信息重构模型,使用改进粒子群优化算法,进行超参数自动寻优,将多轮迭代计算得到的群体历史最优位置作为重构模型超参数的取值;
所述验证测试模块,用于在完成超参数自动寻优后,进行模型验证与测试;手动插入传感器故障数据,调用重构模型对故障数据进行重构,分析重构值与真实值在归一化之后的误差。
本发明能够实现鲁棒性更强的传感器故障准确辨识的原因在于步骤1.6、步骤1.7、步骤1.9、步骤1.12。
步骤1.7基于步骤1.6划分的主元空间和残差空间计算了统计量阈值和Qα作为故障判别的依据,故本发明不需要故障数据即可确定故障判别依据,在保证模型准确度的同时降低了数据获取的成本。
步骤1.9基于步骤1.6划分的主元空间和残差空间计算了测试向量的统计量T2和Q:T2描述了测试向量在变化趋势和变化幅度上偏离主元分析模型的程度,Q量化了测试向量与主元分析模型的不匹配程度。因此本发明通过计算T2和Q统计量实现了对传感器异常情况的有效识别。
步骤1.12通过计算测试向量对Q统计量和T2统计量的贡献率,使本发明能够准确判断故障原因在于系统还是传感器。
本发明能减少误报警的原因在于步骤10。
步骤10利用S-G滤波器处理T2统计量与Q统计量曲线,减少了因随机噪声而引起的T2统计量与Q统计量的波动,从而降低了因随机噪声而引起的误报警的频率,增强了故障检测模型对随机噪声的鲁棒性。
利用信号处理领域的Savitzky-Golay滤波器处理测试数据的T2统计量与Q统计量曲线,以减少噪声对模型检测结果的影响,达到减少模型误报警的目的,提升了模型的鲁棒性。从式(7)和式(8)可以看出T2统计量与Q统计量对数据噪声十分敏感,测试样本中的噪声可以很容易地使T2统计量与Q统计量超出阈值而导致故障检测模型误报警。Savitzky-Golay滤波器是一种在时域内基于局域多项式最小二乘法拟合的平滑滤波算法,与移动平均滤波等其他平滑滤波算法相比,Savitzky-Golay滤波器最大的特点在于在滤除噪声的同时可以确保信号的形状、宽度不变。经过Savitzky-Golay滤波器处理后的T2统计量与Q统计量曲线变得更加平滑,缓解了因噪声导致的统计量大幅增加而误报的现象,提升了基于主元分析的故障检测模型的鲁棒性,使故障检测模型的结果更加可靠。
本发明能够实现速度更快、准确度更高的传感器失效信息重构,并且重构误差小的原因在于步骤2.3、步骤2.4、步骤2.9、步骤2.10、步骤2.11、步骤2.12、步骤2.13、步骤3.2、步骤3.3、步骤3.4、步骤3.5、步骤3.6、步骤3.7、步骤3.8、步骤3.9的整体实施。
步骤2.3和步骤2.4通过计算各传感器与目标传感器之间的最大互信息系数对核电厂中大量传感器进行相关性分析。依据相关性分析结果选择了一组重构模型参考传感器。核电厂中传感器数目众多,如果将核电厂中所有传感器都选作重构模型参考传感器的话,容易引发“维度灾难”“过拟合”等问题,从而降低重构模型的性能。
最大互信息数的最大优点是可以表征变量与变量之间的非线性相关程度,适用于核电厂这类复杂、非线性的动态系统,因此本发明可以准确选取一组与目标传感器相关程度高的参考传感器,减少了重构模型的输入维度,在减轻算力负担的同时缓解了过拟合的问题,提高了重构模型的准确度。
基于上述问题,需要对重构参考传感器进行选择,选择与目标传感器相关程度高的传感器,剔除与目标传感器相关程度低的传感器。互信息是一种基于信息熵理论来度量两个随机变量间的相关性的准则,不同于普通的相似性度量方法只能描述变量之间的线性关系,互信息可以捕捉到变量间非线性的统计相关性,因而可以认为其能较大程度地度量和反映变量之间真实的依赖性。而最大互信息系数是一种优秀的互信息变形,它利用了归一化的互信息,具有普适性、均衡性的特点,适合用于定量分析变量之间的相关程度。本发明的方法选用最大互信息系数度量各传感器与目标传感器之间的相关性,能够较大程度地挖掘核电厂这种复杂、非线性系的动态系统中不同变量之间的统计相关性,选择一组与目标传感器相关程度高的传感器作为重构参考传感器,剔除了与目标传感器无关的传感器,提高重构模型的准确度与泛化能力。
步骤2.9建立卷积自编码器模型,充分发挥卷积自编码器模型的优势,对原始数据进行空间特征提取,减少数据噪声干扰,提高了模型的计算速度与准确度。
步骤2.10建立长短时记忆网络模型,有效提取了数据的时间序列特征,提高重构值的准确率。
步骤2.11引入了Dropout操作,避免了过拟合现象的发生,降低了重构误差。
步骤2.12引入自注意机制,把重点放在对当前任务最重要的信息,降低对其他信息的关注度,不仅可以提高模型的运行速度,还能在一定程度上改善模型预测的准确度。在长短时记忆网络与全连接输出层之间引入了自注意力机制。自注意力机制是一种资源分配方案。它能够在紧张的计算资源中将关注点放在重要任务上,同时它还能解决信息超载问题的。重构模型的数据拟合能力来源于庞大的参数体系,参数越多,网络的拟合能力越好,同时存储模型所需的空间消耗越大,以及可能会出现信息过载问题。通过引入自注意力机制把重点放在对当前任务最重要的部分,降低对其他信息的关注度,降低了模型的计算负担,在保证模型准确的同时提高了模型的运行效率。
步骤2.13采用ELU函数作为全连接层的激活函数,相比传统ReLU函数不会有梯度爆炸或消失和神经元死亡的问题,提高了收敛的速度。
步骤3.2到35利用粒子群优化算法自动获取重构模型最优超参数,避免了人工选取超参数的不确定性,保证了模型的准确度。
步骤3.7采用非线性的自适应惯性权重替代常数权重,使惯性权值跟随迭代过程而自动调整,有效避免了粒子群算法陷入局部最优。为了避免人工选取重构模型超参数耗费大量的时间与精力,本发明的方法选用粒子群算法自动寻找最优超参数组合。在粒子群算法的速度进化方程(28)中,第一部分Vi k用于保证算法的全局收敛性能,第二、三部分使算法具有局部收敛能力,引入惯性权重ω可以平衡全局收敛能力和局部收敛能力,提高算法的寻优性能。在全局搜索算法中,希望前期惯性权重ω比较大以获得较高的搜索能力,而在后期惯性权重ω比较小以加快收敛速度。本发明的方法采用自适应的惯性权重,使惯性权重能够跟随迭代过程而自动调整,使算法前期有较高的搜索能力、后期有较快的收敛速度,避免粒子群算法陷入局部最优的问题。
一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时实现上述方法的步骤。
本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器read onlymemory,ROM、可编程只读存储器programmable ROM,PROM、可擦除可编程只读存储器erasablePROM,EPROM、电可擦除可编程只读存储器electrically EPROM,EEPROM或闪存。易失性存储器可以是随机存取存储器random access memory,RAM,其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器static RAM,SRAM、动态随机存取存储器dynamic RAM,DRAM、同步动态随机存取存储器synchronous DRAM,SDRAM、双倍数据速率同步动态随机存取存储器double data rate SDRAM,DDR SDRAM、增强型同步动态随机存取存储器enhanced SDRAM,ESDRAM、同步连接动态随机存取存储器synchlinkDRAM,SLDRAM和直接内存总线随机存取存储器direct rambus RAM,DR RAM。应注意,本发明描述的方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线例如同轴电缆、光纤、数字用户线digital subscriber line,DSL或无线例如红外、无线、微波等方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质例如,软盘、硬盘、磁带、光介质例如,高密度数字视频光盘digital video disc,DVD、或者半导体介质例如,固态硬盘solid state disc,SSD等。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
应注意,本申请实施例中的处理器可以是一种集成电路芯片,具有信号处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
以上对本发明所提出的一种传感器故障监测及失效信息重构方法及系统,进行了详细介绍,对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种传感器故障监测及失效信息重构方法,其特征在于:
所述方法具体包括以下步骤:
步骤1,建立核电厂的传感器模型,采用基于数据驱动的主元分析方法对传感器故障检测与故障辨识;
步骤2,根据步骤1建立的传感器模型,获取不同工况下各传感器的运行数据,进行基于最大互信息系数的不同工况特征相关性分析,选取重构参考特征,构建传感器失效信息重构模型;
步骤3,根据步骤2的失效信息重构模型,使用改进粒子群优化算法,进行超参数自动寻优,将多轮迭代计算得到的群体历史最优位置作为重构模型超参数的取值;
步骤4:完成步骤3后进行模型验证与测试;手动插入传感器故障数据,调用重构模型对故障数据进行重构,分析重构值与真实值在归一化之后的误差。
2.根据权利要求1所述方法,其特征在于:在步骤1中,
步骤1.1:利用核电厂全范围仿真机获取多种工况正常运行下的传感器原始测量数据Xm×n,其中n为待监测传感器总数,m为测量样本总数,建立核电厂的传感器模型;
步骤1.2:依据式(1)、(2),对原始测量数据Xm×n进行标准差标准化处理;
式中,Xj为第j个传感器的原始运行数据;E(Xj)为第j个传感器的原始运行数据的均值;D(Xj)是第j个传感器的原始运行数据的标准差;Xj *是第j个传感器标准化后的数据,Xj *的均值为0,标准差为1;Xm×n *为原始测量数据标准化后的矩阵;
步骤1.3:依据式(3),近似求解标准化矩阵X*的协方差矩阵∑;
步骤1.4:根据矩阵分解定理,对∑进行特征值分解,得到∑的特征值λ1,λ2,...λn(λ1≥λ2≥...≥λn)和与之对应的标准特征向量P1,P2,...,Pn;
Σ=P×diag(λ1,λ2,…,λn)×PT (4)
式中,正交矩阵P=[P1,P2,...,Pn];diag(λ1,λ2,...,λn)表示以λ1,λ2,...,λn为对角线元素的n阶对角矩阵;
步骤1.5:采用累积方差贡献率法,以CPV≥90%为判断依据选取k个主元;
式中,特征值λ反映了每个主元包含信息的多少;PV表示第i个主元包含的信息占原始数据总信息量的百分比;CPV表示前k个主元所包含原始信息的总百分比;
步骤1.6:用前k个主元的特征向量组成主元空间和剩余(n-k)个主元组成残差空间/>则某一时刻的测试向量可用式(6)表示:
式中,xn×1为某一时刻的测试向量,包含该时刻下n个传感器的示数;和/>分别是xn×1在主元空间和残差空间内的投影;/>为主元空间投影矩阵,/>为残差空间投影矩阵;
步骤1.7:依据式(7)、(8),按照划分的主元空间和残差空间计算Hotelling’s T2,即T2统计量的阈值Tα 2,以及平方预测误差SPE,即Q统计量的阈值Qα;
式中,Fα(k,n-k)表示带有k和n-k个自由度,置信水平为α的F分布的临界值;λi为Σ的特征值;k为主元个数;cα为标准正态分布的(1-α)置信限值。
3.根据权利要求2所述方法,其特征在于:在步骤1中还包括:
步骤1.8:开始进行故障检测,输入传感器实时数据测试向量xn×1,并依据式(2)对其进行标准化处理得到x*;
步骤1.9:依据式(9)、(10),计算该时刻下测试向量xn×1的T2统计量与Q统计量;
式中,Λk=diag(λ1,λ2,…,λk);
步骤1.10:依据式(11),使用S-G滤波方法处理T2统计量与Q统计量随时间变化的曲线;
式中,为对应统计量的拟合值;Yj+1为对应统计量的原始输入值;Ci为第i个统计量滤波时的系数;m为半个滤波窗口的宽度;N为滤波器长度,等于滑动数组的宽度(2m+1);
步骤1.11:若经过S-G滤波方法处理后的T2统计量与Q统计量均未超过对应的阈值,则表明系统运行正常;
若经过S-G滤波方法处理后的T2统计量或Q统计量超过了对应的阈值,说明出现了异常,但异常的原因仍需进一步分析判断;
步骤1.12:进行故障辨识,依据式(12)、(13)计算xn×1中第i个传感器对Q统计量的贡献率Qi和对T2统计量的贡献率Ti 2,定位测试向量xn×1中出现异常的传感器;
若各传感器贡献率分布均匀则表明异常原因为系统层级的故障;
若某一传感器的贡献率显著偏高则表明异常原因为该传感器失效;
式中,t表示xn×1的得分向量, 表示传感器变量xj对第j个得分向量tj的贡献率;xi=[0,…0,xi,0…,0]T。
4.根据权利要求3所述方法,其特征在于:在步骤2中,
步骤2.1:若故障来源是目标传感器,则调用重构模型对失效传感器的数据进行重构;
步骤2.2:利用核电厂全范围仿真机获取目标工况下各传感器的运行数据;
步骤2.3:分析传感器之间的统计相关性;依据式(14)分别计算不同功率稳态与多种事故工况下参考传感器与目标传感器的最大互信息系数;
式中,a(X;Y)表示X与Y的最大互信息系数;表示某一M、N取值下,X与Y的最大互信息值;
步骤2.4:选取重构参考传感器;选出稳态工况下最大互信息系数排行前十的传感器,在其他事故工况下选出最大互信息数排行前五的传感器,然后在挑选出的传感器中取并集,得到重构模型参考传感器组合;
步骤2.5:构造重构模型数据集;对全范围仿真机运行数据进行处理,剔除与目标传感器相关程度低的传感器,保留步骤2.4选择的传感器;
步骤2.6:数据标准化处理;依据式(15),对步骤2.5选取的传感器运行数据进行min-max标准化处理,消除不同传感器量纲不同的影响,加快重构模型的收敛速度;
式中,x*表示某一传感器归一化后的数据;x表示某一传感器归一化之前的数据;min表示某一传感器样本数据中的最小值;max表示某一传感器样本数据中的最大值;
步骤2.7:使用滑窗法构造重构模型输入数据,运行数据时间间隔为0.25s,滑动时窗长度设置为2.5s,将步骤2.6所得到的二维张量(n×m)转换为三维张量((n-10+1)×(10×m))。
5.根据权利要求4所述方法,其特征在于:在步骤2中还包括,
步骤2.8:在TensorFlow框架下搭建由卷积自编码器、长短时记忆网络、自注意机制堆叠形成的深度学习网络结构;该模型由输入层、多层卷积层、池化层、上采样层、多层长短时记忆网络层、自注意层、全连接层与输出层逐层连接而成;
步骤2.9:结合卷积层与池化层构建卷积自编码器的编码层;采用一维卷积运算对数据进行特征提取;
结合卷积层与上采样层构建卷积自编码器的解码层,将数据特征还原为原始数据;数据通过多层卷积自编码器之后输出到长短时记忆网络层中;
步骤2.10:构建长短时记忆网络;LSTM网络使用门(gate)机制对信息的流通与损失进行控制;分别表示为:
输入门(门限):决定了多少比例的信息会被存入当前细胞态;
it=σ(Wi·[ht-1,xt]+bi) (16)
遗忘门(门限):将细胞态中的信息选择性遗忘;
ft=σ(Wf·[ht-1,xt]+bf) (17)
输出门(门限):将细胞态中的信息选择性进行输出;
ot=σ(Wo·[ht-1,xt]+bo) (18)
以上三式中,Wi、Wf、Wo是待训练的参数矩阵;bi、bf、bo是待训练偏置项;σ为sigmoid激活函数;
记忆体ht表征短期记忆,是当前细胞态经过输出门得到的:
ht=ot*tanh(Ct) (19)
候选态表征归纳出的待存入细胞态的新知识,是当前时刻的输入特征xt和上个时刻的短期记忆ht-1的函数:
细胞态Ct表示长期记忆,等于上个时刻的长期记忆Ct-1通过遗忘门的值和当前时刻归纳出的新知识通过输入门的值之和:
总的计算流程为:遗忘门,输入门和输出门通过sigmoid函数决定上一时刻信息中需要舍弃的内容ft,需要保留的内容it和需要输出的内容ot;本时刻输出的内容ot与细胞态Ct决定了记忆体ht;上一时刻的记忆体ht-1和本时刻的输入xt决定了该时刻的候选态本时刻的输入门it,输出门ot,上一时刻的细胞态Ct和本时刻的候选态/>共同决定了本时刻的细胞态Ct,然后以此类推针对每一个时间步长进行反复计算;
步骤2.11:在长短时记忆网络层与自注意层之间加入Dropout操作;
步骤2.12:引入自注意力机制;首先依据式(22)、(23)和(24)对长短时记忆网络的输出结果X进行线性变换得到Q、K、V;
式中,WQ、WK和WV是待训练的参数矩阵;
自注意层的输出向量可由式(25)计算得到:
式中,i,j∈[1,N]为输出和输入向量的位置,连接权重αij由注意力机制动态生成;
步骤2.13:依据式(26),采用ELU函数作为模型全连接层的激活函数,α的取值为0.2;
步骤2.14:依据式(27),采用均分误差(MSE)作为损失函数;
6.根据权利要求5所述方法,其特征在于:在步骤3中,
步骤3.1:训练重构模型;将数据集随机打乱并按一定比例划分为训练集和测试集,选用Adam优化器训练模型;
步骤3.2:梳理重构模型的所有超参数并确定对应超参数的可行解域:卷积层的层数、卷积核大小、卷积步长、池化层大小、上采样层大小、长短时记忆网络的层数和单元内部隐藏层的大小、全连接层的层数和每层神经元个数,以及Dropout的比例;
步骤3.3:初始化粒子群中每一个粒子的位置信息,每个粒子的位置可由式(28)表示;
Xi=(xi1,xi2,…,xiD) (28)
式中,Xi是第i个粒子的位置;xi1,xi2,…,xiD是步骤27所述超参数的取值;
步骤3.4:计算每一个粒子的适应值fi;以粒子的位置Xi作为重构模型超参数取值,采用步骤2.13和步骤2.14所述的损失函数和优化方法训练模型,将训练后模型的重构误差作为粒子的适应值;
步骤3.5:更新每一个粒子的个体历史最优适应值fi,p和个体历史最优位置Pi,pbest;如果粒子目前位置下的适应值比个体历史最优适应值小,则更新该粒子的个体历史最优适应值和最优位置;
步骤3.6:更新群体的历史最优适应值fg和最优位置Pgbest;如果某个粒子的个体历史最优适应值比群体的历史最优适应值小,则更新群体的历史最优适应值和最优位置;
步骤3.7:依据式(29),更新每一个粒子的速度;
式中,Vi k+1为第i个粒子在第k+1轮迭代时的速度;Vi k为第i个粒子在第k轮迭代时的速度;为第i个粒子在第k轮迭代时的个体最优位置;/>为第k轮迭代时的群体最优位置;/>表示第i个粒子在k轮迭代时的位置;c1为个体学习因子,取值为2;c2为群体学习因子,取值为2;r1,r2为区间[0,1]内的随机数;ωk为自适应惯性权重,ωk依据式(30)更新,其中ωstart取经验值0.9,ωend取经验值0.4;
步骤3.8:依据式(31),更新每一个粒子的位置;
步骤3.9:重复步骤3.3到步骤3.7直到达到最大迭代次数,将多轮迭代计算得到的群体历史最优位置Pgbest作为重构模型超参数的取值。
7.一种传感器故障监测及失效信息重构系统,其特征在于:
所述系统包括模型建立及故障检测模块、失效信息重构模块、超参数自动寻优模块和验证测试模块;
所述模型建立及故障检测模块,用于建立核电厂的传感器模型,采用基于数据驱动的主元分析方法对传感器故障检测与故障辨识;
所述失效信息重构模块,根据模型建立及故障检测模块建立的传感器模型,获取不同工况下各传感器的运行数据,进行基于最大互信息系数的不同工况特征相关性分析,选取重构参考特征,构建传感器失效信息重构模型;
所述超参数自动寻优模块,根据失效信息重构模块的失效信息重构模型,使用改进粒子群优化算法,进行超参数自动寻优,将多轮迭代计算得到的群体历史最优位置作为重构模型超参数的取值;
所述验证测试模块,用于在完成超参数自动寻优后,进行模型验证与测试;手动插入传感器故障数据,调用重构模型对故障数据进行重构,分析重构值与真实值在归一化之后的误差。
8.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1到6中任意一项所述方法的步骤。
9.一种计算机可读存储介质,用于存储计算机指令,其特征在于,所述计算机指令被处理器执行时实现权利要求1到6中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310420475.5A CN116610973A (zh) | 2023-04-19 | 2023-04-19 | 一种传感器故障监测及失效信息重构方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310420475.5A CN116610973A (zh) | 2023-04-19 | 2023-04-19 | 一种传感器故障监测及失效信息重构方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116610973A true CN116610973A (zh) | 2023-08-18 |
Family
ID=87684436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310420475.5A Pending CN116610973A (zh) | 2023-04-19 | 2023-04-19 | 一种传感器故障监测及失效信息重构方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116610973A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118129820A (zh) * | 2024-05-07 | 2024-06-04 | 深圳大学 | 核反应堆一回路传感器故障监测方法、装置、设备及介质 |
-
2023
- 2023-04-19 CN CN202310420475.5A patent/CN116610973A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118129820A (zh) * | 2024-05-07 | 2024-06-04 | 深圳大学 | 核反应堆一回路传感器故障监测方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115018021B (zh) | 基于图结构与异常注意力机制的机房异常检测方法及装置 | |
Dai et al. | A reliability evaluation model of rolling bearings based on WKN-BiGRU and Wiener process | |
CN113642754A (zh) | 一种基于rf降噪自编码信息重构和时间卷积网络的复杂工业过程故障预测方法 | |
CN112527604A (zh) | 一种基于深度学习的运维检测方法、系统、电子设备及介质 | |
CN111784061B (zh) | 一种电网工程造价预测模型的训练方法、装置和设备 | |
CN116522265A (zh) | 工业互联网时序数据异常检测方法及装置 | |
Naimi et al. | Fault detection and isolation of a pressurized water reactor based on neural network and k-nearest neighbor | |
CN114363195A (zh) | 面向时间和频谱残差卷积网络的网络流量预测预警方法 | |
CN116610973A (zh) | 一种传感器故障监测及失效信息重构方法及系统 | |
CN115983087A (zh) | 一种注意力机制与lstm结合检测时序数据异常方法及终端机 | |
CN115694985A (zh) | 基于tmb的混合网络流量攻击预测方法 | |
CN113128612B (zh) | 电力数据中异常值的处理方法及终端设备 | |
CN113159088A (zh) | 一种基于多特征融合和宽度学习的故障监测与诊断方法 | |
CN112380763A (zh) | 一种基于数据挖掘的堆内构件可靠性分析系统及方法 | |
CN116933025A (zh) | 基于vmd与dbo-lstm-at的变压器顶层油温预测方法 | |
Gao et al. | Decentralized adaptively weighted stacked autoencoder-based incipient fault detection for nonlinear industrial processes | |
CN114046816B (zh) | 基于轻量级梯度提升决策树的传感器信号故障诊断方法 | |
CN116226770A (zh) | 一种时间序列数据异常检测方法及装置 | |
CN114548701A (zh) | 面向全量测点耦合结构分析与估计的过程预警方法及系统 | |
CN116361731A (zh) | 储油罐罐壁腐蚀检测方法、装置、设备及可读存储介质 | |
CN117688496B (zh) | 面向卫星遥测多维时序数据的异常诊断方法、系统及设备 | |
CN117829822B (zh) | 一种电力变压器故障预警方法及系统 | |
CN110866672B (zh) | 数据处理方法、装置、终端及介质 | |
CN117851953A (zh) | 用水异常检测方法、装置、电子设备及存储介质 | |
Long et al. | A Graph Neural Network-Based Method for Predicting Remaining Useful Life of Rotating Machinery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |