CN116451117A - 一种基于联邦学习的电力数据异常检测方法 - Google Patents

一种基于联邦学习的电力数据异常检测方法 Download PDF

Info

Publication number
CN116451117A
CN116451117A CN202310377836.2A CN202310377836A CN116451117A CN 116451117 A CN116451117 A CN 116451117A CN 202310377836 A CN202310377836 A CN 202310377836A CN 116451117 A CN116451117 A CN 116451117A
Authority
CN
China
Prior art keywords
model
time
parameters
data
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310377836.2A
Other languages
English (en)
Inventor
邓莹
胡凯
李姚根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202310377836.2A priority Critical patent/CN116451117A/zh
Publication of CN116451117A publication Critical patent/CN116451117A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Abstract

本发明公开了一种基于联邦学习的电力数据异常检测方法,步骤如下:(1)故障检测数据预处理:建立多维时间序列客户端;数据预处理;构建时间窗口;(2)基于时域卷积神经网络、自注意力机制,建立本地模型:模型输入初始化;单层融合编码器运算;解码运算;构建模型损失函数;进行异常评分;更新局部模型参数;(3)服务器端采用联邦学习模型实现联合训练:构建模型损失函数;更新局部模型参数;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。本发明能够同时考虑到数据局部依赖性和数据全局依赖性,能够更好的提取时间序列中的时序重构信息,从而提高多维时间序列异常检测的有效性。

Description

一种基于联邦学习的电力数据异常检测方法
技术领域
本发明涉及数据识别技术、电力系统及其自动化领域,特别是一种基于联邦学习的电力数据异常检测方法。
背景技术
电力系统实时运行数据具备反映电力系统当前运行状态与未来发展趋势的潜在能力。对于传统的电力异常侦测方法而言,其必须经由搜集电器的历史电力信息以建立参考电力信息样本。然而,为了建立准确的参考电力信息样本,传统的电力异常侦测方法所搜集的历史电力信息必须考虑季节、时间、温度对于各别电器的影响,致使电器的历史电力信息的搜集过程冗长且繁琐。
随着电力系统智能化的迅速发展,电力系统中嵌入各类传感器的规模不断扩大,这使得感知层采集的数据种类更加细化,待处理的数据急剧增加。据不完全统计,单个城市每天采集的电网业务数据就可达到PB级。总体上看,电力系统实时运行数据具备数据采集装置多、采集频率高﹑数据规模大﹑数据类型复杂等特点。其采集的数据为典型的时间序列数据。充分利用电力时序数据,采用适当的技术进行异常检测以及时发现电力系统中存在的故障,可以为电力系统高效、安全运行提供决策和辅助支持。
与本发明较为接近的现有技术包括申请号为20130416182.6的专利,该申请公开了《一种电力异常波动检测和预测计算方法》,其基于突变点分析和隐马尔可夫模型集成算法电力能耗进行实时检测,且能够预测计算未来时刻的电力能耗区间的合理区间范围;申请号为202110976109.9的专利公开了《一种基于电力扰动数据的配电网异常事件识别方法及系统》,其提取电力扰动数据四个及以上特征,通过特征之间的对比实现了对异常事件的快速识别、分类和溯源;申请号为201910604895.2的专利公开了《一种基于机器学习的大规模电力异常数据检测方法及系统》,其利用多层感知机神经网络模型,实现了对异常数据的有效检测。上述专利讨论了造成电力数据异常的原因,包括各类事件引起的电量波动、数据量急剧增加、数据传递和处理速度加快等,并针对电压电流、功率因数、开关信号等不同类型的数据提出了检测方法,但现有的故障检测方法都是直接利用获取的数据进行检测,未进行不同企业间的联合学习。
另外,无监督多维时间序列异常检测方法大致可以分为两类:基于重构的异常检测方法和基于预测的异常检测方法。基于重构的异常检测方法无法同时有效学习到指标度量间表示和时间依赖性,导致对于多维时序数据的重构不够充分,重构误差作为异常评分的效果不显著;基于预测的异常检测方法,由于复杂多维时间序列的不可预测性,导致其异常检测误报率偏高。
因此,亟需一种新的电力数据异常检测方法,以克服现有技术中存在的缺陷。
发明内容
发明目的:本发明的目的是提供一种基于联邦学习的电力数据异常检测方法,通过在时域卷积网络中引入自注意力机制同时捕获数据局部特征和全局特征,并构建信息融合模块对这俩种特征进行信息融合,客户端数据学习完后上传参数到服务器端,服务器端再分发模型到各个本地端,捕获更加充分的时序重构信息,从而实现更有效的多维时间序列异常检测。
技术方案:本发明所述的一种基于联邦学习的电力数据异常检测方法,包括以下步骤:
(1)故障检测数据预处理:建立多维时间序列客户端;数据预处理;构建时间窗口。
(1.1)建立多维时间序列客户端。
一个多维时间序列是等时间间隔采样多维时间变量形成的长度为T的时间戳序列,X=(x1,x2,…,xt);时间观测点xt是在时间戳t下获取的多维数据,xt∈Rm,t∈{1,2,…,T},m为数据的维度,所述多维数据都从不同层面反映了设备状态信息;在客户端中,给定一个时间序列X,需要给出对应的异常标签序列,至此,多维时间序列异常检测的客户端建立完成。
(1.2)数据预处理。
对于客户端的多维时间序列数据采用最大值最小值标准化,将数据映射到[0,1]之间,标准化函数如下:
其中,xt是t时刻的收集到的配电站的相关特征参数,xmax是收集到的样本参数中的最大值,xmin是是收集到的样本参数中的最小值,是t时刻收集到的配电站的相关特征参数标准化结果,α是为了避免分母为0而设置的一个很小的常向量。
(1.3)构建时间窗口。
考虑到时间观测点xt和历史时间点的依赖关系,构建一个长度为N的时间窗口:
wt=(xt-N+1,xt-N+2,...,xt) (2)
式中,xt是t时刻的收集到的配电站的相关特征参数,xt-N+1为该时间窗口的起始位置。
为了避免短时序窗口对模型序列正常模式重构的影响,对于t<N的时间观测点xt,由于没有足够的信息判断其异常程度,将其视为正常时间点,将多维时间序列X转化为滑动窗口序列W为模型输入。
(2)基于时域卷积神经网络、自注意力机制,建立本地模型:模型输入初始化;单层融合编码器运算;解码运算;构建模型损失函数;进行异常评分;更新局部模型参数。
(2.1)模型输入初始化。
多层融合编码器的堆积有利于学习到更深层次的潜在时间序列关联性;假定存在L层的融合编码器,输入长度为N的时间序列窗口w∈Rm,对于第l层的计算过程以及模型初始输入用方程形式化如下:
式中,分别为融合编码器的2个输入,表示第l+1层融合编码器的输入,其中l∈{1,2,…,L},dmodel表示特征空间向量的维,/>是/>经过融合编码器处理后的值,FusionEncoder代表融合编码器,LayerNorm函数代表归一化,/>是融合编码器输入解码器前馈网络的值,Convld代表卷积操作,FeedForward代表前馈网络。
(2.2)单层融合编码器运算。
将时间滑动窗口W作为模型的2个相同输入Z1、Z2,此时,对于融合编码器而言分别存在2个输入和2个输出;通过时域卷积神经网络和自注意力机制进行矩阵乘法获取每个时间点相较于其他时间点的注意力权重;由公式(3)得到第l层编码器的输入,进而通过时域卷积网络和自注意力进行信息提取,并通过十字绣单元进行提取特征的信息融合;具体公式如(4)所示:
式中,Q、K、V分别代表自注意力计算中的查询、键值以及值,由自注意力模块的输入Z2和3个线性变换矩阵WQ、WK、WV进行线性变换得到;M代表自注意力矩阵;Softmax函数代表归一化处理,TemporalBlock函数代表时域卷积操作;I1是时域卷积在添加自注意力矩阵信息后的隐层表示,I2是时域卷积在添加自注意力模块处理后的隐层表示,O1和O2是Z1和Z2经过单层融合编码器的结果;γ11、γ12、γ21、γ22为权重参数。
(2.3)解码运算。
解码器由2个解码部分分别对第L层融合编码器最后输出的2个隐层特征进行解码;第1个解码部分为反时域卷积层,通过采用转置卷积替换时域卷积残差块中的膨胀因果卷积实现,第2个解码部分由单层的前馈神经网络层以及函数sigmoid组成;十字绣单元对侧重提取局部数据依赖和侧重提取全局数据关联的2种特征表示进行信息融合。
(2.4)构建模型损失函数。
重构误差损失,模型损失函数为:
α×||w-C1||+β×||w-C2|| (5)
式中,α和β为超参数,且α+β=1,,C1和C2是解码器的最后输出结果。
(2.5)进行异常评分。
通过公式(5)计算异常评分,评分越高代表该时间点异常的可能性越大。
(2.6)更新局部模型参数。
由公式(5)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(6)所示,公式(7)为参数更新公式。
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ12∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
(3)服务器端采用联邦学习模型实现联合训练:构建模型损失函数;更新局部模型参数;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
(3.1)构建模型损失函数。
重构误差损失,模型损失函数为:
式中,μ和为超参数,且/>在模型测试阶段,通过模型获取输入w的重构表示D1和D2
(3.2)更新局部模型参数。
由公式(8)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(9)所示;公式(10)为参数更新公式。
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ12∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
(3.3)通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
在可信的服务器端聚合上述步骤中生成的局部模型参数,将局部模型相关层的参数作为特征,通过一个Resnet残差神经网络来提取特征,进而自适应的生成全局模型对应层参数;Resnet的输入层神经元个数与局部模型对应层的神经元个数一致,输出层的神经元个数为U,对应着全局模型相关层神经元个数,局部模型本地训练迭代次数为localep,通信次数为R;局部模型利用本地数据充分训练之后客户端将模型参数上传至终端服务器,当各层的局部模型参数达到一定数量时开始训练Resnet来提取特征从而生成全局模型,即如公式(11)所示:
其中ResNet(·)表示ResNet网络;为全局神经网络参数,l表示层数。
一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的一种基于联邦学习的电力数据异常检测方法。
一种计算机设备,包括储存器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的一种基于联邦学习的电力数据异常检测方法。
有益效果:与现有技术相比,本发明具有如下优点:本发明能够同时考虑到数据局部依赖性和数据全局依赖性从而提高多维时间序列异常检测的有效性,联邦学习算法的引入既使用大数据提高了模型的预测效果又保护了数据隐私。
附图说明
图1为时间窗口示意图;
图2为本地模型示意图;
图3为单层融合编码器示意图;
图4为基于ResNet的联邦学习框架示意图;
图5为本发明所述方法的步骤流程图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
本发明基于现有的联邦学习、时域卷积神经网络、自注意力机制等人工智能技术,提出了一种基于联邦学习的电力数据异常检测方法,所述方法利用时域卷积网络和自注意力机制充分考虑时间序列局部数据依赖和全局数据关联,然后通过十字绣单元把时间序列模型参数对特征进行信息融合并得各时间戳的异常分数。通过异常分数的大小判断是否出现了异常数据。此外联邦学习有个前提:各参与方数据要有一定的相关性,这个相关性包括目标任务、用户ID、特征变量等。根据数据的相关性要求,本实施例采用的参数也具有一定的相关性,所以能训练出一个泛化性能较好的模型。在联邦学习框架下,参与联合训练的本地客户端,能够很好的保护各个参与方的隐私。现有的联邦学习框架在服务器端用的联邦平均算法,而在本发明中,具体涉及的是ResNet残差网络算法,ResNet残差网络能够解决网络退化的能力以及由于网络的加深从而带来的一些梯度问题。
如图5所示,一种基于联邦学习的电力数据异常检测方法,步骤如下:
S1、故障预测数据预处理
S1.1、建立多维时间序列客户端。一个多维时间序列可以视作是等时间间隔采样多维时间变量形成的长度为T的时间戳序列,X=(x1,x2,…,xt)。一个时间观测点xt都是在时间戳t下获取的多维数据,xt∈Rm,t∈{1,2,…,T},m为总维度数。本文设置m等于21,所述多维数据都从不同层面反映了设备状态信息,比如x1为高压电压监测、x2为高压电流监测、x3为高压温度监测、x4为高压湿度监测、x5为高压烟雾监测、x6为高压通讯监测、x7为高压断路器监测、x8为高压搭接头监测、x9为高压螺丝位置监测、x10为高压保险丝监测;x11为低压电压检测、x12为低压电流监测、x13为低压温度监测、x14为低压湿度监测、x15为低压烟雾监测、x16为低压通讯监测、x17为低压通讯监测断路器监测、x18为低压电容监测、x19为低压螺丝位置监测、x20为低压刀闸位置监测等。多维时间序列异常检测用于确定一个时间观测点xt是否为异常,给定一个时间序列X,需要给出对应的异常标签序列Y=(y1,y2,…,yT),yt∈{0,1},yt为0表示时刻t下的时间点为正常,yt为1表示t时刻下的时间点为异常。
S1.2、数据预处理。本发明收集数据在步骤S1.1划分数据集,一般而言,当输入端数据接近于“0”平均值时,深度学习算法的学习效率最佳。对于收集的数据采用最大值最小值标准化,将数据映射到[0,1]之间,标准化函数如下:
其中,xt是t时刻的收集到的配电站的相关特征参数,xmax是收集到的样本参数中的最大值,xmin是是收集到的样本参数中的最小值,是t时刻收集到的配电站的相关特征参数标准化结果,α是为了避免分母为0而设置的一个很小的常向量。
S1.3、构建时间窗口。考虑到时间观测点xt和历史时间点的依赖关系,如图1所示构建一个长度为N的时间窗口:
wt=(xt-N+1,xt-N+2,...,xt) (2)
为了避免短时序窗口对模型序列正常模式重构的影响,对于t<N的时间观测点xt,由于没有足够的信息判断其异常程度,将其视为正常时间点,将多维时间序列X转化为滑动窗口序列W为模型输入。当时间序列窗口过小时,输入时间序列无法很好表征局部的上下文信息,但是当时间序列窗口过大的时候,细微的局部异常更加容易隐藏在大量的正常时间点之中,反而使得异常检测效果下降,多次实验表明当时间序列窗口大小为100左右时模型在各个性能指标上都表现最优,
S2、基于时域卷积神经网络、自注意力机制,建立本地模型。
本地模型如图2所示。基于步骤S1数据预处理之后,在步骤S2中本发明需要对数据进行特征提取。对于电力系统实时运行数据,特征提取需要进行卷积操作,普通的卷积神经网络,感受野比较小,不适合本发明需要处理的参数,且无法同时捕获多维时间序列在局部性和全局性上的信息依赖,本实施例选择在时域卷积网络中加入自注意力机制。通过融合编码器的时域卷积模块以及自注意力模块分别捕获多维时间序列在局部性上以及全局性上的数据依赖,并采用十字绣单元进行提取特征的融合丰富。多层融合编码器的堆叠有利于学习到更深层次的潜在时间序列关联性。
S2.1、模型输入初始化。
多层融合编码器的堆积有利于学习到更深层次的潜在时间序列关联性。假定存在L层的融合编码器,单层模型如图3所示,输入长度为N的时间序列窗口w∈Rm,对于第l层的计算过程以及模型初始输入可以方程形式化如下:
分别为融合编码器的2个输入,表示第l+1层融合编码器的输入,其中l∈{1,2,…,L},dmodel表示特征空间向量的维,/>是/>经过融合编码器处理后的值,FusionEncoder代表融合编码器,LayerNorm函数代表归一化,/>是融合编码器输入解码器前馈网络的值,Convld代表卷积操作,FeedForward代表前馈网络。
S2.2、单层融合编码器运算。深度学习注意力机制是受到认知科学中人类对信息处理机制的启发而产生,由于信息处理能力的局限,需要选择性的关注完整信息中的某一部分,同时忽略其他部分信息,此机制大大提高了人类对信息的处理能力效率。为了获取多维时间序列在局部性和全局性上的信息依赖,本发明将时间滑动窗口W作为模型的2个相同输入Z1、Z2,此时,对于融合编码器而言分别存在2个输入和2个输出。通过时域卷积神经网络和自注意力机制进行矩阵乘法获取每个时间点相较于其他时间点的注意力权重。由公式(3)得到第l层编码器的输入,进而通过时域卷积网络和自注意力进行信息提取,并通过十字绣单元进行提取特征的信息融合。具体公式如(4)所示。
其中Q,K,V分别代表自注意力计算中的查询、键值以及值,由自注意力模块的输入Z2和3个线性变换矩阵WQ,WK,WV进行线性变换得到。M代表自注意力矩阵。Softmax函数代表归一化处理,TemporalBlock函数代表时域卷积操作。I1是时域卷积在添加自注意力矩阵信息后的隐层表示,I2是时域卷积在添加自注意力模块处理后的隐层表示,O1和O2是Z1和Z2经过单层融合编码器的结果。γ11,γ12,γ21,γ22为权重参数。
S2.3、解码运算。解码器由2个解码部分分别对第L层融合编
码器最后输出的2个隐层特征进行解码。第1个解码部分为反时域卷积层,通过采用转置卷积替换时域卷积残差块中的膨胀因果卷积实现,第2个解码部分由单层的前馈神经网络层以及函数sigmoid组成。十字绣单元能够对侧重提取局部数据依赖和侧重提取全局数据关联的2种特征表示进行信息融合。
S2.4、构建模型损失函数。重构误差损失,模型损失函数为
α×||w-C1||+β×||w-C2|| (5)
α和β为可以设置的超参数,且α+β=1,此处将α和β分别设置为0.5和0.5,C1和C2是解码器的最后输出结果
S2.5、进行异常评分。通过(5)计算异常评分,评分越高代表该时间点异常的可能性越大。
S2.6、更新局部模型参数。由公式(5)可以得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(6)所示。公式(7)为参数更新公式。
其中m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法。γ12∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差。η为学习率。通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。具体如步骤S2.2所示。
S3、服务器端采用联邦学习模型实现联合训练。
聚合全局模型。终端服务器聚合步骤S2.1中上传的各局部模型参数,不同于传统的联邦平均聚合算法,仅仅对局部模型参数进行平均化处理。本发明使用一种基于ResNet残差网络的聚合模块,如图4所示,来聚合客户端模型参数生成全局模型,这种聚合模块能够自动化的聚合客户端参数,而不需要额外建立聚合规则。
S3.1、构建模型损失函数。重构误差损失,模型损失函数为
μ和为超参数,且/>在模型测试阶段,通过模型获取输入w的重构表示D1和D2
S3.2、更新局部模型参数。由公式(8)可以得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(9)所示。公式(10)为参数更新公式。
其中m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法。γ12∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差。η为学习率。通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。具体如步骤S2.2所示。
S3.3、通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。在可信的服务器端聚合上述步骤中生成的局部模型参数,将局部模型相关层的参数作为特征,通过一个Resnet残差神经网络来提取特征,进而自适应的生成全局模型对应层参数,如图4所示。Resnet的输入层神经元个数与局部模型对应层的神经元个数一致,输出层的神经元个数为U,对应着全局模型相关层神经元个数,局部模型本地训练迭代次数为localep,通信次数为R。局部模型利用本地数据充分训练之后客户端将模型参数上传至终端服务器,当各层的局部模型参数达到一定数量时开始训练Resnet来提取特征从而生成全局模型,即如公式(8)所示:
其中ResNet(·)表示本发明中的ResNet网络。为全局神经网络参数,l表示层数。通过实现本框架,能够同时考虑到数据局部依赖性和数据全局依赖性从而提高多维时间序列异常检测的有效性。
本实例最终达到的效果,实验按照数据集的原始划分得到训练集和测试集,挑选训练集中的25%作为验证集。根据7种多维时间序列异常检测方法在4个多维时间序列数据集上的对比实验结果显示,该算法在4个数据集上的其余性能指标都优于目前最流行的多维时间序列异常检测方法,证明该算法帮助模型学习到了更好的时间依赖和度量间依赖以及数据局部和数据全局特征。

Claims (6)

1.一种基于联邦学习的电力数据异常检测方法,其特征在于,包括以下步骤:
(1)故障检测数据预处理:建立多维时间序列客户端;数据预处理;构建时间窗口;
(2)基于时域卷积神经网络、自注意力机制,建立本地模型:模型输入初始化;单层融合编码器运算;解码运算;构建模型损失函数;进行异常评分;更新局部模型参数;
(3)服务器端采用联邦学习模型实现联合训练:构建模型损失函数;更新局部模型参数;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
2.根据权利要求1所述的一种基于联邦学习的电力数据异常检测方法,其特征在于,所述步骤(1)具体为:
(1.1)建立多维时间序列客户端;
一个多维时间序列是等时间间隔采样多维时间变量形成的长度为T的时间戳序列,X=(x1,x2,...,xt);时间观测点xt是在时间戳t下获取的多维数据,xt∈Rm,t∈{1,2,...,T},m为数据的维度,所述多维数据都从不同层面反映了设备状态信息;在客户端中,给定一个时间序列X,需要给出对应的异常标签序列,至此,多维时间序列异常检测的客户端建立完成;
(1.2)数据预处理;
对于客户端的多维时间序列数据采用最大值最小值标准化,将数据映射到[0,1]之间,标准化函数如下:
其中,xt是t时刻的收集到的配电站的相关特征参数,xmax是收集到的样本参数中的最大值,xmin是是收集到的样本参数中的最小值,是t时刻收集到的配电站的相关特征参数标准化结果,α是为了避免分母为0而设置的一个很小的常向量;
(1.3)构建时间窗口;
考虑到时间观测点xt和历史时间点的依赖关系,构建一个长度为N的时间窗口:
wt=(xt-N+1,xt-N+2,…,xt) (2)
式中,xt是t时刻的收集到的配电站的相关特征参数,xt-N+1为该时间窗口的起始位置;
为了避免短时序窗口对模型序列正常模式重构的影响,对于t<N的时间观测点xt,由于没有足够的信息判断其异常程度,将其视为正常时间点,将多维时间序列X转化为滑动窗口序列W为模型输入。
3.根据权利要求1所述的一种基于联邦学习的电力数据异常检测方法,其特征在于,所述步骤(2)具体为:
(2.1)模型输入初始化;
多层融合编码器的堆积有利于学习到更深层次的潜在时间序列关联性;假定存在L层的融合编码器,输入长度为N的时间序列窗口w∈Rm,对于第l层的计算过程以及模型初始输入用方程形式化如下:
式中,分别为融合编码器的2个输入,表示第l+1层融合编码器的输入,其中l∈{1,2,…,L},dmodel表示特征空间向量的维,/>是/>经过融合编码器处理后的值,FusionEncoder代表融合编码器,LayerNorm函数代表归一化,/>是融合编码器输入解码器前馈网络的值,Convld代表卷积操作,FeedForward代表前馈网络;
(2.2)单层融合编码器运算;
将时间滑动窗口W作为模型的2个相同输入Z1、Z2,此时,对于融合编码器而言分别存在2个输入和2个输出;通过时域卷积神经网络和自注意力机制进行矩阵乘法获取每个时间点相较于其他时间点的注意力权重;由公式(3)得到第l层编码器的输入,进而通过时域卷积网络和自注意力进行信息提取,并通过十字绣单元进行提取特征的信息融合;具体公式如(4)所示:
式中,Q、K、V分别代表自注意力计算中的查询、键值以及值,由自注意力模块的输入Z2和3个线性变换矩阵WQ、WK、WV进行线性变换得到;M代表自注意力矩阵;Softmax函数代表归一化处理,TemporalBlock函数代表时域卷积操作;I1是时域卷积在添加自注意力矩阵信息后的隐层表示,I2是时域卷积在添加自注意力模块处理后的隐层表示,O1和O2是Z1和Z2经过单层融合编码器的结果;γ11、γ12、γ21、γ22为权重参数;
(2.3)解码运算;
解码器由2个解码部分分别对第L层融合编码器最后输出的2个隐层特征进行解码;第1个解码部分为反时域卷积层,通过采用转置卷积替换时域卷积残差块中的膨胀因果卷积实现,第2个解码部分由单层的前馈神经网络层以及函数sigmoid组成;十字绣单元对侧重提取局部数据依赖和侧重提取全局数据关联的2种特征表示进行信息融合;
(2.4)构建模型损失函数;
重构误差损失,模型损失函数为:
α×||w-C1||+β×||w-C2|| (5)式中,α和β为超参数,且α+β=1,,C1和C2是解码器的最后输出结果;
(2.5)进行异常评分;
通过公式(5)计算异常评分,评分越高代表该时间点异常的可能性越大;
(2.6)更新局部模型参数;
由公式(5)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(6)所示,公式(7)为参数更新公式;
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型。
4.根据权利要求1所述的一种基于联邦学习的电力数据异常检测方法,其特征在于,所述步骤(3)具体为:
(3.1)构建模型损失函数;
重构误差损失,模型损失函数为:
式中,μ和为超参数,且/>在模型测试阶段,通过模型获取输入w的重构表示D1和D2
(3.2)更新局部模型参数;
由公式(8)能够得出第k个参与方的损失函数,进而根据Adam优化器更新各局部模型的模型参数θ,具体如公式(9)所示;公式(10)为参数更新公式;
式中,m为梯度的一阶矩估计即梯度的均值,v为梯度的二阶矩估计即梯度的有偏方差,g为梯度,t表示当前学习的迭代次数,⊙是一种同位元素相乘的乘法;γ1,γ2∈[0,1)是一组超参数/>和/>是修正后的梯度的均值和有偏方差;η为学习率;通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型;
(3.3)通过上述的过程更新局部模型参数之后,上传到终端服务器中,进行聚合生成全局模型;
在可信的服务器端聚合上述步骤中生成的局部模型参数,将局部模型相关层的参数作为特征,通过一个Resnet残差神经网络来提取特征,进而自适应的生成全局模型对应层参数;Resnet的输入层神经元个数与局部模型对应层的神经元个数一致,输出层的神经元个数为U,对应着全局模型相关层神经元个数,局部模型本地训练迭代次数为localep,通信次数为R;局部模型利用本地数据充分训练之后客户端将模型参数上传至终端服务器,当各层的局部模型参数达到一定数量时开始训练Resnet来提取特征从而生成全局模型,即如公式(11)所示:
其中ResNet(·)表示ResNet网络;为全局神经网络参数,l表示层数。
5.一种计算机存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-4中任一项所述的一种基于联邦学习的电力数据异常检测方法。
6.一种计算机设备,包括储存器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-4中任一项所述的一种基于联邦学习的电力数据异常检测方法。
CN202310377836.2A 2023-04-10 2023-04-10 一种基于联邦学习的电力数据异常检测方法 Pending CN116451117A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310377836.2A CN116451117A (zh) 2023-04-10 2023-04-10 一种基于联邦学习的电力数据异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310377836.2A CN116451117A (zh) 2023-04-10 2023-04-10 一种基于联邦学习的电力数据异常检测方法

Publications (1)

Publication Number Publication Date
CN116451117A true CN116451117A (zh) 2023-07-18

Family

ID=87119583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310377836.2A Pending CN116451117A (zh) 2023-04-10 2023-04-10 一种基于联邦学习的电力数据异常检测方法

Country Status (1)

Country Link
CN (1) CN116451117A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117233615A (zh) * 2023-11-10 2023-12-15 中油绿电新能源有限公司 基于对比学习网络的电池充电过程异常检测方法及装置
CN117648215A (zh) * 2024-01-26 2024-03-05 国网山东省电力公司营销服务中心(计量中心) 一种用电信息采集系统异常溯源方法及系统
CN117744012A (zh) * 2024-02-19 2024-03-22 北京智芯微电子科技有限公司 基于融合终端的防止异常用电的方法、装置及电子设备
CN117744012B (zh) * 2024-02-19 2024-05-17 北京智芯微电子科技有限公司 基于融合终端的防止异常用电的方法、装置及电子设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117233615A (zh) * 2023-11-10 2023-12-15 中油绿电新能源有限公司 基于对比学习网络的电池充电过程异常检测方法及装置
CN117233615B (zh) * 2023-11-10 2024-02-06 中油绿电新能源有限公司 基于对比学习网络的电池充电过程异常检测方法及装置
CN117648215A (zh) * 2024-01-26 2024-03-05 国网山东省电力公司营销服务中心(计量中心) 一种用电信息采集系统异常溯源方法及系统
CN117744012A (zh) * 2024-02-19 2024-03-22 北京智芯微电子科技有限公司 基于融合终端的防止异常用电的方法、装置及电子设备
CN117744012B (zh) * 2024-02-19 2024-05-17 北京智芯微电子科技有限公司 基于融合终端的防止异常用电的方法、装置及电子设备

Similar Documents

Publication Publication Date Title
Angelis et al. NILM applications: Literature review of learning approaches, recent developments and challenges
Chen et al. Anomaly detection and critical SCADA parameters identification for wind turbines based on LSTM-AE neural network
US20220397874A1 (en) Non-Intrusive Load Decomposition Method Based on Informer Model Coding Structure
CN111914873A (zh) 一种两阶段云服务器无监督异常预测方法
CN116451117A (zh) 一种基于联邦学习的电力数据异常检测方法
CN115018021B (zh) 基于图结构与异常注意力机制的机房异常检测方法及装置
Du et al. GAN-based anomaly detection for multivariate time series using polluted training set
Yan et al. Big-data-driven based intelligent prognostics scheme in industry 4.0 environment
Jin et al. Position encoding based convolutional neural networks for machine remaining useful life prediction
CN111160626B (zh) 一种基于分解融合的电力负荷时间序列控制方法
CN115983087B (zh) 一种注意力机制与lstm结合检测时序数据异常方法及终端机
CN114266301A (zh) 基于图卷积神经网络的电力设备故障智能预测方法
CN113780060A (zh) 一种基于多模态深度学习的高压开关柜态势感知方法
CN116522265A (zh) 工业互联网时序数据异常检测方法及装置
CN112163020A (zh) 一种多维时间序列异常检测方法及检测系统
Chen et al. Convolution-graph attention network with sensor embeddings for remaining useful life prediction of turbofan engines
Dai et al. Fault diagnosis of data-driven photovoltaic power generation system based on deep reinforcement learning
Wang et al. Fully-Connected Spatial-Temporal Graph for Multivariate Time Series Data
Jiang et al. A timeseries supervised learning framework for fault prediction in chiller systems
Pamir et al. Electricity theft detection for energy optimization using deep learning models
Lin Intelligent Fault Diagnosis of Consumer Electronics Sensor in IoE via Transformer
Deng et al. Intelligent prediction of rolling bearing remaining useful life based on probabilistic DeepAR-Transformer model
Correia et al. Online Time-series Anomaly Detection: A Survey of Modern Model-based Approaches
Hwang et al. CC-GAIN: Clustering and Classification-Based Generative Adversarial Imputation Network for Missing Electricity Consumption Data Imputation
He et al. A deep neural network for anomaly detection and forecasting for multivariate time series in smart city

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination