CN116881639A - 一种基于生成对抗网络的窃电数据合成方法 - Google Patents

一种基于生成对抗网络的窃电数据合成方法 Download PDF

Info

Publication number
CN116881639A
CN116881639A CN202310840154.0A CN202310840154A CN116881639A CN 116881639 A CN116881639 A CN 116881639A CN 202310840154 A CN202310840154 A CN 202310840154A CN 116881639 A CN116881639 A CN 116881639A
Authority
CN
China
Prior art keywords
data
layer
input
loss
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310840154.0A
Other languages
English (en)
Other versions
CN116881639B (zh
Inventor
李琪林
严平
周尧
彭德中
蔡君懿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketing Service Center Of State Grid Sichuan Electric Power Co
Original Assignee
Marketing Service Center Of State Grid Sichuan Electric Power Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketing Service Center Of State Grid Sichuan Electric Power Co filed Critical Marketing Service Center Of State Grid Sichuan Electric Power Co
Priority to CN202310840154.0A priority Critical patent/CN116881639B/zh
Publication of CN116881639A publication Critical patent/CN116881639A/zh
Application granted granted Critical
Publication of CN116881639B publication Critical patent/CN116881639B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • G06F18/15Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种基于生成对抗网络的窃电检测合成方法,包括以下步骤:数据集采集和预处理:采集原始窃电数据组成数据集,并对数据集进行预处理;创建生成对抗网络模型,使用预处理好的数据集进行训练,得到训练好的生成对抗网络模型;加载模型,根据输入的数据生成新的窃电数据。该合成方法能够根据收集的窃电数据来合成新的具有相似特性的新窃电数据,克服利用神经网络进行窃电检测时,数据集中窃电数据相对于正常数据少很多而形成的数据集不平衡的问题;同时有效地针对窃电数据本身的特性,设计构建了独特的生成器和判别器的网络结构,进一步通过所构建的对抗训练方法,实现了高质量的窃电数据的合成。

Description

一种基于生成对抗网络的窃电数据合成方法
技术领域
本发明属于电网窃电技术领域,具体涉及到一种基于生成对抗网络的窃电数据合成方法。
背景技术
现如今,电力在我们的生活中扮演着越来越重要的角色,汽车的动力来源也正逐渐从燃油变为电力。但是电力在从生产到消耗的过程中有着两种类型的损耗:技术性损耗和非技术性损耗,其中非技术性损耗主要是窃电造成的。窃电者未经电力公司授权而消耗的能源,其行为包括绕过电表、篡改电表读数等。窃电行为还会带来严重的安全隐患,危及居民的生命安全。近年来,基于神经网络的人工智能方法在窃电检测中取得了许多成功的应用,当前人工智能方法多使用深度神经网络来进行检测,然而对于窃电数据的检测仍有很多方面的提升,其中不平衡的数据集是影响检测准确率的重要因素之一。窃电者相对于正常用电者的人数很少,其产生的数据较少,因此在整个用电数据集中,窃电数据只占很少的一部分,用不平衡的数据集进行训练会降低网络的检测效果。
现有技术方案主要分为传统方案和生成方案两种。传统方案通过数据增广方法生成新的数据,主要手段包括利用原始数据的片段剪切拼接成新的数据、利用自回归模型通过先前的序列来生成接下来的序列;数据增广方法利用拼接方案会导致神经网络训练时产生过拟合的现象,而利用自回归模型只适用于预测与自身前期相关的现象,即受自身历史因素影响较大的现象,该方法几乎不能为模型的训练提供新的信息。生成方案则利用生成对抗网络的方法,通过学习已有序列中的特性,生成在分布上具有相似性的窃电数据序列;利用生成对抗网络方法很少针对窃电数据的特性进行网络设计,导致产生的数据不能很好的拟合原有数据的分布,从而不能生成质量良好的新窃电数据。
发明内容
针对现有技术中不足,本发明旨在提供一种基于生成对抗网络的窃电数据合成方法,该方法通过学习已有窃电数据的数据分布,从而提供具有相似特性的窃电数据合成方法,解决现有电力消耗的数据集不平衡的问题,为基于神经网络的窃电检测提供良好的数据基础。
为了解决上述技术问题,本发明通过以下方式来实现:
一种基于生成对抗网络的窃电检测合成方法,包括以下步骤:
1)、数据集采集和预处理:采集原始窃电数据组成数据集,并对数据集进行预处理;
2)、创建生成对抗网络模型,使用预处理好的数据集进行训练,得到训练好的生成对抗网络模型;
3)、加载模型,根据输入的数据生成新的窃电数据。
进一步,所述步骤1)中对数据集进行预处理,包括对缺失值的处理和归一化处理,具体包括如下步骤:
11)数据采集与标注:采集用户每日耗电数据组成数据集,由国家电网的工程师依据经验对用电量、台区损失电量和线损率综合分析来标注每个用户是否进行了窃电;
12)对数据集进行读取,筛选出标记为窃电的数据,查看每日耗电数据,并从中找到因设备或者网络故障导致的存在缺失值的数据;
13)对含有缺失值的数据使用插值方法进行处理,如公式所示:
其中,xi表示某一天的耗电数据;
14)对于不同用户数据进行归一化处理,使其数量上绝对值不会影响模型的判断,所述归一化处理的公式如下:
进一步,所述步骤2)的具体包括如下步骤:
21)将预处理完的数据输入至生成对抗网络,该网络包括生成器、判别器1和判别器2三个部分,其中生成器负责将输入噪声向量转换为可用的窃电数据,判别器负责判断所输入的数据是生成器生成数据还是原始数据;
22)生成器的输入数据由噪声及位置编码组成,输入数据先经过一个Transformer编码器后再经过3个组合块,每个组合块由两个Transformer编码器组成,该编码器分别将序列分解模块分解的数据输入;所述序列分解模块对原始窃电数据进行分解,将数据的趋势性和季节性抽离出来,作为知识输入辅助其更好的生成数据;
进一步的,所述生成器的具体描述如下所示:
221)噪声输入是从标准正态分布中数据组成,其向量维度同原始窃电数据维度相同,向量大小是Xin∈R1×1×T,其中T是序列的维度,因Transformer编码器的输入是多个向量,将向量按月进行切分,共分成T/30个向量作为输入,若采集的数据长度不能整除30的数据则直接舍掉,分割后向量的维度为Xin∈R1×30×(T/30)
222)位置编码模块负责给输入向量添加序列的位置信息,其将包含有位置信息的向量与预处理好的向量作相加的运算,位置编码向量的长度是Xe∈R1×30×(T/30),且位置编码向量的参数是可学习的,以便在端到端的训练过程中学习到比绝对位置编码含有更丰富位置信息的编码;
223)生成器基础模块是用Transformer编码器所构成的,该Transformer编码器由自注意力层、层归一化层、残差连接和全连接层构成,输入数据依次经过自注意力层、通过残差连接方式输入到层归一化层、通过全连接层和残差连接方式输入到层归一化层后最终输出。
其中,Transformer编码器中各层的详细描述如下:
首先,数据输入到自注意力层中,自注意层用于处理输入序列之间的关系,在运算过程中将对输入向量之间的联系性进行学习,从全局的视角来看向量之间的联系性;
其次,自注意力层的输出通过残差连接的方式输入到层归一化层中,自注意力层的输出Xl′加上输入Xl共同作为LayerNorm的输入,输入到了层归一化层当中;
具体来说,对于输入数据Xin通过三个线性变换矩阵Q、K、V映射为对应的查询向量DQ、关键词向量DK和值向量DV,三种矩阵的维度均为T×D,D的大小是32,自注意力模块通过某个向量A的查询向量和所有向量的关键词向量相乘来计算该向量A和其他向量的相似度,再将每个相似度同相应的值向量作加权运算得到一个输出向量;本发明使用的相似度计算方法为基于函数的缩放向量点乘方法,具体计算公式如下:
然后,通过全连接层和残差连接方式输入到层归一化层后最终输出,全连接层的计算公式如下:
Xmlp=W1·ReLU(W0·Xattn+b0)+b1 (4)
其中,全连接层共有两层,W0和W1表示两层权重向量,b0和b1表示两层偏执向量,得到的Xmlp再经过层归一化操作变成最终的输出。
计算过程:Transformer编码器的计算过程可以由如下公式表示:
X′l=Attn(Xl·WQ,Xl·WK,Xl·WV) (5)
其中,Xl表示Transformer编码器的输入,Xl′表示自注意力层的输出,表示第一个层归一化和残差连接的输出,WQ WK WV分别表示注意力层中的三个线性变换矩阵,其参数可学习,Xl+1表示该Transformer编码器的输出。
224)序列分解模块通过平均池化的方式将序列拆解为季节性和趋势性,其公式表达如下:
Xt=AvgPool(Padding(X)) (8)
Xs=X-Xt (9)
其中,Xs和Xt分别表示季节性和趋势性,Padding表示卷积操作中填充技巧,使得卷积前后的序列长度不变,Avgpool表示移动平均。
23)判别器1的网络结构包括三个Transformer编码器、全连接层和Softmax层,原始数据或生成器的生成数据作为输入数据,按照月份进行分解,依次经过三个Transformer编码器、全连接层和Softmax层后产生分类结果,若判别器1输出值为1,则输入数据为原始窃电数据;若判别器1输出值为0,则输入数据为生成数据;
24)判别器2的网络结构包括三个卷积块、全连接层,原始数据或生成器的生成数据作为输入数据,按照周为单位使用卷积操作方式进行分解,即Xin∈R1×T变形为Xin∈R1 ×7×(T/7),并对除不尽的维度进行舍弃,依次经过三个卷积块、全连接层;
其中,卷积块操作的运算过程如下:
卷积块依次由卷积层、批归一化层和ReLU激活函数层组成,卷积层通过卷积操作来学习局部知识,且三个卷积块中的卷积操作维度是3×3×64、3×3×128、3×3×256,每个卷积块的计算过程如下公式所示:
Xconv_out_l+1=ReLU(BatchNorm(Conv2d(Xconv_out_l))),l∈{0,1} (10)
全连接层的计算过程如下公式所示:
Xmlp_out=ReLU(BatchNorm(W0·Xconv_out_2+b0)) (11)
25)网络模型训练采用的损失函数是平方损失函数,通过对损失函数进行优化使得生成数据的分布更接近于原始分布;
其中判别器的损失函数如下公式所示:
Dtotal_loss=D1real_loss+D2real_loss+D1fake_loss+D2fake_loss (16)
其中,D1(G(zi))和D2(G(zi))表示生成数据经过判别器的输出值,yi表示原始窃电数据,labeli表示数据对应的标签,D1fake_loss和D1real_loss分别表示判别器1的合成数据损失值和原始窃电数据损失值,D2fake_loss和D2real_loss分别表示判别器2的合成数据损失值和原始窃电数据损失值,Dtotal_loss表示判别器总损失函数值;网络进行训练时,目标是将总损失函数的值最小化接近于0。
其中生成器的损失函数如下公式所示:
其中,D1(G(zi))和D2(G(zi))分别表示生成数据在两个判别器的输出值,1表示的是真实数据的标签。损失函数的意义是计算生成数据同真实标签之间的平方损失函数,优化时尽可能减小损失函数的值,其值越小表示生成数据越接近真实数据的分布。
与现有技术相比,本发明具有的有益效果:
本发明能够根据收集的窃电数据来合成新的具有相似特性的新窃电数据,克服利用神经网络进行窃电检测时,数据集中窃电数据相对于正常数据少很多而形成的数据集不平衡的问题;同时有效地针对窃电数据本身的特性,设计构建了独特的生成器和判别器的网络结构,进一步通过所构建的对抗训练方法,实现了高质量的窃电数据的合成。
附图说明
图1为本发明的整体流程示意图;
图2为本发明的生成对抗网络架构示意图;
图3为本发明的生成器架构示意图;
图4为本发明的Transformer编码器结构示意图;
图5为本发明的判别器1架构示意图;
图6为本发明的判别器2架构示意图;
图7为本发明的卷积块架构示意图。
具体实施方式
下面结合附图和具体实施例对本发明的具体实施方式作进一步详细的说明。
如图1所示,一种基于生成对抗网络的窃电检测合成方法,包括以下步骤:
1)数据集采集和预处理:采集原始窃电数据组成数据集,并对数据集进行预处理;
2)创建生成对抗网络模型,使用预处理好的数据集进行训练,得到训练好的生成对抗网络模型;
3)加载模型,根据输入的数据生成新的窃电数据。
进一步,所述步骤1)中对数据集进行预处理,包括对缺失值的处理和归一化处理,具体包括如下步骤:
11)数据采集与标注:采集用户每日耗电数据组成数据集,由国家电网的工程师依据经验对用电量、台区损失电量和线损率综合分析来标注每个用户是否进行了窃电;
12)对数据集进行读取,筛选出标记为窃电的数据,查看每日耗电数据,并从中找到因设备或者网络故障导致的存在缺失值的数据;
13)对含有缺失值的数据使用插值方法进行处理,如公式所示:
其中,xi表示某一天的耗电数据;
14)由于不同用户的用电量不同,电费绝对值各异,因此对于不同用户数据进行归一化处理,使其数量上绝对值不会影响模型的判断,所述归一化处理的公式如下:
进一步,所述步骤2)的具体包括如下步骤:
21)将预处理完的数据输入至生成对抗网络,如图2所示,网络包括生成器、判别器1和判别器2三个部分,其中生成器负责将输入噪声向量转换为可用的窃电数据,判别器负责判断所输入的数据是生成器生成数据还是原始数据;训练时首先固定生成器的参数不变,使用原始的窃电数据和生成数据来训练判别器,当判别器可以区分出原始数据和生成数据后,固定判别器的参数不变,再训练生成器,使其生成判别器无法判断出来的生成数据。如此往复,就可以得到质量良好的生成数据。
22)如图3所示,生成器的输入数据由噪声及位置编码组成,输入数据先经过一个Transformer编码器后再经过3个组合块,每个组合块由两个Transformer编码器组成,该编码器分别将序列分解模块分解的数据输入;所述序列分解模块对原始窃电数据进行分解,将数据的趋势性和季节性抽离出来,作为知识输入辅助其更好的生成数据;
进一步的,所述生成器的具体描述如下所示:
221)噪声输入是从标准正态分布中数据组成,其向量维度同原始窃电数据维度相同,向量大小是Xin∈R1×1×T,其中T是序列的维度,因Transformer编码器的输入是多个向量,将向量按月进行切分,共分成T/30个向量作为输入,若采集的数据长度不能整除30的数据则直接舍掉,分割后向量的维度为Xin∈R1×30×(T/30)
222)位置编码模块负责给输入向量添加序列的位置信息,输入序列在未进行切分前,其时间信息可由数值间的位置顺序来表示,但是在切分后各向量间的关系变成了对称关系,无法表示时间上的顺序,故在这里加入了位置编码模块。位置编码模块将包含有位置信息的向量与预处理好的向量作相加的运算,位置编码向量的长度是Xe∈R1×30×(T/30),且位置编码向量的参数是可学习的,以便在端到端的训练过程中学习到比绝对位置编码含有更丰富位置信息的编码;
223)生成器基础模块是用Transformer编码器所构成的,如图4所示,Transformer编码器由自注意力层、层归一化层、残差连接和全连接层构成,输入数据依次经过自注意力层、通过残差连接方式输入到层归一化层、通过全连接层和残差连接方式输入到层归一化层后最终输出。
其中,Transformer编码器中各层的详细描述如下:
首先,数据输入到自注意力层中,自注意层用于处理输入序列之间的关系,在运算过程中将对输入向量之间的联系性进行学习,从全局的视角来看向量之间的联系性;相比于循环神经网络,可无视输入数据间的距离,避免学习远距离数据联系时的知识遗忘;相比于卷积神经网络,其感受野更大,作用于全局而非局部的卷积框,且对于序列数据的专攻性更强,能更好的从序列数据中提取联系性和特征。
其次,自注意力层的输出通过残差连接的方式输入到层归一化层中,自注意力层的输出Xl′加上输入Xl共同作为LayerNorm的输入,输入到了层归一化层当中;
具体来说,对于输入数据Xin通过三个线性变换矩阵Q、K、V映射为对应的查询向量DQ、关键词向量DK和值向量DV,三种矩阵的维度均为T×D,D的大小是32,自注意力模块通过某个向量A的查询向量和所有向量的关键词向量相乘来计算该向量A和其他向量的相似度,再将每个相似度同相应的值向量作加权运算得到一个输出向量,输出的向量个数同输入的向量个数是相同的;本发明使用的相似度计算方法为基于函数的缩放向量点乘方法,具体计算公式如下:
层归一化模块负责对输入数据进行归一化操作,使归一化后的数据满足均值为0,标准差为1的正态分布。
然后,通过全连接层和残差连接方式输入到层归一化层后最终输出,全连接层用于提取窃电数据的抽象特征,模型在只有注意力层时,只会出来一些线性组合,表达能力有限,而全连接层可自己学习复杂的特征表达,且起到变换维度的作用,全连接层的计算公式如下:
Xmlp=W1·ReLU(W0·Xattn+b0)+b1 (4)
其中,全连接层共有两层,W0和W1表示两层权重向量,b0和b1表示两层偏执向量,得到的Xmlp再经过层归一化操作变成最终的输出。
计算过程:Transformer编码器的计算过程可以由如下公式表示:
X′l=Attn(Xl·WQ,Xl·WK,Xl·WV) (5)
其中,Xl表示Transformer编码器的输入,X′l表示自注意力层的输出,表示第一个层归一化和残差连接的输出,WQ WK WV分别表示注意力层中的三个线性变换矩阵,其参数可学习,Xl+1表示该Transformer编码器的输出,Xl·WQ、Xl·WK、Xl·WV三项分别对应的Q,K,V。
224)序列分解模块本质上是从统计的角度对于时间序列进行拆解,并赋予拆解的子项以不同的物理意义,用分解后的子块作为条件输入不仅可以生成质量更好的数据,同时还可以便于生成器的训练。序列分解模块通过平均池化的方式将序列拆解为季节性和趋势性,其公式表达如下:
Xt=AvgPool(Padding(X)) (8)
Xs=X-Xt (9)
其中,Xs和Xt分别表示季节性和趋势性,Padding表示卷积操作中填充技巧,使得卷积前后的序列长度不变,Avgpool表示移动平均。
23)如图5所示,判别器1的网络结构包括三个Transformer编码器、全连接层和Softmax层,原始数据或生成器的生成数据作为输入数据,按照月份进行分解,依次经过三个Transformer编码器、全连接层和Softmax层后产生分类结果,若判别器1输出值为1,则输入数据为原始窃电数据;若判别器1输出值为0,则输入数据为生成数据;
24)如图6所示,判别器2的网络结构包括三个卷积块、全连接层,由于生成器和判别器1都使用了按月进行分解序列的模式,在以月的时间维度上可很好的学习到彼此的相关性及模式;对于判别器2判断序列以周为单位的特性,使用卷积操作而非注意力机制,来判断周与周之间的关系。原始数据或生成器的生成数据作为输入数据,按照周为单位使用卷积操作方式进行分解,即Xin∈R1×T变形为Xin∈R1×7×(T/7),并对除不尽的维度进行舍弃,依次经过三个卷积块、全连接层,判别器2对结果的判定同判别器1。
其中,卷积块操作的运算过程如图7所示如下:
卷积块依次由卷积层、批归一化层和ReLU激活函数层组成,卷积层通过卷积操作来学习局部知识,且三个卷积块中的卷积操作维度是3×3×64、3×3×128、3×3×256,批归一化操作使得梯度下降时具有良好的性能和预测性,从而可更快速有效地进行优化,且减缓梯度消失问题,激活函数则是将非线性特性引入到网络中;每个卷积块的计算过程如下公式所示:
Xconv_out_l+1=ReLU(BatchNorm(Conv2d(Xconv_out_l))),l∈{0,1} (10)
全连接层的计算过程如下公式所示:
Xmlp_out=ReLU(BatchNorm(W0·Xconv_out_2+b0)) (11)
25)通过对损失函数进行优化使得生成数据的分布更接近于原始分布,具体来讲损失函数优化的越小,两者的分布更接近,网络模型训练采用的损失函数是平方损失函数,计算是真实值y与预测值f(x)之间的平方差,两者差距越大,损失越大。
其中判别器的损失函数如下公式所示:
Dtotal_loss=D1real_loss+D2real_loss+D1fake_loss+D2fake_loss (16)
其中,D1(G(zi))和D2(G(zi))表示生成数据经过判别器的输出值,yi表示原始窃电数据,labeli表示数据对应的标签,D1fake_loss和D1real_loss分别表示判别器1的合成数据损失值和原始窃电数据损失值,D2fake_loss和D2real_loss分别表示判别器2的合成数据损失值和原始窃电数据损失值,Dtotal_loss表示判别器总损失函数值;网络进行训练时,目标是将总损失函数的值最小化接近于0。
其中生成器的损失函数如下公式所示:
其中,D1(G(zi))和D2(G(zi))分别表示生成数据在两个判别器的输出值,1表示的是真实数据的标签。损失函数的意义是计算生成数据同真实标签之间的平方损失函数,优化时尽可能减小损失函数的值,其值越小表示生成数据越接近真实数据的分布。
以上所述仅是本发明的实施方式,再次声明,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进,这些改进也列入本发明权利要求的保护范围内。

Claims (7)

1.一种基于生成对抗网络的窃电检测合成方法,其特征在于:包括以下步骤:
1)、数据集采集和预处理:采集原始窃电数据组成数据集,并对数据集进行预处理;
2)、创建生成对抗网络模型,使用预处理好的数据集进行训练,得到训练好的生成对抗网络模型;
3)、加载模型,根据输入的数据生成新的窃电数据。
2.根据权利要求1所述的一种基于生成对抗网络的窃电检测合成方法,其特征在于:
所述步骤1)中对数据集进行预处理,包括对缺失值的处理和归一化处理,具体包括如下步骤:
11)数据采集与标注:采集用户每日耗电数据组成数据集,由工程师依据经验对用电量、台区损失电量和线损率综合分析来标注每个用户是否进行了窃电;
12)对数据集进行读取,筛选出标记为窃电的数据,查看每日耗电数据,并从中找到因设备或者网络故障导致的存在缺失值的数据;
13)对含有缺失值的数据使用插值方法进行处理,如公式所示:
其中,xi表示某一天的耗电数据;
14)对于不同用户数据进行归一化处理,使其数量上绝对值不会影响模型的判断,所述归一化处理的公式如下:
3.根据权利要求1所述的一种基于生成对抗网络的窃电检测合成方法,其特征在于:
所述步骤2)的具体包括如下步骤:
21)将预处理完的数据输入至生成对抗网络,该网络包括生成器、判别器1和判别器2三个部分,其中生成器负责将输入噪声向量转换为可用的窃电数据,判别器负责判断所输入的数据是生成器生成数据还是原始数据;
22)生成器的输入数据由噪声及位置编码组成,输入数据先经过一个Transformer编码器后再经过3个组合块,每个组合块由两个Transformer编码器组成,该编码器分别将序列分解模块分解的数据输入;所述序列分解模块对原始窃电数据进行分解,将数据的趋势性和季节性抽离出来,作为知识输入辅助其更好的生成数据;
23)判别器1的网络结构包括三个Transformer编码器、全连接层和Softmax层,原始数据或生成器的生成数据作为输入数据,按照月份进行分解,依次经过三个Transformer编码器、全连接层和Softmax层后产生分类结果,若判别器1输出值为1,则输入数据为原始窃电数据;若判别器1输出值为0,则输入数据为生成数据;
24)判别器2的网络结构包括三个卷积块、全连接层,原始数据或生成器的生成数据作为输入数据,按照周为单位使用卷积操作方式进行分解,Xin∈R1×T变形为了Xin∈R1×7×(T/7),依次经过三个卷积块、全连接层;
25)网络模型训练采用的损失函数是平方损失函数,通过对损失函数进行优化使得生成数据的分布更接近于原始分布。
4.根据权利要求3所述的一种基于生成对抗网络的窃电检测合成方法,其特征在于:
所述步骤22)中生成器的具体描述如下所示:
221)噪声输入是从标准正态分布中数据组成,其向量维度同原始窃电数据维度相同,向量大小是Xin∈R1×1×T,其中T是序列的维度,因Transformer编码器的输入是多个向量,将向量按月进行切分,共分成T/30个向量作为输入,若采集的数据长度不能整除30的数据则直接舍掉,分割后向量的维度为Xin∈R1×30×(T/30)
222)位置编码模块负责给输入向量添加序列的位置信息,其将包含有位置信息的向量与预处理好的向量作相加的运算,位置编码向量的长度是Xe∈R1×30×(T/30),且位置编码向量的参数是可学习的,以便在端到端的训练过程中学习到比绝对位置编码含有更丰富位置信息的编码;
223)生成器基础模块是用Transformer编码器所构成的,该Transformer编码器由自注意力层、层归一化层、残差连接和全连接层构成,输入数据依次经过自注意力层、通过残差连接方式输入到层归一化层、通过全连接层和残差连接方式输入到层归一化层后最终输出。
224)序列分解模块通过平均池化的方式将序列拆解为季节性和趋势性,其公式表达如下:
Xt=AvgPool(Padding(X)) (8)
Xs=X-Xt (9)
其中,Xs和Xt分别表示季节性和趋势性,Padding表示卷积操作中填充技巧,使得卷积前后的序列长度不变,Avgpool表示移动平均。
5.根据权利要求3所述的一种基于生成对抗网络的窃电检测合成方法,其特征在于:
所述步骤24)中卷积块操作的运算过程如下:
卷积块依次由卷积层、批归一化层和ReLU激活函数层组成,卷积层通过卷积操作来学习局部知识,且三个卷积块中的卷积操作维度是3×3×64、3×3×128、3×3×256,每个卷积块的计算过程如下公式所示:
Xconv_out_l+1=ReLU(BatchNorm(Conv2d(Xconv_out_l))),l∈{0,1} (10)
全连接层的计算过程如下公式所示:
Xmlp_out=ReLU(BatchNorm(W0·Xconv_out_2+b0)) (11)。
6.根据权利要求3所述的一种基于生成对抗网络的窃电检测合成方法,其特征在于:
所述步骤25)中判别器的损失函数如下公式所示:
Dtotal_loss=D1real_loss+D2real_loss+D1fake_loss+D2fake_loss (16)
其中,D1(G(zi))和D2(G(zi))表示生成数据经过判别器的输出值,yi表示原始窃电数据,labeli表示数据对应的标签,D1fake_loss和D1real_loss分别表示判别器1的合成数据损失值和原始窃电数据损失值,D2fake_loss和D2real_loss分别表示判别器2的合成数据损失值和原始窃电数据损失值,Dtotal_loss表示判别器总损失函数值;
其中生成器的损失函数如下公式所示:
其中,D1(G(zi))和D2(G(zi))分别表示生成数据在两个判别器的输出值,1表示的是真实数据的标签。
7.根据权利要求4所述的一种基于生成对抗网络的窃电检测合成方法,其特征在于:
所述步骤223)中Transformer编码器中各层的详细描述如下:
首先,数据输入到自注意力层中,自注意层用于处理输入序列之间的关系,在运算过程中将对输入向量之间的联系性进行学习,从全局的视角来看向量之间的联系性;
其次,自注意力层的输出通过残差连接的方式输入到层归一化层中,自注意力层的输出X′l加上输入Xl共同作为LayerNorm的输入,输入到了层归一化层当中;
对于输入数据Xin通过三个线性变换矩阵Q、K、V映射为对应的查询向量DQ、关键词向量DK和值向量DV,三种矩阵的维度均为T×D,D的大小是32,自注意力模块通过某个向量A的查询向量和所有向量的关键词向量相乘来计算该向量A和其他向量的相似度,再将每个相似度同相应的值向量作加权运算得到一个输出向量;使用的相似度计算方法为基于函数的缩放向量点乘方法,具体计算公式如下:
然后,通过全连接层和残差连接方式输入到层归一化层后最终输出,全连接层的计算公式如下:
Xmlp=W1·ReLU(W0·Xattn+b0)+b1 (4)
其中,全连接层共有两层,W0和W1表示两层权重向量,b0和b1表示两层偏执向量,得到的Xmlp再经过层归一化操作变成最终的输出;
Transformer编码器的计算过程可以由如下公式表示:
X′l=Attn(Xl·WQ,Xl·WK,Xl·Wv) (5)
其中,Xl表示Transformer编码器的输入,X′l表示自注意力层的输出,表示第一个层归一化和残差连接的输出,WQWKWV分别表示注意力层中的三个线性变换矩阵,Xl+1表示该Transformer编码器的输出。/>
CN202310840154.0A 2023-07-10 2023-07-10 一种基于生成对抗网络的窃电数据合成方法 Active CN116881639B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310840154.0A CN116881639B (zh) 2023-07-10 2023-07-10 一种基于生成对抗网络的窃电数据合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310840154.0A CN116881639B (zh) 2023-07-10 2023-07-10 一种基于生成对抗网络的窃电数据合成方法

Publications (2)

Publication Number Publication Date
CN116881639A true CN116881639A (zh) 2023-10-13
CN116881639B CN116881639B (zh) 2024-07-23

Family

ID=88254251

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310840154.0A Active CN116881639B (zh) 2023-07-10 2023-07-10 一种基于生成对抗网络的窃电数据合成方法

Country Status (1)

Country Link
CN (1) CN116881639B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118194141A (zh) * 2024-05-17 2024-06-14 国网安徽省电力有限公司营销服务中心 一种用电行为判别方法及系统
CN118378131A (zh) * 2024-06-21 2024-07-23 山东欧通信息科技有限公司 智能电表数据分析与异常检测方法及系统

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236037A (zh) * 2010-04-29 2011-11-09 上海欣影电力科技发展有限公司 一种电力智能稽查管理系统
CN113570516A (zh) * 2021-07-09 2021-10-29 湖南大学 基于CNN-Transformer混合自编码器的图像盲运动去模糊方法
CN113763442A (zh) * 2021-09-07 2021-12-07 南昌航空大学 一种可变形医学图像配准方法及系统
CN113780402A (zh) * 2021-09-07 2021-12-10 福州大学 一种基于改进式生成对抗网络的用户窃电检测方法
CN114818313A (zh) * 2022-04-22 2022-07-29 国网上海市电力公司 一种基于合成少数类过采样技术的隐蔽窃电行为辨识方法
CN115017946A (zh) * 2022-05-27 2022-09-06 南京航空航天大学 一种小样本类不平衡的轴承智能故障诊断方法
CN115081475A (zh) * 2022-06-08 2022-09-20 西安电子科技大学 基于Transformer网络的干扰信号识别方法
CN115147676A (zh) * 2022-06-23 2022-10-04 浙江工商大学 一种基于层级多视角的自监督动作识别方法及装置
CN115186012A (zh) * 2022-07-21 2022-10-14 长沙理工大学 一种用电量数据检测方法、装置、设备及存储介质
CN115393534A (zh) * 2022-10-31 2022-11-25 深圳市宝润科技有限公司 基于深度学习的锥束三维dr重建的方法及系统
CN115395643A (zh) * 2022-07-27 2022-11-25 国网江苏省电力有限公司盐城供电分公司 基于全数据采集和状态感知的低压配电网故障预警定位装置及系统
WO2022252272A1 (zh) * 2021-06-03 2022-12-08 江苏大学 一种基于迁移学习的改进vgg16网络猪的身份识别方法
CN115564339A (zh) * 2022-11-08 2023-01-03 国网甘肃省电力公司张掖供电公司 基于Pix2Pix网络和深度学习的台区异常线损识别方法
CN115690449A (zh) * 2022-11-09 2023-02-03 重庆大学 一种基于局部特征增强和并行解码器的图像标注方法
CN115936983A (zh) * 2022-11-01 2023-04-07 青岛哈尔滨工程大学创新发展中心 基于风格迁移的核磁图像超分辨率方法、装置及计算机存储介质
CN115936926A (zh) * 2022-12-29 2023-04-07 国网湖南省电力有限公司供电服务中心(计量中心) 一种基于smote-gbdt的不平衡窃电数据分类方法、装置、计算机设备和存储介质
CN115983497A (zh) * 2023-02-16 2023-04-18 华润数字科技有限公司 一种时序数据预测方法和装置、计算机设备、存储介质
US20230128164A1 (en) * 2021-09-27 2023-04-27 Verint Americas Inc. Variational Auto-Encoder for Multivariate Time Series Generation
CN116342649A (zh) * 2023-03-10 2023-06-27 刘通 一种复杂场景下低分辨率图像中进行特定目标物体跟踪的方法、装置与设备
US20230205956A1 (en) * 2021-12-24 2023-06-29 Commissariat à l'Energie Atomique et aux Energies Alternatives Neural network with on-the-fly generation of the network parameters

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236037A (zh) * 2010-04-29 2011-11-09 上海欣影电力科技发展有限公司 一种电力智能稽查管理系统
WO2022252272A1 (zh) * 2021-06-03 2022-12-08 江苏大学 一种基于迁移学习的改进vgg16网络猪的身份识别方法
CN113570516A (zh) * 2021-07-09 2021-10-29 湖南大学 基于CNN-Transformer混合自编码器的图像盲运动去模糊方法
CN113763442A (zh) * 2021-09-07 2021-12-07 南昌航空大学 一种可变形医学图像配准方法及系统
CN113780402A (zh) * 2021-09-07 2021-12-10 福州大学 一种基于改进式生成对抗网络的用户窃电检测方法
US20230128164A1 (en) * 2021-09-27 2023-04-27 Verint Americas Inc. Variational Auto-Encoder for Multivariate Time Series Generation
US20230205956A1 (en) * 2021-12-24 2023-06-29 Commissariat à l'Energie Atomique et aux Energies Alternatives Neural network with on-the-fly generation of the network parameters
CN114818313A (zh) * 2022-04-22 2022-07-29 国网上海市电力公司 一种基于合成少数类过采样技术的隐蔽窃电行为辨识方法
CN115017946A (zh) * 2022-05-27 2022-09-06 南京航空航天大学 一种小样本类不平衡的轴承智能故障诊断方法
CN115081475A (zh) * 2022-06-08 2022-09-20 西安电子科技大学 基于Transformer网络的干扰信号识别方法
CN115147676A (zh) * 2022-06-23 2022-10-04 浙江工商大学 一种基于层级多视角的自监督动作识别方法及装置
CN115186012A (zh) * 2022-07-21 2022-10-14 长沙理工大学 一种用电量数据检测方法、装置、设备及存储介质
CN115395643A (zh) * 2022-07-27 2022-11-25 国网江苏省电力有限公司盐城供电分公司 基于全数据采集和状态感知的低压配电网故障预警定位装置及系统
CN115393534A (zh) * 2022-10-31 2022-11-25 深圳市宝润科技有限公司 基于深度学习的锥束三维dr重建的方法及系统
CN115936983A (zh) * 2022-11-01 2023-04-07 青岛哈尔滨工程大学创新发展中心 基于风格迁移的核磁图像超分辨率方法、装置及计算机存储介质
CN115564339A (zh) * 2022-11-08 2023-01-03 国网甘肃省电力公司张掖供电公司 基于Pix2Pix网络和深度学习的台区异常线损识别方法
CN115690449A (zh) * 2022-11-09 2023-02-03 重庆大学 一种基于局部特征增强和并行解码器的图像标注方法
CN115936926A (zh) * 2022-12-29 2023-04-07 国网湖南省电力有限公司供电服务中心(计量中心) 一种基于smote-gbdt的不平衡窃电数据分类方法、装置、计算机设备和存储介质
CN115983497A (zh) * 2023-02-16 2023-04-18 华润数字科技有限公司 一种时序数据预测方法和装置、计算机设备、存储介质
CN116342649A (zh) * 2023-03-10 2023-06-27 刘通 一种复杂场景下低分辨率图像中进行特定目标物体跟踪的方法、装置与设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YONG-HOON KWON ET AL.: "Predicting Future Frames using Retrospective Cycle GAN", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 9 January 2020 (2020-01-09) *
王德文等: "基于生成式对抗网络的窃电检测数据生成方法", 电网技术, vol. 44, no. 2, 5 February 2020 (2020-02-05), pages 775 - 782 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118194141A (zh) * 2024-05-17 2024-06-14 国网安徽省电力有限公司营销服务中心 一种用电行为判别方法及系统
CN118194141B (zh) * 2024-05-17 2024-08-06 国网安徽省电力有限公司营销服务中心 一种用电行为判别方法及系统
CN118378131A (zh) * 2024-06-21 2024-07-23 山东欧通信息科技有限公司 智能电表数据分析与异常检测方法及系统

Also Published As

Publication number Publication date
CN116881639B (zh) 2024-07-23

Similar Documents

Publication Publication Date Title
CN116881639B (zh) 一种基于生成对抗网络的窃电数据合成方法
Wang et al. Dual-attention generative adversarial networks for fault diagnosis under the class-imbalanced conditions
CN113884290B (zh) 基于自训练半监督生成对抗网络的调压器故障诊断方法
Gao et al. ASM1D-GAN: An intelligent fault diagnosis method based on assembled 1D convolutional neural network and generative adversarial networks
Cao et al. Fault diagnosis of wind turbine gearbox based on deep bi-directional long short-term memory under time-varying non-stationary operating conditions
CN113128113B (zh) 一种基于深度学习和迁移学习的贫乏信息建筑负荷预测方法
CN112883994A (zh) 一种均衡分布适配的旋转机械变工况故障诊断方法
CN113157771A (zh) 一种数据异常检测方法及电网数据异常检测方法
Nath et al. Structural rotor fault diagnosis using attention-based sensor fusion and transformers
CN113639993B (zh) 多模态多任务卷积神经网络的齿轮箱故障诊断方法
CN113469266B (zh) 一种基于改进深度卷积神经网络的窃电行为检测方法
CN117725491B (zh) 一种基于SCINet的电力系统故障状态检测分类方法
CN111553510A (zh) 一种短期风速预测方法
Du et al. DCGAN based data generation for process monitoring
CN111709588A (zh) 一种用电量预测方法和系统
CN114266416A (zh) 基于相似日的光伏发电功率短期预测方法、装置及存储介质
CN113361803A (zh) 基于生成对抗网络的超短期光伏功率预测方法
Phan et al. An approach using transformer-based model for short-term PV generation forecasting
CN117439045A (zh) 综合能源系统多元负荷预测方法
Jønler et al. Probabilistic forecasts of global horizontal irradiance for solar systems
CN117786529A (zh) 一种风电机组scada数据智能修复方法
CN117852588A (zh) 一种基于深层残差神经网络的ai芯片测评参数确定方法
CN112232570A (zh) 一种正向有功总电量预测方法、装置及可读存储介质
CN109214103B (zh) 基于边界约束生成对抗网络的齿轮可靠性分析系统
CN117237715A (zh) 一种基于多分支混合量子经典神经网络的图像多分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant