CN117033916A - 一种基于神经网络的窃电检测方法 - Google Patents
一种基于神经网络的窃电检测方法 Download PDFInfo
- Publication number
- CN117033916A CN117033916A CN202310840149.XA CN202310840149A CN117033916A CN 117033916 A CN117033916 A CN 117033916A CN 202310840149 A CN202310840149 A CN 202310840149A CN 117033916 A CN117033916 A CN 117033916A
- Authority
- CN
- China
- Prior art keywords
- layer
- data
- input
- vector
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 24
- 230000005611 electricity Effects 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 10
- 230000007246 mechanism Effects 0.000 claims abstract description 8
- 238000011049 filling Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 7
- 238000011068 loading method Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 112
- 238000000605 extraction Methods 0.000 claims description 43
- 238000010606 normalization Methods 0.000 claims description 41
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 18
- 238000000354 decomposition reaction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 11
- 230000001932 seasonal effect Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000007547 defect Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000002354 daily effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000295 fuel oil Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
- G06F18/15—Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于神经网络的窃电检测方法,包括以下步骤:S1、数据预处理:对输入的数据集中存在的缺失情况进行预处理,填补缺失值,并对数据进行归一化处理;S2、根据窃电数据特征创建检测网络模型,使用处理好的数据集来训练模型;S3、加载模型,根据输入的电力消耗数据来进行检测。该发明的窃电检测方法通过利用卷积神经网络来提取数据周内与相邻周间信息,并利用自注意力机制来提取月份间的信息,且针对难以从复杂的序列模式提取出模式的依赖关系问题,对序列进行了分解,从而提高窃电检测的准确率并降低检测的假阳率。
Description
技术领域
本发明属于窃电检测技术领域,具体涉及到一种基于神经网络的窃电检测方法。
背景技术
现如今,电力在我们的生活中扮演着越来越重要的角色,汽车的动力来源也正逐渐从燃油变为电力,但是电力从生产到消耗的过程中存在着两种类型的损耗:技术性损耗和非技术性损耗,其中非技术性损耗主要是窃电造成的。窃电者未经电力公司授权而消耗的能源,窃电行为带来了严重的安全隐患,危及居民的生命安全。早期的检测窃电行为主要靠人工手段,但近年来智能电网的建设以及基于神经网络的人工智能技术的发展为我们解决窃电问题提供了新的机遇。但是现有结合两者技术的方法针对已有数据所做出的归纳偏置还有待完善,没有充分利用现有数据的特性。
现有技术方案大致分为三种:基于状态的检测方法、基于博弈的检测方法以及基于分类的检测方法。基于状态的检测方法使用特定的硬件设备,如无线传感器和射频识别标签来进行检测,以提供高检测精度,但其额外需要的硬件设施也为监管系统引入了额外的成本开销;基于博弈的检测方法则将窃电检测问题建模为窃电者和电力公司间的博弈,通过制定盗窃电力人员、监管人员和电力公司在内的所有与电力生产消费环节的有关实体的效用函数和潜在战略的方式,基于博弈的检测方法需要兼顾多方的博弈,其实施难度很大,且效果往往也不是最优;基于分类的检测方法则利用电力消费者存在的固有消费模式来甄别潜在的窃电者,相较于正常用户,窃电者的消费模式是不规则的,而针对分类方法则有传统的机器学习和神经网络方法,神经网络对如今大数据的适配度更好,能达到的性能上限也更高,但是现有的神经网络方法往往是把已有的其他任务网络架构直接套用到电力消耗的数据上,很少对电力消耗的数据做出针对性的架构设计,限制了其的检测率的提高,且导致其拥有更高的假阳性率。
发明内容
针对现有技术的不足,本发明旨在提出一种基于神经网络的窃电检测方法,该方法综合考虑电力消耗数据本身作为时序数据特点,对进行窃电检测的神经网络结构做出针对性的调整,通过对窃电数据复杂的相关性和周期性进行建模,解决现有的基于神经网络窃电检测方法的网络架构没有很好的利用数据集特点的问题,从而提高窃电检测的准确率并降低检测的假阳率。
为了解决上述技术问题,本发明通过以下方式来实现:
一种基于神经网络的窃电检测方法,包括以下步骤:
S1、数据预处理:对输入的数据集中存在的缺失情况进行预处理,填补缺失值,并对数据进行归一化处理;
S2、根据窃电数据特征创建检测网络模型,使用处理好的数据集来训练模型;
S3、加载模型,根据输入的电力消耗数据来进行检测。
进一步,所述步骤S1中数据预处理具体包括如下步骤:
S11、数据采集与标注:采集用户每日耗电数据组成数据集,由国家电网的工程师依据经验对用电量、台区损失电量和线损率综合分析标注每个用户是否进行了窃电;
S12、对步骤S11中的数据集进行读取,查看每日的耗电数据,并从中找到因设备或者网络故障导致的存在缺失值的数据;
S13、在数据集中识别空间相近似的10个样本,并计算它们之间的欧氏距离,再找到每个缺失样本距离最小的10样本来估算数据点的缺失值,每个样本的缺失值使用该10个邻居的平均值进行插补,计算公式如下:
其中,Dij表示第i个和第j个样本之间的欧氏距离,xi和xj分别表示第i个样本和第j个样本;
S14、对于不同用户数据进行归一化处理,归一化公式如下:
其中,Xnorm表示处理后的向量,xi表示原始向量的每一个维度,xmin表示该向量所有维度中的最小值,xmax表示该向量所有维度中的最大值。
进一步,所述步骤S2中创建窃电检测网络模型,使用预处理完的数据作为输入,具体包括如下步骤:
S21、将预处理完的数据输入至特征提取网络,整个网络表述为三个部分,每部分负责提取不同的特征,最后将三部分特征组合在一起后输入分类网络进行分类,且充分利用电力消耗数据本身特性,三部分特征提取网络在数据输入时分别做以下处理;
S22、特征提取网络1利用卷积神经网络来提取数据的部分知识,将一维线性的数据进行二维化处理,具体卷积操作是利用不同尺度的卷积操作,分别学习不同天数的同一周内部相邻k天以及跨周的相邻k周之间的相关知识,并使用三个卷积块操作且保持矩阵的形状不变,将三者输出的通道拼接起来经过池化层和激活层作为输出;
特征提取网络1的具体描述如下所示:
S221、将预处理后的数据进行维度上的变形,将其从Xin∈R1×1×T,变成Xin1∈R1 ×7×(T/7),若T不能被7整除,则将余数部分丢弃,变形后的数据变成一个二维矩阵;
S222、特征提取网络1利用不同尺度的卷积块操作对重新排列后的数据进行特征提取,尺度分别是3×3、5×5、7×7,即对一周内相邻的三天、五天、七天耗电量的数据关系进行建模,同时对相邻周的同一天也进行了建模;
具体卷积块操作的运算过程是:
卷积块依次由卷积层、批归一化层、ReLU激活函数层及卷积层、批归一化层、ReLU激活函数层组成,两卷积层的卷积核大小分别是16×1×3×3和32×1×3×3,且卷积运算使用padding运算保持二维向量的尺度不变,对于输入维度为Xin1∈R1×7×(T/7)的数据,其输出为Xout13∈R32×7×(T/7);
S223、将三个卷积块的输出通道数拼接起来,最终输出为Xout1∈R96×7×(T/7),特征提取网络1公式表示如下:
X′out1k=ReLU(BatchNorm(Conv2d(Padding(Xin1)))),k∈{3,5,7} (3)
Xout1k=ReLU(BatchNorm(Conv2d(Padding(X′out1k)))),k∈{3,5,7} (4)
Xout1=[Xout13,Xout15,Xout17] (5)
其中,X′out1k指的是某个卷积层进行第一次卷积运算后的输出,Xout1k表示第二次卷积运算后的输出,BatchNorm()是归一化操作,Conv2d是卷积运算的符号。
S23、特征提取网络2利用注意力机制来提取数据的部分知识,将数据按月进行分割作为注意力机制的输入,并在输入前引入固定位置编码作为不同月份的顺序知识;
特征提取网络2的具体描述如下所示:
S231、噪声输入是从标准正态分布中数据组成,其向量维度是1×1×T,因Transformer编码器的输入是多个向量,将向量按月进行切分,共分成T/30个向量作为输入,若不满30天的余数直接丢弃,分割后向量的维度是Xin2∈R1×30×(T/30)
S232、位置编码模块负责给输入向量添加序列的位置信息,其将包含有位置信息的向量与预处理好的向量作相加运算,位置编码向量维度是Xe∈R1×30×(T/30),且位置编码向量的参数是可学习的,以便在端到端的训练过程中学习到比绝对位置编码含有更丰富位置信息的编码;
S233、加入位置编码后的数据输入,连续经过3个Transformer编码器后获得输出特征,该Transformer编码器由自注意力层、层归一化层、残差连接和全连接层构成,输入数据依次经过自注意力层、通过残差连接方式输入到层归一化层、通过全连接层和残差连接方式输入到层归一化层后最终输出。
其中,Transformer编码器中各层的详细描述如下:
首先,数据输入到自注意力层中,自注意层用于处理输入序列之间的关系,在运算过程中将对输入向量之间的联系性进行学习,从全局视角来看向量之间的联系性;
其次,自注意力层的输出通过残差连接的方式输入到层归一化层中,将注意力层的输入Xl和注意力层的输出Xl ′相加后,作为层归一化层的输入;
具体来说,对于输入数据Xin2通过三个线性变换矩阵Q、K、V映射为对应的查询向量DQ、关键词向量DK和值向量DV,三种矩阵的维度均为30×D,D的大小是32,自注意力模块通过某个向量A的查询向量和所有向量的关键词向量相乘来计算该向量A和其他向量的相似度,再将每个相似度同相应的值向量作加权运算得到一个输出向量;本发明所使用的相似度计算方法为基于函数的缩放向量点乘方法,计算公式如下:
然后,通过全连接层和残差连接方式输入到层归一化层后最终输出,全连接层的计算公式如下:
Xmlp=W1·ReLU(W0·Xattn+b0)+b1 (7)
其中,W0和W1表示两层权重向量,b0和b1表示两层偏执向量。
计算过程:特征提取网络2的Transformer编码器可以由如下公式表示,
X′l=Attn(Xl·WQ,Xl·WK,Xl·WV) (8)
其中,Xl表示Transformer编码器的输入,X′l表示自注意力层的输出,表示第一个层归一化和残差连接的输出,WQ WK WV分别表示注意力层中的三个线性变换矩阵,其参数可学习,Xl+1表示该Transformer编码器的输出。
S24、特征提取网络3利用电力消耗数据作为时间序列数据本身的特性进行建模,将数据分解后再进行学习到相应的知识,特征提取网络3主要由两部分组成,一部分是序列分解模块,其作用是把原始的时间序列分解季节项和趋势项,另一部分是混合全连接网络,其作用是进行一个重新编码。
特征提取网络3的具体描述如下所示:
S241、序列分解模块通过平均池化的方式将时间序列拆解为季节性和趋势性,其公式表达如下:
Xt=AvgPool(Padding(X)) (11)
Xs=X-Xt (12)
其中,Xs和Xt分别表示季节性和趋势性,Padding表示卷积操作中填充技巧,使得卷积前后的序列长度不变,Avgpool表示移动平均。
S242、混合全连接层结构由全连接层、批归一化层和激活函数层构成,混合全连接层的输入,依次使用其包含的层进行计算,每一层的输出作为下一层的输入,最后一层的输出作为混合全连接层的输出,其输入是按周进行分割的数据序列,作用是在周这个时间单位上建立全局的联系,弥补卷积神经网络无法构建全局联系的缺点。
其中,混合全连接层的具体描述如下
将输入数据Xin∈R1×1×T进行变形成Xin3∈R1×30×(T/30)作为输入,一个混合全连接层使用两个全连接块进行运算,第一个全连接块将数据视为T/30个30维的向量,这些向量各自内部经过全连接块计算,混合向量内部的信息,意义在于每个月都学习月内的相关性,希望找到每个月自身的性质;第二个全连接块将T/30个向量的对应维度进行混合,学习该尺度上的特征;将Xin3和序列分解模块的季节性Xs相加作为第一个混合全连接层的输入,再经两个全连接块计算公式如下:
X0=Xin3+Xs (13)
X1=ReLU(BatchNorm(W0·X0+b0)) (14)
其中,X1表示第一个全连接层的输出,X2表示第二个全连接层的输出,表示对于向量X1的转置;
S243、每次序列分解后将趋势性相加,季节性用于混合全连接层的计算输入,最终将两个过程的结果相加作为输出,公式如下:
Xt=Xt1+Xt2+Xt3 (16)
Xout3=Xs+Xt (17)
其中,Xt1,Xt2,Xt3分别表示每个序列分解模块分解出的趋势性,Xs是经过计算最终获得的季节性。
S25、最后将三部分特征提取网络的输出拼接在一起输入到分类网络,进行分类任务的预测,分类网络使用全连接层进行计算,输出的值Xclass_out若大于0.5表示有窃电行为;
其中分类网路利用两个全连接层进行计算,其公式如下
Xclass_in=Xout1+Xout2+Xout3 (18)
Xclass_out=W1·(W0·Xclass_in+b0)+b1 (19)
其中,Xclass_in表示分类网络的输入,由Xout1、Xout2、Xout3相加而来。Xclass_out是分类网络的输出。b0、b1、W0、W1是全连接层的可学习参数。
与现有技术相比,本发明具有的有益效果:
本发明申请根据用户耗电量数据的特点构建一个窃电检测的模型,高效率的利用用户耗电量的数据检测出该用户是否出现过窃电行为;使用恰当的方式对数据进行了预处理,经过预处理后的数据更加有效地辅助网络进行检测;通过设计的三种网络提取结构,学习了用户天与天之间、周与周之间、月与月之间的数据模式及更深尺度的特征,进一步通过时间序列的分解,强化突出电力消费序列中隐藏的季节性和趋势性,使得其特点更容易被学习到。
通过利用卷积神经网络来提取数据周内与相邻周间信息,并利用自注意力机制来提取月份间的信息,且针对难以从复杂的序列模式提取出模式的依赖关系问题,对序列进行了分解,从而提高窃电检测的准确率并降低检测的假阳率。
附图说明
图1为本发明创建的窃电检测网络模型示意图:
图2为本发明中特征提取网络1操作流程示意图;
图3为本发明中卷积块操作过程示意图;
图4为本发明中特征提取网络2操作流程示意图;
图5为本发明中Transformer编码器的结构示意图;
图6为本发明中特征提取网络3操作流程示意图;
图7为本发明混合全连接层结构示意图;
图8为本发明的分类网络结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明的具体实施方式作进一步详细的说明。
下面结合附图和具体实施例对本发明的具体实施方式作进一步详细的说明。
一种基于神经网络的窃电检测方法,包括以下步骤:
S1、数据预处理:对输入的数据集中存在的缺失情况进行预处理,填补缺失值,并对数据进行归一化处理;
S2、根据窃电数据特征创建检测网络模型,使用处理好的数据集来训练模型;
S3、加载模型,根据输入的电力消耗数据来进行检测。
进一步,所述步骤S1中数据预处理具体包括如下步骤:
S11、数据采集与标注:采集用户每日耗电数据组成数据集,由国家电网的工程师依据经验对用电量、台区损失电量和线损率综合分析标注每个用户是否进行了窃电;
S12、对步骤S11中的数据集进行读取,查看每日的耗电数据,并从中找到因设备或者网络故障导致的存在缺失值的数据;
S13、在数据集中识别空间相近似的10个样本,并计算它们之间的欧氏距离,再找到每个缺失样本距离最小的10样本来估算数据点的缺失值,每个样本的缺失值使用该10个邻居的平均值进行插补,计算公式如下:
其中,Dij表示第i个和第j个样本之间的欧氏距离,xi和xj分别表示第i个样本和第j个样本;
S14、因不同用户的用电量不同,电费的绝对值各异,而只关注各家用电量的消耗模式,因此对于不同用户数据进行归一化处理,使其数量上绝对值不会影响模型的判断,归一化公式如下:
其中,Xnorm表示处理后的向量,xi表示原始向量的每一个维度,xmin表示该向量所有维度中的最小值,xmax表示该向量所有维度中的最大值。
进一步,所述步骤S2中创建窃电检测网络模型,使用预处理完的数据作为输入,具体包括如下步骤:
S21、如图1所示,将预处理完的数据输入至特征提取网络,整个网络表述为三个部分,每部分负责提取不同的特征,最后将三部分特征组合在一起后输入分类网络进行分类,且充分利用电力消耗数据本身特性,三部分特征提取网络在数据输入时分别做以下处理;
S22、特征提取网络1利用卷积神经网络来提取数据的部分知识,将一维线性的数据进行二维化处理,每条数据是一个用户每天的耗电量组成,其本身的波动是具有一定的周期性,如工作日相较于周末而言耗电量是更低的;若某用户的数据维度是Xin∈R1×T,那么我们就将其变换成一个二维矩阵,这样不但可以对数据进行卷积操作,还更易于利用各种形式的卷积学习到不同尺度知识。
如图2所示,具体卷积操作是利用不同尺度的卷积核,分别学习不同天数的同一周内部相邻k天以及跨周的相邻k周之间的相关数据,并使用三个卷积块操作且保持矩阵的形状不变,将三者输出的通道拼接起来经过池化层和激活层作为输出;
特征提取网络1的具体描述如下所示:
S221、将预处理后的数据进行维度上的变形,将其从Xin∈R1×1×T,变成Xin1∈R1 ×7×(T/7),若T不能被7整除,则将余数部分丢弃,变形后的数据变成一个二维矩阵;
S222、特征提取网络1利用不同尺度的卷积块操作对重新排列后的数据进行特征提取,尺度分别是3×3、5×5、7×7,即对一周内相邻的三天、五天、七天耗电量的数据关系进行建模,同时对相邻周的同一天也进行了建模;
如图3所示是3×3卷积块操作的运算过程,其余两个卷积块的操作相同;
卷积块依次由卷积层、批归一化层、ReLU激活函数层及卷积层、批归一化层、ReLU激活函数层组成,两卷积层的卷积核大小分别是16×1×3×3和32×1×3×3,且卷积运算使用padding运算保持二维向量的尺度不变,对于输入维度为Xin1∈R1×7×(T/7)的数据,其输出为Xout13∈R32×7×(T/7);
S223、将三个卷积块的输出通道数拼接起来,最终输出为Xout1∈R96×7×(T/7),特征提取网络1公式表示如下:
X′out1k=ReLU(BatchNorm(Conv2d(Padding(Xin1)))),k∈{3,5,7} (3)
Xout1k=ReLU(BatchNorm(Conv2d(Padding(X′out1k)))),k∈{3,5,7} (4)
Xout1=[Xout13,Xout15,Xout17] (5)
其中,X′out1k指的是某个卷积层进行第一次卷积运算后的输出,Xout1k表示第二次卷积运算后的输出,BatchNorm()是归一化操作,Conv2d是卷积运算的符号。
S23、特征提取网络2利用注意力机制来提取数据的部分知识,对于电力消耗数据来讲,除了每周内会出现一定模式的波动及不同周之间也会有一定模式的波动,在不同的月份中,数据也会出现波动,如夏天的电费往往高于冬天,且由于阶梯电价的应用,一年当中后几个月的电费往往高于前几个月,因此与卷积网络不同的是,将数据按月进行分割作为注意力机制的输入,并在输入前引入固定位置编码作为不同月份的顺序知识;
如图4所示,特征提取网络2的具体描述如下所示:
S231、噪声输入是从标准正态分布中数据组成,其向量维度是1×1×T,因Transformer编码器的输入是多个向量,学习向量之间的联系,将向量按月进行切分,共分成T/30个向量作为输入,若不满30天的余数直接丢弃,分割后向量的维度是Xin2∈R1 ×30×(T/30);
S232、位置编码模块负责给输入向量添加序列的位置信息,输入序列在未进行切分之前,其时间信息可由数值间的位置顺序来表示,但切分之后各向量间的关系变成了对称关系,无法表示时间上的顺序,在这里加入了位置编码模块,其将包含有位置信息的向量与预处理好的向量作相加运算,位置编码向量维度是Xe∈R1×30×(T/30),和切分后的向量长度相同,且位置编码向量的参数是可学习的,以便在端到端的训练过程中学习到比绝对位置编码含有更丰富位置信息的编码;
S233、加入位置编码后的数据输入,连续经过3个Transformer编码器后获得输出特征,该Transformer编码器由自注意力层、层归一化层、残差连接和全连接层构成,输入数据依次经过自注意力层、通过残差连接方式输入到层归一化层、通过全连接层和残差连接方式输入到层归一化层后最终输出。
如图5所示,Transformer编码器中各层的详细描述如下:
首先,数据输入到自注意力层中,自注意层用于处理输入序列之间的关系,在运算过程中将对输入向量之间的联系性进行学习,从全局视角来看向量之间的联系性;相比于循环神经网络,可无视输入数据间的距离,避免了学习远距离数据联系时知识的遗忘;相比于卷积神经网络,其感受野更大,作用于全局而非局部的卷积框,且对于序列数据的专攻性更强,能更好的从序列数据中提取联系性和特征。
其次,自注意力层的输出通过残差连接的方式输入到层归一化层中,将注意力层的输入Xl和注意力层的输出X′l相加后,作为层归一化层的输入;
具体来说,对于输入数据Xin2通过三个线性变换矩阵Q、K、V映射为对应的查询向量DQ、关键词向量DK和值向量DV,三种矩阵的维度均为30×D,D的大小是32,自注意力模块通过某个向量A的查询向量和所有向量的关键词向量相乘来计算该向量A和其他向量的相似度,再将每个相似度同相应的值向量作加权运算得到一个输出向量;本发明所使用的相似度计算方法为基于函数的缩放向量点乘方法,计算公式如下:
层归一化模块负责对输入数据进行归一化操作,使归一化后的数据满足均值为0,标准差为1的正态分布。
然后,通过全连接层和残差连接方式输入到层归一化层后最终输出,全连接层的作用是进一步提取窃电数据的抽象特征,如果只有注意力层,那么模型只会有注意力层出来的一些线性组合,表达能力有限,而全连接层可以自己学习复杂的特征表达,且还可以起到变换维度的作用,全连接层的计算公式如下:
Xmlp=W1·ReLU(W0·Xattn+b0)+b1(7)
其中,W0和W1表示两层权重向量,b0和b1表示两层偏执向量,得到的输出Xmlp再经过层归一化操作变成最终输出,输出的维度同原始窃电数据的维度相同。
计算过程:特征提取网络2的Transformer编码器可以由如下公式表示,
X′l=Attn(Xl·WQ,Xl·WK,Xl·WV) (8)
其中,Xl表示Transformer编码器的输入,X′l表示自注意力层的输出,表示第一个层归一化和残差连接的输出,WQ WK WV分别表示注意力层中的三个线性变换矩阵,其参数可学习,Xl+1表示该Transformer编码器的输出。
S24、特征提取网络3利用电力消耗数据作为时间序列数据本身的特性进行建模,而非考虑现实的因素,时序数据具有周期性、季节性、趋势性特点。将数据分解后再进行学习到相应的知识,如图6所示,特征提取网络3主要由两部分组成,一部分是序列分解模块,其作用是把原始的时间序列分解季节项和趋势项,另一部分是混合全连接网络,其作用是进行一个重新编码,网络不断地将季节项逐步地聚合和细化,使得这部分网络更偏好存在周期规律波动的序列。
特征提取网络3的具体描述如下所示:
S241、序列分解模块通过平均池化的方式将时间序列拆解为季节性和趋势性,其公式表达如下:
Xt=AvgPool(Padding(X)) (11)
Xs=X-Xt (12)
其中,Xs和Xt分别表示季节性和趋势性,Padding表示卷积操作中填充技巧,使得卷积前后的序列长度不变,Avgpool表示移动平均。
S242、混合全连接层结构由全连接层、批归一化层和激活函数层构成,混合全连接层的输入依次使用其包含的层进行计算,每一层的输出作为下一层的输入,最后一层的输出作为混合全连接层的输出,其输入是按周进行分割的数据序列,作用是在周这个时间单位上建立全局的联系,弥补卷积神经网络无法构建全局联系的缺点。
如图7所示,其中混合全连接层的具体描述如下:
将输入数据Xin∈R1×1×T进行变形成Xin3∈R1×30×(T/30)作为输入,一个混合全连接层使用两个全连接块进行运算,第一个全连接块将数据视为T/30个30维的向量,这些向量各自内部经过全连接块计算,混合向量内部的信息,意义在于每个月都学习月内的相关性,希望找到每个月自身的性质;第二个全连接块将T/30个向量的对应维度进行混合,学习该尺度上的特征;将Xin3和序列分解模块的季节性Xs相加作为第一个混合全连接层的输入,再经两个全连接块计算公式如下:
X0=Xin3+Xs (13)
X1=ReLU(BatchNorm(W0·X0+b0)) (14)
其中,X1表示第一个全连接层的输出,X2表示第二个全连接层的输出,表示对于向量X1的转置;
S243、每次序列分解后将趋势性相加,季节性用于混合全连接层的计算输入,最终将两个过程的结果相加作为输出,公式如下:
Xt=Xt1+Xt2+Xt3 (16)
Xout3=Xs+Xt (17)
其中,Xt1,Xt2,Xt3分别表示每个序列分解模块分解出的趋势性,Xs是经过计算最终获得的季节性。
S25、最后将三部分特征提取网络的输出拼接在一起输入到分类网络,进行分类任务的预测,分类网络使用全连接层进行计算,输出的值Xclass_out若大于0.5表示有窃电行为;
如图8所示,分类网路利用两个全连接层进行计算,其公式如下
Xclass_in=Xout1+Xout2+Xout3 (18)
Xclass_out=W1·(W0·Xclass_in+b0)+b1 (19)
其中,Xclass_in表示分类网络的输入,由Xout1、Xout2、Xout3相加而来。Xclass_out是分类网络的输出。b0、b1、W0、W1是全连接层的可学习参数。
以上所述仅是本发明的实施方式,再次声明,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进,这些改进也列入本发明权利要求的保护范围内。
Claims (10)
1.一种基于神经网络的窃电检测方法,其特征在于:包括以下步骤:
S1、数据预处理:对输入的数据集中存在的缺失情况进行预处理,填补缺失值,并对数据进行归一化处理;
S2、根据窃电数据特征创建检测网络模型,使用处理好的数据集来训练模型;
S3、加载模型,根据输入的电力消耗数据来进行检测。
2.如权利要求1所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S1中数据预处理具体包括如下步骤:
S11、数据采集与标注:采集用户每日耗电数据组成数据集,由工程师依据经验对用电量、台区损失电量和线损率综合分析标注每个用户是否进行了窃电;
S12、对步骤S11中的数据集进行读取,查看每日的耗电数据,并从中找到因设备或者网络故障导致的存在缺失值的数据;
S13、在数据集中识别空间相近似的10个样本,并计算它们之间的欧氏距离,再找到每个缺失样本距离最小的10样本来估算数据点的缺失值,每个样本的缺失值使用该10个邻居的平均值进行插补,计算公式如下:
其中,Dij表示第i个和第j个样本之间的欧氏距离,xi和xj分别表示第i个样本和第j个样本;
S14、对于不同用户数据进行归一化处理,归一化公式如下:
其中,Xnorm表示处理后的向量,xi表示原始向量的每一个维度,xmin表示该向量所有维度中的最小值,xmax表示该向量所有维度中的最大值。
3.如权利要求1所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S2中创建窃电检测网络模型,使用预处理完的数据作为输入,具体包括如下步骤:
S21、将预处理完的数据输入至特征提取网络,整个网络表述为三个部分,每部分负责提取不同的特征,最后将三部分特征组合在一起后输入分类网络进行分类,且充分利用电力消耗数据本身特性,三部分特征提取网络在数据输入时分别做以下处理;
S22、特征提取网络1利用卷积神经网络来提取数据的部分知识,将一维线性的数据进行二维化处理,具体卷积操作是利用不同尺度的卷积操作,分别学习不同天数的同一周内部相邻k天以及跨周的相邻k周之间的相关知识,并使用三个卷积块操作且保持矩阵的形状不变,将三者输出的通道拼接起来经过池化层和激活层作为输出;
S23、特征提取网络2利用注意力机制来提取数据的部分知识,将数据按月进行分割作为注意力机制的输入,并在输入前引入固定位置编码作为不同月份的顺序知识;
S24、特征提取网络3利用电力消耗数据作为时间序列数据本身的特性进行建模,将数据分解后再进行学习到相应的知识,特征提取网络3主要由两部分组成,一部分是序列分解模块,其作用是把原始的时间序列分解为季节项和趋势项,另一部分是混合全连接网络,其作用是进行一个重新编码;
S25、最后将三部分特征提取网络的输出拼接在一起输入到分类网络,进行分类任务的预测,分类网络使用全连接层进行计算,输出的值Xclass_out若大于0.5表示有窃电行为。
4.如权利要求3所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S22特征提取网络1的具体步骤如下所示:
S221、将预处理后的数据进行维度上的变形,将其从Xin∈R1×1×T,变成Xin1∈R1×7×(T/7),若T不能被7整除,则将余数部分丢弃,变形后的数据变成一个二维矩阵;
S222、特征提取网络1利用不同尺度的卷积块操作对重新排列后的数据进行特征提取,尺度分别是3×3、5×5、7×7,即对一周内相邻的三天、五天、七天耗电量的数据关系进行建模,同时对相邻周的同一天也进行了建模;
S223、将三个卷积块的输出通道数拼接起来,最终输出为Xout1∈R96×7×(T/7),特征提取网络1公式表示如下:
X′out1k=ReLU(BatchNorm(Conv2d(Padding(Xin1)))),k∈{3,5,7} (3)
Xout1k=ReLU(BatchNorm(Conv2d(Padding(X′out1k)))),k∈(3,5,7} (4)
Xout1=[Xout13,Xout15,Xout17] (5)
其中,X′out1k指的是某个卷积层进行第一次卷积运算后的输出,Xout1k表示第二次卷积运算后的输出,BatchNorm()是归一化操作,Conv2d是卷积运算的符号。
5.如权利要求3所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S23特征提取网络2的具体步骤如下所示:
S231、噪声输入是从标准正态分布中数据组成,其向量维度是1×1×T,因Transformer编码器的输入是多个向量,将向量按月进行切分,共分成T/30个向量作为输入,若不满30天的余数直接丢弃,分割后向量的维度是Xin2∈R1×30×(T/30);
S232、位置编码模块负责给输入向量添加序列的位置信息,其将包含有位置信息的向量与预处理好的向量作相加运算,位置编码向量维度是Xe∈R1×30×(T/30),且位置编码向量的参数是可学习的,以便在端到端的训练过程中学习到比绝对位置编码含有更丰富位置信息的编码;
S233、加入位置编码后的数据输入,连续经过3个Transformer编码器后获得输出特征,该Transformer编码器由自注意力层、层归一化层、残差连接和全连接层构成,输入数据依次经过自注意力层、通过残差连接方式输入到层归一化层、通过全连接层和残差连接方式输入到层归一化层后最终输出。
6.如权利要求3所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S24特征提取网络3的具体步骤如下所示:
S241、序列分解模块通过平均池化的方式将时间序列拆解为季节性和趋势性,其公式表达如下:
Xt=AvgPool(Padding(X)) (11)
Xs=X-Xt (12)
其中,Xs和Xt分别表示季节性和趋势性,Padding表示卷积操作中填充技巧,使得卷积前后的序列长度不变,Avgpool表示移动平均;
S242、混合全连接层结构由全连接层、批归一化层和激活函数层构成,混合全连接层的输入,依次使用其包含的层进行计算,每一层的输出作为下一层的输入,最后一层的输出作为混合全连接层的输出,其输入是按周进行分割的数据序列,作用是在周这个时间单位上建立全局的联系,弥补卷积神经网络无法构建全局联系的缺点;
S243、每次序列分解后将趋势性相加,季节性用于混合全连接层的计算输入,最终将两个过程的结果相加作为输出,公式如下:
Xt=Xt1+Xt2+Xt3 (16)
Xout3=Xs+Xt (17)
其中,Xt1,Xt2,Xt3分别表示每个序列分解模块分解出的趋势性,Xs是经过计算最终获得的季节性。
7.如权利要求4所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S222中具体卷积块操作的运算过程是:
卷积块依次由卷积层、批归一化层、ReLU激活函数层及卷积层、批归一化层、ReLU激活函数层组成,两卷积层的卷积核大小分别是16×1×3×3和32×1×3×3,且卷积运算使用padding运算保持二维向量的尺度不变,对于输入维度为Xin1∈R1×7×(T/7)的数据,其输出为Xout13∈R32×7×(T/7)。
8.如权利要求5所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S233中Transformer编码器中各层的详细如下:
首先,数据输入到自注意力层中,自注意层用于处理输入序列之间的关系,在运算过程中将对输入向量之间的联系性进行学习,从全局视角来看向量之间的联系性;
其次,自注意力层的输出通过残差连接的方式输入到层归一化层中,将注意力层的输入Xl和注意力层的输出X′l相加后,作为层归一化层的输入;对于输入数据Xin2通过三个线性变换矩阵Q、K、V映射为对应的查询向量DQ、关键词向量DK和值向量DV,三种矩阵的维度均为30×D,D的大小是32,自注意力模块通过某个向量A的查询向量和所有向量的关键词向量相乘来计算该向量A和其他向量的相似度,再将每个相似度同相应的值向量作加权运算得到一个输出向量;使用的相似度计算方法为基于函数的缩放向量点乘方法,计算公式如下:
然后,通过全连接层和残差连接方式输入到层归一化层后最终输出,全连接层的计算公式如下:
Xmlp=W1·ReLU(W0·Xattn+b0)+b1 (7)
其中,W0和W1表示两层权重向量,b0和b1表示两层偏执向量;
特征提取网络2的Transformer编码器可以由如下公式表示,
X′l=Attn(Xl·WQ,Xl·WK,Xl·WV) (8)
其中,Xl表示Transformer编码器的输入,X′l表示自注意力层的输出,表示第一个层归一化和残差连接的输出,WQ WK WV分别表示注意力层中的三个线性变换矩阵,Xl+1表示该Transformer编码器的输出。
9.如权利要求6所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S242中混合全连接层的具体描述如下
将输入数据Xin∈R1×1×T进行变形成Xin3∈R1×30×(T/30)作为输入,一个混合全连接层使用两个全连接块进行运算,第一个全连接块将数据视为T/30个30维的向量,这些向量各自内部经过全连接块计算,混合向量内部的信息;第二个全连接块将T/30个向量的对应维度进行混合,学习该尺度上的特征;将Xin3和序列分解模块的季节性Xs相加作为第一个混合全连接层的输入,再经两个全连接块计算公式如下:
X0=Xin3+Xs (13)
X1=ReLU(BatchNorm(W0·X0+b0)) (14)
其中,X1表示第一个全连接层的输出,X2表示第二个全连接层的输出,表示对于向量X1的转置。
10.如权利要求3所述的一种基于神经网络的窃电检测方法,其特征在于:
所述步骤S25中分类网路利用两个全连接层进行计算,其公式如下
Xclass_in=Xout1+Xout2+Xout3 (18)
Xclass_out=W1·(W0·Xclass_in+b0)+b1 (19)
其中,Xclass_in表示分类网络的输入,由Xout1、Xout2、Xout3相加而来。Xclass_out是分类网络的输出。b0、b1、W0、W1是全连接层的可学习参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310840149.XA CN117033916B (zh) | 2023-07-10 | 2023-07-10 | 一种基于神经网络的窃电检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310840149.XA CN117033916B (zh) | 2023-07-10 | 2023-07-10 | 一种基于神经网络的窃电检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117033916A true CN117033916A (zh) | 2023-11-10 |
CN117033916B CN117033916B (zh) | 2024-07-23 |
Family
ID=88623421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310840149.XA Active CN117033916B (zh) | 2023-07-10 | 2023-07-10 | 一种基于神经网络的窃电检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117033916B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909933A (zh) * | 2017-01-18 | 2017-06-30 | 南京邮电大学 | 一种三阶段多视角特征融合的窃电分类预测方法 |
US20190073581A1 (en) * | 2017-09-01 | 2019-03-07 | Facebook, Inc. | Mixed Machine Learning Architecture |
CN110108914A (zh) * | 2019-05-21 | 2019-08-09 | 国网湖南省电力有限公司 | 一种反窃电智能化决策方法、系统、设备及介质 |
CN110223196A (zh) * | 2019-06-04 | 2019-09-10 | 国网浙江省电力有限公司电力科学研究院 | 基于典型行业特征库和反窃电样本库的反窃电分析方法 |
US20200097881A1 (en) * | 2018-09-20 | 2020-03-26 | Fair Isaac Corporation | Data distillery for signal detection |
CN112152201A (zh) * | 2020-08-25 | 2020-12-29 | 国网山东综合能源服务有限公司 | 基于卷积长短时记忆神经网络的用电负荷预测方法及系统 |
CN112308124A (zh) * | 2020-10-21 | 2021-02-02 | 国家电网有限公司 | 一种面向用电信息采集系统的智能防窃电方法 |
CN113158964A (zh) * | 2021-05-07 | 2021-07-23 | 北京工业大学 | 一种基于残差学习和多粒度特征融合的睡眠分期方法 |
CN113222624A (zh) * | 2021-05-31 | 2021-08-06 | 江苏新智合电力技术有限公司 | 一种反窃电智能分析方法及系统 |
CN113469266A (zh) * | 2021-07-14 | 2021-10-01 | 广西电网有限责任公司 | 一种基于改进深度卷积神经网络的窃电行为检测方法 |
CN113589034A (zh) * | 2021-07-30 | 2021-11-02 | 南方电网科学研究院有限责任公司 | 一种配电系统的窃电检测方法、装置、设备和介质 |
CN113988178A (zh) * | 2021-10-27 | 2022-01-28 | 广东电网有限责任公司 | 一种低压配电网窃电用户检测方法和装置 |
CN114239725A (zh) * | 2021-12-17 | 2022-03-25 | 四川大学 | 一种面向数据投毒攻击的窃电检测方法 |
CN116089838A (zh) * | 2023-03-01 | 2023-05-09 | 中南大学 | 窃电用户智能识别模型训练方法和识别方法 |
CN116304625A (zh) * | 2023-01-06 | 2023-06-23 | 湖南大学 | 一种窃电用户识别与窃电时间段检测方法 |
-
2023
- 2023-07-10 CN CN202310840149.XA patent/CN117033916B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909933A (zh) * | 2017-01-18 | 2017-06-30 | 南京邮电大学 | 一种三阶段多视角特征融合的窃电分类预测方法 |
US20190073581A1 (en) * | 2017-09-01 | 2019-03-07 | Facebook, Inc. | Mixed Machine Learning Architecture |
US20200097881A1 (en) * | 2018-09-20 | 2020-03-26 | Fair Isaac Corporation | Data distillery for signal detection |
CN110108914A (zh) * | 2019-05-21 | 2019-08-09 | 国网湖南省电力有限公司 | 一种反窃电智能化决策方法、系统、设备及介质 |
CN110223196A (zh) * | 2019-06-04 | 2019-09-10 | 国网浙江省电力有限公司电力科学研究院 | 基于典型行业特征库和反窃电样本库的反窃电分析方法 |
CN112152201A (zh) * | 2020-08-25 | 2020-12-29 | 国网山东综合能源服务有限公司 | 基于卷积长短时记忆神经网络的用电负荷预测方法及系统 |
CN112308124A (zh) * | 2020-10-21 | 2021-02-02 | 国家电网有限公司 | 一种面向用电信息采集系统的智能防窃电方法 |
CN113158964A (zh) * | 2021-05-07 | 2021-07-23 | 北京工业大学 | 一种基于残差学习和多粒度特征融合的睡眠分期方法 |
CN113222624A (zh) * | 2021-05-31 | 2021-08-06 | 江苏新智合电力技术有限公司 | 一种反窃电智能分析方法及系统 |
CN113469266A (zh) * | 2021-07-14 | 2021-10-01 | 广西电网有限责任公司 | 一种基于改进深度卷积神经网络的窃电行为检测方法 |
CN113589034A (zh) * | 2021-07-30 | 2021-11-02 | 南方电网科学研究院有限责任公司 | 一种配电系统的窃电检测方法、装置、设备和介质 |
CN113988178A (zh) * | 2021-10-27 | 2022-01-28 | 广东电网有限责任公司 | 一种低压配电网窃电用户检测方法和装置 |
CN114239725A (zh) * | 2021-12-17 | 2022-03-25 | 四川大学 | 一种面向数据投毒攻击的窃电检测方法 |
CN116304625A (zh) * | 2023-01-06 | 2023-06-23 | 湖南大学 | 一种窃电用户识别与窃电时间段检测方法 |
CN116089838A (zh) * | 2023-03-01 | 2023-05-09 | 中南大学 | 窃电用户智能识别模型训练方法和识别方法 |
Non-Patent Citations (3)
Title |
---|
CAN ZHANG ET.AL: "Multi-feature Fusion Based Anomaly Electro-Data Detection in Smart Grid", 《2018 15TH INTERNATIONAL SYMPOSIUM ON PERVASIVE SYSTEMS, ALGORITHMS AND NETWORKS (I-SPAN)》, 7 February 2019 (2019-02-07), pages 54 - 59 * |
邓明斌 等: "基于多特征融合的窃电识别算法研究", 《 计算机与数字工程》, vol. 45, no. 12, 17 January 2018 (2018-01-17), pages 2398 - 2401 * |
黄刚: "数据-模型融合驱动的中低压配网窃电辨识方法", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, 15 October 2022 (2022-10-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117033916B (zh) | 2024-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108614548B (zh) | 一种基于多模态融合深度学习的智能故障诊断方法 | |
CN110929843A (zh) | 一种基于改进深度自编码网络的异常用电行为辨识方法 | |
CN109635763B (zh) | 一种人群密度估计方法 | |
CN109165275B (zh) | 基于深度学习的智能变电站操作票信息智能搜索匹配方法 | |
CN116881639B (zh) | 一种基于生成对抗网络的窃电数据合成方法 | |
CN113469266B (zh) | 一种基于改进深度卷积神经网络的窃电行为检测方法 | |
CN117096867A (zh) | 一种短期电力负荷预测方法、装置、系统及存储介质 | |
CN112414715B (zh) | 基于混合特征与改进灰度共生算法的轴承故障诊断方法 | |
CN112465226B (zh) | 一种基于特征交互和图神经网络的用户行为预测方法 | |
CN116484740A (zh) | 一种基于挖掘电网空间拓扑特征的线路参数辨识方法 | |
CN110648055A (zh) | 基于卷积神经网络的电力事故事件与诱因关系构建方法 | |
CN112508286A (zh) | 一种基于Kmeans-BiLSTM-DMD模型的短期负荷预测方法 | |
CN114817773A (zh) | 一种基于多级分解和融合的时序预测系统及方法 | |
CN112184317A (zh) | 一种基于保值率和离散神经网络的废旧手机定价方法 | |
CN116150747A (zh) | 基于cnn和sltm的入侵检测方法及装置 | |
CN117725491A (zh) | 一种基于SCINet的电力系统故障状态检测分类方法 | |
CN116307291A (zh) | 一种基于小波分解的分布式光伏发电预测方法及预测终端 | |
CN112965968B (zh) | 一种基于注意力机制的异构数据模式匹配方法 | |
CN118316033A (zh) | 基于cnn-gru与arima模型的电力负荷预测方法 | |
CN110837934A (zh) | 一种基于深度学习的智能电网短期住宅负荷预测方法 | |
CN113988178A (zh) | 一种低压配电网窃电用户检测方法和装置 | |
CN117033916B (zh) | 一种基于神经网络的窃电检测方法 | |
CN111505706A (zh) | 基于深度T-Net网络的微地震P波初至拾取方法及装置 | |
CN110705650A (zh) | 一种基于深度学习的钣金布局方法 | |
CN114372181B (zh) | 一种基于多模态数据的设备生产智能规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |