CN113962363A - 一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法 - Google Patents

一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法 Download PDF

Info

Publication number
CN113962363A
CN113962363A CN202111219670.9A CN202111219670A CN113962363A CN 113962363 A CN113962363 A CN 113962363A CN 202111219670 A CN202111219670 A CN 202111219670A CN 113962363 A CN113962363 A CN 113962363A
Authority
CN
China
Prior art keywords
neural network
layer
data
index data
voltage distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111219670.9A
Other languages
English (en)
Inventor
赵应禄
高博
张燕
吴永
黄鸿翔
丁雨
张运飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinye Power Supply Co Of State Grid Henan Electric Power Co
Original Assignee
Xinye Power Supply Co Of State Grid Henan Electric Power Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinye Power Supply Co Of State Grid Henan Electric Power Co filed Critical Xinye Power Supply Co Of State Grid Henan Electric Power Co
Priority to CN202111219670.9A priority Critical patent/CN113962363A/zh
Publication of CN113962363A publication Critical patent/CN113962363A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J13/00Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network
    • H02J13/00002Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network characterised by monitoring
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
    • Y04S10/52Outage or fault management, e.g. fault detection or location

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Power Engineering (AREA)
  • Remote Monitoring And Control Of Power-Distribution Networks (AREA)

Abstract

本发明涉及一种低压配电网监测指标数据压缩方法,通过采集低压配电网的电压、电流、有功功率等m类监测指标作为监测指标数据;建立并优化专用的神经网络模型,并对各类指标数据使用的压缩比率进行比较筛选,从而得到适合低压配电网数据传输的压缩比率。该方法能够准确抽取电网时序数据的特征,在减少传输数据冗余的基础上避免过拟合现象,兼顾压缩效率和效果。

Description

一种基于大数据学习的低压配电网电能质量监测指标数据压 缩方法
技术领域
本发明属于低压配电网领域,特别地,涉及一种低压配电网监测指标处理领域。
背景技术
近些年城市化进程的快速推进,低压城区配电网的配供电方式大比例采用地下电缆隐藏式的供电方式,此供电配网方式有诸多显而易见的优点:布线美观、便于居民生活;且施工安全、方便,不占用显性地面土地;运行抗雷击强等优点。但是随着低压城区配电网的电缆化率达到较高的水平,我们知道电缆线路的充电功率远大于架空线路,因此部分配电台区在空载或轻载时由于导线间及对地存在电容,当线路带有电压时该电容会产生充电功率(容性),将可能造成线路末端电压偏高、功率损耗增加以及无功倒送情形的出现(“弗兰梯”效应);同时还会造成系统对地电容电流过高,产生弧光接地过电压现象,给低压配电网的安全运行带来了极大隐患。
建立基于边缘端采集设备与云端服务器的大数据分析系统,通过对终端节点的各类电气参数进行测量,实时监测低压配电网各种电能质量指标,可以实现对前述“弗兰梯”效应全时域实时监控机制,智能、自动的进行感容性功率调节,保证配电网轻载时,功率不超前运行,有效抑制“弗兰梯效应”,减低电网损耗和运行隐患。
为了实现低压配电网全时域实时监控机制,需要建立基于边缘端采集设备与云端服务器的大数据分析系统。因配电网对电能质量指标的测量、监测和反应需要较高的实时性,因此对大数据分析系统的传输速度提出了较高的要求。由于低压配电网处于电力体系的终端,规模庞大,设备数量繁多,网络连接复杂,数据采集设备多,采集频率高,因此需要传输的数据量很大。
目前现有技术中提出利用传统压缩方法进行数据压缩,然而由于电网数据的实时性、复杂性等特点,传统的压缩方法在压缩比率上常常无法满足应用要求。也有一些人提出了一些神经网络模型用来进行数据压缩,然而由于电网数据的特殊性,传统的神经网络其网络结构更多适用于语音数据或图像数据,不能很好的抽取电网时序数据的特征,因此针对电网数据训练时,往往存在过拟合现象,即在特定设备的样本集上效果较好,但对样本集较为敏感,不能很好的适应多设备、大规模电网数据。
为了解决低压配电网大数据分析系统数据传输的效率问题,本文提出一种基于大数据学习的低压配电网监测指标数据压缩方法,能够根据数据历史分布学习低压配电网监测指标数据的模式,并对冗余信号和重复信号进行压缩,达到降低数据量,提高数据传输效率的目的。
发明内容
本申请描述了一种基于大数据学习的低压配电网监测指标数据压缩方法,包括以下步骤:
一种低压配电网监测指标数据压缩方法,
采集低压配电网的电压、电流、有功功率、无功功率、功率超前、滞后裕度量及潮流方向等m类监测指标作为监测指标数据;
S1.1建立神经网络模型,所述神经网络模型由输入层、输出层和隐藏层组成。
其中隐藏层依次包括:第1-9层为卷积层和降采样层交替排列;第10层为卷积层;第11-17层为卷积层和升采样层交替排列;
神经网络的激励函数定义如下:
Figure BDA0003310719150000021
S1.2对每一类别m的指标数据,每台设备d在时间T内所能获取的采样点数据为
Figure BDA0003310719150000022
将这nm个采样点作为一组神经网络的训练样本
Figure BDA0003310719150000023
Figure BDA0003310719150000024
是一个nm维向量;假设对第m类指标分别有Dm台设备进行采集,那么对应第m类指标一共可以获得Dm组神经网络训练样本;
将Dm组神经网络训练样本,按照下述配对规则作为S1.1中所述神经网络的输入层和输出层,赋值给神经网络;
正样本配对:假设第d台设备采集的神经网络训练样本为
Figure BDA0003310719150000025
d=1,2,…,Dm,将同一台设备采集的训练样本同时赋值给神经网络的输入层和输出层,这样的配对称为一对正样本;
负样本配对:假设第d+1台设备采集的神经网络训练样本为
Figure BDA0003310719150000026
将一台设备采集的训练样本作为神经网络输入层,将下一编号设备采集的训练样本作为神经网络输出层,这样的配对称为一对负样本;最末一台设备与第一台设备配对;
根据上述规则,获得Dm对正样本和Dm对负样本,并对神经网络进行训练,如果被监测的指标总共有M类,训练完毕后,那么按上述步骤获取M个神经网络模型;
S1.3对于每一类监测指标数据均设定多个不同的压缩比率ρ,依次按该比率将监测指标数据压缩后作为神经网络的输入,若神经网络的输出与输入之间的变化量在阈值范围内,则接受该压缩比率ρ,由此找到一个可以接受的最大的整数作为最终的压缩比率;以此类推,对于所有M类监测指标,分别测试可接受的压缩比率ρm
每类监测指标数据的采样间隔为60秒。
还包括服务器计算获得压缩比率ρm,并将ρm传输给边缘端的采集设备,采集设备根据压缩比率对采集到的数据进行压缩。
上述步骤S1.1-S1.3在云端服务器上实施。
种使用低压配电网监测指标数据压缩方法的低压配电网传输系统。
发明点及技术效果
本发明描述了一种基于大数据学习的低压配电网监测指标数据压缩方法,该方法能够统计并学习监测指标数据的时序模式,实现对低压配电网监测指标数据的压缩传输,降低传输数据量,提高传输效率。该方法的特点在于:
1、根据指标类型分类处理,针对不同类型数据的模式进行有针对性的统计学习,与经典压缩方法相比,提高压缩比率。
2、根据配电网监测指标的数据特性设计了专门适用于配电网的基于神经网络模型,包括网络结构、激励函数、代价函数等。能够更有效捕捉检测指标数据特点。
3、利用正负样本匹配的方式进行神经网络模型的训练,使得最终获得的神经网络更加适用于配电网时序指标监测。
4、通过专用网络及专用测试方法测试不同压缩比率,同时兼顾了压缩损失和数据冗余问题,避免了过拟合现象。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。在附图中:
图1是神经网络模型示意图。
图2是神经网络节点的卷积连接方式示意图。
图3是神经网络节点的全连接方式示意图。
具体实施方式
步骤1所述的在云端归集低压配电网监测指标数据与大数据学习
指云服务器从与其连接的所有边缘端采集设备接收低压配电网监测指标大数据,并对大数据进行学习,获得阶段最优的指标采样周期。
根据监测需要选择被监测的指标,如电压、电流、有功功率、无功功率、功率超前、滞后裕度量及潮流方向等,假设指标编号为m,与其对应的其中一台采集设备编号为d,对于该设备采集的第m类指标,记为
Figure BDA0003310719150000041
是随时间t变化的,其时序采样值记为
Figure BDA0003310719150000042
根据配电网特点,对于同一类指标,不同采集设备的采集频率是相同的,因此在一定时间内,不同采集设备采集到的同一类指标的数量相等。对于第m类指标,假设在时间T内第d台采集设备获得nm个采样点,对应值为
Figure BDA0003310719150000043
d为采集设备的编号。
S1.1建立神经网络模型(图1),所述神经网络模型由输入层、输出层和隐藏层组成。每一层包含若干节点,每个节点对应一个标量数据,又称为神经元。某一层的一个节点与其前一层的某一个节点存在一条连接,对应一个运算函数。相邻两层任意两个节点的连接并非必然存在,但任一层的任一个节点必须至少与其前一层的某一个节点存在连接;如果一层的每个节点都与其前一层的所有节点存在连接,则称该层为全连接层。输入层、输出层、隐藏层的关系为:输入层在隐藏层之前,隐藏层在输出层之前,并且隐藏层中可以递归包含多个层。
根据以下步骤建立神经网络模型。
S1.1.1定义神经网络输入层的节点为
Figure BDA0003310719150000044
S1.1.2定义神经网络第一个隐藏层的节点为
Figure BDA0003310719150000045
且:
Figure BDA0003310719150000046
上式中,
Figure BDA0003310719150000047
为以u为中心的卷积窗口(图2),p,表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA0003310719150000048
的窗口大小为17,表示
Figure BDA0003310719150000049
中p的取值范围为0到16。
Figure BDA00033107191500000410
表示输入层中坐标u处的节点。b0为线性偏置量。σ(·)称为激励函数,其定义在下文给出。
S1.1.3定义神经网络的第二个隐藏层的节点为
Figure BDA00033107191500000411
且:
Figure BDA0003310719150000051
上式中,max表示在以2u为中心的窗口范围内取所有数值的最大值,p表示窗口中相对位置的正整数坐标,在本文中max窗口大小为2,相当于p取值范围为[0,1]。
Figure BDA0003310719150000052
表示第一个隐藏层中坐标为2u+p的节点。b1为线性偏置量。σ(·)为激励函数,其定义在下文给出。
S1.1.4定义神经网络第三个隐藏层的节点为
Figure BDA0003310719150000053
且:
Figure BDA0003310719150000054
上式中,
Figure BDA0003310719150000055
为以u为中心的卷积窗口,p,表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA0003310719150000056
的窗口大小为15,表示
Figure BDA0003310719150000057
中p的取值范围为0到14。
Figure BDA0003310719150000058
表示第二个隐藏层中坐标u处的节点。b2为线性偏置量。σ(·)为激励函数。
S1.1.5定义神经网络的第四个隐藏层的节点为
Figure BDA0003310719150000059
且:
Figure BDA00033107191500000510
上式中,max表示在以2u为中心的窗口范围内取所有数值的最大值,p表示窗口中相对位置的正整数坐标,在本文中max窗口大小为2,相当于p取值范围为[0,1]。
Figure BDA00033107191500000511
表示第三个隐藏层中坐标为2u+p的节点。b3为线性偏置量。σ(·)为激励函数。S1.1.6定义神经网络第五个隐藏层的节点为
Figure BDA00033107191500000512
且:
Figure BDA00033107191500000513
上式中,
Figure BDA00033107191500000514
为以u为中心的卷积窗口,p,表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA00033107191500000515
的窗口大小为13,表示
Figure BDA00033107191500000516
中p的取值范围为0到12。
Figure BDA00033107191500000517
表示第四个隐藏层中坐标u处的节点。b4为线性偏置量。σ(·)为激励函数。
S1.1.7定义神经网络的第六个隐藏层的节点为
Figure BDA00033107191500000518
且:
Figure BDA00033107191500000519
上式中,max表示在以2u为中心的窗口范围内取所有数值的最大值,p表示窗口中相对位置的正整数坐标,在本文中max窗口大小为2,相当于p取值范围为[0,1]。
Figure BDA00033107191500000520
表示第五个隐藏层中坐标为2u+p的节点。b5为线性偏置量。σ(·)为激励函数。
S1.1.8定义神经网络第七个隐藏层的节点为
Figure BDA00033107191500000521
且:
Figure BDA0003310719150000061
上式中,
Figure BDA0003310719150000062
为以u为中心的卷积窗口,p,表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA0003310719150000063
的窗口大小为11,表示
Figure BDA0003310719150000064
中p的取值范围为0到10。
Figure BDA0003310719150000065
表示第六个隐藏层中坐标u处的节点。b6为线性偏置量。σ(·)为激励函数。
S1.1.9定义神经网络的第八个隐藏层的节点为
Figure BDA0003310719150000066
且:
Figure BDA0003310719150000067
上式中,max表示在以2u为中心的窗口范围内取所有数值的最大值,p表示窗口中相对位置的正整数坐标,在本文中max窗口大小为2,相当于p取值范围为[0,1]。
Figure BDA0003310719150000068
表示第七个隐藏层中坐标为2u+p的节点。b7为线性偏置量。σ(·)为激励函数。
S1.1.10定义神经网络的第九个隐藏层的节点为
Figure BDA0003310719150000069
且:
Figure BDA00033107191500000610
式中,
Figure BDA00033107191500000611
表示第八个隐藏层的坐标为p的节点。
Figure BDA00033107191500000612
为第八层的坐标为p的节点与第九层坐标为u的节点之间的连接,b8为线性偏置量。σ(·)为激励函数。第九个隐藏层是全连接层(图3),与第八个隐藏层每一个节点都有连接。
S1.1.11定义神经网络的第十个隐藏层的节点为
Figure BDA00033107191500000613
且:
Figure BDA00033107191500000614
式中,
Figure BDA00033107191500000615
表示第九个隐藏层的坐标为p的节点。
Figure BDA00033107191500000616
为第九层的坐标为p的节点与第十层坐标为u的节点之间的连接,b9为线性偏置量。σ(·)为激励函数。第十个隐藏层是全连接层,与第九个隐藏层每一个节点都有连接。
S1.1.12定义神经网络的第十一个隐藏层的节点为
Figure BDA00033107191500000617
且:
Figure BDA00033107191500000618
上式中,
Figure BDA00033107191500000619
表示取u/2的整数部分,
Figure BDA00033107191500000620
表示第十个隐藏层中坐标为
Figure BDA00033107191500000621
的节点。b10为线性偏置量。
S1.1.13定义神经网络第十二个隐藏层的节点为
Figure BDA00033107191500000622
且:
Figure BDA0003310719150000071
上式中,
Figure BDA0003310719150000072
为以u为中心的卷积窗口,p,表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA0003310719150000073
的窗口大小为11,表示
Figure BDA0003310719150000074
中p的取值范围为0到10。
Figure BDA0003310719150000075
表示第十一个隐藏层中坐标u处的节点。b11为线性偏置量。σ(·)为激励函数。
S1.1.14定义神经网络的第十三个隐藏层的节点为
Figure BDA0003310719150000076
且:
Figure BDA0003310719150000077
上式中,
Figure BDA0003310719150000078
表示取u/2的整数部分,
Figure BDA0003310719150000079
表示第十二个隐藏层中坐标为
Figure BDA00033107191500000710
的节点。b12为线性偏置量。
S1.1.15定义神经网络第十四个隐藏层的节点为
Figure BDA00033107191500000711
且:
Figure BDA00033107191500000712
上式中,
Figure BDA00033107191500000713
为以u为中心的卷积窗口,p表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA00033107191500000714
的窗口大小为13,表示
Figure BDA00033107191500000715
中p的取值范围为0到12。
Figure BDA00033107191500000716
表示第十三个隐藏层中坐标u处的节点。b13为线性偏置量。σ(·)为激励函数。
S1.1.16定义神经网络的第十五个隐藏层的节点为
Figure BDA00033107191500000717
且:
Figure BDA00033107191500000718
上式中,
Figure BDA00033107191500000719
表示取u/2的整数部分,
Figure BDA00033107191500000720
表示第十四个隐藏层中坐标为
Figure BDA00033107191500000721
的节点。b14为线性偏置量。
S1.1.17定义神经网络第十六个隐藏层的节点为
Figure BDA00033107191500000722
且:
Figure BDA00033107191500000723
上式中,
Figure BDA00033107191500000724
为以u为中心的卷积窗口,p表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA00033107191500000725
的窗口大小为15,表示
Figure BDA00033107191500000726
中p的取值范围为0到14。
Figure BDA00033107191500000727
表示第十五个隐藏层中坐标u处的节点。b15为线性偏置量。σ(·)为激励函数。
S1.1.18定义神经网络的第十七个隐藏层的节点为
Figure BDA00033107191500000728
且:
Figure BDA00033107191500000729
上式中,
Figure BDA00033107191500000730
表示取u/2的整数部分,
Figure BDA00033107191500000731
表示第十六个隐藏层中坐标为
Figure BDA00033107191500000732
的节点。b16为线性偏置量。S1.1.19定义神经网络输出层的节点为
Figure BDA0003310719150000081
且:
Figure BDA0003310719150000082
上式中,
Figure BDA0003310719150000083
为以u为中心的卷积窗口,p表示卷积窗口中相对位置的正整数坐标,在本文中,
Figure BDA0003310719150000084
的窗口大小为17,表示
Figure BDA0003310719150000085
中p的取值范围为0到16。
Figure BDA0003310719150000086
表示第十七个隐藏层中坐标u处的节点。b17为线性偏置量。σ(·)为激励函数。
通过大量实验,优选神经网络结构为17层。该层数是根据电网大规模数据实验后的优选值,如果层数过少,会丢失部分电网数据特征,导致模型无法很好识别电网数据的模式,导致压缩率降低;如果层数过多,一方面会增加计算开销,另一方面,更容易产生过拟合现象,使数据压缩变得过度而导致数据失真。因此该网络根据配电网数据特点进行了层数设计上的优化。
同时,卷积和降采样联合使用,可以提取到不同时间尺度下电网数据的特征,这样能够提高模型的适应能力,使模型在大规模电网数据下性能得到提升。
降采样的主要目的是提取不同尺度下的数据特征,采用max取最大值方式,以降低数据噪声的干扰;
同时,步骤S1.1.12、S1.1.14、S1.1.16采用与降采样对应的升采样,保证网络的对称性,使网络的输出层在维度上与输入层一致,以维持网络对电网数据正、负样本的识别能力。
通过上述卷积、降采样、升采样交替使用,使得数据特征提取更加高效、准确。
式子(1)-(18)中,参数w统称为线性系数,参数b统称为线性偏置量,如无特殊说明,后文对w和b的引用均为(1)-(18)中所有带有下标的w参数和b参数的总和,而不再根据下标逐一列举。
式子(1)-(18)中所述激励函数σ(·)定义如下:
Figure BDA0003310719150000087
上式中分段函数的作用是使函数在x=0点处产生阶跃,以便改善神经网络正、负样本的分类性能。作为对经典的激励函数的一种改进,当x>0时,激励函数为类指数函数,系数α用于控制网络训练的收敛速度,作为在配电网监测数据训练中的一种优选,可取α=0.07;当x<0时,激励函数取值为常数-β,有助于抑制负样本时的梯度消散,优选β=0.01。也是发明点之一。
本步骤S1.1中各参数和函数,仅为说明神经网络各层之间的逻辑计算关系,并不代表真实的数值。使用S1.1所述神经网络模型处理真实采集数据的方法见本文后面步骤。
S1.2对每一类别m的指标,每台设备d在时间T内所能获取的采样点为
Figure BDA0003310719150000091
将这nm个采样点作为一组神经网络的训练样本
Figure BDA0003310719150000092
Figure BDA0003310719150000093
是一个nm维向量。假设对第m类指标分别有Dm台设备进行采集,那么对应第m类指标一共可以获得Dm组神经网络训练样本,每一组训练样本是一个nm维向量。
实际应用中,应保证T的时间足够长,使每类指标都能够采集到足够多样本,由于多数检测指标采集频率都很高,作为一种优选,取T=60秒。
将Dm组神经网络训练样本,按照下文的配对规则作为S1.1中所述神经网络的输入层和输出层,赋值给神经网络。
正样本配对:假设第d台设备采集的神经网络训练样本为
Figure BDA0003310719150000094
d=1,2,…,Dm,将同一台设备采集的训练样本同时赋值给神经网络的输入层和输出层,这样的配对称为一对正样本。
负样本配对:假设第d+1台设备采集的神经网络训练样本为
Figure BDA0003310719150000095
将一台设备采集的训练样本作为神经网络输入层,将下一编号设备采集的训练样本作为神经网络输出层,这样的配对称为一对负样本。最末一台设备与第一台设备配对。
度量神经网络优化误差损失的代价函数定义如下:
Figure BDA0003310719150000096
根据式(20),y表示分类的真实值,
Figure BDA0003310719150000097
表示神经网络模型对输入进行分类的估计值,对经典交叉熵函数进行改进,引入参数θ控制模型估计值
Figure BDA0003310719150000098
的偏离,有助于改善分类效果,作为优选,取θ=0.95。
根据上述规则,获得Dm对正样本和Dm对负样本,并采用Back Propagation方法,代价函数采用本文式子(20),代入正、负样本对神经网络进行训练,可以确定式(1)-(18)中各线性系数w和线性偏置量b的值。训练完毕后,获得一个神经网络模型
Figure BDA0003310719150000099
对应于一组确定的wm和bm的值,并且神经网络各节点的相互关系如S1.1所述。
如果被监测的指标总共有M类,那么采用S1.2步骤获取M个神经网络模型,对应于各指标类别。
S1.3对于被监测的第m类指标,按照下列步骤进行压缩。
S1.3.1设定压缩比率ρ为大于1的正整数。
S1.3.2对于一组采集自设备d的训练样本
Figure BDA0003310719150000101
Figure BDA0003310719150000102
其中“//”符号代表整除,j=1,2,…,nm。形成一个新的样本
Figure BDA0003310719150000103
例如,若ρ=2,
Figure BDA0003310719150000104
Figure BDA0003310719150000105
S1.3.3将对应于第m类指标的根据S1.3.2重新形成的所有样本
Figure BDA0003310719150000106
作为神经网络
Figure BDA0003310719150000107
的输入层输入,并计算输出
Figure BDA0003310719150000108
S1.3.4对于第m类指标,根据S1.3.3结果,计算如下式子的结果:
Figure BDA0003310719150000109
其中,Dm表示第m类指标的采集设备总数,nm表示向量样本
Figure BDA00033107191500001010
的维度,‖‖表示向量的1-范数,即将向量的每个分量取绝对值后再求和。上述评价方法也是发明点之一,能够准确筛选适合的压缩比率。
如果Δ<μ,则接受该压缩比率ρ,否则拒绝。μ为一阈值,作为优选值可取μ=0.1。
根据上述步骤S1.3.1-S1.3.4,找到一个可以接受的最大的整数作为最终的压缩比率ρ。作为一种优选,可在2≤ρ≤8由小到大逐一进行测试,找到可接受的压缩比率。
对于所有M类监测指标,参照S1.3步骤所述方法,分别测试可接受的压缩比率ρm
步骤2在边缘端压缩低压配电网监测指标数据的方法
云服务器计算获得压缩比率ρm,并将ρm传输给边缘端的采集设备,采集设备根据压缩比率对采集到的数据进行压缩:
设备d采集到一组第m类监测指标的采样点数据
Figure BDA00033107191500001011
共nm个,则它按照采集顺序传输符合下列条件的采样点:
Figure BDA00033107191500001012
且(j-1)/ρm为整数
例如,当ρm=2时,仅传输
Figure BDA00033107191500001013
可见,本文方法可以将对应于第m类指标的数据压缩ρm倍。
下表给出了采用本方案与采用静定压缩传输方法所传输的数据量对比值,可以看出本方法在低压配电网监测指标数据压缩传输方面的优势。
Figure BDA0003310719150000111

Claims (5)

1.一种低压配电网监测指标数据压缩方法,其特征在于:
采集低压配电网的电压、电流、有功功率、无功功率、功率超前、滞后裕度量及潮流方向等m类监测指标作为监测指标数据;
S1.1建立神经网络模型,所述神经网络模型由输入层、输出层和隐藏层组成。
其中隐藏层依次包括:第1-9层为卷积层和降采样层交替排列;第10层为卷积层;第11-17层为卷积层和升采样层交替排列;
神经网络的激励函数定义如下:
Figure FDA0003310719140000011
S1.2对每一类别m的指标数据,每台设备d在时间T内所能获取的采样点数据为
Figure FDA0003310719140000012
将这nm个采样点作为一组神经网络的训练样本
Figure FDA0003310719140000013
是一个nm维向量;假设对第m类指标分别有Dm台设备进行采集,那么对应第m类指标一共可以获得Dm组神经网络训练样本;
将Dm组神经网络训练样本,按照下述配对规则作为S1.1中所述神经网络的输入层和输出层,赋值给神经网络;
正样本配对:假设第d台设备采集的神经网络训练样本为
Figure FDA0003310719140000014
将同一台设备采集的训练样本同时赋值给神经网络的输入层和输出层,这样的配对称为一对正样本;
负样本配对:假设第d+1台设备采集的神经网络训练样本为
Figure FDA0003310719140000015
将一台设备采集的训练样本作为神经网络输入层,将下一编号设备采集的训练样本作为神经网络输出层,这样的配对称为一对负样本;最末一台设备与第一台设备配对;
根据上述规则,获得Dm对正样本和Dm对负样本,并对神经网络进行训练,如果被监测的指标总共有M类,训练完毕后,那么按上述步骤获取M个神经网络模型;
S1.3对于每一类监测指标数据均设定多个不同的压缩比率ρ,依次按该比率将监测指标数据压缩后作为神经网络的输入,若神经网络的输出与输入之间的变化量在阈值范围内,则接受该压缩比率ρ,由此找到一个可以接受的最大的整数作为最终的压缩比率;以此类推,对于所有M类监测指标,分别测试可接受的压缩比率ρm
2.如权利要求1所述的方法,其特征在于:每类监测指标数据的采样间隔为60秒。
3.如权利要求1所述的方法,其特征在于:还包括服务器计算获得压缩比率ρm,并将ρm传输给边缘端的采集设备,采集设备根据压缩比率对采集到的数据进行压缩。
4.如权利要求1所述的方法,其特征在于:上述步骤S1.1-S1.3在云端服务器上实施。
5.一种使用如权利要求1-4所述的低压配电网监测指标数据压缩方法的低压配电网传输系统。
CN202111219670.9A 2021-10-19 2021-10-19 一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法 Pending CN113962363A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111219670.9A CN113962363A (zh) 2021-10-19 2021-10-19 一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111219670.9A CN113962363A (zh) 2021-10-19 2021-10-19 一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法

Publications (1)

Publication Number Publication Date
CN113962363A true CN113962363A (zh) 2022-01-21

Family

ID=79465635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111219670.9A Pending CN113962363A (zh) 2021-10-19 2021-10-19 一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法

Country Status (1)

Country Link
CN (1) CN113962363A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663834A (zh) * 2022-03-22 2022-06-24 天目爱视(北京)科技有限公司 一种快递存放现场监控方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663834A (zh) * 2022-03-22 2022-06-24 天目爱视(北京)科技有限公司 一种快递存放现场监控方法

Similar Documents

Publication Publication Date Title
WO2021073462A1 (zh) 基于相似日负荷曲线的10kV静态负荷模型参数辨识方法
CN107909118B (zh) 一种基于深度神经网络的配电网工况录波分类方法
CN111080105A (zh) 基于电压时序数据的台区户变关系识别方法及系统
CN108154223B (zh) 基于网络拓扑及长时序信息的配电网工况录波分类方法
CN112749633B (zh) 分离与重构的个体辐射源识别方法
CN111898499A (zh) 基于互近似熵与聚类的多谐波源谐波责任划分方法
CN112070104A (zh) 主变压器局部放电识别方法
CN112288015A (zh) 基于边缘计算改进knn的配网电气拓扑识别方法及系统
CN110738232A (zh) 一种基于数据挖掘技术的电网电压越限成因诊断方法
CN113962363A (zh) 一种基于大数据学习的低压配电网电能质量监测指标数据压缩方法
CN111242276A (zh) 一种用于负荷电流信号识别的一维卷积神经网络构建方法
CN103345552A (zh) 电力ict通信网可靠性的评估方法及系统
CN115600088A (zh) 一种基于振动信号的配电变压器故障诊断方法
CN114757224A (zh) 一种基于持续学习和联合特征提取的特定辐射源识别方法
CN109361484A (zh) 一种电力系统时间同步数据的传输方法
CN113033077A (zh) 一种基于神经网络算法的直流输电线路故障测距方法
CN114838923B (zh) 有载分接开关的故障诊断模型建立方法及故障诊断方法
CN108173610B (zh) 基于二阶统计量的异构无线网络的协作式频谱感知方法
CN115659258A (zh) 一种基于多尺度图卷积孪生网络的配电网故障检测方法
CN106845763B (zh) 一种电网可靠性分析方法和装置
CN111008584B (zh) 一种模糊自组织神经网络的电能质量量测缺失修复方法
CN114936947A (zh) 基于gadf-vgg16的高压直流输电线路故障诊断方法
CN115377999A (zh) 一种基于宽频测量数据的次同步振荡辨识的方法
CN114839586A (zh) 基于em算法的低压台区计量装置失准计算方法
CN108020759A (zh) 一种基于psogsa神经网络的xlpe电缆振荡波故障识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination