CN115423646A - 基于自监督学习的非侵入式负荷分解方法 - Google Patents

基于自监督学习的非侵入式负荷分解方法 Download PDF

Info

Publication number
CN115423646A
CN115423646A CN202211051983.2A CN202211051983A CN115423646A CN 115423646 A CN115423646 A CN 115423646A CN 202211051983 A CN202211051983 A CN 202211051983A CN 115423646 A CN115423646 A CN 115423646A
Authority
CN
China
Prior art keywords
neural network
total power
power
sequence
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211051983.2A
Other languages
English (en)
Inventor
余贻鑫
陈姝伊
栾文鹏
赵博超
刘博�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202211051983.2A priority Critical patent/CN115423646A/zh
Publication of CN115423646A publication Critical patent/CN115423646A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • Operations Research (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于自监督学习的非侵入式负荷分解方法,包括:1)将目标数据集中选定的无标签总功率信号分割成多个长度为W的序列;2)完成自监督前置任务得到预训练后的序列到点神经网络;3)将源数据集中选定的有标签总功率信号分割成多个长度为W的序列;4)完成有监督下游任务得到负荷分解模型,5)将目标数据集中待分解的总功率信号分割成多个长度为W的序列,6)将步骤5)中的序列输入到步骤4)中的负荷分解模型中,该神经网络的输出是预测的单个电器在一个时刻的功率值,进而得到预测的单个电器功率信号。本发明可以从目标数据集中的无标签数据中学习有用的特征,实现了针对目标数据集的无监督NILM,具有较大的应用意义。

Description

基于自监督学习的非侵入式负荷分解方法
技术领域
本发明属于非侵入式电力负荷监测领域,尤其涉及一种基于自监督学习的非侵入式负荷分解方法。
背景技术
近年来,全球能源与环境问题日渐突出,亟需提高能源利用率以降低碳排放。同时,随着智能电表在全球范围内的广泛安装,使得电力公司可以与用户良性互动,以提高需求侧管理效率和优化电网运行。因此,电能消耗细节监测作为一种节能使能应用,受到世界各国的广泛关注。
目前,负荷监测技术主要分为侵入式和非侵入式两种方式,其中,侵入式的负荷监测需要额外安装传感器来测量单个电器用电情况。而由Hart[1]在1984年提出的非侵入式负荷监测(non-intrusive load monitoring,NILM)的概念,是仅通过软件工具分析用户总用电数据来监测户内每个或每类电器的用电功率和工作状态。NILM技术以一种经济、高效的方式向需求侧和供给侧反馈电器级别的功率消耗,有利于电网管理、用户节省电费,同时推动需求侧管理、节能减排。目前,已有多种算法被应用于解决NILM问题中,如组合优化算法、因子隐马尔可夫算法、图信号处理算法或K近邻算法等。得益于近年来大数据技术、人工智能和边缘计算的发展,学者们提出了大量基于数学方法、信号处理和机器学习的NILM方法[2]。
近年来,多种深度学习算法也被应用在NILM领域,展现出比传统方法更好的性能。深度学习方法将负荷分解视为序列到序列(sequence-to-sequence,seq2seq)或序列到点(sequence-to-point,seq2point)的学习问题。seq2seq学习是指神经网络根据输入的总功率序列预测对应时间戳的单个电器功率序列。而seq2point学习是指神经网络根据输入的总功率序列预测单个电器相应窗口的一个点。序列到点学习使网络的预测问题简单化,将神经网络的表征能力集中在一个点[3]。
基于深度学习的NILM方法需要大量的有标签数据来训练神经网络[4]。有标签数据是指具有单个电器开关标志或测量数据的总用电数据。在实际中,采集几个月甚至几年的有标签训练数据是困难且昂贵的。因此,研究人员提出了跨越目标数据集与源数据集的迁移学习,来解决标签数据不足的问题[5]。虽然迁移学习减少了对目标数据集有标签训练数据的要求,但仍然是有监督的且不适用于目标数据集标签不可获取的情况。与采集有标签总功率数据相比,采集无标签的总功率数据相对容易。
在计算机视觉任务中,自监督学习(self-supervised learning,SSL)被用于从大量无标签的图像及视频中提取特征,以避免耗时和昂贵的人工标注。在SSL中,通过预先设定的前置任务,从无标签数据中学习特征,再将特征迁移到下游的有监督任务当中,以提高模型的性能和避免过拟合。研究表明,SSL提取到的特征具有通用性,同时有助于提升模型的鲁棒性。目前,尚没有研究将SSL应用到非侵入式负荷分解任务当中。
因此,为了摆脱对目标数据集标签的依赖,实现针对目标数据集的无监督负荷分解,考虑将自监督学习应用在序列到点神经网络中以实现非侵入式负荷分解。
[参考文献]
[1]G.W.Hart,“Nonintrusive Appliance Load Data Acquisition Method:Progress report,”MIT Energy Laboratory,1984.
[2]刘博,栾文鹏.基于负荷分解的用电数据云架构方案及应用场景[J].电网技术,2016,40(03):791-796.
[3]C.Zhang,M.Zhong,Z.Wang,N.Goddard,and C.Sutton,“Sequence-to-pointlearning with neural networks for non-intrusive load monitoring,”inProceedings of the AAAI Conference on Artificial Intelligence,2018,vol.32,no.1.
[4]G.Cui,B.Liu,W.Luan,and Y.Yu,“Estimation of target applianceelectricity consumption using background filtering,”IEEE Transactions onSmart Grid,vol.10,no.6,pp.5920-5929,2019.
[5]M.D’Incecco,S.Squartini,and M.Zhong,“Transfer learning for non-intrusive load monitoring,”IEEE Transactions on Smart Grid,vol.11,no.2,pp.1419-1429,2019.
[6]O.Krystalakos,C.Nalmpantis,and D.Vrakas,“Sliding window approachfor online energy disaggregation using artificial neural networks,”inProceedings of the 10th Hellenic Conference on Artificial Intelligence,2018,pp.1-6.
发明内容
为实现深度学习算法针对目标数据集的无监督NILM,解决目标数据集无标签情况下的负荷分解问题,本发明设计了一种新的基于自监督学习的非侵入式负荷分解方法,在两种先进的神经网络结构,序列到点卷积神经网络(s2p)[3]和序列到点双向门控递归单元网络(Bi-GRU)[6]上实现。
为了解决上述技术问题,本发明提出的一种基于自监督学习的非侵入式负荷分解方法,包括以下步骤:
步骤1、应用长度为W的滑动窗口,将目标数据集中选定的一用户或多个用户的无标签总功率信号ypre分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将ypre分割成多个长度为W的无标签总功率序列
Figure BDA0003824010210000031
t为时间点;
步骤2、完成自监督的前置任务得到预训练后的序列到点神经网络,以学习无标签总功率数据中的特征,包括:将步骤1中获得的目标数据集中的多个无标签总功率序列
Figure BDA0003824010210000032
输入序列到点神经网络中,对序列到点神经网络进行预训练后,得到对各目标电器通用的预训练后的序列到点神经网络;
本发明中,所述的序列到点神经网络是s2p神经网络或是Bi-GRU神经网络;
对于s2p神经网络,预训练后的序列到点神经网络记为神经网络fs2p
Figure BDA0003824010210000033
式(11)中,ε是W维的高斯随机噪声,该神经网络fs2p的输出是各个无标签总功率序列
Figure BDA0003824010210000034
的中点值
Figure BDA0003824010210000035
预训练过程中,s2p神经网络训练的损失函数形式为:
Figure BDA0003824010210000036
式(12)中,θSSL是网络参数;
对于Bi-GRU神经网络,预训练后的序列到点神经网络记为神经网络fBi-GRU
Figure BDA0003824010210000037
式(21)中,ε是W维的高斯随机噪声,该神经网络fBi-GRU的输出是各个无标签总功率序列
Figure BDA0003824010210000038
的末尾点值
Figure BDA0003824010210000039
预训练过程中,Bi-GRU神经网络训练的损失函数形式为:
Figure BDA00038240102100000310
式(22)中,θSSL是网络参数;
步骤3、应用长度为W的滑动窗口,将源数据集中选定的多个用户的有标签总功率信号yfine分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将yfine分割成多个长度为W的总功率序列
Figure BDA00038240102100000311
t为时间点;
步骤4、完成有监督的下游任务得到用于从总功率中分解出单个电器功率的负荷分解模型,包括:将步骤3中获得的源数据集中的多个有标签总功率序列
Figure BDA00038240102100000312
输入步骤2得到的预训练后的序列到点神经网络中,对该神经网络进行微调后,得到用来对目标电器m进行负荷分解的神经网络,
Figure BDA00038240102100000313
是所有电器的集合;
对于s2p神经网络,对该神经网络fs2p进行微调后,得到用来对目标电器m进行负荷分解的神经网络
Figure BDA0003824010210000041
Figure BDA0003824010210000042
式(13)中,ε是W维的高斯随机噪声;该神经网络
Figure BDA0003824010210000043
的输入是步骤3中获得的多个总功率序列
Figure BDA0003824010210000044
该神经网络
Figure BDA0003824010210000045
的输出是对应时刻的单个电器总功率序列的中点值
Figure BDA0003824010210000046
Figure BDA0003824010210000047
微调过程中,s2p神经网络训练的损失函数形式为:
Figure BDA0003824010210000048
式(14)中,θ是网络参数;
对于Bi-GRU神经网络,对该神经网络fBi-GRU进行微调后,得到用来对目标电器m进行负荷分解的神经网络
Figure BDA0003824010210000049
Figure BDA00038240102100000410
式(23)中,ε是W维的高斯随机噪声;该神经网络
Figure BDA00038240102100000411
的输入是步骤3中获得的多个总功率序列
Figure BDA00038240102100000412
该神经网络
Figure BDA00038240102100000413
的输出是对应时刻的单个电器总功率序列的末尾点值
Figure BDA00038240102100000414
微调过程中,Bi-GRU神经网络训练的损失函数形式为:
Figure BDA00038240102100000415
式(24)中,θ是网络参数;
步骤5、应用长度为W的滑动窗口,将目标数据集中目标家庭的待分解的总功率信号ytest分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将ytest分割成多个长度为W的总功率序列
Figure BDA00038240102100000416
t为时间点;
步骤6、将目标数据集中目标家庭的多个总功率信号
Figure BDA00038240102100000417
输入到步骤4中的微调后的神经网络中,该神经网络的输出是预测的单个电器在一个时刻的功率值,随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率值,进而连接得到预测的单个电器功率信号。
对于s2p神经网络,将目标数据集中目标家庭的多个总功率信号
Figure BDA00038240102100000418
输入到步骤4得到的神经网络
Figure BDA00038240102100000419
中,该神经网络
Figure BDA00038240102100000420
的输出即为预测的单个电器功率窗口的中点值
Figure BDA00038240102100000421
随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率窗口的中点值,连接后得到预测的单个电器功率信号。
对于Bi-GRU神经网络,将目标数据集中目标家庭的多个总功率信号
Figure BDA00038240102100000422
输入到步骤4得到的神经网络
Figure BDA0003824010210000051
中,该神经网络
Figure BDA0003824010210000052
的输出即为预测的单个电器功率窗口的末尾点值
Figure BDA0003824010210000053
随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率窗口的末尾点值,连接后得到预测的单个电器功率信号。
进一步讲,本发明中,所述s2p神经网络的结构是包括输入层和输出层,自所述输入层至输出层依次设有5个卷积层和一个全连接层,5个卷积层依次记为卷积层1、卷积层2、卷积层3、卷积层4和卷积层5,上述所有各层的参数如下:
Figure BDA0003824010210000054
本发明中,所述Bi-GRU神经网络的结构是包括输入层和输出层,自所述输入层至输出层依次设有一层卷积层,两层双向门控递归单元层以及一层全连接层,两层双向门控递归单元层依次记为双向门控递归单元层1和双向门控递归单元层2;上述所有各层的参数如下:
Figure BDA0003824010210000055
与现有技术相比,本发明的有益效果是:
本发明针对深度学习在NILM中目标数据集无标签的情况,设计了一种在s2p和Bi-GRU上应用SSL的方法。两种神经网络首先通过完成自监督前置任务,学习目标数据集无标签总功率数据中包含的边缘、跳变、功率范围等特征,以网络参数的形式保存下来。接下来通过有监督的下游任务,将从无标签总功率数据中学习到的特征迁移到负荷分解任务上,将学习到的功率特征对应于单个电器。该方法可以从目标数据集中的无标签数据中学习有用的特征,在目标数据集没有标签的情况下,实现了针对目标数据集的无监督NILM。该方法有效地提高了深度学习在这一场景下的非侵入式负荷分解效果,对于现实场景来说,具有较大的应用意义和较高的负荷分解潜力。
附图说明
图1是本发明基于SSL的非侵入式负荷分解方法的流程图;
图2是本发明中所采用的s2p和Bi-GRU神经网络结构;
图3是目标家庭中5种电器真实电量和预测电量柱形图;
图4是5种电器典型的负荷分解结果;
图5是本发明方法的训练时间展示。
具体实施方式
下面结合附图及具体实施例对本发明做进一步的说明,但下述实施例绝非对本发明有任何限制。
针对现有技术中存在的不足,本发明提出的一种基于自监督学习的非侵入式负荷分解方法的设计思路是:由于NILM中现有的深度学习方法需要大量的有标签数据来训练网络,且在数据分布差距较大的数据集之间的泛化能力较差。为在目标数据集无标签的场景下进行负荷分解,实现针对目标数据集的无监督NILM,本发明在s2p和Bi-GRU两种神经网络上应用SSL。通过完成自监督前置任务,使网络学习目标数据集中无标签总功率数据中的特征,获得对各电器通用的预训练的网络。再利用源数据集中的有标签总功率数据,针对单个电器,通过完成有监督的下游任务对预训练的网络进行微调,以最终获得可用于分解单个电器的神经网络。
实现本发明方法共包含自监督前置任务训练(预训练)、有监督下游任务训练(微调)和网络测试(负荷分解)模块,自监督前置任务训练、有监督下游任务训练和网络测试过程的流程图如图1所示。
(1)所述的自监督前置任务训练模块,用于获得对各电器通用的预训练神经网络。首先利用来自目标数据集的无标签总功率数据,通过完成自监督前置任务对网络进行自监督的预训练,以学习总功率数据中的边缘、跳变、功率范围等特征。
(2)所述的有监督下游任务训练模块,用于获得可以分解单个电器的神经网络。首先利用来自源数据集的有标签总功率数据,针对单个电器,通过完成有监督下游任务,对上述得到的预训练神经网络进行有监督的微调,得到可用于分解单个电器的负荷分解模型。
(3)网络测试模块,用于将网络应用于非侵入式负荷分解。将经过自监督预训练与有监督微调得到的负荷分解模型用来对目标数据集中的目标家庭进行负荷分解,得到预测的单个电器功率信号。
本发明提出的一种基于自监督学习的非侵入式负荷分解方法,如图1所示,包括以下步骤:
步骤1、应用长度为W的滑动窗口,将目标数据集中选定的一用户或多个用户的无标签总功率信号ypre分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将ypre分割成多个长度为W的无标签总功率序列
Figure BDA0003824010210000071
t为时间点;
步骤2、完成自监督的前置任务得到预训练后的序列到点神经网络,以学习无标签总功率数据中的特征,包括:将步骤1中获得的目标数据集中的多个无标签总功率序列
Figure BDA0003824010210000072
输入序列到点神经网络中,对序列到点神经网络进行预训练后,得到对各目标电器通用的预训练后的序列到点神经网络;
本发明中,所述神经网络可以是序列到点卷积神经网络(s2p),或是序列到点双向门控递归单元网络(Bi-GRU),两种神经网络的具体结构如图2所示。
如图2(a)所示,所述s2p神经网络的结构是包括输入层和输出层,自所述输入层至输出层依次设有5个卷积层和一个全连接层,5个卷积层依次记为卷积层1、卷积层2、卷积层3、卷积层4和卷积层5,上述所有各层的具体参数如表1所示。
表1 s2p神经网络具体参数
Figure BDA0003824010210000073
如图2(b)所示,所述Bi-GRU神经网络的结构是包括输入层和输出层,自所述输入层至输出层依次设有一层卷积层,两层双向门控递归单元层以及一层全连接层,两层双向门控递归单元层依次记为双向门控递归单元层1和双向门控递归单元层2;上述所有各层的具体参数如表2所示。
表2 Bi-GRU神经网络具体参数
Figure BDA0003824010210000081
对s2p和Bi-GRU两种神经网络进行预训练后的神经网络分别记为s2p预训练后的神经网络fs2p和Bi-GRU预训练神经网络fBi-GRU
所述的无监督预训练阶段中,对于s2p,神经网络输入步骤1中获得的多个无标签总功率序列
Figure BDA0003824010210000082
输出各个无标签总功率序列的中点值
Figure BDA0003824010210000083
对于Bi-GRU,神经网络输入步骤1中获得的多个无标签总功率序列
Figure BDA0003824010210000084
输出各个无标签总功率序列的末尾点值
Figure BDA0003824010210000085
预训练阶段s2p和Bi-GRU两种神经网络fs2p和fBi-GRU如式(11)和(21):
Figure BDA0003824010210000086
Figure BDA0003824010210000087
式(11)和(21)中,ε是W维的高斯随机噪声。
预训练过程中,s2p和Bi-GRU两种神经网络训练的损失函数形式分别为:
Figure BDA0003824010210000088
Figure BDA0003824010210000089
式(21)和(22)中,θSSL是网络参数;
步骤3、应用长度为W的滑动窗口,将源数据集中选定的多个用户的有标签总功率信号yfine分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将yfine分割成多个长度为W的总功率序列
Figure BDA00038240102100000810
t为时间点;
步骤4、完成有监督的下游任务得到用于从总功率中分解出单个电器功率的负荷分解模型,包括:将步骤3中获得的源数据集中的多个有标签总功率序列
Figure BDA0003824010210000091
输入步骤2得到的预训练后的序列到点神经网络中,对该神经网络进行微调后,得到用来对目标电器m进行负荷分解的神经网络,
Figure BDA0003824010210000092
是所有电器的集合;
对于神经网络fs2p和神经网络fBi-GRU进行微调后,分别得到用来对目标电器m进行负荷分解的神经网络
Figure BDA0003824010210000093
和神经网络
Figure BDA0003824010210000094
即用于从总功率中分解出单个电器功率的s2p负荷分解模型
Figure BDA0003824010210000095
和Bi-GRU负荷分解模型
Figure BDA0003824010210000096
Figure BDA0003824010210000097
Figure BDA0003824010210000098
式(13)和(23)中,ε是W维的高斯随机噪声;神经网络
Figure BDA0003824010210000099
的输入是步骤3中获得的多个总功率序列
Figure BDA00038240102100000910
神经网络
Figure BDA00038240102100000911
的输出是对应时刻的单个电器总功率序列的中点值
Figure BDA00038240102100000912
神经网络
Figure BDA00038240102100000913
的输入是步骤3中获得的多个总功率序列
Figure BDA00038240102100000914
神经网络
Figure BDA00038240102100000915
的输出是对应时刻的单个电器总功率序列的末尾点值
Figure BDA00038240102100000916
微调过程中,s2p神经网络和Bi-GRU神经网络训练的损失函数形式分别为:
Figure BDA00038240102100000917
Figure BDA00038240102100000918
式(14)和(24)中,θ是网络参数。
步骤5、应用长度为W的滑动窗口,将目标数据集中目标家庭的待分解的总功率信号ytest分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将ytest分割成多个长度为W的总功率序列
Figure BDA00038240102100000919
t为时间点;
步骤6、将目标数据集中目标家庭的多个总功率信号
Figure BDA00038240102100000920
输入到步骤4中的微调后的神经网络中,该神经网络的输出是预测的单个电器在一个时刻的功率值,随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率值,进而连接得到预测的单个电器功率信号。
对于s2p神经网络,将目标数据集中目标家庭的多个总功率信号
Figure BDA00038240102100000921
输入到步骤4得到的神经网络
Figure BDA00038240102100000922
中,该神经网络
Figure BDA00038240102100000923
的输出即为预测的单个电器功率窗口的中点值
Figure BDA00038240102100000924
随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率窗口的中点值,连接后得到预测的单个电器功率信号。
对于Bi-GRU神经网络,将目标数据集中目标家庭的多个总功率信号
Figure BDA00038240102100000925
输入到步骤4得到的神经网络
Figure BDA00038240102100000926
中,该神经网络
Figure BDA00038240102100000927
的输出即为预测的单个电器功率窗口的末尾点值
Figure BDA0003824010210000101
随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率窗口的末尾点值,连接后得到预测的单个电器功率信号。
本发明中,s2p和Bi-GRU两种神经网络预训练和微调中的具体参数如下:优化器选择ADAM;采用早停机制防止过拟合,早停机制的容忍度是5个迭代轮次;训练中每批数据量设为1024个样本(数据量小时可设为512或更小);学习率设为0.001。
研究材料:
利用本发明方法实现在目标数据集无标签的场景下进行非侵入式负荷分解的具体步骤如下:
1)获取目标数据集中的无标签总功率数据、源数据集中的有标签总功率数据。
利用美国的REDD数据集、英国的UK-DALE、REFIT数据集来验证本发明的实用性。对于本发明所述的无监督预训练方法,设定4种实验场景,分别以REDD、UK-DALE为目标数据集,选择其中部分家庭作为无标签数据,对神经网络进行预训练,选择REFIT数据集作为源数据集,选择其中部分家庭作为有标签数据,对神经网络进行微调。选择5种电器,冰箱、微波炉、洗碗机、洗衣机、水壶(REDD中没有水壶)进行实验,用实施例验证本发明在目标数据集无标签的场景下的负荷分解效果,对于4组实验场景,预训练、微调以及测试的数据具体选择情况如表3所示。
表3实验数据选择
Figure BDA0003824010210000102
首先,对表1中的数据降采样到1/60Hz,之后对所有数据进行归一化处理:
Figure BDA0003824010210000103
其中,xt表示t时刻功率值,
Figure BDA0003824010210000104
和σ分别表示总用电功率或单个电器用电功率的平均值和标准差。s2p中对所有电器窗长W均设为79个样本,Bi-GRU中洗衣机窗长设为10个样本,其他电器均为5个样本。
2)对于每一组实验场景,利用目标数据集中的无标签数据,对s2p和Bi-GRU两种神经网络进行预训练,通过完成自监督前置任务训练网络学习总功率数据中的特征,更新网络参数,得到预训练的神经网络。
3)对于每一组实验场景,利用源数据集中的有标签数据,通过完成有监督下游任务对步骤2)得到的预训练的神经网络进行微调,将2)中学习到的特征迁移到负荷分解任务,更新整个网络参数。
5)对于每一组实验场景,s2p和Bi-GRU两种神经网络经过预训练和微调后得到可用于分解单个电器的神经网络。
6)对于每一组实验场景,对训练好的s2p和Bi-GRU两种神经网络进行测试,对目标数据集中的目标家庭进行负荷分解。将目标家庭的总功率信号输入训练好的s2p和Bi-GRU两种神经网络中。
本发明中,对于负荷分解结果的评价指标包括平均绝对误差(MAE)、归一化信号总误差(SAE)和日平均能耗误差(EpD)。
MAE用来计算t时刻预测值
Figure BDA0003824010210000111
与真实值xt之间的绝对误差的平均值。
Figure BDA0003824010210000112
SAE用来计算真实的总能耗r与预测的总能耗
Figure BDA0003824010210000113
之间的相对误差。
Figure BDA0003824010210000114
EpD用来计算平均每天预测的能耗误差。
Figure BDA0003824010210000115
7)s2p神经网络输出单个电器功率窗口的中点值,Bi-GRU神经网络输出单个电器功率窗口的末尾点值。随着网络输入窗口滑动,得到一系列单个电器功率窗口中点值或末尾点值。
8)根据步骤7)获得的一系列单个电器功率窗口中点值或末尾点值,进而得到预测的单个电器功率信号。
利用本发明方法进行目标数据集无标签的场景下负荷分解的MAE、SAE和EpD结果如表4所示。
表4 s2p和Bi-GRU两种神经网络负荷分解的MAE、SAE和EpD结果
Figure BDA0003824010210000116
Figure BDA0003824010210000121
由表2可知,利用本发明方法可以在目标数据集无标签的场景下进行非侵入式负荷分解,对表中电器的分解效果较好。
4组实验中,测试数据的真实电量与本发明方法预测出的电量条形图如图3(a)、(b)、(c)、(d)所示,可见利用本发明中的方法进行非侵入式负荷分解,估计的电量值与真实值较为接近。
以实验4为例,选取五种电器(冰箱、微波炉、洗碗机、洗衣机和水壶)部分有代表性的真实功率曲线与本发明方法的预测功率曲线,如图4所示,对于s2p和Bi-GRU两种神经网络,基于自监督学习的负荷分解方法能够将单个电器从总功率序列中分解出来,分解出的单个电器的功率曲线和真实值较为接近,且基于自监督学习的s2p神经网络的负荷分解曲线比基于自监督学习的Bi-GRU神经网络的负荷分解曲线更接近真实值。
以实验2和3为例,展示本发明方法的训练时间,如图5所示,总体来说,基于自监督学习的s2p神经网络进行负荷分解时所需的训练时间比基于自监督学习的Bi-GRU神经网络进行负荷分解时所需的训练时间长。
由上述研究材料可知,本发明方法在s2p和Bi-GRU两种神经网络上应用SSL,该方法可以从目标数据集中的无标签数据中学习有用的特征,并将其迁移到负荷分解任务上。因此,能够在目标数据集无标签的场景下进行负荷分解,实现针对目标数据集的无监督NILM。对于现实场景来说,具有较大的应用意义和较高的负荷分解潜力。
尽管上面结合附图对本发明进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨的情况下,还可以做出很多变形,这些均属于本发明的保护之内。

Claims (5)

1.一种基于自监督学习的非侵入式负荷分解方法,其特征在于,包括以下步骤:
步骤1、应用长度为W的滑动窗口,将目标数据集中选定的一用户或多个用户的无标签总功率信号ypre分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将ypre分割成多个长度为W的无标签总功率序列
Figure FDA0003824010200000011
t为时间点;
步骤2、完成自监督的前置任务得到预训练后的序列到点神经网络,以学习无标签总功率数据中的特征,包括:将步骤1中获得的目标数据集中的多个无标签总功率序列
Figure FDA0003824010200000012
输入序列到点神经网络中,对序列到点神经网络进行预训练后,得到对各目标电器通用的预训练后的序列到点神经网络;
步骤3、应用长度为W的滑动窗口,将源数据集中选定的多个用户的有标签总功率信号yfine分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将yfine分割成多个长度为W的总功率序列
Figure FDA0003824010200000013
t为时间点;
步骤4、完成有监督的下游任务得到用于从总功率中分解出单个电器功率的负荷分解模型,包括:将步骤3中获得的源数据集中的多个有标签总功率序列
Figure FDA0003824010200000014
输入步骤2得到的预训练后的序列到点神经网络中,对该神经网络进行微调后,得到用来对目标电器m进行负荷分解的神经网络,
Figure FDA0003824010200000015
Figure FDA0003824010200000016
是所有电器的集合;
步骤5、应用长度为W的滑动窗口,将目标数据集中目标家庭的待分解的总功率信号ytest分割,从功率序列t=1时刻开始向后滑动,每次滑动步长为1,将ytest分割成多个长度为W的总功率序列
Figure FDA0003824010200000017
t为时间点;
步骤6、将目标数据集中目标家庭的多个总功率信号
Figure FDA0003824010200000018
输入到步骤4中的微调后的神经网络中,该神经网络的输出是预测的单个电器在一个时刻的功率值,随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率值,进而连接得到预测的单个电器功率信号。
2.根据权利要求1所述的非侵入式负荷分解方法,其特征在于:所述的序列到点神经网络是s2p神经网络,所述s2p神经网络的结构是包括输入层和输出层,自所述输入层至输出层依次设有5个卷积层和一个全连接层,5个卷积层依次记为卷积层1、卷积层2、卷积层3、卷积层4和卷积层5,上述所有各层的参数如下:
Figure FDA0003824010200000019
Figure FDA0003824010200000021
3.根据权利要求2所述的非侵入式负荷分解方法,其特征在于:
步骤2中,预训练后的序列到点神经网络记为神经网络fs2p
Figure FDA0003824010200000022
式(11)中,ε是W维的高斯随机噪声,该神经网络fs2p的输出是各个无标签总功率序列
Figure FDA0003824010200000023
的中点值
Figure FDA0003824010200000024
预训练过程中,s2p神经网络训练的损失函数形式为:
Figure FDA0003824010200000025
式(12)中,θSSL是网络参数;
步骤4中,对该神经网络fs2p进行微调后,得到用来对目标电器m进行负荷分解的神经网络
Figure FDA0003824010200000026
Figure FDA0003824010200000027
式(13)中,ε是W维的高斯随机噪声;该神经网络
Figure FDA0003824010200000028
的输入是步骤3中获得的多个总功率序列
Figure FDA0003824010200000029
该神经网络
Figure FDA00038240102000000210
的输出是对应时刻的单个电器总功率序列的中点值
Figure FDA00038240102000000211
Figure FDA00038240102000000212
微调过程中,s2p神经网络训练的损失函数形式为:
Figure FDA00038240102000000213
式(14)中,θ是网络参数;
步骤6中,将目标数据集中目标家庭的多个总功率信号
Figure FDA00038240102000000214
输入到步骤4得到的神经网络
Figure FDA00038240102000000215
中,该神经网络
Figure FDA00038240102000000216
的输出即为预测的单个电器功率窗口的中点值
Figure FDA00038240102000000217
随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率窗口的中点值,连接后得到预测的单个电器功率信号。
4.根据权利要求1所述的非侵入式负荷分解方法,其特征在于:所述的序列到点神经网络是Bi-GRU神经网络,所述Bi-GRU神经网络的结构是包括输入层和输出层,自所述输入层至输出层依次设有一层卷积层,两层双向门控递归单元层以及一层全连接层,两层双向门控递归单元层依次记为双向门控递归单元层1和双向门控递归单元层2;上述所有各层的参数如下:
Figure FDA0003824010200000031
5.根据权利要求4所述的非侵入式负荷分解方法,其特征在于:
步骤2中,预训练后的序列到点神经网络记为神经网络fBi-GRU
Figure FDA0003824010200000032
式(21)中,ε是W维的高斯随机噪声,该神经网络fBi-GRU的输出是各个无标签总功率序列
Figure FDA0003824010200000033
的末尾点值
Figure FDA0003824010200000034
预训练过程中,Bi-GRU神经网络训练的损失函数形式为:
Figure FDA0003824010200000035
式(22)中,θSSL是网络参数;
步骤4中,对该神经网络fBi-GRU进行微调后,得到用来对目标电器m进行负荷分解的神经网络
Figure FDA0003824010200000036
Figure FDA0003824010200000037
式(23)中,ε是W维的高斯随机噪声;该神经网络
Figure FDA0003824010200000038
的输入是步骤3中获得的多个总功率序列
Figure FDA0003824010200000039
该神经网络
Figure FDA00038240102000000310
的输出是对应时刻的单个电器总功率序列的末尾点值
Figure FDA00038240102000000311
微调过程中,Bi-GRU神经网络训练的损失函数形式为:
Figure FDA00038240102000000312
式(24)中,θ是网络参数;
步骤6中,将目标数据集中目标家庭的多个总功率信号
Figure FDA0003824010200000041
输入到步骤4得到的神经网络
Figure FDA0003824010200000042
中,该神经网络
Figure FDA0003824010200000043
的输出即为预测的单个电器功率窗口的末尾点值
Figure FDA0003824010200000044
随着网络输入窗口的滑动,得到目标家庭中一系列单个电器功率窗口的末尾点值,连接后得到预测的单个电器功率信号。
CN202211051983.2A 2022-08-31 2022-08-31 基于自监督学习的非侵入式负荷分解方法 Pending CN115423646A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211051983.2A CN115423646A (zh) 2022-08-31 2022-08-31 基于自监督学习的非侵入式负荷分解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211051983.2A CN115423646A (zh) 2022-08-31 2022-08-31 基于自监督学习的非侵入式负荷分解方法

Publications (1)

Publication Number Publication Date
CN115423646A true CN115423646A (zh) 2022-12-02

Family

ID=84200073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211051983.2A Pending CN115423646A (zh) 2022-08-31 2022-08-31 基于自监督学习的非侵入式负荷分解方法

Country Status (1)

Country Link
CN (1) CN115423646A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117559450A (zh) * 2024-01-12 2024-02-13 吉林大学 一种基于反馈模型提升非介入式负荷监测精度的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117559450A (zh) * 2024-01-12 2024-02-13 吉林大学 一种基于反馈模型提升非介入式负荷监测精度的方法
CN117559450B (zh) * 2024-01-12 2024-03-29 吉林大学 一种基于反馈模型提升非介入式负荷监测精度的方法

Similar Documents

Publication Publication Date Title
Kaselimi et al. Multi-channel recurrent convolutional neural networks for energy disaggregation
CN111563611A (zh) 面向图卷积网络的云数据中心可再生能源时空预测方法
CN111563827B (zh) 基于电器物理特性及居民用电行为的负荷分解方法
Chen et al. NeuCast: Seasonal Neural Forecast of Power Grid Time Series.
Lin et al. Power fingerprint identification based on the improved VI trajectory with color encoding and transferred CBAM-ResNet
CN114037178A (zh) 基于无监督预训练神经网络的非侵入式负荷分解方法
CN115423646A (zh) 基于自监督学习的非侵入式负荷分解方法
CN113065704A (zh) 一种非侵入式负荷分解模型的超参数优化和后处理方法
Nie et al. An ensemble-policy non-intrusive load monitoring technique based entirely on deep feature-guided attention mechanism
Wang et al. Evsense: A robust and scalable approach to non-intrusive ev charging detection
CN110033126A (zh) 基于注意力机制与逻辑回归的长短期记忆网络预测方法
Han et al. Non‐intrusive load monitoring by voltage–current trajectory enabled asymmetric deep supervised hashing
Al-Ja’afreh et al. An enhanced CNN-LSTM based multi-stage framework for PV and load short-term forecasting: DSO scenarios
Zhou et al. Non-intrusive extraction and forecasting of residential electric vehicle charging load
CN115511170A (zh) 一种多光伏电站功率预测误差建模方法
Zhou et al. Research on non-invasive load monitoring based on convolutional neural network
Li et al. Non-intrusive Load Monitoring Method Based on Transfer Learning and Sequence-to-point Model
Liu et al. Nonintrusive load disaggregation combining with external attention mechanism and Seq2Piont
Li et al. Short-term Power Load Forecasting based on Feature Fusion of Parallel LSTM-CNN
CN117407693B (zh) 基于部分域自适应和分位数回归的非侵入式负荷检测方法
CN116108350B (zh) 一种基于多任务学习的非侵入式电器识别方法及系统
Yan et al. Parallel lstm enhanced forecasting system for dependable and secure household energy consumption
Shen et al. Aiot-empowered smart grid energy management with distributed control and non-intrusive load monitoring
CN116644320B (zh) 一种基于seq2seq的楼宇迁移非侵入式负荷监测方法
Tian et al. Residential load disaggregation based on resident behavior learning and neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination