CN109948920B - 一种基于证据理论的电力市场结算数据风险处理方法 - Google Patents

一种基于证据理论的电力市场结算数据风险处理方法 Download PDF

Info

Publication number
CN109948920B
CN109948920B CN201910179617.7A CN201910179617A CN109948920B CN 109948920 B CN109948920 B CN 109948920B CN 201910179617 A CN201910179617 A CN 201910179617A CN 109948920 B CN109948920 B CN 109948920B
Authority
CN
China
Prior art keywords
data
rbf
neural network
grnn
evidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910179617.7A
Other languages
English (en)
Other versions
CN109948920A (zh
Inventor
严明辉
林开升
王雪晋
王睿琛
李维劼
应黎明
崔雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming Electric Power Transaction Center Co ltd
Wuhan University WHU
Original Assignee
Kunming Electric Power Transaction Center Co ltd
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming Electric Power Transaction Center Co ltd, Wuhan University WHU filed Critical Kunming Electric Power Transaction Center Co ltd
Priority to CN201910179617.7A priority Critical patent/CN109948920B/zh
Publication of CN109948920A publication Critical patent/CN109948920A/zh
Application granted granted Critical
Publication of CN109948920B publication Critical patent/CN109948920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提出了一种基于证据理论的电力市场结算数据风险处理方法。对电力市场结算数据进行分类得到分类后电力市场结算数据,进行异常数据处理得到训练样本;采用Min‑Max标准化方法分别对训练样本和待检测样本进行数据预处理,得到标准化后的训练样本和待检测样本;利用标准化后的训练样本分别对BP神经网络、RBF神经网络、GRNN神经网络进行训练,将标准化后的待检测样本分别输入到训练后三种神经网络中,分别得到三种神经网络的基本可信度;计算证据对各命题的不可信度,按照D‑S证据理论方法进行多证据融合;利用多证据融合后的基本可信度判断数据是否异常,并对异常数据进行重构。本发明有效的提高数据风险识别的准确性,保障市场化交易的稳定有序进行。

Description

一种基于证据理论的电力市场结算数据风险处理方法
技术领域
本发明属于电网技术领域,特别涉及一种基于证据理论的电力市场结算数据风险处理方法。
背景技术
自2015年电改九号文发布以来,全国各地都在按照文件中明确的思路开始逐步探索电力市场化建设,寻找适合中国电力市场发展的道路,电力市场已成为国内研究的热点。电力市场结算是市场化交易的重要环节,是保障电力市场稳定有序发展的重要基石。结算过程中由于各种原因会出现数据异常甚至是缺失的情况,这种结算数据风险是电力市场结算研究中的重要组成部分,研究对结算数据风险的识别与处理对于提高电力市场结算的准确度具有十分重要的现实意义。
发明内容
为了克服现有电力市场结算数据风险识别应用的局限性,本发明目的在于提出一种基于D-S证据理论的电力市场结算数据风险识别方法,通过D-S证据理论对多个证据进行融合来为异常数据的辨识提供决策。
本发明的电力市场结算数据风险识别与处理可以通过以下技术方案来实现:
一种基于证据理论的电力市场结算数据风险处理方法,其特征在于能够将多个证据进行融合,较为全面的对需要解决的问题进行分析,提高结论的准确度,包括以下步骤:
步骤1:对电力市场结算数据进行分类得到分类后电力市场结算数据,并对分类后电力市场结算数据进行异常数据处理得到训练样本;
步骤2:采用Min-Max标准化方法分别对训练样本和待检测样本进行数据预处理,得到标准化后的训练样本和待检测样本;
步骤3:利用标准化后的训练样本分别对BP神经网络、RBF神经网络、 GRNN神经网络进行训练,将标准化后的待检测样本分别输入到训练后BP神经网络、训练后RBF神经网络、训练后GRNN神经网络中,分别得到BP神经网络基本可信度、RBF神经网络基本可信度、GRNN神经网络基本可信度;
步骤4:计算证据Eα对各命题的不可信度,通过该不可信度计算证据Eα对各命题的权重,并在原有基本可信度分配基础上乘以该权重得到新的基本可信度分配,再按照D-S证据理论方法中的证据融合规则对新的基本可信度分配进行多证据融合;
步骤5:利用多证据融合后的基本可信度分配判断数据是否异常,并对异常数据进行重构;
作为优选,步骤1中所述分类后电力市场结算数据为:
Qk,i,j表示第k组第i个市场主体在第j结算间隔下结算数据,i表示市场主体编号,不同市场主体的类型、发用电特性和进入市场的时间信息存在差异, i=1,2,...,I,I为市场主体个数,j表示结算数据所处结算间隔,j=1,2,...,J, J为结算间隔数,若结算间隔为1个月,则一年的结算间隔数J;
步骤2中所述对分类后电力市场结算数据进行异常数据处理得到训练样本为:
k=1,2,...,K,其中第1组到第K-1组作为训练样本,第K组为待检测样本,训练样本的得到方法为:取K-1组分类后电力市场结算数据,在每组中选取部分结算数据,用随机设置的异常值替代原有正常值,异常数据的取值范围为 0到三倍的正常值之间,形成K-1组训练样本。得到训练样本为Pk,i,j,其中 i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,待检测样本不进行异常数据处理,为 PK,i,j
作为优选,步骤2中所述采用Min-Max标准化方法对训练样本和待检测样本进行数据预处理为:
使其落到[0,1]区间内,得到标准化后的每个市场主体结算间隔下结算数据:
Figure BDA0001990828610000021
得到标准化后的电力市场结算数据P′k,i,j
作为优选,步骤3中所述利用标准化后的训练样本对BP神经网络进行训练为:
确定BP神经网络的网络结构,将标准化后的训练样本P′k,i,j,k=1,2,...,K-1,输入到BP神经网络中进行训练,输出结果为各数据的基本可信度分配;
将BP神经网络的输出结果作为证据EBP,将RBF神经网络的输出结果作为证据ERBF,将GRNN神经网络的输出结果作为证据EGRNN,定义神经网络的输出结果为Eα,α=BP,RBF,GRNN。每个数据的正常或以异常作为单个数据的识别框架Θ,且Θ={A,B},其中,命题A为数据正常,命题B为数据异常;
识别框架Θ的幂集
Figure BDA0001990828610000031
θ表示不确定数据正常与否,通过μ函数对命题的信度进行衡量,
Figure BDA0001990828610000032
恒为0,μ(A)表示对数据正常的信度,μ(B) 表示对数据异常的信度,μ(θ)表示不确定数据的正常与否的程度,μ(A)和μ(B)可作为神经网络的输出,μ(θ)通过1-μ(A)-μ(B)得到;
BP神经网络选择为单隐层,输入节点数LBP,输入节点依次为市场主体编号i、结算数据所处结算间隔j以及归一化后的结算数据P′k,i,j,k=1,2,...,K-1,输入向量则表示为Xk,i,j=(i,j,P′k,i,j),其中
i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1;
隐层节点数MBP,输出节点数NBP,输出节点依次为数据正常的信度μBP,k,i,j(A)以及数据异常的信度μBP,k,i,j(B),k=1,2,...,K-1;
隐层与输出层的转移函数均采用单极性Sigmoid函数,隐层输出为
Figure BDA0001990828610000033
mBP表示隐层节点编号,mBP=1,2,...,MBP
隐层到输出层之间的权重为
Figure BDA0001990828610000034
nBP表示输出层节点编号, nBP=1,...,NBP;输入层到隐层之间的权重为
Figure BDA0001990828610000035
lBP表示输入层节点编号, lBP=1,...,LBP,对于隐层,有:
Figure BDA0001990828610000036
Figure BDA0001990828610000041
其中:
Figure BDA0001990828610000042
为隐层的净输入,对于输出层,有:
Figure BDA0001990828610000043
其中:
Figure BDA0001990828610000044
为输出层的净输入,训练样本的期望输出值μ′BP,k,i,j(A)和μ′BP,k,i,j(B)采用人工标定,其中i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,当BP 神经网络输出值μBP,k,i,j(A)和μBP,k,i,j(B)与期望输出值不等时,存在输出误差GBP,定义如下:
Figure BDA0001990828610000045
且输出误差GBP是各层权重
Figure BDA0001990828610000046
的函数,因此通过梯度下降法调整权值以最小化输出误差GBP,即:
Figure BDA0001990828610000047
Figure BDA0001990828610000048
其中ηBP表示学习速率,网络训练目标即为输出误差GBP需要达到的精度要求,当输出误差GBP小于网络训练目标时则训练结束;
步骤3中所述利用标准化后的训练样本对RBF神经网络进行训练为:
确定RBF神经网络的网络结构,将标准化后的训练样本P′k,i,j, k=1,2,...,K-1,输入到RBF神经网络中进行训练,输出结果为各数据的基本可信度分配;
RBF神经网络的输入设置与BP神经网络相同,输出节点依次为数据正常的信度μRBF,k,i,j(A)以及数据异常的信度μRBF,k,i,j(B),隐层节点数MRBF,隐层输出为
Figure BDA0001990828610000051
mRBF表示隐层节点编号,mRBF=1,2,...,MRBF。RBF神经网络的样本数S即为训练样本的总组数,即S=IJ(K-1)。基函数选用Gauss函数,即隐层的输出
Figure BDA0001990828610000052
的计算公式为:
Figure BDA0001990828610000053
Figure BDA0001990828610000054
Figure BDA0001990828610000055
为隐层的净输入,
Figure BDA0001990828610000056
为基函数的扩展常数,
Figure BDA0001990828610000057
表示输入向量Xk,i,j,k=1,2,...,K-1,与聚类中心
Figure BDA0001990828610000058
之间的欧氏距离;
各基函数的聚类中心和扩展常数采用K-means聚类方法确定,中心个数即隐层节点数MRBF,聚类中心的调整方法为对各聚类域中的样本取均值,令
Figure BDA0001990828610000059
表示第mRBF个聚类域,e为迭代次数,
Figure BDA00019908286100000510
为第mRBF个聚类域中的样本数,则:
Figure BDA00019908286100000511
当聚类中心的改变量小于0.01时则聚类中心迭代结束,确定聚类中心为
Figure BDA00019908286100000512
扩展常数
Figure BDA00019908286100000513
根据各中心之间的距离
Figure BDA00019908286100000514
确定:
Figure BDA00019908286100000515
Figure BDA00019908286100000516
其中:
Figure BDA00019908286100000517
表示两聚类中心之间的欧氏距离,λ为重叠系数;
得到各基函数的聚类中心和扩展函数后,采用梯度下降算法求出隐层到输出层的权值
Figure BDA00019908286100000518
对于输出层:
Figure BDA0001990828610000061
Figure BDA0001990828610000062
训练样本的期望输出值μ′RBF,k,i,j(A)和μ′RBF,k,i,j(B)采用人工标定,其中 i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,当RBF神经网络输出值μRBF,k,i,j(A)和μRBF,k,i,j(B)与期望输出值不等时,存在输出误差GRBF,计算如下:
Figure BDA0001990828610000063
通过梯度下降法调整权值以最小化输出误差GRBF,即:
Figure BDA0001990828610000064
其中,ηRBF表示学习速率,网络训练目标即为输出误差GRBF需要达到的精度要求,当输出误差GRBF小于网络训练目标时则训练结束;
步骤3中所述利用标准化后的训练样本对GRNN神经网络进行训练为:
确定GRNN神经网络的网络结构,将标准化后的训练样本P′k,i,j, k=1,2,...,K-1,输入到GRNN神经网络中进行训练,输出结果为各数据的基本可信度分配;
GRNN神经网络的输入与输出设置与BP神经网络相同,输出节点依次为数据正常的信度μGRNN,k,i,j(A)以及数据异常的信度μGRNN,k,i,j(B),隐层节点数 MGRNN与样本数相同,即MGRNN=IJ(K-1),隐层节点编号为mGRN, mGRNN=1,2,...,MGRNN,每个隐层节点都对应一个训练样本的输入向量Xk,i,j,其中i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1。可为输入向量和输出节点重新编号:
Figure BDA0001990828610000065
隐层输出为
Figure BDA0001990828610000066
mGRNN表示隐层节点编号,mGRNN=1,2,...,MGRNN,基函数选用Gauss函数,即隐层的输出
Figure BDA0001990828610000071
的计算公式为:
Figure BDA0001990828610000072
Figure BDA0001990828610000073
Figure BDA0001990828610000074
为隐层的净输入,
Figure BDA0001990828610000075
为基函数的扩展常数,
Figure BDA0001990828610000076
表示输入向量Xk,i,j,k=1,2,...,K-1,与第mGRNN个隐层节点对应的学习样本
Figure BDA0001990828610000077
之间的欧氏距离。基函数的数据中心即为样本本身,只需考虑扩展常数
Figure BDA0001990828610000078
将所有基函数的扩展常数
Figure BDA0001990828610000079
设为:
Figure BDA00019908286100000710
ξmax为所有训练样本之间的最大距离;
GRNN神经网络隐层之后为加和层,共有1+NGRNN个节点,NGRNN为输出层节点数,该层第一个节点的输出rGRNN,1为每个隐层节点的输出和:
Figure BDA00019908286100000711
期望输出值采用人工标定,训练样本的输入向量
Figure BDA00019908286100000712
i=1,2,...,I; j=1,2,...,J;k=1,2,...,K-1,对应的期望输出值为
Figure BDA00019908286100000713
Figure BDA00019908286100000714
加和层其余节点的输出分别为期望输出值
Figure BDA00019908286100000715
Figure BDA00019908286100000716
与对应隐层节点输出的加权和:
Figure BDA00019908286100000717
对于输出层,有:
Figure BDA00019908286100000718
将步骤2中得到标准化后的待检测样本P′K,i,j分别输入到训练后的BP、RBF、GRNN神经网络中;
步骤3中所述BP神经网络基本可信度为:
μBP,K,i,j(A)、μBP,K,i,j(B);
μBP,K,i,j(θ)=1-μBP,K,i,j(A)-μBP,K,i,j(B);
步骤3中所述RBF神经网络基本可信度为:
μRBF,K,i,j(A)、μRBF,K,i,j(B);
μRBF,K,i,j(θ)=1-μRBF,K,i,j(A)-μRBF,K,i,j(B);
步骤3中所述GRNN神经网络基本可信度为:
μGRNN,K,i,j(A)、μGRNN,K,i,j(B);
μGRNN,K,i,j(θ)=1-μGRNN,K,i,j(A)-μGRNN,K,i,j(B);
作为优选,步骤4中所述计算证据Eα对各命题的不可信度:
步骤4中所述证据Eα对各命题的不可信度等于证据Eα对于各命题的相互矛盾系数平均值,相互矛盾系数平均值通过冲突系数计算;
计算对于每个命题的三个证据两两之间的冲突系数,每个命题的冲突系数计算方法为:
Figure BDA0001990828610000081
其中:
Figure BDA0001990828610000082
α,β=BP,RBF,GRNN;
Figure BDA0001990828610000083
表示证据Eα对于命题
Figure BDA0001990828610000084
的基本可信度分配;
Figure BDA0001990828610000085
表示对于命题
Figure BDA0001990828610000086
证据Eα与Eβ之间的冲突系数;
而证据Eα对于命题
Figure BDA0001990828610000087
的相互矛盾系数为:
Figure BDA0001990828610000088
证据Eα对于命题
Figure BDA0001990828610000089
的相互矛盾系数平均值
Figure BDA00019908286100000810
即为步骤4中所述证据Eα对各命题的不可信度。
步骤4中所述通过该不可信度计算证据Eα对各命题的权重,并在原有基本可信度分配基础上乘以该权重得到新的基本可信度分配:
步骤4中所述证据Eα对各命题的权重为
Figure BDA0001990828610000091
在原有基本可信度分配基础上乘以该权重,得到考虑到冲突因子后证据Eα对于命题
Figure BDA0001990828610000092
新的基本可信度分配
Figure BDA0001990828610000093
计算公式为:
Figure BDA0001990828610000094
步骤4中所述再按照D-S证据理论方法中的证据融合规则对新的基本可信度分配进行融合为:
步骤4中所述D-S证据理论方法中的证据融合规则为:
Figure BDA0001990828610000095
其中:
Figure BDA0001990828610000096
得到命题
Figure BDA0001990828610000097
进行多证据融合后的基本可信度分配
Figure BDA0001990828610000098
作为优选,步骤5中所述利用多证据融合后的基本可信度分配判断数据是否异常为:
判断对数据正常的信度
Figure BDA0001990828610000099
是否大于对数据异常的信度
Figure BDA00019908286100000910
若大于则认为数据正常,若正常信度较小但高于重构阈值T则认为该数据为异常数据但其异常程度在可接受范围内,若信度低于重构阈值T,则认为该数据的异常程度较高,偏离正常水平过多,此时若仍按异常数据进行结算则会产生较大风险,需要对该异常数据进行重构,并将该异常数据记为P″K,i,j,且P″K,i,j为未进行标准化的数据;
步骤5中所述对异常数据进行重构为:
考虑多项式拟合以及历史相关性相结合的方法对信度低于重构阈值T的异常数据P″K,i,j进行重构,首先对需要重构数据P″K,i,j的处于的第i市场主体的各结算间隔为横坐标,数据初值为纵坐标进行多项式曲线拟合,再计算拟合曲线的曲率,若曲率小于设定的曲率阈值Q,认为结算数据波动较小,使用拟合曲线的结果作为重构数据P″′K,i,j,若曲率大于曲率阈值Q,认为结算数据波动较大,利用历史同期数据并考虑时间变化特征计算重构数据P″′K,i,j,计算公式为:
P″′K,i,j=PK,i,j′(1+τ)
其中,PK,i,j′为历史同期数据,j′表示历史同期结算间隔,τ为用电量增长率,设为5%,体现当前和历史同期水平的差异。
本发明所述的一种电力市场结算数据风险的识别与处理方法,其优点在于采用基于D-S证据理论的识别方法,能够将根据神经网络生成的多个证据进行融合,较为全面的对需要解决的问题进行分析,提高结论的准确度,同时基于多证据融合得到的信度识别异常数据并判断异常数据是否需要进行重构,通过多项式拟合以及历史相关性相结合的方法可以得到更为准确的重构数据,在不影响结算效率的情况下能够有效的降低电力市场结算风险。
本发明识别电力市场结算过程中存在的数据异常甚至是缺失的现象,有效的提高数据风险识别的准确性,保障市场化交易的稳定有序进行。
本发明根据证据理论的识别结果对识别出的数据风险进行处理,在保证结算效率的基础上对偏差程度较大的异常数据进行重构以降低各市场主体面临的风险。
附图说明
图1:是本发明方法流程图;
图2:待检测样本中市场主体在各结算间隔下的电力市场结算数据;
图3:待检测样本中市场主体标准化后的电力市场结算数据;
图4:待检测样本中市场主体的电力市场结算数据的三种基本可信度分配;
图5:多证据融合后待检测样本中市场主体电力市场结算数据的基本可信度分配。
具体实施方式
下面结合附图和实施案例对本发明作进一步具体说明。应理解,这些实施案例仅用于说明本发明而不限于本发明的范围。此外应理解,在阅读了本发明所述的内容之后,本领域技术人员可以对本发明做各种改动或修改,这些等价形式同样落于本申请所付权利要求书所限定的范围。
本发明具体实施方式选取国内某省电力市场作为算例,对该电力市场中20 家电力用户在2017年6月至2018年5月的结算数据进行分析。
下面结合图1至图5介绍本发明的具体实施方式,包括以下步骤:
步骤1:对电力市场结算数据进行分类得到分类后电力市场结算数据,并对分类后电力市场结算数据进行异常数据处理得到训练样本;
步骤1中所述分类后电力市场结算数据为:
Qk,i,j表示第k组第i个市场主体在第j结算间隔下结算数据,i表示市场主体编号,不同市场主体的类型、发用电特性和进入市场的时间信息存在差异, i=1,2,...,I,I=20为市场主体个数,j表示结算数据所处结算间隔,j=1,2,...,J, J为结算间隔数,若结算间隔为1个月,则一年的结算间隔数J=12;
步骤2中所述对分类后电力市场结算数据进行异常数据处理得到训练样本为:
k=1,2,...,K,其中第1组到第K-1组作为训练样本,第K组为待检测样本,训练样本的得到方法为:取K-1组分类后电力市场结算数据,在每组中选取部分结算数据,用随机设置的异常值替代原有正常值,异常数据的取值范围为 0到三倍的正常值之间,形成K-1组训练样本。得到训练样本为Pk,i,j,其中 i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,待检测样本不进行异常数据处理,为 PK,i,j
步骤2:采用Min-Max标准化方法分别对训练样本和待检测样本进行数据预处理,得到标准化后的训练样本和待检测样本;
步骤2中所述采用Min-Max标准化方法对训练样本和待检测样本进行数据预处理为:
使其落到[0,1]区间内,得到标准化后的每个市场主体结算间隔下结算数据:
Figure BDA0001990828610000111
得到标准化后的电力市场结算数据P′k,i,j
电力市场结算数据以及标准化后的样本结算数据如图2和图3所示:
步骤3:利用标准化后的训练样本分别对BP神经网络、RBF神经网络、 GRNN神经网络进行训练,将标准化后的待检测样本分别输入到训练后BP神经网络、训练后RBF神经网络、训练后GRNN神经网络中,分别得到BP神经网络基本可信度、RBF神经网络基本可信度、GRNN神经网络基本可信度;
步骤3中所述利用标准化后的训练样本对BP神经网络进行训练为:
确定BP神经网络的网络结构,将标准化后的训练样本P′K,i,j,k=1,2,...,K-1,输入到BP神经网络中进行训练,输出结果为各数据的基本可信度分配;
将BP神经网络的输出结果作为证据EBP,将RBF神经网络的输出结果作为证据ERBF,将GRNN神经网络的输出结果作为证据EGRNN,定义神经网络的输出结果为Eα,α=BP,RBF,GRNN。每个数据的正常或以异常作为单个数据的识别框架Θ,且Θ={A,B},其中,命题A为数据正常,命题B为数据异常;
识别框架Θ的幂集
Figure BDA0001990828610000121
θ表示不确定数据正常与否,通过μ函数对命题的信度进行衡量,
Figure BDA0001990828610000122
恒为0,μ(A)表示对数据正常的信度,μ(B) 表示对数据异常的信度,μ(θ)表示不确定数据的正常与否的程度,μ(A)和μ(B)可作为神经网络的输出,μ(θ)通过1-μ(A)-μ(B)得到;
BP神经网络选择为单隐层,输入节点数LBP设为3,输入节点依次为市场主体编号i、结算数据所处结算间隔j以及归一化后的结算数据P′k,i,j, k=1,2,...,K-1,输入向量则表示为Xk,i,j=(i,j,P′k,i,j),其中
i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1;
隐层节点数MBP设为7,输出节点数NBP设为2,输出节点依次为数据正常的信度μBP,k,i,j(A)以及数据异常的信度μBP,k,i,j(B),k=1,2,...,K-1;
隐层与输出层的转移函数均采用单极性Sigmoid函数,隐层输出为
Figure BDA0001990828610000123
mBP表示隐层节点编号,mBP=1,2,...,MBP
隐层到输出层之间的权重为
Figure BDA0001990828610000131
nBP表示输出层节点编号, nBP=1,...,NBP;输入层到隐层之间的权重为
Figure BDA0001990828610000132
lBP表示输入层节点编号, lBP=1,...,LBP,对于隐层,有:
Figure BDA0001990828610000133
其中:
Figure BDA0001990828610000134
为隐层的净输入,对于输出层,有:
Figure BDA0001990828610000135
其中:
Figure BDA0001990828610000136
为输出层的净输入,训练样本的期望输出值μ′BP,k,i,j(A)和μ′BP,k,i,j(B)采用人工标定,其中i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,当BP 神经网络输出值μBP,k,i,j(A)和μBP,k,i,j(B)与期望输出值不等时,存在输出误差GBP,定义如下:
Figure BDA0001990828610000137
且输出误差GBP是各层权重
Figure BDA0001990828610000138
的函数,因此通过梯度下降法调整权值以最小化输出误差GBP,即:
Figure BDA0001990828610000139
Figure BDA00019908286100001310
其中ηBP表示学习速率,设为0.1。网络训练目标即为输出误差GBP需要达到的精度要求,当输出误差GBP小于网络训练目标时则训练结束,网络训练目标设为0.01;
步骤3中所述利用标准化后的训练样本对RBF神经网络进行训练为:
确定RBF神经网络的网络结构,将标准化后的训练样本P′k,i,j, k=1,2,...,K-1,输入到RBF神经网络中进行训练,输出结果为各数据的基本可信度分配;
RBF神经网络的输入设置与BP神经网络相同,输出节点依次为数据正常的信度μRBF,k,i,j(A)以及数据异常的信度μRBF,k,i,j(B),隐层节点数MRBF为7个,隐层输出为
Figure BDA0001990828610000141
mRBF表示隐层节点编号,mRBF=1,2,...,MRBF。RBF神经网络的样本数S即为训练样本的总组数,即S=IJ(K-1)。基函数选用Gauss函数,即隐层的输出
Figure BDA0001990828610000142
的计算公式为:
Figure BDA0001990828610000143
Figure BDA0001990828610000144
为隐层的净输入,
Figure BDA0001990828610000145
为基函数的扩展常数,
Figure BDA0001990828610000146
表示输入向量Xk,i,j,k=1,2,...,K-1,与聚类中心
Figure BDA0001990828610000147
之间的欧氏距离;
各基函数的聚类中心和扩展常数采用K-means聚类方法确定,中心个数即隐层节点数MRBF为7个,聚类中心的调整方法为对各聚类域中的样本取均值,令
Figure BDA0001990828610000148
表示第mRBF个聚类域,e为迭代次数,
Figure BDA0001990828610000149
为第mRBF个聚类域中的样本数,则:
Figure BDA00019908286100001410
当聚类中心的改变量小于0.01时则聚类中心迭代结束,确定聚类中心为
Figure BDA0001990828610000151
扩展常数
Figure BDA0001990828610000152
根据各中心之间的距离
Figure BDA0001990828610000153
确定:
Figure BDA0001990828610000154
其中:
Figure BDA0001990828610000155
表示两聚类中心之间的欧氏距离,λ为重叠系数,设为 0.1;
得到各基函数的聚类中心和扩展函数后,采用梯度下降算法求出隐层到输出层的权值
Figure BDA0001990828610000156
对于输出层:
Figure BDA0001990828610000157
Figure BDA0001990828610000158
训练样本的期望输出值μ′RBF,k,i,j(A)和μ′RBF,k,i,j(B)采用人工标定,其中 i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,当RBF神经网络输出值μRBF,k,i,j(A)和μRBF,k,i,j(B)与期望输出值不等时,存在输出误差GRBF,计算如下:
Figure BDA0001990828610000159
通过梯度下降法调整权值以最小化输出误差GRBF,即:
Figure BDA00019908286100001510
其中,ηRBF表示学习速率,设为0.1,网络训练目标即为输出误差GRBF需要达到的精度要求,当输出误差GRBF小于网络训练目标时则训练结束,网络训练目标设为0.01;
步骤3中所述利用标准化后的训练样本对GRNN神经网络进行训练为:
确定GRNN神经网络的网络结构,将标准化后的训练样本P′k,i,j,k=1,2,...,K-1,输入到GRNN神经网络中进行训练,输出结果为各数据的基本可信度分配;
GRNN神经网络的输入与输出设置与BP神经网络相同,输出节点依次为数据正常的信度μGRNN,k,i,j(A)以及数据异常的信度μGRNN,k,i,j(B),隐层节点数 MGRNN与样本数相同,即MGRNN=IJ(K-1),隐层节点编号为mGRN, mGRNN=1,2,...,MGRNN,每个隐层节点都对应一个训练样本的输入向量Xk,i,j,其中i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1。可为输入向量和输出节点重新编号:
Figure BDA0001990828610000161
隐层输出为
Figure BDA0001990828610000162
mGRNN表示隐层节点编号,mGRNN=1,2,...,MGRNN,基函数选用Gauss函数,即隐层的输出
Figure BDA0001990828610000163
的计算公式为:
Figure BDA0001990828610000164
Figure BDA0001990828610000165
为隐层的净输入,
Figure BDA0001990828610000166
为基函数的扩展常数,
Figure BDA0001990828610000167
表示输入向量Xk,i,j,k=1,2,...,K-1,与第mGRNN个隐层节点对应的学习样本
Figure BDA0001990828610000168
之间的欧氏距离。基函数的数据中心即为样本本身,只需考虑扩展常数
Figure BDA0001990828610000169
将所有基函数的扩展常数
Figure BDA00019908286100001610
设为:
Figure BDA00019908286100001611
ξmax为所有训练样本之间的最大距离;
GRNN神经网络隐层之后为加和层,共有1+NGRNN个节点,NGRNN为输出层节点数,该层第一个节点的输出rGRNN,1为每个隐层节点的输出和:
Figure BDA00019908286100001612
期望输出值采用人工标定,训练样本的输入向量
Figure BDA00019908286100001613
i=1,2,...,I;j=1,2,...,J;k=1,2,...,K-1,对应的期望输出值为
Figure BDA0001990828610000171
Figure BDA0001990828610000172
加和层其余节点的输出分别为期望输出值
Figure BDA0001990828610000173
Figure BDA0001990828610000174
与对应隐层节点输出的加权和:
Figure BDA0001990828610000175
对于输出层,有:
Figure BDA0001990828610000176
将步骤2中得到标准化后的待检测样本P′K,i,j分别输入到训练后的BP、RBF、 GRNN神经网络中;
步骤3中所述BP神经网络基本可信度为:
μBP,K,i,j(A)、μBP,K,i,j(B);
μBP,K,i,j(θ)=1-μBP,K,i,j(A)-μBP,K,i,j(B);
步骤3中所述RBF神经网络基本可信度为:
μRBF,K,i,j(A)、μRBF,K,i,j(B);
μRBF,K,i,j(θ)=1-μRBF,K,i,j(A)-μRBF,K,i,j(B);
步骤3中所述GRNN神经网络基本可信度为:
μGRNN,K,i,j(A)、μGRNN,K,i,j(B);
μGRNN,K,i,j(θ)=1-μGRNN,K,i,j(A)-μGRNN,K,i,j(B);
如图4所示。
步骤4:计算证据Eα对各命题的不可信度,通过该不可信度计算证据Eα对各命题的权重,并在原有基本可信度分配基础上乘以该权重得到新的基本可信度分配,再按照D-S证据理论方法中的证据融合规则对新的基本可信度分配进行多证据融合;
步骤4中所述计算证据Eα对各命题的不可信度:
步骤4中所述证据Eα对各命题的不可信度等于证据Eα对于各命题的相互矛盾系数平均值,相互矛盾系数平均值通过冲突系数计算;
计算对于每个命题的三个证据两两之间的冲突系数,每个命题的冲突系数计算方法为:
Figure BDA0001990828610000181
其中:
Figure BDA0001990828610000182
α,β=BP,RBF,GRNN;
Figure BDA0001990828610000183
表示证据Eα对于命题
Figure BDA0001990828610000184
的基本可信度分配;
Figure BDA0001990828610000185
表示对于命题
Figure BDA0001990828610000186
证据Eα与Eβ之间的冲突系数;
而证据Eα对于命题
Figure BDA0001990828610000187
的相互矛盾系数为:
Figure BDA0001990828610000188
证据Eα对于命题
Figure BDA0001990828610000189
的相互矛盾系数平均值
Figure BDA00019908286100001810
即为步骤4中所述证据Eα对各命题的不可信度。
步骤4中所述通过该不可信度计算证据Eα对各命题的权重,并在原有基本可信度分配基础上乘以该权重得到新的基本可信度分配:
步骤4中所述证据Eα对各命题的权重为
Figure BDA00019908286100001811
在原有基本可信度分配基础上乘以该权重,得到考虑到冲突因子后证据Eα对于命题
Figure BDA00019908286100001812
新的基本可信度分配
Figure BDA00019908286100001813
计算公式为:
Figure BDA00019908286100001814
步骤4中所述再按照D-S证据理论方法中的证据融合规则对新的基本可信度分配进行融合为:
步骤4中所述D-S证据理论方法中的证据融合规则为:
Figure BDA0001990828610000191
其中:
Figure BDA0001990828610000192
得到命题
Figure BDA0001990828610000193
进行多证据融合后的基本可信度分配
Figure BDA0001990828610000194
如图5所示。
步骤5:利用多证据融合后的基本可信度分配判断数据是否异常,并对异常数据进行重构;
步骤5中所述利用多证据融合后的基本可信度分配判断数据是否异常为:
判断对数据正常的信度
Figure BDA0001990828610000195
是否大于对数据异常的信度
Figure BDA0001990828610000196
若大于则认为数据正常,若正常信度较小但高于重构阈值T=0.2则认为该数据为异常数据但其异常程度在可接受范围内,若信度低于重构阈值T=0.2,则认为该数据的异常程度较高,偏离正常水平过多,此时若仍按异常数据进行结算则会产生较大风险,需要对该异常数据进行重构,并将该异常数据记为P″K,i,j,且P″K,i,j为未进行标准化的数据;
步骤5中所述对异常数据进行重构为:
考虑多项式拟合以及历史相关性相结合的方法对信度低于重构阈值T的异常数据P″K,i,j进行重构,首先对需要重构数据P″K,i,j的处于的第i市场主体的各结算间隔为横坐标,数据初值为纵坐标进行多项式曲线拟合,再计算拟合曲线的曲率,多项式曲线拟合阶数为6,拟合曲线曲率为0.1607,若曲率小于设定的曲率阈值 Q=0.2,认为结算数据波动较小,使用拟合曲线的结果作为重构数据P″′K,i,j,若曲率大于曲率阈值Q=0.2,认为结算数据波动较大,利用历史同期数据并考虑时间变化特征计算重构数据P″′K,i,j,计算公式为:
P″′K,i,j=PK,i,j′(1+τ)
其中,PK,i,j′为历史同期数据,j′表示历史同期结算间隔,τ为用电量增长率,设为5%,体现当前和历史同期水平的差异。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (4)

1.一种基于证据理论的电力市场结算数据风险处理方法,其特征在于,包括:
步骤1:对电力市场结算数据进行分类得到分类后电力市场结算数据,并对分类后电力市场结算数据进行异常数据处理得到训练样本;
步骤2:采用Min-Max标准化方法分别对训练样本和待检测样本进行数据预处理,得到标准化后的训练样本和待检测样本;
步骤3:利用标准化后的训练样本分别对BP神经网络、RBF神经网络、GRNN神经网络进行训练,将标准化后的待检测样本分别输入到训练后BP神经网络、训练后RBF神经网络、训练后GRNN神经网络中,分别得到BP神经网络基本可信度、RBF神经网络基本可信度、GRNN神经网络基本可信度;
步骤4:计算证据Eα对各命题的不可信度,通过该不可信度计算证据Eα对各命题的权重,并在原有基本可信度分配基础上乘以该权重得到新的基本可信度分配,再按照D-S证据理论方法中的证据融合规则对新的基本可信度分配进行多证据融合;
步骤5:利用多证据融合后的基本可信度分配判断数据是否异常,并对异常数据进行重构;
步骤4中所述计算证据Eα对各命题的不可信度:
步骤4中所述证据Eα对各命题的不可信度等于证据Eα对于各命题的相互矛盾系数平均值,相互矛盾系数平均值通过冲突系数计算;
计算对于每个命题的三个证据两两之间的冲突系数,每个命题的冲突系数计算方法为:
Figure FDA0003922309230000011
其中:
Figure FDA0003922309230000012
α,β=BP,RBF,GRNN;
Figure FDA0003922309230000013
表示证据Eα对于命题
Figure FDA0003922309230000014
的基本可信度分配;
Figure FDA0003922309230000015
表示对于命题
Figure FDA0003922309230000016
证据Eα与Eβ之间的冲突系数;
而证据Eα对于命题
Figure FDA0003922309230000017
的相互矛盾系数为:
Figure FDA0003922309230000018
证据Eα对于命题
Figure FDA0003922309230000021
的相互矛盾系数平均值
Figure FDA0003922309230000022
即为步骤4中所述证据Eα对各命题的不可信度;
步骤4中所述通过该不可信度计算证据Eα对各命题的权重,并在原有基本可信度分配基础上乘以该权重得到新的基本可信度分配:
步骤4中所述证据Eα对各命题的权重为
Figure FDA0003922309230000023
在原有基本可信度分配基础上乘以该权重,得到考虑到冲突因子后证据Eα对于命题
Figure FDA0003922309230000024
新的基本可信度分配
Figure FDA0003922309230000025
计算公式为:
Figure FDA0003922309230000026
步骤4中所述再按照D-S证据理论方法中的证据融合规则对新的基本可信度分配进行融合为:
步骤4中所述D-S证据理论方法中的证据融合规则为:
Figure FDA0003922309230000027
其中:
Figure FDA0003922309230000028
得到命题
Figure FDA0003922309230000029
进行多证据融合后的基本可信度分配
Figure FDA00039223092300000210
步骤5中所述利用多证据融合后的基本可信度分配判断数据是否异常为:
判断对数据正常的信度
Figure FDA00039223092300000211
是否大于对数据异常的信度
Figure FDA00039223092300000212
若大于则认为数据正常,若正常信度较小但高于重构阈值T则认为该数据为异常数据但其异常程度在可接受范围内,若信度低于重构阈值T,则认为该数据的异常程度较高,偏离正常水平过多,此时若仍按异常数据进行结算则会产生较大风险,需要对该异常数据进行重构,并将该异常数据记为P″K,i,j,且P″K,i,j为未进行标准化的数据;
步骤5中所述对异常数据进行重构为:
考虑多项式拟合以及历史相关性相结合的方法对信度低于重构阈值T的异常数据P″K,i,j进行重构,首先对需要重构数据P″K,i,j的处于的第i市场主体的各结算间隔为横坐标,数据初值为纵坐标进行多项式曲线拟合,再计算拟合曲线的曲率,若曲率小于设定的曲率阈值Q,认为结算数据波动较小,使用拟合曲线的结果作为重构数据P″′K,i,j,若曲率大于曲率阈值Q,认为结算数据波动较大,利用历史同期数据并考虑时间变化特征计算重构数据P″′K,i,j,计算公式为:
P″′K,i,j=PK,i,j′(1+τ)
其中,PK,i,j′为历史同期数据,j′表示历史同期结算间隔,τ为用电量增长率,设为5%,体现当前和历史同期水平的差异。
2.根据权利要求1所述的基于证据理论的电力市场结算数据风险处理方法,其特征在于:步骤1中所述分类后电力市场结算数据为:
Qk,i,j表示第k组第i个市场主体在第j结算间隔下结算数据,i表示市场主体编号,不同市场主体的类型、发用电特性和进入市场的时间信息存在差异,i=1,2,…,I,I为市场主体个数,j表示结算数据所处结算间隔,j=1,2,…,J,J为结算间隔数;
步骤2中所述对分类后电力市场结算数据进行异常数据处理得到训练样本为:
k=1,2,…,K,其中第1组到第K-1组作为训练样本,第K组为待检测样本,训练样本的得到方法为:取K-1组分类后电力市场结算数据,在每组中选取部分结算数据,用随机设置的异常值替代原有正常值,异常数据的取值范围为0到三倍的正常值之间,形成K-1组训练样本,得到训练样本为Pk,i,j,其中i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1,待检测样本不进行异常数据处理,为PK,i,j
3.根据权利要求1所述的基于证据理论的电力市场结算数据风险处理方法,其特征在于:步骤2中所述采用Min-Max标准化方法对训练样本和待检测样本进行数据预处理为:
使其落到[0,1]区间内,得到标准化后的每个市场主体结算间隔下结算数据:
Figure FDA0003922309230000041
i=1,2,…,I;k=1,2,…,K
得到标准化后的电力市场结算数据P′k,i,j
4.根据权利要求1所述的基于证据理论的电力市场结算数据风险处理方法,其特征在于:步骤3中所述利用标准化后的训练样本对BP神经网络进行训练为:
确定BP神经网络的网络结构,将标准化后的训练样本P′k,i,j,k=1,2,…,K-1,输入到BP神经网络中进行训练,输出结果为各数据的基本可信度分配;
将BP神经网络的输出结果作为证据EBP,将RBF神经网络的输出结果作为证据ERBF,将GRNN神经网络的输出结果作为证据EGRNN,定义神经网络的输出结果为Eα,α=BP,RBF,GRNN,每个数据的正常或以异常作为单个数据的识别框架Θ,且Θ={A,B},其中,命题A为数据正常,命题B为数据异常;
识别框架Θ的幂集
Figure FDA0003922309230000042
θ表示不确定数据正常与否,通过μ函数对命题的信度进行衡量,
Figure FDA0003922309230000043
恒为0,μ(A)表示对数据正常的信度,μ(B)表示对数据异常的信度,μ(θ)表示不确定数据的正常与否的程度,μ(A)和μ(B)可作为神经网络的输出,μ(θ)通过1-μ(A)-μ(B)得到;
BP神经网络选择为单隐层,输入节点数LBP,输入节点依次为市场主体编号i、结算数据所处结算间隔j以及归一化后的结算数据P′k,i,j,k=1,2,…,K-1,输入向量则表示为Xk,i,j=(i,j,P′k,i,j),其中
i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1;
隐层节点数MBP,输出节点数NBP,输出节点依次为数据正常的信度μBP,k,i,j(A)以及数据异常的信度μBP,k,i,j(B),k=1,2,…,K-1;
隐层与输出层的转移函数均采用单极性Sigmoid函数,隐层输出为
Figure FDA0003922309230000044
mBP表示隐层节点编号,mBP=1,2,…,MBP
隐层到输出层之间的权重为
Figure FDA0003922309230000051
nBP表示输出层节点编号,nBP=1,…,NBP;输入层到隐层之间的权重为
Figure FDA0003922309230000052
lBP表示输入层节点编号,lBP=1,…,LBP,对于隐层,有:
Figure FDA0003922309230000053
Figure FDA0003922309230000054
mBP=1,2,…,MBP;k=1,2,…,K-1;i=1,2,…,I;j=1,2,…,J
其中:
Figure FDA0003922309230000055
为隐层的净输入,对于输出层,有:
Figure FDA0003922309230000056
Figure FDA0003922309230000057
nBP=1,…,NBP;k=1,2,…,K-1
其中:
Figure FDA0003922309230000058
为输出层的净输入,训练样本的期望输出值μ′BP,k,i,j(A)和μ′BP,k,i,j(B)采用人工标定,其中i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1,当BP神经网络输出值μBP,k,i,j(A)和μBP,k,i,j(B)与期望输出值不等时,存在输出误差GBP,定义如下:
Figure FDA0003922309230000059
且输出误差GBP是各层权重
Figure FDA00039223092300000510
的函数,因此通过梯度下降法调整权值以最小化输出误差GBP,即:
Figure FDA00039223092300000511
mBP=1,2,…,MBP;nBP=1,…,NBP
Figure FDA00039223092300000512
mBP=1,2,…,MBP;nBP=1,…,NBP
其中ηBP表示学习速率,网络训练目标即为输出误差GBP需要达到的精度要求,当输出误差GBP小于网络训练目标时则训练结束;
步骤3中所述利用标准化后的训练样本对RBF神经网络进行训练为:
确定RBF神经网络的网络结构,将标准化后的训练样本P′k,i,j,k=1,2,…,K-1,输入到RBF神经网络中进行训练,输出结果为各数据的基本可信度分配;
RBF神经网络的输入设置与BP神经网络相同,输出节点依次为数据正常的信度μRBF,k,i,j(A)以及数据异常的信度μRBF,k,i,j(B),隐层节点数MRBF,隐层输出为
Figure FDA0003922309230000061
mRBF表示隐层节点编号,mRBF=1,2,…,MRBF,RBF神经网络的样本数S即为训练样本的总组数,即S=IJ(K-1),基函数选用Gauss函数,即隐层的输出
Figure FDA0003922309230000062
的计算公式为:
Figure FDA0003922309230000063
Figure FDA0003922309230000064
Figure FDA0003922309230000065
为隐层的净输入,
Figure FDA0003922309230000066
为基函数的扩展常数,
Figure FDA0003922309230000067
表示输入向量Xk,i,j,k=1,2,…,K-1,与聚类中心
Figure FDA0003922309230000068
之间的欧氏距离;
各基函数的聚类中心和扩展常数采用K-means聚类方法确定,中心个数即隐层节点数MRBF,聚类中心的调整方法为对各聚类域中的样本取均值,令
Figure FDA0003922309230000069
表示第mRBF个聚类域,e为迭代次数,
Figure FDA00039223092300000610
为第mRBF个聚类域中的样本数,则:
Figure FDA00039223092300000611
i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1;mRBF=1,2,…,MRBF
当聚类中心的改变量小于0.01时则聚类中心迭代结束,确定聚类中心为
Figure FDA00039223092300000612
扩展常数
Figure FDA00039223092300000613
根据各中心之间的距离
Figure FDA00039223092300000614
确定:
Figure FDA0003922309230000071
Figure FDA0003922309230000072
其中:
Figure FDA0003922309230000073
表示两聚类中心之间的欧氏距离,λ为重叠系数;
得到各基函数的聚类中心和扩展函数后,采用梯度下降算法求出隐层到输出层的权值
Figure FDA0003922309230000074
对于输出层:
Figure FDA0003922309230000075
Figure FDA0003922309230000076
训练样本的期望输出值μ′RBF,k,i,j(A)和μ′RBF,k,i,j(B)采用人工标定,其中i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1,当RBF神经网络输出值μRBF,k,i,j(A)和μRBF,k,i,j(B)与期望输出值不等时,存在输出误差GRBF,计算如下:
Figure FDA0003922309230000077
通过梯度下降法调整权值以最小化输出误差GRBF,即:
Figure FDA0003922309230000078
mRBF=1,2,…,MRBF;nRBF=1,…,NRBF
其中,ηRBF表示学习速率,网络训练目标即为输出误差GRBF需要达到的精度要求,当输出误差GRBF小于网络训练目标时则训练结束;
步骤3中所述利用标准化后的训练样本对GRNN神经网络进行训练为:
确定GRNN神经网络的网络结构,将标准化后的训练样本P′k,i,j,k=1,2,…,K-1,输入到GRNN神经网络中进行训练,输出结果为各数据的基本可信度分配;
GRNN神经网络的输入与输出设置与BP神经网络相同,输出节点依次为数据正常的信度μGRNN,k,i,j(A)以及数据异常的信度μGRNN,k,i,j(B),隐层节点数MGRNN与样本数相同,即MGRNN=IJ(K-1),隐层节点编号为mGRNN,mGRNN=1,2,…,MGRNN,每个隐层节点都对应一个训练样本的输入向量Xk,i,j,其中i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1,可为输入向量和输出节点重新编号:
Figure FDA0003922309230000081
隐层输出为
Figure FDA0003922309230000082
mGRNN表示隐层节点编号,mGRNN=1,2,…,MGRNN,基函数选用Gauss函数,即隐层的输出
Figure FDA0003922309230000083
的计算公式为:
Figure FDA0003922309230000084
Figure FDA0003922309230000085
Figure FDA0003922309230000086
为隐层的净输入,
Figure FDA0003922309230000087
为基函数的扩展常数,
Figure FDA0003922309230000088
表示输入向量Xk,i,j,k=1,2,…,K-1,与第mGRNN个隐层节点对应的学习样本
Figure FDA0003922309230000089
之间的欧氏距离,基函数的数据中心即为样本本身,只需考虑扩展常数
Figure FDA00039223092300000810
将所有基函数的扩展常数
Figure FDA00039223092300000811
设为:
Figure FDA00039223092300000812
ξmax为所有训练样本之间的最大距离;
GRNN神经网络隐层之后为加和层,共有1+NGRNN个节点,NGRNN为输出层节点数,该层第一个节点的输出rGRNN,1为每个隐层节点的输出和:
Figure FDA00039223092300000813
期望输出值采用人工标定,训练样本的输入向量
Figure FDA00039223092300000814
i=1,2,…,I;j=1,2,…,J;k=1,2,…,K-1,对应的期望输出值为
Figure FDA00039223092300000815
Figure FDA00039223092300000816
加和层其余节点的输出分别为期望输出值
Figure FDA00039223092300000817
Figure FDA00039223092300000818
与对应隐层节点输出的加权和:
Figure FDA0003922309230000091
对于输出层,有:
Figure FDA0003922309230000092
将步骤2中得到标准化后的待检测样本P′K,i,j分别输入到训练后的BP、RBF、GRNN神经网络中;
步骤3中所述BP神经网络基本可信度为:
μBP,K,i,j(A)、μBP,K,i,j(B);
μBP,K,i,j(θ)=1-μBP,K,i,j(A)-μBP,K,i,j(B);
步骤3中所述RBF神经网络基本可信度为:
μRBF,K,i,j(A)、μRBF,K,i,j(B);
μRBF,K,i,j(θ)=1-μRBF,K,i,j(A)-μRBF,K,i,j(B);
步骤3中所述GRNN神经网络基本可信度为:
μGRNN,K,i,j(A)、μGRNN,K,i,j(B);
μGRNN,K,i,j(θ)=1-μGRNN,K,i,j(A)-μGRNN,K,i,j(B)。
CN201910179617.7A 2019-03-11 2019-03-11 一种基于证据理论的电力市场结算数据风险处理方法 Active CN109948920B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910179617.7A CN109948920B (zh) 2019-03-11 2019-03-11 一种基于证据理论的电力市场结算数据风险处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910179617.7A CN109948920B (zh) 2019-03-11 2019-03-11 一种基于证据理论的电力市场结算数据风险处理方法

Publications (2)

Publication Number Publication Date
CN109948920A CN109948920A (zh) 2019-06-28
CN109948920B true CN109948920B (zh) 2023-04-07

Family

ID=67008675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910179617.7A Active CN109948920B (zh) 2019-03-11 2019-03-11 一种基于证据理论的电力市场结算数据风险处理方法

Country Status (1)

Country Link
CN (1) CN109948920B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435035A (zh) * 2019-08-09 2021-03-02 阿里巴巴集团控股有限公司 数据的审核方法、装置及设备
CN110796173B (zh) * 2019-09-27 2023-05-16 昆明电力交易中心有限责任公司 一种基于改进kmeans的负荷曲线形态聚类算法
CN111652761B (zh) * 2020-07-28 2020-12-01 国网江西省电力有限公司供电服务管理中心 一种基于证据理论的多源特征融合窃电行为检测方法
CN115239208A (zh) * 2022-09-21 2022-10-25 广东电力交易中心有限责任公司 基于电力交易数据的售电公司特征模型分析方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101034389A (zh) * 2007-03-19 2007-09-12 江西省电力科学研究院 基于信息融合的电能质量扰动自动识别方法及系统
CN103557884A (zh) * 2013-09-27 2014-02-05 杭州银江智慧城市技术集团有限公司 一种输电线路杆塔监控的多传感器数据融合预警方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101034389A (zh) * 2007-03-19 2007-09-12 江西省电力科学研究院 基于信息融合的电能质量扰动自动识别方法及系统
CN103557884A (zh) * 2013-09-27 2014-02-05 杭州银江智慧城市技术集团有限公司 一种输电线路杆塔监控的多传感器数据融合预警方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Grain Quality Evaluation Method Based on Combination of BP Neural Networks with D-S Evidence Theory;Tong Zhen等;《2009 International Joint Conference on Artificial Intelligence》;20090707;全文 *
Research on Data Fusion Diagnosis System Based on Neural Network and D-S Evidence Theory;XIE Chunli等;《2009 IEEE Circuits and Systems International Conference on Testing and Diagnosis》;20090526;全文 *
基于BP神经网络和D-S证据理论的粮情评价研究;马志等;《粮食加工》;20090801(第04期);全文 *
多神经网络与证据理论的变压器故障诊断方法;张文元等;《高压电器》;20180816(第08期);全文 *

Also Published As

Publication number Publication date
CN109948920A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
CN109948920B (zh) 一种基于证据理论的电力市场结算数据风险处理方法
CN106055918B (zh) 一种电力系统负荷数据的辨识及修正方法
CN108416695B (zh) 基于深度学习的电力负荷概率密度预测方法和系统、介质
CN108280552B (zh) 基于深度学习的电力负荷预测方法和系统、存储介质
CN109543737B (zh) 一种基于fahp_fca组合赋权的信息系统健康度评估方法
CN115270965B (zh) 一种配电网线路故障预测方法和装置
CN111860982A (zh) 一种基于vmd-fcm-gru的风电场短期风电功率预测方法
CN111105104A (zh) 一种基于相似日和rbf神经网络的短期电力负荷预测方法
CN106295899B (zh) 基于遗传算法与支持向量分位数回归的风电功率概率密度预测方法
CN111369070A (zh) 一种基于包络线聚类的多模融合光伏功率预测方法
CN110542819A (zh) 一种基于半监督dbnc的变压器故障类型诊断方法
CN110782130A (zh) 一种基于多属性决策的区域电压质量综合评估方法
CN106656357B (zh) 一种工频通信信道状态评估系统和方法
Li et al. Calibration of dynamic building energy models with multiple responses using Bayesian inference and linear regression models
Kong et al. A remote estimation method of smart meter errors based on neural network filter and generalized damping recursive least square
CN114139940A (zh) 一种基于组合赋权-云模型的广义需求侧资源网荷互动水平评估方法
CN113255900A (zh) 一种考虑改进谱聚类与Bi-LSTM神经网络的冲击性负荷预测方法
CN103530819A (zh) 并网型光伏电站发电系统的输出功率的测定方法及设备
CN109389517B (zh) 一种量化线路损耗影响因素的分析方法及装置
CN114971090A (zh) 一种电供暖负荷预测方法、系统、设备和介质
CN115358437A (zh) 基于卷积神经网络的供电负荷预测方法
CN115640969A (zh) 一种基于设备状态与运行年限的电网运维成本分配方法
CN115409317A (zh) 基于特征选择和机器学习的台区线损检测方法及装置
CN113361185B (zh) 副本交换的自动调整
CN108038518A (zh) 一种基于气象数据的光伏发电功率确定方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant