CN114219195A - 一种区域综合能源容量优化控制方法 - Google Patents

一种区域综合能源容量优化控制方法 Download PDF

Info

Publication number
CN114219195A
CN114219195A CN202111108863.7A CN202111108863A CN114219195A CN 114219195 A CN114219195 A CN 114219195A CN 202111108863 A CN202111108863 A CN 202111108863A CN 114219195 A CN114219195 A CN 114219195A
Authority
CN
China
Prior art keywords
energy
output
model
ries
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111108863.7A
Other languages
English (en)
Inventor
崔高扬
王鸿
孙霞
林翰
周显利
葛琼宇
李佩樾
王致杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Dianji University
Original Assignee
Shanghai Dianji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Dianji University filed Critical Shanghai Dianji University
Priority to CN202111108863.7A priority Critical patent/CN114219195A/zh
Publication of CN114219195A publication Critical patent/CN114219195A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply

Abstract

本发明涉及一种区域综合能源容量优化控制方法,包括:收集历史气象数据,并按照季节进行数据划分,得到不同季节样本数据,通过聚类分析,结合遗传小波神经网络算法,构建得到新能源出力预测模型;根据区域综合能源系统的架构,对区域综合能源系统进行智能体划分,建立得到以多智能体间利益均衡为目标的联合博弈决策模型;基于新能源出力预测模型的输出值,使用考虑Nash博弈均衡的Q学习算法求解联合博弈决策模型,得到区域综合能源系统中各能源容量优化值;根据区域综合能源系统中各能源容量优化值,对各能源进行协调控制。与现有技术相比,本发明通过精确预测区域综合能源系统的出力,能够对区域综合能源系统进行准确可靠的容量优化控制。

Description

一种区域综合能源容量优化控制方法
技术领域
本发明涉及区域综合能源系统调度控制技术领域,尤其是涉及一种区域综合能源容量优化控制方法。
背景技术
能源是社会经济发展的动力和基础,可持续、清洁、安全和经济的能源是未来能源系统的发展目标。综合能源系统(Integrated Energy System,IES)通过不同能源之间的耦合,构建含多形式能源的产销一体化系统,能够实现能源的高效灵活供应和可再生能源(Renewable Energy Source,RES)的消纳。相对于传统单一供能模式,IES具有更高的能源供应效率和灵活的系统运行特性,必将成为未来能源供应的主流方式之一。然而由于新能源出力具有波动性、间歇性和不确定性,导致难以精确预测它的出力,这就给区域综合能源系统的容量规划带来了困难。综合能源系统构成复杂,不仅物理设备众多、能量交互信息量大,而且还存在多个供用能主体,对系统运行的合理决策与管理提出了新的挑战。因此,协调系统内多主体利益,实现系统整体优化运行,已成为当前综合能源系统调度亟待解决的重要问题。
现有的新能源诸如光伏、风电的出力预测技术虽然有不少,但其预测精度还有所欠缺。目前对于综合能源系统能量管理与调度控制通常采用集中式控制的方法,通过对系统内设备的能效与经济性进行数学建模,结合全局优化目标与优化迭代算法进行调度。然而,面对综合能源系统内的多种分布式能源、大量控制数据以及灵活多变的控制方式,集中式管理难以实现灵活、有效的调度;同时,综合能源系统通常包含多个能源供给服务商,不同服务商拥有各自的利益追求,很难为系统整体的全局优化目标做出让步。因此,上述方法的可行性与实践性仍有待研究。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种区域综合能源容量优化控制方法,通过精确预测区域综合能源系统的出力,以对区域综合能源系统进行准确可靠的容量优化控制。
本发明的目的可以通过以下技术方案来实现:一种区域综合能源容量优化控制方法,包括以下步骤:
S1、收集历史气象数据,并按照季节进行数据划分,得到不同季节样本数据,通过聚类分析,结合遗传小波神经网络算法,构建得到新能源出力预测模型;
S2、根据区域综合能源系统的架构,对区域综合能源系统进行智能体划分,建立得到以多智能体间利益均衡为目标的联合博弈决策模型;
S3、基于新能源出力预测模型的输出值,使用考虑Nash博弈均衡的Q学习算法求解联合博弈决策模型,得到区域综合能源系统中各能源容量优化值;
S4、根据区域综合能源系统中各能源容量优化值,对各能源进行协调控制。
进一步地,所述步骤S1具体包括以下步骤:
S11、收集历史气象数据,并按照春、夏、秋、冬四个季节对历史气象数据进行分类,得到四个季节样本数据,其中,所述历史气象数据包括光照强度、环境温度、环境湿度和风速;
S12、分别对四个季节样本数据进行聚类分析,构建四个季节样本数据对应的新能源出力预测模型;
S13、采用遗传小波神经网络对步骤S12中构建的新能源出力预测模型进行求解,得到新能源出力预测值。
进一步地,所述步骤S12具体采用K均值聚类算法进行聚类分析。
进一步地,所述新能源出力预测模型包括光伏出力预测模型和风电出力预测模型,所述光伏出力预测模型和风电出力预测模型均采用BP神经网络结构,所述光伏出力预测模型的输入层节点数量为4,光照强度、环境温度、环境湿度和风速为输入向量,光伏出力预测模型的输出为光伏的出力,即输出层节点为1;所述风电出力预测模型的输入层节点数量为3,风速、环境温度和环境湿度为输入向量,风电出力预测模型的输出为风电的出力,即输出层节点为1。
进一步地,所述步骤S2具体包括以下步骤:
S21、建立不同智能体模型,包括RIES(Regional Integrated Energy System,区域综合能源系统)模型、PG(Power Grid,电网)模型、GS(Gas Company,燃气公司)模型和EU(Energy User,能源用户)模型;
S22、根据PG、RIES、EU三者之间的博弈,确定多智能体博弈模型。
进一步地,所述RIES负责多综合能源微网内燃气轮机、光伏发电设备、风力发电设备、储电设备的合理优化;PG负责向区域综合能源系统提供一定额度的电力,并回购多余的电力;EU为区域综合能源系统中主要固定能耗承担者,同时负责必要时段的负荷削减,还包括电动汽车(Electric Vehicles,EV)的充放电控制; GS负责向区域综合能源系统提供燃气,以供RIES的燃气轮机发电和EU的气负荷使用。
进一步地,所述RIES的收入包括与EU直接交易所得收入和向PG出售电力所得收入,所述RIES的支出包括从PG处购电和接受EU放电而支付的费用、以及自身产电的开销,所述RIES模型具体为:
Figure RE-GDA0003495550010000031
其中,NT为调度时段总数,PB(t)为t时刻微网系统向上级电网的购电价格, PPG(t)为t时刻微网向上级电网的购电功率,CCCHP(t)和CGHP(t)分别为t时刻燃气三联供系统与燃气热泵的燃料成本,CHS(t)为t时刻储热设备的损耗成本,
Figure RE-GDA0003495550010000032
为t时刻RIES智能体内可控机组的启停成本,
Figure RE-GDA0003495550010000033
为t时刻RIES智能体的运维成本,CE(t)为燃气轮机在t时刻的碳排放量,I(t)为燃气轮机在t时刻的工作状态,处于工作状况的话值为1,停机状态为0,
Figure RE-GDA0003495550010000034
为按天进行平均分配后碳排放限额,pe为市场上碳排放交易的价格。
进一步地,所述PG的收入源于向RIES、EU出售电量时,二者需要支付的电力费用和服务费,所述PG支出为PG在运营、设备投入以及电网维护方面所花费的成本;
所述EU的模型包括经济收益模型和满意度模型,其中,经济收益为向RIES 和PG买电的费用、向GS购买燃气的费用减去EV向PG放电和空调、冰箱参加 PG的需求响应获得收益,满意度取决于空调、冰箱参加PG的需求响应前后的负荷大小之差和启用气负荷供热使用得到燃气的量。
进一步地,所述多智能体博弈模型具体为:PG处于顶层的位置,颁布价格; RIES则作为区域价格的制定者,属于上层的决定者;而EU属于下层的跟随者;
PG通过推出合适的分时计价策略以及用户参与需求响应的激励策略,而后与RIES和EU交互,以获取自我利益的较大化;
RIES通过优化向PG进能的策略,管理区域内的各种产能和储能设备,合理安排出力,制定合适的电力价格并与EU交互,实现自己收益最大化;
EU则根据PG颁布的电力价格以及所属区域中的RIES所制定的电力价格,合理安排用能,在合适时机安排EV放能以及参与需求响应,力求在确保基本的满意度的前提下实现总成本的较小化。
进一步地,所述步骤S3具体包括以下步骤:
S31、初始化Q值表,线下预学习阶段Q值表中各元素(s,a)的初值均取为 0;在线学习阶段将其初值化为预学习保留的可行Q值表;
S32、将连续状态和动作变量离散化,组成(状态,动作)对值函数,离散化的主要目的是配合Q学习算法进行学习,对结果精度产生影响可忽略不计,并通过马尔可夫模拟产生样本,结合决策层的多智能体利益Nash均衡目标,选取当前所属的运行状态、并根据当前状态结合行动选择概率,以确定当前动策略在状态空间的选取部分,将各时段内的系统的光伏出力/负荷需求的实际数值、燃气三联供系统/燃气热泵/电制冷机机组的出力、储能设备的充放功率、电动汽车的充放功率作为状态输入;
上述变量均为连续变量,为配合Q学习方法,将上述变量离散化为区间形式,将所属时段的光伏出力、负荷需求以及能源生产/存储设备的状态相结合,即为所属时段微网系统的状态空间,根据所属时段微网系统内机组的出力以及负荷的需求情况即可唯一确定所属状态;
在动作空间的选取部分,动作策略包括燃气三联供系统/燃气热泵/电制冷机设备机组是否参与供给、以及储能设备的充/放行为,上述变量均为连续变量,为配合Q学习方法,同样离散化为区间的形式,根据所属时段系统内机组的出力以及储能的运行情况即可唯一确定的动作策略;
将可能的状态动作组合指令发送到运行层进行校验,剔除不满足约束的状态动作组合,而在满足运行层约束条件并经过决策层达到Nash均衡的状态动作空间即为所属时段微网系统的状态动作空间,在确定了迭代后的状态空间以及动作策略后,即可计算不同智能体所属时段的Q值;
S33、计算各智能体立即奖励值,同时对未来的状态S’进行预测;
S34、得到未来的状态S’,根据考虑Nash均衡Q学习方法的迭代公式对Q值表进行更新,并令S←S’,需注意在迭代的不同时刻,储能设备存储的能量需要结合相应动态模型及状态/动作对进行计算;
S35、判断学习过程是否收敛:判断标准考察Q学习是否达到Nash均衡以及各个智能体Q值是否趋近于收敛;或者已经达到给定的学习步数或时间限制,若不收敛则返回S32。
与现有技术相比,本发明首先针对新能源出力预测提出一种基于数据挖掘和遗传小波神经网络的混合预测模型;之后建立区域综合能源系统的架构,以综合能源微网为综合能源系统的组成单位,以微网群构成整个系统,每个微网采用分布式算法进行控制,每个单元包括分布式发电单元,冷热电三联供,储能,电动汽车等具有可调节特性的负荷等;再针对系统内各方所追求的不同利益来进行智能体的划分,建立区域综合能源系统协同优化的多智能体博弈模型;最后使用考虑Nash博弈均衡的Q学习算法来求解该多智能体博弈模型;
由此以BP神经网络为基础,引入小波分析构建小波神经网络,并利用遗传算法对网络的初始参数进行全局寻优得到最优参数,利用交叉熵函数对学习规则进行改进。改进后的网络模型既具有小波分析的良好的局部时域和频域特性,又具有全局搜索能力,可增大跳出局部最优的可能性,同时拥有更快的收敛能力和稳定性,从而保证了新能源出力预测的准确性,有利于后续对区域综合能源系统进行容量规划;
并且,将多智能体理念引入区域综合能源系统协同优化中,为后续的非合作博弈研究建立基础,也有效减弱Q学习算法可能引起的状态以及动作空间过多的灾难性影响,采用考虑Nash均衡Q学习的人工智能方法实现区域综合能源系统的协调调度,将人工智能方法引入到综合能源的调控环节,对比经过预学习后强化学习方法,在计算速度方面比传统启发式算法更具优势,能够在协调系统内多主体利益的前提下,实现系统整体的优化运行。
附图说明
图1为本发明的方法流程示意图;
图2为本发明中新能源出力预测过程示意图;
图3为本发明中遗传小波神经网络预测过程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,一种区域综合能源容量优化控制方法,包括以下步骤:
S1、收集历史气象数据,并按照季节进行数据划分,得到不同季节样本数据,通过聚类分析,结合遗传小波神经网络算法,构建得到新能源出力预测模型,具体的:
首先收集历史气象数据,并按照春、夏、秋、冬四个季节对历史气象数据进行分类,得到四个季节样本数据,其中,历史气象数据包括光照强度、环境温度、环境湿度和风速;
之后采用K均值聚类算法分别对四个季节样本数据进行聚类分析,构建四个季节样本数据对应的新能源出力预测模型:
新能源出力预测模型包括光伏出力预测模型和风电出力预测模型,光伏出力预测模型和风电出力预测模型均采用BP神经网络结构,光伏出力预测模型的输入层节点数量为4,光照强度、环境温度、环境湿度和风速为输入向量,光伏出力预测模型的输出为光伏的出力,即输出层节点为1;风电出力预测模型的输入层节点数量为3,风速、环境温度和环境湿度为输入向量,风电出力预测模型的输出为风电的出力,即输出层节点为1;
再采用遗传小波神经网络对构建的新能源出力预测模型进行求解,得到新能源出力预测值;
S2、根据区域综合能源系统的架构,对区域综合能源系统进行智能体划分,建立得到以多智能体间利益均衡为目标的联合博弈决策模型,具体的:
首先建立不同智能体模型,包括RIES(Regional Integrated Energy System,区域综合能源系统)模型、PG(Power Grid,电网)模型、GS(Gas Company,燃气公司)模型和EU(Energy User,能源用户)模型,其中,RIES负责多综合能源微网内燃气轮机、光伏发电设备、风力发电设备、储电设备的合理优化;PG负责向区域综合能源系统提供一定额度的电力,并回购多余的电力;EU为区域综合能源系统中主要固定能耗承担者,同时负责必要时段的负荷削减,还包括电动汽车 (Electric Vehicles,EV)的充放电控制;GS负责向区域综合能源系统提供燃气,以供RIES的燃气轮机发电和EU的气负荷使用;
RIES的收入包括与EU直接交易所得收入和向PG出售电力所得收入,RIES 的支出包括从PG处购电和接受EU放电而支付的费用、以及自身产电的开销,RIES 模型具体为:
Figure RE-GDA0003495550010000071
式中,NT为调度时段总数,PB(t)为t时刻微网系统向上级电网的购电价格, PPG(t)为t时刻微网向上级电网的购电功率,CCCHP(t)和CGHP(t)分别为t时刻燃气三联供系统与燃气热泵的燃料成本,CHS(t)为t时刻储热设备的损耗成本,
Figure RE-GDA0003495550010000072
为t时刻RIES智能体内可控机组的启停成本,
Figure RE-GDA0003495550010000073
为t时刻RIES智能体的运维成本,CE(t)为燃气轮机在t时刻的碳排放量,I(t)为燃气轮机在t时刻的工作状态,处于工作状况的话值为1,停机状态为0,
Figure RE-GDA0003495550010000074
为按天进行平均分配后碳排放限额,pe为市场上碳排放交易的价格;
PG的收入源于向RIES、EU出售电量时,二者需要支付的电力费用和服务费, PG支出为PG在运营、设备投入以及电网维护方面所花费的成本;
EU的模型包括经济收益模型和满意度模型,其中,经济收益为向RIES和PG 买电的费用、向GS购买燃气的费用减去EV向PG放电和空调、冰箱参加PG的需求响应获得收益,满意度取决于空调、冰箱参加PG的需求响应前后的负荷大小之差和启用气负荷供热使用得到燃气的量;
再根据PG、RIES、EU三者之间的博弈,确定多智能体博弈模型:
PG处于顶层的位置,颁布价格;RIES则作为区域价格的制定者,属于上层的决定者;而EU属于下层的跟随者;
PG通过推出合适的分时计价策略以及用户参与需求响应的激励策略,而后与RIES和EU交互,以获取自我利益的较大化;
RIES通过优化向PG进能的策略,管理区域内的各种产能和储能设备,合理安排出力,制定合适的电力价格并与EU交互,实现自己收益最大化;
EU则根据PG颁布的电力价格以及所属区域中的RIES所制定的电力价格,合理安排用能,在合适时机安排EV放能以及参与需求响应,力求在确保基本的满意度的前提下实现总成本的较小化;
S3、基于新能源出力预测模型的输出值,使用考虑Nash博弈均衡的Q学习算法求解联合博弈决策模型,得到区域综合能源系统中各能源容量优化值,具体的:
S31、初始化Q值表,线下预学习阶段Q值表中各元素(s,a)的初值均取为 0;在线学习阶段将其初值化为预学习保留的可行Q值表;
S32、将连续状态和动作变量离散化,组成(状态,动作)对值函数,离散化的主要目的是配合Q学习算法进行学习,对结果精度产生影响可忽略不计,并通过马尔可夫模拟产生样本,结合决策层的多智能体利益Nash均衡目标,选取当前所属的运行状态、并根据当前状态结合行动选择概率,以确定当前动策略在状态空间的选取部分,将各时段内的系统的光伏出力/负荷需求的实际数值、燃气三联供系统/燃气热泵/电制冷机机组的出力、储能设备的充放功率、电动汽车的充放功率作为状态输入;
上述变量均为连续变量,为配合Q学习方法,将上述变量离散化为区间形式,将所属时段的光伏出力、负荷需求以及能源生产/存储设备的状态相结合,即为所属时段微网系统的状态空间,根据所属时段微网系统内机组的出力以及负荷的需求情况即可唯一确定所属状态;
在动作空间的选取部分,动作策略包括燃气三联供系统/燃气热泵/电制冷机设备机组是否参与供给、以及储能设备的充/放行为,上述变量均为连续变量,为配合Q学习方法,同样离散化为区间的形式,根据所属时段系统内机组的出力以及储能的运行情况即可唯一确定的动作策略;
将可能的状态动作组合指令发送到运行层进行校验,剔除不满足约束的状态动作组合,而在满足运行层约束条件并经过决策层达到Nash均衡的状态动作空间即为所属时段微网系统的状态动作空间,在确定了迭代后的状态空间以及动作策略后,即可计算不同智能体所属时段的Q值;
S33、计算各智能体立即奖励值,同时对未来的状态S’进行预测;
S34、得到未来的状态S’,根据考虑Nash均衡Q学习方法的迭代公式对Q值表进行更新,并令S←S’,需注意在迭代的不同时刻,储能设备存储的能量需要结合相应动态模型及状态/动作对进行计算;
S35、判断学习过程是否收敛:判断标准考察Q学习是否达到Nash均衡以及各个智能体Q值是否趋近于收敛;或者已经达到给定的学习步数或时间限制,若不收敛则返回S32;
S4、根据区域综合能源系统中各能源容量优化值,对各能源进行协调控制。
由此可知,本发明首先针对新能源出力预测提出一种基于数据挖掘和遗传小波神经网络的混合预测模型。然后建立区域综合能源系统的架构,以综合能源微网为综合能源系统的组成单位,以微网群构成整个系统,每个微网采用分布式算法进行控制,每个单元包括分布式发电单元,冷热电三联供,储能,电动汽车等具有可调节特性的负荷等。然后针对系统内各方所追求的不同利益来进行智能体的划分,建立区域综合能源系统协同优化的多智能体博弈模型。使用考虑Nash博弈均衡的Q 学习算法来求解该多智能体博弈模型。
本实施例应用上述技术方案,其具体过程包括:
I、选取太阳辐射强度、环境温度、环境湿度和风速为光伏发电的主要影响因素。如图2所示,针对采集到的气象历史数据,先按季节进行简单的分类,然后利用K均值聚类算法对历史数据样本进行聚类分析,针对每类数据样本建立预测模型,最后利用遗传小波神经网络进行仿真预测。
光伏和风电使用的是同一类型的BP神经网络。其中光伏的输入层节点数量为 4,历史太阳辐射强度、环境温度、环境湿度、风速等主要影响因素为输入向量,预测模型的输出为光伏的出力,即输出层节点为1。隐含层节点数量可根据经验公式计算确。风电的输入层节点数量为3,历史风速,环境温度,环境湿度为输入向量,其余和光伏的一致。
改进后神经网络预测模型以BP神经网络为基础,引入小波分析构建小波神经网络;同时利用遗传算法对网络的初始参数进行全局寻优得到最优参数;利用交叉熵函数对学习规则进行改进。改进后的网络模型既具有小波分析的良好的局部时域和频域特性,又具有全局搜索能力,增大跳出局部最优的可能性,同时拥有更快的收敛能力和稳定性。图3为改进的神经网络预测流程。由此方法获得光伏、风电这两种新能源的年出力预测曲线,更据此曲线进行综合能源系统的光伏、风机、储能的容量规划。
II、考虑到综合能源系统本身的复杂性,可以以综合能源微网为综合能源系统的组成单位,以微网群构成整个系统,每个微网采用分布式算法进行控制。建立多综合能源微网协同优化的多智能体博弈模型。
针对不同智能体,其模型必须准确反映其利益追求,并充分考虑它所有可能的动作以体现灵活性。故可建立区域综合能源系统(Regional Integrated Energy System,RIES)模型,电网(Power Grid,PG)模型,燃气公司(Gas company,GS),和能源用户(EnergyUsers,EU)模型。区域综合能源系统(Regional Integrated Energy System,RIES),负责多综合能源微网内燃气轮机、光伏发电设备、风力发电设备、储电设备等的合理优化;电网(Power Grid,PG),负责向区域综合能源系统提供一定额度的电力,并回购多余的电力;能源用户(Energy Users,EU),区域综合能源系统中主要固定能耗承担者,同时负责必要时段的负荷削减,还包括电动汽车 (Electric Vehicles,EV)的充放电控制。其中燃气公司(Gascompany,GS),负责向区域综合能源系统提供燃气,以供RIES的燃气轮机发电和EU的气负荷使用;
III、区域综合能源系统协同优化的多智能体博弈模型:
对RIES而言,其收入分为与EU直接交易所得收入和向PG出售电力所得收入。支出包括从PG处购电和接受EU放电而支付的费用,以及其自身产电的开销。 RIES决策模型如下式:
Figure RE-GDA0003495550010000101
式中,NT为调度时段总数,PB(t)为t时刻微网系统向上级电网的购电价格, PPG(t)为t时刻微网向上级电网的购电功率,CCCHP(t)和CGHP(t)分别为t时刻燃气三联供系统与燃气热泵的燃料成本,CHS(t)为t时刻储热设备的损耗成本,
Figure RE-GDA0003495550010000102
为t时刻RIES智能体内可控机组的启停成本,
Figure RE-GDA0003495550010000103
为t时刻RIES智能体的运维成本,CE(t)为燃气轮机在t时刻的碳排放量,I(t)为燃气轮机在t时刻的工作状态,处于工作状况的话值为1,停机状态为0,
Figure RE-GDA0003495550010000104
为按天进行平均分配后碳排放限额,pe为市场上碳排放交易的价格。
PG是电力交易市场的主导者,负责电网的运行、维护、调度等责任。PG通过电力网络向RIES和EU提供电能并收取一定费用,是电价的主要引领者。假定博弈中只存在1个PG,其收入源于向RIES、EU出售电量时,二者需要支付的电力费用和服务费。支出为PG在运营、设备投入以及电网维护等方面的所花费的成本。
EU的模型包括经济收益模型和满意度模型。经济收益为向RIES和PG买电的费用和向GS购买燃气的费用减去EV向PG放电和空调、冰箱参加PG的需求响应获得收益。满意度取决于空调、冰箱参加PG的需求响应前后的负荷大小之差和启用气负荷供热使用得到燃气的量。因而是一个二元目标的优化问题。然而,经济收益与满意度的衡量标准不一,浮动范围不一,无法采用以往常见的直接线性加权法处理。此处用模糊法来实现经济收益和满意度之间的融合,构建一个统一的EU 收益指标。
上述三个智能体形成的博弈问题是多智能体优化自身目标所形成的多个优化问题,该博弈问题无法采用一般的统一优化策略。针对该博弈问题,求解PG、RIES、 EU三者之间博弈的纳什均衡点,并将该纳什均衡点作为多综合能源微网协同优化结果。该博弈问题可表示成:G=(U,S,I)。PG通过推出合适的分时计价策略以及用户参与需求响应的激励策略,而后与RIES和EU交互,以获取自我利益的较大化。 RIES通过优化向PG进能的策略,管理区域内的各种产能和储能设备,合理安排出力,制定合适的电力价格并与EU交互,实现自己收益最大化。EU则根据PG 颁布的电力价格以及所属区域中的RIES所制定的电力价格,合理安排用能,在合适时机安排EV放能以及参与需求响应,力求在确保基本的满意度的前提下实现总成本的较小化。PG处于顶层的位置,颁布价格,RIES则作为区域价格的制定者,属于上层的决定者,而EU属于下层的跟随者,因而可以将他们的博弈看成是带有主从性质的非合作博弈。最后使用考虑Nash博弈均衡的Q学习算法来求解该多智能体博弈模型。
IV、基于多智能体博弈与Q学习方法的整体协调调控流程如下:
步骤1:初始化Q值表。线下预学习阶段Q值表中各元素(s,a)的初值均取为0;在线学习阶段将其初值化为预学习保留的可行Q值表。
步骤2:将连续状态和动作变量离散化,组成(状态,动作)对值函数,离散化的主要目的是配合Q学习算法进行学习,对结果精度产生影响可忽略不计,并通过马尔可夫模拟产生样本,结合决策层的多智能体利益Nash均衡目标,选取当前所属的运行状态并根据当前状态结合行动选择概率确定当前动策略在状态空间的选取部分,将各时段内的系统的光伏出力/负荷需求的实际数值、燃气三联供系统/燃气热泵/电制冷机等机组的出力、储能设备的充放功率、电动汽车的充放功率作为状态输入。上述变量均为连续变量,为配合Q学习方法,将上述变量离散化为区间形式。将所属时段的光伏出力、负荷需求以及能源生产/存储设备的状态相结合,即为所属时段微网系统的状态空间。根据所属时段微网系统内机组的出力以及负荷的需求情况即可唯一确定所属状态。
同理,在动作空间的选取部分,本文中动作策略包括燃气三联供系统/燃气热泵/电制冷机等设备机组是否参与供给以及储能等设备的充/放行为。上述变量均为连续变量,为配合Q学习方法,同样离散化为区间的形式。根据所属时段系统内机组的出力以及储能的运行情况即可唯一确定的动作策略。
将可能的状态动作组合指令发送到运行层进行校验,剔除不满足约束的状态动作组合,而在满足运行层约束条件并经过决策层达到Nash均衡的状态动作空间即为所属时段微网系统的状态动作空间,在确定了迭代后的状态空间以及动作策略后,即可计算不同智能体所属时段的Q值。
步骤3:计算各智能体立即奖励值;同时,对未来的状态S’进行预测。
步骤4:得到未来的状态S’,根据考虑Nash均衡Q学习方法的迭代公式对Q 值表进行更新,并令S←S’。同时,注意在迭代的不同时刻,储能设备存储的能量需要结合相应动态模型及状态/动作对进行计算。
步骤5:判断学习过程是否收敛,判断标准考察Q学习是否达到Nash均衡以及各个智能体Q值是否趋近于收敛;或者已经达到给定的学习步数或时间限制。若不收敛则令k=k+1,返回步骤2。
综上可知,本发明针对于新能源出力预测提出一种基于数据挖掘和遗传小波神经网络的混合预测模型,利用K均值聚类算法对历史数据进行分类,并对传统BP 神经网络进行改进。以BP神经网络为基础,引入小波分析构建小波神经网络,同时利用遗传算法对网络的初始参数进行全局寻优得到最优参数,利用交叉熵函数对学习规则进行改进。改进后的网络模型既具有小波分析的良好的局部时域和频域特性,又具有全局搜索能力,可增大跳出局部最优的可能性,同时拥有更快的收敛能力和稳定性。
针对区域综合能源系统中横向电气热冷各子系统及纵向源网荷储等各环节的不同投资与运营主体,开展了多智能体划分;其次,针对区域综合能源系统、电网、能源用户等智能体,分别构建了各自的决策模型,并建立了以多智能体间利益均衡为目标的联合博弈决策模型;再次,针对多主体博弈这一高维决策难题,引入人工智能求解方法,提出了基于Nash博弈和强化学习算法的综合能源微网协调调度方法。
采用本发明提出的技术方案,能够精确地预测光伏、风电的年出力曲线,并以此进行区域综合能源系统的容量规划,同时实现一种优化调度方法,可以在协调系统内多主体利益的前提下,实现系统整体的优化运行。

Claims (10)

1.一种区域综合能源容量优化控制方法,其特征在于,包括以下步骤:
S1、收集历史气象数据,并按照季节进行数据划分,得到不同季节样本数据,通过聚类分析,结合遗传小波神经网络算法,构建得到新能源出力预测模型;
S2、根据区域综合能源系统的架构,对区域综合能源系统进行智能体划分,建立得到以多智能体间利益均衡为目标的联合博弈决策模型;
S3、基于新能源出力预测模型的输出值,使用考虑Nash博弈均衡的Q学习算法求解联合博弈决策模型,得到区域综合能源系统中各能源容量优化值;
S4、根据区域综合能源系统中各能源容量优化值,对各能源进行协调控制。
2.根据权利要求1所述的一种区域综合能源容量优化控制方法,其特征在于,所述步骤S1具体包括以下步骤:
S11、收集历史气象数据,并按照春、夏、秋、冬四个季节对历史气象数据进行分类,得到四个季节样本数据,其中,所述历史气象数据包括光照强度、环境温度、环境湿度和风速;
S12、分别对四个季节样本数据进行聚类分析,构建四个季节样本数据对应的新能源出力预测模型;
S13、采用遗传小波神经网络对步骤S12中构建的新能源出力预测模型进行求解,得到新能源出力预测值。
3.根据权利要求2所述的一种区域综合能源容量优化控制方法,其特征在于,所述步骤S12具体采用K均值聚类算法进行聚类分析。
4.根据权利要求2所述的一种区域综合能源容量优化控制方法,其特征在于,所述新能源出力预测模型包括光伏出力预测模型和风电出力预测模型,所述光伏出力预测模型和风电出力预测模型均采用BP神经网络结构,所述光伏出力预测模型的输入层节点数量为4,光照强度、环境温度、环境湿度和风速为输入向量,光伏出力预测模型的输出为光伏的出力,即输出层节点为1;所述风电出力预测模型的输入层节点数量为3,风速、环境温度和环境湿度为输入向量,风电出力预测模型的输出为风电的出力,即输出层节点为1。
5.根据权利要求2所述的一种区域综合能源容量优化控制方法,其特征在于,所述步骤S2具体包括以下步骤:
S21、建立不同智能体模型,包括RIES(Regional Integrated Energy System,区域综合能源系统)模型、PG(Power Grid,电网)模型、GS(Gas Company,燃气公司)模型和EU(Energy User,能源用户)模型;
S22、根据PG、RIES、EU三者之间的博弈,确定多智能体博弈模型。
6.根据权利要求5所述的一种区域综合能源容量优化控制方法,其特征在于,所述RIES负责多综合能源微网内燃气轮机、光伏发电设备、风力发电设备、储电设备的合理优化;PG负责向区域综合能源系统提供一定额度的电力,并回购多余的电力;EU为区域综合能源系统中主要固定能耗承担者,同时负责必要时段的负荷削减,还包括电动汽车(ElectricVehicles,EV)的充放电控制;GS负责向区域综合能源系统提供燃气,以供RIES的燃气轮机发电和EU的气负荷使用。
7.根据权利要求6所述的一种区域综合能源容量优化控制方法,其特征在于,所述RIES的收入包括与EU直接交易所得收入和向PG出售电力所得收入,所述RIES的支出包括从PG处购电和接受EU放电而支付的费用、以及自身产电的开销,所述RIES模型具体为:
Figure RE-FDA0003495548000000021
其中,NT为调度时段总数,PB(t)为t时刻微网系统向上级电网的购电价格,PPG(t)为t时刻微网向上级电网的购电功率,CCCHP(t)和CGHP(t)分别为t时刻燃气三联供系统与燃气热泵的燃料成本,CHS(t)为t时刻储热设备的损耗成本,
Figure RE-FDA0003495548000000022
为t时刻RIES智能体内可控机组的启停成本,
Figure RE-FDA0003495548000000023
为t时刻RIES智能体的运维成本,CE(t)为燃气轮机在t时刻的碳排放量,I(t)为燃气轮机在t时刻的工作状态,处于工作状况的话值为1,停机状态为0,
Figure RE-FDA0003495548000000024
为按天进行平均分配后碳排放限额,pe为市场上碳排放交易的价格。
8.根据权利要求7所述的一种区域综合能源容量优化控制方法,其特征在于,所述PG的收入源于向RIES、EU出售电量时,二者需要支付的电力费用和服务费,所述PG支出为PG在运营、设备投入以及电网维护方面所花费的成本;
所述EU的模型包括经济收益模型和满意度模型,其中,经济收益为向RIES和PG买电的费用、向GS购买燃气的费用减去EV向PG放电和空调、冰箱参加PG的需求响应获得收益,满意度取决于空调、冰箱参加PG的需求响应前后的负荷大小之差和启用气负荷供热使用得到燃气的量。
9.根据权利要求8所述的一种区域综合能源容量优化控制方法,其特征在于,所述多智能体博弈模型具体为:PG处于顶层的位置,颁布价格;RIES则作为区域价格的制定者,属于上层的决定者;而EU属于下层的跟随者;
PG通过推出合适的分时计价策略以及用户参与需求响应的激励策略,而后与RIES和EU交互,以获取自我利益的较大化;
RIES通过优化向PG进能的策略,管理区域内的各种产能和储能设备,合理安排出力,制定合适的电力价格并与EU交互,实现自己收益最大化;
EU则根据PG颁布的电力价格以及所属区域中的RIES所制定的电力价格,合理安排用能,在合适时机安排EV放能以及参与需求响应,力求在确保基本的满意度的前提下实现总成本的较小化。
10.根据权利要求9所述的一种区域综合能源容量优化控制方法,其特征在于,所述步骤S3具体包括以下步骤:
S31、初始化Q值表,线下预学习阶段Q值表中各元素(s,a)的初值均取为0;在线学习阶段将其初值化为预学习保留的可行Q值表;
S32、将连续状态和动作变量离散化,组成(状态,动作)对值函数,离散化的主要目的是配合Q学习算法进行学习,对结果精度产生影响可忽略不计,并通过马尔可夫模拟产生样本,结合决策层的多智能体利益Nash均衡目标,选取当前所属的运行状态、并根据当前状态结合行动选择概率,以确定当前动策略在状态空间的选取部分,将各时段内的系统的光伏出力/负荷需求的实际数值、燃气三联供系统/燃气热泵/电制冷机机组的出力、储能设备的充放功率、电动汽车的充放功率作为状态输入;
上述变量均为连续变量,为配合Q学习方法,将上述变量离散化为区间形式,将所属时段的光伏出力、负荷需求以及能源生产/存储设备的状态相结合,即为所属时段微网系统的状态空间,根据所属时段微网系统内机组的出力以及负荷的需求情况即可唯一确定所属状态;
在动作空间的选取部分,动作策略包括燃气三联供系统/燃气热泵/电制冷机设备机组是否参与供给、以及储能设备的充/放行为,上述变量均为连续变量,为配合Q学习方法,同样离散化为区间的形式,根据所属时段系统内机组的出力以及储能的运行情况即可唯一确定的动作策略;
将可能的状态动作组合指令发送到运行层进行校验,剔除不满足约束的状态动作组合,而在满足运行层约束条件并经过决策层达到Nash均衡的状态动作空间即为所属时段微网系统的状态动作空间,在确定了迭代后的状态空间以及动作策略后,即可计算不同智能体所属时段的Q值;
S33、计算各智能体立即奖励值,同时对未来的状态S’进行预测;
S34、得到未来的状态S’,根据考虑Nash均衡Q学习方法的迭代公式对Q值表进行更新,并令S←S’,需注意在迭代的不同时刻,储能设备存储的能量需要结合相应动态模型及状态/动作对进行计算;
S35、判断学习过程是否收敛:判断标准考察Q学习是否达到Nash均衡以及各个智能体Q值是否趋近于收敛;或者已经达到给定的学习步数或时间限制,若不收敛则返回S32。
CN202111108863.7A 2021-09-22 2021-09-22 一种区域综合能源容量优化控制方法 Pending CN114219195A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111108863.7A CN114219195A (zh) 2021-09-22 2021-09-22 一种区域综合能源容量优化控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111108863.7A CN114219195A (zh) 2021-09-22 2021-09-22 一种区域综合能源容量优化控制方法

Publications (1)

Publication Number Publication Date
CN114219195A true CN114219195A (zh) 2022-03-22

Family

ID=80695981

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111108863.7A Pending CN114219195A (zh) 2021-09-22 2021-09-22 一种区域综合能源容量优化控制方法

Country Status (1)

Country Link
CN (1) CN114219195A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169998A (zh) * 2022-09-06 2022-10-11 深圳市信润富联数字科技有限公司 人均碳排放分析方法、装置、设备及存储介质
CN115310888A (zh) * 2022-10-13 2022-11-08 国网天津市电力公司城东供电分公司 基于多元数据处理的综合能源用户用能行为关联分析方法
CN115528712A (zh) * 2022-11-23 2022-12-27 国网天津市电力公司滨海供电分公司 一种源网荷储备不同区储能容量平衡方法及系统
CN116562575A (zh) * 2023-05-16 2023-08-08 中国电力工程顾问集团有限公司 一种综合能源系统的优化调度方法
CN117353359A (zh) * 2023-12-05 2024-01-05 国网浙江省电力有限公司宁波供电公司 电池联合储能供电方法及系统
CN117494910A (zh) * 2024-01-02 2024-02-02 国网山东省电力公司电力科学研究院 一种基于碳减排的多能源协调优化控制系统及方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169998A (zh) * 2022-09-06 2022-10-11 深圳市信润富联数字科技有限公司 人均碳排放分析方法、装置、设备及存储介质
CN115169998B (zh) * 2022-09-06 2023-01-17 深圳市信润富联数字科技有限公司 人均碳排放分析方法、装置、设备及存储介质
CN115310888A (zh) * 2022-10-13 2022-11-08 国网天津市电力公司城东供电分公司 基于多元数据处理的综合能源用户用能行为关联分析方法
CN115528712A (zh) * 2022-11-23 2022-12-27 国网天津市电力公司滨海供电分公司 一种源网荷储备不同区储能容量平衡方法及系统
CN116562575A (zh) * 2023-05-16 2023-08-08 中国电力工程顾问集团有限公司 一种综合能源系统的优化调度方法
CN116562575B (zh) * 2023-05-16 2023-10-31 中国电力工程顾问集团有限公司 一种综合能源系统的优化调度方法
CN117353359A (zh) * 2023-12-05 2024-01-05 国网浙江省电力有限公司宁波供电公司 电池联合储能供电方法及系统
CN117353359B (zh) * 2023-12-05 2024-04-12 国网浙江省电力有限公司宁波供电公司 电池联合储能供电方法及系统
CN117494910A (zh) * 2024-01-02 2024-02-02 国网山东省电力公司电力科学研究院 一种基于碳减排的多能源协调优化控制系统及方法
CN117494910B (zh) * 2024-01-02 2024-03-22 国网山东省电力公司电力科学研究院 一种基于碳减排的多能源协调优化控制系统及方法

Similar Documents

Publication Publication Date Title
CN114219195A (zh) 一种区域综合能源容量优化控制方法
Xu et al. Multi-energy scheduling of an industrial integrated energy system by reinforcement learning-based differential evolution
Zhu et al. Energy trading in microgrids for synergies among electricity, hydrogen and heat networks
Yang et al. Indirect multi-energy transactions of energy internet with deep reinforcement learning approach
Motevasel et al. Multi-objective energy management of CHP (combined heat and power)-based micro-grid
Wang et al. Demand response comprehensive incentive mechanism-based multi-time scale optimization scheduling for park integrated energy system
CN110046773A (zh) 综合能源系统多主体合作优化运行与成本效益分配方法
Zhong et al. Deep reinforcement learning framework for dynamic pricing demand response of regenerative electric heating
CN110245810B (zh) 一种区域能源互联网协调优化运行方法
CN113326994A (zh) 一种考虑源荷储互动的虚拟电厂能量协同优化方法
Ban et al. Joint optimal scheduling for electric vehicle battery swapping-charging systems based on wind farms
CN109884888A (zh) 一种基于非合作博弈的多楼宇微网模型预测调控方法
Bagheri et al. Stochastic optimization and scenario generation for peak load shaving in Smart District microgrid: sizing and operation
Zhang et al. Deep reinforcement learning based bi-layer optimal scheduling for microgrid considering flexible load control
CN116579560A (zh) 考虑多类型负荷需求响应的虚拟电厂能量分配方法
Zeng et al. Optimal configuration planning of vehicle sharing station-based electro-hydrogen micro-energy systems for transportation decarbonization
Gao et al. Optimization of combined cooling, heating, and power systems for rural scenario based on a two-layer optimization model
Roccotelli et al. Smart district energy management with cooperative microgrids
CN114611772A (zh) 一种基于多智能体强化学习的多微网系统协同优化方法
Makhdoomi et al. Optimal Scheduling of Electrical Storage System and Flexible Loads to‎ Participate in Energy and Flexible Ramping Product Markets
Fu et al. Research on the stackelberg game method of building micro-grid with electric vehicles
Zhou et al. Multi-objective optimization and decision making for integrated energy system using STA and fuzzy TOPSIS
Li et al. Multi-objective distributed robust cooperative optimization model of multiple integrated energy systems considering uncertainty of renewable energy and participation of electric vehicles
CN116523683A (zh) 一种基于智能园区虚拟电厂的碳交易方法
CN114723230A (zh) 面向新能源发电和储能的微电网双层调度方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination