CN115017817A - 制冷机房能效优化方法、系统、终端及介质 - Google Patents
制冷机房能效优化方法、系统、终端及介质 Download PDFInfo
- Publication number
- CN115017817A CN115017817A CN202210691904.8A CN202210691904A CN115017817A CN 115017817 A CN115017817 A CN 115017817A CN 202210691904 A CN202210691904 A CN 202210691904A CN 115017817 A CN115017817 A CN 115017817A
- Authority
- CN
- China
- Prior art keywords
- optimization
- machine room
- energy efficiency
- action
- refrigeration machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/25—Design optimisation, verification or simulation using particle-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/06—Power analysis or power optimisation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P80/00—Climate change mitigation technologies for sector-wide applications
- Y02P80/10—Efficient use of energy, e.g. using compressed air or pressurized fluid as energy carrier
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Feedback Control In General (AREA)
- Air Conditioning Control Device (AREA)
Abstract
本发明提供了一种制冷机房能效优化方法和系统,其中方法包括:构建物理世界制冷机房的数字孪生模型,对状态数据和优化控制行动进行细粒度表示,生成优化策略行动轨迹;构建近端策略优化深度强化学习模型,利用行动轨迹数据进行模型训练,得到制冷机房能效优化智能体模型;基于智能体模型,将状态数据作为模型环境输入,得到推荐的优化行动。本发明突破物理系统优化策略空间自由尝试行动的限制,解决深度强化学习模型训练所需的数据多样性问题;通过近端策略优化深度强化学习模型的智能体训练,实现随着高效制冷机房运行过程中日益增加的高质量数据集,能够持续提升算法精度,从而满足工程级智能能效优化应用的准确性要求。
Description
技术领域
本发明涉及高效制冷机房能效优化技术领域,具体地,涉及一种基于数字孪生和智能体深度强化学习的制冷机房能效优化方法、系统、终端及介质,适用于工业企业或建筑等的高效制冷机房能效优化。
背景技术
能效优化算法的历史悠久,主要分为基于机理模型的能效优化算法、基于数据驱动的能效优化算法等。基于机理模型的能效优化算法由于很难对大型高效制冷机房建立精确的数学模型,因此不适用于大规模复杂的制冷机房系统。目前,随着大数据时代的到来,基于数据驱动的能效优化算法成为技术发展的主流方向,它通过对系统运行中产生的大量历史数据进行分析处理和建模,从而识别能效最优的运行策略。
鉴于许多高能耗企业的制冷机房的能耗占企业总能耗的近50%,因此,高效制冷机房的能效优化越发重要。近年来,深度强化学习正成为一种领先的策略优化方法,各种深度强化学习算法如深度Q学习网络(DQN)、近端策略优化算法(PPO)、优势演员评论算法(A2C)、PDPG和DDPG等在众多任务上取得了令人惊喜的成果,尤其是在AI玩游戏、下围棋等领域。然而上述的方法一般基于一种假设:智能体策略空间中的各种动作可以自由尝试,以便获取足够的<状态、行动、奖励>数据序列;各种序列有明确的开始和结束定义,且潜在收益比较明确。然而,在高能耗工厂的实际环境中,由于不同的生产可靠性和工艺过程要求,导致上述假设在大多数实际工业场景中都不成立。因此,当前上述先进的深度强化学习算法还无法有效地应用到高能耗企业制冷机房的实际能效优化过程中,少数的应用由于数据多样性的不足导致准确率无法满足工程使用要求,大大地制约了深度强化学习方法的推广和工程化。
发明内容
本发明针对现有技术中存在的上述不足,提供了一种制冷机房能效优化方法、系统、终端及介质。
根据本发明的一个方面,提供了一种制冷机房能效优化方法,包括:
构建物理世界制冷机房所对应的机房数字孪生模型,并基于物理世界制冷机房的状态数据在所述机房数字孪生模型上的可视化,对状态数据和优化控制行动进行细粒度表示,以便准确记录采取的行动和环境状态变化,生成优化策略行动轨迹;所述行动轨迹包括多组按照时间顺序执行的<状态、行动、奖励>数据序列;
构建近端策略优化深度强化学习模型,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型;
基于所述制冷机房能效优化智能体模型,将待处理的物理世界制冷机房的状态数据作为输入,得到对应的推荐行动数据,用于对制冷机房能效进行优化。
可选地,所述构建物理世界制冷机房所对应的机房数字孪生模型,包括:
定义物理世界制冷机房的物理系统;
定义每一个所述物理系统的主要状态表征;
对所述主要状态表征进行数据采集;
基于采集的所述主要状态表征的相应数据,定义每一个所述物理系统的信息虚体,所述信息虚体包括状态向量和行动向量;其中,所述状态向量由所述实时感知的主要状态表征数据组成,所述行动向量由实现每一个所述物理系统可执行的控制行动列表组成;
构建所述信息虚体的可视化仿真控制界面,得到机房数字孪生模型;
所述生成优化策略行动轨迹,包括:
通过所述机房数字孪生模型,执行一对当前状态向量细粒度进行优化控制的行动,并通过物理系统获得行动后的能效值和执行后的状态向量;
重复上一个步骤,生成<当前状态、行动、奖励、下一状态>数据序列,并将所述数据序列按照时间顺序排列生成行动轨迹。
可选地,还包括:
所述物理世界高效制冷机房的物理系统,包括:冷机系统、冷却侧系统、一次侧系统和二次侧系统;
所述主要状态表征,包括:开关状态、负荷率、出水温度、进水温度、功率和水流量;
所述状态向量,包括:开关状态、负荷率、出水温度、进水温度、功率和水流量;
所述行动向量,包括:冷却塔运行台数+/-、冷却塔出水温度+/-、冷却塔风机频率+/-、冷却泵台数+/-和/或冷却泵温差+/-;
所述执行一对当前状态向量细粒度进行优化控制的行动,包括:专家系统通过所述信息虚体的可视化仿真控制界面,基于领域知识,执行对当前状态向量细粒度的优化控制。
可选地,所述构建近端策略优化深度强化学习模型,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型,包括:
采用标准的N层全连接神经网络搭建所述近端策略优化深度强化学习模型,包括:输入层、多个隐含层和输出层,利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练;其中:
所述输入层用于输入所述行动轨迹中的状态向量数据或状态向量数据的子集;
多个所述隐含层用于将输入数据的特征,抽象到另一个维度空间,可展现更抽象的特征;
所述输出层采用Softmax激活函数作为分类器,用于输出优化策略行动轨迹中每个行动的概率;
对所述制冷机房能效优化智能体模型的目标函数进行设计,完成对所述制冷机房能效优化智能体模型的构建。
可选地,还包括:
所述输入层的输入宽度等于输入的状态向量数据的长度;所述输入层的输出宽度为输入宽度的任意倍数;
所述近端策略优化深度强化学习模型的第N层神经网络的输出宽度为行动向量数据的长度。
可选地,所述制冷机房能效优化智能体模型采用基于策略对的深度强化学习模型,其目标函数的设计方法,包括:
或者
其中,n为第n条执行轨迹,为近端策略优化PPO算法目标函数,Tn为第n条执行轨迹的长度,πθ为当前优化策略函数,πθ′为原优化策略函数,at为第t 步所执行的行动,st为第t步的状态,θ为当前优化策略,θ′为原优化策略,λ为可调节的算法超参数,KL为KL散度,为近端策略优化PPO2算法目标函数,ε为任意的较小值,为算法的可训练超参数;函数的含义是当则结果为1+ε;当则结果为1-ε;否则为
公式(1)中的λ和公式(3)中的γ分别采用PPO算法中的缺省方式确定;
其中,COP为能效比,Q为总系统总瞬时冷量,P为总系统总功率,f为总管瞬时流量,Δt为回水总管水温与供水总管水温的差值,k为系数。
根据本发明的另一个方面,提供了一种制冷机房能效优化系统,包括:
机房数字孪生模型模块,该模块构建物理世界制冷机房所对应的机房数字孪生模型,并基于物理世界制冷机房的状态数据在所述机房数字孪生模型上的可视化,对状态数据和优化控制行动进行细粒度表示,以便准确记录采取的行动和环境状态变化,生成优化策略行动轨迹;所述行动轨迹包括多组按照时间顺序执行的<状态、行动、奖励> 数据序列;;
制冷机房能效优化智能体模型模块,该模块构建近端策略优化深度强化学习模型,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型;基于所述制冷机房能效优化智能体模型,将待处理的物理世界制冷机房的状态数据作为输入,得到对应的推荐行动数据,用于对制冷机房能效进行优化。
可选地,所述近端策略优化深度强化学习模型,采用标准的N层全连接神经网络,包括:
输入层,用于输入所述行动轨迹中的状态向量数据或状态向量数据的子集;
多个所述隐含层用于将输入数据的特征,抽象到另一个维度空间,可展现更抽象的特征;
输出层,采用Softmax激活函数作为分类器,用于输出优化策略行动轨迹中每个行动的概率。
根据本发明的第三个方面,提供了一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时可用于执行上述中任一项所述的方法,或,运行上述中任一项所述的系统。
根据本发明的第四个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时可用于执行上述中任一项所述的方法,或,运行上述中任一项所述的系统。
由于采用了上述技术方案,本发明与现有技术相比,具有如下至少一项的有益效果:
本发明针对高效制冷机房过于复杂且工业场景中不能自由控制导致数据多样性不足的问题,通过搭建物理世界制冷机房的机房数字孪生模型,实现复杂物理系统的随需简化,通过行动轨迹对近端策略优化模型训练,突破了物理系统优化策略空间自由尝试行动的限制,实现机房数字孪生模型的自由控制,进一步解决了深度强化学习模型训练所需的数据多样性的问题,可以提升数据多样性5倍以上。
本发明针对现有深度强化学习算法准确率不满足工程级使用要求的问题,通过近端策略优化(例如PPO、PPO2)深度强化学习模型的训练,实现了随着高效制冷机房运行过程中日益增加的高质量数据集,能够持续提升算法精度,从而满足工程级智能能效优化应用的准确性要求。
本发明基于数字孪生和智能体深度强化学习进行高效制冷机房人工智能能效优化,采用近端策略优化(PPO或者PPO2)的智能体深度强化学习模型进行智能体训练,实现了随着高效制冷机房运行过程中日益增加的高质量数据集,提升能效 10%以上,实际工程化发展意义重大。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例中制冷机房能效优化方法的工作流程图。
图2为本发明一优选实施例中制冷机房能效优化的工作示意图。
图3为本发明一优选实施例中机房数字孪生模拟环境示意图。
图4为本发明一实施例中制冷机房能效优化系统的组成模块示意图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
图1为本发明一实施例提供的制冷机房能效优化方法的工作流程图。
如图1,该实施例提供的制冷机房能效优化方法,可以包括如下步骤:
S100,构建物理世界制冷机房所对应的机房数字孪生模型,并基于物理世界制冷机房的状态数据在机房数字孪生模型上的可视化,对状态数据和优化控制行动进行细粒度表示,以便准确记录采取的行动和环境状态变化,生成优化策略行动轨迹,行动轨迹包括多组按照时间顺序执行的<状态、行动、奖励>数据序列;
S200,构建近端策略优深度强化学习模型,并利用行动轨迹对近端策略优深度强化学习模型进行训练,得到制冷机房能效优化智能体模型;
S300,基于制冷机房能效优化智能体模型,将待处理的物理世界制冷机房的状态数据作为输入,得到对应的推荐行动数据,用于对制冷机房能效进行优化。工作示意图如图2所示。
在S100的一优选实施例中,构建机房数字孪生模型以及生成优化策略行动轨迹,可以包括如下步骤:
S101,定义物理世界制冷机房的物理系统;
S102,定义每一个物理系统的主要状态表征;
S103,对主要状态表征进行数据采集;
S104,基于采集的主要状态表征的相应数据,定义每一个物理系统的信息虚体,信息虚体包括状态向量和行动向量;其中,状态向量由实时感知的主要状态表征数据组成,行动向量由实现每一个物理系统可执行的控制行动列表组成;
S105,构建信息虚体的可视化仿真控制界面,得到机房数字孪生模型;
S106,通过机房数字孪生模型,执行一对当前状态向量细粒度进行优化控制的行动,并通过物理系统获得行动后的能效值和执行后的状态向量;
S107,重复上一个步骤,生成<当前状态、行动、奖励、下一状态>数据序列,并将数据序列按照时间顺序排列生成行动轨迹。
在S100的一具体应用实例中,还包括如下内容:
物理世界高效制冷机房的物理系统,可以包括:冷机系统、冷却侧系统、一次侧系统和二次侧系统;
主要状态表征,可以包括:开关状态、负荷率、出水温度、进水温度、功率和水流量;
状态向量,可以包括:开关状态、负荷率、出水温度、进水温度、功率和水流量;
行动向量,可以包括:冷却塔运行台数+/-、冷却塔出水温度+/-、冷却塔风机频率+/-、冷却泵台数+/-和/或冷却泵温差+/-;
执行一对当前状态向量细粒度进行优化控制的行动,可以包括如下步骤:专家系统通过信息虚体的可视化仿真控制界面,基于领域知识,执行对当前状态向量细粒度的优化控制。
机房数字孪生模拟环境如图3所示。
在S200的一优选实施例中,构建近端策略优化深度强化学习模型,并利用行动轨迹对近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型,可以包括如下步骤:
S201,采用标准的N层全连接神经网络搭建近端策略优化深度强化学习模型,,包括:输入层、多个隐含层和输出层组成,并利用行动轨迹对近端策略优化深度强化学习模型进行训练;其中:
输入层用于输入行动轨迹中的状态向量数据或状态向量数据的子集;
多个隐含层用于将输入数据的特征,抽象到另一个维度空间,可展现更抽象的特征;
输出层采用Softmax激活函数作为分类器,用于输出优化策略行动轨迹(优化策略空间)中每个行动的概率;
S202,对制冷机房能效优化智能体模型的目标函数进行设计,完成对制冷机房能效优化智能体模型的构建。
在S200的一具体应用实例中,还包括如下内容:
输入层的输入宽度等于输入的状态向量数据的长度;输入层的输出宽度为输入宽度的任意倍数;
近端策略优化深度强化学习模型的第N层神经网络的输出宽度为行动向量数据的长度。
在S202的一具体应用实例中,制冷机房能效优化智能体模型采用基于策略对的深度强化学习模型,其中,对制冷机房能效优化智能体模型的目标函数进行设计,可以包括如下步骤:
或者
其中,n为第n条执行轨迹,为近端策略优化PPO算法目标函数,Tn为第n条执行轨迹的长度,πθ为当前优化策略函数,πθ′为原优化策略函数,at为第t 步所执行的行动,st为第t步的状态,θ为当前优化策略,θ′为原优化策略,λ为可调节的算法超参数,KL为KL散度,为近端策略优化PPO2算法目标函数,ε为任意的较小值,为算法的可训练超参数;函数的含义是当则结果为1+ε;当则结果为1-ε;否则为
公式(1)中的λ和公式(3)中的γ分别采用PPO算法中的缺省方式确定;
其中,COP为能效比,Q为总系统总瞬时冷量,P为总系统总功率,f为总管瞬时流量,Δt为回水总管水温与供水总管水温的差值,k为系数。
图4为本发明一实施例中制冷机房能效优化系统的组成模块示意图。
如图4所示,该实施例提供的制冷机房能效优化系统,可以包括如下模块:
机房数字孪生模型模块,该模块构建物理世界制冷机房所对应的机房数字孪生模型,并基于物理世界制冷机房的状态数据在机房数字孪生模型上的可视化,对状态数据和优化控制行动进行细粒度表示,以便准确记录采取的行动和环境状态变化,生成优化策略行动轨迹;行动轨迹包括多组按照时间顺序执行的<状态、行动、奖励>数据序列;
制冷机房能效优化智能体模型模块,该模块构建近端策略优化深度强化学习模型,并利用行动轨迹对近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型;基于制冷机房能效优化智能体模型,将待处理的物理世界制冷机房的状态数据作为输入,得到对应的推荐行动数据,用于对制冷机房能效进行优化。
在制冷机房能效优化智能体模型模块的一优选实施例中,近端策略优化深度强化学习模型,可以包括如下结构层:
输入层,用于输入行动轨迹中的状态向量数据或状态向量数据的子集;
输出层,采用Softmax激活函数作为分类器,用于输出优化策略行动轨迹(优化策略空间)中每个行动的概率。
需要说明的是,本发明提供的方法中的步骤,可以利用系统中对应的模块等予以实现,本领域技术人员可以参照方法的技术方案实现系统的组成,即,方法中的实施例可理解为构建系统的优选例,在此不予赘述。
本发明上述实施例提供的制冷机房能效优化方法和系统,对机房数字孪生模型进行定义,包括了状态向量和行动向量定义;采用PPO和PPO2算法对制冷机房能效优化智能体模型进行训练建模;解决了由于高效制冷机房过于复杂且工业场景中不能自由控制,导致数据多样性不足,且现有人工智能算法准确率不满足工程级使用要求的问题。
下面对本发明上述两个实施例的具体实施方案进一步说明。
本发明上述实施例提供的技术方案主要包括两部分:机房数字孪生模型部分和制冷机房能效优化智能体模型部分。
对于机房数字孪生模型部分,所采用的技术方案为:
步骤1,定义物理世界高效制冷机房的主要组成部分(物理系统),例如可能包括冷机系统、冷却侧系统、一次侧系统和二次侧系统。
步骤2,定义物理世界每个物理系统的主要状态表征(State)。例如,冷机的状态表征函数可以定义为F冷机=(开关状态,负荷率,冷冻水出水温度,冷冻水进水温度,冷却水出水温度,冷却水进水温度,功率,冷冻水流量,冷却水流量);
步骤3,实现物理系统主要状态表征的数据采集。例如,为了实现冷机的开关状态、负荷率信息,则需要从冷机的设备控制器的相关点位采集数据;为了实现冷机的冷冻水流量,冷却水流量的数据,则需要在相应的位置加装流量计。
步骤4,定义物理世界每个物理系统的信息虚体,信息虚体中包含物理实体主要状态表征(State)实时感知数据组成的“状态向量”。例如,冷机的状态向量可以定义为V冷机=(开关状态,负荷率,冷冻水出水温度,冷冻水进水温度,冷却水出水温度,冷却水进水温度,功率,冷冻水流量,冷却水流量)。
步骤5,定义物理世界实现物理系统控制可执行的行动(Actions)列表,将它定义为信息虚体的“行动向量”。例如,高效制冷机房信息虚体的行动向量=f(冷却塔运行台数+/-,冷却塔出水温度+/-,冷却塔风机频率+/-,冷却泵台数+/-,冷却泵温差+/-)。
步骤6,实现高效制冷机房信息虚体的2维或3维可视化仿真控制界面,界面上可以包含控制物理设备行动的控制手柄,当控制手柄执行某个行动后,可视化的信息虚体上要实时反应状态的变化,形成机房数字孪生模型。
步骤7,在高效制冷机房的调适阶段或给定的能效优化期间,专家系统(领域专家)通过制冷机房信息虚体的可视化仿真控制界面,基于领域知识执行某一行动,并获得行动后的能效值和执行后的状态向量。
步骤8,重复步骤7的能效优化过程,生成训练深度强化学习算法所需的<状态、行动、奖励>数据序列。该过程可以由同一个领域专家在不同时间进行,也可以由多个领域专家在不同的时间完成。生成的数据序列可以按照合适的时间步长生成训练算法所需的行动轨迹(Trajectory)。
制冷机房能效优化智能体模型部分,所采用的技术方案为:
该智能体模型所采用的策略神经网络,可以是全连接网络,也可以是卷积神经网络等。
采用标准的N层全连接神经网络搭建近端策略优化深度强化学习模型,包括:输入层、多个隐含层和输出层,利用行动轨迹对近端策略优化深度强化学习模型进行训练;其中:
步骤一,搭建输入层。该层的输入为待处理的物理世界高效制冷机房的数字孪生系统状态数据向量,也可以根据训练需要只输入它的一个子集。激活函数推荐 ReLU。
具体地:该层的输入为待处理的物理世界高效制冷机房的数字孪生系统状态数据向量,也可以根据训练需要只输入它的一个子集。输入层的宽度等于输入的状态数据向量的长度,输出宽度可以是输入的任意倍数。状态数据向量{冷机运行台数,冷机冷冻水出水温度,冷机冷冻水进水温度,冷却塔运行台数,冷却塔出水温度,冷却塔风机频率,冷却泵台数,冷却泵温差,二次泵运行台数,二次泵压差,二次泵频率,二次侧供水温度,二次侧回水温度,一次泵运行台数,一次泵压差,一次泵频率}等。
步骤二,搭建多个隐含层,用于将输入数据的特征,抽象到另一个维度空间,可展现更抽象的特征;
步骤三,输出层用于输出优化策略空间中每个行动的概率,输出层使用Softmax激活函数作为分类器,给出推荐的行动。第N层的输出宽度为行动向量的长度。进一步地,基于策略神经网络训练的智能体可以训练针对单个设备的智能体,也可以训练针对所有的设备或其中部分设备的智能体。
步骤四,定义目标函数,实现策略神经网络推荐最优行动,实现能效最优化的目标。
具体地:
或者
其中,n为第n条执行轨迹,为近端策略优化PPO算法目标函数,Tn为第n条执行轨迹的长度,πθ为当前优化策略函数,πθ′为原优化策略函数,at为第t 步所执行的行动,st为第t步的状态,θ为当前优化策略,θ′为原优化策略,λ为可调节的算法超参数,KL为KL散度,为近端策略优化PPO2算法目标函数,ε为任意的较小值,为算法的可训练超参数;函数的含义是当则结果为1+ε;当则结果为1-ε;否则为
公式(1)中的λ和公式(3)中的γ分别采用PPO算法中的缺省方式确定;
其中,COP为能效比,Q为总系统总瞬时冷量,P为总系统总功率,f为总管瞬时流量,Δt为回水总管水温与供水总管水温的差值,k为系数。
本发明一实施例提供了一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时可用于执行上述实施例中任一项的方法,或,运行上述实施例中任一项的系统。
可选地,存储器,用于存储程序;存储器,可以包括易失性存储器(英文:volatilememory),例如随机存取存储器(英文:random-access memory,缩写:RAM),如静态随机存取存储器(英文:static random-access memory,缩写:SRAM),双倍数据率同步动态随机存取存储器(英文:Double Data Rate Synchronous Dynamic Random Access Memory,缩写:DDR SDRAM)等;存储器也可以包括非易失性存储器(英文:non-volatile memory),例如快闪存储器(英文:flash memory)。存储器用于存储计算机程序(如实现上述方法的应用程序、功能模块等)、计算机指令等,上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器中。并且上述的计算机程序、计算机指令、数据等可以被处理器调用。
上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器中。并且上述的计算机程序、计算机指令、数据等可以被处理器调用。
处理器,用于执行存储器存储的计算机程序,以实现上述实施例涉及的方法中的各个步骤。具体可以参见前面方法实施例中的相关描述。
处理器和存储器可以是独立结构,也可以是集成在一起的集成结构。当处理器和存储器是独立结构时,存储器、处理器可以通过总线耦合连接。
本发明一实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时可用于执行上述实施例中任一项的方法,或,运行上述实施例中任一项的系统。
本发明上述实施例提供的制冷机房能效优化方法、系统、终端及介质,基于数字孪生和智能体深度强化学习,通过物理世界制冷机房的数字孪生模拟环境的搭建,突破了物理系统优化策略空间自由尝试行动的限制,解决了深度强化学习模型训练所需的数据多样性的问题;通过近端策略优化(PPO或PPO2)的深度强化学习算法的智能体训练,实现了随着高效制冷机房运行过程中日益增加的高质量数据集,能够持续提升算法精度,从而满足工程级智能能效优化应用的准确性要求。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本发明上述实施例中未尽事宜均为本领域公知技术。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (10)
1.一种制冷机房能效优化方法,其特征在于,包括:
构建物理世界制冷机房所对应的机房数字孪生模型,并基于物理世界制冷机房的状态数据在所述机房数字孪生模型上的可视化,对状态数据和优化控制行动进行细粒度表示,生成优化策略行动轨迹;所述行动轨迹包括多组按照时间顺序执行的<状态、行动、奖励>数据序列;
构建近端策略优化深度强化学习模型,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型;
基于所述制冷机房能效优化智能体模型,将待处理的物理世界制冷机房的状态数据作为输入,得到对应的推荐行动数据,用于对制冷机房能效进行优化。
2.根据权利要求1所述的制冷机房能效优化方法,其特征在于,所述构建物理世界制冷机房所对应的机房数字孪生模型,包括:
定义物理世界制冷机房的物理系统;
定义每一个所述物理系统的主要状态表征;
对所述主要状态表征进行数据采集;
基于采集的所述主要状态表征的相应数据,定义每一个所述物理系统的信息虚体,所述信息虚体包括状态向量和行动向量;其中,所述状态向量由实时感知的所述主要状态表征数据组成,所述行动向量由实现每一个所述物理系统可执行的控制行动列表组成;
构建所述信息虚体的可视化仿真控制界面,得到机房数字孪生模型;
所述生成优化策略行动轨迹,包括:
通过所述机房数字孪生模型,执行一对当前状态向量细粒度进行优化控制的行动,并通过物理系统获得行动后的能效值和执行后的状态向量;
重复上一个步骤,生成<当前状态、行动、奖励、下一状态>数据序列,并将所述数据序列按照时间顺序排列生成行动轨迹。
3.根据权利要求2所述的制冷机房能效优化方法,其特征在于,还包括:
所述物理世界高效制冷机房的物理系统,包括:冷机系统、冷却侧系统、一次侧系统和二次侧系统;
所述主要状态表征,包括:开关状态、负荷率、出水温度、进水温度、功率和水流量;
所述状态向量,包括:开关状态、负荷率、出水温度、进水温度、功率和水流量;
所述行动向量,包括:冷却塔运行台数+/-、冷却塔出水温度+/-、冷却塔风机频率+/-、冷却泵台数+/-和/或冷却泵温差+/-;
所述执行一对当前状态向量细粒度进行优化控制的行动,包括:专家系统通过所述信息虚体的可视化仿真控制界面,基于领域知识,执行对当前状态向量细粒度的优化控制。
4.根据权利要求1所述的制冷机房能效优化方法,其特征在于,所述构建近端策略优化深度强化学习模型,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型,包括:
采用标准的N层全连接神经网络搭建所述近端策略优化深度强化学习模型,包括:输入层、多个隐含层和输出层,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练;其中:
所述输入层用于输入所述行动轨迹中的状态向量数据或状态向量数据的子集;
多个所述隐含层用于将输入数据的特征,抽象到另一个维度空间;
所述输出层采用Softmax激活函数作为分类器,用于输出优化策略行动轨迹中每个行动的概率;
对所述制冷机房能效优化智能体模型的目标函数进行设计,完成对所述制冷机房能效优化智能体模型的构建。
5.根据权利要求4所述的制冷机房能效优化方法,其特征在于,还包括:
所述输入层的输入宽度等于输入的状态向量数据的长度;所述输入层的输出宽度为输入宽度的任意倍数;
所述近端策略优化深度强化学习模型的第N层神经网络的输出宽度为行动向量数据的长度。
6.根据权利要求4所述的制冷机房能效优化方法,其特征在于,所述制冷机房能效优化智能体模型采用基于策略对的深度强化学习模型,其目标函数的设计方法,包括:
或者
其中,n为第n条执行轨迹,为近端策略优化PPO算法目标函数,Tn为第n条执行轨迹的长度,πθ为当前优化策略函数,πθ′为原优化策略函数,at为第t步所执行的行动,st为第t步的状态,θ为当前优化策略,θ′为原优化策略,λ为可调节的算法超参数,KL为KL散度,为近端策略优化PPO2算法目标函数,为任意的较小值,为算法的可训练超参数;函数的含义是当则结果为1;当则结果为1;否则为
公式(1)中的λ和公式(3)中的γ分别采用PPO算法中的缺省方式确定;
其中,COP为能效比,Q为总系统总瞬时冷量,P为总系统总功率,f为总管瞬时流量,Δt为回水总管水温与供水总管水温的差值,k为系数。
7.一种制冷机房能效优化系统,其特征在于,包括:
机房数字孪生模型模块,该模块构建物理世界制冷机房所对应的机房数字孪生模型,并基于物理世界制冷机房的状态数据在所述机房数字孪生模型上的可视化,对状态数据和优化控制行动进行细粒度表示,生成优化策略行动轨迹;所述行动轨迹包括多组按照时间顺序执行的<状态、行动、奖励>数据序列;
制冷机房能效优化智能体模型模块,该模块构建近端策略优化深度强化学习模型,并利用所述行动轨迹对所述近端策略优化深度强化学习模型进行训练,得到制冷机房能效优化智能体模型;基于所述制冷机房能效优化智能体模型,将待处理的物理世界制冷机房的状态数据作为输入,得到对应的推荐行动数据,用于对制冷机房能效进行优化。
8.根据权利要求7所述的制冷机房能效优化系统,其特征在于,所述近端策略优化深度强化学习模型,采用标准的N层全连接神经网络,包括:
输入层,用于输入所述行动轨迹中的状态向量数据或状态向量数据的子集;
多个所述隐含层用于将输入数据的特征,抽象到另一个维度空间;
输出层,采用Softmax激活函数作为分类器,用于输出优化策略行动轨迹中每个行动的概率。
9.一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时可用于执行权利要求1-6中任一项所述的方法,或,运行权利要求7-8中任一项所述的系统。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时可用于执行权利要求1-6中任一项所述的方法,或,运行权利要求7-8中任一项所述的系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210691904.8A CN115017817A (zh) | 2022-06-17 | 2022-06-17 | 制冷机房能效优化方法、系统、终端及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210691904.8A CN115017817A (zh) | 2022-06-17 | 2022-06-17 | 制冷机房能效优化方法、系统、终端及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115017817A true CN115017817A (zh) | 2022-09-06 |
Family
ID=83075462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210691904.8A Pending CN115017817A (zh) | 2022-06-17 | 2022-06-17 | 制冷机房能效优化方法、系统、终端及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115017817A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116068886A (zh) * | 2022-12-09 | 2023-05-05 | 上海碳索能源服务股份有限公司 | 一种高效制冷机房冷却水系统的优化控制装置 |
CN116792890A (zh) * | 2023-05-17 | 2023-09-22 | 浙江省邮电工程建设有限公司 | 基于策略蒸馏的机房空调智能控制方法和系统 |
CN117057255A (zh) * | 2023-10-10 | 2023-11-14 | 中核武汉核电运行技术股份有限公司 | 一种用于数字孪生模型在线同步的预训练模型获取方法 |
-
2022
- 2022-06-17 CN CN202210691904.8A patent/CN115017817A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116068886A (zh) * | 2022-12-09 | 2023-05-05 | 上海碳索能源服务股份有限公司 | 一种高效制冷机房冷却水系统的优化控制装置 |
CN116792890A (zh) * | 2023-05-17 | 2023-09-22 | 浙江省邮电工程建设有限公司 | 基于策略蒸馏的机房空调智能控制方法和系统 |
CN117057255A (zh) * | 2023-10-10 | 2023-11-14 | 中核武汉核电运行技术股份有限公司 | 一种用于数字孪生模型在线同步的预训练模型获取方法 |
CN117057255B (zh) * | 2023-10-10 | 2024-01-02 | 中核武汉核电运行技术股份有限公司 | 一种用于数字孪生模型在线同步的预训练模型获取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115017817A (zh) | 制冷机房能效优化方法、系统、终端及介质 | |
CN110930016A (zh) | 一种基于深度q学习的梯级水库随机优化调度方法 | |
Fallah-Mehdipour et al. | Real-time operation of reservoir system by genetic programming | |
Boutilier | Sequential optimality and coordination in multiagent systems | |
Ellis et al. | An encoder–decoder LSTM-based EMPC framework applied to a building HVAC system | |
Zhang et al. | Use of parallel deterministic dynamic programming and hierarchical adaptive genetic algorithm for reservoir operation optimization | |
Wang et al. | Forecasting the seasonal natural gas consumption in the US using a gray model with dummy variables | |
CN110837915B (zh) | 一种基于混合集成深度学习的电力系统低压负荷点预测及概率预测方法 | |
Chen et al. | H/sub/spl infin//output feedback control of discrete-time fuzzy systems with application to chaos control | |
CN107203687A (zh) | 吸收塔脱硫过程多目标协同智能优化控制方法 | |
CN103345663B (zh) | 考虑爬坡速率约束的电力系统机组组合优化方法 | |
CN106529732A (zh) | 基于神经网络与随机前沿分析的碳排放效率预测方法 | |
CN114626499A (zh) | 用稀疏化注意力辅助决策的嵌入式多智能体强化学习方法 | |
CN114279042B (zh) | 一种基于多智能体深度强化学习的中央空调控制方法 | |
CN113110052A (zh) | 一种基于神经网络和强化学习的混合能量管理方法 | |
CN116169776A (zh) | 电力系统云边协同人工智能调控方法、系统、介质及设备 | |
Zhang et al. | Short term load forecasting based on IGSA-ELM algorithm | |
CN115528750B (zh) | 一种面向电网安全稳定的数据模型混合驱动机组组合方法 | |
CN116070504A (zh) | 一种高效制冷机房数字孪生仿真系统 | |
Zhang et al. | Clique-based cooperative multiagent reinforcement learning using factor graphs | |
Buffet et al. | Robust planning with (l) rtdp | |
CN115526504A (zh) | 泵站供水系统节能调度方法、系统、电子设备及存储介质 | |
Wai et al. | Intelligent daily load forecasting with fuzzy neural network and particle swarm optimization | |
CN107330302A (zh) | 联合Memetic算法和S系统的生物模体重构方法 | |
Samanta et al. | Energy management in hybrid electric vehicles using optimized radial basis function neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |