CN112866021A - 基于深度强化学习的ai智慧节能动态控制方法 - Google Patents
基于深度强化学习的ai智慧节能动态控制方法 Download PDFInfo
- Publication number
- CN112866021A CN112866021A CN202110037945.0A CN202110037945A CN112866021A CN 112866021 A CN112866021 A CN 112866021A CN 202110037945 A CN202110037945 A CN 202110037945A CN 112866021 A CN112866021 A CN 112866021A
- Authority
- CN
- China
- Prior art keywords
- energy
- reward
- saving
- index
- reinforcement learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0876—Aspects of the degree of configuration automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
- H04L41/0833—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network energy consumption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W52/00—Power management, e.g. TPC [Transmission Power Control], power saving or power classes
- H04W52/02—Power saving arrangements
- H04W52/0209—Power saving arrangements in terminal devices
- H04W52/0212—Power saving arrangements in terminal devices managed by the network, e.g. network or access point is master and terminal is slave
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明涉及5G节能领域,具体涉及一种基于深度强化学习的AI智慧节能动态控制方法,极大地降低了对人工运维以及人工经验分析的依赖,提高了自动化节能的控制。技术方案概括为,获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;根据环境状态信息建立环境模型;在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。本发明适用于5G基站的节能控制。
Description
技术领域
本发明涉及5G节能领域,具体涉及一种基于深度强化学习的AI智慧节能动态控制方法。
背景技术
在工业互联网领域,实现工业设备的节能降耗目标,实现绿色发展,降本增效,是企业发展的重点方向。
对于列入国家新基建反范畴的运营商网络,对于其运营,如何平衡网络性能/用户感知与网络能耗,将影响网络长期的运营效果。
目前现有的技术,关于节能控制,一方面是是单纯从网络负荷的均衡性出发开展网络流量的迁移/切换控制;另一方面迁移的方向是由运维网优人员通过软件参数进行控制,持续性及准确性难以保证。
而现有的4G,5G小区节能技术,更多的是监测本小区的业务流量,从而进行节能操作,缺失区域内的各小区间整体网络业务量的监控,而对于节能时段和节能触发门限的控制,也是由人员来设定,人员的数据分析能力及运维技能及经验在工作中占了比较大的比重。
上述技术的缺陷为:
(1)单纯从网络负荷的均衡性出发开展网络流量的迁移/切换控制,无法保证实时性;
(2)由运维网优人员通过软件参数进行控制,持续性及准确性难以保证;
(3)由于缺乏统计学方法,门限控制等一些重要参数均由人员设置,人工的数据分析能力及运维技能及经验在工作中占了比较大的比重。
发明内容
本发明的目的是提供一种基于深度强化学习的AI智慧节能动态控制方法,极大地降低了对人工运维以及人工经验分析的依赖,提高了自动化节能的控制。
本发明采取如下技术方案实现上述目的,基于深度强化学习的AI智慧节能动态控制方法,包括:
步骤(1)、获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;
步骤(2)、根据环境状态信息建立环境模型;
步骤(3)、在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;
步骤(4)、通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。
进一步的是,在步骤(1)中,所述4G状态指标包括:MR指标,保持性指标,接入性指标,业务量迁移比,资源利用率指标以及信令连接比指标。
进一步的是,在步骤(1)中,所述5G状态指标包括:双连接用户数,双连接终端数,双连接添加尝试次数,5G在服比、5G KPI达标率、以及业务量迁移比。
进一步的是,在步骤(1)中,所述环境状态信息还包括:话务量数据信息、投诉万投比以及外部气象因素。
进一步的是,在步骤(2)中,根据环境状态信息建立环境模型包括:将节能控制问题建模为马尔科夫决策过程模型,并定义其中的状态,动作以及奖赏函数。
进一步的是,所述定义状态的具体方法包括:
选择投诉万投比、接入性指标、5G在服比指标以及话务量数据信息为环境状态信息;
设t时刻,投诉万投比为Mt、接入性指标为Mj、5G在服比指标为Mz,此时话务量数据信息为Mh,则状态St=(Mt,Mj,Mz,Mh)。
进一步的是,所述定义动作的具体方法包括:
设置4G增容层业务量权重值为θZ、4G覆盖层业务量权重值为θf、4G转5G预测业务量权重值为θC、5G SA预测业务量权重值为θS、5G NSA预测业务量权重值为θN以及4G峰值业务量权重值为θm;
若t时刻采取的动作为调高或调低业务量的权重值,则其动作a的集合为,a={[θZ0,θf0,θC0,θS0,θN0,θm0],[θZ1,θf1,θC1,θS1,θN1,θm1],...,[θZn,θfn,θCn,θSn,θNn,θmn]}。
进一步的是,所述定义奖赏函数的具体方法包括:
选择5G KPI达标率K以及投诉万投比T作为评测指标;
若K<90%或者T>100,则设置奖赏函数r=-1;
若K>90%,并且T<100,则奖赏函数r=W1(E_reward)+W2(K_reward)+W3(T_reward),W1、W2以及W3分别表示权重参数,E_reward表示节能奖励参数,K_reward表示KPI奖励参数,T_reward表示投诉比奖励参数,Emax表示基站站点最大能耗,Et表示t时刻基站站点能耗。
进一步的是,在步骤(2)中,根据环境状态信息建立环境模型还包括建立价值函数回报模型,所述建立价值函数回报模型的具体方法包括:
进一步的是,在步骤(3)中,通过双网络DQN算法获取节能控制策略的方法包括:
初始化记忆单元、当前估值网络以及目标网络TargetQ,随机初始化权重参数θ,初始化权重θ'与估值网络相同;
将环境状态信息建模,再通过DQN算法计算出奖励r后,得到任意状态St下的Q(St,a),然后使用ε-greedy策略执行动作A,得到下一时刻St+1的状态值,并将每个时间步得到的数据(St,a,r,St+1)存入记忆单元;
记忆单元存储设定量数据后,随机选择一个数据(St,a,r,St+1),并将(St,a)、St+1以及r的值分别传递给估值网络、目标网络以及损失函数L(W),并对损失函数的W使用梯度下降法进行更新,获取节能控制策略。
本发明对4G,5G环境状态信息进行采样建模,在模型中加入DQN算法,通过DQN算法获取节能控制策略,避免了通过人工进行参数设置以及通过人工经验进行分析;并且在建模过程中,将节能控制问题建模为马尔科夫决策过程模型,结合4G,5G的状态指标,定义其中的状态、动作以及鉴赏函数,保证了KPI达标率以及投诉万投比在符合要求的同时进行节能策略计算;并且还建立了损失函数,对损失函数的自变量采用梯度下降法进行更新,保证了节能策略的实时性与准确性。
附图说明
图1是本发明基于深度强化学习的AI智慧节能动态控制的方法流程图。
具体实施方式
本发明基于深度强化学习的AI智慧节能动态控制方法,其方法流程图如图1,包括:
步骤101、获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;
步骤102、根据环境状态信息建立环境模型;
步骤103、在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;
步骤104、通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。
在步骤101中,所述4G状态指标包括:MR指标,保持性指标,接入性指标,业务量迁移比,资源利用率指标以及信令连接比指标。
在步骤101中,所述5G状态指标包括:双连接用户数,双连接终端数,双连接添加尝试次数,5G在服比、5G KPI达标率、以及业务量迁移比。
在步骤101中,所述环境状态信息还包括:话务量数据信息、投诉万投比以及外部气象因素。
在步骤102中,根据环境状态信息建立环境模型包括:将节能控制问题建模为马尔科夫决策过程模型,并定义其中的状态,动作以及奖赏函数。
其中定义状态的具体方法包括:
选择投诉万投比、接入性指标、5G在服比指标以及话务量数据信息为环境状态信息;
设t时刻,投诉万投比为Mt、接入性指标为Mj、5G在服比指标为Mz,此时话务量数据信息为Mh,则状态St=(Mt,Mj,Mz,Mh)。
定义动作的具体方法包括:
设置4G增容层业务量权重值为θZ、4G覆盖层业务量权重值为θf、4G转5G预测业务量权重值为θC、5G SA预测业务量权重值为θS、5G NSA预测业务量权重值为θN以及4G峰值业务量权重值为θm;
若t时刻采取的动作为调高或调低业务量的权重值,则其动作a的集合为,a={[θZ0,θf0,θC0,θS0,θN0,θm0],[θZ1,θf1,θC1,θS1,θN1,θm1],...,[θZn,θfn,θCn,θSn,θNn,θmn]}。
定义奖赏函数的具体方法包括:
选择5G KPI达标率K以及投诉万投比T作为评测指标;
若K<90%或者T>100,则设置奖赏函数r=-1;
若K>90%,并且T<100,则奖赏函数r=W1(E_reward)+W2(K_reward)+W3(T_reward),W1、W2以及W3分别表示权重参数,E_reward表示节能奖励参数,K_reward表示KPI奖励参数,T_reward表示投诉比奖励参数,Emax表示基站站点最大能耗,Et表示t时刻基站站点能耗。
鉴赏函数与评测指标有关,节能目标是在保障评测指标达标的情况下,达到能耗最低,其中5G KPI达标率(指标要求>90%,即保障KPI达标率90%以上),投诉万投比(指标要求<100,即当月投诉客户总量/当月收费客户总量×10000<100)。
奖赏值r值作为模型最终评价标准,是能耗参数,KPI达标率,投诉万投比的加权值,当三个相关参数越大时,r的值就越大,模型需要的就是尽可能大的r值。也就是说,当KPI达标率越接近100%,投诉万投比越接近0,能耗值越低时,模型获得的r值就越大;反之则模型获得的r值就越小。当然,首先需要考虑的是站点评测指标达标,若因为节能,使相关指标没有达到运营要求,r就会给一个负反馈值-1。这便是控制器要达到的最终目的——在不影响站点正常运营的条件下达到节能的目的。
在步骤102中,根据环境状态信息建立环境模型还包括建立价值函数回报模型,所述建立价值函数回报模型的具体方法包括:
在步骤103中,通过双网络DQN算法获取节能控制策略的方法包括:
初始化记忆单元、当前估值网络以及目标网络TargetQ,随机初始化权重参数θ,初始化权重θ'与估值网络相同;
将环境状态信息建模,再通过DQN算法计算出奖励r后,得到任意状态St下的Q(St,a),然后使用ε-greedy策略执行动作A,得到下一时刻St+1的状态值,并将每个时间步得到的数据(St,a,r,St+1)存入记忆单元;
记忆单元存储设定量数据后,随机选择一个数据(St,a,r,St+1),并将(St,a)、St+1以及r的值分别传递给估值网络、目标网络以及损失函数L(W),并对损失函数的W使用梯度下降法进行更新,获取节能控制策略。
双网络DQN算法更新值函数的方式如下:
Q(St,a)←Q(St,a)+β[r+λmaxat+1Q(St+1,at+1)-Q(St,a)];其中β为学习率,λ为折扣因子,根据实际收敛情况调整,每多次迭代后更新目标值网络的参数为估值网络的参数。
综上所述,本发明极大地降低了对人工运维以及人工经验分析的依赖,提高了自动化节能的控制,还保证了节能策略的实时性与准确性。
Claims (10)
1.基于深度强化学习的AI智慧节能动态控制方法,其特征在于,包括:
步骤(1)、获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;
步骤(2)、根据环境状态信息建立环境模型;
步骤(3)、在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;
步骤(4)、通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。
2.根据权利要求1所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(1)中,所述4G状态指标包括:MR指标,保持性指标,接入性指标,业务量迁移比,资源利用率指标以及信令连接比指标。
3.根据权利要求2所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(1)中,所述5G状态指标包括:双连接用户数,双连接终端数,双连接添加尝试次数,5G在服比、5G KPI达标率、以及业务量迁移比。
4.根据权利要求3所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(1)中,所述环境状态信息还包括:话务量数据信息、投诉万投比以及外部气象因素。
5.根据权利要求4所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(2)中,根据环境状态信息建立环境模型包括:将节能控制问题建模为马尔科夫决策过程模型,并定义其中的状态,动作以及奖赏函数。
6.根据权利要求5所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,所述定义状态的具体方法包括:
选择投诉万投比、接入性指标、5G在服比指标以及话务量数据信息为环境状态信息;
设t时刻,投诉万投比为Mt、接入性指标为Mj、5G在服比指标为Mz,此时话务量数据信息为Mh,则状态St=(Mt,Mj,Mz,Mh)。
7.根据权利要求6所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,所述定义动作的具体方法包括:
设置4G增容层业务量权重值为θZ、4G覆盖层业务量权重值为θf、4G转5G预测业务量权重值为θC、5G SA预测业务量权重值为θS、5G NSA预测业务量权重值为θN以及4G峰值业务量权重值为θm;
若t时刻采取的动作为调高或调低业务量的权重值,则其动作a的集合为,a={[θZ0,θf0,θC0,θS0,θN0,θm0],[θZ1,θf1,θC1,θS1,θN1,θm1],...,[θZn,θfn,θCn,θSn,θNn,θmn]}。
10.根据权利要求9所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(3)中,通过双网络DQN算法获取节能控制策略的方法包括:
初始化记忆单元、当前估值网络以及目标网络TargetQ,随机初始化权重参数θ,初始化权重θ'与估值网络相同;
将环境状态信息建模,再通过DQN算法计算出奖励r后,得到任意状态St下的Q(St,a),然后使用ε-greedy策略执行动作A,得到下一时刻St+1的状态值,并将每个时间步得到的数据(St,a,r,St+1)存入记忆单元;
记忆单元存储设定量数据后,随机选择一个数据(St,a,r,St+1),并将(St,a)、St+1以及r的值分别传递给估值网络、目标网络以及损失函数L(W),并对损失函数的W使用梯度下降法进行更新,获取节能控制策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110037945.0A CN112866021B (zh) | 2021-01-12 | 2021-01-12 | 基于深度强化学习的ai智慧节能动态控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110037945.0A CN112866021B (zh) | 2021-01-12 | 2021-01-12 | 基于深度强化学习的ai智慧节能动态控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112866021A true CN112866021A (zh) | 2021-05-28 |
CN112866021B CN112866021B (zh) | 2021-11-09 |
Family
ID=76002989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110037945.0A Active CN112866021B (zh) | 2021-01-12 | 2021-01-12 | 基于深度强化学习的ai智慧节能动态控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112866021B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115551055A (zh) * | 2021-06-30 | 2022-12-30 | 中国电信股份有限公司 | 基站的节能方法、系统和生产者网元 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019063079A1 (en) * | 2017-09-28 | 2019-04-04 | Siemens Aktiengesellschaft | SYSTEM, DEVICE AND METHOD FOR OPTIMIZING ENERGY AND COMFORT IN AN IMMOTIC ENVIRONMENT |
CN110213025A (zh) * | 2019-05-22 | 2019-09-06 | 浙江大学 | 基于深度强化学习的专用自组网抗干扰方法 |
CN110598906A (zh) * | 2019-08-15 | 2019-12-20 | 珠海米枣智能科技有限公司 | 一种基于深度强化学习的大型商场能耗实时控制方法和系统 |
WO2020022123A1 (ja) * | 2018-07-27 | 2020-01-30 | 日本電信電話株式会社 | 行動最適化装置、方法およびプログラム |
CN111918370A (zh) * | 2020-07-27 | 2020-11-10 | 东联信息技术有限公司 | 基于大数据挖掘及ai调度的无线基站的节能降耗方法 |
-
2021
- 2021-01-12 CN CN202110037945.0A patent/CN112866021B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019063079A1 (en) * | 2017-09-28 | 2019-04-04 | Siemens Aktiengesellschaft | SYSTEM, DEVICE AND METHOD FOR OPTIMIZING ENERGY AND COMFORT IN AN IMMOTIC ENVIRONMENT |
WO2020022123A1 (ja) * | 2018-07-27 | 2020-01-30 | 日本電信電話株式会社 | 行動最適化装置、方法およびプログラム |
CN110213025A (zh) * | 2019-05-22 | 2019-09-06 | 浙江大学 | 基于深度强化学习的专用自组网抗干扰方法 |
CN110598906A (zh) * | 2019-08-15 | 2019-12-20 | 珠海米枣智能科技有限公司 | 一种基于深度强化学习的大型商场能耗实时控制方法和系统 |
CN111918370A (zh) * | 2020-07-27 | 2020-11-10 | 东联信息技术有限公司 | 基于大数据挖掘及ai调度的无线基站的节能降耗方法 |
Non-Patent Citations (1)
Title |
---|
GUOLINSUN等: "Autonomous cell activation for energy saving in cloud-RANs based on dueling deep Q-network", 《KNOWLEDGE-BASED SYSTEMS》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115551055A (zh) * | 2021-06-30 | 2022-12-30 | 中国电信股份有限公司 | 基站的节能方法、系统和生产者网元 |
Also Published As
Publication number | Publication date |
---|---|
CN112866021B (zh) | 2021-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112467722B (zh) | 一种考虑电动汽车充电站的主动配电网源-网-荷-储协调规划方法 | |
CN107690176B (zh) | 一种基于q学习算法的网络选择方法 | |
CN116001624A (zh) | 基于深度强化学习的一桩多联电动汽车有序充电方法 | |
CN114004450A (zh) | 一种电动汽车充电负荷交互式实时定价策略引导的有序充电模型 | |
US11949234B2 (en) | Method for making spatio-temporal combined optimal scheduling strategy of mobile energy storage (MES) system | |
CN105760969A (zh) | 一种基于可控负荷主动响应的智能楼宇电价响应用电方法 | |
CN105429185A (zh) | 一种具有鲁棒协同一致性的经济调度方法 | |
CN112866021B (zh) | 基于深度强化学习的ai智慧节能动态控制方法 | |
CN105893714B (zh) | 基于大电网仿真系统下的自动电压控制系统闭环检测及评估方法 | |
CN111864742B (zh) | 一种主动配电系统扩展规划方法、装置及终端设备 | |
CN111932072A (zh) | 一种基于os2架构的电网综合管控方法及系统 | |
CN115759370A (zh) | 一种基于maddpg算法的映射运行方法 | |
CN110854891B (zh) | 一种配电网灾前资源配置方法及系统 | |
CN116454902A (zh) | 基于强化学习的配电网调压方法、装置、设备和存储介质 | |
CN109740825A (zh) | 一种考虑交通拥堵因素下的电动汽车充放电方法 | |
CN116169702B (zh) | 一种基于强化学习算法的大规模储能充放电方法以及模型 | |
CN114217944A (zh) | 一种神经网络的针对模型并行的动态负载均衡方法 | |
CN116882552A (zh) | 计及电力与交通耦合网络的移动应急资源调度优化方法 | |
CN113839795B (zh) | Cdn节点的消峰处理方法、装置、电子设备及存储介质 | |
CN112990749A (zh) | 一种基于边缘计算的台区低电压智能就地预判方法 | |
CN117559464B (zh) | 一种电力需求响应的调控方法、系统、电子设备及介质 | |
CN118199025B (zh) | 考虑开关频率约束的空调负荷集群聚合与调控方法及装置 | |
CN115118608B (zh) | 快速流量工程方法及装置 | |
WO2023272958A1 (zh) | 一种基于机器学习的储充站控制方法及终端 | |
CN117910624A (zh) | 基于耦合式神经网络的双层电力物联网架构资源分配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |