CN112866021A - 基于深度强化学习的ai智慧节能动态控制方法 - Google Patents

基于深度强化学习的ai智慧节能动态控制方法 Download PDF

Info

Publication number
CN112866021A
CN112866021A CN202110037945.0A CN202110037945A CN112866021A CN 112866021 A CN112866021 A CN 112866021A CN 202110037945 A CN202110037945 A CN 202110037945A CN 112866021 A CN112866021 A CN 112866021A
Authority
CN
China
Prior art keywords
energy
reward
saving
index
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110037945.0A
Other languages
English (en)
Other versions
CN112866021B (zh
Inventor
郭洋
王倩
华奇兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donglian Information Technology Co ltd
China Mobile Chengdu ICT Co Ltd
Original Assignee
Donglian Information Technology Co ltd
China Mobile Chengdu ICT Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donglian Information Technology Co ltd, China Mobile Chengdu ICT Co Ltd filed Critical Donglian Information Technology Co ltd
Priority to CN202110037945.0A priority Critical patent/CN112866021B/zh
Publication of CN112866021A publication Critical patent/CN112866021A/zh
Application granted granted Critical
Publication of CN112866021B publication Critical patent/CN112866021B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0876Aspects of the degree of configuration automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/0833Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network energy consumption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0212Power saving arrangements in terminal devices managed by the network, e.g. network or access point is master and terminal is slave
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明涉及5G节能领域,具体涉及一种基于深度强化学习的AI智慧节能动态控制方法,极大地降低了对人工运维以及人工经验分析的依赖,提高了自动化节能的控制。技术方案概括为,获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;根据环境状态信息建立环境模型;在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。本发明适用于5G基站的节能控制。

Description

基于深度强化学习的AI智慧节能动态控制方法
技术领域
本发明涉及5G节能领域,具体涉及一种基于深度强化学习的AI智慧节能动态控制方法。
背景技术
在工业互联网领域,实现工业设备的节能降耗目标,实现绿色发展,降本增效,是企业发展的重点方向。
对于列入国家新基建反范畴的运营商网络,对于其运营,如何平衡网络性能/用户感知与网络能耗,将影响网络长期的运营效果。
目前现有的技术,关于节能控制,一方面是是单纯从网络负荷的均衡性出发开展网络流量的迁移/切换控制;另一方面迁移的方向是由运维网优人员通过软件参数进行控制,持续性及准确性难以保证。
而现有的4G,5G小区节能技术,更多的是监测本小区的业务流量,从而进行节能操作,缺失区域内的各小区间整体网络业务量的监控,而对于节能时段和节能触发门限的控制,也是由人员来设定,人员的数据分析能力及运维技能及经验在工作中占了比较大的比重。
上述技术的缺陷为:
(1)单纯从网络负荷的均衡性出发开展网络流量的迁移/切换控制,无法保证实时性;
(2)由运维网优人员通过软件参数进行控制,持续性及准确性难以保证;
(3)由于缺乏统计学方法,门限控制等一些重要参数均由人员设置,人工的数据分析能力及运维技能及经验在工作中占了比较大的比重。
发明内容
本发明的目的是提供一种基于深度强化学习的AI智慧节能动态控制方法,极大地降低了对人工运维以及人工经验分析的依赖,提高了自动化节能的控制。
本发明采取如下技术方案实现上述目的,基于深度强化学习的AI智慧节能动态控制方法,包括:
步骤(1)、获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;
步骤(2)、根据环境状态信息建立环境模型;
步骤(3)、在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;
步骤(4)、通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。
进一步的是,在步骤(1)中,所述4G状态指标包括:MR指标,保持性指标,接入性指标,业务量迁移比,资源利用率指标以及信令连接比指标。
进一步的是,在步骤(1)中,所述5G状态指标包括:双连接用户数,双连接终端数,双连接添加尝试次数,5G在服比、5G KPI达标率、以及业务量迁移比。
进一步的是,在步骤(1)中,所述环境状态信息还包括:话务量数据信息、投诉万投比以及外部气象因素。
进一步的是,在步骤(2)中,根据环境状态信息建立环境模型包括:将节能控制问题建模为马尔科夫决策过程模型,并定义其中的状态,动作以及奖赏函数。
进一步的是,所述定义状态的具体方法包括:
选择投诉万投比、接入性指标、5G在服比指标以及话务量数据信息为环境状态信息;
设t时刻,投诉万投比为Mt、接入性指标为Mj、5G在服比指标为Mz,此时话务量数据信息为Mh,则状态St=(Mt,Mj,Mz,Mh)。
进一步的是,所述定义动作的具体方法包括:
设置4G增容层业务量权重值为θZ、4G覆盖层业务量权重值为θf、4G转5G预测业务量权重值为θC、5G SA预测业务量权重值为θS、5G NSA预测业务量权重值为θN以及4G峰值业务量权重值为θm
若t时刻采取的动作为调高或调低业务量的权重值,则其动作a的集合为,a={[θZ0,θf0,θC0,θS0,θN0,θm0],[θZ1,θf1,θC1,θS1,θN1,θm1],...,[θZn,θfn,θCn,θSn,θNn,θmn]}。
进一步的是,所述定义奖赏函数的具体方法包括:
选择5G KPI达标率K以及投诉万投比T作为评测指标;
若K<90%或者T>100,则设置奖赏函数r=-1;
若K>90%,并且T<100,则奖赏函数r=W1(E_reward)+W2(K_reward)+W3(T_reward),
Figure BDA0002894940690000021
W1、W2以及W3分别表示权重参数,E_reward表示节能奖励参数,K_reward表示KPI奖励参数,T_reward表示投诉比奖励参数,Emax表示基站站点最大能耗,Et表示t时刻基站站点能耗。
进一步的是,在步骤(2)中,根据环境状态信息建立环境模型还包括建立价值函数回报模型,所述建立价值函数回报模型的具体方法包括:
设G(S,a)表示在状态S下采用动作a的回报值,则
Figure BDA0002894940690000031
λ是折扣因子,则价值函数Q(S,a)=E[G(S,a)],表示价值函数Q(S,a)为G(S,a)的期望。
进一步的是,在步骤(3)中,通过双网络DQN算法获取节能控制策略的方法包括:
初始化记忆单元、当前估值网络以及目标网络TargetQ,随机初始化权重参数θ,初始化权重θ'与估值网络相同;
将环境状态信息建模,再通过DQN算法计算出奖励r后,得到任意状态St下的Q(St,a),然后使用ε-greedy策略执行动作A,得到下一时刻St+1的状态值,并将每个时间步得到的数据(St,a,r,St+1)存入记忆单元;
建立损失函数,损失函数L(θ)=E[(TargetQ-Q(St,a;θ))]2
Figure BDA0002894940690000032
r为当前状态转移到下一个状态的即时奖励,γ为折扣因子;
记忆单元存储设定量数据后,随机选择一个数据(St,a,r,St+1),并将(St,a)、St+1以及r的值分别传递给估值网络、目标网络以及损失函数L(W),并对损失函数的W使用梯度下降法进行更新,获取节能控制策略。
本发明对4G,5G环境状态信息进行采样建模,在模型中加入DQN算法,通过DQN算法获取节能控制策略,避免了通过人工进行参数设置以及通过人工经验进行分析;并且在建模过程中,将节能控制问题建模为马尔科夫决策过程模型,结合4G,5G的状态指标,定义其中的状态、动作以及鉴赏函数,保证了KPI达标率以及投诉万投比在符合要求的同时进行节能策略计算;并且还建立了损失函数,对损失函数的自变量采用梯度下降法进行更新,保证了节能策略的实时性与准确性。
附图说明
图1是本发明基于深度强化学习的AI智慧节能动态控制的方法流程图。
具体实施方式
本发明基于深度强化学习的AI智慧节能动态控制方法,其方法流程图如图1,包括:
步骤101、获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;
步骤102、根据环境状态信息建立环境模型;
步骤103、在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;
步骤104、通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。
在步骤101中,所述4G状态指标包括:MR指标,保持性指标,接入性指标,业务量迁移比,资源利用率指标以及信令连接比指标。
在步骤101中,所述5G状态指标包括:双连接用户数,双连接终端数,双连接添加尝试次数,5G在服比、5G KPI达标率、以及业务量迁移比。
在步骤101中,所述环境状态信息还包括:话务量数据信息、投诉万投比以及外部气象因素。
在步骤102中,根据环境状态信息建立环境模型包括:将节能控制问题建模为马尔科夫决策过程模型,并定义其中的状态,动作以及奖赏函数。
其中定义状态的具体方法包括:
选择投诉万投比、接入性指标、5G在服比指标以及话务量数据信息为环境状态信息;
设t时刻,投诉万投比为Mt、接入性指标为Mj、5G在服比指标为Mz,此时话务量数据信息为Mh,则状态St=(Mt,Mj,Mz,Mh)。
定义动作的具体方法包括:
设置4G增容层业务量权重值为θZ、4G覆盖层业务量权重值为θf、4G转5G预测业务量权重值为θC、5G SA预测业务量权重值为θS、5G NSA预测业务量权重值为θN以及4G峰值业务量权重值为θm
若t时刻采取的动作为调高或调低业务量的权重值,则其动作a的集合为,a={[θZ0,θf0,θC0,θS0,θN0,θm0],[θZ1,θf1,θC1,θS1,θN1,θm1],...,[θZn,θfn,θCn,θSn,θNn,θmn]}。
定义奖赏函数的具体方法包括:
选择5G KPI达标率K以及投诉万投比T作为评测指标;
若K<90%或者T>100,则设置奖赏函数r=-1;
若K>90%,并且T<100,则奖赏函数r=W1(E_reward)+W2(K_reward)+W3(T_reward),
Figure BDA0002894940690000041
W1、W2以及W3分别表示权重参数,E_reward表示节能奖励参数,K_reward表示KPI奖励参数,T_reward表示投诉比奖励参数,Emax表示基站站点最大能耗,Et表示t时刻基站站点能耗。
鉴赏函数与评测指标有关,节能目标是在保障评测指标达标的情况下,达到能耗最低,其中5G KPI达标率(指标要求>90%,即保障KPI达标率90%以上),投诉万投比(指标要求<100,即当月投诉客户总量/当月收费客户总量×10000<100)。
奖赏值r值作为模型最终评价标准,是能耗参数,KPI达标率,投诉万投比的加权值,当三个相关参数越大时,r的值就越大,模型需要的就是尽可能大的r值。也就是说,当KPI达标率越接近100%,投诉万投比越接近0,能耗值越低时,模型获得的r值就越大;反之则模型获得的r值就越小。当然,首先需要考虑的是站点评测指标达标,若因为节能,使相关指标没有达到运营要求,r就会给一个负反馈值-1。这便是控制器要达到的最终目的——在不影响站点正常运营的条件下达到节能的目的。
在步骤102中,根据环境状态信息建立环境模型还包括建立价值函数回报模型,所述建立价值函数回报模型的具体方法包括:
设G(S,a)表示在状态S下采用动作a的回报值,则
Figure BDA0002894940690000051
λ是折扣因子,则价值函数Q(S,a)=E[G(S,a)],表示价值函数Q(S,a)为G(S,a)的期望。
在步骤103中,通过双网络DQN算法获取节能控制策略的方法包括:
初始化记忆单元、当前估值网络以及目标网络TargetQ,随机初始化权重参数θ,初始化权重θ'与估值网络相同;
将环境状态信息建模,再通过DQN算法计算出奖励r后,得到任意状态St下的Q(St,a),然后使用ε-greedy策略执行动作A,得到下一时刻St+1的状态值,并将每个时间步得到的数据(St,a,r,St+1)存入记忆单元;
建立损失函数,损失函数L(θ)=E[(TargetQ-Q(St,a;θ))]2
Figure BDA0002894940690000052
r为当前状态转移到下一个状态的即时奖励,γ为折扣因子;
记忆单元存储设定量数据后,随机选择一个数据(St,a,r,St+1),并将(St,a)、St+1以及r的值分别传递给估值网络、目标网络以及损失函数L(W),并对损失函数的W使用梯度下降法进行更新,获取节能控制策略。
双网络DQN算法更新值函数的方式如下:
Q(St,a)←Q(St,a)+β[r+λmaxat+1Q(St+1,at+1)-Q(St,a)];其中β为学习率,λ为折扣因子,根据实际收敛情况调整,每多次迭代后更新目标值网络的参数为估值网络的参数。
综上所述,本发明极大地降低了对人工运维以及人工经验分析的依赖,提高了自动化节能的控制,还保证了节能策略的实时性与准确性。

Claims (10)

1.基于深度强化学习的AI智慧节能动态控制方法,其特征在于,包括:
步骤(1)、获取环境状态信息,所述环境状态信息包括4G状态指标以及5G状态指标;
步骤(2)、根据环境状态信息建立环境模型;
步骤(3)、在环境模型中加入双网络DQN算法,通过双网络DQN算法获取节能控制策略;
步骤(4)、通过节能控制策略生成对应的节能控制指令,并通过节能控制指令进行节能动态控制。
2.根据权利要求1所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(1)中,所述4G状态指标包括:MR指标,保持性指标,接入性指标,业务量迁移比,资源利用率指标以及信令连接比指标。
3.根据权利要求2所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(1)中,所述5G状态指标包括:双连接用户数,双连接终端数,双连接添加尝试次数,5G在服比、5G KPI达标率、以及业务量迁移比。
4.根据权利要求3所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(1)中,所述环境状态信息还包括:话务量数据信息、投诉万投比以及外部气象因素。
5.根据权利要求4所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(2)中,根据环境状态信息建立环境模型包括:将节能控制问题建模为马尔科夫决策过程模型,并定义其中的状态,动作以及奖赏函数。
6.根据权利要求5所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,所述定义状态的具体方法包括:
选择投诉万投比、接入性指标、5G在服比指标以及话务量数据信息为环境状态信息;
设t时刻,投诉万投比为Mt、接入性指标为Mj、5G在服比指标为Mz,此时话务量数据信息为Mh,则状态St=(Mt,Mj,Mz,Mh)。
7.根据权利要求6所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,所述定义动作的具体方法包括:
设置4G增容层业务量权重值为θZ、4G覆盖层业务量权重值为θf、4G转5G预测业务量权重值为θC、5G SA预测业务量权重值为θS、5G NSA预测业务量权重值为θN以及4G峰值业务量权重值为θm
若t时刻采取的动作为调高或调低业务量的权重值,则其动作a的集合为,a={[θZ0,θf0,θC0,θS0,θN0,θm0],[θZ1,θf1,θC1,θS1,θN1,θm1],...,[θZn,θfn,θCn,θSn,θNn,θmn]}。
8.根据权利要求7所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,所述定义奖赏函数的具体方法包括:
选择5G KPI达标率K以及投诉万投比T作为评测指标;
若K<90%或者T>100,则设置奖赏函数r=-1;
若K>90%,并且T<100,则奖赏函数r=W1(E_reward)+W2(K_reward)+W3(T_reward),
Figure FDA0002894940680000021
W1、W2以及W3分别表示权重参数,E_reward表示节能奖励参数,K_reward表示KPI奖励参数,T_reward表示投诉比奖励参数,Emax表示基站站点最大能耗,Et表示t时刻基站站点能耗。
9.根据权利要求8所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(2)中,根据环境状态信息建立环境模型还包括建立价值函数回报模型,所述建立价值函数回报模型的具体方法包括:
设G(S,a)表示在状态S下采用动作a的回报值,则
Figure FDA0002894940680000022
λ是折扣因子,则价值函数Q(S,a)=E[G(S,a)],表示价值函数Q(S,a)为G(S,a)的期望。
10.根据权利要求9所述的基于深度强化学习的AI智慧节能动态控制方法,其特征在于,在步骤(3)中,通过双网络DQN算法获取节能控制策略的方法包括:
初始化记忆单元、当前估值网络以及目标网络TargetQ,随机初始化权重参数θ,初始化权重θ'与估值网络相同;
将环境状态信息建模,再通过DQN算法计算出奖励r后,得到任意状态St下的Q(St,a),然后使用ε-greedy策略执行动作A,得到下一时刻St+1的状态值,并将每个时间步得到的数据(St,a,r,St+1)存入记忆单元;
建立损失函数,损失函数L(θ)=E[(TargetQ-Q(St,a;θ))]2
Figure FDA0002894940680000023
r为当前状态转移到下一个状态的即时奖励,γ为折扣因子;
记忆单元存储设定量数据后,随机选择一个数据(St,a,r,St+1),并将(St,a)、St+1以及r的值分别传递给估值网络、目标网络以及损失函数L(W),并对损失函数的W使用梯度下降法进行更新,获取节能控制策略。
CN202110037945.0A 2021-01-12 2021-01-12 基于深度强化学习的ai智慧节能动态控制方法 Active CN112866021B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110037945.0A CN112866021B (zh) 2021-01-12 2021-01-12 基于深度强化学习的ai智慧节能动态控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110037945.0A CN112866021B (zh) 2021-01-12 2021-01-12 基于深度强化学习的ai智慧节能动态控制方法

Publications (2)

Publication Number Publication Date
CN112866021A true CN112866021A (zh) 2021-05-28
CN112866021B CN112866021B (zh) 2021-11-09

Family

ID=76002989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110037945.0A Active CN112866021B (zh) 2021-01-12 2021-01-12 基于深度强化学习的ai智慧节能动态控制方法

Country Status (1)

Country Link
CN (1) CN112866021B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115551055A (zh) * 2021-06-30 2022-12-30 中国电信股份有限公司 基站的节能方法、系统和生产者网元

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019063079A1 (en) * 2017-09-28 2019-04-04 Siemens Aktiengesellschaft SYSTEM, DEVICE AND METHOD FOR OPTIMIZING ENERGY AND COMFORT IN AN IMMOTIC ENVIRONMENT
CN110213025A (zh) * 2019-05-22 2019-09-06 浙江大学 基于深度强化学习的专用自组网抗干扰方法
CN110598906A (zh) * 2019-08-15 2019-12-20 珠海米枣智能科技有限公司 一种基于深度强化学习的大型商场能耗实时控制方法和系统
WO2020022123A1 (ja) * 2018-07-27 2020-01-30 日本電信電話株式会社 行動最適化装置、方法およびプログラム
CN111918370A (zh) * 2020-07-27 2020-11-10 东联信息技术有限公司 基于大数据挖掘及ai调度的无线基站的节能降耗方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019063079A1 (en) * 2017-09-28 2019-04-04 Siemens Aktiengesellschaft SYSTEM, DEVICE AND METHOD FOR OPTIMIZING ENERGY AND COMFORT IN AN IMMOTIC ENVIRONMENT
WO2020022123A1 (ja) * 2018-07-27 2020-01-30 日本電信電話株式会社 行動最適化装置、方法およびプログラム
CN110213025A (zh) * 2019-05-22 2019-09-06 浙江大学 基于深度强化学习的专用自组网抗干扰方法
CN110598906A (zh) * 2019-08-15 2019-12-20 珠海米枣智能科技有限公司 一种基于深度强化学习的大型商场能耗实时控制方法和系统
CN111918370A (zh) * 2020-07-27 2020-11-10 东联信息技术有限公司 基于大数据挖掘及ai调度的无线基站的节能降耗方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GUOLINSUN等: "Autonomous cell activation for energy saving in cloud-RANs based on dueling deep Q-network", 《KNOWLEDGE-BASED SYSTEMS》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115551055A (zh) * 2021-06-30 2022-12-30 中国电信股份有限公司 基站的节能方法、系统和生产者网元

Also Published As

Publication number Publication date
CN112866021B (zh) 2021-11-09

Similar Documents

Publication Publication Date Title
CN112467722B (zh) 一种考虑电动汽车充电站的主动配电网源-网-荷-储协调规划方法
CN107690176B (zh) 一种基于q学习算法的网络选择方法
CN116001624A (zh) 基于深度强化学习的一桩多联电动汽车有序充电方法
CN114004450A (zh) 一种电动汽车充电负荷交互式实时定价策略引导的有序充电模型
US11949234B2 (en) Method for making spatio-temporal combined optimal scheduling strategy of mobile energy storage (MES) system
CN105760969A (zh) 一种基于可控负荷主动响应的智能楼宇电价响应用电方法
CN105429185A (zh) 一种具有鲁棒协同一致性的经济调度方法
CN112866021B (zh) 基于深度强化学习的ai智慧节能动态控制方法
CN105893714B (zh) 基于大电网仿真系统下的自动电压控制系统闭环检测及评估方法
CN111864742B (zh) 一种主动配电系统扩展规划方法、装置及终端设备
CN111932072A (zh) 一种基于os2架构的电网综合管控方法及系统
CN115759370A (zh) 一种基于maddpg算法的映射运行方法
CN110854891B (zh) 一种配电网灾前资源配置方法及系统
CN116454902A (zh) 基于强化学习的配电网调压方法、装置、设备和存储介质
CN109740825A (zh) 一种考虑交通拥堵因素下的电动汽车充放电方法
CN116169702B (zh) 一种基于强化学习算法的大规模储能充放电方法以及模型
CN114217944A (zh) 一种神经网络的针对模型并行的动态负载均衡方法
CN116882552A (zh) 计及电力与交通耦合网络的移动应急资源调度优化方法
CN113839795B (zh) Cdn节点的消峰处理方法、装置、电子设备及存储介质
CN112990749A (zh) 一种基于边缘计算的台区低电压智能就地预判方法
CN117559464B (zh) 一种电力需求响应的调控方法、系统、电子设备及介质
CN118199025B (zh) 考虑开关频率约束的空调负荷集群聚合与调控方法及装置
CN115118608B (zh) 快速流量工程方法及装置
WO2023272958A1 (zh) 一种基于机器学习的储充站控制方法及终端
CN117910624A (zh) 基于耦合式神经网络的双层电力物联网架构资源分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant