CN112637806A - 基于深度强化学习的变电站监测系统及其资源调度方法 - Google Patents

基于深度强化学习的变电站监测系统及其资源调度方法 Download PDF

Info

Publication number
CN112637806A
CN112637806A CN202011478035.8A CN202011478035A CN112637806A CN 112637806 A CN112637806 A CN 112637806A CN 202011478035 A CN202011478035 A CN 202011478035A CN 112637806 A CN112637806 A CN 112637806A
Authority
CN
China
Prior art keywords
data
network
formula
sensor
data packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011478035.8A
Other languages
English (en)
Other versions
CN112637806B (zh
Inventor
李奇越
朱亚东
丁津津
高博
孙辉
张峰
汪勋婷
孙伟
李帷韬
邓玉星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd
Hefei University of Technology
Original Assignee
Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd, Hefei University of Technology filed Critical Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd
Priority to CN202011478035.8A priority Critical patent/CN112637806B/zh
Publication of CN112637806A publication Critical patent/CN112637806A/zh
Application granted granted Critical
Publication of CN112637806B publication Critical patent/CN112637806B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/06Testing, supervising or monitoring using simulated traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S40/00Systems for electrical power generation, transmission, distribution or end-user application management characterised by the use of communication or information technologies, or communication or information technology specific aspects supporting them
    • Y04S40/12Systems for electrical power generation, transmission, distribution or end-user application management characterised by the use of communication or information technologies, or communication or information technology specific aspects supporting them characterised by data transport means between the monitoring, controlling or managing units and monitored, controlled or operated electrical equipment
    • Y04S40/128Systems for electrical power generation, transmission, distribution or end-user application management characterised by the use of communication or information technologies, or communication or information technology specific aspects supporting them characterised by data transport means between the monitoring, controlling or managing units and monitored, controlled or operated electrical equipment involving the use of Internet protocol

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种基于深度强化学习的变电站监测系统及其资源调度方法,该系统包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、电力无线专网基站、拥有多个神经网络的边缘设备和远程云端的系统,该系统采集电网状态进行基于神经网络的异常监测,有两种数据传输的方法:一是将传感器采集的数据通过LTE‑A无线通信接口传输到电力无线专网基站,再通过互联网传输到云端进行处理;二是将传感器采集的数据通过WIFI传输到边缘设备,选择不同的神经网络处理。本发明在时变的互联网时延的环境中,并在满足数据传输时延的要求下,能优化分配无线通信资源与边缘设备的计算资源,使得最大化系统的吞吐量。

Description

基于深度强化学习的变电站监测系统及其资源调度方法
技术领域
本发明涉及变电站监测和资源分配与调度领域,尤其涉及一种基于深度强化学习的变电站监测系统及其资源调度方法,适用于变电站中对数据进行实时异常监测。
背景技术
变电站的智能化是电网发展的必然产物,物联网技术应用于变电站是信息通信技术发展到一定阶段的必然趋势。将物联网技术广泛应用在变电站中,能够使信息通信技术更好的服务于电力行业,有效地为电网中的发电、输电、变电、配电、用电、调度等环节提供重要技术支撑,提高电力系统信息化水平,从而改善现有电力系统基础设施的利用效率,促进能源的高效利用。变电站的故障监测一直都是一个不可避免的问题,是通过测量和分析故障后电网中电流、电压等电气量以及保护和断路器动作的开关量变化信息,识别故障原因。良好的监控系统对于及时发现和处理故障以及预防事故具有重要意义。
边缘计算是在靠近物或数据源头的网络边缘侧,融合网络、计算、存储、应用核心能力的分布式开放平台,就近提供边缘智能服务,满足行业数字化在敏捷联接、实时业务、数据优化、应用智能、安全与隐私保护等方面的关键需求。众所周知,边缘计算是将基础设施资源进行分布式部署再统一管理的。资源较为集中的称为“云”,资源量较少的部署点称为“边缘”,并在边缘计算云平台中存在少数的云和多数的边缘,因此如何进行平台的资源调度变成十分重要。
北京邮电大学高辉等考虑了一个多用户MEC系统(WCNC,2018.8377343),其中多用户设备可以通过无线信道进行计算卸载到一个MEC服务器上。将所有问题的延迟成本和能量消耗的总和表示为优化目标。为了使所考虑的MEC系统的总代价最小,共同优化了卸载决策和计算资源分配。为此,提出了基于强化学习的优化框架来解决无线MEC中的资源分配问题。具体来说,分别提出了基于Q-learning和基于深度强化学习的方案。但是,该文献仅对资源分配后的情况进行了分析,却没有考虑分配的必要性。而且,Q-learning算法会造成大的状态和动作空间,导致计算的复杂度极高。
福建农林大学计算机与信息学院刘庆年等实现了智能电网大数据异常状态实时监测仿真(计算机仿,1006-9348(2019)03-0364-04),针对当前方法存在的监测速度慢、准确率低的问题,提出了一种基于熵序列的智能电网数据流异常状态监测方法。该方法具有较高的监测精度,实用性较强。但是该方法算法较为复杂,实时性还可以提高。
南昌诺汇医药科技有限公司何月顺发明了一种智能变电站监测系统(公开号:CN110830945A),该系统包括环境感知模块、数据收集模块、云服务器和智能监测中心,所述环境感知模块利用传感器节点监测变电站环境参数,并通过无线传感器网络将监测所得的环境参数信息传输至数据收集模块,由数据收集模块将收集的环境参数监测信息传输至云服务器,云服务器对接收到的环境参数监测信息进行存储,智能监测中心从云服务器中调取所述环境参数监测信息,并根据所述环境参数监测信息对变电站的安全状态进行评估,当评估变电站存在危险时即进行预警。但是文章没有利用云边协同,无法解决云端延迟大的缺点,系统的实时性较差。
发明内容
本发明是为避免上述现有技术所存在的不足之处,提供了一种基于深度强化学习的变电站监测系统及其资源调度方法,以期能在满足数据传输时延的要求下,优化分配无线通信资源与边缘设备的计算资源,使得最大化系统的吞吐量,从而提高云边协同系统的时间效率、资源利用率。
本发明为解决技术问题采用如下技术方案:
本发明一种基于深度强化学习的变电站监测系统的特点是包括:包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、一个电力无线专网基站、一个拥有多个神经网络的边缘设备和一个远程云端;
所述无线传感器网络节点包括:WIFI和LTE-A的两种无线通信接口、传感器和微处理器单元;
所述深度强化学习智能体,收集互联网延迟和传感器采集的数据包长度信息实时做出决策,再将决策返回给传感器;
所述边缘设备包括:WIFI无线通信接口和运行多种神经网络的嵌入式微处理器;其中,每个神经网络的精度不同,消耗的计算资源不同,且均用于对电压和电流时序数据进行异常检测;
所述远程云端包括:LTE-A无线通信接口、互联网接口和神经网络模型;
所述传感器通过电力无线专网基站将数据包传输给云端:传感器将采集的数据通过LTE-A无线通信接口传输给所述电力无线专网基站,所述电力无线专网基站对所接收到的数据进行处理后,再通过互联网将处理后的数据上传至所述远程云端,由远程云端中的神经网络模型对处理后的数据进行实时异常状态监测,一旦数据发生异常,则找出故障并排除,从而实现从传感器到电力无线专网基站再到云端的数据传输和处理过程;
所述将传感器的数据传输给边缘设备:传感器将采集的数据通过WIFI无线通信接口传输给所述边缘设备,所述边缘设备中的嵌入式微处理器中的不同精度的神经网络对所接收到的数据进行实时异常状态监测,一旦数据发生异常,则找出故障并排除,从而实现从传感器到边缘设备的数据传输和处理过程。
本发明一种基于深度强化学习的变电站监测系统的资源调度方法的特点是应用于由包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、一个电力无线专网基站、一个拥有多个神经网络的边缘设备和一个远程云端所组成的智能电网监测系统中,并按如下步骤进行:
步骤一、在所述智能电网监测系统中,将用于采集的传感器编号为{1,2,...,n,...,N},n表示第n种传感器的序号,1≤n≤N;
定义不同神经网络的精度为{Q1,Q2,...,Qa,...,QA},其中,Qa表示第a种神经网络的精度,μmax表示总的计算资源,μa表示精度为Qa的神经网络分得的计算资源,1≤a≤A;
定义QA+1表示远程云端的计算精度;
步骤二、假设一段时间内第n种传感器共传输In个数据包,每个数据包传输Ln位数据且传输周期为Tp,n,计算数据包在延迟限制内成功传输到边缘设备或远程云端的概率;
步骤三、建立以计算精度、数据成功到达概率及数据包大小的乘积最大值为目标函数,
根据计算资源、通信资源和设备硬件的限制因素,建立一系列约束条件,从而构建基于深度强化学习的资源分配和调度模型;
步骤四、采用深度强化学习算法对基于深度强化学习的资源分配和调度模型进行求解,得到最优解,采用最优解所表示的最优资源分配方案将采集的数据传输给无线网络,从而实现资源分配和调度。
本发明所述的基于深度强化学习的变电站监测系统的资源调度方法的特点也在于,所述步骤二是按如下过程进行:
步骤2.1、利用式(2-1)得到数据包被无错传输的概率P:
Figure BDA0002836292340000031
式(2-1)中,
Figure BDA0002836292340000032
表示带宽资源,
Figure BDA0002836292340000033
表示无线通信的信道增益,
Figure BDA0002836292340000034
表示信噪比、
Figure BDA0002836292340000035
表示传输速率,其中,
Figure BDA0002836292340000036
时表示选择远程云端传输数据,
Figure BDA0002836292340000037
时表示选择边缘设备传输数据;
对于第n个传感器产生的数据包,传输时间是
Figure BDA0002836292340000041
Ln表示第n个数据包的大小,利用式(2-2)得到数据包无错传输的概率与传输时间的比值,即无线信道的服务速率
Figure BDA0002836292340000042
Figure BDA0002836292340000043
利用式(2-3)得到无线传输延迟概率
Figure BDA0002836292340000044
Figure BDA0002836292340000045
式(2-3)中,
Figure BDA0002836292340000046
表示到第n种传感器传送的数据在无线通信中实际传输的时间,
Figure BDA0002836292340000047
为无线传输的延迟限制,λec分别表示数据传输到边缘设备和云端过程中无线通信的到达率,并有:
Figure BDA0002836292340000048
式(2-4)中,xn,i表示第n种传感器的第i个数据包是发送给边缘设备处理还是发送给远程云端,xn,i=1表示数据从传感器传输到边缘设备,xn,i=0表示数据从传感器传送到远程云端;
步骤2.2、利用式(2-5)得到第n种传感器在互联网中的传输延迟限制Tc,n的概率函数P(tc,n≤Tc,n):
Figure BDA0002836292340000049
式(2-4)中,tc,n表示第n种传感器传送的数据在无线网络中实际传输的时间,σ2表示时间tc,n的方差,μ表示时间tc,n的数学期望。
所述步骤三是按如下过程进行:
步骤3.1、利用式(3-1)构建目标函数:
Figure BDA00028362923400000410
式(3-1)中,Ln是第n个数据包的大小,yn,i,a表示第n种传感器的第i个数据包是否发送给边缘设备中精度为Qa的神经网络处理;Tn表示第n种传感器的延迟限制;t表示数据在实际传输中的总时间;Pe,a,n(t≤Tn)表示第n种传感器的数据传送给边缘设备中精度为Qa的神经网络处理的无线传输延迟与计算延迟之和小于延时限制的概率,并有:
Figure BDA0002836292340000051
式(3-2)中,Te,a,n表示第n种传感器传输的数据在精度为Qa的神经网络中的计算延迟;
式(3-1)中,Pc,n(t≤Tn)表示第n种传感器的数据传送给云端时数据到基站的无线传输延迟与基站到云的互联网传输延迟之和小于延时限制的概率,并有:
Figure BDA0002836292340000052
步骤3.2、利用式(3-4)-式(3-8)构建约束条件:
xn,i∈{0,1} (3-4)
yn,i,a∈{0,1} (3-5)
Figure BDA0002836292340000053
Figure BDA0002836292340000054
式(3-4)表示xn,i只能等于0或1,即第n种传感器的第i个数据包只能传送给边缘或者远程云端;
式(3-5)表示yn,i,a只能等于0或1,即第n种传感器的第i个数据包是否传给精度为Qa的神经网络;
式(3-6)表示当数据传输给边缘设备时,必须选择一种精度的神经网络;
式(3-7)表示任意一个神经网络分得的计算资源需小于总资源。
所述步骤四是按如下过程进行:
步骤4.1、利用式(4-1)得到改写后的目标函数R(τ):
Figure BDA0002836292340000061
式(4-1)中,Li是第i个数据包的大小,Qi是第i个数据包传输时选择的精度,Pi是第i个数据包传输延迟小于延迟限制的概率;τ表示一种策略;
步骤4.2、基于指针网络训练模型参数:
所述指针网络由编码器和解码器组成,所述编码器和解码器均由LSTM单元组成;
步骤4.2.1、编码阶段,所述编码器每次读取n个数据包中读取一个数据包的输入序列,得到第i个数据包对应的隐状态hi,i=1,...,n,所述输入序列包括互联网延迟和数据包的长度;
步骤4.2.2、解码阶段,第一个LSTM单元的输入是神经网络训练的参数,并输出第1个隐状态x1,从第二个LSTM单元开始,用前一个LSTM单元的输出作为第二个LSTM单元的输入,则第j个LSTM单元输出第j个隐状态xj,j=1,...,n;
步骤4.2.3、根据式(4-2),式(4-3)分别计算第j个LSTM单元对第i个数据包输出的概率分布
Figure BDA0002836292340000062
和第j个解码器分配给第i个数据包的输入序列的权重
Figure BDA0002836292340000063
Figure BDA0002836292340000064
Figure BDA0002836292340000065
式(4-2)中,v是需要学习的参数,Wh是编码阶段的参数,Ws是解码阶段的参数;
步骤4.3、使用策略梯度算法对所述指针网络进行优化:
定义Actor网络和Critic网络的结构与所述指针网络的结构相同,所述Actor网络用于生成动作和环境互动,Critic网络用于评价Actor网络的表现,并指导Actor网络下一阶段的动作;
步骤4.3.1、在Actor网络下,假设策略τ引导智能体经历一个轨迹,即τ=(s1,a1,s2,a2,...,si,ai);其中,si是在第i步时的状态,ai是在第i步时选择的动作;
步骤4.3.2、利用式(4-4)得到所述轨迹在策略τ的引导下出现的概率pθ(τ):
Figure BDA0002836292340000066
步骤4.3.3、利用式(4-5)求解改写后的目标函数R(τ)的期望J(θ):
Figure BDA0002836292340000071
式(4-5)中,θ表示Actor网络的参数;
步骤4.3.4、利用式(4-6)建立期望J(θ)的目标函数:
Figure BDA0002836292340000072
步骤4.3.5、利用式(4-7)计算目标函数的梯度▽J(θ):
Figure BDA0002836292340000073
步骤4.3.6、利用式(4-8)得到在当前策略τ下采样N条轨迹后的平均值▽J′(θ):
Figure BDA0002836292340000074
式(4-8)中,τi表示采样的第i条轨迹;
步骤4.3.7、利用式(4-9)得到引入一个基准线b后的梯度▽J″(θ):
Figure BDA0002836292340000075
步骤4.3.8、利用式(4-10)对梯度▽J″(θ)进行优化,得到优化后的Actor网络的参数θ′;
θ′←θ+α▽J″(θ) (4-10)
式(4-10)中,α是Actor网络的学习率,←表示参数θ更新为θ';
步骤4.3.9、利用式(4-11)得到均方差C(θc);
Figure BDA0002836292340000076
式(4-11)中,θc为所述Critic网络的参数,bθc为所述Critic网络的输出;
步骤4.3.10、利用式(4-12)对均方差C(θc)的梯度▽C(θc)进行训练,得到训练后的Critic网络的参数θc′;
θc′←θcc▽C(θc) (4-12)
式(4-12)中,αc是Actor网络的学习率;
步骤4.3.11、将优化后的Actor网络的参数θ′和训练后的Critic网络的参数θc′带入步骤4.3.2-步骤4.3.10进行迭代训练,得到训练好的最优参数θ*所对应的最优Actor网络以及最优参数
Figure BDA0002836292340000081
所对应的最优Critic网络;
步骤4.3.11、将n个数据数据包输入所述最优Actor网络和最优Critic网络,并由所述最优Actor网络的输出最优解,根据所述最优解所对应的最优资源分配方案,将采集的数据传输给无线网络,从而实现资源分配和调度。
与现有技术相比,本发明的有益效果体现在:
1.本发明设计了一种云边协同的变电站监测系统,该系统包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、一个电力无线专网、一个拥有多个精度不同、消耗计算资源不同的神经网络的边缘设备和一个远程云端的系统,该系统比一般变电站监测系统多加了深度强化学习智能体和边缘设备,大大降低了数据传输过程中的延迟,可以更快的采集电网状态并进行基于深度神经网络的实时异常监测,结构简单但是监测效果良好。
2.本发明设计了一种基于深度强化学习的资源分配和调度的方法,首先根据精度、时延要求不同设置了不同的监测异常数据的路径,其次在保证了在数据满足传输时延的要求下,将资源分配和调度的方法转化为一种非线性整数规划问题,优化分配了无线通信资源与边缘设备的计算资源,最后联合约束条件和深度强化学习算法求出目标函数非线性整数规划问题的解,使得最大化系统的吞吐量。该方法设置了不同的精度等级和不同的时延要求,最大化利用了无线通信资源和计算资源,优化了变电站的监测方法。
附图说明
图1为本发明变电站监测系统的架构图;
图2a为本发明边缘设备中精度为Q1的神经网络的层级结构图;
图2b为本发明边缘设备中精度为Q2的神经网络的层级结构图;
图2c为本发明边缘设备中精度为Q3的神经网络的层级结构图。
具体实施方式
本实施例中,如图1所示,一种云边协同的变电站监测系统是包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、一个电力无线专网基站、一个拥有多个神经网络的边缘设备和一个远程云端的系统;
其中,无线传感器网络节点包括:WIFI和LTE-A的两种无线通信接口、传感器和微处理器单元;
深度强化学习智能体包括:收集互联网延迟和数据包长度信息实时做出卸载决策;
边缘设备包括:WIFI无线通信接口和运行多种神经网络的嵌入式微处理器;其中,每个神经网络的精度不同,消耗的计算资源不同,且均用于对电压和电流时序数据进行异常检测;
云端包括:LTE-A无线通信接口、互联网接口和神经网络模型;
传感器通过电力无线专网基站将数据包传输给云端:传感器将采集的数据通过LTE-A无线通信接口传输给电力无线专网基站,电力无线专网基站对所接收到的数据进行一定的处理后,再通过互联网将处理后的数据上传至云端,由云端中的神经网络模型对处理后的数据进行实时异常状态监测,一旦数据发生异常,则找出故障并排除,从而实现从传感器到电力无线专网基站再到云端的数据传输和处理过程;
传感器的数据传输给边缘设备:传感器将采集的数据通过WIFI无线通信接口传输给边缘设备,边缘设备中的嵌入式微处理器中的不同精度的神经网络对所接收到的数据进行实时异常状态监测,一旦数据发生异常,则找出故障并排除,从而实现从传感器到边缘设备的数据传输和处理过程。
如图1所示,一种基于深度强化学习的变电站监测系统的资源调度方法是按如下步骤进行:
步骤一、在变电站监测系统中,将需要采集的传感器编号{1,2,...,n,...,N},n表示第n种传感器的序号,1≤n≤N,本实例中,有测量电压、电流、谐波和有功功率共四种数据类型的传感器,各个传感器进行编号{1,2,3,4};定义不同神经网络的精度为{Q1,Q2,...,Qa,...,QA},其中Qa表示第a种神经网络的精度,μmax表示总的计算资源,μa表示精度为Qa的神经网络分得的计算资源,1≤a≤A,实例中边缘设备有三种不同精度的神经网络,精度为Q1的神经网络的层级结构图如图2a所示,此神经网络有一个卷积层、一个节点丢弃层、一个扁平化层和三个全连接层,共六层;精度为Q2的神经网络的层级结构图如图2b所示,它比精度为Q1的神经网络多加了一个卷积层和两个全连接层,所以精度更高,但计算延迟也更大;精度为Q3的神经网络的层级结构图如图2c所示,它比精度为Q1的神经网络多加了两个卷积层和四个全连接层,精度最高,计算延迟也最大;利用采集的不同类型数据各100000个对神经网络进行训练,得到的神经网络精度分别为Q1=96.99%,Q2=97.99%,Q3=98.99%;计算资源用时钟周期的个数来表示,则总资源μmax=216M,μ1=0.47M,μ2=0.63M,μ3=0.84M;定义Q表示云端的计算精度,云端中有一个神经网络,层数为20层,精度Q=99.99%;
步骤二、假设一段时间内第n种传感器共传输In个数据包,每个数据包传输Ln位数据,为传感器分配正交资源,
Figure BDA0002836292340000101
表示带宽,
Figure BDA0002836292340000102
表示无线通信的信道增益、
Figure BDA0002836292340000103
表示信噪比、
Figure BDA0002836292340000104
表示传输速率,其中
Figure BDA0002836292340000105
时表示选择云端传输数据,
Figure BDA0002836292340000106
时表示选择边缘设备传输数据,考虑到rayleigh衰落信道,信道增益服从均值为1的指数分布,则数据包被无错传输的概率为式(1):
Figure BDA0002836292340000107
对于第n个测量节点产生的数据包,传输时间
Figure BDA0002836292340000108
Figure BDA0002836292340000109
Ln表示第n个数据包的大小,令数据包无错传输的概率与传输时间之比为
Figure BDA00028362923400001010
Figure BDA00028362923400001011
数据包被无错传输的概率服从指数分布,假设数据包的到达遵循泊松分布,可以根据M/M/1队列建模数据的传输延迟,因此,无线传输延迟概率表示P(tw,n,φ≤Tw,n,φ)为式(3):
Figure BDA00028362923400001012
式(3)中,
Figure BDA00028362923400001013
表示到第n种传感器传送的数据在无线通信中实际传输的时间,
Figure BDA00028362923400001014
为无线传输的延迟限制为
Figure BDA00028362923400001015
λec分别表示数据传输到边缘设备和云端过程中无线通信的到达率,并有:
Figure BDA00028362923400001016
式(4)中,xn,i表示第n种传感器的第i个数据包是发送给边缘设备处理还是发送给云端,xn,i=1表示数据从传感器传输到边缘设备,xn,i=0表示数据从传感器传送到云端;
利用式(5)得到第n种传感器在互联网中的传输延迟Tc,n的概率函数P(tc,n≤Tc,n):
Figure BDA00028362923400001017
式(5)中,tc,n表示第n种传感器传送的数据在互联网中实际传输的时间,σ2表示时间tc,n的方差,μ表示时间tc,n的数学期望。
所有需要用到的参数的具体值由表1所示,
表1步骤二中的参数值
Figure BDA0002836292340000111
步骤三、建立以计算精度、数据成功到达概率及数据包大小的乘积最大值为目标函数;根据计算资源、通信资源和设备硬件的限制因素,建立一系列约束条件;从而利用(6)-(14)建立云边协同的变电站监测系统的资源分配与调度方法;
目标函数由式(6)所示:
Figure BDA0002836292340000112
式(6)中,Ln是一个数据包的大小,yn,i,a表示第n种传感器的第i个数据包是否发送给边缘设备中精度为Qa的神经网络处理;Tn表示第n种传感器的延迟限制;t表示数据在实际传输中的总时间;Pe,a,n(t≤Tn)表示第n种传感器的数据传送给边缘设备中精度为Qa的神经网络处理的无线传输延迟加计算延迟小于延时限制的概率,并有:
Figure BDA0002836292340000121
式(7)中,Te,a,n表示第n种传感器传输的数据在精度为Qa的神经网络中的计算延迟;
式(8)中,Pc,n(t≤Tn)表示第n种传感器的数据传送给云端时数据到基站的无线传输延迟加基站到云的互联网传输延迟小于延时限制的概率,并有:
Figure BDA0002836292340000122
约束条件如式(9)-式(12)所示:
xn,i∈{0,1} (9)
yn,i,a∈{0,1} (10)若
Figure BDA0002836292340000123
Figure BDA0002836292340000124
式(9)表示xn,i只能等于1或0,即第n种传感器的第i个数据包只能传送给边缘或者云端;xn,i=1表示发送数据给边缘设备,xn,i=0表示发送数据给云端;
式(10)表示yn,i,a只能等于0或1,即第n种传感器的第i个数据包是否传给精度为Qa的神经网络;yn,i,a=1表示传给精度为Qa的神经网络,yn,i,a=0表示不传给精度为Qa的神经网络;
式(11)表示当数据传输给边缘设备时,必须选择一种精度的神经网络;
式(12)表示表示任意一个神经网络分得的计算资源需小于总资源。
所有需要用到的参数的具体值由表2所示:
表2步骤三中的参数值
Figure BDA0002836292340000131
步骤四、联合约束条件和深度强化学习算法法将问题进行求解,得到最优解;
步骤4.1、利用式(4-1)得到改写后的目标函数R(τ):
Figure BDA0002836292340000132
式(4-1)中,Li是第i个数据包的大小,Qi是第i个数据包传输时选择的精度,Pi是第i个数据包传输延迟小于延迟限制的概率;τ表示一种策略;
步骤4.2、基于指针网络训练模型参数:
指针网络由编码器和解码器组成,编码器和解码器均由LSTM单元组成;
步骤4.2.1、编码阶段,编码器每次读取n个数据包中读取一个数据包的输入序列,得到第i个数据包对应的隐状态hi,i=1,...,n,在接下来的解码过程中,都保持不变;输入序列包括互联网时延,数据包的大小等信息;
步骤4.2.2、解码阶段,第一个LSTM单元的输入是神经网络训练的参数,并输出第1个隐状态x1,从第二个LSTM单元开始,用前一个LSTM单元的输出作为第二个LSTM单元的输入,则第j个LSTM单元输出第j个隐状态xj
步骤4.2.3、根据式(4-2),式(4-3)分别计算第j个LSTM单元对第i个数据包输出的概率分布
Figure BDA0002836292340000133
和第j个解码器分配给第i个数据包的输入序列的权重
Figure BDA0002836292340000134
Figure BDA0002836292340000135
Figure BDA0002836292340000141
式(4-2)中,v,Wh,Ws是需要学习的参数,Wh是编码阶段的参数,Ws是解码阶段的参数;在得到概率分布
Figure BDA0002836292340000142
之后对其执行softmax操作即可得到分配给输入序列的权重
Figure BDA0002836292340000143
可以把它拿出来作为指向输入序列的指针,在每次输出一个元素的时候根据这个概率分布得到每一次输出的数据包;
步骤4.3、使用策略梯度算法进行优化:
将传统强化学习中的行动者评论家(Actor-Critic,AC)框架拓展到深度策略梯度方法中,定义Actor网络和Critic网络的结构与指针网络的结构相同,Actor网络就是策略函数,用于生成动作和环境互动,Critic网络用来价值评估,可评价Actor网络的表现,并指导Actor网络下一阶段的动作;
步骤4.3.1、Actor网络的agent在每一次选择数据包传输方式的时候,数据包的参数以及互联网延迟模型参数的不同导致选择的顺序不一定完全相同,在Actor网络下,假设策略τ引导智能体经历一个轨迹,即τ=(s1,a1,s2,a2,...,si,ai);其中,si是在第i步时的状态,ai是在第i步时选择的动作;
步骤4.3.2、利用式(16)得到轨迹在策略τ的引导下出现的概率pθ(τ):
Figure BDA0002836292340000144
步骤4.3.3、利用式(17)求解改写后的目标函数R(τ)的期望J(θ):
Figure BDA0002836292340000145
式(17)中,θ表示Actor网络的参数;
步骤4.3.4、利用式(18)建立期望J(θ)的目标函数:
Figure BDA0002836292340000146
步骤4.3.5、利用式(19)计算目标函数的梯度▽J(θ):
Figure BDA0002836292340000147
步骤4.3.6、利用式(20)得到在当前策略τ下采样N条轨迹后的平均值▽J′(θ):
Figure BDA0002836292340000148
式(20)中,τi表示采样的第i条轨迹;
步骤4.3.7、利用式(21)得到引入一个基准线b后的梯度▽J″(θ):
Figure BDA0002836292340000151
步骤4.3.8、利用式(22)对▽J″(θ)进行优化,得到优化后的Actor网络的参数θ′;
θ′←θ+α▽J″(θ) (22)
式(22)中α是Actor网络的学习率,←表示参数θ更新为θ';
步骤4.3.9、利用式(23)得到均方差C(θc);
Figure BDA0002836292340000152
式(23)中,θc为Critic网络的参数,
Figure BDA0002836292340000153
为Critic网络的输出;
步骤4.3.10、利用式(24)对C(θc)的梯度进行训练,得到训练后的Critic网络的参数θc′;
θc′←θcc▽J″(θ) (24)
式(24)中αc是Actor网络的学习率;
步骤4.3.11、重复步骤4.3.2-步骤4.3.10,得到训练好的Actor网络的最优参数θ*以及Critic网络的最优参数
Figure BDA0002836292340000154
步骤4.3.12、将n个数据数据包输入最优Actor网络和最优Critic网络,并由最优Actor网络的输出最优解,根据最优解所对应的最优资源分配方案,将采集的数据传输给无线网络,从而实现资源分配和调度。

Claims (5)

1.一种基于深度强化学习的变电站监测系统,其特征是包括:包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、一个电力无线专网基站、一个拥有多个神经网络的边缘设备和一个远程云端;
所述无线传感器网络节点包括:WIFI和LTE-A的两种无线通信接口、传感器和微处理器单元;
所述深度强化学习智能体,收集互联网延迟和传感器采集的数据包长度信息实时做出决策,再将决策返回给传感器;
所述边缘设备包括:WIFI无线通信接口和运行多种神经网络的嵌入式微处理器;其中,每个神经网络的精度不同,消耗的计算资源不同,且均用于对电压和电流时序数据进行异常检测;
所述远程云端包括:LTE-A无线通信接口、互联网接口和神经网络模型;
所述传感器通过电力无线专网基站将数据包传输给云端:传感器将采集的数据通过LTE-A无线通信接口传输给所述电力无线专网基站,所述电力无线专网基站对所接收到的数据进行处理后,再通过互联网将处理后的数据上传至所述远程云端,由远程云端中的神经网络模型对处理后的数据进行实时异常状态监测,一旦数据发生异常,则找出故障并排除,从而实现从传感器到电力无线专网基站再到云端的数据传输和处理过程;
所述将传感器的数据传输给边缘设备:传感器将采集的数据通过WIFI无线通信接口传输给所述边缘设备,所述边缘设备中的嵌入式微处理器中的不同精度的神经网络对所接收到的数据进行实时异常状态监测,一旦数据发生异常,则找出故障并排除,从而实现从传感器到边缘设备的数据传输和处理过程。
2.一种基于深度强化学习的变电站监测系统的资源调度方法,其特征是应用于由包含N种不同类型传感器的无线传感器网络节点、深度强化学习智能体、一个电力无线专网基站、一个拥有多个神经网络的边缘设备和一个远程云端所组成的智能电网监测系统中,并按如下步骤进行:
步骤一、在所述智能电网监测系统中,将用于采集的传感器编号为{1,2,...,n,...,N},n表示第n种传感器的序号,1≤n≤N;
定义不同神经网络的精度为{Q1,Q2,...,Qa,...,QA},其中,Qa表示第a种神经网络的精度,μmax表示总的计算资源,μa表示精度为Qa的神经网络分得的计算资源,1≤a≤A;
定义QA+1表示远程云端的计算精度;
步骤二、假设一段时间内第n种传感器共传输In个数据包,每个数据包传输Ln位数据且传输周期为Tp,n,计算数据包在延迟限制内成功传输到边缘设备或远程云端的概率;
步骤三、建立以计算精度、数据成功到达概率及数据包大小的乘积最大值为目标函数,
根据计算资源、通信资源和设备硬件的限制因素,建立一系列约束条件,从而构建基于深度强化学习的资源分配和调度模型;
步骤四、采用深度强化学习算法对基于深度强化学习的资源分配和调度模型进行求解,得到最优解,采用最优解所表示的最优资源分配方案将采集的数据传输给无线网络,从而实现资源分配和调度。
3.根据权利要求2所述的基于深度强化学习的变电站监测系统的资源调度方法,其特征是,所述步骤二是按如下过程进行:
步骤2.1、利用式(2-1)得到数据包被无错传输的概率P:
Figure FDA0002836292330000021
式(2-1)中,
Figure FDA0002836292330000022
表示带宽资源,
Figure FDA0002836292330000023
表示无线通信的信道增益,
Figure FDA0002836292330000024
表示信噪比、
Figure FDA0002836292330000025
表示传输速率,其中,
Figure FDA0002836292330000026
时表示选择远程云端传输数据,
Figure FDA0002836292330000027
时表示选择边缘设备传输数据;
对于第n个传感器产生的数据包,传输时间是Tn,φ=Ln/rφ,Ln表示第n个数据包的大小,利用式(2-2)得到数据包无错传输的概率与传输时间的比值,即无线信道的服务速率
Figure FDA0002836292330000028
Figure FDA0002836292330000029
利用式(2-3)得到无线传输延迟概率P(tw,n,φ≤Tw,n,φ):
Figure FDA00028362923300000210
式(2-3)中,
Figure FDA00028362923300000211
表示到第n种传感器传送的数据在无线通信中实际传输的时间,
Figure FDA00028362923300000212
为无线传输的延迟限制,λec分别表示数据传输到边缘设备和云端过程中无线通信的到达率,并有:
Figure FDA00028362923300000213
式(2-4)中,xn,i表示第n种传感器的第i个数据包是发送给边缘设备处理还是发送给远程云端,xn,i=1表示数据从传感器传输到边缘设备,xn,i=0表示数据从传感器传送到远程云端;
步骤2.2、利用式(2-5)得到第n种传感器在互联网中的传输延迟限制Tc,n的概率函数P(tc,n≤Tc,n):
Figure FDA0002836292330000031
式(2-4)中,tc,n表示第n种传感器传送的数据在无线网络中实际传输的时间,σ2表示时间tc,n的方差,μ表示时间tc,n的数学期望。
4.根据权利要求2所述的基于深度强化学习的变电站监测系统的资源调度方法,所述步骤三是按如下过程进行:
步骤3.1、利用式(3-1)构建目标函数:
Figure FDA0002836292330000032
式(3-1)中,Ln是第n个数据包的大小,yn,i,a表示第n种传感器的第i个数据包是否发送给边缘设备中精度为Qa的神经网络处理;Tn表示第n种传感器的延迟限制;t表示数据在实际传输中的总时间;Pe,a,n(t≤Tn)表示第n种传感器的数据传送给边缘设备中精度为Qa的神经网络处理的无线传输延迟与计算延迟之和小于延时限制的概率,并有:
Figure FDA0002836292330000033
式(3-2)中,Te,a,n表示第n种传感器传输的数据在精度为Qa的神经网络中的计算延迟;
式(3-1)中,Pc,n(t≤Tn)表示第n种传感器的数据传送给云端时数据到基站的无线传输延迟与基站到云的互联网传输延迟之和小于延时限制的概率,并有:
Figure FDA0002836292330000034
步骤3.2、利用式(3-4)-式(3-8)构建约束条件:
xn,i∈{0,1} (3-4)
yn,i,a∈{0,1} (3-5)
Figure FDA0002836292330000041
Figure FDA0002836292330000042
式(3-4)表示xn,i只能等于0或1,即第n种传感器的第i个数据包只能传送给边缘或者远程云端;
式(3-5)表示yn,i,a只能等于0或1,即第n种传感器的第i个数据包是否传给精度为Qa的神经网络;
式(3-6)表示当数据传输给边缘设备时,必须选择一种精度的神经网络;
式(3-7)表示任意一个神经网络分得的计算资源需小于总资源。
5.根据权利要求2所述的基基于深度强化学习的变电站监测系统的资源调度方法,所述步骤四是按如下过程进行:
步骤4.1、利用式(4-1)得到改写后的目标函数R(τ):
Figure FDA0002836292330000043
式(4-1)中,Li是第i个数据包的大小,Qi是第i个数据包传输时选择的精度,Pi是第i个数据包传输延迟小于延迟限制的概率;τ表示一种策略;
步骤4.2、基于指针网络训练模型参数:
所述指针网络由编码器和解码器组成,所述编码器和解码器均由LSTM单元组成;
步骤4.2.1、编码阶段,所述编码器每次读取n个数据包中读取一个数据包的输入序列,得到第i个数据包对应的隐状态hi,i=1,...,n,所述输入序列包括互联网延迟和数据包的长度;
步骤4.2.2、解码阶段,第一个LSTM单元的输入是神经网络训练的参数,并输出第1个隐状态x1,从第二个LSTM单元开始,用前一个LSTM单元的输出作为第二个LSTM单元的输入,则第j个LSTM单元输出第j个隐状态xj,j=1,...,n;
步骤4.2.3、根据式(4-2),式(4-3)分别计算第j个LSTM单元对第i个数据包输出的概率分布
Figure FDA0002836292330000051
和第j个解码器分配给第i个数据包的输入序列的权重
Figure FDA0002836292330000052
Figure FDA0002836292330000053
Figure FDA0002836292330000054
式(4-2)中,v是需要学习的参数,Wh是编码阶段的参数,Ws是解码阶段的参数;
步骤4.3、使用策略梯度算法对所述指针网络进行优化:
定义Actor网络和Critic网络的结构与所述指针网络的结构相同,所述Actor网络用于生成动作和环境互动,Critic网络用于评价Actor网络的表现,并指导Actor网络下一阶段的动作;
步骤4.3.1、在Actor网络下,假设策略τ引导智能体经历一个轨迹,即τ=(s1,a1,s2,a2,...,si,ai);其中,si是在第i步时的状态,ai是在第i步时选择的动作;
步骤4.3.2、利用式(4-4)得到所述轨迹在策略τ的引导下出现的概率pθ(τ):
Figure FDA0002836292330000055
步骤4.3.3、利用式(4-5)求解改写后的目标函数R(τ)的期望J(θ):
J(θ)=∑τR(τ)pθ(τ) (4-5)
式(4-5)中,θ表示Actor网络的参数;
步骤4.3.4、利用式(4-6)建立期望J(θ)的目标函数:
maxJ(θ)=max∑τR(τ)pθ(τ) (4-6)
步骤4.3.5、利用式(4-7)计算目标函数的梯度
Figure FDA0002836292330000056
Figure FDA0002836292330000057
步骤4.3.6、利用式(4-8)得到在当前策略τ下采样N条轨迹后的平均值
Figure FDA0002836292330000058
Figure FDA0002836292330000059
式(4-8)中,τi表示采样的第i条轨迹;
步骤4.3.7、利用式(4-9)得到引入一个基准线b后的梯度
Figure FDA00028362923300000510
Figure FDA00028362923300000511
步骤4.3.8、利用式(4-10)对梯度
Figure FDA0002836292330000061
进行优化,得到优化后的Actor网络的参数θ′;
Figure FDA0002836292330000062
式(4-10)中,α是Actor网络的学习率,←表示参数θ更新为θ';
步骤4.3.9、利用式(4-11)得到均方差C(θc);
Figure FDA0002836292330000063
式(4-11)中,θc为所述Critic网络的参数,
Figure FDA0002836292330000064
为所述Critic网络的输出;
步骤4.3.10、利用式(4-12)对均方差C(θc)的梯度
Figure FDA0002836292330000065
进行训练,得到训练后的Critic网络的参数θ′c
Figure FDA0002836292330000066
式(4-12)中,αc是Actor网络的学习率;
步骤4.3.11、将优化后的Actor网络的参数θ′和训练后的Critic网络的参数θ′c带入步骤4.3.2-步骤4.3.10进行迭代训练,得到训练好的最优参数θ*所对应的最优Actor网络以及最优参数
Figure FDA0002836292330000067
所对应的最优Critic网络;
步骤4.3.11、将n个数据数据包输入所述最优Actor网络和最优Critic网络,并由所述最优Actor网络的输出最优解,根据所述最优解所对应的最优资源分配方案,将采集的数据传输给无线网络,从而实现资源分配和调度。
CN202011478035.8A 2020-12-15 2020-12-15 基于深度强化学习的变电站监测系统及其资源调度方法 Active CN112637806B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011478035.8A CN112637806B (zh) 2020-12-15 2020-12-15 基于深度强化学习的变电站监测系统及其资源调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011478035.8A CN112637806B (zh) 2020-12-15 2020-12-15 基于深度强化学习的变电站监测系统及其资源调度方法

Publications (2)

Publication Number Publication Date
CN112637806A true CN112637806A (zh) 2021-04-09
CN112637806B CN112637806B (zh) 2022-07-05

Family

ID=75313664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011478035.8A Active CN112637806B (zh) 2020-12-15 2020-12-15 基于深度强化学习的变电站监测系统及其资源调度方法

Country Status (1)

Country Link
CN (1) CN112637806B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408087A (zh) * 2021-05-25 2021-09-17 国网湖北省电力有限公司检修公司 一种基于云边系统和视频智能分析的变电站巡视方法
CN113473449A (zh) * 2021-07-02 2021-10-01 深圳市威宇智通科技有限公司 基于物联网终端的智能连接的系统
CN113595684A (zh) * 2021-07-12 2021-11-02 中国科学院计算技术研究所 一种基于深度强化学习的mptcp动态编码调度方法和系统
CN115174681A (zh) * 2022-06-14 2022-10-11 武汉大学 一种边缘计算服务请求调度方法、设备及存储介质
CN115396955A (zh) * 2022-08-24 2022-11-25 广西电网有限责任公司 一种基于深度强化学习算法的资源分配方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084323A (zh) * 2019-05-09 2019-08-02 苏州思必驰信息科技有限公司 端到端语义解析系统及训练方法
CN111026548A (zh) * 2019-11-28 2020-04-17 国网甘肃省电力公司电力科学研究院 一种逆向深度强化学习的电力通信设备测试资源调度方法
CN111182076A (zh) * 2020-01-02 2020-05-19 合肥工业大学 云边协同的智能电网监测系统及其资源分配和调度方法
US20200160168A1 (en) * 2018-11-16 2020-05-21 Honda Motor Co., Ltd. Cooperative multi-goal, multi-agent, multi-stage reinforcement learning
CN111666149A (zh) * 2020-05-06 2020-09-15 西北工业大学 基于深度强化学习的超密边缘计算网络移动性管理方法
CN111915142A (zh) * 2020-07-07 2020-11-10 广东工业大学 一种基于深度强化学习的无人机辅助资源分配方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200160168A1 (en) * 2018-11-16 2020-05-21 Honda Motor Co., Ltd. Cooperative multi-goal, multi-agent, multi-stage reinforcement learning
CN110084323A (zh) * 2019-05-09 2019-08-02 苏州思必驰信息科技有限公司 端到端语义解析系统及训练方法
CN111026548A (zh) * 2019-11-28 2020-04-17 国网甘肃省电力公司电力科学研究院 一种逆向深度强化学习的电力通信设备测试资源调度方法
CN111182076A (zh) * 2020-01-02 2020-05-19 合肥工业大学 云边协同的智能电网监测系统及其资源分配和调度方法
CN111666149A (zh) * 2020-05-06 2020-09-15 西北工业大学 基于深度强化学习的超密边缘计算网络移动性管理方法
CN111915142A (zh) * 2020-07-07 2020-11-10 广东工业大学 一种基于深度强化学习的无人机辅助资源分配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SEUNG-SEOB LEE: "Deep Reinforcement Learning-based Resource Allocation in Vehicular Fog Computing", 《IEEE INFOCOM 2019 - IEEE CONFERENCE ON COMPUTER COMMUNICATIONS WORKSHOPS (INFOCOM WKSHPS)》 *
常宇等: "无线网络中基于深度强化学习的资源分配研究", 《测试技术学报》 *
李奇越等: "基于强化学习的M2M通信上行链路节能优化算法", 《合肥工业大学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408087A (zh) * 2021-05-25 2021-09-17 国网湖北省电力有限公司检修公司 一种基于云边系统和视频智能分析的变电站巡视方法
CN113473449A (zh) * 2021-07-02 2021-10-01 深圳市威宇智通科技有限公司 基于物联网终端的智能连接的系统
CN113595684A (zh) * 2021-07-12 2021-11-02 中国科学院计算技术研究所 一种基于深度强化学习的mptcp动态编码调度方法和系统
CN115174681A (zh) * 2022-06-14 2022-10-11 武汉大学 一种边缘计算服务请求调度方法、设备及存储介质
CN115174681B (zh) * 2022-06-14 2023-12-15 武汉大学 一种边缘计算服务请求调度方法、设备及存储介质
CN115396955A (zh) * 2022-08-24 2022-11-25 广西电网有限责任公司 一种基于深度强化学习算法的资源分配方法及装置

Also Published As

Publication number Publication date
CN112637806B (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
CN112637806B (zh) 基于深度强化学习的变电站监测系统及其资源调度方法
Li et al. Resource orchestration of cloud-edge–based smart grid fault detection
CN111182076B (zh) 云边协同的智能电网监测系统及其资源分配和调度方法
CN112351503B (zh) 基于任务预测的多无人机辅助边缘计算资源分配方法
Zhang et al. A large-scale multiobjective satellite data transmission scheduling algorithm based on SVM+ NSGA-II
Alnawayseh et al. Smart congestion control in 5g/6g networks using hybrid deep learning techniques
Benet et al. Predicting expected TCP throughput using genetic algorithm
Hu et al. Deep reinforcement learning for task offloading in edge computing assisted power IoT
Rui et al. CLPM: A cooperative link prediction model for industrial Internet of Things using partitioned stacked denoising autoencoder
Zhang et al. Multi-agent Reinforcement Learning-Based Orbital Edge Offloading in SAGIN Supporting Internet of Remote Things
Bi et al. Multi-swarm Genetic Gray Wolf Optimizer with Embedded Autoencoders for High-dimensional Expensive Problems
Zhang et al. DSOQR: Deep reinforcement learning for online QoS routing in SDN-based networks
CN116848828A (zh) 机器学习模型分布
CN113703984A (zh) 5g云边协同场景下基于soa架构的云任务优化策略方法
Zhong et al. Slice allocation of 5G network for smart grid with deep reinforcement learning ACKTR
Li et al. Deep reinforcement learning based resource allocation for cloud edge collaboration fault detection in smart grid
Wang et al. Autonomous on-demand deployment for UAV assisted wireless networks
Chen et al. A 5G Enabled Adaptive Computing Workflow for Greener Power Grid
CN114615705B (zh) 一种基于5g网络下单用户资源分配策略方法
Jeon et al. Hybrid in-network computing and distributed learning for large-scale data processing
CN113204915A (zh) 基于cps的phm设计方法
Liu et al. Multiple Local-Edge-Cloud Collaboration Strategies in Industrial Internet of Things: A Hybrid Genetic-Based Approach
Liao et al. Learning-based queue-aware task offloading and resource allocation for air-ground integrated PIoT
Razmara et al. A Hybrid Neural Network Approach for Congestion Control in TCP/IP Networks
Feng Distributed Intelligent Scheduling Algorithm for Wireless Communication Network Link Resources Based on Data Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant