CN115242796A - 一种面向云-边-端场景的任务调度方法 - Google Patents
一种面向云-边-端场景的任务调度方法 Download PDFInfo
- Publication number
- CN115242796A CN115242796A CN202210675831.3A CN202210675831A CN115242796A CN 115242796 A CN115242796 A CN 115242796A CN 202210675831 A CN202210675831 A CN 202210675831A CN 115242796 A CN115242796 A CN 115242796A
- Authority
- CN
- China
- Prior art keywords
- access point
- network
- server
- training
- cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000009471 action Effects 0.000 claims abstract description 32
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 12
- 239000000126 substance Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 7
- 238000009826 distribution Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种面向云‑边‑端场景的任务调度方法,包括以下步骤:步骤一,初始化DDQN神经网络的Q网络参数θ1;步骤二,对任意一个接入点b,将所述接入点b的Q网络参数θi赋值给Q网络;步骤三,根据所述接入点b的状态si和接入点b的动作ai进行训练并更新Q值;步骤四,确定使Q值最大的状态si作为目标状态;步骤五,将目标状态输入DDQN神经网络中,输出Pod选择部署在边缘服务器和云服务器的概率集;步骤六,选择概率集中概率最大值对应的动作的服务器作为目标部署服务器,将Pod部署在目标部署服务器上。本发明在满足系统负载均衡的条件下,以最大化吞吐量为优化目标,实现多维资源的合理分配。
Description
技术领域
本发明属于通信技术领域,具体涉及一种面向云-边-端场景的任务调度方法。
背景技术
在数据流量的爆发式增长下,云-边协同受到了研究人员的广泛关注,Kubernetes(K8s)作为容器的编排管理工具,正在成为连接云-边的关键技术,但其默认的调度策略仅仅根据节点是否满足Pod部署的最低需求,因此不适合复杂的云-网-边系统。目前大多数任务请求调度方案依赖于服务响应时间、网络波动、请求到达模式等的准确建模或预测,但整个系统的负载均衡与系统的吞吐量是相关的。
现有技术中的一种保障边云负载比的边云协同多任务调度方法和系统,该方案以完成多任务同时调度并将边云负载比作为参数加入到目标函数中以保证调度结果的边云负载比,但该方案不能有效保证系统的吞吐量最大化,并且实施起来复杂度较高。现有技术中可以解决端边资源调度中应用无法在执行要求时限下完成以及能耗较大的问题,但该技术没有考虑负载均衡的条件,并且没有较好地实现端边任务的合理调度。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种面向云-边-端场景的任务调度方法。本发明要解决的技术问题通过以下技术方案实现:
一种面向云-边-端场景的任务调度方法,应用于云服务器端,将用户的任务请求部署成K8s中的Pod,包括以下步骤:
步骤一,初始化DDQN神经网络的Q网络参数θ1;
步骤二,对任意一个接入点b,将所述接入点b的Q网络参数θi赋值给Q网络;接入点数量有M个,所述接入点的集合为P={1,2,3,…,b,…,M};所述接入点包括基站和/或无线接入点;
步骤三,根据所述接入点b的状态si和接入点b的动作ai进行训练并更新Q值,得到多个Q值;
其中,si=[CPU,RAM,type],CPU,RAM表示与所述接入点b所连接的边缘服务器当前可用的CPU资源和RAM资源,type表示Pod的类型,类型包括时延敏感型和非时延敏感型,动作ai表示与所述接入点b相连接的服务器的索引;所述接入点b的动作集为:Actionsb=[0,1,2,3,…,ai,…,X-1,X],[0~X-1]表示与接入点b相连接的边缘服务器的索引,X表示云服务器的索引;
步骤四,确定使Q值最大的状态si作为目标状态;
步骤五,将目标状态输入DDQN神经网络中,输出Pod选择部署在边缘服务器和云服务器的概率集;其中,概率集与所述动作集相对应;
步骤六,选择概率集中概率最大值对应的动作的服务器作为目标部署服务器,将Pod部署在目标部署服务器上。
在本发明的一个实施例中,所述步骤三的具体步骤包括:
输入训练选取的预设数据样本组数、预设最大训练步数,经验池的存储量,预设最大幕数和预设拷贝周期;
进行第一步训练,将所述接入点b的状态si输入到Q网络中得到接入点b的动作ai:
将所述状态si和所述动作ai输入到target Q网络中,根据奖励函数得到对应的奖励ri和下一个状态si+1;
将(si,ai,ri,si+1)存储到经验池中;
当经验池中存储的数据的组数大于或等于p时,从经验池中随机抽取p组数据,否则进行第二步训练;
若训练步数等于预设最大训练步数K,且经验池中存储的数据的组数小于p,则执行步骤二进行幕数为2的训练,以此类推,直至经验池中存储的数据的组数大于或等于p;
根据随机抽取的p组数据和公式(2)更新Q网络参数θi得到任意一个接入点b的Q网络更新参数θi+1;
将Q网络更新参数θi+1上传到云服务器计算M个接入点的联邦平均参数θ';
将联邦平均参数θ'赋值给Q网络,重复执行多轮训练,更新得到多个Q值。
本发明的有益效果:
本发明采用联邦学习和深度强化学习来实现云-网-边资源调度,构建负载均衡为约束条件,以完成任务调度的数量为优化目标,实现云-边-端任务的合理调度,提高多维资源的高效使用。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明实施例提供的一种面向云-边-端场景的任务调度方法的云-边-端场景系统示意图;
图2是本发明实施例提供的DDQN网络架构示意图;
图3是本发明实施例提供的DDQN中Q网络和target Q网络的结构;
图4是本发明实施例提供的云服务器和边缘服务器的定义的代码示例;
图5是对接入点进行单独的DDQN算法训练和将该接入点加入到本发明算法训练结果示意图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
资源调度即接入点(基站/无线接入点)将用户的任务请求派送到边缘节点和云计算节点。本发明将任务请求部署成K8s中的Pod,基于图1所示的系统模型,假设接入点有M个,记为P={1,2,3,…,b,…,M};其中边缘服务器有N个,记为E={1,2,3,…,e,…,N};与接入点b相连接的边缘服务器记为云服务器记为C。接入点b等待派送的任务队列记为边缘服务器e维护正在执行的任务队列记为:云服务器C维护正在执行的任务队列记为边缘服务器e所拥有的CPU和RAM资源记为Re={CPUe,RAMe},云服务器C所拥有的CPU和RAM资源记为RC={CPUC,RAMC}。
本发明将如何调度的问题建模为对优化函数求解的问题,在整个集群负载均衡的情况下,最大化系统的吞吐量。其中吞吐量定义为:在时间[0,t]内,整个云-网-边集群完成Pod的部署数量。记边缘服务器e在时间t内处理的Pod部署数量为rt(e),云服务器处理的Pod部署数量为rt(C),则云-网-边系统在时间t内共处理的请求为:
相对于边缘服务器,云服务器的计算、存储以及网络资源是巨大的,所以本发明认为云服务器的CPU和RAM是无穷大的,云服务器的资源使用情况不被考虑在整体的负载均衡计算中。因此边缘服务器的CPU和RAM在时间t内的使用率和分别为:
整个云-网-边系统CPU和RAM使用率的均值分别为:
边缘服务器整体CPU和RAM使用率的均方误差为:
整个系统的负载均衡程度为:
BLt=α*StdUt+β*StdIt
其中,α和β分别表示CPU和RAM在负载均衡中所占的权重系数,且α+β=1。
综上,可以得到目标优化函数:
s.t.BLt≤0.7
其中,本发明认为当负载均衡程度高于0.7时,整个系统处于过载状态,所以限制条件是BLt≤0.7。因此本发明在满足系统负载均衡的条件下,以最大化吞吐量为优化目标。
具体地,一种面向云-边-端场景的任务调度方法,应用于云服务器端,将用户的任务请求部署成K8s中的Pod,包括以下步骤:
步骤10,初始化DDQN神经网络的Q网络参数θ1;输入训练参数:所需选取的预设数据样本组数batch_size为p、预设最大训练步数K,经验池的存储量Z,预设最大幕数D和预设拷贝周期L;幕数也即是训练的轮数。
步骤20,对于幕数为1,也即是开始第一轮迭代训练,初始化经验池大小,并获得初始化状态s0,对任意一个接入点b,将接入点b的Q网络参数θi赋值给Q网络;接入点数量有M个,接入点的集合为P={1,2,3,…,b,…,M};接入点包括基站和/或无线接入点;
步骤30,进行第一步迭代训练,将接入点b的状态si输入到Q网络中得到接入点b的动作ai:
其中,si=[CPU,RAM,type],CPU,RAM表示与接入点b所连接的边缘服务器当前可用的CPU资源和RAM资源,type表示Pod的类型,类型包括时延敏感型和非时延敏感型,动作ai表示与接入点b相连接的服务器的索引;接入点b的动作集为:Actionsb=[0,1,2,3,…,ai,…,X-1,X],[0~X-1]表示与接入点b相连接的边缘服务器的索引,X表示云服务器的索引;
步骤40,将状态si和动作ai输入到target Q网络中,根据奖励函数得到对应的奖励ri和下一个状态si+1;
步骤50,将(si,ai,ri,si+1)存储到经验池中;
步骤60,当经验池中存储的数据的组数大于或等于p时,从经验池中随机抽取p组数据,否则返回步骤30进行第二步训练;
若训练步数等于预设最大训练步数K,且经验池中存储的数据的组数小于p,则返回步骤20进行幕数为2的第二轮训练,以此类推,直至经验池中存储的数据的组数大于或等于p;
步骤80,根据随机抽取的p组数据和公式(2)更新Q网络参数θi得到任意一个接入点b的Q网络更新参数θi+1;
对M个接入点中的每个接入点进行并行执行步骤20-步骤80之后执行步骤90:
步骤100,将联邦平均参数θ'赋值给Q网络,重复执行步骤20-步骤90进行多轮训练,更新得到多个Q值;
步骤110,确定使Q值最大的状态si作为目标状态;
步骤120,将目标状态输入DDQN神经网络中,输出Pod选择部署在边缘服务器和云服务器的概率集;其中,概率集与动作集相对应;
图2是接入点b部署的DDQN网络架构,其中有两个神经网络,分别是Q网络和targetQ网络,其中Q网络和target Q网络是一样的。图3表示DDQN中Q网络和target Q网络的结构。其由四层全连接网络组成,第一层表示输入层,其大小为[batch_size,input_dim],其中input_dim表示目标状态,将目标状态输入DDQN神经网络中;第二层为全连接层,其大小为[input_dim,64],其神经元有64个;第三层也为全连接层,其大小为[64,64],其中神经元有64个;最后一层为输出层,其大小为[64,action_dim],其中action_dim是概率集,为一个一维数组,数组中的值分别表示Pod选择服务器的概率,action_dim数组的大小表示可选服务器的个数。概率集与动作集Actionsb=[0,1,2,3,…,ai,…,X-1,X]对应,例如,action_dim=[0.2,0.5,…,0.1]则表示Pod部署在索引为0的边缘服务器的概率为0.2,部署在索引为1的边缘服务器的概率为0.5,部署在索引为X的云服务器的概率为0.1。
步骤130,选择概率集中概率最大值对应的动作指示的服务器作为目标部署服务器,将Pod部署在目标部署服务器上。也即是选择概率最大值对应索引指示的服务器,将Pod部署在该服务器上,例如选择部署在概率为0.5索引为1的边缘服务器上。
本发明将联邦学习和DDQN算法相结合,通过引入联邦学习聚合不同接入点的强化学习网络,可以在整个系统集群的角度更好的提高强化学习的学习效率。同时,本发明构建负载均衡为约束条件,以完成任务调度的数量为优化目标,利用深度双Q网络(Double DeepQ Network,DDQN)算法,结合联邦学习实现云-边-端任务的合理调度,提高多维资源的高效使用。在满足系统负载均衡的条件下,以最大化吞吐量为优化目标,实现多维资源的合理分配。
其中,步骤10-步骤100通过以下算法流程实现:
本专利采用阿里巴巴于2018年公开的数据集。代码中每个服务器的CPU和RAM与服务器真实的CPU和RAM进行一一映射,图4是云服务器、边缘服务器的定义。其中边缘节点有两组CPU和RAM的记录,cpu_max和mem_max分别表示该节点配置的CPU和RAM的大小;cpu和mem分别表示当前节点剩余的CPU和RAM资源。由于云服务器的资源远远强于边缘节点,所以假设其CPU和RAM是无穷大的,因此就不再用两组数据记录。
接入点1的边缘服务器配置([CPU,RAM])为:[300,8],[200,8],[200,8],其中[CPU,RAM]分别表示CPU的核数(其中100表示一核)和RAM的大小(单位是GB)。通过对接入点1进行单独的DDQN算法训练和将该接入点加入本发明算法FL-DDQN训练得到如图5所示的结果。从图中可以看出,基于DDQN算法部署得到的奖励少于基于联邦学习的DDQN算法部署得到的奖励。这是因为基于DDQN算法的接入点仅依靠本地数据进行训练,其探索的状态空间没有联邦学习过程探索的状态空间充分,因此相较于DDQN算法,基于联邦学习的DDQN算法可以更好地提高系统的吞吐量。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (2)
1.一种面向云-边-端场景的任务调度方法,其特征在于,应用于云服务器端,将用户的任务请求部署成K8s中的Pod,包括以下步骤:
步骤一,初始化DDQN神经网络的Q网络参数θ1;
步骤二,对任意一个接入点b,将所述接入点b的Q网络参数θi赋值给Q网络;接入点数量有M个,所述接入点的集合为P={1,2,3,…,b,…,M};所述接入点包括基站和/或无线接入点;
步骤三,根据所述接入点b的状态si和接入点b的动作ai进行训练并更新Q值,得到多个Q值;
其中,si=[CPU,RAM,type],CPU,RAM表示与所述接入点b所连接的边缘服务器当前可用的CPU资源和RAM资源,type表示Pod的类型,类型包括时延敏感型和非时延敏感型,动作ai表示与所述接入点b相连接的服务器的索引;所述接入点b的动作集为:Actionsb=[0,1,2,3,…,ai,…,X-1,X],[0~X-1]表示与接入点b相连接的边缘服务器的索引,X表示云服务器的索引;
步骤四,确定使Q值最大的状态si作为目标状态;
步骤五,将目标状态输入DDQN神经网络中,输出Pod选择部署在边缘服务器和云服务器的概率集;其中,概率集与所述动作集相对应;
步骤六,选择概率集中概率最大值对应的动作的服务器作为目标部署服务器,将Pod部署在目标部署服务器上。
2.根据权利要求1所述的一种面向云-边-端场景的任务调度方法,其特征在于,所述步骤三的具体步骤包括:
输入训练选取的预设数据样本组数、预设最大训练步数,经验池的存储量,预设最大幕数和预设拷贝周期;
进行第一步迭代训练,将所述接入点b的状态si输入到Q网络中得到接入点b的动作ai:
将所述状态si和所述动作ai输入到target Q网络中,根据奖励函数得到对应的奖励ri和下一个状态si+1;
将(si,ai,ri,si+1)存储到经验池中;
当经验池中存储的数据的组数大于或等于p时,从经验池中随机抽取p组数据,否则进行第二步训练;
若训练步数等于预设最大训练步数K,且经验池中存储的数据的组数小于p,则执行步骤二进行幕数为2的训练,以此类推,直至经验池中存储的数据的组数大于或等于p;
当训练步数为预设拷贝周期L的整数倍时,将Q网络参数θi值赋给target Q网络的参数θi -,并根据随机抽取的p组数据和公式(1)更新Q值;
根据随机抽取的p组数据和公式(2)更新Q网络参数θi得到任意一个接入点b的Q网络更新参数θi+1;
将Q网络更新参数θi+1上传到云服务器计算M个接入点的联邦平均参数θ';
将联邦平均参数θ'赋值给Q网络,重复执行多轮训练,更新得到多个Q值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210675831.3A CN115242796B (zh) | 2022-06-15 | 2022-06-15 | 一种面向云-边-端场景的任务调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210675831.3A CN115242796B (zh) | 2022-06-15 | 2022-06-15 | 一种面向云-边-端场景的任务调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115242796A true CN115242796A (zh) | 2022-10-25 |
CN115242796B CN115242796B (zh) | 2024-02-20 |
Family
ID=83670027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210675831.3A Active CN115242796B (zh) | 2022-06-15 | 2022-06-15 | 一种面向云-边-端场景的任务调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115242796B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210081787A1 (en) * | 2019-09-12 | 2021-03-18 | Beijing University Of Posts And Telecommunications | Method and apparatus for task scheduling based on deep reinforcement learning, and device |
CN112799823A (zh) * | 2021-03-31 | 2021-05-14 | 中国人民解放军国防科技大学 | 边缘计算任务的在线分派调度方法和系统 |
CN113485826A (zh) * | 2021-06-25 | 2021-10-08 | 中国电子科技集团公司第五十四研究所 | 一种边缘服务器负载均衡方法、系统 |
WO2022027776A1 (zh) * | 2020-08-03 | 2022-02-10 | 威胜信息技术股份有限公司 | 边缘计算网络任务调度与资源分配方法和边缘计算系统 |
KR102402314B1 (ko) * | 2021-12-02 | 2022-05-25 | 세종대학교산학협력단 | 엣지 네트워크를 위한 연합 학습 방법 |
-
2022
- 2022-06-15 CN CN202210675831.3A patent/CN115242796B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210081787A1 (en) * | 2019-09-12 | 2021-03-18 | Beijing University Of Posts And Telecommunications | Method and apparatus for task scheduling based on deep reinforcement learning, and device |
WO2022027776A1 (zh) * | 2020-08-03 | 2022-02-10 | 威胜信息技术股份有限公司 | 边缘计算网络任务调度与资源分配方法和边缘计算系统 |
CN112799823A (zh) * | 2021-03-31 | 2021-05-14 | 中国人民解放军国防科技大学 | 边缘计算任务的在线分派调度方法和系统 |
CN113485826A (zh) * | 2021-06-25 | 2021-10-08 | 中国电子科技集团公司第五十四研究所 | 一种边缘服务器负载均衡方法、系统 |
KR102402314B1 (ko) * | 2021-12-02 | 2022-05-25 | 세종대학교산학협력단 | 엣지 네트워크를 위한 연합 학습 방법 |
Non-Patent Citations (4)
Title |
---|
CCL/ITRI: "R1-99b03 "MAC Procedures for CPCH"", 3GPP TSG_RAN\\WG1_RL1, no. 1 * |
余萌迪;唐俊华;李建华;: "一种基于强化学习的多节点MEC计算资源分配方案", 通信技术, no. 12 * |
卢海峰;顾春华;罗飞;丁炜超;杨婷;郑帅;: "基于深度强化学习的移动边缘计算任务卸载研究", 计算机研究与发展, no. 07 * |
樊琦;李卓;陈昕;: "基于边缘计算的分支神经网络模型推断延迟优化", 计算机应用, no. 02 * |
Also Published As
Publication number | Publication date |
---|---|
CN115242796B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111445111B (zh) | 一种基于边缘协同的电力物联网任务分配方法 | |
CN103631657B (zh) | 一种基于MapReduce的任务调度方法 | |
CN107203412A (zh) | 一种基于膜系统改进粒子群算法的云资源调度优化方法 | |
CN110399222A (zh) | Gpu集群深度学习任务并行化方法、装置及电子设备 | |
CN111399933B (zh) | 一种边缘-云混合计算环境下的dnn任务卸载方法及终端 | |
CN107229693A (zh) | 基于深度学习的大数据系统配置参数调优的方法和系统 | |
CN109165808A (zh) | 一种电力通信网现场运维工单派发方法 | |
CN105808339B (zh) | 大数据并行计算方法及装置 | |
CN113485826B (zh) | 一种边缘服务器负载均衡方法、系统 | |
CN103701894A (zh) | 动态资源调度方法与系统 | |
CN108205570A (zh) | 一种数据检测方法和装置 | |
Li et al. | Research on QoS service composition based on coevolutionary genetic algorithm | |
CN103281374A (zh) | 一种云存储中数据快速调度的方法 | |
CN108170531A (zh) | 一种基于深度信念网络的云数据中心请求流调度方法 | |
CN116501711A (zh) | 一种基于“存算分离”架构的算力网络任务调度方法 | |
CN110888728B (zh) | 一种Kettle集群服务器的任务调度方法 | |
CN108173958A (zh) | 一种多云环境下基于蚁群算法的数据优化存储方法 | |
CN117290090A (zh) | 节点协同资源分配方法、装置、设备及存储介质 | |
Yang et al. | Trust-based scheduling strategy for cloud workflow applications | |
CN109951330B (zh) | 一种自动识别设备类型的管理方法及通讯管理机 | |
CN115242796A (zh) | 一种面向云-边-端场景的任务调度方法 | |
CN116050235A (zh) | 一种云边环境下工作流数据布局的方法及存储介质 | |
CN116321189A (zh) | 一种面向边缘计算中基于深度强化学习的服务器部署方法 | |
CN115016889A (zh) | 一种用于云计算的虚拟机优化调度方法 | |
RU80604U1 (ru) | Автоматизированная система распределения ресурсов для оптимального решения целевых задач |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |