CN114745396A - 一种基于多智能体的端边云3c资源联合优化方法 - Google Patents

一种基于多智能体的端边云3c资源联合优化方法 Download PDF

Info

Publication number
CN114745396A
CN114745396A CN202210380792.4A CN202210380792A CN114745396A CN 114745396 A CN114745396 A CN 114745396A CN 202210380792 A CN202210380792 A CN 202210380792A CN 114745396 A CN114745396 A CN 114745396A
Authority
CN
China
Prior art keywords
task
agent
cloud
caching
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210380792.4A
Other languages
English (en)
Other versions
CN114745396B (zh
Inventor
刘燕
黄太秦
蔡君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Polytechnic Normal University
Original Assignee
Guangdong Polytechnic Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Polytechnic Normal University filed Critical Guangdong Polytechnic Normal University
Priority to CN202210380792.4A priority Critical patent/CN114745396B/zh
Publication of CN114745396A publication Critical patent/CN114745396A/zh
Application granted granted Critical
Publication of CN114745396B publication Critical patent/CN114745396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • H04L67/1078Resource delivery mechanisms
    • H04L67/1082Resource delivery mechanisms involving incentive schemes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • H04L67/1078Resource delivery mechanisms
    • H04L67/1085Resource delivery mechanisms involving dynamic management of active down- or uploading connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multi Processors (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明涉及多智能体资源联合优化技术领域,且公开了一种基于多智能体的端边云3C资源联合优化方法,包括以下步骤:S1、计算任务信息、S2、学习算法模块、S3、优化目标定义、S4、状态定义、S5、动作定义、S6、奖励定义。一种基于多智能体的端边云3C资源联合优化方法,针对异构网络中不同用户产生不同类型的计算任务,研究一种端‑边‑云协同的计算缓存与卸载方法,以实现3C资源的联合优化,降低任务完成时延和资源开销,对计算任务进行建模,利用五元组描述任务特征;然后将计算缓存与卸载问题建模为以最小化网络整体时延为目标的优化问题;最后定义多智能体深度强化学习模型中的网络状态和全局奖励函数,有效降低了整体网络的时延。

Description

一种基于多智能体的端边云3C资源联合优化方法
技术领域
本发明涉及多智能体资源联合优化技术领域,具体为一种基于多智能体的端边云3C资源联合优化方法。
背景技术
3C联合优化算法一般是将热门内容缓存到离用户更近的位置,可以降低用户下载时延;将计算任务卸载到算力充足的计算节点可以降低计算完成时延,提升用户体验,云中心具有充沛的缓存和计算资源,但距离用户较远,传输时延高,带宽开销大,通过在边缘节点部署缓存和计算资源,可以降低内容下载和计算完成时延,缓解云中心和骨干网压力,将计算任务的输入或输出数据缓存在离用户更近的位置中,可以有效地降低任务完成时延,缓存的本质是利用缓存资源换取通信资源,计算卸载的本质则是利用通信资源换取计算资源,缓存、计算、通信资源三者息息相关,共同决定任务完成时延。
缓存的本质是利用缓存资源换取通信资源,计算卸载的本质则是利用通信资源换取计算资源,缓存、计算、通信资源三者息息相关,共同决定任务完成时延,因此,对三者进行联合优化至关重要,现有的3C联合优化算法大多针对某一特点类型应用,无法适应包含多种类型应用的异构网络,此外,大多联合优化算法仅针对端-边计算架构,没有充分利用云中心大量的计算和存储资源。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于多智能体的端边云3C资源联合优化方法,具备利用计算、缓存和全局奖励函数对3C资源之间的联系进行建模,以降低整体网络的时延。本发明定义的计算奖励用于衡量计算卸载决策为产生计算任务的用户带来的时延收益;缓存奖励函数用于衡量缓存决策为网络带来的计算资源收益等优点,解决了现有的3C联合优化算法大多针对某一特点类型应用,无法适应包含多种类型应用的异构网络,此外,大多联合优化算法仅针对端-边计算架构,没有充分利用云中心大量的计算和存储资源的问题。
(二)技术方案
为实现上述实现异构网络中端-边-云协同的3C资源联合优化,利用计算、缓存和全局奖励函数对3C资源之间的联系进行建模,以降低整体网络的时延目的,本发明提供如下技术方案:一种基于多智能体的端边云3C资源联合优化方法,包括以下步骤:
S1、计算任务信息
位于端层的用户u∈N={1,2,…,N}产生的计算任务i∈H={1,2,…,H}使用五元组ξi来表示,ξi={Ii,Oi,ωi,τi,pi},其中Ii和Oi分别表示输入数据和计算结果,ωi表示任务的计算密度;τi表示任务的约束时延;pi表示任务流行度;输入数据Ii=[Ii,1,Ii,2,Ii,3],其中Ii,1∈{0,1}表示任务的输入数据来自于用户(Ii,1=1)或云服务器(Ii,1=0);Ii,2表示输入数据量;Ii,3∈{0,1}表示缓存标识,当Ii,3=1表示允许缓存,否则不允许缓存,计算结果Oi=[Oi,1,Oi,2,Oi,3],定义与输入数据Ii类似。
S2、学习算法模块
当本地计算资源无法满足任务需求时,可以将任务卸载到邻近的空闲终端、边缘服务器或是云服务器中执行,定义Z=N∪{N+1,N+2}为计算节点集合,N+1和N+2分别表示边缘服务器E和云服务器C。
S3、优化目标定义
优化目标是最小化所有任务的完成时延,定义如下:
Figure BDA0003592890030000031
Figure BDA0003592890030000032
S4、状态定义
状态S(t)={ξi,ψD(t),ψE(t),ψE(t),ci(t)}。
S5、动作定义
MADRL由两个智能体组成,即计算智能体和缓存智能体,分别制定计算卸载和缓存决策。
S6、奖励定义
当智能体执行动作后,接收到即时奖励,为了实现3C资源优化,本文定义三种奖励:计算奖励rcom(t),缓存奖励rcac(t),和全局奖励,rb(t)。
优选的,所述步骤S3中,当用户u产生的计算任务i卸载到节点j处理时,任务完成时延
Figure BDA0003592890030000033
包含三部分:输入数据传输时延、计算时延和计算结果传输时延,定义如下:
Figure BDA0003592890030000034
Figure BDA0003592890030000035
优选的,所述步骤S3中,
Figure BDA0003592890030000036
表示将输入数据从数据源传输到计算节点的时延,
Figure BDA0003592890030000041
表示将输入数据从缓存节点k传输到计算节点j的时延,
Figure BDA0003592890030000042
表示任务的计算时延,
Figure BDA0003592890030000043
为计算节点j分配给任务i的计算资源,
Figure BDA0003592890030000044
表示将计算结果传输给目的地的时延,
Rl数据转发路径上第l条链路的数据率,ci,j∈{0,1}表示任务i在节点j中的缓存状态,ci,j=1表示有缓存,否则无缓存。
优选的,所述步骤S3中,
Figure BDA0003592890030000045
为任务完成时延,约束条件C2表示终端d分配给任务i的计算资源不得超过其可用计算资源,Fd,卸载到边缘服务器和云服务器的所有任务计算资源之和不得超过边缘服务器和云服务器的可用计算资源,即FE和FC,约束条件C3表示缓存在节点j的任务数据不得超过节点j的缓存空间Cj
优选的,所述步骤S4中,ξi为任务i的信息;ψD(t)为D2D网络可用的计算、缓存和带宽资源;ψE(t)为边缘服务器可用的计算、缓存和带宽资源;ψc(t)为云服务器可用的计算、缓存和带宽资源;ci(t)为任务i在网络中的缓存状态。
优选的,所述步骤S5中,计算智能体的动作acom(t)定义为:
acom(t)=[acom,1(t),acom,2(t),acom,3(t)],其中,acom,i(t)∈{0,1}表示任务是否在端、边或者云执行,且
Figure BDA0003592890030000046
缓存智能体的动作acac(t)定义为:
acac(t)=[acac,1(t),acac,2(t),acac,3(t)]。
其中acac,i(t)∈{0,1}表示任务数据是否缓存到端、边或者云中,且
Figure BDA0003592890030000051
Figure BDA0003592890030000052
定示不缓存任务数据。
优选的,所述步骤S6中,通过将任务卸载到计算资源充沛的节点,可以降低计算时延,本文将Rcom(t)定义为计算时延减少量,即:
Figure BDA0003592890030000053
其中η>0设计参数,表示当计算智能体的卸载决策不能满足约束条件时得到的惩罚。
优选的,所述步骤S6中,通过将任务数据缓存在网络中,可以减少数据传输时延,从而降低对计算资源的需求,本文将rcac(t)定义为缓存带来的计算需求减少量,即:
Figure BDA0003592890030000054
其中
Figure BDA0003592890030000055
表示将输入数据缓存在位置j带来的传输时延减少量,
Figure BDA0003592890030000056
Figure BDA0003592890030000057
分别表示传输输入数据和计算结果的传输时延,j={1,2,3}分别表示端、边、云三个位置,pi为任务i的内容流行度,为了实现3C资源的联合优化,将引入全局奖励rb(t)来衡量计算和缓存决策不一致时导致的额外通信开销,每个智能体在获得本地奖励的同时,还会获得全局奖励rb(t),即:
Figure BDA0003592890030000061
其中α和β为设计参数,默认值为0.5,ec为额外链路开销,定义如下:
Figure BDA0003592890030000062
其中m和n分别表示任务计算位置和任务缓存位置(m,n∈{1,2,3}),em,n表示将数据从位置m传输到位置n占用的链路,eu,d表示将数据从本地传输给空闲终端占用的D2D通信链路。
(三)有益效果
与现有技术相比,本发明提供了一种基于多智能体的端边云3C资源联合优化方法,具备以下有益效果:
1、一种基于多智能体的端边云3C资源联合优化方法,针对异构网络中不同用户产生不同类型的计算任务,研究一种端-边-云协同的计算缓存与卸载方法,以实现3C资源的联合优化,降低任务完成时延和资源开销,对计算任务进行建模,利用五元组描述任务特征;然后将计算缓存与卸载问题建模为以最小化网络整体时延为目标的优化问题;最后定义多智能体深度强化学习模型中的网络状态、计算与缓存智能体的动作和奖励函数,和全局奖励函数,有效降低了整体网络的时延。
2、一种基于多智能体的端边云3C资源联合优化方法,与现有技术相比,本发明可以实现异构网络中端-边-云协同的3C资源联合优化,利用计算、缓存和全局奖励函数对3C资源之间的联系进行建模,以降低整体网络的时延,本发明定义的计算奖励用于衡量计算卸载决策为产生计算任务的用户带来的时延收益;缓存奖励函数用于衡量缓存决策为网络带来的计算资源收益;全局奖励函数用于衡量计算与缓存决策不同时消耗的额外通信资源。
具体实施方式
下面将结合本发明的实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:一种基于多智能体的端边云3C资源联合优化方法,包括以下步骤:
S1、计算任务信息
位于端层的用户u∈N={1,2,…,N}产生的计算任务i∈H={1,2,…,H}使用五元组ξi来表示,ξi={Ii,Oi,ωi,τi,pi},其中Ii和Oi分别表示输入数据和计算结果,ωi表示任务的计算密度;τi表示任务的约束时延;pi表示任务流行度;输入数据Ii=[Ii,1,Ii,2,Ii,3],其中Ii,1∈{0,1}表示任务的输入数据来自于用户(Ii,1=1)或云服务器(Ii,1=0);Ii,2表示输入数据量;Ii,3∈{0,1}表示缓存标识,当Ii,3=1表示允许缓存,否则不允许缓存,计算结果Oi=[Oi,1,Oi,2,Oi,3],定义与输入数据Ii类似。
S2、学习算法模块
当本地计算资源无法满足任务需求时,可以将任务卸载到邻近的空闲终端、边缘服务器或是云服务器中执行,定义Z=N∪{N+1,N+2}为计算节点集合,N+1和N+2分别表示边缘服务器E和云服务器C。
S3、优化目标定义
优化目标是最小化所有任务的完成时延,定义如下:
3.
Figure BDA0003592890030000081
Figure BDA0003592890030000082
当用户u产生的计算任务i卸载到节点j处理时,任务完成时延
Figure BDA0003592890030000083
包含三部分:输入数据传输时延、计算时延和计算结果传输时延,定义如下:
Figure BDA0003592890030000084
Figure BDA0003592890030000085
Figure BDA0003592890030000086
表示将输入数据从数据源传输到计算节点的时延,
Figure BDA0003592890030000087
定示将输入数据从缓存节点k传输到计算节点j的时延,
Figure BDA0003592890030000088
表示任务的计算时延,
Figure BDA0003592890030000089
为计算节点j分配给任务i的计算资源,
Figure BDA00035928900300000810
表示将计算结果传输给目的地的时延,Rl数据转发路径上第l条链路的数据率,ci,j∈{0,1}表示任务i在节点j中的缓存状态,
ci,j=1表示有缓存,否则无缓存,
Figure BDA00035928900300000811
为任务完成时延,约束条件C2表示终端d分配给任务i的计算资源不得超过其可用计算资源,Fd,卸载到边缘服务器和云服务器的所有任务计算资源之和不得超过边缘服务器和云服务器的可用计算资源,即FE和FC,约束条件C3表示缓存在节点j的任务数据不得超过节点j的缓存空间Cj
S4、状态定义
状态S(t)={ξi,ψD(t),ψE(t),ψE(t),ci(t)},ξi为任务i的信息;ψD(t)为D2D网络可用的计算、缓存和带宽资源;ψE(t)为边缘服务器可用的计算、缓存和带宽资源;ψc(t)为云服务器可用的计算、缓存和带宽资源;ci(t)为任务i在网络中的缓存状态。
S5、动作定义
MADRL由两个智能体组成,即计算智能体和缓存智能体,分别制定计算卸载和缓存决策,计算智能体的动作acom(t)定义为:
acom(t)=[acom,1(t),acom,2(t),acam,3(t)],其中,
acom,i(t)∈{0,1}表示任务是否在端、边或者云执行,且
Figure BDA0003592890030000091
缓存智能体的动作acac(t)定义为:
acac(t)=[acac,1(t),acac,2(t),acac,3(t)]。
其中acac,i(t)∈{0,1}表示任务数据是否缓存到端、边或者云中,且
Figure BDA0003592890030000092
Figure BDA0003592890030000093
表示不缓存任务数据。
S6、奖励定义
当智能体执行动作后,接收到即时奖励,为了实现3C资源优化,本文定义三种奖励:计算奖励rcom(t),缓存奖励rcac(t),和全局奖励,rb(t),通过将任务卸载到计算资源充沛的节点,可以降低计算时延,本文将
Rcom(t)定义为计算时延减少量,即:
Figure BDA0003592890030000101
其中η>0设计参数,表示当计算智能体的卸载决策不能满足约束条件时得到的惩罚,通过将任务数据缓存在网络中,可以减少数据传输时延,从而降低对计算资源的需求,本文将rcac(t)定义为缓存带来的计算需求减少量,即:
Figure BDA0003592890030000102
其中
Figure BDA0003592890030000103
表示将输入数据缓存在位置j带来的传输时延减少量,
Figure BDA0003592890030000104
Figure BDA0003592890030000105
分别表示传输输入数据和计算结果的传输时延,j={1,2,3}分别表示端、边、云三个位置,pi为任务i的内容流行度,为了实现3C资源的联合优化,将引入全局奖励rb(t)来衡量计算和缓存决策不一致时导致的额外通信开销,每个智能体在获得本地奖励的同时,还会获得全局奖励
rb(t),即:
Figure BDA0003592890030000106
其中α和β为设计参数,默认值为0.5,ec为额外链路开销,定义如下:
Figure BDA0003592890030000107
其中m和n分别表示任务计算位置和任务缓存位置(m,n∈{1,2,3}),em,n表示将数据从位置m传输到位置n占用的链路,eu,d表示将数据从本地传输给空闲终端占用的D2D通信链路。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (8)

1.一种基于多智能体的端边云3C资源联合优化方法,其特征在于,包括以下步骤:
S1、计算任务信息
位于端层的用户u∈Ν={1,2,…,N}产生的计算任务i∈Η={1,2,…,H}使用五元组ξi来表示,ξi={Ii,Oi,ωi,τi,pi},其中Ii和oi分别表示输入数据和计算结果,ωi表示任务的计算密度;τi表示任务的约束时延;pi表示任务流行度;输入数据Ii=[Ii,1,Ii,2,Ii,3],其中Ii,1∈{0,1}表示任务的输入数据来自于用户(Ii,1=1)或云服务器(Ii,1=0);Ii,2表示输入数据量;Ii,3∈{0,1}表示缓存标识,当Ii,3=1表示允许缓存,否则不允许缓存,计算结果Oi=[Oi,1,Oi,2,Oi,3],定义与输入数据Ii类似。
S2、学习算法模块
当本地计算资源无法满足任务需求时,可以将任务卸载到邻近的空闲终端、边缘服务器或是云服务器中执行,定义Z=N∪{N+1,N+2}为计算节点集合,N+1和N+2分别表示边缘服务器E和云服务器C。
S3、优化目标定义
优化目标是最小化所有任务的完成时延,定义如下:
Figure FDA0003592890020000011
s.t.C1
Figure FDA0003592890020000012
C2
Figure FDA0003592890020000013
C3
Figure FDA0003592890020000014
S4、状态定义
状态S(t)={ξiD(t),ψE(t),ψE(t),ci(t)}。
S5、动作定义
MADRL由两个智能体组成,即计算智能体和缓存智能体,分别制定计算卸载和缓存决策。
S6、奖励定义
当智能体执行动作后,接收到即时奖励,为了实现3C资源优化,本文定义三种奖励:计算奖励rcom(t),缓存奖励rcac(t),和全局奖励,rb(t)。
2.根据权利要求1所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S3中,当用户u产生的计算任务i卸载到节点j处理时,任务完成时延
Figure FDA0003592890020000021
包含三部分:输入数据传输时延、计算时延和计算结果传输时延,定义如下:
Figure FDA0003592890020000022
Figure FDA0003592890020000023
3.根据权利要求2所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S3中,
Figure FDA0003592890020000024
表示将输入数据从数据源传输到计算节点的时延,
Figure FDA0003592890020000025
表示将输入数据从缓存节点k传输到计算节点j的时延,
Figure FDA0003592890020000026
表示任务的计算时延,
Figure FDA0003592890020000027
为计算节点j分配给任务i的计算资源,
Figure FDA0003592890020000031
表示将计算结果传输给目的地的时延,Rl数据转发路径上第l条链路的数据率,ci,j∈(0,1}表示任务i在节点j中的缓存状态,ci,j=1表示有缓存,否则无缓存。
4.根据权利要求1所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S3中,
Figure FDA0003592890020000032
为任务完成时延,约束条件C2表示终端d分配给任务i的计算资源不得超过其可用计算资源,Fd,卸载到边缘服务器和云服务器的所有任务计算资源之和不得超过边缘服务器和云服务器的可用计算资源,即FE和FC,约束条件C3表示缓存在节点j的任务数据不得超过节点j的缓存空间Cj
5.根据权利要求1所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S4中,ξi为任务i的信息;ψD(t)为D2D网络可用的计算、缓存和带宽资源;ψE(t)为边缘服务器可用的计算、缓存和带宽资源;ψC(t)为云服务器可用的计算、缓存和带宽资源;ci(t)为任务i在网络中的缓存状态。
6.根据权利要求1所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S5中,计算智能体的动作acom(t)定义为:
acom(t)=[acom,1(t),acom,2(t),acom,3(t)],其中,acom,i(t)∈{0,1}表示任务是否在端、边或者云执行,且
Figure FDA0003592890020000033
缓存智能体的动作acac(t)定义为:
acac(t)=[acac,1(t),acac,2(t),acac,3(t)]。
其中acac,i(t)∈{0,1}表示任务数据是否缓存到端、边或者云中,且
Figure FDA0003592890020000041
Figure FDA0003592890020000042
表示不缓存任务数据。
7.根据权利要求1所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S6中,通过将任务卸载到计算资源充沛的节点,可以降低计算时延,本文将Rcom(t)定义为计算时延减少量,即:
Figure FDA0003592890020000043
其中η>0设计参数,表示当计算智能体的卸载决策不能满足约束条件时得到的惩罚。
8.根据权利要求1所述的一种基于多智能体的端边云3C资源联合优化方法,其特征在于,所述步骤S6中,通过将任务数据缓存在网络中,可以减少数据传输时延,从而降低对计算资源的需求,本文将rcac(t)定义为缓存带来的计算需求减少量,即:
Figure FDA0003592890020000044
其中
Figure FDA0003592890020000045
表示将输入数据缓存在位置j带来的传输时延减少量,
Figure FDA0003592890020000046
Figure FDA0003592890020000047
分别表示传输输入数据和计算结果的传输时延,j={1,2,3}分别表示端、边、云三个位置,pi为任务i的内容流行度,为了实现3C资源的联合优化,将引入全局奖励rb(t)来衡量计算和缓存决策不一致时导致的额外通信开销,每个智能体在获得本地奖励的同时,还会获得全局奖励rb(t),即:
Figure FDA0003592890020000051
其中α和β为设计参数,默认值为0.5,ec为额外链路开销,定义如下:
Figure FDA0003592890020000052
其中m和n分别表示任务计算位置和任务缓存位置(m,n∈{1,2,3}),em,n表示将数据从位置m传输到位置n占用的链路,eu,d表示将数据从本地传输给空闲终端占用的D2D通信链路。
CN202210380792.4A 2022-04-12 2022-04-12 一种基于多智能体的端边云3c资源联合优化方法 Active CN114745396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210380792.4A CN114745396B (zh) 2022-04-12 2022-04-12 一种基于多智能体的端边云3c资源联合优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210380792.4A CN114745396B (zh) 2022-04-12 2022-04-12 一种基于多智能体的端边云3c资源联合优化方法

Publications (2)

Publication Number Publication Date
CN114745396A true CN114745396A (zh) 2022-07-12
CN114745396B CN114745396B (zh) 2024-03-08

Family

ID=82282398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210380792.4A Active CN114745396B (zh) 2022-04-12 2022-04-12 一种基于多智能体的端边云3c资源联合优化方法

Country Status (1)

Country Link
CN (1) CN114745396B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140289203A1 (en) * 2013-03-21 2014-09-25 Nextbit Systems Inc. Using mobile devices of a user as an edge cache to stream video files
CN110989614A (zh) * 2019-12-18 2020-04-10 电子科技大学 一种基于深度强化学习的车辆边缘计算转移调度方法
CN111163521A (zh) * 2020-01-16 2020-05-15 重庆邮电大学 移动边缘计算中一种分布式异构环境下的资源分配方法
CN112732359A (zh) * 2021-01-14 2021-04-30 广东技术师范大学 多用户混合计算卸载方法、装置、电子设备及存储介质
CN112860350A (zh) * 2021-03-15 2021-05-28 广西师范大学 一种边缘计算中基于任务缓存的计算卸载方法
CN113364630A (zh) * 2021-06-15 2021-09-07 广东技术师范大学 一种服务质量QoS差异化优化方法、装置
CN113873022A (zh) * 2021-09-23 2021-12-31 中国科学院上海微系统与信息技术研究所 一种可划分任务的移动边缘网络智能资源分配方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140289203A1 (en) * 2013-03-21 2014-09-25 Nextbit Systems Inc. Using mobile devices of a user as an edge cache to stream video files
CN110989614A (zh) * 2019-12-18 2020-04-10 电子科技大学 一种基于深度强化学习的车辆边缘计算转移调度方法
CN111163521A (zh) * 2020-01-16 2020-05-15 重庆邮电大学 移动边缘计算中一种分布式异构环境下的资源分配方法
CN112732359A (zh) * 2021-01-14 2021-04-30 广东技术师范大学 多用户混合计算卸载方法、装置、电子设备及存储介质
CN112860350A (zh) * 2021-03-15 2021-05-28 广西师范大学 一种边缘计算中基于任务缓存的计算卸载方法
CN113364630A (zh) * 2021-06-15 2021-09-07 广东技术师范大学 一种服务质量QoS差异化优化方法、装置
CN113873022A (zh) * 2021-09-23 2021-12-31 中国科学院上海微系统与信息技术研究所 一种可划分任务的移动边缘网络智能资源分配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
代玥玥: ""移动边缘计算中资源管理问题的研究"", 《信息科技》, no. 4 *
罗建桢、蔡君、刘燕、赵慧民: ""一种基于内容流行度和社团重要度的ICN缓存与替换策略"", 《计算机科学》, vol. 45, no. 7, pages 116 - 121 *

Also Published As

Publication number Publication date
CN114745396B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
CN112202928B (zh) 传感边缘云区块链网络可信卸载协作节点选择系统及方法
CN109656703B (zh) 一种移动边缘计算辅助车辆任务卸载方法
CN111835827A (zh) 物联网边缘计算任务卸载方法及系统
CN113282786B (zh) 一种基于深度强化学习的全景视频边缘协作缓存替换方法
CN116489708B (zh) 面向元宇宙的云边端协同的移动边缘计算任务卸载方法
CN113411826A (zh) 一种基于注意力机制强化学习的边缘网络设备缓存方法
CN116489712A (zh) 一种基于深度强化学习的移动边缘计算任务卸载方法
CN116963182A (zh) 时延最优任务卸载方法、装置、电子设备和存储介质
Xiao et al. Transcoding-enabled cloud-edge-terminal collaborative video caching in heterogeneous IoT networks: a online learning approach with time-varying information
CN113271256B (zh) 一种信息年龄多路径传输方法及系统
CN112989251B (zh) 一种基于协同计算的移动Web增强现实3D模型数据服务方法
CN111447506B (zh) 云边环境下基于延迟和成本均衡的流媒体内容放置方法
Han et al. Multi-step reinforcement learning-based offloading for vehicle edge computing
CN113342504A (zh) 基于缓存的智能制造边缘计算任务调度方法及系统
CN117579701A (zh) 一种移动边缘网络计算卸载方法及系统
CN114745396A (zh) 一种基于多智能体的端边云3c资源联合优化方法
CN115473854B (zh) 一种多模态网络的流量智能控制方法
CN113766540B (zh) 低时延的网络内容传输方法、装置、电子设备及介质
CN113709853B (zh) 面向云边协同的网络内容传输方法、装置及存储介质
CN115225512A (zh) 基于节点负载预测的多域服务链主动重构机制
CN113518122A (zh) 边缘智能网络保障低时延传输的任务卸载方法、装置、设备及介质
CN115051999B (zh) 基于云边协同的能耗最优任务卸载方法、装置及系统
CN112422449A (zh) 基于缓存支持网络的医疗数据转发和缓存系统及方法
CN114885303A (zh) 一种边缘云车联网的资源协同调度方法及系统
CN117376425A (zh) 一种预测缓存服务的在线调度方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant