CN111815367A - 基于边缘缓存的网络利润最优化分配机制构建方法 - Google Patents

基于边缘缓存的网络利润最优化分配机制构建方法 Download PDF

Info

Publication number
CN111815367A
CN111815367A CN202010711509.2A CN202010711509A CN111815367A CN 111815367 A CN111815367 A CN 111815367A CN 202010711509 A CN202010711509 A CN 202010711509A CN 111815367 A CN111815367 A CN 111815367A
Authority
CN
China
Prior art keywords
content
isp
network
model
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010711509.2A
Other languages
English (en)
Inventor
方超
李沛珊
刘昌通
杨一辉
王朱伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202010711509.2A priority Critical patent/CN111815367A/zh
Publication of CN111815367A publication Critical patent/CN111815367A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Software Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Operations Research (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种基于边缘缓存的网络利润最优化分配机制构建方法,包括如下具体步骤:基于ISP与CP联合内容分发机制系统模型,构建ISP与CP联合利润模型;基于强化学习对所述ISP与CP联合利润模型进行求解。本发明提供了一种基于边缘缓存的网络利润最优化分配机制构建方法,通过构建ISP与CP各自的成本收入模型,构建合理的ISP‑CP总利润模型公式,使用强化学习优化联合内容分发机制,达到内容找到最短路径传输从而降低传输成本,进而得到最优利润,同时保障了网络内容的分发效率。

Description

基于边缘缓存的网络利润最优化分配机制构建方法
技术领域
本发明涉及网络通信技术领域,更具体的说是涉及一种基于边缘缓存的网络利润最优化分配机制构建方法。
背景技术
随着互联网的普及,Wi-Fi的持续发展,各大运营商的发展及网络业务的普及等等因素,全球网民数量呈现持续增长趋势,使移动蜂窝网络的业务流量出现了指数级的爆炸增长,在给内容提供商(Content Provider,CP)与因特网服务提供商(Internet ServiceProvider,ISP)带来大量流量收入的同时,更是给现有网络带来了诸如基站部署开销、运营成本、用户体验等多方面的压力。通过分析CP与ISP联合进行内容分发,可在达到延迟目标的情况下降低网络成本,ISP-CP协作确实具有很大的优势,通过激励机制可以更高效的进行内容分发。
通过分析网络架构,作为对传统IP网络进行颠覆性变革的新一代网络体系结构,内容中心网络受到了国内外学者的广泛关注。由此催生了许多在网络架构方面的相关研究。现有技术中研究了面向内容的CCN网络架构的设计选择和功能,证明了CCN网络架构可以实现高效的内容交付,并且证明了CCN网络架构不管在家中共享内容的私有平台还是海天信息网络等平台都有可行性和安全优势。
由于网络中存在冗余传输问题,而从自身边缘缓存获取内容不需要进行链路和节点的传输,基于此,研究人员为了改善边缘缓存技术,在软件策略方面提出了多种在线缓存和协同转发方案,以提高缓存利用率,减少网络延迟。在缓存硬件方面,研究人员提出基于硬件实现的缓存技术,从而降低了总体成本。虽然以上研究在基站缓存方面进行了相关优化,但并没有从用户角度进行缓存优化;并且考虑到用户的请求内容是存在内容流行度因素的。
因此,如何提供一种考虑到边缘缓存以及内容流行度的ISP-CP联合利润模型,并利用强化学习进一步优化联合内容分发机制,达到内容找到最短路径传输从而降低传输成本,进而得到最优利润,在提升网络服务能力的同时,实现ISP与CP的互利共赢是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于边缘缓存的ISP与CP的网络利润最优化分配机制构建方法,在实现二者共赢的同时,有效提高内容分发效率,本发明根据现实情况,建立了ISP与CP的联合内容网络分发机制系统模型,用数学公式及物理意义构建ISP与CP各自在内容分发过程中的成本利润模型,并进行求解,降低传输成本,进而得到最优利润。
为了达到上述目的,本发明采用如下技术方案:
一种基于边缘缓存的网络利润最优化分配机制构建方法,包括如下具体步骤:
基于ISP与CP联合内容分发机制系统模型,构建ISP与CP联合利润模型;
基于强化学习对所述ISP与CP联合利润模型进行求解。
进一步地,所述ISP与CP联合内容分发机制系统模型具体步骤包括:
根据Zipf分布构建内容流行度模型;
构建网络模型;所述网络模型包括网络服务与架构模型、网络拓扑模型。
进一步地,所述内容流行度模型构建,假设内容种类数为K,按照从1到k给视频内容编号;在给定的固定时间内,网络总的请求数为R,内容编号为k的内容流行度的分布为:
Figure BDA0002596711970000031
其中,齐普夫偏度系数α表征了内容流行度。
进一步地,所述ISP与CP联合利润模型为
Figure BDA0002596711970000032
其中,I0为所述ISP与CP联合利润模型的利润;
Figure BDA0002596711970000033
为ISP收入模型的收入;
Figure BDA0002596711970000034
为CP收入模型的收入;
Figure BDA0002596711970000035
为ISP成本模型的成本,
Figure BDA0002596711970000036
为CP成本模型的成本。
进一步地,所述ISP收入模型包括鼓励ISP在基站附近部署缓存的激励收入、ISP为CP提供内容传输的收费、ISP为CP提供内容传输的收费:
Figure BDA0002596711970000037
其中,
Figure BDA0002596711970000038
是用户i对内容k的请求数,sk为内容k的大小,PISP为ISP单位带宽产生的平均利润,
Figure BDA0002596711970000039
为布尔变量,M终端移动用户数量,K为内容种类数,B为基站数,I为CP为了鼓励ISP在基站附近部署缓存的激励费用。
进一步地,所述CP收入模型的收入来自于终端用户所交的会员费:
Figure BDA00025967119700000310
其中,M终端移动用户数量,Pcp终端用户所缴纳的会员费。
进一步地,所述ISP成本模型的成本来自于购买网络带宽成本、网络流量处理成本、缓存成本、检索成本:
Figure BDA00025967119700000311
其中,
Figure BDA0002596711970000041
是用户i对内容k的请求数,sk为内容k的大小,C0来表示ISP购买每单位带宽的平均成本,
Figure BDA0002596711970000042
为布尔变量,M终端移动用户数量,K为内容种类数,B为基站数,Cca来表示部署单位缓存的成本,Cre来表示到达缓存的每个用户请求的检索成本,Cn来表示基站和CP之间路径节点的每单位网络流量的平均处理成本,用C1来表示基站和CP之间链路的每单位网络流量的平均处理成本,Hj,cp表示基站和CP之间路径的跳数。
进一步地,所述CP成本模型的成本支出来自于网络流量处理成本、网络带宽成本、激励成本、检索成本:
Figure BDA0002596711970000043
其中,M终端移动用户数量,K为内容种类数,B为基站数,
Figure BDA0002596711970000044
是用户i对内容k的请求数,sk为内容k的大小,
Figure BDA0002596711970000045
为布尔变量,PISP为ISP单位带宽产生的平均利润,Cre来表示到达缓存的每个用户请求的检索成本,Ccp为CP支付的每单位网络流量的平均处理成本。
进一步地,基于构建的ISP与CP联合利润模型,设计强化学习寻找内容传输最优路径算法,利用Q-learning算法与利润模型结合与求解。
进一步地,Q-Learning算法的具体实现:
设置拓扑背景,用邻接矩阵来表示网络节点的邻接关系,同时初始化Q表,后续根据Q表更新策略直接替换更新Q表内的值;
设置Q-learning算法,当内容请求没有到达目标节点,随机选择下一个去向节点,并根据Reward矩阵获取这一动作的当前奖励值,根据这个奖励值计算新的Q值,并更新Q表中相应位置的Q值。经过重复训练这样的过程,最后得到的Q表作为一个内容请求选路的策略依据,能找到对于一个内容请求位于任何节点中的一个节点位置时能够到达目标节点的最佳动作选择。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于边缘缓存的网络利润最优化分配机制构建方法,通过构建ISP与CP各自的成本收入模型,构建合理的ISP-CP总利润模型公式,使用强化学习优化联合内容分发机制,达到内容找到最短路径传输从而降低传输成本,进而得到最优利润,同时保障了网络内容的分发效率。
与现有技术相比,本发明具有以下明显的优势和有益效果:
(1)根据现实情况,建立了ISP与CP的联合内容网络分发机制系统模型,用数学公式及物理意义表述了ISP与CP各自在内容分发过程中的成本利润模型。
(2)设置了一个未部署缓存的策略作为基础对照模型,另外设置了两大缓存更新策略:Online与Offline,Offline作为理想最优解对照模型,Online作为更贴近现实的实时解。多方面策略可以系统的观察ISP与CP联合模型的性能优化结果。
(3)利用Python语言,将强化学习的QL算法与联合系统模型结合,分别作出RL-Online与RL-Offline的相关性能曲线。经过与无强化学习的对应曲线对比,可视化QL算法的性能特点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1,本发明的网络模型结构示意图;
图2,本发明在不同网络拓扑结构下的网络总利润
图3,本发明在不同内容请求总数下的网络总利润;
图4,本发明在不同缓存大小下的网络总利润;
图5,本发明在不同内容流行度下的网络总利润;
图6,本发明在不同内容种类数下的网络总利润;
图7,本发明的流程图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种基于边缘缓存的网络利润最优化分配机制构建方法,图7是本发明实施例构建方法的流程图,如图7所示,该流程包括如下步骤:
步骤S101:建立ISP与CP联合内容分发机制系统模型;
步骤S102:构建ISP与CP联合利润模型;
步骤S103:基于强化学习对所述ISP与CP联合利润模型进行求解。
通过上述步骤,基于上述优化得到的ISP与CP联合利润模型,通过构建ISP与CP各自的成本收入模型,使用强化学习优化联合内容分发机制,达到内容找到最短路径传输从而降低传输成本,进而得到最优利润,同时保障了网络内容的分发效率。
实施例一
在本实施例中,上述步骤S101中,构建所述系统模型包括:
步骤S1011:根据Zipf分布构建内容流行度模型;
步骤S1012:构建网络模型;所述网络模型包括网络服务与架构模型、网络拓扑模型。
进一步,步骤S1011构建内容流行度模型。
需要了解的是:在网络中的终端移动用户获得请求内容的路径有两条,首先,ISP提供接入服务,帮助用户接入网络,并接收用户的内容请求,通过判断用户所需的内容是否己在基站缓存中存在,当用户所需内容己经被网络边缘的基站缓存提前存储好了,则直接从基站缓存向终端用户分发内容,这种路径借助边缘缓存,最大化地降低网络成本与内容冗余传输问题,提高了内容分发效率和用户体验,增加了网络整体利润。
而当用户所需的内容在基站缓存中不存在时,ISP通过提供导航服务,帮助用户在网络上找到所需要的信息,通过网络链路和节点从远处路由,跨域或跨网下载并传输给用户所需内容。
按照齐普夫定律(Zipf's Law)来设计网络视频内容的流行度模型。假设内容种类数为K,按照从1到k给视频内容编号;在给定的固定时间内,网络总的请求数为R,内容编号为k的内容流行度的分布为:
Figure BDA0002596711970000071
其中,齐普夫偏度系数α表征了内容流行度,α取值越大,内容请求越集中,流行数据的请求量越大。
步骤S1012:构建网络模型。
在本实施例中,服务模型包括三个参与者:ISP、CP和MC。在传统的互联网中,ISP只负责将所有的内容请求从CP传输到MC,这使得ISP和CP的功耗更高。然而,在基于边缘缓存的网络中,ISP可以在接入网中部署网络内缓存,同时提供网络支持和内容交付服务。显然,边缘缓存的采用改变了现有的网络服务模型,可以通过满足网络边缘的大部分内容请求来降低功耗,进一步提高服务质量和终端用户体验质量。
如图1所示,边缘缓存被放置在ISP的基站(BS)中,ISP和CP提供协同的内容交付服务,以提高数据分发的效率。在网络模型中,Xik是一个布尔变量,指示部署在BS i上的缓存是否缓存内容k。如果BS i缓存了内容k,Xik则取1,否则取0。根据内容流行程度排序,流行内容可以在BS中进行缓存,满足大多数终端用户的需求。虽然引入的边缘缓存将为ISP带来额外的缓存能力,但可以显著降低整个网络的流量负担。因此,可以明显提高ISP和CP的总功率效率。
步骤S102,ISP与CP联合利润模型为
Figure BDA0002596711970000081
其中,I0为所述ISP与CP联合利润模型的利润;
Figure BDA0002596711970000082
为ISP收入模型的收入;
Figure BDA0002596711970000083
为CP收入模型的收入;
Figure BDA0002596711970000084
为ISP成本模型的成本,
Figure BDA0002596711970000085
为CP成本模型的成本。
步骤S1021,所述ISP收入模型包括鼓励ISP在基站附近部署缓存的激励收入、ISP为CP提供内容传输的收费、ISP为CP提供内容传输的收费:
Figure BDA0002596711970000086
其中,
Figure BDA0002596711970000087
是用户i对内容k的请求数,sk为内容k的大小,PISP为ISP单位带宽产生的平均利润,
Figure BDA0002596711970000088
为布尔变量,M终端移动用户数量,K为内容种类数,B为基站数,I为CP为了鼓励ISP在基站附近部署缓存的激励费用。
进一步,为了更方便的用公式表达未被边缘缓存满足的用户需求,定义两个布尔变量:
Figure BDA0002596711970000091
Figure BDA0002596711970000092
步骤1022,所述CP收入模型的收入来自于终端用户所缴纳的会员费:
Figure BDA0002596711970000093
其中,M终端移动用户数量,Pcp终端用户所交的会员费。
步骤1023,所述ISP成本模型的成本来自于购买网络带宽成本、网络流量处理成本、缓存成本、检索成本:
Figure BDA0002596711970000094
其中,
Figure BDA0002596711970000095
是用户i对内容k的请求数,sk为内容k的大小,C0来表示ISP购买每单位带宽的平均成本,
Figure BDA0002596711970000096
为布尔变量,M终端移动用户数量,K为内容种类数,B为基站数,Cca来表示部署单位缓存的成本,Cre来表示到达缓存的每个用户请求的检索成本,Cn来表示基站和CP之间路径节点的每单位网络流量的平均处理成本,用C1来表示基站和CP之间链路的每单位网络流量的平均处理成本,Hj,cp表示基站和CP之间路径的跳数。
步骤1024,所述CP成本模型的成本支出来自于网络流量处理成本、网络带宽成本、激励成本、检索成本:
Figure BDA0002596711970000101
其中,M终端移动用户数量,K为内容种类数,B为基站数,
Figure BDA0002596711970000102
是用户i对内容k的请求数,sk为内容k的大小,
Figure BDA0002596711970000103
为布尔变量,PISP为ISP单位带宽产生的平均利润,Cre来表示到达缓存的每个用户请求的检索成本,Ccp为CP支付的每单位网络流量的平均处理成本。
步骤103,基于构建的ISP与CP联合利润模型,设计强化学习寻找内容传输最优路径算法,利用Q-learning算法与利润模型结合与求解。
在与利润公式结合的方面,QL算法主要功能在于就近传输,输出最短跳数,主要影响利润模型中ISP的传输成本部分,ISP的传输成本公式为:
Figure BDA0002596711970000104
通过在QL算法中插入内容就近传输和内容从源服务器传输的计数变量及存储对应的跳数,可以有效的进行利润公式计算。
通过在QL算法中插入内容就近传输和内容从源服务器传输的计数变量及存储对应的跳数,可以有效的进行利润公式计算。在请求内容未到达目标节点的过程中,定义一个step变量,每走一步step自身加一,循环结束后的step值就是请求内容在请求节点到目标节点传输过程中的跳数。当请求节点的请求内容可以从最近节点获取时,定义变量takefrom near node number自身加一,遍历过该请求节点的全部请求数据后,最终take fromnear node number的值就是该请求节点内容就近传输的数量值。请求内容从源服务器传输的数量值同理,通过这样的遍历计数,可以进行利润模型的总利润数值求解。
步骤1031,背景设置;
选用64节点的美国大陆主干网US64作为拓扑背景,用邻接矩阵来表示网络节点的邻接关系,同时初始化Q表为64乘64的零矩阵,后续根据Q表更新策略直接替换更新Q表内的值。
步骤1032,Q-learning算法设置;
当内容请求没有到达目标节点,随机选择下一个去向节点,并根据Reward矩阵获取这一动作的当前奖励值,根据这个奖励值计算新的Q值,并更新Q表中相应位置的Q值。经过重复训练这样的过程,最后得到的Q表作为一个内容请求选路的策略依据,能找到对于一个内容请求位于任何64节点中的一个节点位置时能够到达目标节点的最佳动作选择。
下面结合仿真实验结果对本发明所涉及的方法进行性能分析及比较。
仿真中,探讨了五种仿真策略,网络总利润与网络拓扑、内容请求总数、网络缓存容量大小、网络内容流行度、网络内容种类数的关系,得到结果如图2-6所示。图2为不同网络拓扑结构下的网络总利润,图3为不同内容请求总数下的网络总利润,图4为不同缓存大小下的网络总利润,图5为不同内容流行度下的网络总利润,图6为不同内容种类数下的网络总利润。可以看出,部署边缘缓存后,本发明联合模型能够有效增加网络总利润,性能明显优于无边缘缓存时的利润,强化学习算法与理想情况最优解的差距不大,有利润优势。
五种仿真策略,在线缓存策略、离线缓存策略、理想无缓存策略,并设计基于这三种策略在两种平台环境下与功耗模型结合的五种具体策略,如表1所示,以讨论系统性能。
表1
Figure BDA0002596711970000121
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,包括如下具体步骤:
基于ISP与CP联合内容分发机制系统模型,构建ISP与CP联合利润模型;
基于强化学习对所述ISP与CP联合利润模型进行求解。
2.根据权利要求1所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述ISP与CP联合内容分发机制系统模型具体步骤包括:
根据Zipf分布构建内容流行度模型;
构建网络模型;所述网络模型包括网络服务与架构模型、网络拓扑模型。
3.根据权利要求2所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述内容流行度模型构建,假设内容种类数为K,按照从1到k给视频内容编号;在给定的固定时间内,网络总的请求数为R,内容编号为k的内容流行度的分布为:
Figure FDA0002596711960000011
其中,齐普夫偏度系数α表征了内容流行度。
4.根据权利要求1所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述ISP与CP联合利润模型为
Figure FDA0002596711960000012
其中,I0为所述ISP与CP联合利润模型的利润;
Figure FDA0002596711960000013
为ISP收入模型的收入;
Figure FDA0002596711960000014
为CP收入模型的收入;
Figure FDA0002596711960000015
为ISP成本模型的成本,
Figure FDA0002596711960000016
为CP成本模型的成本。
5.根据权利要求4所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述ISP收入模型包括鼓励ISP在基站附近部署缓存的激励收入、ISP为CP提供内容传输的收费、ISP为CP提供内容传输的收费:
Figure FDA0002596711960000017
其中,
Figure FDA0002596711960000021
是用户i对内容k的请求数,sk为内容k的大小,PISP为ISP单位带宽产生的平均利润,
Figure FDA0002596711960000022
为布尔变量,M终端移动用户数量,K为内容种类数,B为基站数,I为CP为了鼓励ISP在基站附近部署缓存的激励费用。
6.根据权利要求4所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述CP收入模型的收入来自于终端用户所交的会员费:
Figure FDA0002596711960000023
其中,M终端移动用户数量,Pcp终端用户所缴纳的会员费。
7.根据权利要求4所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述ISP成本模型的成本来自于购买网络带宽成本、网络流量处理成本、缓存成本、检索成本:
Figure FDA0002596711960000024
其中,
Figure FDA0002596711960000025
是用户i对内容k的请求数,sk为内容k的大小,C0来表示ISP购买每单位带宽的平均成本,
Figure FDA0002596711960000026
为布尔变量,M终端移动用户数量,K为内容种类数,B为基站数,Cca来表示部署单位缓存的成本,Cre来表示到达缓存的每个用户请求的检索成本,Cn来表示基站和CP之间路径节点的每单位网络流量的平均处理成本,用C1来表示基站和CP之间链路的每单位网络流量的平均处理成本,Hj,cp表示基站和CP之间路径的跳数。
8.根据权利要求4所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,所述CP成本模型的成本支出来自于网络流量处理成本、网络带宽成本、激励成本、检索成本:
Figure FDA0002596711960000031
其中,M终端移动用户数量,K为内容种类数,B为基站数,
Figure FDA0002596711960000032
是用户i对内容k的请求数,sk为内容k的大小,
Figure FDA0002596711960000033
为布尔变量,PISP为ISP单位带宽产生的平均利润,Cre来表示到达缓存的每个用户请求的检索成本,Ccp为CP支付的每单位网络流量的平均处理成本。
9.根据权利要求1所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,基于构建的ISP与CP联合利润模型,设计强化学习寻找内容传输最优路径算法,利用Q-learning算法与利润模型结合与求解。
10.根据权利要求9所述的一种基于边缘缓存的网络利润最优化分配机制构建方法,其特征在于,Q-Learning算法的具体实现:
设置拓扑背景,用邻接矩阵来表示网络节点的邻接关系,同时初始化Q表,后续根据Q表更新策略直接替换更新Q表内的值;
设置Q-learning算法,当内容请求没有到达目标节点,随机选择下一个去向节点,并根据Reward矩阵获取这一动作的当前奖励值,根据这个奖励值计算新的Q值,并更新Q表中相应位置的Q值;经过重复训练这样的过程,最后得到的Q表作为一个内容请求选路的策略依据,能找到对于一个内容请求位于任何节点中的一个节点位置时能够到达目标节点的最佳动作选择。
CN202010711509.2A 2020-07-22 2020-07-22 基于边缘缓存的网络利润最优化分配机制构建方法 Pending CN111815367A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010711509.2A CN111815367A (zh) 2020-07-22 2020-07-22 基于边缘缓存的网络利润最优化分配机制构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010711509.2A CN111815367A (zh) 2020-07-22 2020-07-22 基于边缘缓存的网络利润最优化分配机制构建方法

Publications (1)

Publication Number Publication Date
CN111815367A true CN111815367A (zh) 2020-10-23

Family

ID=72861990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010711509.2A Pending CN111815367A (zh) 2020-07-22 2020-07-22 基于边缘缓存的网络利润最优化分配机制构建方法

Country Status (1)

Country Link
CN (1) CN111815367A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112804361A (zh) * 2021-03-31 2021-05-14 中国人民解放军国防科技大学 一种面向内容协作缓存的边缘联盟博弈方法
CN113766540A (zh) * 2021-09-02 2021-12-07 北京工业大学 低时延的网络内容传输方法、装置、电子设备及介质
CN115633380A (zh) * 2022-11-16 2023-01-20 合肥工业大学智能制造技术研究院 一种考虑动态拓扑的多边缘服务缓存调度方法和系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483630A (zh) * 2017-09-19 2017-12-15 北京工业大学 一种基于边缘缓存的isp与cp联合内容分发机制的构建方法
CN110062037A (zh) * 2019-04-08 2019-07-26 北京工业大学 内容分发方法及装置
CN110070181A (zh) * 2019-04-30 2019-07-30 深圳朴生智能科技有限公司 一种用于边缘计算设备的深度学习的优化方法
CN110312277A (zh) * 2019-04-08 2019-10-08 天津大学 一种基于机器学习的移动网络边缘协作缓存模型构造方法
CN110324175A (zh) * 2019-05-27 2019-10-11 北京工业大学 基于边缘缓存的网络节能方法及系统
CN111211984A (zh) * 2020-04-20 2020-05-29 中国人民解放军国防科技大学 优化cdn网络的方法、装置及电子设备
CN111292001A (zh) * 2020-02-24 2020-06-16 清华大学深圳国际研究生院 基于强化学习的联合决策方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483630A (zh) * 2017-09-19 2017-12-15 北京工业大学 一种基于边缘缓存的isp与cp联合内容分发机制的构建方法
CN110062037A (zh) * 2019-04-08 2019-07-26 北京工业大学 内容分发方法及装置
CN110312277A (zh) * 2019-04-08 2019-10-08 天津大学 一种基于机器学习的移动网络边缘协作缓存模型构造方法
CN110070181A (zh) * 2019-04-30 2019-07-30 深圳朴生智能科技有限公司 一种用于边缘计算设备的深度学习的优化方法
CN110324175A (zh) * 2019-05-27 2019-10-11 北京工业大学 基于边缘缓存的网络节能方法及系统
CN111292001A (zh) * 2020-02-24 2020-06-16 清华大学深圳国际研究生院 基于强化学习的联合决策方法及装置
CN111211984A (zh) * 2020-04-20 2020-05-29 中国人民解放军国防科技大学 优化cdn网络的方法、装置及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHAO FANG 等: "Cache-Assisted Content Delivery in Wireless Networks: A New Game Theoretic Model", IEEE SYSTEMS JOURNAL, 25 June 2020 (2020-06-25), pages 1 - 12 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112804361A (zh) * 2021-03-31 2021-05-14 中国人民解放军国防科技大学 一种面向内容协作缓存的边缘联盟博弈方法
CN113766540A (zh) * 2021-09-02 2021-12-07 北京工业大学 低时延的网络内容传输方法、装置、电子设备及介质
CN113766540B (zh) * 2021-09-02 2024-04-16 北京工业大学 低时延的网络内容传输方法、装置、电子设备及介质
CN115633380A (zh) * 2022-11-16 2023-01-20 合肥工业大学智能制造技术研究院 一种考虑动态拓扑的多边缘服务缓存调度方法和系统

Similar Documents

Publication Publication Date Title
CN111815367A (zh) 基于边缘缓存的网络利润最优化分配机制构建方法
CN104618506B (zh) 一种众包的内容分发网络系统、方法与装置
CN102143199A (zh) 获取内容的方法、节点及内容网络
CN106533733B (zh) 基于网络分簇和哈希路由的ccn协同缓存方法及装置
CN108366089B (zh) 一种基于内容流行度和节点重要度的ccn缓存方法
CN104022911A (zh) 一种融合型内容分发网络的内容路由管理方法
CN110062037B (zh) 内容分发方法及装置
CN110336885A (zh) 边缘节点分配方法、装置、调度服务器及存储介质
CN111885648A (zh) 基于边缘缓存的能量有效的网络内容分发机制构建方法
CN107005475A (zh) 用于源选择和流量工程的联合优化的系统和方法
CN107124303A (zh) 低传输时延的服务链优化方法
Deng et al. Cooperative downloading in vanets-lte heterogeneous network based on named data
CN109067920A (zh) 一种用于服务器内容更新的负载均衡及路由方法
CN111294394A (zh) 基于复杂网络交汇点的自适应缓存策略
Nguyen et al. A game-theoretical green networking approach for information-centric networks
CN102404818A (zh) 一种卫星网络路由表的生成与更新方法
KR20100068241A (ko) Iptv 네트워크들에서 광 캐시 할당의 방법 및 시스템
Gupta et al. ICN based efficient content caching scheme for vehicular networks
Nguyen et al. Adaptive caching for beneficial content distribution in information-centric networking
CN108512765B (zh) 一种基于网络节点分布式Pagerank的网络内容扩散方法
Zhu et al. A Popularity-Based Collaborative Caching Algorithm for Content-Centric Networking.
Cao et al. Family-aware pricing strategy for accelerating video dissemination over information-centric vehicular networks
Santos et al. Multimedia microservice placement in hierarchical multi-tier cloud-to-fog networks
CN113766540B (zh) 低时延的网络内容传输方法、装置、电子设备及介质
CN104506432A (zh) 一种内容请求率的聚合及缓存放置方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination