CN113630456A - 基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法 - Google Patents
基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法 Download PDFInfo
- Publication number
- CN113630456A CN113630456A CN202110882262.5A CN202110882262A CN113630456A CN 113630456 A CN113630456 A CN 113630456A CN 202110882262 A CN202110882262 A CN 202110882262A CN 113630456 A CN113630456 A CN 113630456A
- Authority
- CN
- China
- Prior art keywords
- service
- autonomous system
- cache
- access network
- network autonomous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种基于拉格朗日对偶分解和纳什议价博弈的互联网自治系统间合作缓存方法,在SINET架构中每个接入网自治系统中设立一个协商代理服务器,协商代理服务器之间交互服务缓存的“影子价格”,采用经济学模型构建自治系统缓存收益最大化的优化函数,通过纳什议价博弈模型构建合作缓存问题,通过拉格朗日对偶分解技术将原问题分解为若干个子优化问题,每个接入网的协商代理服务器分布式地求解子优化问题,经过多轮次协商和计算,求出满足公平性和帕累托最优的服务缓存方案。
Description
技术领域
本发明涉及SINET架构中自治域间的缓存方法,更特别地说,是指一种基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法。
背景技术
随着信息中心网络(Information-Centric Network)概念的提出,越来越多的未来网络架构都将“网络内部缓存”纳入了网络基本能力中。在智慧协同标识网络体系架构(Smart Identifier Network,SINET)中的“网络内部缓存”可以帮助自治系统(AutonomousSystem,AS,或称自治域)降低服务数据的冗余传输,降低域间流量。然而,现有大部分技术集中于设计单个自治系统内部的缓存决策算法,每个自治系统依据本地的缓存容量、服务流行度、服务大小等信息自私地决定本地缓存的服务(service),从而导致信息中心网络整体缓存空间利用率较低,服务缓存的冗余度较高,无法最大化地利用缓存技术降低域间流量。因此,为了解决上述问题,需要设计支持自治域间合作缓存的系统和方法。关于自治系统的组成参考2012年11月第1版,《交换与路由技术教程》,主编,尹淑玲,第144-145页。
纳什议价博弈模型是一种解决资源定价、利益分配的合作博弈理论,已广泛应用于通信、金融等多个行业的研究工作中。纳什议价博弈通过建立博弈双方受益的效用函数,并构建解决博弈双方利益冲突的联合优化问题,可求解出满足公平性、帕累托最优、仿射变换独立性、无关选项独立性的博弈最优解。
拉格朗日对偶分解技术常用于求解约束优化问题,通过将原始问题的复杂约束条件利用对偶松弛技术添加到优化目标中,构造原问题的对偶问题,并进一步将对偶问题分解为若干个可以并行求解的子问题,达到快速求解原优化问题可行解的目的。
目前,在类似于信息中心网络的SINET架构场景中,各个自治域独立决定所要缓存的服务(service),缺少一种自治域间合作决定缓存服务的方法。
发明内容
为了解决现有SINET架构中自治系统间自私决定缓存服务而带来的缓存效率低、冗余度高等问题,本发明提出了一种基于拉格朗日对偶分解和纳什议价博弈的互联网自治系统间合作缓存方法。本发明方法将纳什议价博弈模型应用到了SINET架构自治系统间合作缓存的场景中,采用经济学模型构建自治系统缓存收益最大化的优化函数,利用纳什议价博弈模型和各个自治系统的缓存优化函数构造合作博弈的联合优化问题,利用拉格朗日对偶分解技术将联合优化问题分解为若干个可以并行计算的子问题求解,从而获得可以保证各自治系统收益的公平性、帕累托最优的服务缓存方案。
本发明方法是解决互联网自治系统之间自私决定缓存服务带来的缓存冗余、缓存效率低下的问题。此专利可以帮助自治系统之间合作地决定缓存的服务,降低自治系统的缓存冗余度,提高缓存效率。
本发明的一种基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法,其特征在于包括人下列步骤:
步骤一,为接入网自治系统配置协商代理服务器、以及设置决策信息;
步骤101,设置接入网自治系统的数量、以及匹配的协商代理服务器;
在SINET架构中设置了接入的接入网自治系统集合ANAS={AN1,AN2,…,ANj,…,ANV};
AN1表示第一个接入网自治系统;
AN2表示第二个接入网自治系统;
ANj表示第j个接入网自治系统;
ANV表示最后一个接入网自治系统;
下角标j为接入网自治系统的标识号;
下角标V为接入SINET架构中的接入网自治系统的总个数;
步骤102,设置接入网自治系统的决策信息;
设置第i个服务SSi在第j个接入网自治系统ANj中的流行度,记为λi,j;
设置第i个服务SSi的服务大小,记为Di;
设置第j个接入网自治系统ANj的缓存容量,记为Cj;
设置第j个接入网自治系统ANj的任意一个传输网自治系统,记为TNk,下角标k表示传输网自治系统的标识号;
设置第j个接入网自治系统ANj的本地缓存收益转化系数,记为ωj;
设置服务缓存整数变量,记为xi,j,且xi,j={0,1};所述服务缓存整数变量xi,j是指接入网自治系统ANj是否缓存服务SSi的条件;当xi,j=0时表示ANj不缓存服务SSi;当xi,j=1时表示ANj缓存服务SSi;
设置请求服务整数变量,记为且所述请求服务整数变量是用于衡量ANj是否需要向TNk请求服务SSi的条件;当时表示需要从TNk中获取服务SSi,当时表示服务SSi可以在本地网络缓存或者邻居自治系统的缓存空间中获取;
步骤二,建立自治系统缓存收益函数;
S为服务的总个数;
Pj表示第j个接入网自治系统ANj需要向传输网自治系统TNk支付的域间流量价格;
步骤三,构建基于纳什议价博弈的合作缓存优化问题;
步骤303,按照服务流行度序列K流行度=[λ1,j λ2,j … λi,j … λS,j]中由大到小的顺序对每个服务SS1,SS2,…,SSi,…,SSS进行判断;
如果Cj≥Di,允许接收服务SSi,且执行步骤304;
如果Cj<Di,不允许接收服务SSi,且执行步骤305;
步骤305,如果服务流行度序列K流行度=[λ1,j λ2,j … λi,j … λS,j]还有未判断的服务,返回步骤303;
针对合作缓存优化OP设置的约束条件为:
不等式约束条件(2)表示接入网自治系统ANj缓存的服务大小必须小于本地的缓存空间;等式约束条件(3)表示服务SSi的至少可以从上级传输网、本地缓存、邻居缓存之中的某一处获取;约束条件(4)限制了相关变量的取值范围;
步骤308,采用拉格朗日对偶松弛方法对变换后缓存性能指标OP变换的约束条件(3)进行松弛处理,得到拉格朗日函数,记为L松弛,且
步骤309,对拉格朗日函数L松弛进行对偶变换,得到拉格朗日对偶函数,记为DL对偶,且η为对偶变量,在确定了所述拉格朗日对偶函数DL对偶后,配合约束条件,从而完成了基于纳什议价博弈的合作缓存优化在SINET架构中的应用。
本发明基于拉格朗日对偶分解和纳什议价博弈的互联网自治系统间合作缓存方法的优点在于:
(A)本发明相比每个自治系统自私的决定本地缓存的服务,可以有效提高各个自治系统的缓存效率,降低缓存冗余度,最大化降低域间降低的流量与向上级传输网支付的传输费用。
(B)本发明与各自治系统通过一个集中的服务器分配缓存服务的方法相比,可以有效保证各个接入网缓存收益的公平性,提高各个接入网合作的动机,同时各个接入网不用通告本地缓存容量大小和服务流行度,因此具有更好的隐私性。
附图说明
图1是SINET架构的域间缓存共享机制的网络模型结构图。
图2是实施例1中所有接入网自治系统降低流量的利润累积分布图。
具体实施方式
下面将结合附图对本发明做进一步的详细说明。
为保证SINET架构中的相邻自治系统之间长期运行服务缓存的共享机制,本发明提出的机制必须满足缓存服务的选择性注册、互利共赢、公平性与分布式交易的原则,下面分别对上述特性进行介绍:
(1)对等体自治系统之间服务可达性的选择性通告
在SINET架构中,自治系统需要向对等体自治系统和上级自治系统通告其服务的可达性信息。优点是可以减少服务注册表条目数目,降低服务管控平面的业务压力,提高控制平面的可扩展性。缺点是会增大服务解析所经过的自治系统的“跳数”,会使得更多的服务请求包发往自治系统。
考虑到服务缓存的动态性与不确定性,针对对等体自治系统之间缓存服务共享的场景,最理想的办法是在对等体自治系统之间设计一种选择性的服务注册机制,即向对等体自治系统通告部分内容的可达性信息,在尽可能多地向对等体自治系统通告内容可达性的同时,保证控制平面的可扩展性。
(2)互利共赢
为了让相邻自治系统之间有动机进行服务缓存的共享,必须使得相邻自治系统之间可以通过服务缓存共享获得金钱收益。通常来讲,此收益由两部分构成:1)通过缓存服务共享可以降低向上级自治系统支付的传输费用;2)相邻自治系统之间的服务缓存共享,可以帮助自治系统节省缓存空间以存储更有价值的服务,使本域的缓存收益最大化;此外,从邻居自治系统处获取服务,相较于从远端的服务提供者获取服务,可以有效地降低服务的传输时延,提高用户体验,从为自治系统带来一些间接的经济收益。
同时,由于对等体自治系统之间的域间路径带宽免费,因此对等体自治系统之间的缓存服务交换最好不要涉及额外的金钱交易,即对等体自治系统之间需要采用“以服务换服务”的方式完成缓存服务的共享。为了使得交换的服务对于自治系统和用户而言有价值,共享的服务必须完整,即所共享的服务数据不可分割。
(3)公平性与隐私性
域间服务缓存的共享必须按照“等价值”的原则进行,必须保证合作的公平性。此处公平性有两层含义。首先,合作缓存机制不能偏袒任何一个自治系统,使其独占缓存共享的大部分收益。其次,必须保证每一个自治系统都有动机进行合作,不能使自治系统合作缓存时的缓存收益低于自私缓存时的缓存收益。
此外,交换的服务内容只与自治系统对它们的估值有关。为保障自治系统的隐私性,针对服务价值的估值必须由自治系统独立完成,避免自治系统对服务本地的流行度、本地的缓存容量等敏感信息进行通告。因此,整个缓存服务的共享过程不能设立集中式的监管者收集决策信息并进行服务缓存分配,必须由自治系统之间分布式地完成合作缓存和缓存共享。
参见图1所示的SINET架构的域间缓存共享机制的网络模型结构图,图中数字1、2、3代表的是3个传输网自治系统,数字4、5、6代表的是3个接入网自治系统,数字7、8、9代表的是传输网自治系统与接入网自治系统之间的域间传输路径(简称为第一传输路径),数字10、11、12代表的是3个协商代理服务器,数字13、14、15代表的是接入网自治系统之间的域间传输路径(简称为第二传输路径),数字代表的16、17、18是大量用户组成的3个用户群。
在本发明中,接入SINET架构中的多个接入网自治系统形成接入网自治系统集合,记为ANAS,且ANAS={AN1,AN2,…,ANj,…,ANV}。
在本发明中,运行于SINET架构中的多个服务形成了服务集合,记为MSS,且MSS={SS1,SS2,…,SSi,…,SSS}。
SS1表示第一个服务。
SS2表示第二个服务。
SSi表示第i个服务。下角标i为服务的标识号。在本发明中,为了方便说明,所述SSi也称为任意一个服务。
SSS表示最后一个服务。下角标S为服务的总个数。
在本发明中,服务集合MSS={SS1,SS2,…,SSi,…,SSS}运行于第j个接入网自治系统ANj中的各个服务流行度表示为:
运行于第j个接入网自治系统ANj中的第一个服务SS1的服务流行度,记为λ1,j;
运行于第j个接入网自治系统ANj中的第二个服务SS2的服务流行度,记为λ2,j;
运行于第j个接入网自治系统ANj中的第i个服务SSi的服务流行度,记为λi,j;
运行于第j个接入网自治系统ANj中的最后一个服务SSS的服务流行度,记为λS,j。
本发明的基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法,包括有下列步骤:
步骤一,为接入网自治系统配置协商代理服务器、以及设置决策信息;
在本发明中,为每一个的接入网自治系统对应地配置一个用于决定服务缓存方案的协商代理服务器,同时也为每一个的接入网自治系统设置相同的决策信息。
步骤101,设置接入网自治系统的数量、以及匹配的协商代理服务器;
在SINET架构中设置了接入的接入网自治系统集合ANAS={AN1,AN2,…,ANj,…,ANV};
步骤102,设置接入网自治系统的决策信息;
设置第i个服务SSi在第j个接入网自治系统ANj中的流行度,记为λi,j。所述流行度λi,j为每秒钟服务被请求的次数。
设置服务SSi的服务大小,记为Di。所述Di代表着所述服务SSi被接入网自治系统缓存后所占据的空间大小。
设置接入网自治系统ANj的缓存容量,记为Cj。
设置接入网自治系统ANj的任意一个传输网自治系统,记为TNk,下角标k表示传输网自治系统的标识号;所述TNk如图1中数字1、2、3所示;接入网自治系统ANj需要向传输网自治系统TNk支付的域间流量价格,记为Pj,即图1中数字7、8、9所示。
设置接入网自治系统ANj的本地缓存收益转化系数,记为ωj;
设置服务缓存整数变量,记为xi,j,且xi,j={0,1};所述服务缓存整数变量xi,j是指接入网自治系统ANj是否缓存服务SSi的条件;当xi,j=0时表示ANj不缓存服务SSi;当xi,j=1时表示ANj缓存服务SSi;
设置请求服务整数变量,记为且所述请求服务整数变量是用于衡量ANj是否需要向TNk请求服务SSi的条件;当时表示需要从TNk中获取服务SSi,当时表示服务SSi可以在本地网络缓存或者邻居自治系统的缓存空间中获取;
步骤二,建立自治系统缓存收益函数;
S为服务的总个数;
λi,j表示在第j个接入网自治系统ANj中的第i个服务SSi的流行度;
Di表示第i个服务SSi的服务大小;
xi,j表示在第j个接入网自治系统ANj中的第i个服务SSi的服务缓存整数变量;
ωj表示第j个接入网自治系统ANj的本地缓存收益转化系数;
Pj表示第j个接入网自治系统ANj需要向传输网自治系统TNk支付的域间流量价格;
步骤三,构建基于纳什议价博弈的合作缓存优化问题;
步骤303,按照服务流行度序列K流行度=[λ1,j λ2,j … λi,j … λS,j]中由大到小的顺序对每个服务SS1,SS2,…,SSi,…,SSS进行判断;
如果Cj≥Di,允许接收服务SSi,且执行步骤304;
如果Cj<Di,不允许接收服务SSi,且执行步骤305;
步骤305,如果服务流行度序列K流行度=[λ1,j λ2,j … λi,j … λS,j]还有未判断的服务,返回步骤303;
在本发明中,针对合作缓存优化OP设置的约束条件为:
在本发明中,不等式约束条件(2)表示接入网自治系统ANj缓存的服务大小必须小于本地的缓存空间。等式约束条件(3)表示服务SSi的至少可以从上级传输网、本地缓存、邻居缓存之中的某一处获取。约束条件(4)限制了相关变量的取值范围。
步骤309,对拉格朗日函数L松弛进行对偶变换,得到拉格朗日对偶函数,记为DL对偶,且η为对偶变量,在确定了所述拉格朗日对偶函数DL对偶后,配合约束条件,从而完成了基于纳什议价博弈的合作缓存优化在SINET架构中的应用。
在本发明中,重复执行步骤三来计算完成步骤一中所有的接入网自治系统。
实施例1
实施本发明方法是采用python语言开发,使用CPLEX作为最优化问题求解工具,仿真环境为Ubuntu12.04操作系统,CPU为Intel酷睿i7-8750,内存16GB。
按照接入网自治系统之间是否合作缓存以及合作方式的不同,可以归纳出三种不同情形的缓存策略:本地最优缓存策略(Local Optimal Caching strategy,LOC)、全局最优缓存策略(Global Optimal Caching strategy,GOC)、以及本发明所提出的基于拉格朗日分解和合作博弈的公平合作缓存策略(Fair Cooperative caching strategy,FC)。下面分别对它们的缓存收益进行介绍。
表1,服务流行度
服务 | AN<sub>1</sub> | AN<sub>2</sub> | AN<sub>3</sub> |
SS<sub>1</sub> | 55 | 5 | 5 |
SS<sub>2</sub> | 35 | 40 | 30 |
SS<sub>3</sub> | 54 | 30 | 37 |
SS<sub>4</sub> | 35 | 38 | 44 |
SS<sub>5</sub> | 53 | 39 | 38 |
SS<sub>6</sub> | 40 | 28 | 41 |
LOC策略:每个接入网自私的决定缓存内容,目标是使本地网络收益最大化。由表1可以计算出,LOC策略下AN1选择缓存服务SS1、AN2缓存服务SS2、AN3缓存服务SS4,它们的收益分别为:
55×1+35×0.5+35×0.5-(54+53+40)×0.2=60.6;
5×0.5+40×1+38×0.5-(30+39+28)×0.2=42.1;
5×0.5+30×0.5+44×1-(37+38+41)×0.2=38.3。
系统缓存总收益为60.6+42.1+38.3=141,三个接入网缓存收益的标准差为11.9。
GOC策略:每个接入网合作决定缓存的服务,目标是使全网缓存收益最大化。由表1可以计算出,GOC策略下AN1选择缓存服务SS3、AN2缓存服务SS5、AN3缓存服务SS4,它们的收益分别为:
54×1+53×0.5+35×0.5-(55+35+40)×0.2=72.0;
30×0.5+38×0.5+39×1-(5+40+28)×0.2=58.4;
37×0.5+44×1+38×0.5-(5+30+41)×0.2=66.3。
系统缓存总收益为72+58.4+66.3=196.7,三个接入网缓存收益的标准差为6.8。
FC策略:每个接入网之间合作决定缓存的服务,目标是在保证每个接入网收益不低于LOC策略收益的同时,保证每个接入网缓存收益的公平性。由表1可以计算出,FC策略下AN1选择缓存服务SS5、AN2缓存服务SS2、AN3缓存服务SS6,它们的收益分别为:
53×1+35×0.5+40×0.5-(55+54+35)×0.2=61.7;
40×1+39×0.5+28×0.5-(5+30+38)×0.2=58.9;
30×0.5+38×0.5+41×1-(5+37+44)×0.2=57.8。
系统缓存总收益为61.7+58.9+57.8=178.4,三个接入网缓存收益的标准差为2.0。
对比LOC策略、GOC策略、FC策略,可以得出以下结论:1)FC策略可以提高每个接入网的缓存收益,为接入网之间的合作缓存提供了动机;2)对比FC策略和GOC策略,可以发现GOC策略虽然使自治系统整体的缓存收益最高,但是却忽视了接入网之间缓存收益的公平性。FC策略虽然使自治系统缓存总收益降低了18.3,但是却使得三个接入网缓存收益的标准差下降了4.8,即三个接入网之间的合作更加公平。此外,因为GOC策略不保证公平性,所以GOC策略在最大化整体缓存收益时,可能会导致单个自治系统缓存收益下降,使得合作缓存无法长期进行。
在本发明中,若将表1中AN1对SS2~SS6的服务流行度修改为1,则GOC策略会使得AN1缓存服务SS5,AN2缓存服务SS2,AN3缓存服务SS4,此时GOC策略使得AN1的缓存收益低于LOC策略。在实际网络环境中,更加公平的合作关系,有助于维持合作关系的持续发展,使得参与合作缓存的自治系统激励相容。
如图2所示的所有接入网自治系统为降低流量的利润的累积分布。仿真中设置服务流行度为参数为[0.8,1.2]的zipf分布,流行度在不同自治系统中的差异性参数为1,设置每个接入网缓存容量为3GBytes,服务个数为1万个,服务大小服从均值为15MB的几何分布。
从图中可以看出,自私缓存策略(LOC)各个接入网降低流量的利润分布跨度最大,全局最优策略(GOC)次之,本发明提出的公平缓存策略(FC)各个接入网降低流量的利润分布跨度最小。具体来讲,LOC策略下各个接入网降低流量的利润标准差为20.27,GOC策略下各个接入网降低流量的利润标准差为14.95,FC策略下各个接入网降低流量的利润的标准差为10.52。上述现象说明LOC策略各个接入网降低流量的利润的公平性最差,GOC策略次之,FC策略下各个接入网的公平性最好。FC策略获得公平性提升是以牺牲降低流量的总利润为代价的,具体来讲,FC策略相较GOC策略在降低流量的总利润降低9.7%的情况下可获得了29.6%的公平性提升。
Claims (3)
1.一种基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法,其特征在于包括人下列步骤:
步骤一,为接入网自治系统配置协商代理服务器、以及设置决策信息;
步骤101,设置接入网自治系统的数量、以及匹配的协商代理服务器;
在SINET架构中设置了接入的接入网自治系统集合ANAS={AN1,AN2,…,ANj,…,ANV};
AN1表示第一个接入网自治系统;
AN2表示第二个接入网自治系统;
ANj表示第j个接入网自治系统;
ANV表示最后一个接入网自治系统;
下角标j为接入网自治系统的标识号;
下角标V为接入SINET架构中的接入网自治系统的总个数;
步骤102,设置接入网自治系统的决策信息;
设置第i个服务SSi在第j个接入网自治系统ANj中的流行度,记为λi,j;
设置第i个服务SSi的服务大小,记为Di;
设置第j个接入网自治系统ANj的缓存容量,记为Cj;
设置第j个接入网自治系统ANj的任意一个传输网自治系统,记为TNk,下角标k表示传输网自治系统的标识号;
设置第j个接入网自治系统ANj的本地缓存收益转化系数,记为ωj;
设置服务缓存整数变量,记为xi,j,且xi,j={0,1};所述服务缓存整数变量xi,j是指接入网自治系统ANj是否缓存服务SSi的条件;当xi,j=0时表示ANj不缓存服务SSi;当xi,j=1时表示ANj缓存服务SSi;
设置请求服务整数变量,记为且所述请求服务整数变量是用于衡量ANj是否需要向TNk请求服务SSi的条件;当时表示需要从TNk中获取服务SSi,当时表示服务SSi可以在本地网络缓存或者邻居自治系统的缓存空间中获取;
步骤二,建立自治系统缓存收益函数;
S为服务的总个数;
Pj表示第j个接入网自治系统ANj需要向传输网自治系统TNk支付的域间流量价格;
步骤三,构建基于纳什议价博弈的合作缓存优化问题;
步骤303,按照服务流行度序列K流行度=[λ1,j λ2,j … λi,j … λS,j]中由大到小的顺序对每个服务SS1,SS2,…,SSi,…,SSS进行判断;
如果Cj≥Di,允许接收服务SSi,且执行步骤304;
如果Cj<Di,不允许接收服务SSi,且执行步骤305;
步骤305,如果服务流行度序列K流行度=[λ1,j λ2,j … λi,j … λS,j]还有未判断的服务,返回步骤303;
针对合作缓存优化OP设置的约束条件为:
不等式约束条件(2)表示接入网自治系统ANj缓存的服务大小必须小于本地的缓存空间;等式约束条件(3)表示服务SSi的至少可以从上级传输网、本地缓存、邻居缓存之中的某一处获取;约束条件(4)限制了相关变量的取值范围;
2.根据权利要求1所述的基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法,其特征在于:对比LOC策略、GOC策略、FC策略,可以得出以下结论:1)FC策略可以提高每个接入网的缓存收益,为接入网之间的合作缓存提供了动机;2)对比FC策略和GOC策略,可以发现GOC策略虽然使自治系统整体的缓存收益最高,但是却忽视了接入网之间缓存收益的公平性;FC策略虽然使自治系统缓存总收益降低了18.3,但是却使得三个接入网缓存收益的标准差下降了4.8,即三个接入网之间的合作更加公平。
3.根据权利要求1所述的基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法,其特征在于:FC策略相较GOC策略在降低流量的总利润降低9.7%的情况下可获得了29.6%的公平性提升。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020107786082 | 2020-08-05 | ||
CN202010778608 | 2020-08-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113630456A true CN113630456A (zh) | 2021-11-09 |
CN113630456B CN113630456B (zh) | 2022-07-05 |
Family
ID=78382247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110882262.5A Active CN113630456B (zh) | 2020-08-05 | 2021-08-02 | 基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113630456B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010150050A1 (en) * | 2009-06-23 | 2010-12-29 | Nokia Corporation | Method and apparatus for allocating power for cooperative communications |
CN102130824A (zh) * | 2010-10-30 | 2011-07-20 | 华为技术有限公司 | 联合优化的方法、装置和系统 |
US20130273968A1 (en) * | 2008-08-19 | 2013-10-17 | Digimarc Corporation | Methods and systems for content processing |
CN108834080A (zh) * | 2018-04-17 | 2018-11-16 | 东南大学 | 异构网络中基于多播技术的分布式缓存和用户关联方法 |
WO2019023500A1 (en) * | 2017-07-26 | 2019-01-31 | The Trustees Of Dartmouth College | PERCEPTUAL APPARATUS IMPLEMENTED BY COMPUTER |
-
2021
- 2021-08-02 CN CN202110882262.5A patent/CN113630456B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130273968A1 (en) * | 2008-08-19 | 2013-10-17 | Digimarc Corporation | Methods and systems for content processing |
WO2010150050A1 (en) * | 2009-06-23 | 2010-12-29 | Nokia Corporation | Method and apparatus for allocating power for cooperative communications |
CN102130824A (zh) * | 2010-10-30 | 2011-07-20 | 华为技术有限公司 | 联合优化的方法、装置和系统 |
WO2019023500A1 (en) * | 2017-07-26 | 2019-01-31 | The Trustees Of Dartmouth College | PERCEPTUAL APPARATUS IMPLEMENTED BY COMPUTER |
CN108834080A (zh) * | 2018-04-17 | 2018-11-16 | 东南大学 | 异构网络中基于多播技术的分布式缓存和用户关联方法 |
Non-Patent Citations (3)
Title |
---|
BO FAN等: "A Social-Aware Virtual MAC Protocol for Energy-Efficient D2D Communications Underlying Heterogeneous Cellular Networks", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 * |
张珊等: "Energy-Aware Caching Policy Design Under Heterogeneous Interests and Sharing Willingness", 《ICC 2019 - 2019 IEEE INTERNATIONAL CONFERENCE ON COMMUNICATIONS (ICC)》 * |
李继蕊等: "5G网络下移动云计算节能措施研究", 《计算机学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113630456B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A federated learning-based edge caching approach for mobile edge computing-enabled intelligent connected vehicles | |
Guan et al. | Effective data communication based on social community in social opportunistic networks | |
CN113992676B (zh) | 端边云架构和完全信息下分层联邦学习的激励方法及系统 | |
Hassija et al. | A mobile data offloading framework based on a combination of blockchain and virtual voting | |
CN111262940A (zh) | 一种车载边缘计算应用缓存方法、装置及系统 | |
CN113344255B (zh) | 基于移动边缘计算和区块链的车载网络应用数据传输和计费优化方法 | |
Cao et al. | Reliable and efficient multimedia service optimization for edge computing-based 5G networks: game theoretic approaches | |
CN109729507B (zh) | 基于激励机制的d2d协作式缓存方法 | |
CN116669111A (zh) | 一种基于区块链的移动边缘计算任务卸载方法 | |
Yang et al. | Caching-enabled computation offloading in multi-region MEC network via deep reinforcement learning | |
Lan et al. | Deep reinforcement learning for computation offloading and caching in fog-based vehicular networks | |
Budhiraja et al. | Latency-energy tradeoff in connected autonomous vehicles: A deep reinforcement learning scheme | |
Lu et al. | Edge caching strategy design and reward contract optimization for uAV-enabled mobile edge networks | |
Yacob et al. | An optimal incentive mechanism for blockchain-enabled content caching in device-to-device communication | |
Wang et al. | Incentive-aware blockchain-assisted intelligent edge caching and computation offloading for IoT | |
Khanal et al. | Dcol: Distributed collaborative learning for proactive content caching at edge networks | |
Kumar et al. | Joint content sharing and incentive mechanism for cache-enabled device-to-device networks | |
Sun et al. | A proactive on-demand content placement strategy in edge intelligent gateways | |
Li et al. | Blockchain enabled task offloading based on edge cooperation in the digital twin vehicular edge network | |
Liu et al. | Consortium blockchain-based security and efficient resource trading in V2V-assisted intelligent transport systems | |
Khani et al. | An enhanced deep reinforcement learning-based slice acceptance control system (EDRL-SACS) for cloud–radio access network | |
CN113630456B (zh) | 基于拉格朗日对偶分解和纳什议价博弈的域间合作缓存方法 | |
Jin et al. | An Adaptive Cooperative Caching Strategy for Vehicular Networks | |
Song et al. | Incentive mechanism design for two-layer mobile data offloading networks: a contract theory approach | |
Ren et al. | Increasing network throughput based on dynamic caching policy at wireless access points |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |