CN109729507B - 基于激励机制的d2d协作式缓存方法 - Google Patents
基于激励机制的d2d协作式缓存方法 Download PDFInfo
- Publication number
- CN109729507B CN109729507B CN201810456327.8A CN201810456327A CN109729507B CN 109729507 B CN109729507 B CN 109729507B CN 201810456327 A CN201810456327 A CN 201810456327A CN 109729507 B CN109729507 B CN 109729507B
- Authority
- CN
- China
- Prior art keywords
- file
- cache
- user
- caching
- files
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Mobile Radio Communication Systems (AREA)
Abstract
本发明涉及一种基于激励机制的D2D协作式缓存方法,其联合考虑激励成本及缓存放置策略的关系,从网络运营商(Network Operator,NO)的角度构建一个系统效用函数,并寻求可使网络运营效用最大化的缓存服务者的选取及缓存放置的联合最优解。
Description
技术领域
本发明面向移动通信领域,提出了一种适用于D2D无线缓存网络的激励机制,并在该激励机制下,设计了考虑用户偏好和用户分布的协作式缓存方法。
背景技术
终端直通技术(Device-to-Device,D2D)是指使能邻近的终端设备之间不经过基站的转发和传输而直接进行通信的一种技术,它能够有效增加蜂窝网络容量,降低基站负载,降低通信时延,是5G移动通信的关键技术之一。图1是D2D通信场景示意图。
据Cisco数据预测,移动数据流量将以每年47%的速率增长,到2021年单月流量达到49EB,移动终端数量预测达到116亿[1],这对于现有的蜂窝系统是一个巨大的挑战。传统的蜂窝网络技术难以应对爆发式增长的数据需求,需要探索新的技术以进一步提升网络容量。随着用户设备存储空间的增大和计算能力的增强,将数据预先放置到移动设备获得了广泛的关注。通过数据预缓存及D2D通信技术,可将用户数据请求实现本地卸载,能够降低网络拥塞,减少传输时延,从而有效地提升系统频谱效率和能量效率。
在大部分现有文献中,D2D缓存终端被当作是无私的,即用户终端无私地贡献缓存空间参与到协作缓存中。而实际上,缓存帮助者需要消耗存储资源、能量资源等。因此,从用户自私性角度看,在缺乏激励时,用户倾向于不参与文件缓存或者仅缓存其偏好的文件。另一方面,当系统中的缓存服务者很少时,若缓存服务者均只缓存其偏好文件,则不利于协同数据卸载,对系统的流量卸载贡献有限。基于此,需要设计一种有效的缓存激励机制,激励用户参与协作缓存与传输,并且针对用户缓存文件与其偏好的差异提供不同的激励,以促使用户参与到不限文件类型的协作存储中来。通过合理化配置文件,提高网络效用(Network Utility,NU),以尽量少的激励成本获得尽量多的流量卸载。
目前已有一些文献研究了D2D缓存设计的方案,简要介绍如下:
文献[2]-[4]讨论了对D2D通信的激励,但是没有考虑对文件预缓存的激励及缓存策略优化问题,导致不能从缓存命中的角度提升系统卸载性能。其中,文献[2]-[3]基于合同理论,设计了对称和不对称信息下的合同来激励蜂窝中用户参与D2D通信。文献[4]则考虑D2D用户自行根据自己的偏好意愿独立地决定缓存文件,并向基站上报其单位功率消耗,由基站进一步管理内容分发,此外还联合考虑了功率分配、信道分配、链路管理、回报设计等多个因素,建立使系统效用最大化为目标的优化模型,但是该方案更偏向于传输方案优化,而未考虑缓存方案的优化。
文献[5]假设用户进行报价投标,基站评估用户价值再进一步做缓存决策,设计了基于Vickrey-Clarke-Groves(VCG)拍卖的激励机制,但是该机制复杂度高,损失函数难以直接计量,限制了其实用性。
文献[6]将基站和缓存者的相互作用建模为一个Stackelberg博弈,由基站计算单位激励,用户根据激励大小决定缓存策略以最大化自身的效用。但该方法对所有用户提供一致的单位激励,而没有考虑用户私人偏好对用户缓存意愿的影响。
文献[7],[8]从降低用户成本的角度设计了基于社交的缓存激励方案。文献[7]主要从放置成本与接入成本角度讨论用户是否成为缓存节点,基于用户互助的假设,默认成为缓存节点的用户愿意免费为其他具有较近物理及社交距离的用户缓存文件提供卸载服务,但这并不完全符合用户的自私属性。文献[8]基于文献[7]进一步设定了非缓存节点向缓存节点报价的机制,采用博弈论分层算法进行设计。然而,文献[7],[8]均未考虑用户缓存空间等约束条件,且不考虑激励无数据需求的用户参与缓存和传输,存在一定的局限性。
综上,现有的方案存在不同程度的设计缺陷,缺乏对缓存用户激励、用户偏好、缓存策略的有效联合设计,不能有效提高D2D无线缓存系统性能。
发明内容
本发明联合考虑激励成本及缓存放置策略的关系,从网络运营商(NetworkOperator,NO)的角度构建一个系统效用函数,并寻求可使网络运营效用最大化的缓存服务者的选取及缓存放置的联合最优解。
为实现以上发明目的,采用的技术方案是:
基于激励机制的D2D协作式缓存方法,包括以下步骤:
步骤1:初始化:
用χ表示候选缓存帮助者CHm中被选中的充当缓存帮助者的用户设备集合,用Cm={φf|cm,f=1,1≤m≤M}表示CHm缓存的文件集合,初始阶段设置为空集;其中φf表示系统中的文件f,cm,f=1表示CHm缓存了文件f,M表示系统中CH用户的数量;
步骤2:基站执行缓存帮助者CH选取过程,通过定义卸载潜力指标,选取当前最具卸载潜力的CH优先确定缓存策略;
对候选缓存帮助者CH集SCH中的CHm,分别计算它们的加权潜在卸载量,即:
其中NCR,m表示CHm的邻居内容请求者CR集合,F表示系统中总的文件数量,dn,m表示用户n与用户m的距离,qn,f=1表示用户n对文件φf具有偏好,否则qn,f=0,sf表示文件f的大小;
对得到的各ym值进行降序排序,选取ym值最大的CHm进行文件缓存;
步骤3:对选中的CHm进行缓存决策;
统计选中的CHm的邻居CR的偏好文件流行度,即对于所有的文件φf∈F,计算
其中,θ为偏好加权因子,可表示为:
Fm表示用户m的偏好文件集合偏,N为CR用户的数量;进一步地,对om,f进行降序排序,排序靠前的文件优先存储,直到空间被存满;
步骤4:根据当前决策,更新相关参数/状态量
更新已选中的CH集合,χ=χ∪{m};从候选CH集合中移除该候选CH,SCH←SCH\{CHm};
更新偏好矩阵Q=[qn,f]N×F,更新选中的CHm的邻居CRn对应的文件偏好集Fn:即对n∈NCR,m,如果该CRn的偏好文件已经被CHm缓存,则删除Fn中的该文件,即Fn=Fn\{Cm},并将对应的qn,f置0;
检查Fn是否为空,若Fn为空,删除SCR中的该CRn,SCR←SCR\{CRn};其中,CRn为第n个内容请求者,SCR为内容请求者的集合;
重复步骤2至步骤4直到SCH或SCR为空集,即代表系统中不再有候选CH或者CR的潜在请求文件已经全部被CH缓存。
附图说明
图1:D2D通信场景示意图
图2:D2D无线缓存系统示意图
图3:缓存阶段的流程图
图4:激励分配阶段流程图
图5:PDCA算法流程图
图6:潜在卸载量与系统中缓存用户数关系图
图7:网络效用与系统中候选缓存用户数关系图
图8:平均CH UE激励价格与候选缓存用户数关系图
图9:不同缓存空间及候选缓存用户数下的网络效用图
图10:不同Zipf指数及候选用户数下的网络效用图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
D2D无线缓存系统示意图如图2所示。小区中有N个具备D2D通信能力的用户设备(User Equipment,UE),称为内容请求终端(Content Requester,CR),其集合为SCR={CRn|n=1,2,...,N}。其中部分CR具备缓存能力,是候选的缓存帮助者(Caching Helper,CH)。设候选缓存帮助者的集合为SCH={CHm|m=1,2,...,M},CHm拥有的缓存空间为Sm。当m=n时,CHm=CRn,即同一个用户既为CH,也为CR。如果两个用户之间的欧几里得距离dn,m小于目标传输距离R,则这两个用户可以在D2D模式下进行通信。用A=[an,m]N×N表示用户拓扑关系,an,m=1表示用户n及用户m在D2D通信范围内,反之an,m=0。将CHm的邻居CR集合定义为NCR,m={CRn|an,m=1},CRn的邻居CH集合定义为NCH,n={CHm|an,m=1}。
系统中文件集合为F={φf|f=1,2,...,F},文件φf的大小记为sf。不同的UE有自己的文件偏好。用偏好矩阵Q=[qn,f]N×F表征系统中用户对文件的偏好,其中,qn,f=1表示用户n对文件φf具有偏好,否则qn,f=0。Fn={φf|qn,f=1}表示用户n的偏好文件集合。此处认为,用户对文件有偏好即代表用户在接下来T时间内可能对该文件产生请求。不失一般性,假设系统中用户偏好服从Zipf分布[9]。
D2D通信模式下的文件请求过程一般为:用户发起请求时,通过D2D链路向周边缓存服务用户请求文件,在一个可容忍的等待时间内,若无法获取文件,则用户通过基站回传链路向远端服务器请求文件。在此过程中,如果请求者本身是一个缓存帮助者,则请求文件时首先检查自身缓存,如果缓存用户本身存有自身的请求数据,则从自身缓存中直接获取,可以将此情况视为通信距离为零的D2D通信。此外,为便于描述本发明的核心内容,作出以下假设条件:
1)假设基站(Base Station,BS)能够获取系统中用户设备的位置信息及其文件偏好信息。在实际系统中,用户位置信息容易获取,用户偏好可由推荐系统等获取数据;
2)假设用户在一个相对长的时间内(例如,数分钟至数十分钟以上)处于静止或低移动性状态;
3)假设移动端的缓存是半静态刷新的,每隔时间T进行一次全局缓存检查及数据更新。例如,可指定某一固定时长(如T=1h),或根据文件集合中的文件长度的统计特性决定某个动态的时长等。
本发明使用的主要参数符号及其释义如表1所示。
表1:主要参数及描述
D2D缓存通信激励机制设计:
本发明设计的缓存通信机制包含两个阶段,即缓存阶段、激励分配阶段。
A、缓存阶段:
系统执行流程如下:
1)用户偏好感知学习:由基站定期(如30min~1h;时间间隔可以根据具体情况调整)获取潜在CR用户的位置及用户偏好(如通过应用程序的推荐系统获取或根据用户历史请求等方式计算);
2)流量高峰到来之前,基站向系统中用户设备广播缓存终端征集信令,询问UE是否愿意参与缓存协作数据传输;
3)用户设备自行判断是否满足作为D2D缓存帮助者CH的条件,满足则上报告知基站。其中,用户条件判断包括判断自身是否具备若干基本的服务能力,例如:有足够存储空间,充足电量,且愿意开放缓存能力参与后续协作传输,等等。上报信息包括位置信息,缓存空间,文件偏好,缓存文件权限(如仅缓存自身偏好文件或者不限缓存文件类型)等;
4)由基站根据候选CH用户的位置、其周边CR用户分布情况以及用户文件偏好等信息,根据设计的优化算法(在后文给出)选出一定数量的CH用户,确定它们对应的缓存文件。
5)由基站将缓存文件发送给对应的CH用户。
缓存阶段流程图如图3所示。
B、激励分配阶段:
图4(a)给出了激励分配的交互示意图,其实施流程如图4(b)所示,简要叙述如下:
1)CR向CH请求文件,CH与CR建立D2D通信连接。
2)CR成功接收文件后,向网络运营商发送成功传输确认信息,其中,成功传输确认信息包括CH ID,文件ID,文件大小等内容。
3)网络运营商形成账单记录,将通过D2D通信卸载的流量计入CR的流量账单中,按照正常的流量服务费用向CR收取流量费用.
4)网络运营商按缓存阶段的既定价格以及实际卸载的流量,付给CH报酬作为其参与协作完成数据卸载的激励。
基于上述所提无线缓存激励机制,本发明从网络运营商的角度,考虑最大化运营商效用的文件缓存放置策略。定义网络运营商的潜在效用UNO为系统潜在卸载流量收益Uoffload与付给缓存帮助者的成本Ucost之差,即
UNO=Uoffload-Ucost (1)
以下对(1)中等号右侧的两个变量进行构建。
一方面,由于通过D2D卸载的流量被运营商正常计入用户使用的流量账单中,故D2D协作数据卸载给运营端带来的收益可认为是以D2D协作卸载数据量Yoffload为变量的收益函数g(Yoffload)。根据文献[10]可知,该收益函数单调递增,不失一般性,定义α为NO端的流量计价基准,g(Yoffload)=α·Yoffload。故网络运营商的潜在收益Uoffload可由式(2)计算:
另一方面,从网络运营商的角度,潜在的协作卸载激励成本为系统中付给所有被选中的CH的卸载成本之和。单个CH的卸载成本为该用户的潜在卸载流量Om乘以卸载流量单价βλm。其中,β定义为D2D流量计价基准,也可以将其表示为β=αk,k为D2D流量计价基准占NO端基准的比例因子;λm为CHm对应的激励因子。潜在的协作卸载激励成本Ucost可由式(3)计算:
其中,用指示CRn对文件φf的请求由CHm提供服务,如是则否则留意到,由于一个CR用户请求的文件f可能在其周边的多个CH用户的缓存中找到,为了避免潜在卸载成本的重复计算,本发明假设CR用户应与缓存有其请求文件的周边CH用户中距离最近或信道质量最好的CH用户建立D2D通信。
由于一个自私的CH更愿意缓存其感兴趣的文件,为了激励此类CH用户缓存其他CR用户感兴趣的文件,以实现辅助NO进行协作数据卸载,本发明考虑了对缓存了非自身偏好文件的用户给予更多的激励,故此处将激励因子定义为CH的偏好文件与其缓存文件的相似度的倒数,即:
其中η为一个控制因子,实际系统中可选择η=1或其他值,而用户偏好指示向量qm=[qm,1,qm,2,...qm,F]与其缓存文件指示向量cm=[cm,1,cm,2,...cm,F]的相似度由下式确定:
式(6)的物理意义为:在CHm能够提供的缓存空间内,CHm缓存的文件对其自身偏好的需求的满足程度。如果用户对其自身偏好的需求满足度越大,则其提供空间参与协作缓存所额外付出的代价越小,故激励因子λm应越小。本发明的设计目的是在提升卸载量的同时,希望以更小的运营代价激励用户参与协作缓存。
以下分若干情形进一步对式(6)进行说明:
1)当μ≥ξ时,即CHm的全部偏好文件所占空间不小于其能够存储的文件空间,则式(6)可化简为
它表示CHm贡献的缓存空间中其自身感兴趣的文件所占的比例,该比例越大,则用户的自我满足度越高,系统应降低对其的激励。
2)当μ<ξ时,即CHm的全部偏好文件所占空间小于其能够存储的文件空间,则式(6)可化简为
它表示被缓存的CHm感兴趣的文件占其所有感兴趣的文件所占空间的比例,该比例越大,则用户的自我满足度越高。同理,系统也应降低对其的激励。
基于上述,当CH的偏好文件与其缓存的文件完全不一致时,式(6)定义的相似度取值为0;当缓存空间内存储的都是CH的偏好文件或者CH用户的全部偏好文件均被缓存时,相似度的取值达到最大值1。故缓存与偏好文件的相似度的取值区间为[0,1]。相应地,激励因子λm的理论取值范围为[η,∞]。在实际系统中,激励因子为∞并不合理,实际应对λm限定一个上界b。结合式(6),有:
综上,系统中潜在的协作卸载激励成本Ucost计算如下:
结合式(2)、(10),可以得到优化问题的模型如下:
上式中,优化目标为网络运营商的效用UNO,待求解变量为指示候选CHm是否被选为缓存帮助者的指示变量χm以及各CHm的对应缓存矩阵。约束条件C1表示对每于个CH,缓存文件空间之和小于其最大缓存空间。C4表示只有被选中成为缓存帮助者才能缓存文件。
由前述问题模型(11)可知,该问题是一个非线性整数规划问题,属于NP难题,无法在多项式时间内获得最优解。本发明提出以下的启发式算法对其求解。
由目标函数可知,要使网络运营商的效用最大化,需要在尽量提高潜在D2D卸载量的同时,尽量减小激励成本。本发明通过选取能够尽量覆盖更多周边潜在用户请求的CH来提升潜在卸载量;针对单个CH的缓存内容,则通过提高缓存文件与CH偏好文件的相似度以减小激励因子,从而降低卸载成本。本方法中CH的选取及其需要缓存的文件由基站实施集中式决策而确定。
基于上述设计思想,本发明采用循环分步求解的方法,提出一种基于偏好与距离的缓存算法(Preference and Distance based Caching Algorithm,PDCA),如图5所示,其实施过程简述如下:
1)步骤1:初始化。
用χ表示候选CHm中被选中的充当缓存帮助者的用户设备集合,用Cm={φf|cm,f=1,1≤m≤M}表示CHm缓存的文件集合,初始阶段设置为空集;
2)步骤2:基站执行CH选取过程,即通过定义卸载潜力指标,选取当前最具卸载潜力的CH优先确定缓存策略。
对候选CH集SCH中的CHm,分别计算它们的加权潜在卸载量,即:
由式(10)可计算每个CHm用户覆盖范围内的所有潜在CR用户的加权潜在请求文件量。注意到,加权因子与用户间距离有关,这是因为假设用户间距离越近,缓存用户将有更大的概率与该请求用户建立D2D通信并成功完成文件传输,因此该文件的加权潜在卸载量越大。其中,用户间的距离信息可以通过多种方式获取,例如:通过用户自身定位信息获取的坐标计算相对距离,或者通过D2D发现阶段进行信号测量并根据信号强度变化预测相对距离,等等。
进一步地,对得到的各ym值进行降序排序,选取ym值最大的CHm进行文件缓存。这是由于,ym值越大表示该CH周边存在更多的潜在CR用户,故可优先确定该CH的缓存策略。
3)步骤3:对选中的CHm进行缓存决策。
统计选中的CHm的邻居CR的偏好文件流行度,即对于所有的文件φf∈F,计算
其中,θ为偏好加权因子,可表示为:
偏好加权因子体现了对CH偏好的考虑,即对于CH偏好的文件,增大其流行度以提升该文件被选中缓存的概率,这可以提高缓存文件与偏好文件的相似度,进而降低激励因子,降低付给CH的单位成本。
进一步地,对om,f进行降序排序,排序靠前的文件优先存储,直到空间被存满。
4)步骤4:根据当前决策,更新相关参数/状态量。
更新已选中的CH集合,χ=χ∪{m};从候选CH集合中移除该候选CH,SCH←SCH\{CHm}。
更新偏好矩阵,更新选中的CHm的邻居CRn对应的文件偏好集Fn:即对n∈NCR,m,如果该CRn的偏好文件已经被CHm缓存,则删除Fn中的该文件,即Fn=Fn\{Cm},并将对应的qn,f置0。
检查Fn是否为空,若Fn为空,删除SCR中的该CRn,SCR←SCR\{CRn}。
重复步骤2至步骤4直到SCH或SCR为空集,即代表系统中不再有候选CH或者CR的潜在请求文件已经全部被CH缓存,则算法结束。
综上,在表2、图4分别给出PDCA算法的执行步骤及流程图。特别指出:本发明的步骤2(对应表2中的1~5行)中,针对基于方案[7]的缓存节点选取的环节进行了重新设计。不同于方案[7]仅基于自身数据需求来选取系统中具备最大数据需求的节点成为CH节点,本发明同时考虑了用户及其邻近节点的数据需求来选取具备最大卸载潜力的节点成为CH节点。
表2:PDCA算法描述
实施例2
系统中用户设备服从随机分布,从中随机选出部分用户设备作为具备缓存能力的候选缓存服务者。用户偏好根据服从Zipf分布的文件流行度产生。部分参数设置如表3所示。出于公平性及合理性考虑,NO端流量计价基准α不应与卸载流量单价βλm取值相差过大。在本实施例中,设α取值为2,β取值为0.5(即比例因子k=1/4),激励因子λm取值区间为[1,4]。采用蒙特卡罗仿真,随机仿真1000次,对所有结果取平均值得到最终结果。
表3:仿真参数设置
(1)比较基准:
最流行缓存策略(Most Popular Caching,MPC):所有缓存服务用户均按Zipf分布对系统中最流行的前几个文件进行缓存。
基于私人偏好的缓存策略(Personal Preference Caching,PPC):系统中所有候选缓存用户均参与缓存与传输,但仅缓存私人偏好文件而不考虑其他用户的偏好请求。
随机缓存策略(Random Caching,RC):即系统中用户在其缓存空间内随机缓存文件的方案。
(2)性能指标:
网络效用:,其作为衡量网络卸载量以及CH卸载成本的综合指标。
潜在卸载量(Offloaded Traffic):
平均每个用户激励价格(Average Cost per UE):
(3)仿真结果:
给定系统中的D2D用户数,在不同缓存方法下潜在卸载量与候选缓存用户数的关系如图6所示。相比于现有方法,本方法能够带来卸载量的提升。随着候选缓存用户数的增加,所提算法的潜在卸载量先上升后趋于饱和,当系统中候选缓存用户数增加至占D2D用户数的75%时,用户的偏好数据已经基本能够实现全部通过D2D用户间协助卸载,继续增加候选用户数将不会带来卸载量的进一步上升。
在所提激励机制下,不同算法下网络效用与系统中缓存用户数的关系如图7所示。由图可见,本发明所提出的PDCA算法优于现有的其他方案,当请求用户不全是缓存用户时,能够显著提高网络效用。当所有请求用户同时也是缓存用户时(即图7中M=N=50),网络效用达到饱和。本方法可获得较好的性能,一方面是因为所提算法考虑到周边用户偏好与用户分布,能够有效地协调文件多样性与文件冗余的关系,从而提高卸载命中率;另一方面,是因为考虑了用户自身的缓存偏好,增加了对激励成本的控制,故在服务周边用户请求和满足私人偏好之间可以找到更好的平衡。
平均每用户的激励成本与候选缓存用户数的关系如图8所示。由图可知,PDCA算法的激励成本远低于随机缓存和最大流行度缓存方法,高于具有最小激励因子的私人偏好缓存方法。随着候选缓存用户数的增加,单位激励成本先略微上升再逐渐下降。这说明当存在较多候选CH时,随着缓存用户数的增加,网络运营商可以以较低的单位成本激励用户参与协作缓存和数据卸载。
图9显示了缓存空间分别为2、5、10NMU下,网络效用随候选缓存用户数变化的情况。可以看到,对于不同的缓存方案,缓存空间增大,网络效用也增大,这是因为更大的缓存空间增加了缓存文件的多样性,提高了系统中不同文件被命中卸载的概率,而在相同的缓存空间条件下,本方法可以提供比其他方案更大的网络效用。
固定CH缓存空间,改变影响系统中用户偏好分布的Zipf指数,可得到图10所示的仿真结果。可以看到,随着Zipf指数的增大,不同方案下的网络效用也随之增大。Zipf指数值越大,意味着系统中用户的文件偏好越趋于相似,即用户的文件偏好更集中于流行的前几个文件,系统中不同用户的请求文件的多样性降低,相当于存储的一个文件可以服务更多的用户,故所有方案的潜在卸载量均相应增大,而本方法可以得到更多的性能提升。
综上,由仿真结果可看出,本方法提出的缓存策略相对于其他三种缓存策略有较大的性能提升。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
参考文献
[1]Cisco visual networking index:Global mobile data traffic forecastupdate,2016-2021,http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/mobile-white-paper-c11-520862.html,Feb.2017.
[2]Y.Zhang,L.Song,W.Saad,Z.Dawy,Z.Han,"Contract-Based IncentiveMechanisms for Device-to-Device Communications in Cellular Networks",IEEEJournal on Selected Areas in Communications,vol.33,no.10,pp.2144-2155,Oct.2015.
[3]Y.Chen,S.He,F.Hou,Z.Shi,et al,"Promoting Device-to-DeviceCommunications in Cellular Networks by Contract-based Incentive Mechanisms",IEEE Network,vol.31,no.3,pp.14-20,May 2017.
[4]C.Yi,S.Huang,J.Cai,"An Incentive Mechanism Integrating JointPower,Channel and Link Management for Social-Aware D2D Content Sharing andProactive Caching",IEEE Transactions on Mobile Computing,vol.17,no.4,pp.789-802,May 2018.
[5]Q.Zhang,L.Gui,F.Tian,F.Sun,"A Caching-based Incentive Mechanismfor cooperative data offloading",2017IEEE International Conference onCommunications(ICC),pp.1376-1381,2017.
[6]Z.Chen,Y.liu,B.Zhou,M.Tao,"Caching Incentive Design in WirelessD2D Networks:A Stackelberg Game Approach",2016IEEE International Conferenceon Communications (ICC),pp.1-6,2016.
[7]K.Zhu,W.Zhi,L.Zhang,X.Chen,et al,"Social-aware incentivizedcaching for D2D communication",IEEE Access,vol.4,pp.7585-7593,2016.
[8]W.Zhi,K.Zhu,Y.Zhang,L.Zhang,et al,"Hierarchically Social-AwareIncentivized Caching for D2D Communications",2016IEEE InternationalConference on Parallel and Distributed Systems,pp.316-323,2016.
[9]H.Hsiang,K.Chen,"A Resource Allocation Perspective on Caching toAchieve Low Latency",IEEE Communication Letters,vol.20,no.1,pp.145-148,2016.
[10]C.Courcoubetis,R.Weber.Pricing Communication Networks:economics,technology and modelling[M].John Wiley&Sons,2003.
Claims (1)
1.基于激励机制的D2D协作式缓存方法,其特征在于:包括以下步骤:
步骤1:初始化:
用χ表示候选缓存帮助者CHm中被选中的充当缓存帮助者的用户设备集合,用Cm={φf|cm,f=1,1≤m≤M}表示CHm缓存的文件集合,初始阶段设置为空集;其中φf表示系统中的文件f,cm,f=1表示CHm缓存了文件f,M表示系统中CH用户的数量;
步骤2:基站执行缓存帮助者CH选取过程,通过定义卸载潜力指标,选取当前最具卸载潜力的CH优先确定缓存策略;
对候选缓存帮助者CH集SCH中的CHm,分别计算它们的加权潜在卸载量,即:
其中NCR,m表示CHm的邻居内容请求者CR集合,F表示系统中总的文件数量,dn,m表示用户n与用户m的距离,qn,f=1表示用户n对文件φf具有偏好,否则qn,f=0,sf表示文件f的大小;
对得到的各ym值进行降序排序,选取ym值最大的CHm进行文件缓存;
步骤3:对选中的CHm进行缓存决策;
统计选中的CHm的邻居CR的偏好文件流行度,即对于所有的文件φf∈F,计算
其中,θ为偏好加权因子,可表示为:
Fm表示用户m的偏好文件集合偏,N为CR用户的数量;进一步地,对om,f进行降序排序,排序靠前的文件优先存储,直到空间被存满;
步骤4:根据当前决策,更新相关参数/状态量
更新已选中的CH集合,χ=χ∪{m};从候选CH集合中移除该候选CH,SCH←SCH\{CHm};
更新偏好矩阵Q=[qn,f]N×F,更新选中的CHm的邻居CRn对应的文件偏好集Fn:即对n∈NCR,m,如果该CRn的偏好文件已经被CHm缓存,则删除Fn中的该文件,即Fn=Fn\{Cm},并将对应的qn,f置0;
检查Fn是否为空,若Fn为空,删除SCR中的该CRn,SCR←SCR\{CRn};其中,CRn为第n个内容请求者,SCR为内容请求者的集合;
重复步骤2至步骤4直到SCH或SCR为空集,即代表系统中不再有候选CH或者CR的潜在请求文件已经全部被CH缓存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456327.8A CN109729507B (zh) | 2018-05-14 | 2018-05-14 | 基于激励机制的d2d协作式缓存方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456327.8A CN109729507B (zh) | 2018-05-14 | 2018-05-14 | 基于激励机制的d2d协作式缓存方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109729507A CN109729507A (zh) | 2019-05-07 |
CN109729507B true CN109729507B (zh) | 2021-04-13 |
Family
ID=66294561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810456327.8A Active CN109729507B (zh) | 2018-05-14 | 2018-05-14 | 基于激励机制的d2d协作式缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109729507B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110139250B (zh) * | 2019-05-16 | 2021-04-13 | 中山大学 | 终端直通系统中激励终端参与缓存数据的方法 |
CN111328092B (zh) * | 2020-02-27 | 2021-10-01 | 中山大学 | D2d通信中继分组缓存分配中的预信息动态更新方法 |
CN111372096B (zh) * | 2020-03-12 | 2022-02-18 | 重庆邮电大学 | 一种基于d2d辅助的视频质量自适应缓存方法和设备 |
CN111432380B (zh) * | 2020-03-25 | 2022-06-21 | 哈尔滨工程大学 | 面向d2d辅助数据卸载的缓存优化方法 |
CN112822726B (zh) * | 2020-12-31 | 2022-06-10 | 杭州电子科技大学 | 一种Fog-RAN网络缓存放置问题的建模和决策方法 |
CN113542124B (zh) * | 2021-06-25 | 2022-12-09 | 西安交通大学 | 一种d2d缓存网络中信用驱动的协作传输方法 |
CN114401544B (zh) * | 2022-03-25 | 2022-06-17 | 武汉大学 | 基于合同理论的无人机通信网络能量收获方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106851731A (zh) * | 2017-03-07 | 2017-06-13 | 电子科技大学 | 一种最大化卸载概率的d2d缓存分配方法 |
CN107623720A (zh) * | 2017-08-18 | 2018-01-23 | 中国科学院上海微系统与信息技术研究所 | 一种基于合作缓存的数据选择性缓存方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10637760B2 (en) * | 2012-08-20 | 2020-04-28 | Sandvine Corporation | System and method for network capacity planning |
-
2018
- 2018-05-14 CN CN201810456327.8A patent/CN109729507B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106851731A (zh) * | 2017-03-07 | 2017-06-13 | 电子科技大学 | 一种最大化卸载概率的d2d缓存分配方法 |
CN107623720A (zh) * | 2017-08-18 | 2018-01-23 | 中国科学院上海微系统与信息技术研究所 | 一种基于合作缓存的数据选择性缓存方法 |
Non-Patent Citations (1)
Title |
---|
移动边缘网络缓存技术;王莹,费子轩,张向阳,孙瑞锦,缪中宇;《北京邮电大学学报》;20171215;第40卷(第6期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109729507A (zh) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109729507B (zh) | 基于激励机制的d2d协作式缓存方法 | |
Zhou et al. | Incentive-driven deep reinforcement learning for content caching and D2D offloading | |
Li et al. | On social-aware content caching for D2D-enabled cellular networks with matching theory | |
CN111163519B (zh) | 系统收益最大化的无线体域网资源分配与任务卸载方法 | |
CN111182570B (zh) | 提高运营商效用的用户关联和边缘计算卸载方法 | |
Chen et al. | Multiuser computation offloading and resource allocation for cloud–edge heterogeneous network | |
Asheralieva et al. | Combining contract theory and Lyapunov optimization for content sharing with edge caching and device-to-device communications | |
CN111262940A (zh) | 一种车载边缘计算应用缓存方法、装置及系统 | |
CN111641973A (zh) | 一种雾计算网络中基于雾节点协作的负载均衡方法 | |
Cao et al. | Reliable and efficient multimedia service optimization for edge computing-based 5G networks: game theoretic approaches | |
Sun et al. | Joint sponsor scheduling in cellular and edge caching networks for mobile video delivery | |
CN114126066B (zh) | 面向mec的服务器资源配置与选址联合优化决策方法 | |
Li et al. | Load balancing edge server placement method with QoS requirements in wireless metropolitan area networks | |
Xia et al. | Near-optimal and learning-driven task offloading in a 5G multi-cell mobile edge cloud | |
Mebrek et al. | Intelligent resource allocation and task offloading model for IoT applications in fog networks: a game-theoretic approach | |
Somesula et al. | Deadline-aware caching using echo state network integrated fuzzy logic for mobile edge networks | |
Nguyen et al. | CrowdCache: A decentralized game-theoretic framework for mobile edge content sharing | |
Han et al. | Utility-optimized resource allocation in computing-aware networks | |
Liu et al. | Multi-item auction based mechanism for mobile data offloading: A robust optimization approach | |
Wang et al. | Incentive-aware blockchain-assisted intelligent edge caching and computation offloading for IoT | |
Zhang et al. | Deep reinforcement learning based joint caching and resources allocation for cooperative MEC | |
Song et al. | Incentive mechanism design for two-layer mobile data offloading networks: a contract theory approach | |
Fang et al. | Offloading strategy for edge computing tasks based on cache mechanism | |
Li et al. | Priority-mece: a mobile edge cloud ecosystem based on priority tasks offloading | |
Guo et al. | Incentive-driven and SAC-based Resource Allocation and Offloading Strategy in Vehicular Edge Computing Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |