CN115396419B - 边缘端缓存文件分配方法及系统、存储介质及基站 - Google Patents
边缘端缓存文件分配方法及系统、存储介质及基站 Download PDFInfo
- Publication number
- CN115396419B CN115396419B CN202110557711.9A CN202110557711A CN115396419B CN 115396419 B CN115396419 B CN 115396419B CN 202110557711 A CN202110557711 A CN 202110557711A CN 115396419 B CN115396419 B CN 115396419B
- Authority
- CN
- China
- Prior art keywords
- content
- node
- irm
- snm
- helper
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000009826 distribution Methods 0.000 claims description 48
- 238000004891 communication Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 230000002035 prolonged effect Effects 0.000 abstract description 6
- 238000005265 energy consumption Methods 0.000 abstract description 5
- 230000005540 biological transmission Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000003139 buffering effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000002360 explosive Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/06—Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/104—Peer-to-peer [P2P] networks
- H04L67/1074—Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
- H04L67/1078—Resource delivery mechanisms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供一种边缘端缓存文件分配方法及系统、存储介质及基站,包括以下步骤:将用户请求内容划分为SNM内容和IRM内容;发送IRM表至Helper节点,以使所述Help节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息;发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息。本发明的边缘端缓存文件分配方法及系统、存储介质及基站将文件分类成IRM与SNM这两种不同的到达模型,并通过D2D设备以及Helper节点来协作进行缓存资源的分配,从而延长了D2D设备的使用时间,节省了能量消耗。
Description
技术领域
本发明涉及无线通信的技术领域,特别是涉及一种边缘端缓存文件分配方法及系统、存储介质及基站。
背景技术
随着社交网络和移动应用在商业、医疗、金融和娱乐领域的影响力越来越大,应用的爆炸式增长导致了大量的移动数据流量。指数级的流量增长给传统的网络架构带来挑战。现有的无线网络中的流量优化问题一直没有好的解决办法,网络中的节点存储空间非常有限,容易造成用户的拥堵,这样会影响用户到基站间的数据传递。通过蜂窝网络中收集的用户数据流量,在基站或者其他的设备上缓存可以提供给访问用户一些内容。在目前的大部分做法中,缓存的内容会是最受欢迎的内容。整个缓存系统通过响应用户请求,直接从本地的缓存给用户提供服务,而无需从服务器下载新内容,从而减少了回程负载。这也是目前处理大量流量的有效方法之一。此外,从附近的具有缓存能力的基站(Base Station)来获取用户请求的内容减少了请求的响应时间,提高了用户的体验质量(Quality ofExperience,QoE)。然而,现在的基站端缓存有重复缓存,导致冗余过多,缓存效率降低,从而会导致资源的浪费。此外,在缓存策略中分布广泛使用的Zipf分布模型有其适用范围,实际的用户的请求文件模型更加符合非均匀泊松分布过程。Zipf分布不适用于非均匀泊松分布的模型,且当缓存的流行度动态变化的时候,Zipf分布模型也不能对变化的流行度做出反应。
在边缘端缓存已被证明是一种有前途的技术,可以支持爆炸式增长的流量需求,并改善用户体验。然而,内容流行度的时变性使得流行度预测远非完美,从而不可避免地降低了缓存的收益。大多数现有的解决方案都明确或隐含地假设对内容的请求服从于Zipf分布。例如,独立参考模型(Independent Reference Model,IRM)使用的分布是服从Zipf分布的。该模型假设内容目录是固定的,并且流行度分布是静态的。实际上是假设所有内容都具有较长的生命周期,并遵循静态目录大小的静态流行度分布。在这样的假设下,使用IRM分布的模型易于被优化和分析,因此也被广泛使用。但是,当对给定内容的请求在短时间内(相对于跟踪持续时间)变得密集时,流行度分布开始变化,这和实际中的情况一样。流行度分布也总是动态时变的,而广泛使用的IRM模型完全忽略了请求序列中的所有时间相关性,因此很难准确预测它不适合描述内容请求的现实到达过程。因此,需要更加一般的模型来处理实际的用户请求。基于此,需要使用另外的数学模型对具有时变平均到达率、动态流行度分布的实际数据流进行描绘。
D2D传输技术是5G移动通信中的关键的边缘缓存技术之一,它允许终端在基站的控制下通过复用小区资源,在相邻的设备之间直接进行通信。在一定程度上解决了无线通信系统中频谱资源短缺的问题。此外,它还可以减轻蜂窝网络的负担,降低移动终端的电池功耗,提高比特率,提高网络基础设施故障的鲁棒性,支持新的小规模点到点数据业务。D2D可应用于各种本地通信业务,短距离或同一房间内的业务。相比于基站,D2D的缓存能力能够更加靠近用户从而能够提供更加高效的连接。但是D2D设备也存在限制,如有限的能量,有限的资源(频谱、缓存空间等)等,这些是短期无法有效弥补的。
D2D设备也被用来作为缓存和中继的媒介。现有技术中,D2D设备使用与基站端相同的缓存方案,即统一缓存相同的、最受欢迎的内容。但是D2D设备大多数是资源有限的设备,不使用外接电源,自身的电源需要为其他服务提供能量。另外,D2D设备的存储空间一般也很有限,不如基站端或者Helper节点端,需要给D2D设备提供不同于基站端的缓存方案。每个助手和D2D节点,如果缓存都是相同的内容,会造成总体内容上的冗余。而D2D节点相对于Helper节点或者基站节点,还存在能量限制的问题。
Helper节点是一种类似毫微微蜂窝基站的基站,是一种低带宽回程链路但高存储容量的小型基站,具有回程链路弱、存储容量大的特点,可以缓存流行文件,并通过实现本地化通信和频率重用来满足移动用户终端的请求。此外,相比于用户到基站的距离,用户到Helper节点的距离更近,缓存文件的传输可以更加高效的完成。更具体地来讲,Helper节点是被放置在小区中的固定位置的,并且被假定具有大存储容量、能够实现高频重用的本地化的高带宽通信能力、可以是有线或无线的低速率回程链路。如果有足够的内容重用,即使许多用户请求相同的视频内容,缓存可以取代回程通信。
在网络缓存中,一个关键挑战是如何在大量现有内容中检测流行内容。流行度可以从两个角度来考虑“普遍流行度”和“局部流行度”。一般来说,网络中的所有用户都具有相同的内容流行度分布。现在主流的处理方法是假定整体的数据服从Zipf分布。在Zipf分布中,α是Zipf分布的参数,总共被分为n个文件,其中,第k个文件被请求到的概率为:Zipf的模型缓存内容有限、用户有限的系统。当n很大时,此时所有文件的请求次数将会相对平均,服从于非均匀泊松分布,这时Zipf分布的模型就并不适用。并且,Zipf分布的模型没有考虑到流行度动态变化的情况。现有技术中,处理时变的流行度分布,有如下的几种方法:
(1)定期预测随时间变化的流行度分布,以更新主动缓存策略。但是,该方法的缓存性能受到动态流行度预测不准确的限制,特别是对于在下一次缓存更新期间将被请求但以前从未被请求过的冷启动内容。
(2)采用请求驱动的缓存更新,以更好地跟踪流行度分布的动态,从而能够从过去的经验中学习主动缓存策略。
(3)设计混合主动和被动缓存,利用主动缓存的优势,同时处理请求概率难以甚至不可能预测的内容。
应用Zipf分布模型的前提是对内容流行度的完美预测,但是完美预测目前的研究实现难度较大。流行内容的内容目录是动态的,新内容的诞生和旧内容的消亡,会降低主动缓存的性能。大多数现有的关于主动缓存的工作都假设对内容目录和内容流行度有很好的了解。主动缓存在减轻回程负担方面有很大的潜力,但准确的流行度预测对于实现这一潜力至关重要。即使在假设冷启动视频不可预测的情况下,随着已经观察到的内容的完美流行,主动缓存仍然可以比被动缓存和多播获得明显的收益。
现实中的视频流相对于常用仿真中的假设,存在下面三种不同:(1)具有时变的平均到达率;(2)随着时间的推移而变化,即使给定Zipf偏斜度参数,动态内容目录也会导致动态流行度分布;(3)请求数量和内容目录大小之间的强相关性。仿真中使用的模拟请求到达过程中使用的假设对于真实世界的数据集是无效的。这些假设不适于捕捉视频点播流量中通常遇到的那种时间局部性。因为它们不容易捕捉与内容流行动态相关的内在非静态宏观效果,这给确定流行度分布带来了困难。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种边缘端缓存文件分配方法及系统、存储介质及基站,将文件分类成IRM与散粒噪声模型(Shot Noise Model,SNM)这两种不同的到达模型,并通过D2D设备以及Helper节点来协作进行缓存资源的分配,从而延长了D2D设备的使用时间,节省了能量消耗。
为实现上述目的及其他相关目的,本发明提供一种边缘端缓存文件分配方法,包括以下步骤:将用户请求内容划分为SNM内容和IRM内容;发送IRM表至Helper节点,以使所述Help节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息;发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息。
于本发明一实施例中,将用户的请求内容划分为SNM内容和IRM内容包括以下步骤:
获取所述D2D设备和所述Helper节点采集的所述用户请求内容;
获取所述用户请求内容的请求次数;
当rij-rij′>αRT时,将所述用户请求内容划分为所述IRM内容,否则划分为所述SNM内容;其中,rij表示在第j个接入点处用户请求内容i的请求次数,rij′是前一个时隙中第j个接入点处用请求内容i的请求次数,RT表示当前时隙中的总请求次数,α表示自定义系数。
本发明提供一种边缘端缓存文件分配系统,包括划分模块、第一发送模块和第二发送模块;
所述划分模块用于将用户请求内容划分为SNM内容和IRM内容;
所述第一发送模块用于发送IRM表至Helper节点,以使所述Help节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息;
所述第二发送模块用于发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息。
本发明提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的边缘端缓存文件分配方法。
本发明提供一种基站,包括:处理器及存储器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述存储器存储的计算机程序,以使所述基站执行上述的边缘端缓存文件分配方法。
本发明提供一种边缘端缓存文件分配系统,包括上述的基站、Helper节点和D2D节点;
所述Helper节点用于根据接收到的IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表;
所述D2D节点用于根据接收到的SNM表缓存对应的SNM内容。
于本发明一实施例中,所述Helper节点还用于将所述IRM表下发至所述D2D节点,所述D2D节点还用于在所述SNM表中删除所述IRM表中已有的缓存信息。
于本发明一实施例中,所述D2D节点还用于在D2D节点之间交换SNM表,以在用户通信范围的其他D2D节点已经缓存某一内容时该D2D节点不在继续缓存所述内容。
于本发明一实施例中,当用户请求某一内容时,先从最近的D2D节点获取对应的SNM表,如果D2D节点没有缓存所述内容,则向上一级Helper节点发出请求;如果所述Helper节点也没有缓存所述内容,则基站将所述内容发送给所述Helper节点。
于本发明一实施例中,用户向距离最近的Helper节点发送某一内容的请求时,通过共享的IRM表获得服务范围内缓存有所述内容的Helper节点,并在基站的辅助下与缓存有所述内容的Helper节点在给定SINR限制下建立链接。
如上所述,本发明的边缘端缓存文件分配方法及系统、存储介质及基站,具有以下有益效果:
(1)依赖于缓存分配和D2D传输技术,将用户请求内容分为IRM内容和SNM内容,并分别由Helper节点和D2D节点缓存,从而减少总体的缓存的泛洪以及重复的存储;
(2)通过让Helper节点主动缓存,以及D2D节点被动缓存,可以减少基站端的流量压力,解决文件的动态流行度问题,并且兼顾了D2D节点能量有限的特点,延长D2D节点使用时间;
(3)D2D用户也通过缓存Helper节点不主动缓存的SNM内容,在特定的小区内尽量满足用户的需求;
(4)Helper节点间缓存的IRM表通过由基站下发,有效地减少了泛洪;D2D设备进行被动缓存时,过滤掉IRM表中的内容,令SNM表最终缓存的内容是IRM表中没有的内容;
(5)由于D2D节点和Helper节点更加靠近用户,相比于基站端缓存文件,用户的体验更好。
附图说明
图1显示为本发明的边缘端缓存文件分配方法于一实施例中的应用框架示意图;
图2显示为本发明的边缘端缓存文件分配方法于一实施例中的流程图;
图3显示为本发明的边缘端缓存文件分配系统于一实施例中的结构示意图;
图4显示为本发明的终端于一实施例中的结构示意图;
图5显示为本发明的边缘端缓存文件分配系统于另一实施例中的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
考虑一个如图1所示的无线通信系统。系统内有一个基站,有Ndev个D2D设备,Nh个helper节点,以及NUE个用户设备。用户设备可以与D2D设备、Helper节点以及基站建立连接。用户在小区中不同位置时候的信道状态为H1到HN。
D2D无线缓存网络的运行可分为两个主要阶段:缓存阶段和传输阶段。因为D2D设备具有缓存功能,当收到文件请求时,首先启动自服务。用户在自己的缓存中查找请求文件,如果在用户自己的缓存中存在请求文件,那么用户设备无需建立通信链路,来实现自服务。若未找到属于自己的文件,则启动D2D服务。用户从其D2D传输半径内的其他用户查找请求文件。当请求文件被缓存时,通过建立D2D链路,用户设备可以获取这些文件。如果以上两种方法都无法找到请求文件,那么用户设备就可以采用传统方法从Helper节点处下载请求文件。如无法找到请求文件,可以使用传统的点对点方式,向基站端请求文件。在使用D2D链路请求文件的前提下,用户可以有三种情况:(1)请求用户在其自身缓存中找不到该文件;(2)请求用户在其周围的缓存中找到该文件;(3)用户和已缓存该文件的用户之间的SINR需要满足目标信干噪比。为了能够从周围的D2D用户缓存中获得请求文件,D2D用户首先要与缓存有请求文件的用户进行关联配对,然后再通过D2D技术进行传输。然而,有两点值得注意:第一,多个用户可能与同一信息源用户关联配对,也就是说,多个用户可能在同一用户的缓存中找到他们各自的请求文件;第二,一个用户可能与多个信息源用户关联配对,也就是说,用户可能在周围多个用户的缓存中找到请求文件。与其他缓存方案相比,D2D缓存具有以下优点:首先,用户终端缓存中存储有请求文件,该文件可以在零时间延迟下获得,无需建立通信链路;其次,蜂窝系统在不需要增加任何基础设施的情况下,系统的缓存容量会随着终端数量的增加而自动提升;第三,无线终端作为社交网络的主要入口,其内容共享的快速传播、区域集中的特点,有助于对需求分布进行统计,为文件缓存分配方案提供准确的参考;第四,D2D通信技术与缓存结构的结合,不仅能降低蜂窝回程链路的压力,还能减少空口拥塞,使系统的容量和频谱效率得到显著提高,最重要的是能实现更好的用户体验,即高速率、低时延等。
本发明的边缘端缓存文件分配方法可以分为以下两个阶段:
在第一个阶段,当最初的用户请求到达的时候,尽量通过缓存所有的请求,使用LRU策略在所有的设备中尽量缓存文件,直到设备达到存储极限或者是设备存储容量达到设定的值。文件的请求服从非均匀泊松分布,现实中的大部分请求也都是服从这个分布。
在第二个阶段,在一段时间之后,通过对到达的内容流筛选出IRM内容和SNM内容,将流行度高的内容在Helper节点缓存,使用IRM表共享已知的流行度知识。对于流行度低的内容,D2D节点缓存使用SNM表;由于D2D设备的有限资源,只给他们分配被动缓存的任务,有助于延长D2D设备的使用时间,节省能量消耗,而且可以解决动态的内容流行度的问题。
如图2所示,于一实施例中,本发明的边缘端缓存文件分配方法包括以下步骤:
步骤S1、将用户请求内容划分为。
具体地,由于广泛使用的Zipf分布模型未能对时间局部性建模,因此不适用于表征动态流行性。SNM模型虽然更复杂,但更适合描述用户的需求。因此,对于真实世界中的用户请求,本发明将一个区域中的用户请求内容分为两类:IRM内容和SNM内容。IRM内容由独IRM模型建模,SNM内容由SNM模型建模。IRM模型的建模可以使用Zipf分布模型解决。SNM模型虽然更复杂,但更适合描述用户的需求,即对第m个内容的请求被建模非均匀泊松过程。
IRM模型是一个具有稳定到达率ρ0的平稳泊松过程。设总的请求内容的数量为N,IRM模型中,请求N个文件中第k(k<N)个文件的概率为其中,α表示Zipf分布中表示的受欢迎度的程度,一般来讲,α的值在区间(0,1)内。其中指数α取决于所考虑的系统(尤其是内容的类型),并对最终的缓存性能起着至关重要的作用。
SNM模型是一个非均匀泊松分布的模型,其缓存策略受到Zipf分布的参数影响不是很大,其给定内容的到达过程由三个物理参数指定τm、Vm、λm(t)。τm表示内容进入系统的时刻;Vm表示由每个用户产生的平均请求数量;λm(t)表示文件的流行程度,是一个含有参量t的变量,描述的是内容的请求率如何随时间演变。参数λm(t)满足以下的几个条件:
内容m的生命周期在SNM模型中被定义为内容请求过程的瞬时速率为Vm·λm(t-τm)。假设系统中有新的内容到达,则到达的过程是一个均匀泊松过程,即时刻{τm}m形成一个标准泊松过程。该模型为散粒噪声模型,请求到达的整个过程被称为泊松散粒噪声过程。
用户的平均请求数量Vm服从参数Vmin以及β>1的Pareto分布,Vm的概率函数为Vm服从独立同分布的Pareto分布,那么,按降序排序的请求数量近似符合带参数的Zipf分布。
LRU策略认为最近使用过的数据应该是是有用的,很久都没用过的数据应该是无用的,内存满了就优先删那些很久没用过的数据。通过淘汰那些将来不可能再被使用的数据,保留那些将来还会频繁访问的数据。最开始的SNM表由LRU策略生成,之后的IRM表由SNM表前面的受欢迎项生成。
对于被归类为SNM的内容来说,使用LRU策略对SNM内容进行缓存而获得的主要系统增益来自于内容的生存周期,与系统的留行程度λm(t)关系不是很密切。那么,可以假定所有内容都具有相同的生存周期L,那么归一化之后的流行度为通过这样简化SNM模型,可以获得在整个生命周期L内被请求的内容的平均数量是λ·L,记为N,N为SNM内容的目录大小。
传统的D2D通信不在本地缓存内容,只有当源文件和目的地在用户希望同时对等通信时,才能从蜂窝网络卸载对等流量。D2D缓存可以解决实际中异步请求的问题,通过卸载增益来衡量D2D设备缓存能力的水平。卸载概率定义为D2D设备的接收机完全通过D2D链路,并在给定的SINR阈值下来进行传输的概率。卸载概率与具体的终端的缓存策略相关,如果所有用户都以概率P缓存文件fi,那么缓存了内容fi的空闲用户服从密度为αλu的PPP分布,最终该文件在整体中的分布密度为Piαλu。
PPP分布:密度为λ,半径为r,区域内有n个用户的概率为因此,假定一个参考用户设备在区域内,而至少有另一个D2D设备在传输范围内缓存第k个内容的概率为:/>
相似的,在Helper节点端,假定一个参考用户设备在区域内,而至少有另一个D2D设备在传输范围内缓存第k个内容的概率为:至少有一个Helper节点或者是一个D2D节点缓存一个文件内容的概率为PD2D或H=1-(1-PD2D)(1-PH)。当用户请求D2D缓存没有得到响应的情况下,那此时用户设备向基站发送对内容fi请求信息,其卸载概率记为/>用户请求受欢迎内容的概率即流行度分布,设流行度分布Q={q1,q2,q3,...,qk}服从Zipf分布。H节点和D2D用户协作的卸载概率为Pco=qi+(1-qi)Pi,则在第i个内容的卸载概率为Poff,i=αPco+(1-α)Pi,最终的总的卸载概率为
于本发明一实施例中,将用户的请求内容划分为SNM内容和IRM内容包括以下步骤:
11)获取所述D2D设备和所述Helper节点采集的所述用户请求内容。
具体地,时隙开始后,进行预处理阶段。D2D节点和Helper节点对所有用户的请求内容的情况进行估计和收集。
12)获取所述用户请求内容的请求次数。
具体地,一段时间之后,在知晓现阶段所有的用户请求内容之后,获取所述用户请求内容的请求次数。
13)当rij-rij′>αRT时,将所述用户请求内容划分为所述IRM内容,否则划分为所述SNM内容;其中,rij表示在第j个接入点处用户请求内容i的请求次数,rij′是前一个时隙中第j个接入点处用请求内容i的请求次数,RT表示当前时隙中的总请求次数,α表示自定义系数。具体地,α表示不同情况下决定IRM内容和SNM内容划分依据的系数。
具体地,定义一个流行度的时变因子当所述时变因子为1时,判断对应的用户请求内容为IRM内容;所述时变因子为0时,判断对应的用户请求内容为SNM内容。
步骤S2、发送IRM表至Helper节点,以使所述Help节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息。
具体地,基站通过搜集到的数据进行处理,得到IRM表和SNM表,然后将IRM表下发给Helper节点和D2D节点。所述IRM表用于记录所述Helper节点的缓存信息。Helper节点通过基站下发的IRM表主动缓存对应的IRM内容。针对不同的Helper节点,对应的IRM表的内容是不同的。同时,Helper节点之间共享IRM表,Helper节点相互之间知道小区内的其他Helper节点的缓存内容。
步骤S3、发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息。
具体地,基站下发SNM表到D2D节点,D2D节点利用LRU策略进行SNM内容的缓存。其中,在SNM表中使用LRU策略来缓存一般的用户通过非均匀泊松分布请求的内容。
优选地,所述Helper节点将所述IRM表下发至所述D2D节点,所述D2D节点在所述SNM表中删除所述IRM表中已有的缓存信息再进行SNM内容的缓存。同时,D2D节点之间交换SNM表,从而在用户通信范围的其他D2D节点已经缓存某一内容时当前D2D节点不在继续缓存所述内容,从而减少了可能的泛洪问题,并且通过在辅助节点缓存内容,可以有效减少总体的回程链路的消耗。
D2D节点是受到能量限制的节点,如果让D2D节点主动缓存,那么就会产生大量的能量消耗,从而使D2D节点很可能连自身原有的一些功能都受到影响,所以D2D节点采用被动缓存,采用LRU策略,把D2D节点总功耗中的一部分拨给缓存SNM内容使用,从而既能够充分利用缓存的优点,提高用户的通信体验,同时尽量延长D2D设备的使用时间,减少能量的消耗。
如图3所示,于一实施例中,本发明的边缘端缓存文件分配系统包括划分模块31、第一发送模块32和第二发送模块33。
所述划分模块31用于将用户请求内容划分为SNM内容和IRM内容。
所述第一发送模块32与所述划分模块31相连,用于发送IRM表至Helper节点,以使所述Help节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息。
所述第二发送模块33与所述划分模块31相连,用于发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息。
其中,划分模块31、第一发送模块32和第二发送模块33的结构和原理与上述边缘端缓存文件分配方法中的步骤一一对应,故在此不再赘述。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现,也可以全部以硬件的形式实现,还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如:x模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现。此外,x模块也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上x模块的功能。其它模块的实现与之类似。这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),一个或多个微处理器(Digital Signal Processor,简称DSP),一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。这些模块可以集成在一起,以片上系统(System-on-a-chip,简称SOC)的形式实现。
本发明的存储介质上存储有计算机程序,该程序被处理器执行时实现上述的边缘端缓存文件分配方法。优选地,所述存储介质包括:ROM、RAM、磁碟、U盘、存储卡或者光盘等各种可以存储程序代码的介质。
如图4所示,于一实施例中,本发明的基站包括:处理器41和存储器42。
所述存储器42用于存储计算机程序。
所述存储器42包括:ROM、RAM、磁碟、U盘、存储卡或者光盘等各种可以存储程序代码的介质。
所述处理器41与所述存储器42相连,用于执行所述存储器42存储的计算机程序,以使所述基站执行上述的边缘端缓存文件分配方法。
优选地,所述处理器41可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
如图5所示,于一实施例中,本发明的边缘端缓存文件分配系统包括上述的基站51、Helper节点52和D2D节点53。
所述Helper节点52与所述基站51相连,用于根据接收到的IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表。
所述D2D节点53与所述基站51相连,用于根据接收到的SNM表缓存对应的SNM内容。
于本发明一实施例中,所述Helper节点52还用于将所述IRM表下发至所述D2D节点53,所述D2D节点53还用于在所述SNM表中删除所述IRM表中已有的缓存信息,从而避免所述D2D节点53和所述Helper节点52重复缓存。
于本发明一实施例中,所述D2D节点还用于在D2D节点之间交换SNM表,以在用户通信范围的其他D2D节点已经缓存某一内容时该D2D节点不在继续缓存所述内容,从而减少了可能的泛洪问题,并且通过在辅助节点缓存内容,可以有效减少总体的回程链路的消耗。
当用户请求某一内容时,先从最近的D2D节点获取对应的SNM表,如果D2D节点缓存所述内容,则采用D2D传输,如果没有缓存所述内容,则向上一级Helper节点发出请求。如果所述Helper节点缓存所述内容,则采用Helper节点传输,如果也没有缓存所述内容,则基站将所述内容发送给所述Helper节点。其中,D2D传输是指具有缓存能力的D2D设备向用户服务;Helper节点传输是指具有缓存能力的Helper节点向用户服务。需要说明的是,在本发明中,D2D传输的具体实现方法没有做限制,D2D传输可以是小区用户的复用或使用正交于小区用户的时频资源;传输可以接受基站统一调度,或者是去中心自组织。
综上所述,本发明的边缘端缓存文件分配方法及系统、存储介质及基站依赖于缓存分配和D2D传输技术,将用户请求内容分为IRM内容和SNM内容,并分别由Helper节点和D2D节点缓存,从而减少总体的缓存的泛洪以及重复的存储;通过让Helper节点主动缓存,以及D2D节点被动缓存,可以减少基站端的流量压力,解决文件的动态流行度问题,并且兼顾了D2D节点能量有限的特点,延长D2D节点使用时间;D2D用户也通过缓存Helper节点不主动缓存的SNM内容,在特定的小区内尽量满足用户的需求;Helper节点间缓存的IRM表通过由基站下发,有效地减少了泛洪;D2D设备进行被动缓存时,过滤掉IRM表中的内容,令SNM表最终缓存的内容是IRM表中没有的内容;由于D2D节点和Helper节点更加靠近用户,相比于基站端缓存文件,用户的体验更好。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (9)
1.一种边缘端缓存文件分配方法,其特征在于:包括以下步骤:
将用户请求内容划分为SNM内容和IRM内容;所述SNM表示散粒噪声模型,所述IRM表示独立参考模型;
发送IRM表至Helper节点,以使所述Helper节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息;
发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息;
将用户的请求内容划分为SNM内容和IRM内容包括以下步骤:
获取所述D2D节点和所述Helper节点采集的所述用户请求内容;
获取所述用户请求内容的请求次数;
当rij-rij′>αRT时,将所述用户请求内容划分为所述IRM内容,否则划分为所述SNM内容;其中,rij表示在第j个接入点处用户请求内容i的请求次数,rij′是前一个时隙中第j个接入点处用请求内容i的请求次数,RT表示当前时隙中的总请求次数,α表示自定义系数。
2.一种边缘端缓存文件分配系统,其特征在于:包括划分模块、第一发送模块和第二发送模块;
所述划分模块用于将用户请求内容划分为SNM内容和IRM内容;所述SNM表示散粒噪声模型,所述IRM表示独立参考模型;
所述第一发送模块用于发送IRM表至Helper节点,以使所述Helper节点根据所述IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表,所述IRM表用于记录所述Helper节点的缓存信息;
所述第二发送模块用于发送SNM表至D2D节点,以使所述D2D节点根据所述SNM表缓存对应的SNM内容,所述SNM表用于记录所述D2D节点的缓存信息;
将用户的请求内容划分为SNM内容和IRM内容包括以下步骤:
获取所述D2D节点和所述Helper节点采集的所述用户请求内容;
获取所述用户请求内容的请求次数;
当rij-rij′>αRT时,将所述用户请求内容划分为所述IRM内容,否则划分为所述SNM内容;其中,rij表示在第j个接入点处用户请求内容i的请求次数,rij′是前一个时隙中第j个接入点处用请求内容i的请求次数,RT表示当前时隙中的总请求次数,α表示自定义系数。
3.一种存储介质,其上存储有计算机程序,其特征在于:该程序被处理器执行时实现权利要求1所述的边缘端缓存文件分配方法。
4.一种基站,其特征在于:包括:处理器及存储器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述存储器存储的计算机程序,以使所述基站执行权利要求1所述的边缘端缓存文件分配方法。
5.一种边缘端缓存文件分配系统,其特征在于:包括权利要求4所述的基站、Helper节点和D2D节点;
所述Helper节点用于根据接收到的IRM表缓存对应的IRM内容,并在所述Helper节点之间共享所述IRM表;
所述D2D节点用于根据接收到的SNM表缓存对应的SNM内容。
6.根据权利要求5所述的边缘端缓存文件分配系统,其特征在于:所述Helper节点还用于将所述IRM表下发至所述D2D节点,所述D2D节点还用于在所述SNM表中删除所述IRM表中已有的缓存信息。
7.根据权利要求5所述的边缘端缓存文件分配系统,其特征在于:所述D2D节点还用于在D2D节点之间交换SNM表,以在用户通信范围的其他D2D节点已经缓存某一内容时该D2D节点不在继续缓存所述内容。
8.根据权利要求5所述的边缘端缓存文件分配系统,其特征在于:当用户请求某一内容时,先从最近的D2D节点获取对应的SNM表,如果D2D节点没有缓存所述内容,则向上一级Helper节点发出请求;如果所述Helper节点也没有缓存所述内容,则基站将所述内容发送给所述Helper节点。
9.根据权利要求5所述的边缘端缓存文件分配系统,其特征在于:用户向距离最近的Helper节点发送某一内容的请求时,通过共享的IRM表获得服务范围内缓存有所述内容的Helper节点,并在基站的辅助下与缓存有所述内容的Helper节点在给定SINR限制下建立链接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110557711.9A CN115396419B (zh) | 2021-05-21 | 2021-05-21 | 边缘端缓存文件分配方法及系统、存储介质及基站 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110557711.9A CN115396419B (zh) | 2021-05-21 | 2021-05-21 | 边缘端缓存文件分配方法及系统、存储介质及基站 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115396419A CN115396419A (zh) | 2022-11-25 |
CN115396419B true CN115396419B (zh) | 2024-06-14 |
Family
ID=84114172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110557711.9A Active CN115396419B (zh) | 2021-05-21 | 2021-05-21 | 边缘端缓存文件分配方法及系统、存储介质及基站 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115396419B (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108093435B (zh) * | 2017-12-18 | 2020-01-10 | 南京航空航天大学 | 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法 |
KR102123443B1 (ko) * | 2018-10-26 | 2020-06-17 | 동국대학교 산학협력단 | 캐싱 네트워크를 이용한 콘텐츠 캐싱 방법 및 시스템 |
CN111212405B (zh) * | 2020-01-13 | 2021-07-09 | 中山大学 | 基于多流行度的分组d2d多阈值缓存放置方法 |
CN112203258B (zh) * | 2020-11-13 | 2021-10-08 | 之江实验室 | 一种高速公路自由流状态下的车联网缓存部署方法 |
-
2021
- 2021-05-21 CN CN202110557711.9A patent/CN115396419B/zh active Active
Non-Patent Citations (2)
Title |
---|
内容流行分布动态性对基站端缓存性能的影响;戚凯强;陈彬强;杨晨阳;;信号处理;20170325(第03期);第1-9页 * |
校园信息化网络安全的ICN缓存机制研究;郭雅;李泗兰;骆金维;;电子设计工程;20161220(第24期);第1-5页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115396419A (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109391681B (zh) | 基于mec的v2x移动性预测与内容缓存卸载方案 | |
CN107995660A (zh) | 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法 | |
CN108156596B (zh) | 支持d2d-蜂窝异构网络联合用户关联及内容缓存方法 | |
CN111552564A (zh) | 基于边缘缓存的任务卸载与资源优化的方法 | |
CN111475274A (zh) | 云协同多任务调度方法及装置 | |
Li et al. | Learning-based delay-aware caching in wireless D2D caching networks | |
Khan et al. | On the application of agglomerative hierarchical clustering for cache-assisted D2D networks | |
Yaqub et al. | Multi-objective resource optimization for hierarchical mobile edge computing | |
CN110972227B (zh) | 通过机会移动网络卸载蜂窝流量的种子节点选择方法 | |
Wu et al. | Data transmission scheme based on node model training and time division multiple access with IoT in opportunistic social networks | |
Huang et al. | An efficient spectrum scheduling mechanism using Markov decision chain for 5G mobile network | |
Malazi et al. | Distributed service placement and workload orchestration in a multi-access edge computing environment | |
CN111432380B (zh) | 面向d2d辅助数据卸载的缓存优化方法 | |
Han et al. | Optimization of mobile edge computing offloading model for distributed wireless sensor devices | |
CN115396419B (zh) | 边缘端缓存文件分配方法及系统、存储介质及基站 | |
CN111245878B (zh) | 一种基于混合云计算和雾计算的计算卸载通信网络的方法 | |
Li et al. | A novel cooperative cache policy for wireless networks | |
CN113115362B (zh) | 协同边缘缓存方法及装置 | |
Zheng et al. | Game theoretic approaches to massive data processing in wireless networks | |
Tang et al. | A WiFi‐aware method for mobile data offloading with deadline constraints | |
Sun et al. | A proactive on-demand content placement strategy in edge intelligent gateways | |
CN113207150A (zh) | 一种基于背向散射通信的主被动混合卸载方法和装置 | |
CN108566635B (zh) | 一种d2d路由选择方法 | |
CN113709853A (zh) | 面向云边协同的网络内容传输方法、装置及存储介质 | |
Ma | Communication Resource Allocation Strategy of Internet of Vehicles Based on MEC. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |