CN114666843A - 一种分层网络体系结构中的协作缓存方法 - Google Patents

一种分层网络体系结构中的协作缓存方法 Download PDF

Info

Publication number
CN114666843A
CN114666843A CN202210185518.1A CN202210185518A CN114666843A CN 114666843 A CN114666843 A CN 114666843A CN 202210185518 A CN202210185518 A CN 202210185518A CN 114666843 A CN114666843 A CN 114666843A
Authority
CN
China
Prior art keywords
node
nodes
file
cluster
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210185518.1A
Other languages
English (en)
Inventor
赵海涛
赵越
夏文超
倪艺洋
王琴
朱洪波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210185518.1A priority Critical patent/CN114666843A/zh
Publication of CN114666843A publication Critical patent/CN114666843A/zh
Priority to PCT/CN2022/126959 priority patent/WO2023159986A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/46Cluster building
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/24Connectivity information management, e.g. connectivity discovery or connectivity update
    • H04W40/32Connectivity information management, e.g. connectivity discovery or connectivity update for defining a routing cluster membership
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种分层网络体系结构中的协作缓存方法,包括:构建核心服务器、宏基站以及各车辆之间的网络边缘缓存模型;将边缘层中的节点按区域划分为多个集群,每个集群节点数不超过阈值β;将一组流行文件集通过拉链分布建模,寻找不同的用户对不同车辆节点中最流行的文件;通过使用编码缓存,把内容分割为分离的编码包,构建内容放置矩阵m;以最小化总能耗为优化目标,进一步优化内容放置矩阵m的具体值,制定内容放置策略。本发明旨在最小化能耗的情况下,选择内容缓存节点,并对内容进行协作放置,具有更高的内容传递效率。

Description

一种分层网络体系结构中的协作缓存方法
技术领域
本发明涉及车辆交通技术领域,具体而言涉及一种车联网环境下分层网络体系结构中的协作缓存方法。
背景技术
智能交通系统在当今社会发挥着至关重要的作用,大多数自动驾驶汽车用户的兴趣更加关注娱乐服务。用户在互联网上的请求出现了前所未有的增长,通常包括在不同的平台上观看和分享视频、音频和图像。为了获得更好的服务质量,无缝的内容交付显得至关重要。然而,在高度动态的环境下,很难实现长期的车对车(V2V)和车对基础设施(V2I)的连接。此外,路侧单元(RSU)和基站(BS)等基础设施组件的短传输范围将为V2I通信提供低效的解决方案。由于范围有限和高移动性,频繁的连接丢失和连接重建将带来大量的网络流量开销和内容检索延迟。
在物联网中,设备将连接到网络,并将收集到的数据共享到云服务器。在云服务器上进行数据分析和处理后,用户经常会请求有用的信息。不同的用户可以在同一时间段内请求相同的内容,从而导致相同的数据内容的重复传输。这促使运营商重新考虑他们当前的网络架构,并寻求更先进的技术,以低延迟和节能的方式使内容更接近最终用户。移动边缘计算/缓存在宏基站(MBS)覆盖范围内的设备,通过分层异构网络架构,使内容缓存降低能耗。
然而,由于边缘设备内存有限,以及车辆的高移动速度,在异构车辆网络中多层边缘缓存服务器(例如MBS和RSU)的交错覆盖范围内,不同服务器之间的跨层协作可以提供无缝连接,以方便内容下载。
专利号为CN112839082A的发明中提及一种异构边缘缓存分配方法、系统、介质及应用,在考虑内容缓存分配的同时也将功率分配问题考虑在内,为不同的内容分配不同的传输功率,以达到用户体验的最优化。但该专利不涉及编码缓存的问题。
专利号为CN113543071A的发明中提及一种车联网环境下异构节点协作边缘缓存方法,旨在最小化车辆获取总内容所需延迟、成本以及高命中率的情况下,对内容进行协作放置。但该发明采用的是喷泉码。
发明内容
本发明针对现有技术中的不足,提供一种车联网环境下分层网络体系结构中的协作缓存方法,旨在最小化能耗的情况下,选择内容缓存节点,并对内容进行协作放置,具有更高的内容传递效率。
为实现上述目的,本发明采用以下技术方案:
本发明实施例提出了一种分层网络体系结构中的协作缓存方法,所述协作缓存方法包括以下步骤:
S1,构建核心服务器、宏基站以及各车辆之间的网络边缘缓存模型,该网络边缘缓存模型设置在一个宏基站覆盖范围内,包含核心层和边缘层的两层典型的分层网络体系结构;其中,将该宏基站和其所包含的每个车辆均视为其中一个缓存节点,边缘层中的节点协作执行内容缓存;包括宏基站在内的核心层支持大带宽和快速的数据包传输的同时,缓存边缘层未缓存部分;
S2,将边缘层中的节点按区域划分为多个集群,每个集群节点数不超过阈值β;属于一个特定集群的所有节点通过将缓存信息更新到其集群头来协同执行缓存,节点阈值β与集群节点内的通信开销相关;
S3,将一组流行文件集通过拉链分布建模,寻找不同的用户对不同车辆节点中最流行的文件;
S4,通过使用编码缓存,把内容分割为分离的编码包,将第n个文件划分成ln个文件段,且每个文件大小相等;同时将流行文件集中的文件按照受欢迎程度由高到低的顺序依次进行缓存,构建内容放置矩阵m;当用户u1请求第n个文件时,其中mkn个文件段从本地关联的簇中第k个车辆节点获得,剩余的ln-mkn个文件段将通过宏基站的编码多播传输获得;
S5,以最小化总能耗为优化目标,进一步优化内容放置矩阵m的具体值,制定内容放置策略。
进一步地,步骤S1中,边缘层中的节点协作执行内容缓存是指,只允许选定的车辆缓存其他车辆缓存事件的信息。
进一步地,步骤S2中,将边缘层中的节点按区域划分为多个集群的过程包括以下步骤:
将整个边缘网络进行划分,同一片区域里的车辆节点分为一组,且每个集群节点数不超过阈值β,每组对应一个边缘簇,每个簇进一步分为各种节点类型:集群头节点、网关节点和集群成员;属于一个特定集群的所有节点通过将缓存信息更新到其集群头节点来协同执行缓存,集群成员之间不存在直接通信。
进一步地,集群头节点的选择过程包括以下步骤:
采用下述公式计算集群内每个节点的优先级评估值:
Figure BDA0003523188250000031
式中,w是不同参数对应的权重因子,w1+w2+w3+w4+w5=1;dk是节点k范围内的节点数,
Figure BDA0003523188250000032
是所有网络节点的节点度的平均逆;Tk是节点k与其范围内的节点的传输时间,
Figure BDA0003523188250000033
是所有网络节点的平均传输时间,Hk是节点k与其范围内所有节点距离的加权和,
Figure BDA0003523188250000034
是所有系统宽跳的平均加权和,pk是节点k的传输功率,
Figure BDA0003523188250000035
是所有网络节点的平均功率利用率,ck是节点k的高速缓存利用率,
Figure BDA0003523188250000036
是所有网络节点的平均缓存空间利用率。
进一步地,步骤S3中,将一组流行文件集通过拉链分布建模,寻找不同的用户对不同车辆节点中最流行的文件的过程包括以下步骤:
S31,根据下述公式计算一个用户请求第k个节点中的第n个文件的概率:
Figure BDA0003523188250000037
式中,qkn表示第k个SBS的用户请求第n个文件的概率;αk是压缩指数,用于描述请求模式中的偏态,αk越大意味着内容请求更集中在高排名的内容文件上;γkn是第k个节点中第n个文件的排名顺序;
S32,在每个传输周期t中,第k个车辆节点将平均接收来自其覆盖区域内所有相关用户的Uk请求;在第k个节点的覆盖范围内,第n个文件的平均请求数定义为ωkn,用ωkn=Ukqkn表示;
S33,在多播周期t内,在第k个节点覆盖范围内的所有用户请求文件共j次的概率为:
Figure BDA0003523188250000038
进一步地,步骤S4中,所述内容放置矩阵m为:
Figure BDA0003523188250000039
式中,mkn表示每个簇内第k个车辆节点缓存第n个文件的文件段的数量;m的值满足以下约束条件:
Figure BDA0003523188250000041
式中,Mk表示每个车辆节点可以缓存的最大容量,M表示总文件的大小。
进一步地,步骤S5中,优化内容放置矩阵的建模为:
Figure BDA0003523188250000042
Figure BDA0003523188250000043
Figure BDA0003523188250000044
式中,限制条件C1和C2是对缓存容量的限制,s0是每个文件段的大小,M是总文件的大小;EC是内容缓存的能量消耗,
Figure BDA0003523188250000045
Figure BDA0003523188250000046
是各车辆节点传输的能耗,
Figure BDA0003523188250000047
Figure BDA0003523188250000048
表示用户在第k个节点范围内请求文件n次数为零的概率;
Figure BDA0003523188250000049
是MBS的传输能耗,
Figure BDA00035231882500000410
Figure BDA00035231882500000411
表示MBS传输的每比特数据的能量消耗,B表示MBS通过编码组播传输的总比特数;N为流行文件集的文件总数。
本发明的有益效果是:
本发明提出的分层网络体系结构中的协作缓存方法,对于编码缓存,在放置阶段,内容未编码并存储在边缘服务器中,但在传输阶段,可以通过编码的多播包同时满足不同的用户请求。本发明可以实现最佳的内存率权衡。
附图说明
图1是本发明实施例的网络边缘缓存模型的结构示意图。
图2为本发明实施例的分层网络体系结构中的协作缓存方法流程图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
需要注意的是,发明中所引用的如“上”、“下”、“左”、“右”、“前”、“后”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
图2为本发明实施例的分层网络体系结构中的协作缓存方法流程图。参见图2,该缓存方法包括以下步骤:
S1,构建核心服务器、宏基站以及各车辆之间的网络边缘缓存模型,该模型设置在一个宏基站覆盖范围内。
图1为具有缓存能力的、两层分层的车辆网络架构。基于图1,本实施例的模型构建原理包括:设计由核心层和边缘层组成的两层典型的分层网络体系结构,核心层包含宏基站以及远程服务器,边缘层由车辆用户组成;将该宏基站和其所包含的每个车辆均视为其中一个缓存节点,边缘层中的节点协作执行内容缓存,核心层支持大带宽和快速的数据包传输,同时缓存边缘层未缓存部分。
将所有的网络用户用集合U={u1,u2,...,uM}表示,该网络的所有节点都用K表示,其中,k∈K指定任何网络节点,为了有效地利用资源,只允许选定的车辆缓存其他车辆缓存事件的信息;将流行文件集用Ν={1,2,...,N}表示;对应的文件大小用s={s1,s2,...,sN}表示。
由于边缘层节点缓存空间有限,网络车辆速度快,用户只能接收所请求的多媒体文件的一部分,通过编码传输将剩余部分缓存在核心层。
S2,划分边缘层中的所有节点为多个集群。
每个集群进一步分为各种节点类型,集群头节点(CH)、网关节点(GN)和集群成员(CM)。属于一个特定集群的所有节点通过将缓存信息更新到其集群头(CH)来协同执行缓存,其中,与传统的协作缓存不同,单个集群的成员之间不可能存在直接通信。
CH主要负责缓存其所有CM的更新后的缓存事件信息,并且通过GN提供自己集群中的节点和邻近集群中的节点的通信链接。GN的主要职责是集群间的数据包传输,并且参与集群头的选择过程。剩余节点都被视为集群成员,CM是根据内容的流行程度而实际进行缓存的节点,所有的CM都参与了集群头的选择过程。
聚类头CH选择方法:传统设计的WCA算法考虑四个因素来计算特定节点的节点度与节点阈值β之间的权重函数。对于WCA,一个权重函数是使用所有因素一起计算的,这些因素反过来产生一个值来对每个网络节点进行评分。选择所有节点中得分最低的节点作为集群头。本专利也遵循WCA方法进行聚类,同时考虑了下述公式所示的不同因素:
Figure BDA0003523188250000051
式中,w1、w2、w3、w4、w5是不同参数对应的权重因子,表现为:
w1+w2+w3+w4+w5=1
第一个因素对应于节点k的dk度(即节点k的传输范围内的节点,也称为节点k的邻居),并计算表示为:
Figure BDA0003523188250000061
式中dist(k,q)=1对应于q在k的传输范围内,所有网络节点
Figure BDA0003523188250000062
的节点度的平均逆可以用
Figure BDA0003523188250000063
表示。
第二个因素是从节点k到k范围内所有节点的平均传输时间Tk。这样,Tk被计算表示为:
Figure BDA0003523188250000064
式中,Sk为k和tq,k范围内的节点集合,k表示从节点k到任意节点q的传输时间,所有网络节点的平均传输时间用
Figure BDA0003523188250000065
表示。
第三个因素是节点k与邻居跳点距离的加权和Hk。为了减少发送和接收缓存信息的网络负载,从CH到CM的跳点计数应保持在最低限度。Hk的值是用
Figure BDA0003523188250000066
表示,式中countm为节点k的第m跳个邻居的计数,γm为权值因子。同样,所有系统宽跳的平均加权和的计算用
Figure BDA0003523188250000067
表示。
第四个因素是指定节点k作为CH期间的累积功率Pk,所有网络节点的平均功率利用率可以计算为
Figure BDA0003523188250000068
第五个因素是节点n的高速缓存利用率Ck,主要是在CH中,所有网络节点的平均缓存空间利用率可以计算为
Figure BDA0003523188250000069
集群成员CM选择方法:为了减少集群节点内的通信开销,为每个集群设置一个节点阈值β,即,一个集群内除CH外可容纳的最大节点数的上限。从而限制了集群可以管理的最大节点数量。
S3,将一组流行文件集通过拉链分布建模,寻找不同的用户对不同车辆节点中文件的首选项。
不同的用户对不同车辆节点中的文件有不同的首选项,因此一个车辆节点中的流行文件在其他节点中可能不流行。假设文件的流行度分布遵循拉链式分布,根据下述公式计算一个用户请求第k个节点中的第n个文件的概率:
Figure BDA0003523188250000071
式中,qkn表示第k个SBS的用户请求第n个文件的概率,αk是压缩指数,用于描述请求模式中的偏态,αk越大意味着内容请求更集中在高排名的内容文件上;γkn是第k个节点中第n个文件的排名顺序。
在每个传输周期t中,第k个车辆节点将平均接收来自其覆盖区域内所有相关用户的Uk请求。在第k个节点的覆盖范围内,第n个文件的平均请求数定义为ωkn,用ωkn=Ukqkn表示。
用户在第k个车辆节点覆盖范围中对第n个文件的请求数遵循泊松过程。因此,在多播周期t内,在第k个节点覆盖范围内的所有用户请求文件共j次的概率可以写为:
Figure BDA0003523188250000072
S4,通过使用编码缓存,把内容分割为分离的编码包。
由于每个集群节点缓存大小的限制和文件的异构性,边缘层中每个节点只能缓存部分文件。通过使用编码缓存,把内容分割为分离的编码包,将第n个文件划分成ln个文件段,且每个文件段大小相等为s0,mkn表示每个簇内第k个边缘设备缓存第n个文件的文件段的数量,因此,内容放置矩阵m可以表示为:
Figure BDA0003523188250000073
用户u1请求第n个文件,则需要得到它的ln个文件段,mkn个文件段从本地关联的簇中第k个车辆节点获得,剩余的ln-mkn个文件段将通过宏基站的编码多播传输获得。通过优化可以得到内容放置矩阵m的具体值,形成一种内容放置策略。由于车辆节点的高速缓存大小,m的值应该满足以下约束条件:
Figure BDA0003523188250000081
式中,Mk表示每个车辆节点可以缓存的最大容量,M表示总文件的大小。
S5,以最小化用户获取内容能量消耗为优化目标,优化网络边缘缓存模型,优化内容放置矩阵m的具体值,对车辆传输内容进行放置;其中,将流行文件集中的流行文件按照人气由高到低的顺序依次进行缓存。
首先分析内容缓存的能耗,定义为Ec,在放置阶段,每个文件都被部分缓存在车辆节点中,从而导致能源消耗。一般来说,缓存能耗与每个节点上存储的文件位数成正比。然后,只要已知内容放置矩阵m,就可以通过计算每个节点缓存的数据位数来获得缓存能耗,计算表示为:
Figure BDA0003523188250000082
式中,eca为焦耳/比特的车辆节点缓存的能量系数,s0是每个文件段的大小。
其次分析车辆节点传输的能耗,即
Figure BDA0003523188250000083
在传输阶段,当用户发起一个请求时,关联的节点将首先向用户传输其高速缓存的文件段。而其余的文件段由MBS传输给相关的车辆节点,然后关联的节点将其传输给用户。因此,从车辆节点传输文件的能耗包括两部分:一是向用户传输自己缓存文件段的能耗,另一部分是从MBS获得的未缓存文件段的能耗,总能耗计算为:
Figure BDA0003523188250000084
式中,
Figure BDA0003523188250000085
为车辆节点传输的每比特数据的能量消耗,
Figure BDA0003523188250000086
表示用户在第k个节点范围内请求文件n次数为零的概率。
由于车辆节点的缓存大小的限制,不能从集群中获得部分文件段,这些文件段将通过回程链路从MBS传输到车辆节点。因此,在MBS上传输文件的能耗主要与在MBS上传输的文件的位数成正比,MBS的传输能耗可以表示为:
Figure BDA0003523188250000091
式中,
Figure BDA0003523188250000092
表示MBS传输的每比特数据的能量消耗,B表示MBS通过编码组播传输的总比特数,表示为:
Figure BDA0003523188250000093
式中,Kj表示一个由j,1≤j≤K组成的车辆节点集,
Figure BDA0003523188250000094
假设每个车辆节点的缓存大小已知,将第k个车辆节点内容放置优化问题建模为:
Figure BDA0003523188250000095
Figure BDA0003523188250000096
Figure BDA0003523188250000097
式中,限制条件C1和C2是对缓存容量的限制。
通过求出第k个车辆节点的内容放置,以此类推出每个簇群中所有车辆节点的内容放置,得到内容放置矩阵m的具体值。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (7)

1.一种分层网络体系结构中的协作缓存方法,其特征在于,所述协作缓存方法包括以下步骤:
S1,构建核心服务器、宏基站以及各车辆之间的网络边缘缓存模型,该网络边缘缓存模型设置在一个宏基站覆盖范围内,包含核心层和边缘层的两层典型的分层网络体系结构;其中,将该宏基站和其所包含的每个车辆均视为其中一个缓存节点,边缘层中的节点协作执行内容缓存;包括宏基站在内的核心层支持大带宽和快速的数据包传输的同时,缓存边缘层未缓存部分;
S2,将边缘层中的节点按区域划分为多个集群,每个集群节点数不超过阈值β;属于一个特定集群的所有节点通过将缓存信息更新到其集群头来协同执行缓存,节点阈值β与集群节点内的通信开销相关;
S3,将一组流行文件集通过拉链分布建模,寻找不同的用户对不同车辆节点中最流行的文件;
S4,通过使用编码缓存,把内容分割为分离的编码包,将第n个文件划分成ln个文件段,且每个文件大小相等;同时将流行文件集中的文件按照受欢迎程度由高到低的顺序依次进行缓存,构建内容放置矩阵m;当用户u1请求第n个文件时,其中mkn个文件段从本地关联的簇中第k个车辆节点获得,剩余的ln-mkn个文件段将通过宏基站的编码多播传输获得;
S5,以最小化总能耗为优化目标,进一步优化内容放置矩阵m的具体值,制定内容放置策略。
2.根据权利要求1所述的分层网络体系结构中的协作缓存方法,其特征在于,步骤S1中,边缘层中的节点协作执行内容缓存是指,只允许选定的车辆缓存其他车辆缓存事件的信息。
3.根据权利要求1所述的分层网络体系结构中的协作缓存方法,其特征在于,步骤S2中,将边缘层中的节点按区域划分为多个集群的过程包括以下步骤:
将整个边缘网络进行划分,同一片区域里的车辆节点分为一组,且每个集群节点数不超过阈值β,每组对应一个边缘簇,每个簇进一步分为各种节点类型:集群头节点、网关节点和集群成员;属于一个特定集群的所有节点通过将缓存信息更新到其集群头节点来协同执行缓存,集群成员之间不存在直接通信。
4.根据权利要求3所述的分层网络体系结构中的协作缓存方法,其特征在于,集群头节点的选择过程包括以下步骤:
采用下述公式计算集群内每个节点的优先级评估值:
Figure FDA0003523188240000021
式中,w是不同参数对应的权重因子,w1+w2+w3+w4+w5=1;dk是节点k范围内的节点数,
Figure FDA0003523188240000022
是所有网络节点的节点度的平均逆;Tk是节点k与其范围内的节点的传输时间,
Figure FDA0003523188240000023
是所有网络节点的平均传输时间,Hk是节点k与其范围内所有节点距离的加权和,
Figure FDA0003523188240000024
是所有系统宽跳的平均加权和,pk是节点k的传输功率,
Figure FDA0003523188240000025
是所有网络节点的平均功率利用率,ck是节点k的高速缓存利用率,
Figure FDA0003523188240000026
是所有网络节点的平均缓存空间利用率。
5.根据权利要求1所述的分层网络体系结构中的协作缓存方法,其特征在于,步骤S3中,将一组流行文件集通过拉链分布建模,寻找不同的用户对不同车辆节点中最流行的文件的过程包括以下步骤:
S31,根据下述公式计算一个用户请求第k个节点中的第n个文件的概率:
Figure FDA0003523188240000027
式中,qkn表示第k个SBS的用户请求第n个文件的概率;αk是压缩指数,用于描述请求模式中的偏态,αk越大意味着内容请求更集中在高排名的内容文件上;γkn是第k个节点中第n个文件的排名顺序;
S32,在每个传输周期t中,第k个车辆节点将平均接收来自其覆盖区域内所有相关用户的Uk请求;在第k个节点的覆盖范围内,第n个文件的平均请求数定义为ωkn,用ωkn=Ukqkn表示;
S33,在多播周期t内,在第k个节点覆盖范围内的所有用户请求文件共j次的概率为:
Figure FDA0003523188240000028
6.根据权利要求1所述的分层网络体系结构中的协作缓存方法,其特征在于,步骤S4中,所述内容放置矩阵m为:
Figure FDA0003523188240000031
式中,mkn表示每个簇内第k个车辆节点缓存第n个文件的文件段的数量;m的值满足以下约束条件:
Figure FDA0003523188240000032
式中,Mk表示每个车辆节点可以缓存的最大容量,M表示总文件的大小。
7.根据权利要求6所述的分层网络体系结构中的协作缓存方法,其特征在于,步骤S5中,优化内容放置矩阵的建模为:
Figure FDA0003523188240000033
s.t.C1:
Figure FDA0003523188240000034
C2:
Figure FDA0003523188240000035
式中,限制条件C1和C2是对缓存容量的限制,s0是每个文件段的大小,M是总文件的大小;EC是内容缓存的能量消耗,
Figure FDA0003523188240000036
Figure FDA0003523188240000037
是各车辆节点传输的能耗,
Figure FDA0003523188240000038
Figure FDA0003523188240000039
表示用户在第k个节点范围内请求文件n次数为零的概率;
Figure FDA00035231882400000310
是MBS的传输能耗,
Figure FDA00035231882400000311
Figure FDA00035231882400000312
表示MBS传输的每比特数据的能量消耗,B表示MBS通过编码组播传输的总比特数;N为流行文件集的文件总数。
CN202210185518.1A 2022-02-28 2022-02-28 一种分层网络体系结构中的协作缓存方法 Pending CN114666843A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210185518.1A CN114666843A (zh) 2022-02-28 2022-02-28 一种分层网络体系结构中的协作缓存方法
PCT/CN2022/126959 WO2023159986A1 (zh) 2022-02-28 2022-10-24 一种分层网络体系结构中的协作缓存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210185518.1A CN114666843A (zh) 2022-02-28 2022-02-28 一种分层网络体系结构中的协作缓存方法

Publications (1)

Publication Number Publication Date
CN114666843A true CN114666843A (zh) 2022-06-24

Family

ID=82026888

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210185518.1A Pending CN114666843A (zh) 2022-02-28 2022-02-28 一种分层网络体系结构中的协作缓存方法

Country Status (2)

Country Link
CN (1) CN114666843A (zh)
WO (1) WO2023159986A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023159986A1 (zh) * 2022-02-28 2023-08-31 南京邮电大学 一种分层网络体系结构中的协作缓存方法
CN116761152A (zh) * 2023-08-14 2023-09-15 合肥工业大学 路侧单元边缘缓存放置及内容交付方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116866995B (zh) * 2023-09-05 2023-12-01 江西师范大学 一种基于移动车辆的内容分层边缘缓存策略

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111741495B (zh) * 2020-06-22 2023-06-23 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 异构网络中高能效编码缓存内容放置方案设计方法
CN112839082B (zh) * 2020-12-31 2023-04-07 西安电子科技大学 一种异构边缘缓存分配方法、系统、介质及应用
CN113543071B (zh) * 2021-06-30 2023-10-03 南京邮电大学 一种车联网环境下异构节点协作边缘缓存方法
CN114666843A (zh) * 2022-02-28 2022-06-24 南京邮电大学 一种分层网络体系结构中的协作缓存方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023159986A1 (zh) * 2022-02-28 2023-08-31 南京邮电大学 一种分层网络体系结构中的协作缓存方法
CN116761152A (zh) * 2023-08-14 2023-09-15 合肥工业大学 路侧单元边缘缓存放置及内容交付方法
CN116761152B (zh) * 2023-08-14 2023-11-03 合肥工业大学 路侧单元边缘缓存放置及内容交付方法

Also Published As

Publication number Publication date
WO2023159986A1 (zh) 2023-08-31

Similar Documents

Publication Publication Date Title
CN114666843A (zh) 一种分层网络体系结构中的协作缓存方法
CN111031102B (zh) 一种多用户、多任务的移动边缘计算系统中可缓存的任务迁移方法
CN111741495B (zh) 异构网络中高能效编码缓存内容放置方案设计方法
CN113543071B (zh) 一种车联网环境下异构节点协作边缘缓存方法
CN113283177B (zh) 一种基于异步联邦学习的移动感知缓存方法
CN108600998B (zh) 超密度蜂窝与d2d异构融合网络缓存优化决策方法
CN114973673B (zh) 车路协同系统中结合noma和内容缓存的任务卸载方法
CN106230550B (zh) 车联网环境下具有缓存能力的编码传输方法
CN111885648A (zh) 基于边缘缓存的能量有效的网络内容分发机制构建方法
CN116156455A (zh) 一种基于联邦强化学习的车联网边缘内容缓存决策方法
CN113282786B (zh) 一种基于深度强化学习的全景视频边缘协作缓存替换方法
CN108848395A (zh) 基于果蝇优化算法的边缘协作缓存布置方法
CN115209426B (zh) 一种边缘车联网内数字孪生服务器动态部署方法
CN115297170A (zh) 一种基于异步联邦和深度强化学习的协作边缘缓存方法
CN113012013A (zh) 一种在车联网中基于深度强化学习的协同边缘缓存方法
CN116249162A (zh) 车载边缘网络中基于深度强化学习的协作缓存方法
CN113992770B (zh) 雾无线接入网中基于策略的联邦强化学习的协作缓存方法
CN108521640A (zh) 一种蜂窝网络中的内容分发方法
Chowdhury et al. An optimal strategy for UAV-assisted video caching and transcoding
CN111901833B (zh) 一种面向不可靠信道传输的联合服务调度以及内容缓存方法
Li et al. Video caching and scheduling with edge cooperation
CN116634396A (zh) 基于图注意力的车联网多智能体边缘计算内容缓存决策方法
CN114666842B (zh) 一种基于车辆分簇的协作缓存方法
CN113573365B (zh) 一种基于马尔科夫转移概率的车联网边缘缓存方法
CN113194362B (zh) 边缘计算场景中视频组播分组和码率决策方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination