CN112579544B - 文件缓存方法、装置、电子设备及存储介质 - Google Patents

文件缓存方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112579544B
CN112579544B CN202011506661.3A CN202011506661A CN112579544B CN 112579544 B CN112579544 B CN 112579544B CN 202011506661 A CN202011506661 A CN 202011506661A CN 112579544 B CN112579544 B CN 112579544B
Authority
CN
China
Prior art keywords
target file
neural network
access node
network model
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011506661.3A
Other languages
English (en)
Other versions
CN112579544A (zh
Inventor
刘杨
熊万凌
党甜
彭木根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202011506661.3A priority Critical patent/CN112579544B/zh
Publication of CN112579544A publication Critical patent/CN112579544A/zh
Application granted granted Critical
Publication of CN112579544B publication Critical patent/CN112579544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/172Caching, prefetching or hoarding of files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23106Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion involving caching operations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明提供一种文件缓存方法、装置、电子设备及存储介质,所述方法包括:接收用户设备发出的目标文件请求信息;基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送目标文件请求信息;获取目标文件,其中,目标文件是所述服务器基于所述目标文件请求信息计算获得的;若确定需要对目标文件进行缓存,则缓存目标文件。本发明通过利用服务器计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络的优势,在有效降低前传链路开销的基础上,充分利用边缘网络设备的计算和存储能力,合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。

Description

文件缓存方法、装置、电子设备及存储介质
技术领域
本发明涉及数据传输技术领域,尤其涉及一种文件缓存方法、装置、电子设备及存储介质。
背景技术
高速度、低功耗、低时延第五代移动通信(5G)网络的普及,给VR产业提供了更多可能。然而考虑到VR流媒体视频业务对网络传输能力有着严格的时延和带宽需求,随着VR传输需求的不断增加,目前5G网络的弊端也逐渐显露出来。
以雾无线接入网为例,雾无线接入网(fog computing based radio accessnetwork,F-RAN)作为异构云无线接入网络的演进,其结构中,有两种重要的设备:雾计算接入节点(F-AP:Fog Access Point,)和射频拉远头(RRH:Remote Radio Head)。它们都拥有一定的缓存能力,因此用户可以通过这两种设备获得数据业务而无需通过基带单元池(BBUpool:Baseband Unit pool)的集中式缓存,但这两种设备的计算和缓存能力有限,无法有效实现缓存所有用户需求的VR视频文件内容,导致边缘网络设备的计算和存储能力的利用率不高。
发明内容
本发明提供一种文件缓存方法、装置、电子设备及存储介质,用以解决现有技术中边缘网络设备的计算和存储能力的利用率不高的缺陷,实现提高边缘网络设备的计算和存储能力的利用率。
第一方面,本发明提供一种文件缓存方法,包括:
接收用户设备发出的目标文件请求信息;
基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
若确定需要对目标文件进行缓存,则缓存所述目标文件。
可选地,所述若确定需要对目标文件进行缓存,则缓存所述目标文件,包括:
若确定缓存空间未超过预设阈值,则缓存所述目标文件;
若确定缓存空间超过预设阈值,则基于联邦深度学习模型,确定需要对目标文件进行缓存,则缓存所述目标文件。
可选地,所述方法还包括:
基于预设周期,获取经验样本数据;
基于所述经验样本数据,进行深度强化学习,获得本地神经网络模型;
在每一次迭代更新过程中,迭代更新所述本地神经网络模型;
确定所述迭代更新过程结束后,获得联邦深度学习模型;
其中,所述确定所述迭代更新过程结束,包括:
迭代更新次数达到预设次数,或,所述本地神经网络模型收敛。
可选地,所述迭代更新过程包括:
传输所述本地神经网络模型的参数至服务器;
接收服务器传输的全局神经网络模型的参数,所述服务器传输的全局神经网络模型的参数是所述服务器基于所述接入节点的本地神经网络模型的参数进行全局联邦学习获得的;
基于所述全局神经网络模型的参数更新所述本地神经网络模型。
可选地,所述目标文件请求信息包括目标文件的文件标识以及目标信道信息,其中目标信道是承载所述目标文件请求信息的信道。
第二方面,本发明提供一种文件缓存方法,包括:
服务器接收接入节点发送的目标文件请求信息;
基于所述目标文件请求信息计算获得所述目标文件;
传输所述目标文件至接入节点,以使所述接入节点确定需要对目标文件进行缓存时缓存所述目标文件;
其中,所述目标文件请求信息是所述接入节点从用户设备接收到,且基于自身的缓存情况及所述目标文件请求信息,确定未缓存所述目标文件后,向所述服务器发送的。
可选地,所述方法还包括:
接收至少一个接入节点传输的本地神经网络模型的参数;
基于所述至少一个接入节点的本地神经网络模型的参数,进行全局联邦学习,获得全局神经网络模型;
传输所述全局神经网络模型的参数至所述接入节点,以使所述接入节点基于所述全局神经网络模型的参数更新所述本地神经网络模型。
第三方面,本发明提供一种文件缓存装置,包括:
接收模块,用于接收用户设备发出的目标文件请求信息;
发送模块,用于基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取模块,用于获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
缓存模块,用于若确定需要对目标文件进行缓存,则缓存所述目标文件。
第四方面,本发明提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面或第二方面所提供的文件缓存方法的步骤。
第五方面,本发明提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面或第二方面所提供的文件缓存方法的步骤。
本发明提供的文件缓存方法、装置、电子设备及存储介质,通过利用服务器计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络带来的优势,在有效降低前传(fronthual)链路开销的基础上,充分利用边缘网络设备的计算和存储能力,更合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的文件缓存方法的流程示意图之一;
图2是本发明提供的雾无线接入网中VR传输的系统框图;
图3是本发明提供的雾无线接入网中联邦学习的系统框图;
图4是本发明提供的基于联邦学习的缓存调度方法流程示意图;
图5是本发明提供的文件缓存方法的流程示意图之二;
图6是本发明提供的文件缓存装置的结构示意图;
图7是本发明提供的VR传输装置的结构示意图;
图8是本发明提供的电子设备的实体结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了更好地对本发明进行介绍,首先对以下内容进行介绍:
VR:Virtual Reality,虚拟现实;
FOV:Field of View,视场;
5G:5th Generation Mobile Networks,第五代移动网络;
C-RAN:Cloud Radio Access Network,云无线接入网;
F-RAN:Fog Radio Access Network,雾无线接入网;
F-AP:Fog Access Point,雾计算接入节点;
F-UE:Fog User Equipment,雾用户设备;
RRH:Remote Radio Head,射频拉远头;
BBU pool:Baseband Unit pool,基带单元池;
SINR:Signal to Interference plus Noise Ratio信号干扰噪声比值;
CSI:Channel State Information信道状态信息;
Fronthaul:前传链路;
Stitching:拼接;
Spherical Video:球形视频;
Equirectangular Projection:等距投影;
2-Dimensional(2D)Video:2D视频;
2D FOV:2-Dimensional(2D)Field of View,2D视场;
3D FOV:3-Dimensional(3D)Field of View,3D视场;
Extraction:提取;
Rendering:渲染;
Tracker:跟踪器;
Projection:投影。
目前已有一些F-RAN网络架构中的缓存策略研究成果,现有的研究成果存在的主要问题包括:第一,现有的方案缓存的对象都是普通的数据文件,并没有过高的时延和带宽需求;第二,基于传统集中式机器学习算法的方法没有充分利用F-RAN分布式架构的优势;第三,传统集中式机器学习算法的方法无法有效的保护用户的隐私信息,有较高的隐私泄露的风险。
为了克服上述全部或部分缺陷,本发明提出了文件缓存方法及装置,现基于图1至图5对本发明的文件缓存方法进行介绍。
图1是本发明提供的文件缓存方法的流程示意图之一,如图1所示,该方法的执行主体是接入节点,该方法包括如下步骤:
步骤100,接收用户设备发出的目标文件请求信息;
步骤110,基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
步骤120,获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
步骤130,若确定需要对目标文件进行缓存,则缓存所述目标文件。
具体地,本发明应用在无线网络的文件数据传输和缓存场景中,本发明提供的文件缓存方法的执行主体可以是接入节点,若本发明应用于雾无线接入网,则接入节点可以是F-AP,相应地,宏基站可以是RRH,服务器可以是BBU-pool。
可选地,在无线接入网中,服务器还可以是Cloud server的云端的集中式服务器;
具体地,接入节点可以接收用户设备发出的目标文件请求信息;
可以理解的是,每一个接入节点均可以接收自己所服务的F-UE的目标文件请求信息。
具体地,接入节点可以基于自身的缓存情况及所述目标文件请求信息,确定自身缓存空间中未缓存目标文件,即确定目标文件不在自己的缓存空间中,则接入节点可以向服务器转发所述目标文件请求信息;
具体地,接入节点可以从服务器获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
可选地,目标文件可以是服务器通过宏基站转发至接入节点的。
具体地,接入节点可以确定需要对目标文件进行缓存或者确定可以对目标文件进行缓存,则接入节点缓存所述目标文件。
可选地,所述目标文件包括但不限于:VR数据文件。
可选地,有高时延或较高时延要求,以及,高带宽以及较高带宽要求的数据文件,均适用于本发明。
可选地,用户设备发出目标文件请求信息后,服务该用户设备的接入节点可以根据自己的缓存情况以及用户设备的请求文件进行判断是否已缓存目标文件,或者判断是否需要缓存目标文件;
其中,用户设备可以在接入对应的接入节点后,发出目标文件请求信息。
可选地,接入节点可以基于自身的缓存情况及目标文件请求信息判断,若判断确定自身缓存空间已缓存目标文件,则可以直接把目标文件传输给用户设备;
否则,接入节点可以将所述目标文件请求信息传输至宏基站完成该请求;
具体地,接入节点可以通过宏基站将所述目标文件请求信息转发至服务器,即将目标文件请求信息发送至宏基站,宏基站将目标文件请求信息发送至服务器。
具体地,宏基站可以向服务器转发用户需求即目标文件请求信息,服务器在计算完成后,可以将用户所需目标文件经由宏基站转发至服务此前发送目标文件请求信息的用户设备的接入节点;
具体地,接入节点接收到目标文件后,可以进行判断是否对目标文件进行缓存。
具体地,如果判断确定缓存目标文件,则可以对目标文件进行缓存。
具体地,如果判断确定不缓存目标文件,则不缓存目标文件。
可选地,接入节点获得目标文件后,可以将所述目标文件传输至所述用户设备。
具体地,用户设备可以向对应的接入节点发送目标文件请求信息,接入节点基于目标文件请求信息,确定自身已缓存目标文件,可以将目标文件传输至用户设备;或者,确定自身没有缓存目标文件,则可以在获得目标文件并缓存后,将目标文件传输至用户设备。
具体地,以无线网络为雾无线接入网为例;则接入节点可以是F-AP,服务器可以是BBU-pool,用户设备可以是F-UE。图2是本发明提供的雾无线接入网中VR传输的系统框图;以目标文件是雾无线接入网的VR数据文件为例,用户设备F-UE配备的跟踪器捕获用户视角并上传至服务此设备的接入节点F-AP;
接入节点F-AP可以将此视角数据上传至服务器BBU-pool进行计算;
服务器BBU-pool可以将多摄像机阵列捕获的视频经过拼接形成球形视频,再经过等距投影形成2D视频,2D视频和用户视角信息结合,经过提取形成2D FOV,随后此FOV数据被发送回发起请求的接入节点F-AP;
接入节点F-AP接收到2D FOV后,借助自身的计算能力,将此2D FOV经过投影计算形成3D FOV数据,并作为用户需求的数据文件缓存在本地缓存中;可以理解的是,也可以不对用户需求的数据文件进行缓存;
随后将用户所需的3D FOV数据转发回发起请求的用户设备F-UE,用户设备将其渲染成为用户通过VR设备看到的VR视频。
本发明提供的文件缓存方法,通过利用服务器BBU-pool计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络带来的优势,在有效降低前传(fronthual)链路开销的基础上,充分利用边缘网络设备的计算和存储能力,更合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。
可选地,所述若确定需要对目标文件进行缓存,则缓存所述目标文件,包括:
若确定缓存空间未超过预设阈值,则缓存所述目标文件;
若确定缓存空间超过预设阈值,则基于联邦深度学习模型,确定需要对目标文件进行缓存,则缓存所述目标文件。
具体地,为了克服现有技术中由于设备的计算和缓存能力有限不能缓存所有用户需求的VR视频文件内容导致的边缘网络设备的计算和存储能力的利用率低的问题,即为了提高边缘网络设备的计算和存储能力的利用率,本发明可以在联邦学习框架下部署深度强化学习从而对设备中的缓存替换算法进行优化。
具体地,若接入节点获得目标文件后,确定自身缓存空间未超过预设阈值,即未达到缓存上限,则可以缓存所述目标文件。
具体地,若接入节点获得目标文件后,确定自身缓存空间等于或超过预设阈值,即达到缓存上限,则可以基于联邦深度学习模型,判断是否需要对目标文件进行缓存。
以目标文件是VR数据为例,本申请在接入节点缓存VR视频数据时,可以使用联邦学习的方法,使得缓存替换时可以根据学习的结果,选择性地保留未来更有可能被用户进行请求的文件,达到提高缓存命中率,进一步降低全局访问的时延的目的。同时,联邦学习的性质,可以保证用户数据的安全性,使用户获得更好的VR体验。
基于此,本发明中,可以在收到用户请求时,接入节点考虑本地缓存和每个用户设备的通信状况;在进行缓存调度时,接入节点进行本地深度学习,再进行联邦学习聚合并更新本地参数,以提高缓存命中率。
可选地,所述方法还包括:
基于预设周期,获取经验样本数据;
基于所述经验样本数据,进行深度强化学习,获得本地神经网络模型;
在每一次迭代更新过程中,迭代更新所述本地神经网络模型;
确定所述迭代更新过程结束后,获得联邦深度学习模型;
其中,所述确定所述迭代更新过程结束,包括:
迭代更新次数达到预设次数,或,所述本地神经网络模型收敛;
其中,所述经验样本数据包括:接入节点的第一状态信息,行为信息,奖励信息,第二状态信息,及布尔类型,所述第二状态信息是在所述第一状态信息下执行所述行为信息达到的新的状态。
例如,每个经验样本数据可以以(s,a,r,s′,T)的形式存储,s为第一状态信息,a为行为信息,r为奖励信息,s′为第二状态信息,T为布尔类型;(s,a,r,s′,T)可以表示为雾智能处理器在第一状态s下执行动作a,达到新的状态s′,并获得对应奖励r,T为布尔类型,表示新的状态是否为终止状态;
可以理解的是,本发明中涉及至少一个接入节点,因此状态信息s可以包括各个接入节点节点所缓存的文件、用户选择请求某个接入节点的情况、所请求的缓存文件情况,当前信道条件,文件总传输延时t;
行为a可以为当前接入节点中缓存文件放置位置;
奖励值r可以根据总延时t预先设置;可以理解的是,奖励值r合理设置即可,比如基于延时t分延时等级,基于延时等级按比例进行预先设置。
具体地,接入节点在基于联邦深度学习模型,确定是否需要对目标文件进行缓存之前,接入节点可以首先进行深度学习获得联邦深度学习模型。
具体地,在进行深度学习时,接入节点可以每隔预设周期长度,比如每隔一定步数STEP从经验池中随机抽取小批量经验样本数据,并基于所抽取经验样本执行深度强化学习算法中更新Q值;其中,Q值指优化缓存放置行为目标Q值。
随后,接入节点可以经过多次迭代,预测网络和目标网络交互赋值后,接入节点可以通过深度强化学习获得一个收敛的目标神经网络完成缓存放置策略的学习,其中神经网络中的权重参数构成神经网络模型;
具体地,接入节点完成本地神经网络模型的训练后,可以将本地神经网络模型的参数发送至服务器,进行全局的联邦学习;然后可以接收服务器发送的全局神经网络模型的参数,对本地神经网络模型进行迭代更新,不断更新本地神经网络模型;获得联邦深度学习模型。
具体地,可以持续迭代更新至本地神经网络模型收敛,或达到预设迭代次数,即可以获得联邦深度学习模型。
可选地,所述迭代更新过程包括:
传输所述本地神经网络模型的参数至服务器;
接收服务器传输的全局神经网络模型的参数,所述服务器传输的全局神经网络模型的参数是所述服务器基于所述接入节点的本地神经网络模型的参数进行全局联邦学习获得的;
基于所述全局神经网络模型的参数更新所述本地神经网络模型。
具体地,以无线网络为雾无线接入网为例进行介绍;则接入节点可以是F-AP,服务器可以是BBU-pool,用户设备可以是F-UE;但不作为对本发明的限制,可以理解的是,本发明的缓存方法以及缓存调度策略适用于所有类似于雾无线接入网的无线网络。图3是本发明提供的雾无线接入网中联邦学习的系统框图,如图3所示,接入节点F-AP完成本地神经网络模型的训练后,各接入节点F-AP可以将各自的神经网络模型的参数发送至服务器BBU-pool,进行全局的联邦学习;
具体地,服务器可以对多个接入节点的本地神经网络模型的参数执行聚合,更新全局神经网络模型;
具体地,服务器可以获取多个接入节点的本地神经网络模型的参数后,对其权重参数依次进行解密。并将多个接入节点的模型权重参数进行安全聚合,从而获得全局神经网络模型;
具体地,服务器可以将获得的全局神经网络模型聚合结果发送给参与聚合的接入节点;
具体地,接入节点可以使用全局神经网络模型的参数更新本地神经网络模型,即完成一次迭代更新过程。
具体地,接入节点可以继续执行上述迭代更新过程中的深度强化学习算法,不断更新本地神经网络模型;获得联邦深度学习模型。
可以理解的是,本发明中,更新本地神经网络模型即为更新本地神经网络模型的参数。
可选地,所述目标文件请求信息包括目标文件的文件标识以及目标信道信息,其中目标信道是承载所述目标文件请求信息的信道。
具体地,目标文件请求信息可以包括但不限于目标文件的文件标识以及目标信道信息,其中目标信道是承载所述目标文件请求信息的信道;
图4是本发明提供的基于联邦学习的缓存调度方法流程示意图;如图4所示,以无线网络为雾无线接入网为例对本发明提供的联邦深度学习模型的获得方式进行介绍;但不作为对本发明的限制,可以理解的是,本发明的缓存方法以及缓存调度策略适用于所有类似于雾无线接入网的无线网络。如图4所示,基于联邦学习的缓存调度方法流程包括:
步骤401,确定雾无线接入网中各VR传输系统子单元架构。
本申请中,主要针对的是F-UE的VR视频数据请求业务。
具体的,针对每个接入节点,可以逐个获取其所服务的各个用户设备F-UE的功率,各个用户设备距离基站的距离等,用于计算信号强度值,这里的信号强度值可以是信号干扰噪声比值(SINR),也可以是用户的信号功率,其中用户所处的信道状态信息可以使用历史统计的CSI值进行估计。
步骤402,各个接入节点局部处理子单元初始化深度强化学习环境、本地神经网络模型参数。
具体地,可以首先初始化经验池队列D,用于存储缓存放置深度强化学习训练样本;其次,在深度强化学习算法中,设状态值函数Q作为预测网络,并随机初始化神经网络权重参数θ,设状态值函数作为目标网络,并初始化权重参数θ-与θ相同;
再次,可以设定接入节点局部处理子单元最大的迭代执行次数,迭代次数合理设置即可;
最后,可以设置深度强化学习环境,针对深度强化学习算法观测环境。
步骤403,基带单元池全局处理子单元初始化全局神经网络模型参数
具体地,在云智能处理器初始化全局深度强化学习算法的缓存放置神经网络模型,初始化过程中使用随机神经网络权重参数θg
步骤404,接入节点局部处理子单元使用全局神经网络模型参数替换本地神经网络模型参数。
本发明的联邦强化学习中,可以有以下假设:
假设1,接入节点局部处理子单元的状态空间不同,例如:sα和sβ,但对于深度强化学习所需解决的缓存放置问题具有相同的价值意义。
假设2,由于隐私保护的原因,接入节点局部处理子单元中观测环境和奖励回报不会相互泄露、相互共享。例如,接入节点局部处理子单元α中sα或者rα和接入节点局部处理子单元β中sβ或者rβ不会相互泄露、相互共享。
假设3,对于函数的输出,例如接入节点局部处理子单元α和β的输出Qα和Qβ可以在它们自己的网络足够复杂且彼此未知的情况下相互共享(基于上述第1条假设,由于它们的输入是彼此未知的),这样使得多个接入节点局部处理子单元间不能相互诱导彼此的网络。
步骤405,接入节点局部处理子单元用深度强化学习算法更新本地神经网络模型的参数。
具体地,可以根据当前观测雾无线接入网络环境的状态st,计算优化缓存放置行为目标Q值;
根据∈策略进行动作选择,具体为:在选择缓存放置动作的过程中,有概率为∈的情况下进行随机选择缓存放置动作at;其他情况可以根据神经网络计算出当前环境状态对应动作的Q值,并选择Q值最大的一个动作为最优动作at
接入节点局部处理子单元执行上述步骤选择的动作at,获得环境反馈的奖励信号r和下一个状态st+1。基于新的状态st+1,计算优化目标Q值;
因此能够明确雾无线接入网延时状态st和st+1,明确所执行的动作at以及获得的奖励r,布尔类型T表示新的状态是否为终止状态,并将获得的状态转换中各个参数按初始化过程中所描述格式存入经验池D;
后续深度强化学习算法中,接入节点局部处理子单元从经验池D中随机取出小批量状态转换参数以获取相关经验信息。根据经验数据计算每一个状态的目标Q值,再通过目标网络执行缓存放置动作后的奖励r更新Q值,进而影响下一个策略中动作的选择;
每经过一定次数迭代后,更新目标动作值函数的网络参数θ-为预测网络的参数θ。
步骤406,接入节点局部处理子单元将本地神经网络模型参数加密并上传至服务器比如基带单元池全局处理子单元。
具体地,所有接入节点局部处理子单元将深度强化学习神经网络模型权重参数θ加密,可采用高斯差分隐私等方式进行。完成加密后,所有接入节点局部处理子单元将上述步骤加密后的神经网络模型权重参数上传至云智能处理器节点。
步骤407,基带单元池全局处理子单元执行联邦学习中的神经网络参数聚合
具体地,基带单元池全局处理子单元获取一部分接入节点局部处理子单元更新后的本地神经网络模型的参数,其中由于各个接入节点局部处理子单元深度强化学习模型更新时间存在差异,为方便快速迭代,可随机选择先获取部分接入节点局部处理子单元的本地神经网络模型即深度强化学习模型进行聚合处理;
基带单元池全局处理子单元求取深度强化学习中神经网络权重θ的联合平均,操作为:其中,θt+1和/>分别表示在t+1时刻基带单元池全局处理子单元中全局神经网络的权重参数和接入节点局部处理子单元本地神经网络的权重参数。k为全部参与聚合的雾智能处理器数量,C是接入节点局部处理子单元的集合,B和Bk分别为神经网络梯度下降过程中全部的训练样本数和本时隙内参与训练所选取的样本数;
至此,聚合操作完成,基带单元池全局处理子单元所得到全局神经网络模型是根据多个接入节点局部处理子单元的深度强化学习的结果所获得的。
步骤408,基带单元池全局处理子单元将聚合后的模型发回各个接入节点局部处理子单元。完成一次循环,进行多次步骤404-步骤408的循环完成迭代过程。
可选地,目标信道信息可以包括但不限于距离各接入节点的距离,用户接入功率以及信噪比等。
具体地,在进行目标文件缓存时,可以首先确定接入各接入节点的用户设备在发出目标文件请求信息时的信道信息,包括但不限于距离各接入节点的距离,用户接入功率以及信噪比等,以及用户设备请求的文件号等。
本发明提供的文件缓存方法,通过利用服务器计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络带来的优势,在有效降低前传(fronthual)链路开销的基础上,充分利用边缘网络设备的计算和存储能力,更合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。
图5是本发明提供的文件缓存方法的流程示意图之二,如图5所示,该方法的执行主体是服务器,该方法包括如下步骤:
步骤500,服务器接收接入节点发送的目标文件请求信息;
步骤510,基于所述目标文件请求信息计算获得所述目标文件;
步骤520,传输所述目标文件至接入节点,以使所述接入节点确定需要对目标文件进行缓存时缓存所述目标文件;
其中,所述目标文件请求信息是所述接入节点从用户设备接收到,且基于自身的缓存情况及所述目标文件请求信息,确定未缓存所述目标文件后,向所述服务器发送的。
具体地,本发明应用在无线网络的文件数据传输和缓存场景中,本发明提供的文件缓存方法的执行主体可以是服务器,若本发明应用于雾无线接入网,则服务器可以是BBU-pool,相应地,接入节点可以是F-AP,宏基站可以是RRH。
可选地,在无线接入网中,服务器还可以是Cloud server的云端的集中式服务器;
具体地,服务器可以接收接入节点发送的目标文件请求信息,目标文件请求信息是接入节点从用户设备接收到的;
可以理解的是,接入节点可以基于自身的缓存情况及所述目标文件请求信息,确定自身缓存空间中未缓存目标文件,即确定目标文件不在自己的缓存空间中,则接入节点可以向服务器转发所述目标文件请求信息;
具体地,接入节点可以通过宏基站向服务器转发所述目标文件请求信息,即将目标文件请求信息发送至宏基站,宏基站将目标文件请求信息发送至服务器。
具体地,可以基于所述目标文件请求信息计算获得目标文件,并传输给接入节点;接入节点可以从服务器获取所述目标文件;
可选地,目标文件可以是服务器通过宏基站转发至接入节点的;
接入节点接收到目标文件后可以确定需要对目标文件进行缓存或者确定可以对目标文件进行缓存,则接入节点缓存所述目标文件。
可选地,所述目标文件包括但不限于:VR数据文件。
可选地,有高时延或较高时延要求,以及,高带宽以及较高带宽要求的数据文件,均适用于本发明。
可选地,接入节点可以基于自身的缓存情况及目标文件请求信息判断,若判断确定自身缓存空间已缓存目标文件,则可以直接把目标文件传输给用户设备;
否则,接入节点可以将所述目标文件请求信息传输至宏基站完成该请求;
具体地,接入节点可以通过宏基站将所述目标文件请求信息转发至服务器。
具体地,宏基站可以向服务器转发用户需求即目标文件请求信息,服务器在计算完成后,可以将用户所需目标文件经由宏基站转发至服务此前发送目标文件请求信息的用户设备的接入节点;
具体地,接入节点接收到目标文件后,可以进行判断是否对目标文件进行缓存。
具体地,如果判断确定缓存目标文件,则可以对目标文件进行缓存。
具体地,如果判断确定不缓存目标文件,则不缓存目标文件。
可选地,接入节点获得目标文件后,可以将所述目标文件传输至所述用户设备。
具体地,用户设备可以向对应的接入节点发送目标文件请求信息,接入节点基于目标文件请求信息,确定自身已缓存目标文件,可以将目标文件传输至用户设备;或者,确定自身没有缓存目标文件,则可以在获得目标文件并缓存后,将目标文件传输至用户设备。
以目标文件是雾无线接入网的VR数据文件为例,用户设备配备的跟踪器捕获用户视角并上传至服务此设备的接入节点;
接入节点可以将此视角数据上传至服务器进行计算;
服务器可以将多摄像机阵列捕获的视频经过拼接形成球形视频,再经过等距投影形成2D视频,2D视频和用户视角信息结合,经过提取形成2D FOV,随后此FOV数据被发送回发起请求的接入节点;
接入节点接收到2D FOV后,借助自身的计算能力,将此2D FOV经过投影计算形成3D FOV数据,并作为用户需求的数据文件缓存在本地缓存中;可以理解的是,也可以不对用户需求的数据文件进行缓存;
随后将用户所需的3D FOV数据转发回发起请求的用户设备,用户设备将其渲染成为用户通过VR设备看到的VR视频。
本发明提供的文件缓存方法,通过利用服务器计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络带来的优势,在有效降低前传(fronthual)链路开销的基础上,充分利用边缘网络设备的计算和存储能力,更合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。
可选地,所述方法还包括:
接收至少一个接入节点传输的本地神经网络模型的参数;
基于所述至少一个接入节点的本地神经网络模型的参数,进行全局联邦学习,获得全局神经网络模型;
传输所述全局神经网络模型的参数至所述接入节点,以使所述接入节点基于所述全局神经网络模型的参数更新所述本地神经网络模型。
具体地,服务器可以接收接入节点传输的本地神经网络模型的参数,进行全局联邦学习,获得全局神经网络。因此,接入节点完成本地神经网络模型的训练后,各接入节点可以将各自的神经网络模型的参数发送至服务器,进行全局的联邦学习;
具体地,服务器可以对多个接入节点的本地神经网络模型参数执行聚合,更新全局神经网络模型;
具体地,服务器可以获取多个接入节点的本地神经网络模型的参数后,对其权重参数依次进行解密。并将多个接入节点的模型权重参数进行安全聚合,从而获得全局神经网络模型;
具体地,服务器可以将获得的全局神经网络模型聚合结果发送给参与聚合的接入节点;
具体地,接入节点可以使用全局神经网络模型的参数更新本地神经网络模型,即完成一次迭代更新过程。
具体地,接入节点可以继续执行上述迭代更新过程中的深度强化学习算法,不断更新本地神经网络模型;获得联邦深度学习模型。
可选地,所述目标文件请求信息包括目标文件的文件标识以及目标信道信息,其中目标信道是承载所述目标文件请求信息的信道。
具体地,目标文件请求信息可以包括但不限于目标文件的文件标识以及目标信道信息,其中目标信道是承载所述目标文件请求信息的信道;
本发明提供的文件缓存方法,通过利用服务器计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络带来的优势,在有效降低前传(fronthual)链路开销的基础上,充分利用边缘网络设备的计算和存储能力,更合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。
下面对本发明提供的文件缓存装置进行描述,下文描述的文件缓存装置与上文描述的文件缓存方法可相互对应参照。
图6是本发明提供的文件缓存装置的结构示意图,如图6所示,该装置包括:接收模块610,发送模块620,获取模块630和缓存模块640。其中:
接收模块610用于接收用户设备发出的目标文件请求信息;
发送模块620用于基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取模块630用于获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
缓存模块640用于若确定需要对目标文件进行缓存,则缓存所述目标文件。
具体地,文件缓存装置可以通过接收模块610接收用户设备发出的目标文件请求信息;然后通过发送模块620基于接入节点的缓存情况及目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;随后通过获取模块630获取服务器基于所述目标文件请求信息计算获得的目标文件,最后若确定需要对目标文件进行缓存,则他还缓存模块640缓存所述目标文件。
在此需要说明的是,本申请实施例提供的上述装置,能够实现上述文件缓存方法所实现的所有步骤,且能够达到相同的技术效果,在此不再对本发明中与方法实施例相同的部分及有益效果进行具体赘述。
本发明提供的文件缓存装置,通过利用服务器计算获得目标文件,并在缓存目标文件前首先进行判断是否缓存,充分利用无线网络带来的优势,在有效降低前传(fronthual)链路开销的基础上,充分利用边缘网络设备的计算和存储能力,更合理地进行缓存调度,提高边缘网络设备的计算和存储能力的利用率。
图7是本发明提供的VR传输装置的结构示意图,如图7所示,该装置包括用户视角数据处理单元、信号强度分析处理单元、VR视频数据缓存单元、联邦学习处理单元;其中:
所述用户视角数据处理单元,用于基带单元池中拼接球形视频、等距投影成2D视频以及进一步和用户视角数据进行结合提取出2D FOV;
所述信号强度分析处理单元,用于接入节点确定发出请求的用户设备的信号强度,包括信号功率值、信噪比、与基站之间的距离等;
所述联邦学习处理单元包括接入节点局部处理子单元和基带单元池全局处理子单元,分别放置于接入节点以及基带单元池中,进行局部和全局的模型训练,并且实现后续局部模型的聚合以及全局模型的下发等功能;
所述VR视频数据缓存单元,用于接入节点缓存用户请求的VR数据文件,并且可以获取联邦学习处理单元的学习结果并对自身缓存进行管理。
图8是本发明提供的电子设备的实体结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行文件缓存方法,该方法包括:
接收用户设备发出的目标文件请求信息;
基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
若确定需要对目标文件进行缓存,则缓存所述目标文件。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的文件缓存方法,该方法包括:
接收用户设备发出的目标文件请求信息;
基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
若确定需要对目标文件进行缓存,则缓存所述目标文件。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的文件缓存方法,该方法包括:
接收用户设备发出的目标文件请求信息;
基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取所述目标文件,其中,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
若确定需要对目标文件进行缓存,则缓存所述目标文件。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种文件缓存方法,其特征在于,应用于接入节点,所述方法包括:
接收用户设备发出的目标文件请求信息;
基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取所述目标文件,其中,所述目标文件是雾无线接入网的VR数据文件,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
若确定需要对目标文件进行缓存,则缓存所述目标文件;
所述接入节点是雾无线接入网中的F-AP,所述服务器是BBU-pool;
所述若确定需要对目标文件进行缓存,则缓存所述目标文件,包括:
若确定缓存空间未超过预设阈值,则缓存所述目标文件;
若确定缓存空间超过预设阈值,则基于联邦深度学习模型,确定需要对目标文件进行缓存,则缓存所述目标文件;
所述方法还包括:
基于预设周期,获取经验样本数据;
基于所述经验样本数据,进行深度强化学习,更新Q值,获得本地神经网络模型;其中,Q值指优化缓存放置行为目标Q值,每个经验样本数据可以以(s,a,r,s,T)的形式存储,s为第一状态信息,a为行为信息,r为奖励信息,s为第二状态信息,T为布尔类型,表示新的状态是否为终止状态;(s,a,r,s,T)表示为雾智能处理器在第一状态s下执行动作a,达到新的状态s^',并获得对应奖励r,判断是否为终止状态并为T赋值,状态信息s包括各个接入节点所缓存的文件、用户选择请求某个接入节点的情况、所请求的缓存文件情况,当前信道条件,文件总传输延时t及文件放置位置;行为a为当前接入节点是否需要缓存文件;奖励值r根据总延时t预先设置;
在每一次迭代更新过程中,迭代更新所述本地神经网络模型;
确定所述迭代更新过程结束后,获得联邦深度学习模型;
其中,所述确定所述迭代更新过程结束,包括:
迭代更新次数达到预设次数,或,所述本地神经网络模型收敛;
所述迭代更新过程包括:
传输所述本地神经网络模型的参数至服务器;
接收服务器传输的全局神经网络模型的参数,所述服务器传输的全局神经网络模型的参数是所述服务器基于各接入节点的本地神经网络模型的参数,通过求取深度强化学习中神经网络权重θ的联合平均,实现各接入节点的本地神经网络模型的参数聚合并进行全局联邦学习获得的,其中,θt+1和/>分别表示在t+1时刻全局联邦学习的神经网络的权重参数和F-AP局部处理子单元本地神经网络模型的权重参数,k为全部参与聚合的雾智能处理器数量,C是接入节点局部处理子单元的集合,B和Bk分别为神经网络梯度下降过程中全部的训练样本数和本时隙内参与训练所选取的样本数;
基于所述全局神经网络模型的参数更新所述本地神经网络模型。
2.根据权利要求1所述的文件缓存方法,其特征在于,所述目标文件请求信息包括目标文件的文件标识以及目标信道信息,其中目标信道是承载所述目标文件请求信息的信道。
3.一种文件缓存方法,其特征在于,包括:
服务器接收接入节点发送的目标文件请求信息;
基于所述目标文件请求信息计算获得所述目标文件;
传输所述目标文件至接入节点,以使所述接入节点确定需要对目标文件进行缓存时缓存所述目标文件;
其中,所述目标文件请求信息是所述接入节点从用户设备接收到,且基于自身的缓存情况及所述目标文件请求信息,确定未缓存所述目标文件后,向所述服务器发送的;
所述接入节点是雾无线接入网中的F-AP,所述服务器是BBU-pool;
所述方法还包括:
接收至少一个接入节点传输的本地神经网络模型的参数,所述本地神经网络模型的参数是接入节点基于预设周期,获取经验样本数据后,基于所述经验样本数据,进行深度强化学习,更新Q值,迭代更新所述本地神经网络模型获得的;其中,Q值指优化缓存放置行为目标Q值,每个经验样本数据以(s,a,r,s,T)的形式存储,s为第一状态信息,a为行为信息,r为奖励信息,s^'为第二状态信息,T为布尔类型,表示新的状态是否为终止状态;(s,a,r,s,T)表示为雾智能处理器在第一状态s下执行动作a,达到新的状态s^',并获得对应奖励r,判断是否为终止状态并为T赋值,状态信息s包括各个接入节点所缓存的文件、用户选择请求某个接入节点的情况、所请求的缓存文件情况,当前信道条件,文件总传输延时t及文件放置位置;行为a为当前接入节点是否需要缓存文件;奖励值r根据总延时t预先设置;
基于所述至少一个接入节点的本地神经网络模型的参数,通过求取深度强化学习中神经网络权重θ的联合平均,实现各接入节点的本地神经网络模型的参数聚合并进行全局联邦学习,获得全局神经网络模型,其中,θt+1和/>分别表示在t+1时刻全局联邦学习的神经网络的权重参数和F-AP局部处理子单元本地神经网络模型的权重参数,k为全部参与聚合的雾智能处理器数量,C是接入节点局部处理子单元的集合,B和Bk分别为神经网络梯度下降过程中全部的训练样本数和本时隙内参与训练所选取的样本数;
传输所述全局神经网络模型的参数至所述接入节点,以使所述接入节点基于所述全局神经网络模型的参数更新所述本地神经网络模型。
4.一种文件缓存装置,其特征在于,应用于接入节点,所述装置包括:
接收模块,用于接收用户设备发出的目标文件请求信息;
发送模块,用于基于自身的缓存情况及所述目标文件请求信息,确定未缓存目标文件,则向服务器发送所述目标文件请求信息;
获取模块,用于获取所述目标文件,其中,所述目标文件是雾无线接入网的VR数据文件,所述目标文件是所述服务器基于所述目标文件请求信息计算获得的;
缓存模块,用于若确定需要对目标文件进行缓存,则缓存所述目标文件;
所述接入节点是雾无线接入网中的F-AP,所述服务器是BBU-pool;
所述缓存模块具体用于:
若确定缓存空间未超过预设阈值,则缓存所述目标文件;
若确定缓存空间超过预设阈值,则基于联邦深度学习模型,确定需要对目标文件进行缓存,则缓存所述目标文件;
所述缓存模块还用于:
基于预设周期,获取经验样本数据;
基于所述经验样本数据,进行深度强化学习,更新Q值,获得本地神经网络模型;其中,Q值指优化缓存放置行为目标Q值,每个经验样本数据可以以(s,a,r,s,T)的形式存储,s为第一状态信息,a为行为信息,r为奖励信息,s为第二状态信息,T为布尔类型,表示新的状态是否为终止状态;(s,a,r,s,T)表示为雾智能处理器在第一状态s下执行动作a,达到新的状态s^',并获得对应奖励r,判断是否为终止状态并为T赋值,状态信息s包括各个接入节点所缓存的文件、用户选择请求某个接入节点的情况、所请求的缓存文件情况,当前信道条件,文件总传输延时t及文件放置位置;行为a为当前接入节点是否需要缓存文件;奖励值r根据总延时t预先设置;
在每一次迭代更新过程中,迭代更新所述本地神经网络模型;
确定所述迭代更新过程结束后,获得联邦深度学习模型;
其中,所述确定所述迭代更新过程结束,包括:
迭代更新次数达到预设次数,或,所述本地神经网络模型收敛;
所述迭代更新过程包括:
传输所述本地神经网络模型的参数至服务器;
接收服务器传输的全局神经网络模型的参数,所述服务器传输的全局神经网络模型的参数是所述服务器基于各接入节点的本地神经网络模型的参数,通过求取深度强化学习中神经网络权重θ的联合平均,实现各接入节点的本地神经网络模型的参数聚合并进行全局联邦学习获得的,其中,θt+1和/>分别表示在t+1时刻全局联邦学习的神经网络的权重参数和F-AP局部处理子单元本地神经网络模型的权重参数,k为全部参与聚合的雾智能处理器数量,C是接入节点局部处理子单元的集合,B和Bk分别为神经网络梯度下降过程中全部的训练样本数和本时隙内参与训练所选取的样本数;
基于所述全局神经网络模型的参数更新所述本地神经网络模型。
5.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至2任一项所述文件缓存方法的步骤。
6.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至2任一项所述文件缓存方法的步骤。
CN202011506661.3A 2020-12-18 2020-12-18 文件缓存方法、装置、电子设备及存储介质 Active CN112579544B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011506661.3A CN112579544B (zh) 2020-12-18 2020-12-18 文件缓存方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011506661.3A CN112579544B (zh) 2020-12-18 2020-12-18 文件缓存方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112579544A CN112579544A (zh) 2021-03-30
CN112579544B true CN112579544B (zh) 2023-10-13

Family

ID=75136709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011506661.3A Active CN112579544B (zh) 2020-12-18 2020-12-18 文件缓存方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112579544B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923128B (zh) * 2021-10-27 2024-02-13 东南大学 雾无线接入网中基于联邦强化学习的智能编码缓存方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10225365B1 (en) * 2014-12-19 2019-03-05 Amazon Technologies, Inc. Machine learning based content delivery
CN109815425A (zh) * 2018-12-14 2019-05-28 平安科技(深圳)有限公司 缓存数据处理方法、装置、计算机设备和存储介质
CN110062357A (zh) * 2019-03-20 2019-07-26 重庆邮电大学 一种基于强化学习的d2d辅助设备缓存系统及缓存方法
CN111865826A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种基于联邦学习的主动内容缓存方法
CN111935784A (zh) * 2020-08-12 2020-11-13 重庆邮电大学 一种雾计算网络中基于联邦学习的内容缓存方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10225365B1 (en) * 2014-12-19 2019-03-05 Amazon Technologies, Inc. Machine learning based content delivery
CN109815425A (zh) * 2018-12-14 2019-05-28 平安科技(深圳)有限公司 缓存数据处理方法、装置、计算机设备和存储介质
CN110062357A (zh) * 2019-03-20 2019-07-26 重庆邮电大学 一种基于强化学习的d2d辅助设备缓存系统及缓存方法
CN111865826A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种基于联邦学习的主动内容缓存方法
CN111935784A (zh) * 2020-08-12 2020-11-13 重庆邮电大学 一种雾计算网络中基于联邦学习的内容缓存方法

Also Published As

Publication number Publication date
CN112579544A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
Dai et al. A view synthesis-based 360° VR caching system over MEC-enabled C-RAN
EP3720169A1 (en) Data analysis device, system, and method
CN113626104B (zh) 边云架构下基于深度强化学习的多目标优化卸载策略
Chua et al. Resource allocation for mobile metaverse with the Internet of Vehicles over 6G wireless communications: A deep reinforcement learning approach
CN112579544B (zh) 文件缓存方法、装置、电子设备及存储介质
CN115249073A (zh) 一种联邦学习方法以及装置
CN116187483A (zh) 模型训练方法、装置、设备、介质和程序产品
Sun et al. A DQN-based cache strategy for mobile edge networks
CN116916390A (zh) 一种结合资源分配的边缘协作缓存优化方法及装置
CN113747507B (zh) 一种面向5g超密集网络的计算资源管理方法及装置
CN113094180B (zh) 无线联邦学习调度优化方法及装置
Liu et al. Multi-agent federated reinforcement learning strategy for mobile virtual reality delivery networks
CN115756873B (zh) 一种基于联邦强化学习的移动边缘计算卸载方法和平台
Chen et al. Echo state transfer learning for data correlation aware resource allocation in wireless virtual reality
Dai et al. An mec-enabled wireless vr transmission system with view synthesis-based caching
CN116489708A (zh) 面向元宇宙的云边端协同的移动边缘计算任务卸载方法
Wang et al. Deep Reinforcement Learning Based Resource Allocation for Cloud Native Wireless Network
WO2023175381A1 (en) Iterative training of collaborative distributed coded artificial intelligence model
Park et al. Self-controllable super-resolution deep learning framework for surveillance drones in security applications
Younis et al. Energy-Latency Computation Offloading and Approximate Computing in Mobile-Edge Computing Networks
CN116634388B (zh) 面向电力融合网络大数据边缘缓存与资源调度方法及系统
CN115804074A (zh) 第一网络节点和在其中执行的用于处理通信网络中的数据的方法
CN108632862B (zh) 基于深度确定性策略梯度的移动边缘计算分流决策方法
He et al. A fast-adaptive edge resource allocation strategy for dynamic vehicular networks
Dash et al. How to Pipeline Frame Transfer and Server Inference in Edge-assisted AR to Optimize AR Task Accuracy?

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant