CN115103408A - 一种面向mec的边缘视频缓存服务器部署规划方法 - Google Patents

一种面向mec的边缘视频缓存服务器部署规划方法 Download PDF

Info

Publication number
CN115103408A
CN115103408A CN202210735870.8A CN202210735870A CN115103408A CN 115103408 A CN115103408 A CN 115103408A CN 202210735870 A CN202210735870 A CN 202210735870A CN 115103408 A CN115103408 A CN 115103408A
Authority
CN
China
Prior art keywords
server
deployment
chromosome
neural network
mec
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210735870.8A
Other languages
English (en)
Other versions
CN115103408B (zh
Inventor
刘佳宜
姚文斌
杨清海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202210735870.8A priority Critical patent/CN115103408B/zh
Publication of CN115103408A publication Critical patent/CN115103408A/zh
Application granted granted Critical
Publication of CN115103408B publication Critical patent/CN115103408B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/0827Triggering entity
    • H04W28/0835Access entity, e.g. eNB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/0827Triggering entity
    • H04W28/0838User device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/09Management thereof
    • H04W28/0958Management thereof based on metrics or performance parameters
    • H04W28/0967Quality of Service [QoS] parameters
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开的一种面向MEC的边缘视频缓存服务器部署规划方法,获取基站节点用户请求的历史数据;根据服务器部署约束条件限制,任选一个服务器部署方案,求得每个采样时刻基站请求数据下的最优化预设的第一目标方程的值,进而求其时间平均均值,保存该部署方案以及该均值作为一个神经网络训练样本;重复上述步骤,直至获取预设数目个训练样本用于训练神经网络;根据神经网络和预设的第二目标方程得到适应度函数F,利用遗传算法求出F的最优值和对应的染色体,即得到最优的视频缓存服务器部署方案。该方法考虑了用户请求动态变化的情况下,减少服务器运营成本,提高用户质量,减少传输时延,以响应超高清视频等业务需求。

Description

一种面向MEC的边缘视频缓存服务器部署规划方法
技术领域
本发明属于通信技术领域,具体涉及一种面向MEC的边缘视频缓存服务器部署规划方法。
背景技术
随着通信技术与互联网技术的发展,各种超高清视频、虚拟现实等多媒体业务日渐发展,此类业务除了需要占用高带宽外还要求具有可靠、良好的服务质量(QoS)和用户体验质量(QoE)。随着这类业务数据量与用户量逐步增加,对骨干网带宽产生极大压力,甚至导致拥塞,对硬件设施提出了一定挑战。针对这一问题,结合移动边缘计算(MEC)与内容分发网络(CDN)将用户访问热度高的内容复制到距离用户更近的边缘节点上的缓存服务器。为用户提供了低延迟、低丢失的传输路径,从而提高整体性能,改善终端用户的体验,分担骨干网带宽压力。
目前,由于互联网业务与移动网络的分离设计,超高清视频业务难以感知用户请求的变化,造成基于DASH/HLS进行视频传输码率的调整总是滞后的;同时超高清视频包含巨大的数据量,数据的处理能力及传输效率也受到了挑战。针对上述问题,MEC将云端的计算能力卸载到边缘节点上,具有低延时与节省带宽的特性。拥有计算能力的MEC在超高清视频领域中,能够有效的提高传视频数据的处理能力,带动整个超高清视频的采集、制作、播放升级,很好地服务视频传输业务的优化。同时MEC可以实时感知无线接入网络的动态变化,及时调整码率,帧速率等来优化视频传输,使用户体验达到最佳效果。
因此,融合CDN与MEC技术,在边缘节点部署具有计算能力与缓存能力的CDN节点已经成为CDN未来发展的趋势,MEC可以为CDN提供足够的资源,实现基于MEC的CDN视频缓存服务器,推动超高清视频等业务的发展。有研究指出:部署基于MEC的CDN视频缓存服务器可以显著地提高用户体验质量,降低服务延时。
但是新的技术带来了新的挑战:面向MEC的视频缓存服务器该如何部署?一方面,在终端用户附近部署计算容量、缓存空间大的服务器可以提高系统性能,但会增加运营成本;另一方面,部署计算容量、缓存空间小的服务器可能会导致大量数据无法及时处理且数据需要传输至源服务器,无法节省网络资源,从而导致运营成本增加。也就是说,部署服务器需要权衡运营成本及系统性能。除此以外,考虑到现实用户行为和业务的不确定性,用户请求数量应是一个随机变量,而非一个固定的值,进一步增加了基于MEC的视频缓存服务器规划难度。
发明内容
本发明的目的在于提供一种面向MEC的边缘视频缓存服务器部署规划方法,用以在用户请求动态变化情况下,权衡服务器的运营成本及系统性能等因素,规划基于MEC的视频缓存服务器。
本发明所采用的技术方案是:一种面向MEC的边缘视频缓存服务器部署规划方法,具体操作步骤如下:
步骤一:获取M个基站节点用户请求的历史数据
Figure BDA0003715452640000021
并进行等时隙Δt采样得第n时刻各个基站节点用户请求
Figure BDA0003715452640000022
Figure BDA0003715452640000023
进一步的,步骤一中时隙长度Δt,可以选择任意长度,但应符合两点要求:一是应保证采样时隙不宜过长,以致无法体现各个基站用户请求历史数据的数据特征;二是应保证采样时隙不宜过短,以致造成步骤二求解时间过长。该时间段长度的选择可以由相关技术人员根据经验进行设置。
步骤二:服务器类型集合为{f1,f2,…,fF}共F类;边缘节点集合为{e1,e2,...,eE}共E个节点。根据边缘节点的现实条件限制,得到一个任意的服务器部署方案
Figure BDA0003715452640000024
其中,
Figure BDA0003715452640000025
为二进制变量,
Figure BDA0003715452640000031
表示在ei节点上部署fj类型的服务器,反之不在ei节点上部署fj类型的服务器。在当前部署方案
Figure BDA0003715452640000032
下,在每一时隙下,确定资源分配方案,为各个基站用户请求
Figure BDA0003715452640000033
Figure BDA0003715452640000034
分配适合的服务器,以最小化预设的第一目标方程V,将每一时隙下的最优化V的值记为:Vn,n=1,2,3,...K,进而求其均值
Figure BDA0003715452640000035
对服务器部署方案
Figure BDA0003715452640000036
进行重新编码得到新的输入
Figure BDA0003715452640000037
并保存输入
Figure BDA0003715452640000038
和输出E[V]作为一个神经网络训练样本。进一步的,所述步骤二中边缘节点的现实条件限制如下:
1)部署的服务器计算容量和缓存空间不得超过边缘节点所提供的计算容量和缓存空间;
2)每个边缘节点最多仅能部署一个服务器。
进一步的,所述步骤二中服务器类型,不同服务器类型拥有不同的参数:如计算容量、缓存空间、成本等。
进一步的,所述步骤二中V是指用户请求总时延、用户服务质量的物理量抽象化为数学表达式,即以
Figure BDA0003715452640000039
Figure BDA00037154526400000310
为自变量的数学表达式,分别表示为D,P,令V=α1D+α2P;
其中,D代表用户请求总时延,P代表用户服务质量,α1,α2分别为D,P的权重系数。
进一步的,步骤二中神经网络训练样本的输入,可以经过一一对应编码处理,以减少神经网络的输入数目,提高神经网络的拟合度;例如,将
Figure BDA00037154526400000311
通过
Figure BDA00037154526400000312
编码得到新的输入
Figure BDA00037154526400000313
其中
Figure BDA00037154526400000314
Figure BDA00037154526400000315
表示边缘节点ei不部署服务器,
Figure BDA00037154526400000316
表示在边缘节点ei部署fj类型的服务器,Z表示整数。
步骤三:重复步骤二,每重复一次步骤二则获得一个神经网络训练样本,直至获取预设数目N个神经网络训练样本,训练神经网络。
进一步的,步骤三中N,可以是任意数目,但应符合两点要求:一是应保证数目足够,以保证神经网络的拟合度足够高;二是应保证数目不宜过多,以防止求解效率低下。
进一步的,步骤三中神经网络,其隐含层层数及各每层神经元个数可由相关技术人员根据经验进行设置;其输入层共有E个输入,输出层共有1个输出:其输入为
Figure BDA0003715452640000041
输出为E[V]的预测值E′[V]。
步骤四:根据服务器部署方案设计遗传算法的染色体,初始化遗传算法种群规模,设置遗传算法参数。
进一步的,所述步骤四中设计遗传算法的染色体为所述步骤二中的
Figure BDA0003715452640000042
进一步的,所述步骤四中设置遗传算法参数包括种群数量、染色体长度、染色体交叉概率、染色体变异概率、最大迭代次数等。
步骤五:根据步骤三中训练后的神经网络和预设的第二目标方程W得到适应度函数F,计算各个染色体的适应度。
进一步的,步骤五中第二目标方程W为服务器运营成本的物理量抽象化为数学表达式,即仅以
Figure BDA0003715452640000043
为自变量的数学表达式,则第二目标方程W为:
Figure BDA0003715452640000044
其中,
Figure BDA0003715452640000045
为服务器类型fj的成本;α′1
Figure BDA0003715452640000046
的权重系数;
步骤五中适应度函数可以表示为:
F=W+E′[V]
其中E′[V]为神经网络的预测值,计算E′[V]时,需先将
Figure BDA0003715452640000047
转化为
Figure BDA0003715452640000048
来作为神经网络的输入。
步骤六:根据遗传算法参数,边缘节点部署服务器的现实条件限制,以及各个染色体的适应度,对染色体进行相关操作并迭代得到下一代种群。
进一步的,所述步骤六中设置遗传算法参数包括种群数量、染色体交叉概率、染色体变异概率、最大迭代次数等。
步骤六包含以下内容:
6.1,根据染色体交叉概率、染色体变异概率对染色体进行交叉,变异操作。
6.2,根据边缘节点部署服务器的现实条件限制,以淘汰不在可行域内的染色体。
6.3,根据各个染色体的适应度,通过轮盘赌的方式迭代下一代种群。
步骤七:重复步骤五至六;直到达到最大迭代次数;输出最优染色体并得到服务器部署方案。
本发明的有益效果是,在网络中用户请求和网络结构先验未知的情况下,考虑了CDN服务器缓存迁移导致大量带宽花销,通过对历史用户请求信息进行分析计算,得到最优服务器部署方案。此外,本发明可适用于其他含不确定变量的规划场景。
本发明考虑了用户请求动态变化的情况下,减少服务器运营成本,提高用户质量,减少传输时延,以响应超高清视频等业务的需求。
附图说明
图1为本发明实施例提供的一种基于MEC的CDN视频缓存服务器规划方法流程图。
图2为本发明实施例利用贪婪策略确定资源分配方案的流程图。
图3为本发明实施例神经网络结构图。
图4为本发明实施例同对比算法部署方案的性能对比图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显而易见的,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示,本实施例提供的一种面向MEC的边缘视频缓存服务器部署规划方法,包括以下步骤:
步骤一:获取M个基站节点用户请求的历史数据
Figure BDA0003715452640000061
并进行等时隙Δt采样得第n时刻各个基站节点用户请求
Figure BDA0003715452640000062
Figure BDA0003715452640000063
进一步的,在实施例中,基站节点选取32个上海电信基站(经度121.44-121.47;纬度31.21-31.25)。对32个基站720小时内的用户请求历史数据
Figure BDA0003715452640000064
进行Δt=12h的等时隙采样得
Figure BDA0003715452640000065
Figure BDA0003715452640000066
步骤二:服务器类型集合为{f1,f2,...,fF}共F类;边缘节点集合为{e1,e2,...,eE}共E个节点。根据边缘节点的现实条件限制,得到一个任意的服务器部署方案
Figure BDA0003715452640000067
其中,
Figure BDA0003715452640000068
为二进制变量,
Figure BDA0003715452640000069
表示在ei节点上部署fj类型的服务器,反之不在ei节点上部署fj类型的服务器。在当前部署方案
Figure BDA00037154526400000610
下,在每一时隙下,确定资源分配方案,为各个基站用户请求
Figure BDA00037154526400000611
Figure BDA00037154526400000612
分配适合的服务器,以最小化预设的第一目标方程V,将每一时隙下的最小化V的值记为:Vn,n=1,2,3,...K,进而求其均值
Figure BDA00037154526400000613
对服务器部署方案
Figure BDA00037154526400000614
通过
Figure BDA00037154526400000615
编码得到新的输入
Figure BDA00037154526400000616
并保存输入
Figure BDA00037154526400000617
和输出E[V]作为一个神经网络训练样本。进一步的,在实施例中,边缘节点的现实条件限制如下:
Figure BDA00037154526400000618
Figure BDA00037154526400000619
Figure BDA00037154526400000620
其中
Figure BDA00037154526400000621
为服务器类型fj的CPU并行处理用户请求数;
Figure BDA00037154526400000622
为边缘节点ei可提供的最大CPU并行处理用户请求数;
Figure BDA00037154526400000623
为服务器类型fj的缓存空间;
Figure BDA00037154526400000624
为边缘节点ei可提供的最大的缓存空间。
式(1)表示每个边缘节点最多仅能部署一个服务器,式(2)表示部署的服务器CPU并行处理用户请求数不得超过边缘节点所提供的CPU并行处理用户请求数,式(3)表示部署的服务器缓存空间不得超过边缘节点所提供的缓存空间。
进一步的,在实施例中,所述步骤二中服务器类型,不同服务器类型拥有不同的参数:如计算容量、缓存空间、成本等。服务器类型及其相关参数如下表所示:
服务器类型编号 CPU并行处理用户请求数 缓存空间 部署成本 命中率
1 200 8 10 0.47
2 200 20 22 0.81
3 400 8 12 0.47
4 400 20 24 0.81
5 800 8 16 0.47
6 800 20 28 0.81
7 1500 8 23 0.47
8 1500 20 35 0.81
进一步的,所述步骤二中V是指用户请求总时延、用户服务质量的物理量抽象化为数学表达式,即以
Figure BDA0003715452640000071
Figure BDA0003715452640000072
为自变量的数学表达式,分别表示为D,P,令V=α1D+α2P;其中,D代表用户请求总时延,P代表用户服务质量,α1,α2分别为D,P的权重系数。
在实施例中可以表示为:
V=α1D+α2P
D=D1+D2
Figure BDA0003715452640000073
Figure BDA0003715452640000074
其中,D为网络中用户请求的总延迟,D1为命中的用户请求传输至边缘节点服务器的总延迟,D2为未命中的用户请求传输至源服务器的总延迟;
Figure BDA0003715452640000081
为基站
Figure BDA0003715452640000082
传输至边缘节点ei的延迟;
Figure BDA0003715452640000083
表示将基站
Figure BDA0003715452640000084
上的用户请求交由边缘节点ei上的服务器进行处理,决定了资源分配方案;
Figure BDA0003715452640000085
为服务器类型fj的命中率;
Figure BDA0003715452640000086
为边缘节点ei传输至源服务器的延迟;α1设定为0.1,α2设定为-1。
其中P为所有用户服务质量的总和,P越大代表用户整体服务质量越高;利用效用函数U(fj,x)表示不同服务器类型fj在处理不同数目用户请求x时对单个用户所提供的服务质量,U(fj,x)形式如下:
Figure BDA0003715452640000087
利用U(fj,x)则可计算出P:
Figure BDA0003715452640000088
进一步的,为了尽可能最小化V,在本实施例中,采用如图2贪婪策略来求得
Figure BDA0003715452640000089
以确定资源分配方案,进而求得近似最小化V:贪婪策略步骤如下:
1.选初始化待分配服务器的基站用户请求集合
Figure BDA00037154526400000810
2.判断未分配服务器基站用户请求集合R是否为空集
Figure BDA00037154526400000811
若为是,则输出分配方案
Figure BDA00037154526400000812
并计算此时V=α1D+α2P;若为否,则执行下一步;
3.遍历未分配服务器的基站用户请求关联的
Figure BDA00037154526400000813
分别置
Figure BDA00037154526400000814
Figure BDA00037154526400000815
4.选择出上一步得到的
Figure BDA00037154526400000816
中的最小值
Figure BDA00037154526400000817
Figure BDA00037154526400000818
对应的
Figure BDA00037154526400000819
从未分配服务器基站用户请求集合R中删去
Figure BDA00037154526400000820
对应的
Figure BDA00037154526400000821
Figure BDA00037154526400000822
通过
Figure BDA00037154526400000823
编码得到新的输入
Figure BDA00037154526400000824
其中
Figure BDA00037154526400000825
Figure BDA00037154526400000826
表示边缘节点ei不部署服务器,
Figure BDA0003715452640000091
表示在边缘节点ei部署fj类型的服务器;
并保存输入
Figure BDA0003715452640000092
和输出E[V]作为一个神经网络训练样本;
步骤三:重复步骤二,每重复一次步骤二则获得一个神经网络训练样本,直至获取预设数目N个神经网络训练样本,训练神经网络。
进一步的,在实施例中,N设定为3000。
进一步的,在实施例中,神经网络的结构如图3所示:隐含层层数为1,神经元个数为20,激活函数为Sigmoid;其输入层共有E个输入,输出层共有1个输出,输出层激活函数为Purelin;其输入为
Figure BDA0003715452640000093
其输出为E[V]的预测值E′[V]。
步骤四:根据服务器部署方案设计遗传算法的染色体,初始化遗传算法种群规模,设置遗传算法参数。
步骤四中设计遗传算法的染色体为所述步骤二中的
Figure BDA0003715452640000094
步骤四中设置遗传算法参数包括种群数量、染色体长度、染色体交叉概率、染色体变异概率、最大迭代次数等。
步骤五:根据步骤三中训练后的神经网络和预设的第二目标方程W得到适应度函数F,预测各个染色体的适应度。
步骤五中第二目标方程W为服务器运营成本的物理量抽象化为数学表达式,即仅以
Figure BDA0003715452640000095
为自变量的数学表达式,则第二目标方程W为:
Figure BDA0003715452640000096
其中,
Figure BDA0003715452640000097
为服务器类型fj的成本;α′1设定为-1.5。
进一步的,所述步骤五中适应度函数可以表示为:
F=W+E′[V]
其中E′[V]为神经网络的预测值,计算E′[V]时,需先将
Figure BDA0003715452640000101
转化为
Figure BDA0003715452640000102
且染色体个体的适应度函数值越小,表示染色体个体越优秀。
步骤六:根据遗传算法参数,边缘节点部署服务器的现实条件限制,以及各个染色体的适应度,对染色体进行相关操作并迭代得到下一代种群。
进一步的,所述步骤六包含以下内容:
6.1,对染色体进行交叉,变异操作。
6.2,根据边缘节点部署服务器的现实条件限制,以淘汰不在可行域内的染色体。
6.3,根据各个染色体的适应度,通过轮盘赌的方式迭代下一代种群。
步骤七:判断遗传算法迭代次数是否达到预设迭代次数,如果否,则跳转至步骤五,如果是,则输出最优染色体并得到服务器部署方案。
如图4所示,为上海电信32个基站720小时内,两种部署方案的性能对比图,部署方案一为本发明提出规划方法得到的部署方案,部署方案二为将各个基站平均用户请求数作为输入的部署算法得到的部署方案。为了便于比较不同部署方案的性能,设定性能评估函数为:
Obj=W+V
Obj的数值越低,代表部署方案系统性能越优秀。可以看出在720小时,60次的采样中,本发明得到的部署方案性能都优于对比方案。
上述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (9)

1.一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,具体包括以下步骤:
步骤一:获取M个基站节点用户请求的历史数据
Figure FDA0003715452630000011
并进行等时隙Δt采样得第n时刻各个基站节点用户请求
Figure FDA0003715452630000012
Figure FDA0003715452630000013
步骤二:服务器类型集合为{f1,f2,…,fF}共F类;边缘节点集合为{e1,e2,...,eE}共E个节点,根据边缘节点的现实条件限制,得到一个任意的服务器部署方案
Figure FDA0003715452630000014
其中,
Figure FDA0003715452630000015
为二进制变量,
Figure FDA0003715452630000016
表示在ei节点上部署fj类型的服务器,反之不在ei节点上部署fj类型的服务器;在当前部署方案
Figure FDA0003715452630000017
下,在每一时隙下,确定资源分配方案,为各个基站用户请求
Figure FDA0003715452630000018
分配适合的服务器,以最小化预设的第一目标方程V;
将每一时隙下的最优V的值记为:Vn,n=1,2,3,…K,进而求其均值
Figure FDA0003715452630000019
对服务器部署方案
Figure FDA00037154526300000110
进行重新编码得到新的输入
Figure FDA00037154526300000111
并保存输入
Figure FDA00037154526300000112
和输出E[V]作为一个神经网络训练样本;
步骤三:重复步骤二,每重复一次步骤二则获得一个神经网络训练样本,直至获取预设数目N个神经网络训练样本;
步骤四:根据服务器部署方案设计遗传算法的染色体,初始化遗传算法种群规模,设置遗传算法参数;
步骤五:根据步骤三中训练后的神经网络和预设的第二目标方程W得到适应度函数F,计算各个染色体的适应度;
步骤六:根据遗传算法参数,边缘节点部署服务器的现实条件限制,以及各个染色体的适应度,对染色体进行相关操作并迭代得到下一代种群;
步骤七:重复步骤五至六,直到达到最大迭代次数;输出最优染色体并得到服务器部署方案。
2.根据权利要求1所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,步骤二中所述边缘节点的现实条件限制如下:
1)部署的服务器计算容量和缓存空间不得超过边缘节点所提供的计算容量和缓存空间;
2)每个边缘节点最多仅能部署一个服务器。
3.根据权利要求1所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,步骤二中V是指用户请求总时延、用户服务质量的物理量抽象化为数学表达式,即以
Figure FDA0003715452630000021
Figure FDA0003715452630000022
为自变量的数学表达式,分别表示为D,P,令V=α1D+α2P;
其中,D代表用户请求总时延,P代表用户服务质量,α12分别为D,P的权重系数。
4.根据权利要求3所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,所述步骤二中神经网络训练样本的输入,经过一一对应编码处理,将
Figure FDA0003715452630000023
通过
Figure FDA0003715452630000024
编码为
Figure FDA0003715452630000025
其中
Figure FDA0003715452630000026
Figure FDA0003715452630000027
表示边缘节点ei不部署服务器,
Figure FDA0003715452630000028
表示在边缘节点ei部署fj类型的服务器,Z表示整数。
5.根据权利要求3所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,所述步骤三中神经网络,其隐含层层数及各每层神经元个数由技术人员根据经验进行设置;其输入层共有E个输入,输出层共有1个输出:其输入为
Figure FDA0003715452630000029
输出为E[V]的预测值E′[V]。
6.根据权利要求3所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,所述步骤四中设计遗传算法的染色体为所述步骤二中的
Figure FDA00037154526300000210
7.根据权利要求3所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,所述步骤四中设置遗传算法参数包括种群数量、染色体长度、染色体交叉概率、染色体变异概率、最大迭代次数。
8.根据权利要求5所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,所述步骤五中第二目标方程W为服务器运营成本的物理量抽象化为数学表达式,即仅以
Figure FDA0003715452630000031
为自变量的数学表达式,则第二目标方程W为:
Figure FDA0003715452630000032
其中,
Figure FDA0003715452630000033
为服务器类型fj的成本;α′1
Figure FDA0003715452630000034
的权重系数;
步骤五中适应度函数F可以表示为:
F=W+E′[V]
其中E′[V]为神经网络的预测值,计算E′[V]时,需先将
Figure FDA0003715452630000035
转化为
Figure FDA0003715452630000036
来作为神经网络的输入。
9.根据权利要求2所述的一种面向MEC的边缘视频缓存服务器部署规划方法,其特征在于,所述步骤六中设置遗传算法参数包括种群数量、染色体交叉概率、染色体变异概率、最大迭代次数;
步骤六具体如下:
6.1,根据染色体交叉概率、染色体变异概率对染色体进行交叉,变异操作;
6.2,根据边缘节点部署服务器的现实条件限制,以淘汰不在可行域内的染色体;
6.3,根据各个染色体的适应度,通过轮盘赌的方式迭代下一代种群。
CN202210735870.8A 2022-06-27 2022-06-27 一种面向mec的边缘视频缓存服务器部署规划方法 Active CN115103408B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210735870.8A CN115103408B (zh) 2022-06-27 2022-06-27 一种面向mec的边缘视频缓存服务器部署规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210735870.8A CN115103408B (zh) 2022-06-27 2022-06-27 一种面向mec的边缘视频缓存服务器部署规划方法

Publications (2)

Publication Number Publication Date
CN115103408A true CN115103408A (zh) 2022-09-23
CN115103408B CN115103408B (zh) 2024-03-22

Family

ID=83295168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210735870.8A Active CN115103408B (zh) 2022-06-27 2022-06-27 一种面向mec的边缘视频缓存服务器部署规划方法

Country Status (1)

Country Link
CN (1) CN115103408B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200058859A (ko) * 2018-11-20 2020-05-28 한국과학기술원 모바일 엣지 클라우드 환경에서 라이브 스트리밍을 위한 짧은 구간 시변 요청 모델 기반 협업 캐싱 기법
US20200296155A1 (en) * 2020-03-27 2020-09-17 Intel Corporation Method, system and product to implement deterministic on-boarding and scheduling of virtualized workloads for edge computing
US20200351336A1 (en) * 2019-04-30 2020-11-05 Verizon Patent And Licensing Inc. Methods and Systems for Intelligent Distribution of Workloads to Multi-Access Edge Compute Nodes on a Communication Network
CN112787833A (zh) * 2019-11-07 2021-05-11 中国电信股份有限公司 内容分发网络cdn服务器的部署方法和装置
CN112995636A (zh) * 2021-03-09 2021-06-18 浙江大学 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法
CN113472844A (zh) * 2021-05-26 2021-10-01 北京邮电大学 面向车联网的边缘计算服务器部署方法、装置及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200058859A (ko) * 2018-11-20 2020-05-28 한국과학기술원 모바일 엣지 클라우드 환경에서 라이브 스트리밍을 위한 짧은 구간 시변 요청 모델 기반 협업 캐싱 기법
US20200351336A1 (en) * 2019-04-30 2020-11-05 Verizon Patent And Licensing Inc. Methods and Systems for Intelligent Distribution of Workloads to Multi-Access Edge Compute Nodes on a Communication Network
CN112787833A (zh) * 2019-11-07 2021-05-11 中国电信股份有限公司 内容分发网络cdn服务器的部署方法和装置
US20200296155A1 (en) * 2020-03-27 2020-09-17 Intel Corporation Method, system and product to implement deterministic on-boarding and scheduling of virtualized workloads for edge computing
CN112995636A (zh) * 2021-03-09 2021-06-18 浙江大学 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法
CN113472844A (zh) * 2021-05-26 2021-10-01 北京邮电大学 面向车联网的边缘计算服务器部署方法、装置及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
侯停停: "《移动边缘计算(MEC)架构中高效内容分发技术》", CNKI中国知网, no. 2018, 15 August 2018 (2018-08-15), pages 1 - 98 *
景泽伟 等: "《移动边缘计算中的时延和能耗均衡优化算法》", 《北京邮电大学学报》, vol. 43, no. 2, 30 April 2020 (2020-04-30), pages 1 - 6 *

Also Published As

Publication number Publication date
CN115103408B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
He et al. QoE-driven content-centric caching with deep reinforcement learning in edge-enabled IoT
Zhong et al. A deep reinforcement learning-based framework for content caching
CN109714263B (zh) 一种在卫星通信网络中的路径选择方法及装置
CN112020103B (zh) 一种移动边缘云中的内容缓存部署方法
CN108416465B (zh) 一种移动云环境下的工作流优化方法
CN109982104B (zh) 移动边缘计算中移动感知的视频预取与缓存替换决策方法
CN113434212A (zh) 基于元强化学习的缓存辅助任务协作卸载与资源分配方法
CN110418367B (zh) 一种5g前传网络混合边缘缓存低时延方法
CN111491331B (zh) 一种雾计算网络中基于迁移学习的网络感知自适应缓存方法
Guo et al. Deep-Q-network-based multimedia multi-service QoS optimization for mobile edge computing systems
CN116361009B (zh) 一种mec计算卸载、资源分配及缓存联合优化方法
Lin et al. Feedback delay-tolerant proactive caching scheme based on federated learning at the wireless edge
CN111488528A (zh) 内容缓存管理方法及装置、电子设备
CN114423023B (zh) 一种面向移动用户的5g网络边缘服务器部署方法
CN113472420B (zh) 一种基于区域用户兴趣感知的卫星网络缓存放置方法
CN116016533A (zh) 一种自动加权负载均衡方法和系统、电子设备、存储介质
CN112787833B (zh) 内容分发网络cdn服务器的部署方法和装置
CN117459112A (zh) 基于图卷积网络的leo卫星网络中的移动边缘缓存方法及设备
CN109889573B (zh) 混合云中基于ngsa多目标的副本放置方法
CN115103408A (zh) 一种面向mec的边缘视频缓存服务器部署规划方法
CN111447506A (zh) 云边环境下基于延迟和成本均衡的流媒体内容放置方法
CN114785692A (zh) 一种虚拟电厂聚合调控通信网络流量均衡方法及装置
CN115499876A (zh) Msde场景下基于dqn算法的计算卸载策略
CN113285832A (zh) 基于nsga-ii的电力多模态网络资源优化分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant