CN110677876B - 一种流量种类预测的前传网络资源分配方法 - Google Patents

一种流量种类预测的前传网络资源分配方法 Download PDF

Info

Publication number
CN110677876B
CN110677876B CN201910950139.5A CN201910950139A CN110677876B CN 110677876 B CN110677876 B CN 110677876B CN 201910950139 A CN201910950139 A CN 201910950139A CN 110677876 B CN110677876 B CN 110677876B
Authority
CN
China
Prior art keywords
bandwidth
delay
traffic
capsule
resource allocation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910950139.5A
Other languages
English (en)
Other versions
CN110677876A (zh
Inventor
陈皓宁
邹钟璐
陈小群
袁志坚
翟柱新
全源
黄志才
李为
温思行
袁咏诗
罗伟康
瞿振
严欣
其他发明人请求不公开姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Power Grid Co Ltd
Dongguan Power Supply Bureau of Guangdong Power Grid Co Ltd
Original Assignee
Guangdong Power Grid Co Ltd
Dongguan Power Supply Bureau of Guangdong Power Grid Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Power Grid Co Ltd, Dongguan Power Supply Bureau of Guangdong Power Grid Co Ltd filed Critical Guangdong Power Grid Co Ltd
Priority to CN201910950139.5A priority Critical patent/CN110677876B/zh
Publication of CN110677876A publication Critical patent/CN110677876A/zh
Application granted granted Critical
Publication of CN110677876B publication Critical patent/CN110677876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/0231Traffic management, e.g. flow control or congestion control based on communication conditions
    • H04W28/0236Traffic management, e.g. flow control or congestion control based on communication conditions radio quality, e.g. interference, losses or delay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明实施例公开了一种流量种类预测的前传网络资源分配方法,包胶囊网络,胶囊网络提取流量的基础资源要求特征和时延要求特征,并以此将流量请求分为低延迟小带宽T1、高延迟小带宽T2、低延迟大带宽T3和高延迟大带宽T4四个不同的流量类型;根据流量请求的流量类型,执行相应的资源分配策略,并将流量分类结果输入神经网络中,进行流量预测的训练和学习,在实际通信中可以根据预测流量的种类和当前网络的资源分配情况,按照业务流量种类的不同进行5G前传网络DU资源的分配,能够较充分地利用5G前传网络DU资源,为前传网络的资源分配需求提供了保障。

Description

一种流量种类预测的前传网络资源分配方法
技术领域
本发明实施例涉及通信网络技术领域,具体涉及一种流量种类预测的前传网络资源分配方法。
背景技术
传统的对基带单元(Base Band Unit,BBU)池中进行固定的资源分配已经在大多数情况下不能达到某些应用场景的需求。为了进一步提高资源分配的有效性和减少资源浪费,诞生了基于神经网络的流量预测算法,并在流量预测的基础上对BBU池中的资源进行分配。
该基于神经网络的流量预测资源分配方法是基于不同蜂窝网络之间的不同网络负载模式。然而不同蜂窝网络之间的网络负载模式实际上受到网络业务不同的影响,不同的业务对请求响应提出了不同的要求。
现有的基于流量预测的资源分配方案并没有权衡业务流量的不同特点,并且由于5G前传网络对资源分配的高要求,使用现有的资源分配方案很难使5G前传网络的分布式单元(Distributed Unit,DU)资源得到合理分配,从而难以保障5G前传网络的资源分配需求。
发明内容
为此,本发明实施例提供一种流量种类预测的前传网络资源分配方法,以解决现有技术中由于资源分配方案并没有权衡业务流量的不同特点,而导致的5G前传网络的资源分配需求难以得到保障的问题。
为了实现上述目的,本发明的实施方式公布了如下技术方案:
一种流量种类预测的前传网络资源分配方法,包括步骤:
S100、胶囊网络根据业务流量的时延和带宽将业务流量种类具体分为低延迟小带宽T1、高延迟小带宽T2、低延迟大带宽T3以及高延迟大带宽T4四种类型;
S200、分布式单元将到来的业务流量根据业务流量种类,并利用流量预测算法进行资源分配,计算业务流量对时延和带宽的需求,依据分布式单元内资源情况,控制带宽资源的发放,进行有源天线单元-分布式单元路径建路。
进一步地:在S200中,分布式单元内资源情况包括两种,具体为:
当分布式单元资源不足以保证其业务流量的带宽需求时,根据业务流量之间的优先性进入请求等待队列。
当分布式单元资源充足时,控制器会依据请求队列的业务流量请求信息,在权衡资源利用率和链路阻塞率的前提下进行资源分配,将计算的资源通过链路下发给基站控制器,进而实现有源天线单元-分布式单元路径建路。
进一步地:利用流量预测算法进行资源分配的算法结构包括输入卷积层、一次胶囊层和卷积胶囊层和全连通胶囊层。
进一步地:所述输入卷积层输出包括B个主要特征M,如下式所示:
Figure GDA0002857651210000021
其中,m1,m1,…,mB为特征图的元素;L为输入序列的长度;B为过滤器个数;K1是检测特征时用于覆盖所输入序列的克量级;
所述一次胶囊层为带C滤波器的胶囊层,输出d维胶囊结构,输出特征P如下式所示:
Figure GDA0002857651210000022
其中,p1,p1,…,pC为C个滤波器的输出特征;d为胶囊结构的维数;
所述卷积胶囊层中,每个胶囊是只连接到本地区域K2×C空间下面层,输出映射(L-K1-K2+2)×D维的胶囊;
其中,K1是检测特征时用于覆盖所输入序列的克量级,K2是本地区域的用于覆盖检测预测序列特征的克量级;D为发送给子胶囊的父胶囊数量;
所述全连通胶囊层生成两个胶囊
Figure GDA0002857651210000031
输出每个业务流量类型的概率为
Figure GDA0002857651210000032
则每个胶囊的输出特征为:
Figure GDA0002857651210000033
其中,sj是所预测的向量;
所述输入卷积层采集业务流量请求,并以时延和带宽的需求来提取业务流量请求的两个主要特征M,并将两个主要特征M输出至一次卷积层;
所述一次卷积层以时延高低和带宽大小的需求来对进一步提取两个主要特征M的特征,并将提取的四个特征P输出至卷积胶囊层;
所述卷积胶囊层以低时延和小带宽为优先对特征P进行排序,并将排序后的特征P输出至全连通胶囊层;
所述全连通胶囊层中两个胶囊
Figure GDA0002857651210000034
输出每个流量类型的概率
Figure GDA0002857651210000035
Figure GDA0002857651210000036
受特征P的排序影响,并以此依次输出低延迟小带宽T1、低延迟大带宽T3、高延迟小带宽T2、以及高延迟大带宽T4四种业务流量类型的分类结果。
进一步地,所述资源分配具体的步骤包括:
S401、当业务流量到达或者即将到达的时,分布式单元内控制器将基站业务流量请求收集并传达给处理器;
S402、处理器获取到多个业务流量的请求信息后,执行资源分配策略;
S403、处理器将资源依据资源分配策略分配给每个业务流量请求。
进一步地,所述S402中资源分配策略具体包括步骤:
S4021、将分布式单元内空闲资源划分为若干个资源块,并设置不同数目的若干个资源块的组合与不同类型的业务流量的映射关系;
S4022、根据业务流量所请求的计算资源和频谱资源的大小,来分配相应数目的资源块对业务流量进行处理,并以此为依据对业务流量请求排序;
S4023、识别排序中的低时延的流量请求,并优先对其进行实时处理;
S4024、对非低延时的流量请求依据排序进行依次处理。
进一步地,从业务流量请求中提取基础资源要求特征和时延要求特征,并输入至神经网络中,经训练和学习的神经网络形成所述胶囊网络。
进一步地,所述流量预测算法采用反向传播算法。
本发明的实施方式具有如下优点:
(1)在本发明实施例中来自AAU的流量业务请求被分成了四类:低延迟小带宽T1、高延迟小带宽T2、低延迟大带宽T3和高延迟大带宽T4,它们对DU处理器的处理要求各不相同,在文本建模中,采用四并行网络的神经网络比单一网络能更好地学习更有意义、更全面的流量数据,从而为流量类型的准确预测奠定了基础,有利于前传网络的资源的合理分配;
(2)在本发明中,每种流量类型对DU处理要求不同,因此在实际通信中可以根据预测流量的种类和当前网络的资源分配情况,按照业务流量种类的不同进行5G前传网络DU资源的分配,能够较充分地利用5G前传网络DU资源。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
本说明书所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。
图1为本发明实施方式中的流量预测过程示意图;
图2为本发明实施方式中的资源分配方案示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
有源天线单元(Active Antenna Unit,AAU)收集各种业务的流量请求,每个流量数据在输入到胶囊网络之前,都是出具有复杂特征的数据,数据的特征包括:流量到达时间、离开时间,流量的源端口和目的端口,流量所需要的计算资源和频谱资源。
由于前传网络流量特征的复杂性,我们将流量数据特征编码到胶囊神经网络中,且胶囊神经网络具有不可比拟的分类效果。
如图1所示,本发明公布了一种流量种类预测的前传网络资源分配方法,包括步骤:
S100、胶囊网络根据业务流量的时延和带宽将业务流量种类具体分为低延迟小带宽T1、高延迟小带宽T2、低延迟大带宽T3以及高延迟大带宽T4四种类型;
S200、分布式单元将到来的业务流量根据业务流量种类,并利用流量预测算法进行资源分配,计算业务流量对时延和带宽的需求,依据分布式单元内资源情况,控制带宽资源的发放,进行有源天线单元-分布式单元路径建路。
进一步地:在S200中,分布式单元内资源情况包括两种,具体为:
当分布式单元资源不足以保证其业务流量的带宽需求时,根据业务流量之间的优先性进入请求等待队列。
当分布式单元资源充足时,控制器会依据请求队列的业务流量请求信息,在权衡资源利用率和链路阻塞率的前提下进行资源分配,将计算的资源通过链路下发给基站控制器,进而实现有源天线单元-分布式单元路径建路。
进一步地:利用流量预测算法进行资源分配的算法结构包括输入卷积层、一次胶囊层和卷积胶囊层和全连通胶囊层。
进一步地:所述输入卷积层输出包括B个主要特征M,如下式所示:
Figure GDA0002857651210000061
其中,m1,m1,…,mB为特征图的元素;L为输入序列的长度;B为过滤器个数;K1是检测特征时用于覆盖所输入序列的克量级;
所述一次胶囊层为带C滤波器的胶囊层,输出d维胶囊结构,输出特征P如下式所示:
Figure GDA0002857651210000062
其中,p1,p1,…,pC为C个滤波器的输出特征;d为胶囊结构的维数;
所述卷积胶囊层中,每个胶囊是只连接到本地区域K2×C空间下面层,输出映射(L-K1-K2+2)×D维的胶囊;
其中,K1是检测特征时用于覆盖所输入序列的克量级,K2是本地区域的用于覆盖检测预测序列特征的克量级;D为发送给子胶囊的父胶囊数量;
所述全连通胶囊层生成两个胶囊
Figure GDA0002857651210000071
输出每个业务流量类型的概率为
Figure GDA0002857651210000072
则每个胶囊的输出特征为:
Figure GDA0002857651210000073
其中,sj是所预测的向量;
所述输入卷积层采集业务流量请求,并以时延和带宽的需求来提取业务流量请求的两个主要特征M,并将两个主要特征M输出至一次卷积层;
所述一次卷积层以时延高低和带宽大小的需求来对进一步提取两个主要特征M的特征,并将提取的四个特征P输出至卷积胶囊层;
所述卷积胶囊层以低时延和小带宽为优先对特征P进行排序,并将排序后的特征P输出至全连通胶囊层;
所述连通胶囊层中两个胶囊
Figure GDA0002857651210000074
输出每个流量类型的概率
Figure GDA0002857651210000075
Figure GDA0002857651210000076
受特征P的排序影响,并以此依次输出低延迟小带宽T1、低延迟大带宽T3、高延迟小带宽T2、以及高延迟大带宽T4四种业务流量类型的分类结果。
进一步地,所述资源分配具体的步骤包括:
S401、当业务流量到达或者即将到达的时,分布式单元内控制器将基站业务流量请求收集并传达给处理器;
S402、处理器获取到多个业务流量的请求信息后,执行资源分配策略;
S403、处理器将资源依据资源分配策略分配给每个业务流量请求。
进一步地,所述S402中资源分配策略具体包括步骤:
S4021、将分布式单元内空闲资源划分为若干个资源块,并设置不同数目的若干个资源块的组合与不同类型的业务流量的映射关系;
S4022、根据业务流量所请求的计算资源和频谱资源的大小,来分配相应数目的资源块对业务流量进行处理,并以此为依据对业务流量请求排序;
S4023、识别排序中的低时延的流量请求,并优先对其进行实时处理;
S4024、对非低延时的流量请求依据排序进行依次处理。
进一步地,从业务流量请求中提取基础资源要求特征和时延要求特征,并输入至神经网络中,经训练和学习的神经网络形成所述胶囊网络。
进一步地,所述流量预测算法采用反向传播算法。
5G前传网络中,通过AAU-DU连接,将网络基站的流量请求传递到DU中的控制器,可以过DU中的处理器来对来自基站的流量请求进行统一处理。在本发明实施例中来自AAU的流量业务请求被分成了四类:低延迟小带宽T1,高延迟小带宽T2,低延迟大带宽T3和高延迟大带宽T4。它们对DU处理器的处理要求各不相同,分类的依据是不同流量之间的时延要求和带宽要求。
在文本建模中,采用四并行网络的神经网络比单一网络能更好地学习更有意义、更全面的流量数据。因此,在发明实施例中采用四并行胶囊网络进行分类,可以得到更加准确的流量分类,然后将改进后的分类结果应用于传统神经网络进行预测。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (6)

1.一种流量种类预测的前传网络资源分配方法,其特征在于,包括步骤:
S100、胶囊网络根据业务流量的时延和带宽将业务流量种类具体分为低延迟小带宽T1、高延迟小带宽T2、低延迟大带宽T3以及高延迟大带宽T4四种类型;
S200、分布式单元将到来的业务流量根据业务流量种类,并利用流量预测算法进行资源分配,计算业务流量对时延和带宽的需求,依据分布式单元内资源情况,控制带宽资源的发放,进行有源天线单元-分布式单元路径建路;
利用流量预测算法进行资源分配的算法结构包括输入卷积层、一次胶囊层和卷积胶囊层和全连通胶囊层;
所述输入卷积层输出包括B个主要特征M,如下式所示:
Figure FDA0002857651200000011
其中,m1,m1,…,mB为特征图的元素;L为输入序列的长度;B为过滤器个数;K1是检测特征时用于覆盖所输入序列的克量级;
所述一次胶囊层为带C个滤波器的胶囊层,输出d维胶囊结构,输出特征P如下式所示:
Figure FDA0002857651200000012
其中,p1,p1,…,pC为C个滤波器的输出特征;d为胶囊结构的维数;
所述卷积胶囊层中,每个胶囊连接到本地区域K2×C空间下面层,输出映射(L-K1-K2+2)×D维的胶囊;
其中,K2是本地区域的用于覆盖检测预测序列特征的克量级;D为发送给子胶囊的父胶囊数量;
所述全连通胶囊层生成两个胶囊
Figure FDA0002857651200000013
输出每个业务流量类型的概率为
Figure FDA0002857651200000014
则每个胶囊的输出特征为:
Figure FDA0002857651200000021
其中,sj是所预测的向量;
所述输入卷积层采集业务流量请求,并以时延和带宽的需求来提取业务流量请求的两个主要特征M,并将两个主要特征M输出至一次卷积层;
所述一次卷积层以时延高低和带宽大小的需求来对进一步提取两个主要特征M的特征,并将提取的四个特征P输出至卷积胶囊层;
所述卷积胶囊层以低时延和小带宽为优先对特征P进行排序,并将排序后的特征P输出至全连通胶囊层;
所述全连通胶囊层中两个胶囊
Figure FDA0002857651200000022
输出每个流量类型的概率
Figure FDA0002857651200000023
Figure FDA0002857651200000024
受特征P的排序影响,并以此依次输出低延迟小带宽T1、低延迟大带宽T3、高延迟小带宽T2、以及高延迟大带宽T4四种业务流量类型的分类结果。
2.根据权利要求1所述的一种流量种类预测的前传网络资源分配方法,其特征在于:在S200中,分布式单元内资源情况包括两种,具体为:
当分布式单元资源不足以保证其业务流量的带宽需求时,根据业务流量之间的优先性进入请求等待队列;
当分布式单元资源充足时,控制器会依据请求队列的业务流量请求信息,在权衡资源利用率和链路阻塞率的前提下进行资源分配,将计算的资源通过链路下发给基站控制器,进而实现有源天线单元-分布式单元路径建路。
3.根据权利要求1所述的一种流量种类预测的前传网络资源分配方法,其特征在于,所述资源分配具体的步骤包括:
S401、当业务流量到达或者即将到达时,分布式单元内控制器将基站业务流量请求收集并传达给处理器;
S402、处理器获取到多个业务流量的请求信息后,执行资源分配策略;
S403、处理器将资源依据资源分配策略分配给每个业务流量请求。
4.根据权利要求3所述的一种流量种类预测的前传网络资源分配方法,其特征在于,所述S402中资源分配策略具体包括步骤:
S4021、将分布式单元内空闲资源划分为若干个资源块,并设置不同数目的若干个资源块的组合与不同类型的业务流量的映射关系;
S4022、根据业务流量所请求的计算资源和频谱资源的大小,来分配相应数目的资源块对业务流量进行处理,并以此为依据对业务流量请求排序;
S4023、识别排序中的低时延的流量请求,并优先对其进行实时处理;
S4024、对非低延时的流量请求依据排序进行依次处理。
5.根据权利要求1所述的一种流量种类预测的前传网络资源分配方法,其特征在于,从业务流量请求中提取基础资源要求特征和时延要求特征,并输入至神经网络中,经训练和学习的神经网络形成所述胶囊网络。
6.根据权利要求1所述的一种流量种类预测的前传网络资源分配方法,其特征在于,所述流量预测算法采用反向传播算法。
CN201910950139.5A 2019-10-08 2019-10-08 一种流量种类预测的前传网络资源分配方法 Active CN110677876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910950139.5A CN110677876B (zh) 2019-10-08 2019-10-08 一种流量种类预测的前传网络资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910950139.5A CN110677876B (zh) 2019-10-08 2019-10-08 一种流量种类预测的前传网络资源分配方法

Publications (2)

Publication Number Publication Date
CN110677876A CN110677876A (zh) 2020-01-10
CN110677876B true CN110677876B (zh) 2021-02-05

Family

ID=69080939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910950139.5A Active CN110677876B (zh) 2019-10-08 2019-10-08 一种流量种类预测的前传网络资源分配方法

Country Status (1)

Country Link
CN (1) CN110677876B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923125B (zh) * 2020-06-22 2022-12-06 北京交通大学 工业异构网络中多业务流融合通信的容限分析方法及装置
CN112636995B (zh) * 2020-11-11 2022-08-05 北京邮电大学 一种前传网络资源分配方法及装置
CN113391985A (zh) * 2021-06-09 2021-09-14 北京猿力未来科技有限公司 资源分配方法及装置
CN113452559B (zh) * 2021-06-24 2022-03-08 同济大学浙江学院 基于深度学习的网络资源分配方法、系统及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046249A (zh) * 2019-03-11 2019-07-23 中国科学院深圳先进技术研究院 胶囊网络的训练方法、分类方法、系统、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108712292B (zh) * 2018-05-29 2021-04-02 广州大学 一种基于深度学习的网络流类型预测方法
CN109831320B (zh) * 2018-12-29 2022-03-25 国家电网有限公司 一种辅助流量预测控制方法、存储介质和电子设备
CN109818786B (zh) * 2019-01-20 2021-11-26 北京工业大学 一种云数据中心应用可感知的分布式多资源组合路径最优选取方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046249A (zh) * 2019-03-11 2019-07-23 中国科学院深圳先进技术研究院 胶囊网络的训练方法、分类方法、系统、设备及存储介质

Also Published As

Publication number Publication date
CN110677876A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
CN110677876B (zh) 一种流量种类预测的前传网络资源分配方法
CN104579962B (zh) 一种区分不同报文的QoS策略的方法及装置
CN110493360A (zh) 多服务器下降低系统能耗的移动边缘计算卸载方法
CN107276662A (zh) 一种软件定义空间信息网络多控制器动态部署方法
CN103931148A (zh) 流量调度设备
CN106028463A (zh) 一种基于服务速率控制的星载动态频谱资源调度方法
CN102647760B (zh) 一种基于多业务网络的业务资源高效管理方法
CN115396514B (zh) 资源分配方法、装置及存储介质
CN108111335A (zh) 一种调度和链接虚拟网络功能的方法及系统
CN105262703A (zh) 一种基于双重优先级的路由带宽分配方法
Hao et al. iTaskOffloading: Intelligent task offloading for a cloud-edge collaborative system
CN115396358A (zh) 算力感知网络的路由设置方法、装置及存储介质
CN106598727B (zh) 一种通信系统的计算资源分配方法及系统
CN117255368B (zh) 车载边缘服务器协同固定边缘服务器的边缘动态集成方法
CN109743751A (zh) 无线接入网的资源分配方法及装置
CN110535705B (zh) 一种自适应用户时延要求的服务功能链构建方法
CN109413718A (zh) 一种船端异构网络环境下最优数字通信模式选择方法
CN103929374A (zh) 一种基于业务类型的多级队列调度方法
CN107613510A (zh) 基于QoS的智能电力通信业务差分调度机制优化方法
CN111245701B (zh) 一种基于最大加权匹配的链路优先虚拟网络映射方法
CN103841000B (zh) 一种基于最小费用流模型的虚拟链路映射算法
CN111954230B (zh) 基于mec与密集云接入网融合的计算迁移与资源分配方法
CN110891027B (zh) 基于队列调度的命名数据网络传输控制方法、装置和设备
CN115964178B (zh) 一种车联网用户计算任务调度方法、装置及边缘服务网络
CN104468379B (zh) 基于最短逻辑距离的虚拟Hadoop集群节点选择方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant