CN112636995B - 一种前传网络资源分配方法及装置 - Google Patents

一种前传网络资源分配方法及装置 Download PDF

Info

Publication number
CN112636995B
CN112636995B CN202011257471.2A CN202011257471A CN112636995B CN 112636995 B CN112636995 B CN 112636995B CN 202011257471 A CN202011257471 A CN 202011257471A CN 112636995 B CN112636995 B CN 112636995B
Authority
CN
China
Prior art keywords
data
predicted
flow
type
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011257471.2A
Other languages
English (en)
Other versions
CN112636995A (zh
Inventor
杨辉
徐震
姚秋彦
包博文
李超
孙政洁
张�杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202011257471.2A priority Critical patent/CN112636995B/zh
Publication of CN112636995A publication Critical patent/CN112636995A/zh
Application granted granted Critical
Publication of CN112636995B publication Critical patent/CN112636995B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/127Avoiding congestion; Recovering from congestion by using congestion prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本说明书一个或多个实施例提供一种前传网络资源分配方法,所述方法包括:获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型;根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值;根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。可见,本申请可以通过流量梳理提升流量预测类型的准确性,并且根据流量类型进行资源分配,能有效提升前传网络资源利用率,降低网络阻塞率,从而可以实现根据不同的流量类型,针对性地进行资源分配,进而提高前传网络的资源利用率,降低传输时延。

Description

一种前传网络资源分配方法及装置
技术领域
本说明书一个或多个实施例涉及通信技术领域,尤其涉及一种前传网络资源分配方法、装置。
背景技术
随着移动通信网络的不断推进,越来越多的网络应用,例如智能电表、视频监控、医疗保健监控等,造成移动通信前传流量迅猛增长。由于前传流量的复杂性和类型多样化,前传网络对流量请求的响应面临高延迟和网络资源利用率低下问题。网络资源分配是按照流量请求顺序进行的,而流量的类型多样化和复杂化会导致部分对时延要求高的流量请求在链路中处于等待状态从而造成用户满意度降低;不同带宽要求的流量请求也可能由于链路频谱碎片化造成响应延迟、丢包等问题。因此如何保证前传网络高效进行流量梳理和网络资源分配对移动通信网络来说十分关键。
目前网络中对流量的处理主要是通过利用人工智能进行流量预测,对未来一段时间的流量请求资源进行预测,从而为未来流量预留资源来提高网络资源利用率和用户满意度。但是单纯进行流量预测对于前传网络的复杂流量资源分配是不够的,因为不同类型的流量对于资源的请求差别很大,仅仅预留资源可能造成时延要求高的流量请求在链路中阻塞。而由于流量类型多样化的问题,不对流量进行梳理可能会频谱资源碎片化问题加剧,从而造成恶性循环导致前传网络资源利用率降低和网络阻塞。
发明内容
有鉴于此,本说明书一个或多个实施例的目的在于提出一种前传网络资源分配方法,以实现根据不同的流量类型,针对性地进行资源分配,进而提高前传网络的资源利用率,降低传输时延。
基于上述目的,本说明书一个或多个实施例提供了一种前传网络资源分配方法,所述方法包括:
获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型;
根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值;
根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。
可选的,所述获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,包括:
获取前传网络中的当前流量数据;
对所述当前流量数据进行归一化处理,得到归一化处理后的当前流量数据;
对所述归一化处理后的当前流量数据进行分段处理,得到若干段当前流量数据;
将所述若干段当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
可选的,所述已训练的流量类型预测模型包括卷积网络层、LSTM层和全连接层;所述将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,包括:
将所述当前流量数据输入所述卷积网络层,得到所述当前流量数据的指标特征;
将所述当前流量数据的指标特征输入所述LSTM层,得到所述当前流量数据对应的预测流量数据的时间特征和空间特征;
将所述预测流量数据的时间特征和空间特征输入所述全连接层,得到所述预测流量数据的流量类型。
可选的,所述RQP值包括链接请求队列优先级(LRQP)值和网络请求队列优先级(NRQP)值;所述根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值包括:
所述根据所述预测流量数据的流量类型,确定所述预测流量数据对应的网络信息数据;
根据所述预测流量数据对应的网络信息数据,确定所述预测流量数据对应的LRQP值和NRQP值。
可选的,所述根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式,包括:
若所述预测流量数据对应的流量类型包括低时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序;
若所述预测流量数据对应的流量类型包括高时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序。
本说明书一个或多个实施例提供了一种前传网络资源分配装置,所述装置包括:
获取单元,用于获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型;
确定单元,用于根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值;
分配单元,用于根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。
可选的,所述获取单元,具体用于:
获取前传网络中的当前流量数据;
对所述当前流量数据进行归一化处理,得到归一化处理后的当前流量数据;
对所述归一化处理后的当前流量数据进行分段处理,得到若干段当前流量数据;
将所述若干段当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
可选的,所述已训练的流量类型预测模型包括卷积网络层、LSTM层和全连接层;所述获取单元,具体用于:
将所述当前流量数据输入所述卷积网络层,得到所述当前流量数据的指标特征;
将所述当前流量数据的指标特征输入所述LSTM层,得到所述当前流量数据对应的预测流量数据的时间特征和空间特征;
将所述预测流量数据的时间特征和空间特征输入所述全连接层,得到所述预测流量数据的流量类型。
可选的,所述RQP值包括链接请求队列优先级(LRQP)值和网络请求队列优先级(NRQP)值;所述确定单元,具体用于:
所述根据所述预测流量数据的流量类型,确定所述预测流量数据对应的网络信息数据;
根据所述预测流量数据对应的网络信息数据,确定所述预测流量数据对应的LRQP值和NRQP值。
可选的,所述分配单元,具体用于:
若所述预测流量数据对应的流量类型包括低时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序;
若所述预测流量数据对应的流量类型包括高时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序。
从上面所述可以看出,本说明书一个或多个实施例提供的一种前传网络资源分配方法,所述方法包括:获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型;根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值;根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。可见,本申请可以利用人工智能算法(即已训练的流量类型预测模型)预测未来的预测流量数据以及预测流量数据的流量类型,并且可以根据预测流量数据的流量类型和RQP值对网络资源进行分配;这样,可以通过流量梳理提升流量预测类型的准确性,并且根据流量类型进行资源分配,能有效提升前传网络资源利用率,降低网络阻塞率,从而可以实现根据不同的流量类型,针对性地进行资源分配,进而提高前传网络的资源利用率,降低传输时延。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种前传网络资源分配方法的流程示意图;
图2为本发明一实施例提供的一种前传网络资源分配方法的网络结构示意图;
图3为本发明一实施例提供的一种流量类型预测模型的结构示意图;
图4为本发明一实施例提供的一种前传网络资源分配装置的结构示意图;
图5为本发明一实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
需要说明的是,除非另外定义,本说明书一个或多个实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本说明书一个或多个实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
下面结合附图详细说明本发明实施例的技术方案。
参见图1,示出了本发明实施例中的一种前传网络资源分配方法,所述方法包括:
S101:获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
在本实施例中,可以先获取前传网络中的当前流量数据,例如,可以获取前传网络中AAU(Active AntennaUnit,有源天线单元)的当前流量数据。如图2所示,前传网络中的AAU可以是由虚拟化网络资源组成的多个虚拟基站,从而可以获取到若干个流量数据,比如流量1、流量2、…、流量N。
在获取到当前流量数据之后,可以根据该当前流量数据预测未来的预测流量数据,比如,在一种实现方式中,可以将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,以便可以根据预测流量数据对网络资源进行分配,从而可以有效提升前传网络资源利用率,降低网络阻塞率。
在本实施例中,所述已训练的流量类型预测模型可以为基于无监督学习的Conv-LSTM算法的模型,如图3所示,所述已训练的流量类型预测模型可以包括卷积网络层(其中,卷积网络层可以报考卷积层和池化层)、LSTM 层和全连接层(比如可以为softmax分类器层)。
在本实施例中,所述将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型的方式,可以包括以下步骤:
步骤a:将所述当前流量数据输入所述卷积网络层,得到所述当前流量数据的指标特征。
首先,可以对当前流量数据通过卷积网络层进行卷积运算,具体地,可以通过在原始矩阵中从上到下以及从左到右滑动来完成特征提取,得到所述当前流量数据的指标特征。然后,可以将卷积网络层提取的指标特征将发送到LSTM层。
需要说明的是,在本实施例中,由于需要从流量到达的时间、延迟容忍度和带宽三个指标对流量数据进行梳理,从而预测当前流量数据对应的预测流量数据的流量类型。故此,当前流量数据的指标特征可以包括流量到达的时间、延迟容忍度和带宽等,接下来,分别对这三个指标特征进行介绍:
第一个指标是流量到达时间的不同。针对流量到达的时间指标,不同流量的到达时间不同,一种流量会在另一种流量之前到达。在这个维度上,可以将流量分为两种类型,到达时间早的流量需要先处理,而到达时间晚的流量会稍后处理,这样前传网络可以根据流量的到达时间确定立即分配资源或保留资源。
第二个指标是流量对传输延迟的容忍度不同。在本实施例中,可以将流量分为敏感流量和容忍流量。通常,不同的流量对视频、文本和卫星遥感之类的处理延迟具有不同的容忍度。由于前传网络中的DU(Distributed Unit,分布式单元)云和CU(CentralizedUnit,集中单元)云是按照不同协议层实时性的要求进行切分的,对于时延性要求高的流量数据需要在DU云进行处理,时延性要求低的流量在CU云处理。这样,DU云用于处理对延迟性敏感的流量,而CU云用于处理对延迟性较为不敏感的流量,因此,可以根据流量数据对于时延性的敏感度不同区分流量需要在DU云或CU云中处理。
第三个指标是流量数据的带宽要求不同。不同的业务流量需要不同的频谱带宽大小。带宽需求大的流量例如视频流,一般对时延性要求较低,可以稍后处理或在CU云中进行处理,而带宽需求小的流量例如无人机,则对时延性要求较高,需要在DU云中进行处理。
步骤b:将所述当前流量数据的指标特征输入所述LSTM层,得到所述当前流量数据对应的预测流量数据的时间特征和空间特征。
需要说明的是,LSTM是一种特殊的RNN结构,已证明对自然语言处理任务稳定且强大。LSTM的创新在于它的门机制和信息存储的单元状态。 LSTM的核心是状态单元,它可以有选择地让流量数据信息流过门机构以实现信息更改。LSTM由三个门组成:忘记门,输入门和输出门。忘记门决定从单元状态中删除的信息,输入门输入信息以更新单元状态。然后,输出门决定最终输出。
将所述当前流量数据的指标特征输入所述LSTM层,可以得到所述当前流量数据对应的预测流量数据的时间特征和空间特征。其中,时间特征可以为反映流量的达到时间的特征,空间特征可以为反映流量对时延性的容忍度和流量的频谱需求的特征。
步骤c:将所述预测流量数据的时间特征和空间特征输入所述全连接层,得到所述预测流量数据的流量类型。
在获取到所述预测流量数据的时间特征和空间特征之后,可以将所述预测流量数据的时间特征和空间特征输入到所述全连接层,得到所述预测流量数据的流量类型。
需要说明的是,在本实施例中,可以根据流量数据的指标特征,比如流量到达的时间、延迟容忍度和带宽,将流量数据分为八类流量,如图2所示,第一类流量(即T1):立即分配资源、小带宽、低时延容忍度;第二类流量 (即T2)立即分配资源、小带宽、高时延容忍度;第三类流量(即T3):立即分配资源、大带宽、低时延容忍度;第四类流量(即T4):立即分配资源、大带宽、高时延容忍度;第五类流量(即T5):预留资源、小带宽、低时延容忍度;第六类流量(即T6):预留资源、小带宽、高时延容忍度;第七类流量(即T7):预留资源、大带宽、低时延容忍度;第八类流量(即T8):预留资源、大带宽、高时延容忍度。
还需要强调的是,在本实施例中,已训练的流量类型预测模型可以基于历史训练数据进行训练得到的,其中,历史训练数据可以包括历史流量数据和历史流量数据对应的流量类型。
需要说明的是,在一种实现方式,S101可以包括以下步骤:
步骤101a:获取前传网络中的当前流量数据。
在本实施例中,可以先获取前传网络中的当前流量数据,例如,可以获取前传网络中AAU(Active Antenna Unit,有源天线单元)的当前流量数据。
步骤101b:对所述当前流量数据进行归一化处理,得到归一化处理后的当前流量数据。
需要将当前流量数据{xt},t=1,2,…,N,执行为流量类型预测模型(即 Conv-LSTM网络)可接受的一系列值,具体的计算过程如下:首先,将N个当前流量数据,取其平均值S,即按照如公式(1)进行计算:
Figure RE-GDA0002966353620000081
(1);然后,可以进行N个当前流量数据的归一化处理得到可输入的数据{xi}treated,即按照公式(2)进行计算:
Figure RE-GDA0002966353620000091
举例说明,假定采集到的100个时隙下的10维流量数据表示成为{xt}, t=1,2,3,…,100;其中,xt={x1,x2,x3…x10}。接下来对所得到的数据按照不同指标进行分类处理,实现流量指标数值和流量类型的映射关系如表1所示,流量指标选用三种,各自对应两种流量状态类型:I:立即分配资源;R:预留资源;S:小带宽,B:大带宽;L:低时延容忍度,H:高时延容忍度。流量类型分为八种,分别是:立即分配资源、小带宽、低时延容忍度T1,立即分配资源、小带宽、高时延容忍度T2,立即分配资源、大带宽、低时延容忍度T3,立即分配资源、大带宽、高时延容忍度T4,预留资源、小带宽、低时延容忍度T5,预留资源、小带宽、高时延容忍度T6,预留资源、大带宽、低时延容忍度T7,预留资源、大带宽、高时延容忍度T8。
表1指标状态映射数据序列数据库
序号 到达时间 带宽 时延容忍度
1 I B L
2 I S H
3 R S H
99 R B L
100 R S L
读取数据库后,可以选取已训练的流量类型预测模型进行预测流量数据的流量类型预测。具体的实现步骤分为三步:
第一步,需要将收集到的100个当前流量数据{xt},t=1,2,3,…,100,执行为流量类型预测模型可接受的一系列值。计算过程如下,首先取100个当前流量数据的平均值,然后根据均值对100个当前流量数据进行归一化处理;具体过程如下:
Figure RE-GDA0002966353620000092
Figure RE-GDA0002966353620000093
第二步,为了预测下一时间段内的流量平均值。假定当前流量数据在20 ×5长度之内,因此需要将每一段总流量{xi}分段为20个当前流量数据段,每个数据段流量为5个长度。对于任意时刻的输入流量Sj={xj,xj+5,…,xj+20×5}, j=1,2,…,100,xj+20×5表示当前流量数据的实际值,输入值Sj;Oj是对当前流量数据xj+20×5的预测,即表示第j个当前流量数据的网络输出值。假设T的准确值为5得到具体的输入序列:
S5={x1+(20+1)×5,x2+(20+1)×5,…,x5+(20+1)×5};
Oj的平均值为下一个时间段内流量数据的预测值,即
Figure RE-GDA0002966353620000101
步骤101c:对所述归一化处理后的当前流量数据进行分段处理,得到若干段当前流量数据。
在本实施例中,为了预测下一时间段内具有T长度的流量平均值,假定当前流量数据在D×T长度之内,因此需要将当前流量数据Sj分段为D个流量数据段Sj={xj,xj+T,…,xj+D×T},j=1,2,…,T,即若干段当前流量数据,其中,xj+D×T表示当前流量数据的实际值。
步骤101d:将所述若干段当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
在得到当前流量数据的若干段当前流量数据之后,可以将若干段当前流量数据Sj输入已训练的流量类型预测模型,得到当前流量数据对应的预测流量数据,当前流量数据对应的预测流量数据包括对当前流量数据Sj的各个流量数据段xj+(D+1)×T的预测流量数据Oj,Oj表示第j流量数据段的网络输出值。在一种实现方式中,可以将当前流量数据Sj的各个流量数据段的预测流量数据的平均值作为当前流量数据对应的预测流量数据,即按照公式(3) 进行计算,
Figure RE-GDA0002966353620000102
其中,prediction为当前流量数据对应的预测流量数据。进而,可以根据所述当前流量数据对应的预测流量数据,确定预测流量数据的流量类型。
S102:根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值。
根据3D流量梳理结果,流量数据可分为八种类型,并且可以使得流量预测更加准确。在资源分配中,随着新请求的到来,前传网络可以建立连接并为其分配适当的资源量。本实施例中还引入了请求队列优先级(RQP)的概念,即请求处理顺序,其中,RQP可以反应需要处理的紧急程度。这样,所提出的资源分配算法可以基于不同流量类型的优先级进行资源分配,以提高资源利用率并降低阻塞概率。
为了描述等待请求的优先级,在本实施例中,可以将请求队列优先级分为两类,定义了以下两种类型的请求队列优先级:链接请求队列优先级(LRQP) 和网络请求队列优先级(NRQP),即所述RQP值包括链接请求队列优先级 (LRQP)值和网络请求队列优先级(NRQP)值。
在本实施例中,可以先根据所述预测流量数据的流量类型,确定所述预测流量数据对应的网络信息数据。例如,所述预测流量数据对应的网络信息数据可以包括:前传网络中的链接数、所选链路中的最大占用波长和最小占用波长、所选链路中服务所占用的频谱块之间存在的网络请求数、第i条链路中服务所占用的频谱块之间存在的网络请求数、第j条链接被占用的频谱资源和连接数、当前前传网络中存在的连接数、预测流量数据的到达时间和离开时间、预测流量数据的时间敏感度、处理预测流量数据所需要的频谱资源。其中,所选链路可以理解为预测流量数据对应的链路。
接着,可以根据所述预测流量数据对应的网络信息数据,确定所述预测流量数据对应的LRQP值和NRQP值。例如,可以通过公式(4)确定预测流量数据对应的LRQP,可以通过公式(5)确定预测流量数据对应的NRQP;
Figure RE-GDA0002966353620000111
Figure RE-GDA0002966353620000112
其中,M表示前传网络中的链接数;λmax,λmin分别表示所选链路中的最大占用波长和最小占用波长;K表示所选链路中服务所占用的频谱块之间存在的网络请求数;Ki表示第i条链路中服务所占用的频谱块之间存在的网络请求数;Bj,Hj表示第j条链接被占用的频谱资源和连接数;N表示当前网络中存在的连接数;t1,t2分别表示预测流量数据的到达时间和离开时间; ts表示预测流量数据的时间敏感度;P表示处理预测流量数据所需要的频谱资源;αLRQP,αNRQP分别表示LRQP和NRQP的优先级大小。
S103:根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。
在本实施例中,获取到所述预测流量数据对应的流量类型、RQP值,可以确定所述预测流量数据对应的资源分配方式。在一种实现方式中,若所述预测流量数据对应的流量类型包括低时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP值和NRQP 值确定所述预测流量数据在所述DU云中的处理优先级顺序。
若所述预测流量数据对应的流量类型包括高时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序。
作为一种实力,首先可以比较前传网络中流量请求的NRQP值,对于较大 NRQP值的流量数据(比如NRQP值大于预设NRQP阈值的流量数据)进行优先处理,其次比较LRQP值,如果LRQP值大于同链路中其他流量数据的LRQP 值或LRQP阈值,则该请求可以优先在前传网络中的DU云中处理。其中,在一种实现方式中,预设NRQP阈值、预设LRQP阈值可以设为0.4。
也就是说,在一种具体方式中,第一步:可以选择一个合适的“请求队列优先级”值作为触发响应过程的阈值,例如0.4,即确定预设NRQP阈值、预设LRQP阈值。第二步:可以在预测流量数据到达或建立新连接后,重新计算所有流量数据的优先级,得到所有流量数据的优先级数据。第三步:可以判断所有流量数据的所有RQP与阈值之间的关系;其中,RQP值越大触发响应过程的速度就越快;否则,如果RQP小于阈值,则稍后将在CU云中处理该流量数据并返回到第二步。第四步:更新RQP的最新值,返回第三步。
举例来说,根据上述优先级判断和3D流量梳理,流量类型T1、T3、T5、 T7可以根据各自优先级顺序发送到前传网络的DU云,而流量类型T2、T4、 T6、T8可以根据优先级顺序发送到前传网络的CU云。CU和DU中的SDN可以进行实时资源分配策略,每个流量数据都将通过RNN的候选MSA解决方案集合进行处理。根据解决方案的可能性,SDN可以采取行动并建立相应的光路。
也就是说,根据上述优先级判断和3D流量梳理,资源分配方面我们提出 MSA策略。MSA策略是综合考虑了路径长度,链路频谱利用率和其他功能,以实现动态的资源分配策略。对于链路不同时间的不同转发路径长度和频谱占用率,MSA策略利用软件定义的网络(SDN)范例对EON数据平面进行集中和自动控制和管理,达到实时智能化的资源分配。对于来自AAU的流量请求, DU和CU中的SDN根据收集到流量的数据指标、链路频谱占用率和链路拓扑抽象的信息,为SDN控制器生成状态数据。然后,根据SDN处理得到的流量优先级,T1、T3、T5、T7四个种类的流量根据其优先级的大小,排序后发送到DU处理;而T2、T4、T6、T8会根据优先级排序发送到CU处理。每个流量都将通过RNN的候选MSA解决方案集合进行处理。根据解决方案的可能性, SDN可以采取行动并建立相应的光路。
从上面所述可以看出,本说明书一个或多个实施例提供的一种前传网络资源分配方法,所述方法包括:获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型;根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值;根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。可见,本申请可以利用人工智能算法(即已训练的流量类型预测模型)预测未来的预测流量数据以及预测流量数据的流量类型,并且可以根据预测流量数据的流量类型和RQP值对网络资源进行分配;这样,可以通过流量梳理提升流量预测类型的准确性,并且根据流量类型进行资源分配,能有效提升前传网络资源利用率,降低网络阻塞率,从而可以实现根据不同的流量类型,针对性地进行资源分配,进而提高前传网络的资源利用率,降低传输时延。
可以理解的是,本申请提出的一种前传网络资源分配方法,可以针对前传网络的海量多类型流量数据,首先对网络流量数据进行3D流量梳理得到八种类型的流量;然后利用人工智能算法Conv-LSTM(即已训练的流量类型预测模型)对未来的流量数据进行预测且得到流量类型;最后根据提出的流量请求优先级和未来的预测流量数据的流量类型两个方面,对未来的预测流量数据的流量类型进行针对性资源分配。
本申请在已有的流量预测算法Conv-LSTM算法之外通过引入3D流量梳理和流量优先级计算,得到未来的预测流量数据的流量类型的指标特征,确定未来的预测流量数据的流量类型的资源分配策略。人工智能算法Conv-LSTM 和提出的3D流量梳理策略两者相结合的方案,可以更好的应对前传网络复杂多类型流量问题,通过探索大量多维指标流量数据和多维指标数据间的特征,明确流量类型和资源分配策略的对应,提升前传网络资源利用率和降低网络阻塞率。
相应于上述的一种前传网络资源分配方法,本发明实施例提供了一种前传网络资源分配装置,结构如图4所示,一种前传网络资源分配装置,所述装置包括:
获取单元401,用于获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型;
确定单元402,用于根据所述预测流量数据的流量类型,确定所述预测流量数据对应的请求队列优先级(RQP)值;
分配单元403,用于根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。
可选的,所述获取单元401,具体用于:
获取前传网络中的当前流量数据;
对所述当前流量数据进行归一化处理,得到归一化处理后的当前流量数据;
对所述归一化处理后的当前流量数据进行分段处理,得到若干段当前流量数据;
将所述若干段当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
可选的,所述已训练的流量类型预测模型包括卷积网络层、LSTM层和全连接层;所述获取单元401,具体用于:
将所述当前流量数据输入所述卷积网络层,得到所述当前流量数据的指标特征;
将所述当前流量数据的指标特征输入所述LSTM层,得到所述当前流量数据对应的预测流量数据的时间特征和空间特征;
将所述预测流量数据的时间特征和空间特征输入所述全连接层,得到所述预测流量数据的流量类型。
可选的,所述RQP值包括链接请求队列优先级(LRQP)值和网络请求队列优先级(NRQP)值;所述确定单元402,具体用于:
所述根据所述预测流量数据的流量类型,确定所述预测流量数据对应的网络信息数据;
根据所述预测流量数据对应的网络信息数据,确定所述预测流量数据对应的LRQP值和NRQP值。
可选的,所述分配单元403,具体用于:
若所述预测流量数据对应的流量类型包括低时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序;
若所述预测流量数据对应的流量类型包括高时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP 值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序。
本说明书实施例中所述支付涉及的技术载体,例如可以包括近场通信 (NearField Communication,NFC)、WIFI、3G/4G/5G、POS机刷卡技术、二维码扫码技术、条形码扫码技术、蓝牙、红外、短消息(Short Message Service,SMS)、多媒体消息(MultimediaMessage Service,MMS)等。
本说明书实施例中所述生物识别所涉及的生物特征,例如可以包括眼部特征、声纹、指纹、掌纹、心跳、脉搏、染色体、DNA、人牙咬痕等。其中眼纹可以包括虹膜、巩膜等生物特征。
需要说明的是,本说明书一个或多个实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本说明书一个或多个实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
图5示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器 1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器 1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入 /输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本说明书一个或多个实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本说明书一个或多个实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本说明书一个或多个实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本说明书一个或多个实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本公开的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本说明书一个或多个实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本公开的具体实施例对本公开进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本说明书一个或多个实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本说明书一个或多个实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (8)

1.一种前传网络资源分配方法,其特征在于,所述方法包括:
获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,其中,所述流量类型包括:第一类流量:立即分配资源、小带宽、低时延容忍度;第二类流量立即分配资源、小带宽、高时延容忍度;第三类流量:立即分配资源、大带宽、低时延容忍度;第四类流量:立即分配资源、大带宽、高时延容忍度;第五类流量:预留资源、小带宽、低时延容忍度;第六类流量:预留资源、小带宽、高时延容忍度;第七类流量:预留资源、大带宽、低时延容忍度;第八类流量:预留资源、大带宽、高时延容忍度;
根据所述预测流量数据的流量类型,确定所述预测流量数据对应的网络信息数据,根据所述预测流量数据对应的网络信息数据,确定所述预测流量数据对应的请求队列优先级(RQP)值,其中,所述RQP值包括链接请求队列优先级(LRQP)值和网络请求队列优先级(NRQP)值;
根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。
2.根据权利要求1所述的前传网络资源分配方法,其特征在于,所述获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,包括:
获取前传网络中的当前流量数据;
对所述当前流量数据进行归一化处理,得到归一化处理后的当前流量数据;
对所述归一化处理后的当前流量数据进行分段处理,得到若干段当前流量数据;
将所述若干段当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
3.根据权利要求1所述的前传网络资源分配方法,其特征在于,所述已训练的流量类型预测模型包括卷积网络层、LSTM层和全连接层;所述将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,包括:
将所述当前流量数据输入所述卷积网络层,得到所述当前流量数据的指标特征;
将所述当前流量数据的指标特征输入所述LSTM层,得到所述当前流量数据对应的预测流量数据的时间特征和空间特征;
将所述预测流量数据的时间特征和空间特征输入所述全连接层,得到所述预测流量数据的流量类型。
4.根据权利要求1所述的前传网络资源分配方法,其特征在于,所述根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式,包括:
若所述预测流量数据对应的流量类型包括低时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序;
若所述预测流量数据对应的流量类型包括高时延容忍度,且将所述预测流量数据向所述前传网络中的CU云发送,且根据所述预测流量数据的LRQP值和NRQP值确定所述预测流量数据在所述CU云中的处理优先级顺序。
5.一种前传网络资源分配装置,其特征在于,所述装置包括:
获取单元,用于获取前传网络中的当前流量数据,并将所述当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型,其中,所述流量类型包括:第一类流量:立即分配资源、小带宽、低时延容忍度;第二类流量立即分配资源、小带宽、高时延容忍度;第三类流量:立即分配资源、大带宽、低时延容忍度;第四类流量:立即分配资源、大带宽、高时延容忍度;第五类流量:预留资源、小带宽、低时延容忍度;第六类流量:预留资源、小带宽、高时延容忍度;第七类流量:预留资源、大带宽、低时延容忍度;第八类流量:预留资源、大带宽、高时延容忍度;
确定单元,用于根据所述预测流量数据的流量类型,确定所述预测流量数据对应的网络信息数据,根据所述预测流量数据对应的网络信息数据,确定所述预测流量数据对应的请求队列优先级(RQP)值,其中,所述RQP值包括链接请求队列优先级(LRQP)值和网络请求队列优先级(NRQP)值;
分配单元,用于根据所述预测流量数据对应的流量类型、RQP值,确定所述预测流量数据对应的资源分配方式。
6.根据权利要求5所述的前传网络资源分配装置,其特征在于,所述获取单元,具体用于:
获取前传网络中的当前流量数据;
对所述当前流量数据进行归一化处理,得到归一化处理后的当前流量数据;
对所述归一化处理后的当前流量数据进行分段处理,得到若干段当前流量数据;
将所述若干段当前流量数据输入已训练的流量类型预测模型,得到所述当前流量数据对应的预测流量数据的流量类型。
7.根据权利要求5所述的前传网络资源分配装置,其特征在于,所述已训练的流量类型预测模型包括卷积网络层、LSTM层和全连接层;所述获取单元,具体用于:
将所述当前流量数据输入所述卷积网络层,得到所述当前流量数据的指标特征;
将所述当前流量数据的指标特征输入所述LSTM层,得到所述当前流量数据对应的预测流量数据的时间特征和空间特征;
将所述预测流量数据的时间特征和空间特征输入所述全连接层,得到所述预测流量数据的流量类型。
8.根据权利要求5所述的前传网络资源分配装置,其特征在于,所述分配单元,具体用于:
若所述预测流量数据对应的流量类型包括低时延容忍度,且将所述预测流量数据向所述前传网络中的DU云发送,且根据所述预测流量数据的LRQP值和NRQP值确定所述预测流量数据在所述DU云中的处理优先级顺序;
若所述预测流量数据对应的流量类型包括高时延容忍度,且将所述预测流量数据向所述前传网络中的CU云发送,且根据所述预测流量数据的LRQP值和NRQP值确定所述预测流量数据在所述CU云中的处理优先级顺序。
CN202011257471.2A 2020-11-11 2020-11-11 一种前传网络资源分配方法及装置 Active CN112636995B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011257471.2A CN112636995B (zh) 2020-11-11 2020-11-11 一种前传网络资源分配方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011257471.2A CN112636995B (zh) 2020-11-11 2020-11-11 一种前传网络资源分配方法及装置

Publications (2)

Publication Number Publication Date
CN112636995A CN112636995A (zh) 2021-04-09
CN112636995B true CN112636995B (zh) 2022-08-05

Family

ID=75303011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011257471.2A Active CN112636995B (zh) 2020-11-11 2020-11-11 一种前传网络资源分配方法及装置

Country Status (1)

Country Link
CN (1) CN112636995B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705959B (zh) * 2021-05-11 2023-08-15 北京邮电大学 网络资源分配方法及电子设备
CN113726550A (zh) * 2021-07-21 2021-11-30 广东电网有限责任公司广州供电局 流量预测方法、装置、计算机设备和可读存储介质
US12095610B2 (en) * 2022-02-17 2024-09-17 Microsoft Technology Licensing, Llc Optimizing network provisioning through cooperation

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10855550B2 (en) * 2016-11-16 2020-12-01 Cisco Technology, Inc. Network traffic prediction using long short term memory neural networks
CN108712292B (zh) * 2018-05-29 2021-04-02 广州大学 一种基于深度学习的网络流类型预测方法
CN109831320B (zh) * 2018-12-29 2022-03-25 国家电网有限公司 一种辅助流量预测控制方法、存储介质和电子设备
CN110224755B (zh) * 2019-05-23 2021-08-17 电子科技大学 一种5g前传的低时延装置及方法
CN110677876B (zh) * 2019-10-08 2021-02-05 广东电网有限责任公司 一种流量种类预测的前传网络资源分配方法
CN110839184B (zh) * 2019-10-15 2021-06-15 北京邮电大学 基于流量预测的移动前传光网络带宽调整方法及装置
CN111200531B (zh) * 2020-01-02 2022-01-04 国网冀北电力有限公司信息通信分公司 一种通信网流量预测方法、装置与电子设备

Also Published As

Publication number Publication date
CN112636995A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112636995B (zh) 一种前传网络资源分配方法及装置
CN112291793B (zh) 网络接入设备的资源分配方法和装置
US11541773B2 (en) Apparatus and method for assigning charger to electric vehicles
CN109586950B (zh) 网络场景识别方法、网络管理设备、系统及存储介质
CN108089921A (zh) 用于云端大数据运算架构的服务器及其运算资源最佳化方法
CN113128678A (zh) 神经网络的自适应搜索方法及装置
EP4290824A1 (en) Task allocation method and apparatus based on internet-of-things device, and network training method and apparatus
CN113055308A (zh) 带宽调度方法、流量传输方法及相关产品
CN113705959A (zh) 网络资源分配方法及电子设备
CN111614754B (zh) 面向雾计算的成本效率优化的动态自适应任务调度方法
CN105472631A (zh) 一种业务数据量和/或资源数据量的预测方法及预测系统
CN111049903A (zh) 一种基于应用感知预测的边缘网络负载分配算法
CN112819157B (zh) 神经网络训练的方法及装置、智能行驶控制的方法及装置
CN109661671B (zh) 使用边界位图对图像分类的改善
CN117077928A (zh) 网约车需求预测方法、装置、设备及存储介质
Sheikh et al. Machine learning-driven task scheduling with dynamic K-means based clustering algorithm using fuzzy logic in FOG environment
CN114360027A (zh) 一种特征提取网络的训练方法、装置及电子设备
CN114168328A (zh) 一种基于联邦学习的移动边缘节点计算任务调度方法及其系统
CN113886086A (zh) 云平台计算资源分配方法、系统、终端及存储介质
CN114650321A (zh) 用于边缘计算的任务调度方法及边缘计算终端
CN116795553A (zh) 算力资源的调度方法及装置、存储介质及电子装置
CN113138847A (zh) 基于联邦学习的计算机资源分配调度方法和装置
US20230216811A1 (en) Method and apparatus for managing network traffic via uncertainty
CN113438678B (zh) 一种为网络切片分配云资源的方法及装置
CN113793195A (zh) 网约车订单处理方法、装置、计算机设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant