CN114219074A - 一种按需动态调整的无线通信网络资源分配算法 - Google Patents

一种按需动态调整的无线通信网络资源分配算法 Download PDF

Info

Publication number
CN114219074A
CN114219074A CN202111530124.7A CN202111530124A CN114219074A CN 114219074 A CN114219074 A CN 114219074A CN 202111530124 A CN202111530124 A CN 202111530124A CN 114219074 A CN114219074 A CN 114219074A
Authority
CN
China
Prior art keywords
task
model
resource allocation
wireless communication
optimal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111530124.7A
Other languages
English (en)
Inventor
承楠
马龙飞
王秀程
孙瑞锦
李长乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202111530124.7A priority Critical patent/CN114219074A/zh
Publication of CN114219074A publication Critical patent/CN114219074A/zh
Priority to US17/857,114 priority patent/US20230189075A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种按需动态调整的无线通信网络资源分配算法,具体包括以下步骤:步骤一:对无线通信网络的任务的特征进行量化描述,并表示为固定维度的输入向量
Figure DDA0003410355270000011
步骤二:构造基于可变宽度的动态神经网络的高可靠低延迟资源分配模型;步骤三:针对所述情形,给出优化目标和知识驱动的解决方案;步骤四:建立关于部署环境与最优推理模型的知识库;步骤五:从知识库中获取最优模型,得到资源分配方案。该发明的技术效果为将网络资源分配问题分为两个阶段:首先,根据任务特征和用户计算能力确定决策网络的最佳宽度;然后,将任务特征输入最优决策网络,得到最优资源分配方案。

Description

一种按需动态调整的无线通信网络资源分配算法
技术领域
本发明涉及无线通信网络资源分配技术领域,具体为一种按需动态调整的无线通信网络资源分配算法。
背景技术
近年来,第五代(5G)无线通信网络已在全球商业化和部署,虽然5G网络可以大大提高网络性能并保证服务级别性能,但仍存在一些局限性。例如,5G网络主要依靠密集部署在城市地区而非农村或偏远地区的地面基站,难以在一些偏远和恶劣地区提供高效服务。
随着空天地一体化网络、太赫兹、智能反射面等新兴技术的蓬勃发展,以及人工智能与通信技术的深度融合,为第六代(6G)的研究提供了广阔的前景无线通信网络。6G网络的一个重大挑战是提供“按需”服务。一方面,由于广泛的覆盖范围、软件定义技术和人工智能技术的应用,将出现大量具有不同需求的新型服务。这些服务和要求应得到高效、经济的处理和满足。另一方面,高度的网络动态性、网络架构异构性和网络资源复杂性将共同导致网络资源协调的前所未有的困难。为了解决这些问题,6G网络将全面开发新的空中接口、新颖的网络体系结构,最重要的是先进的人工智能技术,以进一步提高网络性能并提供按需服务。
我们关注无线通信网络中的资源分配问题。显然,为了获得更高的网络性能,最好是快速、最优化的决策。然而,在大多数情况下,速度(分配决策过程所需的时间)和最优性(所得分配方案和最优方案之间的差距)是折衷指标,如果折衷可以根据特定场景和服务需求进行调整,是一种合理的解决方案。通常的方法是将决策问题表述为优化问题,然后使用基于迭代的方法解决问题,例如,使用基于迭代的方法可能会导致较大的计算复杂度,因此对于6G更大的网络规模和更高的网络动态性,这种方法可能会导致算法收敛时间过长,甚至无法解决问题。
与传统的基于迭代的算法相比,神经网络的推理计算量更低,因此决策所需时间更少。因此,通过合理设置和训练网络结构,我们也可以使用神经网络有效地解决上述网络资源分配问题。然而,在6G时代,不同的场景可能导致对资源分配决策的不同需求。例如,为自动驾驶服务的基站将需要比为物联网监控服务低得多的决策延迟。此外,不同基站上可用的计算资源也会不同。大多数神经网络模型都没有这样的灵活性,即决策速度和最优性可以根据服务需求和可用计算资源进行调整。
发明内容
本发明的目的在于提供一种按需动态调整的无线通信网络资源分配算法,以解决上述背景技术中提出的问题。
为实现上述目的,发明提供如下技术方案:一种按需动态调整的无线通信网络资源分配算法,具体包括以下步骤:
步骤一:对无线通信网络的任务的特征进行量化描述,并表示为固定维度的输入向量
Figure BDA0003410355250000021
步骤二:构造基于可变宽度的动态神经网络的高可靠低延迟资源分配模型;
步骤三:针对所述情形,给出优化目标和知识驱动的解决方案;
步骤四:建立关于部署环境与最优推理模型的知识库;
步骤五:从知识库中获取最优模型,得到资源分配方案。
优选的,步骤一中按照任务数据量、任务传输距离和任务重要性三种因素将任务特征进行量化;
其中,任务数据量以Kb为单位,表示为s;任务传输距离以m为单位,表示为d;任务重要性为该任务的紧迫程度,采用四个不同的等级进行量化为w∈[0.8,0.4,0.2,0.1],整合三种因素将任务特征描述为
Figure BDA0003410355250000031
优选的,步骤二中可变宽度的动态神经网络,将其作为多任务传输情形下的带宽分配模型,针对不同的任务特征输入
Figure BDA0003410355250000032
分别输出带宽分配向量
Figure BDA0003410355250000035
和功率分配向量
Figure BDA0003410355250000033
优选的,所述网络资源分配模型由输入网络、输出网络和若干个级联的多专家层(MoE)组成,每个MoE层根据不同的输入控制其参与运算的专家(Expert)模块数量。
优选的,所述MoE层由输入子层、门函数网络、N个并行的专家模块和输出子层构成;为了充分利用各个负载模块,同时节省计算资源,设定门函数网络的输入输出映射函数如下:
G(X)=RemainK(H(x),k)
H(X)=X·Wg+Normal·Softplus(X·Wnoise)
上述式中,第一项为输入X与权重矩阵Wg相乘,表示不同输入对专家模块选择的特异性,第二项为噪声项,由标准正太白噪声Normal与噪声系数Softplus(X·Wnoise)相乘得到,Wnoise为噪声矩阵,噪声项用来均衡各专家模块的权重,RemainK函数为稀疏化函数,根据给定的超参数K,保留自变量中最大的K个值,并将其余值置为-∞,由于门函数网络输出与Softmax层相连,故最终只保留K个有效值,其余值均为0;构造额外的损失项Lblance,其表达式如下:
Figure BDA0003410355250000034
其中,wblance为预先设定的损失系数,CV为变异系数,表示不同专家模块权重值的离散程度,所有专家模块具有相同的结构,均由两层带有激活函数的线性层级联构成,第一层线性层使用ReLU函数作为激活函数,第二层线性层使用LogSoftmax函数作为激活函数。
优选的,在步骤三中:由于服务器在不同情形下的运算能力不同,采用CPU频率对其进行量化,表示为f,对于用户i,将其生成的任务表示为Oi,完成一次任务传输的总时延包括服务器进行带宽分配的运算时间和传输过程所用时间,考虑到任务重要性,将时延进行加权,表示为:
Ti=wi(Tcom+Ttra,i)
其中,Ti为任务Oi的总加权时延,Tcom为服务器运算时延,Ttra,i为传输时延,wi为任务Oi的重要性;
Tcom和Ttra,i的运算公式分别为:
Figure BDA0003410355250000041
其中n为所用专家模块的数量,φ=||θ1|| ||θ2||为一个专家模块的计算复杂度,||θ1||、||θ2||分别为第一和第二线性层的参数量,α为CPU计算效率因子,si、bi、Pi分别为任务Oi的大小、所用带宽及传输功率,d0为单位距离,g0为信道增益,σ2为噪声功率;
将总优化目标定义为:
Figure BDA0003410355250000042
T为所有任务的加权时延和;对于动态网络模型,由于选用不同超参数K的分配模型具有不同的运算时延和分配效果,因此使用知识驱动的方式来获取最优模型;在不同情形下遍历所有K值,训练得到若干个不同宽度的动态网络模型,通过比较模型性能,建立部署环境与最优推理模型的知识库,选出总加权时延最低者作为最终的分配模型,并利用该模型得到分配方案。
优选的,在步骤四中,对于给定K值的分配模型,将训练所用的损失函数设置为:
Figure BDA0003410355250000051
构建关于部署环境与最优推理模型知识库的具体步骤为:
①获取该部署环境下的用户任务特性以及服务器相关信息;
②在范围{1~N}中随机取值作为分配模型的K值,N为专家模块MoE层中专家模块的总数,并保证每次选取的K值与之前均不同;
③根据已知任务信息和损失函数,利用反向传播算法对分配模型的参数θ进行迭代优化;
④重复②~③步,直至所有不同K值的模型均完成训练,并分别根据不同推理模型输出的分配方案,计算相应时延和T,从中选取T值最小者作为该部署情形下的最优模型存入知识库;
⑤重复上述步骤,直至遍历全部所考虑的部署环境。
优选的,在步骤五中,首先根据已知用户和服务器信息从知识库中选择最优分配模型,而后利用该模型得到资源分配方案,实现低时延多任务传输。
与现有技术相比,发明的有益效果是:该按需动态调整的无线通信网络资源分配算法,提出了一个多用户网络资源分配问题,其中每个用户生成的任务都具有不同的重要性,用于决策的神经网络可以根据任务的特点和服务器的计算能力动态调整网络宽度,并在综合考虑推理时延和传输时延的情况下给出最优解;具体来说,将带宽分配问题分为两个阶段:首先,根据任务特征和用户计算能力确定决策网络的最佳宽度;然后,将任务特征输入最优决策网络,得到最优资源分配方案。
附图说明
图1为资源分配算法的整体架构图;
图2为MoE层的构架图;
图3为所有专家模块的构架图;
图4为动态神经网络架构图;
图5为带宽分配效果比较示意图;
图6为功率分配效果比较示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-6,发明提供一种技术方案:一种按需动态调整的无线通信网络资源分配算法,其特征在于:具体包括以下步骤:
步骤一:对无线通信网络的任务的特征进行量化描述,并表示为固定维度的输入向量
Figure BDA0003410355250000064
步骤二:构造基于可变宽度的动态神经网络的高可靠低延迟资源分配模型;
步骤三:针对所述情形,给出优化目标和知识驱动的解决方案;
步骤四:建立关于部署环境与最优推理模型的知识库;
步骤五:从知识库中获取最优模型,得到资源分配方案。
本实施例中,步骤一中按照任务数据量、任务传输距离和任务重要性三种因素将任务特征进行量化;
其中,任务数据量以Kb为单位,表示为s;任务传输距离以m为单位,表示为d;任务重要性为该任务的紧迫程度,采用四个不同的等级进行量化为w∈[0.8,0.4,0.2,0.1],整合三种因素将任务特征描述为
Figure BDA0003410355250000061
本实施例中,步骤二中可变宽度的动态神经网络,将其作为多任务传输情形下的带宽分配模型,如图1所示为带宽分配模型的整体架构图,针对不同的任务特征输入
Figure BDA0003410355250000062
分别输出带宽分配向量
Figure BDA0003410355250000065
和功率分配向量
Figure BDA0003410355250000063
本实施例中,所述带宽分配模型由输入网络、输出网络和若干个级联的多专家层(MoE)组成,每个MoE层根据不同的输入控制其参与运算的专家(Expert)模块数量。从而动态调整网络宽度,如图2所示为MoE层的构架:
本实施例中,所述MoE层由输入子层、门函数网络、N个并行的专家模块和输出子层构成;其中,门函数网络的作用是根据输入子层的传递而来的变量X和预先给定的超参数K(K∈{1~N})输出N个专家模块的门控值[g1,g2,…gN],当某一专家模块的门控值为0时,该专家模块不参与运算,从而控制MoE层的宽度;为了充分利用各个负载模块,同时节省计算资源,设定门函数网络的输入输出映射函数如下:
G(X)=RemainK(H(x),k)
H(X)=X·Wg+Normal·Softplus(X·Wnoise)
上述式中,第一项为输入X与权重矩阵Wg相乘,表示不同输入对专家模块选择的特异性,第二项为噪声项,由标准正太白噪声Normal与噪声系数Softplus(X·Wnoise)相乘得到,Wnoise为噪声矩阵,噪声项用来均衡各专家模块的权重,RemainK函数为稀疏化函数,根据给定的超参数K,保留自变量中最大的K个值,并将其余值置为-∞,由于门函数网络输出与Softmax层相连,故最终只保留K个有效值,其余值均为0;
为充分利用各个专家模块,避免出现仅有极少数几个专家模块拥有较大权重,而其余多数模块权重较低或为0的情况,构造额外的损失项Lblance,其表达式如下:
Figure BDA0003410355250000071
其中,wbalance为预先设定的损失系数,CV为变异系数,表示不同专家模块权重值的离散程度,
如图1所示,由带宽分配模型的整体架构图可见,分配模型的主体部分为带有门单元网络的MoE层,为增强模型的学习能力,获得较好的分配性能,设置所有专家模块的结构,如图3所示:专家模块由两层带有激活函数的线性层级联构成,第一层线性层使用ReLU函数作为激活函数,第二层线性层使用LogSoftmax函数作为激活函数,以降低网络训练难度,提高收敛速度。
本实施例中,步骤三:考虑多用户单服务器情形,各个用户在本地生成任务并传输给服务器进行处理;所有用户占用的总带宽和总功率一定,由服务器根据不同用户的任务信息,利用分配模型进行资源分配;由于服务器设备以及部署环境的多样性,因此,服务器在不同情形下的运算能力不同,采用CPU频率对其进行量化,表示为f,对于用户i,将其生成的任务表示为Oi,完成一次任务传输的总时延包括服务器进行带宽分配的运算时间和传输过程所用时间,考虑到任务重要性,将时延进行加权,表示为:
Ti=wi(Tcom+Ttra,i)
其中,Ti为任务Oi的总加权时延,Tcom为服务器运算时延,Ttra,i为传输时延,wi为任务Oi的重要性;
Tcom和Ttra,i的运算公式分别为:
Figure BDA0003410355250000081
其中n为所用专家模块的数量,φ=||θ1||||θ2||为一个专家模块的计算复杂度,||θ1||、||θ2||分别为第一和第二线性层的参数量,α为CPU计算效率因子,si、bi、Pi分别为任务Oi的大小、所用带宽及传输功率,d0为单位距离,g0为信道增益,σ2为噪声功率;
由于存在多个用户进行任务传输,将总优化目标定义为:
Figure BDA0003410355250000082
T为所有任务的加权时延和;对于动态网络模型,由于选用不同超参数K的分配模型具有不同的运算时延和分配效果,因此使用知识驱动的方式来获取最优模型;在不同情形下对K值进行遍历训练得到若干个不同宽度的动态网络模型,通过比较模型性能,建立部署环境与最优推理模型的知识库,选出总加权时延最低者作为最终的分配模型,并利用该模型得到分配方案。
本实施例中,在步骤四中,对于给定K值的分配模型,将训练所用的损失函数设置为:
Figure BDA0003410355250000091
构建关于部署环境与最优推理模型知识库的具体步骤为:
①获取该部署环境下的用户任务特性以及服务器相关信息;
②在范围{1~N}中随机取值作为分配模型的K值,N为专家模块MoE层中专家模块的总数,并保证每次选取的K值与之前均不同;
③根据已知任务信息和损失函数,利用反向传播算法对分配模型的参数θ进行迭代优化;
④重复②~③步,直至所有不同K值的模型均完成训练,并分别根据不同推理模型输出的分配方案,计算相应时延和T,从中选取T值最小者作为该部署情形下的最优模型存入知识库;
⑤重复上述步骤,直至遍历全部所考虑的部署环境。
本实施例中,在步骤五中,首先根据已知用户和服务器信息从知识库中选择最优分配模型,而后利用该模型得到资源分配方案,实现低时延多任务传输,如图4所示。
技术效果:该按需动态调整的无线通信网络资源分配算法,提出了一个多用户网络资源分配问题,其中每个用户生成的任务都具有不同的重要性,用于决策的神经网络可以根据任务的特点和服务器的计算能力动态调整网络宽度,并在综合考虑推理时延和传输时延的情况下给出最优解;具体来说,将带宽分配问题分为两个阶段:首先,根据任务特征和用户计算能力确定决策网络的最佳宽度;然后,将任务特征输入最优决策网络,得到最优带宽分配方案。工作原理:在6G无线通信网络中,按需服务是一个关键但具有挑战性的问题,因为新兴服务需求具有显著的多样性,并且网络资源变得越来越动态。通过研究按需无线网络资源分配问题,并且重点研究了资源分配过程中的计算时延问题。具体地说,将决策时延考虑到优化问题中,然后,提出了该按需动态调整的无线通信网络资源分配算法,其中模型计算复杂度可以根据服务需求进行调整。进一步构建了一个知识库,表示服务需求、可用计算资源和资源分配性能之间的关系。通过利用这些知识,选择合适的动态神经网络宽度,进一步优化资源分配的效果。如图5和图6所示,Static net为没用门控网络的传统静态神经网络;dynn为固定K值的动态神经网络;knoelwdge-dynn为本申请算法,仿真结果表明,该算法明显优于传统的静态神经网络,显著降低了时延(包括推理时延和传输时延),并且在按需提供服务方面具有更高的灵活性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.一种按需动态调整的无线通信网络资源分配算法,其特征在于:具体包括以下步骤:
步骤一:对无线通信网络的任务的特征进行量化描述,并表示为固定维度的输入向量
Figure FDA0003410355240000011
步骤二:构造基于可变宽度的动态神经网络的高可靠低延迟资源分配模型;
步骤三:针对所述情形,给出优化目标和知识驱动的解决方案;
步骤四:建立关于部署环境与最优推理模型的知识库;
步骤五:从知识库中获取最优模型,得到资源分配方案。
2.如权利要求1所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:步骤一中按照任务数据量、任务传输距离和任务重要性三种因素将任务特征进行量化;
其中,任务数据量以Kb为单位,表示为s;任务传输距离以m为单位,表示为d;任务重要性为该任务的紧迫程度,采用四个不同的等级进行量化为w∈[0.8,0.4,0.2,0.1],整合三种因素将任务特征描述为
Figure FDA0003410355240000012
3.如权利要求1所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:步骤二中可变宽度的动态神经网络,将其作为多任务传输情形下的带宽分配模型,针对不同的任务特征输入
Figure FDA0003410355240000013
分别输出带宽分配向量
Figure FDA0003410355240000014
和功率分配向量
Figure FDA0003410355240000015
4.如权利要求3所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:所述带宽分配模型由输入网络、输出网络和若干个级联的多专家层(MoE)组成,每个MoE层根据不同的输入和超参数K控制其参与运算的专家(Expert)模块数量。
5.如权利要求4所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:所述MoE层由输入子层、门函数网络、N个并行的专家模块和输出子层构成;为了充分利用各个负载模块,同时节省计算资源,设定门函数网络的输入输出映射函数如下:
G(X)=RemainK(H(x),k)
H(X)=X·Wg+Normal·Softplus(X·Wnoise)
上述式中,第一项为输入X与权重矩阵Wg相乘,表示不同输入对专家模块选择的特异性,第二项为噪声项,由标准正太白噪声Normal与噪声系数Softplus(X·Wnoise)相乘得到,Wnoise为噪声矩阵,噪声项用来均衡各专家模块的权重,RemainK函数为稀疏化函数,根据给定的超参数K,保留自变量中最大的K个值,并将其余值置为-∞,由于门函数网络输出与Softmax层相连,故最终只保留K个有效值(非零),其余值均为0;构造额外的损失项Lblance,其表达式如下:
Figure FDA0003410355240000021
其中,wblance为预先设定的损失系数,CV为变异系数,表示不同专家模块权重值的离散程度;所有专家模块具有相同的结构,均由两层带有激活函数的线性层级联构成,第一层线性层使用ReLU函数作为激活函数,第二层线性层使用LogSoftmax函数作为激活函数。
6.如权利要求1所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:在步骤三中:由于服务器在不同情形下的运算能力不同,采用CPU频率对其进行量化,表示为f,对于用户i,将其生成的任务表示为Oi,完成一次任务传输的总时延包括服务器进行带宽分配的运算时间和传输过程所用时间,考虑到任务重要性,将时延进行加权,表示为:
Ti=wi(Tcom+Ttra,i)
其中,Ti为任务Oi的总加权时延,Tcom为服务器运算时延,Ttra,i为传输时延,wi为任务Oi的重要性;
Tcom和Ttra,i的运算公式分别为:
Figure FDA0003410355240000031
其中n为所用专家模块的数量,φ=||θ1||||θ2||为一个专家模块的计算复杂度,||θ1||、||θ2||分别为第一和第二线性层的参数量,α为CPU计算效率因子,si、bi、Pi分别为任务Oi的大小、所用带宽及传输功率,d0为单位距离,g0为信道增益,σ2为噪声功率;
将总优化目标定义为:
Figure FDA0003410355240000032
T为所有任务的加权时延和;对于动态网络模型,由于选用不同超参数K的分配模型具有不同的运算时延和分配效果,因此使用知识驱动的方式来获取最优模型;在不同情形下遍历所有K值,训练得到若干个不同宽度的动态网络模型,通过比较各模型性能,建立部署环境与最优推理模型的知识库,选出总加权时延最低者作为最终的分配模型,并利用该模型得到分配方案。
7.如权利要求6所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:在步骤四中,对于给定K值的分配模型,将训练所用的损失函数设置为:
Figure FDA0003410355240000033
构建关于部署环境与最优推理模型知识库的具体步骤为:
①获取该部署环境下的用户任务特性以及服务器相关信息;
②在范围{1~N}中随机取值作为分配模型的K值,N为专家模块MoE层中专家模块的总数,并保证每次选取的K值与之前均不同;
③根据已知任务信息和损失函数,利用反向传播算法对分配模型的参数θ进行迭代优化;
④重复②~③步,直至所有不同K值的模型均完成训练,并分别根据不同推理模型输出的分配方案,计算相应时延和T,从中选取T值最小者作为该部署情形下的最优模型存入知识库;
⑤重复上述步骤,直至遍历全部所考虑的部署环境。
8.如权利要求7所述的一种按需动态调整的无线通信网络资源分配算法,其特征在于:在步骤五中,首先根据已知用户和服务器信息从知识库中选择最优分配模型,而后利用该模型得到资源分配方案,实现低时延多任务传输。
CN202111530124.7A 2021-12-14 2021-12-14 一种按需动态调整的无线通信网络资源分配算法 Pending CN114219074A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111530124.7A CN114219074A (zh) 2021-12-14 2021-12-14 一种按需动态调整的无线通信网络资源分配算法
US17/857,114 US20230189075A1 (en) 2021-12-14 2022-07-04 Wireless communication network resource allocation method with dynamic adjustment on demand

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111530124.7A CN114219074A (zh) 2021-12-14 2021-12-14 一种按需动态调整的无线通信网络资源分配算法

Publications (1)

Publication Number Publication Date
CN114219074A true CN114219074A (zh) 2022-03-22

Family

ID=80701998

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111530124.7A Pending CN114219074A (zh) 2021-12-14 2021-12-14 一种按需动态调整的无线通信网络资源分配算法

Country Status (2)

Country Link
US (1) US20230189075A1 (zh)
CN (1) CN114219074A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117938766A (zh) * 2024-03-25 2024-04-26 中国电子科技集团公司第五十四研究所 一种受限网络下的数据资源分级传输方法
CN117938766B (zh) * 2024-03-25 2024-06-04 中国电子科技集团公司第五十四研究所 一种受限网络下的数据资源分级传输方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117596122B (zh) * 2024-01-17 2024-04-09 北京交通大学 一种通算融合网络架构及资源适配方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117938766A (zh) * 2024-03-25 2024-04-26 中国电子科技集团公司第五十四研究所 一种受限网络下的数据资源分级传输方法
CN117938766B (zh) * 2024-03-25 2024-06-04 中国电子科技集团公司第五十四研究所 一种受限网络下的数据资源分级传输方法

Also Published As

Publication number Publication date
US20230189075A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
CN109684075B (zh) 一种基于边缘计算和云计算协同进行计算任务卸载的方法
CN111800828B (zh) 一种超密集网络的移动边缘计算资源分配方法
CN110971706B (zh) Mec中近似最优化与基于强化学习的任务卸载方法
CN111586720B (zh) 一种多小区场景下的任务卸载和资源分配的联合优化方法
CN111586696B (zh) 一种基于多智能体架构强化学习的资源分配及卸载决策方法
Li et al. Deep reinforcement learning: Framework, applications, and embedded implementations
Asheralieva et al. Learning-based mobile edge computing resource management to support public blockchain networks
Zhang et al. Distributed multi-cloud multi-access edge computing by multi-agent reinforcement learning
CN110856259A (zh) 移动边缘计算环境中自适应数据块大小的资源分配和卸载方法
CN111813539A (zh) 一种基于优先级与协作的边缘计算资源分配方法
Cheng et al. Efficient resource allocation for NOMA-MEC system in ultra-dense network: A mean field game approach
CN113573363A (zh) 基于深度强化学习的mec计算卸载与资源分配方法
CN114564304A (zh) 一种边缘计算的任务卸载方法
Lan et al. Deep reinforcement learning for computation offloading and caching in fog-based vehicular networks
CN113590279A (zh) 一种面向多核边缘计算服务器的任务调度和资源分配方法
Asheralieva et al. Optimizing age of information and security of the next-generation internet of everything systems
Zhang et al. A deep reinforcement learning approach for online computation offloading in mobile edge computing
Ma et al. On-demand resource management for 6g wireless networks using knowledge-assisted dynamic neural networks
CN116089091A (zh) 基于物联网边缘计算的资源分配和任务卸载方法
Hu et al. Deep reinforcement learning for task offloading in edge computing assisted power IoT
Van Truong et al. System performance and optimization in NOMA mobile edge computing surveillance network using GA and PSO
CN114219074A (zh) 一种按需动态调整的无线通信网络资源分配算法
Cui et al. Multi-Agent Reinforcement Learning Based Cooperative Multitype Task Offloading Strategy for Internet of Vehicles in B5G/6G Network
He et al. Computation offloading and resource allocation based on DT-MEC-assisted federated learning framework
CN113821346A (zh) 基于深度强化学习的边缘计算中计算卸载与资源管理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination