CN111491312B - 无线资源预测分配、获取、训练神经网络的方法及设备 - Google Patents
无线资源预测分配、获取、训练神经网络的方法及设备 Download PDFInfo
- Publication number
- CN111491312B CN111491312B CN201910082623.0A CN201910082623A CN111491312B CN 111491312 B CN111491312 B CN 111491312B CN 201910082623 A CN201910082623 A CN 201910082623A CN 111491312 B CN111491312 B CN 111491312B
- Authority
- CN
- China
- Prior art keywords
- network
- sub
- base station
- user
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/50—Allocation or scheduling criteria for wireless resources
- H04W72/53—Allocation or scheduling criteria for wireless resources based on regulatory allocation policies
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本公开提供了一种无线资源预测分配、获取、训练神经网络的方法及设备,属于无线通信技术领域。无线资源预测分配方法,包括:获取第一业务请求;经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;利用分配的资源进行数据传输。通过本公开的技术方案,能够优化传输资源分配方案,达到提升用户体验、提升系统吞吐量、提升能效等目的。
Description
技术领域
本公开涉及无线通信技术领域,特别是指一种无线资源预测分配、获取、训练神经网络的方法及设备。
背景技术
预测资源分配是基于可预测的未来信息,对请求具有较高延时容忍度的非实时业务(例如文件下载、视频点播)的用户分配传输资源,达到提升用户体验、提升系统吞吐量、提升能效等目的。
发明内容
本公开要解决的技术问题是提供一种无线资源预测分配、获取、训练神经网络的方法及设备,能够优化传输资源分配方案,达到提升用户体验、提升系统吞吐量、提升能效等目的。
为解决上述技术问题,本公开的实施例提供技术方案如下:
本公开的至少一个示例提供了一种无线资源预测分配方法,包括:
获取第一业务请求;
经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用分配的资源进行数据传输。
本公开的至少一个示例提供了一种无线资源获取方法,包括:
向基站发送第一业务请求;
获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用所述分配的资源进行数据传输。
本公开的至少一个示例提供了一种训练神经网络的方法,包括:
获取观测数据,其中,所述观测数据包括信道增益、驻留时间、流量负载和业务请求数;
将所述观测数据输入神经网络;
通过反向传播训练所述神经网络以输出资源预测数据,其中,所述资源预测数据用于指示预测窗内的无线资源状况。
本公开的至少一个示例提供了一种无线资源预测分配设备,包括:
处理器;以及
存储器,配置为存储计算机程序指令,所述计算机程序指令适于由所述处理器加载并执行如上所述的无线资源预测分配方法。
本公开的至少一个示例提供了一种终端,包括:
处理器和收发器,
其中,所述收发器,用于向基站发送第一业务请求;获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;利用所述分配的资源进行数据传输。
本公开的至少一个示例提供了一种训练神经网络的设备,包括:
处理器;以及
存储器,配置为存储计算机程序指令,所述计算机程序指令适于由所述处理器加载并执行如上所述的训练神经网络的方法。
本公开的至少一个示例提供了一种计算机可读的非易失性存储介质,存储计算机程序指令,当所述计算机执行所述程序指令时,执行如上任一项所述的无线资源预测分配方法;或如上所述的无线资源获取方法;或如上所述的训练神经网络的方法。
本公开的实施例具有以下有益效果:
上述方案中,获取第一业务请求;经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;利用分配的资源进行数据传输。本公开能够基于网络中可实测的历史数据,直接输出与预测资源分配相关的预测数据。相对于现有技术,不需要假设预测数据已知,不需要先预测各项信息再把预测的各项信息转化为资源分配所需要的知识,进行预测时历史数据的采样分辨率可以尺度不同、可以很粗略;降低了系统的计算和缓存复杂度,易于实现。本公开基于网络中可观测的几类历史数据对进行资源规划所需要的信息进行预测,然后利用预测数据给网络中的非实时用户进行多时间尺度的传输资源分配,可充分利用服务优先级较高的实时用户后各基站的剩余传输资源,提升包括视频点播、文件下载的等非实时用户的体验,或在保证非实时用户服务体验的前提下大大提高网络的吞吐量或者大大降低网络的能耗。
附图说明
图1为本公开实施例无线资源预测分配设备的结构示意图;
图2为本公开实施例终端的结构示意图;
图3为本公开实施例训练神经网络的设备的结构示意图;
图4为本公开实施例深度神经网络训练方法的流程示意图;
图5为本公开实施例无线资源获取方法的流程示意图;
图6为本公开实施例训练神经网络的方法的流程示意图;
图7为DNN的设计图。
具体实施方式
为使本公开的实施例要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
假设网络中各个请求非实时业务的用户在未来一段预测窗内的瞬时或者平均信道增益、或者平均数据率、或者各个基站的平均剩余带宽可以被准确预测,通过利用预测数据率建模优化问题(凸优化、线性规划等)并求解,得到给各用户的预测资源规划,该规划决定了在预测窗内各基站在何时给哪一用户分配多少资源。通过按照规划传输,达到提升用户体验、系统吞吐量、网络能效等目的。
现有技术方案存在以下缺点:(1)在已有方案中,假设各用户在预测窗内秒级/毫秒级的信道、残余带宽或可达数据率可以被准确预测,而现有预测方法均不能在秒级时间粒度上预测该信息;(2)在已有方案中,需要建模优化问题并求解。所假设的模型并不符合实际情况,且当需要进行资源规划的用户数较多或预测窗较长时,求解优化问题可能具有很高的时间/空间复杂度,且性能提升并不明显。
为了解决上述问题,本公开实施例提供一种无线资源预测分配、获取、训练神经网络的方法及设备,能够优化传输资源分配方案,达到提升用户体验、提升系统吞吐量、提升能效等目的。
本公开实施例提供了一种无线资源预测分配设备,如图1所示,包括:
处理器11;以及
存储器12,配置为存储计算机程序指令,所述计算机程序指令适于由所述处理器加载并执行以下步骤:
获取第一业务请求;
经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用分配的资源进行数据传输。
进一步地,所述已训练神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,经由已训练神经网络输出的资源预测数据包括;
子网络1的输出为用户将要接入的基站;
子网络2的输出为用户的信道增益门限
子网络3的输出为基站的平均剩余带宽
子网络4的输出为基站的剩余带宽门限
进一步地,所述计算机程序指令适于由所述处理器加载并执行以下步骤:经由已训练神经网络输出的资源预测数据和预设的资源分配规则,对所述第一业务请求进行资源分配。
进一步地,所述计算机程序指令适于由所述处理器加载并执行以下步骤:在第一用户满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg的情况下,为所述第一用户分配传输资源;
在第二用户不满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg、且满足和/>的情况下,为第二用户分配多于所述第一用户的传输资源,其中,/>为第j帧时,用户k与其接入的基站之间的平均信道增益,为基站的平均剩余带宽,/>为基站的剩余带宽门限。
进一步地,所述计算机程序指令适于由所述处理器加载并执行以下步骤:获取视频传输业务请求。
本公开实施例还提供了一种终端,如图2所示,包括:
处理器21和收发器22,
其中,所述收发器22,用于向基站发送第一业务请求;获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;利用所述分配的资源进行数据传输。
本公开实施例还提供了一种训练神经网络的设备,如图3所示,包括:
处理器31;以及
存储器32,配置为存储计算机程序指令,所述计算机程序指令适于由所述处理器加载并执行以下步骤:获取观测数据,其中,所述观测数据包括信道增益、驻留时间、流量负载和业务请求数;
将所述观测数据输入神经网络;
通过反向传播训练所述神经网络以输出资源预测数据,其中,所述资源预测数据用于指示预测窗内的无线资源状况。
进一步地,所述神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,每一所述子网络的输入为所述观测数据,每一所述子网络的输出为所述资源预测数据;
子网络1的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络1的输出为用户k即将接入的基站;
子网络2的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络2的输出为用户k的信道增益门限
子网络3的输入为基站m的实时业务流量负载;
子网络3的输出为基站m的平均剩余带宽
子网络4的输入为用户k的视频点播业务请求数和用户在第m个小区内的平均驻留时间;
子网络4的输出为基站m的剩余带宽门限
本公开实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取第一业务请求;
经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用分配的资源进行数据传输。
进一步地,所述已训练神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,经由已训练神经网络输出的资源预测数据包括;
子网络1的输出为用户将要接入的基站;
子网络2的输出为用户的信道增益门限
子网络3的输出为基站的平均剩余带宽
子网络4的输出为基站的剩余带宽门限
进一步地,所述计算机程序被处理器执行时实现以下步骤:
经由已训练神经网络输出的资源预测数据和预设的资源分配规则,对所述第一业务请求进行资源分配。
进一步地,所述计算机程序被处理器执行时实现以下步骤:在第一用户满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg的情况下,为所述第一用户分配传输资源;
在第二用户不满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg、且满足和/>的情况下,为第二用户分配多于所述第一用户的传输资源,其中,/>为第j帧时,用户k与其接入的基站之间的平均信道增益,为基站的平均剩余带宽,/>为基站的剩余带宽门限。
进一步地,所述计算机程序被处理器执行时实现以下步骤:获取视频传输业务请求。
进一步地,所述计算机程序被处理器执行时实现以下步骤:向基站发送第一业务请求;
获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用所述分配的资源进行数据传输。
进一步地,所述计算机程序被处理器执行时实现以下步骤:
获取观测数据,其中,所述观测数据包括信道增益、驻留时间、流量负载和业务请求数;
将所述观测数据输入神经网络;
通过反向传播训练所述神经网络以输出资源预测数据,其中,所述资源预测数据用于指示预测窗内的无线资源状况。
进一步地,所述神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,每一所述子网络的输入为所述观测数据,每一所述子网络的输出为所述资源预测数据;
子网络1的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络1的输出为用户k即将接入的基站;
子网络2的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络2的输出为用户k的信道增益门限
子网络3的输入为基站m的实时业务流量负载;
子网络3的输出为基站m的平均剩余带宽
子网络4的输入为用户k的视频点播业务请求数和用户在第m个小区内的平均驻留时间;
子网络4的输出为基站m的剩余带宽门限
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的模块(例如过程、函数等)来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本公开实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本公开实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开实施例是参照根据本公开实施例的方法、用户设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理用户设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理用户设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理用户设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理用户设备上,使得在计算机或其他可编程用户设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程用户设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本公开的实施例还提供一种深度神经网络训练方法,如图4所示,本公开包括:
步骤101:获取第一业务请求;
步骤102:经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
步骤103:利用分配的资源进行数据传输。
本公开中,获取第一业务请求;经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;利用分配的资源进行数据传输。本公开能够基于网络中可实测的历史数据,直接输出与预测资源分配相关的预测数据。相对于现有技术,不需要假设预测数据已知,不需要先预测各项信息再把预测的各项信息转化为资源分配所需要的知识,进行预测时历史数据的采样分辨率可以尺度不同、可以很粗略;降低了系统的计算和缓存复杂度,易于实现。本公开基于网络中可观测的几类历史数据对进行资源规划所需要的信息进行预测,然后利用预测数据给网络中的非实时用户进行多时间尺度的传输资源分配,可充分利用服务优先级较高的实时用户后各基站的剩余传输资源,提升包括视频点播、文件下载的等非实时用户的体验,或在保证非实时用户服务体验的前提下大大提高网络的吞吐量或者大大降低网络的能耗。
进一步地,所述已训练神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,经由已训练神经网络输出的资源预测数据包括;
子网络1的输出为用户将要接入的基站;
子网络2的输出为用户的信道增益门限
子网络3的输出为基站的平均剩余带宽
子网络4的输出为基站的剩余带宽门限
进一步地,经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配包括:
经由已训练神经网络输出的资源预测数据和预设的资源分配规则,对所述第一业务请求进行资源分配。
进一步地,所述经由已训练神经网络输出的资源预测数据和预设的资源分配规则,对所述第一业务请求进行资源分配包括:
在第一用户满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg的情况下,为所述第一用户分配传输资源;
在第二用户不满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg、且满足和/>的情况下,为第二用户分配多于所述第一用户的传输资源,其中,/>为第j帧时,用户k与其接入的基站之间的平均信道增益,为基站的平均剩余带宽,/>为基站的剩
余带宽门限。
进一步地,获取第一业务请求包括:
获取视频传输业务请求。
本公开实施例还提供了一种无线资源获取方法,如图5所示,包括:
步骤201:向基站发送第一业务请求;
步骤202:获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
步骤203:利用所述分配的资源进行数据传输。
其中,该无线资源预测分配方法应用于终端。
本公开实施例还提供了一种训练神经网络的方法,如图6所示,包括:
步骤301:获取观测数据,其中,所述观测数据包括信道增益、驻留时间、流量负载和业务请求数;
步骤302:将所述观测数据输入神经网络;
步骤303:通过反向传播训练所述神经网络以输出资源预测数据,其中,所述资源预测数据用于指示预测窗内的无线资源状况。
进一步地,所述神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,每一所述子网络的输入为所述观测数据,每一所述子网络的输出为所述资源预测数据;
子网络1的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络1的输出为用户k即将接入的基站;
子网络2的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络2的输出为用户k的信道增益门限
子网络3的输入为基站m的实时业务流量负载;
子网络3的输出为基站m的平均剩余带宽
子网络4的输入为用户k的视频点播业务请求数和用户在第m个小区内的平均驻留时间;
子网络4的输出为基站m的剩余带宽门限
下面结合附图以及具体的实施例对本公开的技术方案进行进一步介绍:
深度学习是机器学习中一种基于数据进行表征学习的方法。通过对具有较多层数的神经网络进行训练,从而达到对数据分类、拟合或聚类的目的。
本公开为一种基于深度学习的预测资源分配方法。在一个具有Nb个小区的系统中,每个小区中设有一个基站,各基站均与中央单元相连。中央单元每隔一段时间记录或从基站和用户处获取观测数据。当非实时用户发起视频点播业务请求时,中央单元能够基于历史一段观测窗内的观测数据,利用深度神经网络(Deep Neural Network,DNN)对用户未来一段预测窗内所处信道及基站的剩余资源等信息进行预测,并将这些信息通知给相关基站,基站利用预测数据为用户在未来一段预测窗内做出资源分配并进行传输。预测窗分为Tp个帧,每一帧的时间长度为D秒。每一帧分为多个时隙,资源分配与传输以时隙为单元进行。
定义为第j帧时,用户k与基站m之间的平均信道增益。在每一帧内,各用户仅接入平均信道增益最大的基站。/>为第j帧时,用户k与其接入的基站之间的平均信道增益。
中央单元每隔一段时间获取一次观测数据。其中,观测数据包括:
非实时用户与相距最近的M个基站之间的平均信道增益;
非实时用户在各小区内的平均驻留时间;
各基站实时业务流量负载;
各基站视频点播业务请求数。
首先对用于进行资源分配的算法进行介绍。这一算法的基本思想如下:为了在保证用户QoS(服务质量)的前提下提升系统吞吐量,基站应该给处于较好信道的用户传输更多资源;为了减少用户的播放中断时间,基站应给即将接入繁忙基站的用户传输更多资源。
基于以上思想,中央单元需在预测窗开始时预测以下信息:(1)各发起视频点播业务用户(以用户k为例)的门限用于判断在预测窗内每一帧中,用户的平均信道增益是否较高;(2)用户k在预测窗内即将接入的基站;(3)网络中各基站(以基站m为例)的门限用于判断在预测窗内基站的平均剩余带宽是否较高,即具有较轻的流量负载。(4)网络中各基站(以基站m为例)在预测窗内的平均剩余带宽/>
和/>由以下公式得到:
其中,med(·)为求取中位数,为基站m在预测窗内的VoD(视频点播)业务请求平均到达率;/>为非实时用户在小区m内的平均驻留时间;Bseg为一个视频片段的数据量大小;为用户与基站之间的平均距离;Nt为天线数;/>为噪声功率,bm为基站m的路径损耗指数,Pmax为各基站最大发射功率,Tseg为视频片段的播放时间。
为在第m个小区中用户的平均数量,Bseg/Tseg是为了保证用户播放不中断,基站需在每一帧至少给用户传输的比特数;/>为由基站配置得到的平均SNR(信噪比)。因此,计算得到的/>为为了保证系统中各用户播放不中断所需的带宽大小。
在用户发起视频传输业务请求时,预测窗开始。通过设计DNN,其输入为预测窗开始以前的观测数据,输出为进行资源规划时所需要的预测数据。
DNN的设计图如图7所示,包括4个子网络。每个子网络为一个L层的全连接神经网络。各子网络的输入与输出如图7所示。本公开中设计的DNN,通过分析输入与输出之间的相关性,将DNN分成四个子网络,分别对用户和基站的未来信息预测进行模型学习,相对于全连接的网络去掉了不相关输入与输出之间的连接,训练效率更高。
本公开的无线资源预测分配方法包括以下步骤:
步骤一:训练DNN
生成训练样本:一个训练样本包含输入与期望输出。
生成输入:在某一帧Ji,中央单元随机选取一个典型用户(例如用户k)和一个典型基站(例如基站m)。训练样本的输入为该帧前一段观测窗内的观测数据,包括:
1、用户k与相距最近的M个基站之间的平均信道增益,记录分辨率为秒级(例如10秒记录一次);
2、用户在第m个小区内的平均驻留时间,记录分辨率为分钟级(例如15分钟记录一次);
3、基站m的实时业务流量负载,记录分辨率为分钟级(例如15分钟记录一次);
4、基站m的视频点播业务请求数,记录分辨率为分钟级(例如15分钟记录一次)。
生成期望输出:在从第Ji帧开始的Tp帧(即预测窗)内,中央单元记录以下历史数据:(1)用户k即将接入的基站;(2)用户k每一帧的平均信道增益,并计算其中位数为(3)基站m在每一帧内的VoD业务到达数,并计算其均值/>(4)小区m内用户的平均驻留时间/>并使用公式(2)计算/>然后,将以上记录信息组成DNN的输出。
通过在一段时间内随机选取多个时刻Ji并生成训练样本,可得到一组包含N个训练样本的训练集,定义为其中x(n)和y(n)分别为第n个样本的输入与期望输出。
采用反向传播方法训练DNN,使DNN的输出尽可能接近期望输出。基于网络中可实观测的数据离线训练DNN。其中,训练无需经常进行。
步骤二:在预测窗开始时,对于网络中各非实时用户和各基站,将观测窗内历史数据输入DNN,包括用户的平均信道增益,基站的视频点播请求数、平均驻留时间数据和实时业务流量,DNN输出在预测窗内的预测数据,包括用户在预测窗内即将接入的多个基站及信道增益门限、基站的剩余带宽门限和平均剩余带宽。
具体地,在无线网络中,当用户对视频点播业务发起请求时(例如第Ji帧),对发起请求的各用户(例如用户k),中央单元收集用户k的平均信道增益观测数据。将其输入子网络1与子网络2,可得到用户k在预测窗内即将接入的基站及信道增益门限同时,中央单元根据各个基站的观测数据,包括实时业务的流量、视频点播的请求数和非实时用户的平均驻留时间数据,将各基站实时业务的流量数据顺序输入子网络3,将各基站视频点播的请求数和非实时用户的平均驻留时间数据顺序输入子网络4,则DNN可输出各基站在预测窗内平均剩余带宽/>和剩余带宽的门限/>
步骤三:中央单元将以上预测数据通知给各个基站,各基站对当前时隙内处在其覆盖范围内的非实时用户,在预测窗的每一帧(例如第j帧)内给各用户进行预测资源分配,分为以下两步:(1)给用户分配资源,使各用户缓存中至少有一个视频片段;(2)若在第一步完成后该帧内仍有剩余资源,则给满足平均信道增益大于信道门限且用户即将进入的基站的平均残余带宽小于带宽门限的用户分配更多资源。
具体步骤如下。
步骤a:用户k向基站m反馈自己视频播放缓冲区内的数据量Dk。
步骤b:在第j帧中每一时隙(例如第t个时隙)开始时,基站m估计用户k在当前时隙的瞬时数据率
步骤c:在第t个时隙内,判断小区中是否有用户满足缓存内的数据量Dk<Bseg,如果是,则为满足该条件的用户传输资源,否则,进入步骤d;
步骤d:基站选择满足以下条件的用户:为用户传输更多资源。
蜂窝网络中有大量的信令、用户数据和辅助信息,但是由于数据繁杂、且具有不同的时空尺度,如何利用无线大数据、利用哪些数据、面向哪类业务、采用什么机制、提升哪些性能还少有研究。本公开利用网络中的原始数据中隐含的用户行为不同类型特征来进行主动无线资源管理,提出基于深度学习的端到端知识预测进行无线资源分配。与现有不利用用户行为、只利用实时信道的被动资源管理不同,本公开基于网络中可观测的几类历史数据对进行资源规划所需要的信息进行预测,然后利用预测数据给网络中的非实时用户进行多时间尺度的传输资源分配,可充分利用服务优先级较高的实时用户后各基站的剩余传输资源,提升包括视频点播、文件下载的等非实时用户的体验,或在保证非实时用户服务体验的前提下大大提高网络的吞吐量或者大大降低网络的能耗。
本公开为一种基于粗略的、不同时间尺度和用户群体粒度的用户行为信息对无线传输资源进行提前分配的方法,与现有技术相比,利用在时间和空间粒度都很粗略的用户行为预测数据,为网络中请求非实时业务(或弹性业务、延时不敏感业务)的各个用户进行多时间尺度的资源管理。
本公开的方法根据蜂窝网络中不同节点可测量的数据和获取的信息,在计算能力强、覆盖范围大的中央单元集中式制定规则,在各基站分布式进行决策。通过在中央单元根据所管控的多个小区中观测的全局信息为基站决策制定规则、在各个基站根据本地估计的信息决定短期如何分配平均资源、并在基站进行实时传输,大大减小了中央单元与基站间的信令开销,可以充分利用网络的动态性和用户的移动性,大范围利用网络中的残余资源。
本公开提出端到端的信息预测,直接基于蜂窝网络中可观测的原始历史数据学习预测资源规划所需要的未来信息,无需多个模块分别预测用户的不同类型的行为特征、无需路测建立信号地图、无需把预测数据转换为决策所需的知识、从而降低了系统实现和计算复杂度,易于实现;无需GPS数据、从而避免了用户隐私问题。
本公开的信息预测可以针对给定的区域进行离线训练,具有很好的泛化能力,对该区域内多个小区的网络负载时空动态变化、用户的移动性和传播环境具有鲁棒性;所提出的端到端预测针对典型基站、典型用户,从而可以大大降低离线训练的复杂度。
尽管已描述了本公开实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本公开实施例范围的所有变更和修改。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者用户设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者用户设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者用户设备中还存在另外的相同要素。
以上所述的是本公开的优选实施方式,应当指出对于本技术领域的普通人员来说,在不脱离本公开所述的原理前提下还可以作出若干改进和润饰,这些改进和润饰也在本公开的保护范围内。
Claims (10)
1.一种无线资源预测分配方法,包括:
获取第一业务请求;
经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用分配的资源进行数据传输;
所述已训练神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,经由已训练神经网络输出的资源预测数据包括;
子网络1的输出为用户k将要接入的基站;
子网络2的输出为用户k的信道增益门限
子网络3的输出为基站m的平均剩余带宽
子网络4的输出为基站m的剩余带宽门限
2.根据权利要求1所述的无线资源预测分配方法,其中,经由已训练神经网络输出的资源预测数据,对所述第一业务请求进行资源分配包括:
经由已训练神经网络输出的资源预测数据和预设的资源分配规则,对所述第一业务请求进行资源分配。
3.根据权利要求2所述的无线资源预测分配方法,其中,所述经由已训练神经网络输出的资源预测数据和预设的资源分配规则,对所述第一业务请求进行资源分配包括:
在第一用户满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg的情况下,为所述第一用户分配传输资源;
在第二用户不满足视频播放缓冲区内的数据量Dk小于一个视频片段的数据量大小Bseg、且满足和/>的情况下,为第二用户分配多于所述第一用户的传输资源,其中,/>为第j帧时,用户k与其接入的基站nk之间的平均信道增益,/> 为基站nk的平均剩余带宽,/>为基站nk的剩余带宽门限。
4.根据权利要求1所述的无线资源预测分配方法,其中,获取第一业务请求包括:
获取视频传输业务请求。
5.一种无线资源获取方法,包括:
向基站发送第一业务请求;
获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
利用所述分配的资源进行数据传输;
所述已训练神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,经由已训练神经网络输出的资源预测数据包括;
子网络1的输出为用户k将要接入的基站;
子网络2的输出为用户k的信道增益门限
子网络3的输出为基站m的平均剩余带宽
子网络4的输出为基站m的剩余带宽门限
6.一种训练神经网络的方法,包括:
获取观测数据,其中,所述观测数据包括信道增益、驻留时间、流量负载和业务请求数;
将所述观测数据输入神经网络;
通过反向传播训练所述神经网络以输出资源预测数据,其中,所述资源预测数据用于指示预测窗内的无线资源状况;
所述神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,每一所述子网络的输入为所述观测数据,每一所述子网络的输出为所述资源预测数据;
子网络1的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络1的输出为用户k即将接入的基站;
子网络2的输入为用户k与相距最近的M个基站之间的平均信道增益;
子网络2的输出为用户k的信道增益门限
子网络3的输入为基站m的实时业务流量负载;
子网络3的输出为基站m的平均剩余带宽
子网络4的输入为用户k的视频点播业务请求数和用户k在第m个小区内的平均驻留时间;
子网络4的输出为基站m的剩余带宽门限
7.一种无线资源预测分配设备,包括:
处理器;以及
存储器,配置为存储计算机程序指令,所述计算机程序指令适于由所述处理器加载并执行如权利要求1-4中任一项所述的无线资源预测分配方法。
8.一种终端,包括:
处理器和收发器,
其中,所述收发器,用于向基站发送第一业务请求;获取基站为所述第一业务请求分配的资源,其中,所述分配的资源为所述基站经由已训练神经网络输出的资源预测数据而分配的,其中,所述资源预测数据用于指示预测窗内的无线资源状况;利用所述分配的资源进行数据传输;
所述已训练神经网络包括子网络1、子网络2、子网络3和子网络4,每个子网络为一个L层的全连接神经网络,经由已训练神经网络输出的资源预测数据包括;
子网络1的输出为用户k将要接入的基站;
子网络2的输出为用户k的信道增益门限
子网络3的输出为基站m的平均剩余带宽
子网络4的输出为基站m的剩余带宽门限
9.一种训练神经网络的设备,包括:
处理器;以及
存储器,配置为存储计算机程序指令,所述计算机程序指令适于由所述处理器加载并执行如权利要求6所述的训练神经网络的方法。
10.一种计算机可读的非易失性存储介质,存储计算机程序指令,当所述计算机执行所述程序指令时,执行如权利要求1-4中任一项所述的无线资源预测分配方法;或如权利要求5所述的无线资源获取方法;或如权利要求6所述的训练神经网络的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910082623.0A CN111491312B (zh) | 2019-01-28 | 2019-01-28 | 无线资源预测分配、获取、训练神经网络的方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910082623.0A CN111491312B (zh) | 2019-01-28 | 2019-01-28 | 无线资源预测分配、获取、训练神经网络的方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111491312A CN111491312A (zh) | 2020-08-04 |
CN111491312B true CN111491312B (zh) | 2023-07-25 |
Family
ID=71813581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910082623.0A Active CN111491312B (zh) | 2019-01-28 | 2019-01-28 | 无线资源预测分配、获取、训练神经网络的方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111491312B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114390710A (zh) * | 2020-10-19 | 2022-04-22 | 中国移动通信有限公司研究院 | 无线资源调度方法、主动资源调度模型的训练方法及装置 |
CN112367708B (zh) * | 2020-10-30 | 2023-05-26 | 新华三技术有限公司 | 一种网络资源分配方法及装置 |
CN112738851B (zh) * | 2020-12-16 | 2022-05-20 | 北京邮电大学 | 基于预测移动边缘网络的智能资源配置系统及其配置方法 |
CN114698111A (zh) * | 2020-12-31 | 2022-07-01 | 华为技术有限公司 | 传输业务的方法和通信装置 |
CN113162682B (zh) * | 2021-05-13 | 2022-06-24 | 重庆邮电大学 | 一种基于pd-noma的多波束leo卫星系统资源分配方法 |
CN113645642B (zh) * | 2021-08-16 | 2023-08-15 | 北京遥感设备研究所 | 一种无线资源分配预测方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108123828B (zh) * | 2017-12-04 | 2020-12-29 | 东南大学 | 一种基于接入用户移动性预测的超密集网络资源分配方法 |
CN108495341B (zh) * | 2018-02-08 | 2021-10-22 | 西安电子科技大学 | 一种基于流向预测的资源预留方法及系统、移动通信系统 |
CN108449286B (zh) * | 2018-03-01 | 2020-07-03 | 北京邮电大学 | 网络带宽资源分配方法及装置 |
CN108718463B (zh) * | 2018-05-09 | 2022-07-05 | 南京邮电大学 | 一种h-cran下基于多时间尺度协同优化的资源分配方法 |
CN108738151B (zh) * | 2018-05-18 | 2020-08-28 | 北京航空航天大学 | 一种基于粗略信息的无线预测资源分配方法 |
-
2019
- 2019-01-28 CN CN201910082623.0A patent/CN111491312B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111491312A (zh) | 2020-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111491312B (zh) | 无线资源预测分配、获取、训练神经网络的方法及设备 | |
WO2021169577A1 (zh) | 一种基于加权联邦学习的无线业务流量预测方法 | |
Azimi et al. | Energy-efficient deep reinforcement learning assisted resource allocation for 5G-RAN slicing | |
CN112055329B (zh) | 一种适用于rsu覆盖切换的边缘车联网任务卸载方法 | |
CN108738151B (zh) | 一种基于粗略信息的无线预测资源分配方法 | |
CN110839075A (zh) | 边缘计算环境下基于粒子群的服务迁移方法 | |
CN112738851B (zh) | 基于预测移动边缘网络的智能资源配置系统及其配置方法 | |
CN110580199B (zh) | 边缘计算环境下基于粒子群的服务迁移方法 | |
Li et al. | Predictive pre-allocation for low-latency uplink access in industrial wireless networks | |
Li et al. | A delay-aware caching algorithm for wireless D2D caching networks | |
Guo et al. | Exploiting future radio resources with end-to-end prediction by deep learning | |
Bao et al. | A QoE-maximization-based vertical handover scheme for VLC heterogeneous networks | |
CN113271221B (zh) | 网络能力开放方法、系统及电子设备 | |
WO2023011371A1 (en) | Method and system for configuring a threshold value for a handover parameter of a wireless communication system | |
CN113014340A (zh) | 一种基于神经网络的卫星频谱资源动态分配方法 | |
She et al. | Energy efficient resource allocation for hybrid services with future channel gains | |
Cui et al. | A two-timescale resource allocation scheme in vehicular network slicing | |
Liu et al. | Vehicle-assisted data delivery in smart city: A deep learning approach | |
Zhao et al. | Multi-agent deep reinforcement learning based resource management in heterogeneous V2X networks | |
Hu et al. | Enabling low-latency applications in vehicular networks based on mixed fog/cloud computing systems | |
Guo et al. | Impact of prediction errors on high throughput predictive resource allocation | |
CN104301964A (zh) | 基于组合预测的自适应机会协作控制方法 | |
CN101360319B (zh) | 一种基于业务量的资源预留方法及装置 | |
Al-Thaedan et al. | A machine learning framework for predicting downlink throughput in 4G-LTE/5G cellular networks | |
Wang et al. | Real-world traffic analysis and joint caching and scheduling for in-RAN caching networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |