CN116249142B - 感知任务卸载和资源分配联合优化方法及相关装置 - Google Patents
感知任务卸载和资源分配联合优化方法及相关装置 Download PDFInfo
- Publication number
- CN116249142B CN116249142B CN202310498327.5A CN202310498327A CN116249142B CN 116249142 B CN116249142 B CN 116249142B CN 202310498327 A CN202310498327 A CN 202310498327A CN 116249142 B CN116249142 B CN 116249142B
- Authority
- CN
- China
- Prior art keywords
- mobile terminal
- individual
- base stations
- task
- base station
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/06—Testing, supervising or monitoring using simulated traffic
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种感知任务卸载和资源分配联合优化方法及相关装置,本发明在移动终端层的感知任务卸载策略和边缘层的资源分配策略的基础上构建以预设时隙内移动终端感知任务数据量最大为目标的联合优化模型,通过求解联合优化模型,获得预设时隙内端边协同网络处理的感知任务数据量最大,从而使端边协同网络资源被充分利用,提高了端边协同网络的服务性能。
Description
技术领域
本发明涉及一种感知任务卸载和资源分配联合优化方法及相关装置,属于无线通信、移动通信技术领域。
背景技术
物联网和无线通信技术的快速发展催生了智慧工厂、智能交通等应用场景。在这些场景中,感知网络除了部署大量传感器节点的外,具有感知、计算和无线通信能力的移动终端(如AGV终端、可穿戴设备、智能手机等)可以在时空粒度上实时地感知周围环境,进行分布式协同计算。移动终端利用自身配备的摄像头、雷达等传感器感知物理环境,每秒将产生大约1GB的数据,这些原始数据需要充足的计算资源实时处理,以保证终端安全行驶,因此,这对拥有有限资源的移动终端提出了巨大的挑战。
为了应对这样的挑战,可以适当地将计算密集型感知任务进行细粒度划分,从而卸载到其范围内MEC服务器上协同处理,即采用端边协同网络,可以降低任务处理的时延和能量消耗,提高资源利用率。为了充分利用端边协同网络的资源,有必要通过研究端边协同网络中感知任务卸载和资源分配联合优化问题,权衡预设时间内移动终端任务的感知和协同计算过程,但是目前还没有相应的方法。
发明内容
本发明提供了一种感知任务卸载和资源分配联合优化方法及相关装置,解决了背景技术中披露的问题。
为了解决上述技术问题,本发明所采用的技术方案是:
感知任务卸载和资源分配联合优化方法,包括:
根据端边协同网络中移动终端层的感知任务卸载策略和边缘层的资源分配策略,构建联合优化模型;其中,联合优化模型以在感知任务卸载策略和资源分配策略下,预设时隙内移动终端感知任务数据量最大为目标;
求解联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量。
边缘层的资源包括基站的通信资源和边缘服务器的计算资源;联合优化模型的目标函数为:
;
式中,,/>,/>,N为端边协同网络中移动终端数量,M为端边协同网络中基站数量,v n 为第n个移动终端感知周围环境的速率,/>为在预设时隙内第n个移动终端分配的感知时间,/>为第n个移动终端的感知任务协同计算时延,/>为感知任务卸载策略,为第n个移动终端的感知任务卸载向量,/>为第n个移动终端在本地计算的感知任务比例,/>为第n个移动终端卸载到基站的任务比例,为基站的通信资源分配策略,/>为第m个基站分给移动终端的通信资源,/>为第m个基站分给第n个移动终端的通信资源,为与基站连接的边缘服务器的计算资源分配策略,为与第m个基站连接的边缘服务器分给移动终端的计算资源,/>为与第m个基站连接的边缘服务器分给第n个移动终端的计算资源,/>为第n个移动终端计算单位bit感知任务需要的计算资源数,/>为第n个移动终端的计算能力,/>为第n个移动终端的本地计算时延,/>为与第m个基站连接的边缘服务器的计算时延。
边缘层的资源包括基站的通信资源和边缘服务器的计算资源,其中,通信资源为带宽资源;
联合优化模型的约束条件包括:
a、移动终端的感知任务在本地或对应的边缘服务器上计算;其中,对应的边缘服务器为与移动终端通信基站所连的边缘服务器;
b、移动终端的感知任务只能卸载到对应的基站上;其中,对应的基站为与移动终端通信的基站;
c、基站分配给所有移动终端的带宽资源不超过基站的最大带宽;
d、若移动终端的感知任务不卸载到对应的基站上,对应的基站分配给移动终端的带宽资源为0;
e、边缘服务器分配给所有移动终端的计算资源不超过边缘服务器的最大计算资源;
f、若移动终端的感知任务不卸载到对应的基站上,对应的边缘服务器分配给移动终端的计算资源为0;
g、移动终端的感知时间和感知任务协同计算时延之和不超过预设时隙;h、移动终端的感知能耗、本地计算能耗和感知任务传输能耗之和不超过移动终端自身最大能量。
联合优化模型的约束条件为:
约束条件a对应的公式为:
;
;
式中,为第n个移动终端在本地计算的感知任务比例,/>为第n个移动终端卸载到基站的任务比例,M为端边协同网络中基站数量;
约束条件b对应的公式为:
;
式中,为第n个移动终端是否在第m个基站覆盖范围的标识,/>表示第n个移动终端在第m个基站覆盖范围内,/>表示第n个移动终端不在第m个基站覆盖范围内,/>为第n个移动终端在第m个基站的距离,R m 为第m个基站的覆盖范围半径;
约束条件c对应的公式为:
;
;
式中,为第m个基站分给第n个移动终端的通信资源,N为端边协同网络中移动终端数量,/>为第m个基站的最大带宽;
约束条件d对应的公式为:
;
式中,为指示函数,当/>时,指示函数值为1,当/>时,指示函数值为0;
约束条件e对应的公式为:
;
;
式中,为与第m个基站连接的边缘服务器分给第n个移动终端的计算资源,为与第m个基站连接的边缘服务器的最大计算资源;
约束条件f对应的公式为:
;
约束条件g对应的公式为:
;
式中,为在预设时隙内第n个移动终端分配的感知时间,/>为第n个移动终端的感知任务协同计算时延,T max为预设时隙;
约束条件h对应的公式为:
;
式中,为第n个移动终端感知过程消耗的能量,/>为第n个移动终端感知每比特数据的能耗,v n 为第n个移动终端感知周围环境速率,/>为第n个移动终端本地计算能耗,/>为移动终端本地计算单位比特数据消耗能量,/>为第n个移动终端计算单位bit感知任务需要的计算资源数,/>为第n个移动终端的计算能力,/>为第n个移动终端在本地计算的感知任务比例,/>为第n个移动终端向第m个基站上行传输感知任务的能耗,P n 为第n个移动终端的发射功率,/>为高斯噪声功率,h mn 为第n个移动终端与第m个基站之间的信道增益,E max为移动终端自身最大能量。
求解联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量,包括:
将联合优化模型的非凸项约束条件近似为凸项约束条件,采用逐次凸近似方法求解近似后的联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量。
将联合优化模型的非凸项约束条件近似为凸项约束条件包括:
将约束条件d和f进行线性化,线性化后约束条件公式为:
;
;
式中,参数,/>为指示函数,当时,指示函数值为1,当/>时,指示函数值为0,/>为第n个移动终端卸载到基站的任务比例,/>为第m个基站分给第n个移动终端的通信资源,/>为第m个基站的最大带宽,/>为惩罚因子,/>为与第m个基站连接的边缘服务器分给第n个移动终端的计算资源,/>为与第m个基站连接的边缘服务器的最大计算资源,/>为惩罚因子;
将约束条件g和h进行凸近似,转化后约束条件公式为:
;
式中,为第n个移动终端感知每比特数据的能耗,v n 为第n个移动终端感知周围环境速率,/>为在预设时隙内第n个移动终端分配的感知时间,T max为预设时隙,E max为移动终端自身最大能量,/>为移动终端本地计算单位比特数据消耗能量,/>为第n个移动终端计算单位bit感知任务需要的计算资源数,/>为第n个移动终端的计算能力,/>为第n个移动终端在本地计算的感知任务比例,P n 为第n个移动终端的发射功率,参数,/>为高斯噪声功率,h mn 为第n个移动终端与第m个基站之间的信道增益, 参数,() i 表示第i次迭代的括号中的内容。
感知任务卸载和资源分配联合优化装置,包括:
模型构建模块,用以根据端边协同网络中移动终端层的感知任务卸载策略和边缘层的资源分配策略,构建联合优化模型;其中,联合优化模型以在感知任务卸载策略和资源分配策略下,预设时隙内移动终端感知任务数据量最大为目标;
求解模块,用以求解联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量。
求解模块,用以将联合优化模型的非凸项约束条件近似为凸项约束条件,采用逐次凸近似方法求解近似后的联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量。
一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行感知任务卸载和资源分配联合优化方法。
一种计算机设备,包括一个或多个处理器、以及一个或多个存储器,一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行感知任务卸载和资源分配联合优化方法的指令。
本发明所达到的有益效果:本发明在移动终端层的感知任务卸载策略和边缘层的资源分配策略的基础上构建以预设时隙内移动终端感知任务数据量最大为目标的联合优化模型,通过求解联合优化模型,获得预设时隙内端边协同网络处理的感知任务数据量,从而使端边协同网络资源被充分利用,提高了端边协同网络的服务性能。
附图说明
图1为感知任务卸载和资源分配联合优化方法的流程图;
图2为端边协同网络结构示意图;
图3为端边协同网络中“感知-处理”协议流程图;
图4为感知任务卸载和资源分配联合优化方法与其他基准(全部本地、全部卸载、随机卸载)方法的性能对比图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,感知任务卸载和资源分配联合优化方法,包括以下步骤:
步骤1,根据端边协同网络中移动终端层的感知任务卸载策略和边缘层的资源分配策略,构建联合优化模型;其中,联合优化模型以在感知任务卸载策略和资源分配策略下,预设时隙内移动终端感知任务数据量最大为目标。
步骤2,求解联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量。
上述方法在移动终端层的感知任务卸载策略和边缘层的资源分配策略的基础上构建以预设时隙内移动终端感知任务数据量最大为目标的联合优化模型,通过求解联合优化模型,获得预设时隙内端边协同网络处理的感知任务数据量,从而使端边协同网络资源被充分利用,提高了端边协同网络的服务性能。。
图2为端边协同网络,该网络分为三层,包括本地云、边缘层和终端层,边缘层由多个基站组成,每个基站连接一个边缘服务器,形成一个边缘计算节点,基站为其覆盖范围内的移动终端提供通信资源,具体是宽带资源,边缘服务器为所连基站覆盖范围内的移动终端提供计算资源。
移动终端可以有多种,这里以AGV(Automated Guided Vehicle的缩写,含义为自动导引运输车)为例,移动终端利用自身配备的传感器、摄像头、雷达等设备细粒度感知周围物理环境,生成感知任务,同时计算自身的感知时延和能耗。
考虑实际情况,工业互联网场景中的移动终端都具备一定的移动性,用二维坐标定义移动终端和基站的位置信息,如果移动终端与基站之间的距离小于基站的通信半径,就认为该移动终端在这个基站的覆盖范围内,即:
式中,为第n个移动终端是否在第m个基站覆盖范围的标识,/>表示第n个移动终端在第m个基站覆盖范围内,/>表示第n个移动终端不在第m个基站覆盖范围内,/>为第n个移动终端在第m个基站的距离,(x n ,y n )、(a m ,b m )分别为第n个移动终端和第m个基站的位置,R m 为第m个基站的覆盖范围半径。
针对相互通信的移动终端与基站,如图3所示,在预设时隙T max的前段,移动终端会进行数据感知,即生成感知任务,按照感知任务卸载策略将一定数量的感知任务卸载到通信的基站,给相应的边缘服务器进行计算,没有卸载的感知任务在本地进行计算(即自身进行处理),卸载边缘计算和本地计算是平行处理的两个过程。
假设第n个移动终端生成的感知任务表示为,其中,/>为第n个移动终端在感知时间内生成的感知任务数据量,v n 为第n个移动终端感知周围环境速率,为在预设时隙内第n个移动终端分配的感知时间;第n个移动终端感知过程消耗的能量表示为/>,其中,/>为第n个移动终端感知每比特数据的能耗。
假设移动终端的感知任务按比例进行划分,即移动终端的感知任务按照不同的比例选择自身(本地)处理,或者卸载到多个可通信的基站处理。移动终端的感知任务卸载策略可表示为,其中,N为端边协同网络中移动终端数量,/>,为第n个移动终端的感知任务卸载向量,/>为第n个移动终端在本地计算的感知任务比例,/>为第n个移动终端卸载到基站的任务比例,M为端边协同网络中基站数量。
考虑移动终端与基站之间的通信采用OFDMA方式,移动终端在与基站通信过程中占用不同频段的带宽,假设可以忽略移动终端之间的干扰。基站的通信资源(即宽带资源)分配策略为,其中,/>,/>为第m个基站分给移动终端的通信资源,即宽带资源,/>为第m个基站分给第n个移动终端的通信资源。
令P n 为第n个移动终端的发射功率,为高斯噪声功率,h mn 为第n个移动终端与第m个基站之间的信道增益,根据香农定理,第n个移动终端与第m个基站之间的数据传输速率可以表示为:/>。
考虑多边缘服务器与移动终端协同处理任务,移动终端的本地计算时延和本地计算能耗分别可表示为:
;
;
式中,为第n个移动终端的本地计算时延,/>为第n个移动终端本地计算能耗,为移动终端本地计算单位比特数据消耗能量,/>为第n个移动终端计算单位bit感知任务需要的计算资源数,/>为第n个移动终端的计算能力。
感知任务卸载时延包括上行传输时延、边缘服务器的计算时延和下行传输时延,由于下行数据量较少,一般不考虑;那么上行传输时延和能耗分别可表示为:
;
;
式中,为为第n个移动终端向第m个基站上行传输感知任务的时延,/>为第n个移动终端向第m个基站上行传输感知任务的能耗。
定义边缘服务器的计算资源分配策略为,其中,为与第m个基站连接的边缘服务器分给移动终端的计算资源,/>为与第m个基站连接的边缘服务器分给第n个移动终端的计算资源,则边缘服务器的计算时延可表示为:
;
式中,为与第m个基站连接的边缘服务器的计算时延。
取边缘服务器中完成感知任务的最大时延作为感知任务卸载时延,因此移动终端的卸载总时延可表示为:
;
式中,为第n个移动终端的卸载总时延。
由于移动终端本地计算和边缘卸载是并行处理的,因此移动终端的感知任务的完成时间取决于本地计算时间和边缘卸载时间两者之间最大值,即感知任务协同计算时延可表示为:
;
式中,为第n个移动终端的感知任务协同计算时延,具体是并行进行感知任务卸载、感知任务本地计算和感知任务边缘服务器计算的时间。
移动终端的总能耗为移动终端感知能耗、本地处理能耗和感知任务传输能耗之和,用公式可表示为:
;
式中,e n 为第n个移动终端的总能耗。
基于上述分析和“感知-处理”协议,系统最佳的任务处理数据量等于所有移动终端感知任务的数据量之和,即,否则存在感知数据未处理,从而浪费了感知时间资源,降低了系统性能。
同时,上述模型需要满足一下约束条件:
a、移动终端的感知任务在本地或对应的边缘服务器上计算,其中,对应的边缘服务器为与移动终端通信基站所连的边缘服务器,用公式表示为:
C1:;
C2:;
b、移动终端的感知任务只能卸载到对应的基站上,其中,对应的基站为与移动终端通信的基站,用公式表示为:
C3:;
c、基站分配给所有移动终端的带宽资源不超过基站的最大带宽,用公式表示为:
C4:;
C5:;
d、若移动终端的感知任务不卸载到对应的基站上,对应的基站分配给移动终端的带宽资源为0,用公式表示为:
C6:;
式中,为指示函数,当/>时,指示函数值为1,当/>时,指示函数值为0;
e、边缘服务器分配给所有移动终端的计算资源不超过边缘服务器的最大计算资源,用公式表示为:
C7:;
C8:;
式中,为与第m个基站连接的边缘服务器的最大计算资源;
f、若移动终端的感知任务不卸载到对应的基站上,对应的边缘服务器分配给移动终端的计算资源为0,用公式表示为:
C9:;
g、移动终端的感知时间和感知任务协同计算时延之和不超过预设时隙,用公式表示为:
C10:;
h、移动终端的感知能耗、本地计算能耗和感知任务传输能耗之和不超过移动终端自身最大能量,用公式表示为:
C11:;
式中,E max为移动终端自身最大能量。
对于约束条件C10和C11,带入相应变量可简化为:
C12:;
C13:;
C14:;
因此,上述模型可变换为:
;
约束条件为:C1~C9,C12~C14。
定义参数,那么上述模型可变为/>,式中,() i 表示第i次迭代的括号中的内容,进一步由于上述模型的约束存在非凸项,为了便于计算,本发明进一步将联合优化模型的非凸项约束条件近似为凸项约束条件,采用逐次凸近似方法求解近似后的联合优化模型,具体是将C10和C11进行凸近似,C6和C9进行线性化。
定理1:假设函数是两个凸可微函数/>和/>的差,对凹部分/>线性化,保持凸部分/>不变,可得到函数/>的凸近似如下:
;
式中,表示/>关于x的梯度函数,上标T表示转置,x和y均是参数;
基于定理1,对参数、/>进行凸近似,可得:
;
;
因为是关于/>的凸函数,/>是关于/>的凸函数,因此C10和C11的简化式可进一步变为:
;
用obj n 替换,上述可进一步变为:/>
。
定理2:对于指示函数,其中,/>;可表示为a=ab,其中/>,并对其线性化得到如下约束:
;
式中,a、b均为参数,G为惩罚因子,u是任意正数。
基于定理2,C6和C9进行线性化,可表示为:
;
;
式中,参数,/>为惩罚因子, />为惩罚因子。
因此近似后的模型可表示为:
;
约束条件为:
。
采用逐次凸近似方法求解上述联合优化模型,可获得预设时隙内端边协同网络处理的感知任务数据量,即联合优化结果。
为了验证上述方法,将该方法与其他基准(全部本地、全部卸载、随机卸载)方法进行比对,具体仿真实验均在MATLAB上进行。
本发明仿真在800×800m2的范围内,4个基站协助区域内的移动终端,移动终端利用自身配备的传感器(如激光、雷达、毫米波和摄像头等)感知周围环境,通过预处理生成感知任务;预设时隙为1s,移动终端感知周围环境速率为15mbit/s~30mbit/s,移动终端预处理环境感知数据生成单位比特感知任务的能耗为1×10-12J/bit~10×10-12J/bit,移动终端本地计算单位比特数据消耗能量为1×10-23J/bit,移动终端自身最大能量为1000/24/60/60J,移动终端的发射功率为0.1W,基站的最大带宽为10MHz,噪声功率为-100dbm,假设移动终端的计算能力为10×108circles/s,边缘服务器的最大计算资源为5×108circles/s。
本仿真将本发明和其他基准方法(本地计算、全部卸载和随机卸载)进行比较,从图4可以看到当在移动终端感知速率相同的前提下,本发明相较于其他方法,系统处理数据能力更优。
基于相同的技术方案,本发明还公开了上述方法的虚拟装置,如软件,具体为感知任务卸载和资源分配联合优化装置,包括:
模型构建模块,用以根据端边协同网络中移动终端层的感知任务卸载策略和边缘层的资源分配策略,构建联合优化模型;其中,联合优化模型以在感知任务卸载策略和资源分配策略下,预设时隙内移动终端感知任务数据量最大为目标。
求解模块,用以将联合优化模型的非凸项约束条件近似为凸项约束条件,采用逐次凸近似方法求解近似后的联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量。
上述装置各模块的数据处理流程与方法对应步骤的一致,这里不重复描述了。
基于相同的技术方案,本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行感知任务卸载和资源分配联合优化方法。
基于相同的技术方案,本发明还公开了一种计算机设备,包括一个或多个处理器、以及一个或多个存储器,一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行感知任务卸载和资源分配联合优化方法的指令。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上仅为本发明的实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均包含在申请待批的本发明的权利要求范围之内。
Claims (4)
1.感知任务卸载和资源分配联合优化方法,其特征在于,包括:
根据端边协同网络中移动终端层的感知任务卸载策略和边缘层的资源分配策略,构建联合优化模型;其中,联合优化模型以在感知任务卸载策略和资源分配策略下,预设时隙内移动终端感知任务数据量最大为目标;
边缘层的资源包括基站的通信资源和边缘服务器的计算资源,其中,通信资源为带宽资源;
联合优化模型的目标函数为:
;
式中,,/>,/>,N为端边协同网络中移动终端数量,M为端边协同网络中基站数量,v n 为第n个移动终端感知周围环境的速率,/>为在预设时隙内第n个移动终端分配的感知时间,/>为第n个移动终端的感知任务协同计算时延,/>为感知任务卸载策略,/>为第n个移动终端的感知任务卸载向量,/>为第n个移动终端在本地计算的感知任务比例,为第n个移动终端卸载到基站的任务比例,/>为基站的通信资源分配策略,/>为第m个基站分给移动终端的通信资源,/>为第m个基站分给第n个移动终端的通信资源,/>为与基站连接的边缘服务器的计算资源分配策略,/>为与第m个基站连接的边缘服务器分给移动终端的计算资源,/>为与第m个基站连接的边缘服务器分给第n个移动终端的计算资源,/>为第n个移动终端计算单位bit感知任务需要的计算资源数,/>为第n个移动终端的计算能力,为第n个移动终端的本地计算时延,/>为与第m个基站连接的边缘服务器的计算时延;
联合优化模型的约束条件包括:
a、移动终端的感知任务在本地或对应的边缘服务器上计算;其中,对应的边缘服务器为与移动终端通信基站所连的边缘服务器;
约束条件a对应的公式为:
;
;
b、移动终端的感知任务只能卸载到对应的基站上;其中,对应的基站为与移动终端通信的基站;
约束条件b对应的公式为:
;
式中,为第n个移动终端是否在第m个基站覆盖范围的标识,表示第n个移动终端在第m个基站覆盖范围内,/>表示第n个移动终端不在第m个基站覆盖范围内,/>为第n个移动终端在第m个基站的距离,R m 为第m个基站的覆盖范围半径;
c、基站分配给所有移动终端的带宽资源不超过基站的最大带宽;
约束条件c对应的公式为:
;
;
式中,为第m个基站的最大带宽;
d、若移动终端的感知任务不卸载到对应的基站上,对应的基站分配给移动终端的带宽资源为0;
约束条件d对应的公式为:
;
式中,为指示函数,当/>时,指示函数值为1,当/>时,指示函数值为0;
e、边缘服务器分配给所有移动终端的计算资源不超过边缘服务器的最大计算资源;
约束条件e对应的公式为:
;
;
式中,为与第m个基站连接的边缘服务器的最大计算资源;
f、若移动终端的感知任务不卸载到对应的基站上,对应的边缘服务器分配给移动终端的计算资源为0;
约束条件f对应的公式为:
;
g、移动终端的感知时间和感知任务协同计算时延之和不超过预设时隙;
约束条件g对应的公式为:
;
式中,T max为预设时隙;
h、移动终端的感知能耗、本地计算能耗和感知任务传输能耗之和不超过移动终端自身最大能量;
约束条件h对应的公式为:
;
式中,为第n个移动终端感知过程消耗的能量,/>为第n个移动终端感知每比特数据的能耗,/>为第n个移动终端本地计算能耗,/>为移动终端本地计算单位比特数据消耗能量, />为第n个移动终端向第m个基站上行传输感知任务的能耗,P n 为第n个移动终端的发射功率,/>为高斯噪声功率,h mn 为第n个移动终端与第m个基站之间的信道增益,E max为移动终端自身最大能量;
将联合优化模型的非凸项约束条件近似为凸项约束条件,采用逐次凸近似方法求解近似后的联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量;
将联合优化模型的非凸项约束条件近似为凸项约束条件包括:
将约束条件d和f进行线性化,线性化后约束条件公式为:
;
;
式中,参数,/>为惩罚因子,/>为惩罚因子;
将约束条件g和h进行凸近似,转化后约束条件公式为:
;
式中,参数,参数,() i 表示第i次迭代的括号中的内容。
2.感知任务卸载和资源分配联合优化装置,其特征在于,包括:
模型构建模块,用以根据端边协同网络中移动终端层的感知任务卸载策略和边缘层的资源分配策略,构建联合优化模型;其中,联合优化模型以在感知任务卸载策略和资源分配策略下,预设时隙内移动终端感知任务数据量最大为目标;
边缘层的资源包括基站的通信资源和边缘服务器的计算资源,其中,通信资源为带宽资源;
联合优化模型的目标函数为:
;
式中,,/>,/>,N为端边协同网络中移动终端数量,M为端边协同网络中基站数量,v n 为第n个移动终端感知周围环境的速率,/>为在预设时隙内第n个移动终端分配的感知时间,/>为第n个移动终端的感知任务协同计算时延,/>为感知任务卸载策略,/>为第n个移动终端的感知任务卸载向量,/>为第n个移动终端在本地计算的感知任务比例,为第n个移动终端卸载到基站的任务比例,/>为基站的通信资源分配策略,/>为第m个基站分给移动终端的通信资源,/>为第m个基站分给第n个移动终端的通信资源,/>为与基站连接的边缘服务器的计算资源分配策略,/>为与第m个基站连接的边缘服务器分给移动终端的计算资源,/>为与第m个基站连接的边缘服务器分给第n个移动终端的计算资源,/>为第n个移动终端计算单位bit感知任务需要的计算资源数,/>为第n个移动终端的计算能力,为第n个移动终端的本地计算时延,/>为与第m个基站连接的边缘服务器的计算时延;
联合优化模型的约束条件包括:
a、移动终端的感知任务在本地或对应的边缘服务器上计算;其中,对应的边缘服务器为与移动终端通信基站所连的边缘服务器;
约束条件a对应的公式为:
;
;
b、移动终端的感知任务只能卸载到对应的基站上;其中,对应的基站为与移动终端通信的基站;
约束条件b对应的公式为:
;
式中,为第n个移动终端是否在第m个基站覆盖范围的标识,表示第n个移动终端在第m个基站覆盖范围内,/>表示第n个移动终端不在第m个基站覆盖范围内,/>为第n个移动终端在第m个基站的距离,R m 为第m个基站的覆盖范围半径;
c、基站分配给所有移动终端的带宽资源不超过基站的最大带宽;
约束条件c对应的公式为:
;
;
式中,为第m个基站的最大带宽;
d、若移动终端的感知任务不卸载到对应的基站上,对应的基站分配给移动终端的带宽资源为0;
约束条件d对应的公式为:
;
式中,为指示函数,当/>时,指示函数值为1,当/>时,指示函数值为0;
e、边缘服务器分配给所有移动终端的计算资源不超过边缘服务器的最大计算资源;
约束条件e对应的公式为:
;
;
式中,为与第m个基站连接的边缘服务器的最大计算资源;
f、若移动终端的感知任务不卸载到对应的基站上,对应的边缘服务器分配给移动终端的计算资源为0;
约束条件f对应的公式为:
;
g、移动终端的感知时间和感知任务协同计算时延之和不超过预设时隙;
约束条件g对应的公式为:
;
式中,T max为预设时隙;
h、移动终端的感知能耗、本地计算能耗和感知任务传输能耗之和不超过移动终端自身最大能量;
约束条件h对应的公式为:
;
式中,为第n个移动终端感知过程消耗的能量,/>为第n个移动终端感知每比特数据的能耗,/>为第n个移动终端本地计算能耗,/>为移动终端本地计算单位比特数据消耗能量, />为第n个移动终端向第m个基站上行传输感知任务的能耗,P n 为第n个移动终端的发射功率,/>为高斯噪声功率,h mn 为第n个移动终端与第m个基站之间的信道增益,E max为移动终端自身最大能量;
求解模块,用以将联合优化模型的非凸项约束条件近似为凸项约束条件,采用逐次凸近似方法求解近似后的联合优化模型,获得作为联合优化结果的预设时隙内端边协同网络处理的感知任务数据量;
将联合优化模型的非凸项约束条件近似为凸项约束条件包括:
将约束条件d和f进行线性化,线性化后约束条件公式为:
;
;
式中,参数,/>为惩罚因子,/>为惩罚因子;
将约束条件g和h进行凸近似,转化后约束条件公式为:
;
式中,参数,参数,() i 表示第i次迭代的括号中的内容。
3.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行权利要求1所述的方法。
4.一种计算机设备,其特征在于,包括:
一个或多个处理器、以及一个或多个存储器,一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行权利要求1所述方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310498327.5A CN116249142B (zh) | 2023-05-06 | 2023-05-06 | 感知任务卸载和资源分配联合优化方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310498327.5A CN116249142B (zh) | 2023-05-06 | 2023-05-06 | 感知任务卸载和资源分配联合优化方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116249142A CN116249142A (zh) | 2023-06-09 |
CN116249142B true CN116249142B (zh) | 2023-07-28 |
Family
ID=86628084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310498327.5A Active CN116249142B (zh) | 2023-05-06 | 2023-05-06 | 感知任务卸载和资源分配联合优化方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116249142B (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112929412B (zh) * | 2021-01-22 | 2022-03-11 | 山东大学 | 一种基于mec单车单小区的联合带宽分配与数据流卸载方法、设备及存储介质 |
CN113207136B (zh) * | 2021-04-02 | 2022-11-18 | 北京科技大学 | 一种联合优化计算卸载和资源分配的方法及装置 |
CN115297013B (zh) * | 2022-08-04 | 2023-11-28 | 重庆大学 | 一种基于边缘协作的任务卸载及服务缓存联合优化方法 |
CN115955479A (zh) * | 2022-11-14 | 2023-04-11 | 北京邮电大学 | 一种云边端协作系统中的任务快速调度与资源管理方法 |
CN116033032A (zh) * | 2023-01-16 | 2023-04-28 | 云南大学 | 移动边缘计算网络任务调度、无人机资源部署方法 |
-
2023
- 2023-05-06 CN CN202310498327.5A patent/CN116249142B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN116249142A (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Messous et al. | A game theory based efficient computation offloading in an UAV network | |
Chen et al. | Edge-CoCaCo: Toward joint optimization of computation, caching, and communication on edge cloud | |
Zhao et al. | Multi-agent deep reinforcement learning for task offloading in UAV-assisted mobile edge computing | |
Zhang et al. | Resource allocation for a UAV-enabled mobile-edge computing system: Computation efficiency maximization | |
CN107317700B (zh) | 车载边缘计算节点选择系统及方法 | |
Liu et al. | A computation offloading algorithm based on game theory for vehicular edge networks | |
Chen et al. | Deep-learning-based intelligent intervehicle distance control for 6G-enabled cooperative autonomous driving | |
CN114138373B (zh) | 一种基于强化学习的边缘计算任务卸载方法 | |
EP3222092B1 (en) | Method for managing communication between a plurality of moving objects | |
US9420597B2 (en) | Scheduling method and apparatus for use in D2D communication system | |
CN110868700B (zh) | 车载边缘计算环境下基于可分裂任务的协作计算卸载方法 | |
CN111935677B (zh) | 车联网v2i模式任务卸载方法及系统 | |
You et al. | Joint task scheduling, resource allocation, and UAV trajectory under clustering for FANETs | |
Cheng et al. | Energy-efficient resource allocation for UAV-empowered mobile edge computing system | |
Krijestorac et al. | Hybrid vehicular and cloud distributed computing: A case for cooperative perception | |
CN116170844A (zh) | 一种用于工业物联网场景中的数字孪生辅助任务卸载方法 | |
CN111158893B (zh) | 应用于雾计算网络的任务卸载方法、系统、设备及介质 | |
CN116249142B (zh) | 感知任务卸载和资源分配联合优化方法及相关装置 | |
Devasenapathy et al. | Transmission-efficient grid-based synchronized model for routing in wireless sensor networks using Bayesian compressive sensing | |
CN110582097A (zh) | 一种降低汽车计算开销的处理方法、装置及存储介质 | |
CN115278784A (zh) | 基于mec的无线用户任务带宽功率联合优化方法及系统 | |
CN110022381A (zh) | 一种负载分担方法及装置 | |
Aung et al. | Energy-Efficient Offloading and User Association in UAV-assisted Vehicular Ad Hoc Network | |
Xiao et al. | Multi-stage resource-aware congestion control algorithm in edge computing environment | |
CN114745386A (zh) | 一种多用户边缘智能场景下的神经网络分割及卸载方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |