CN116016538A - 面向动态环境的边端协同推理任务卸载优化方法与系统 - Google Patents
面向动态环境的边端协同推理任务卸载优化方法与系统 Download PDFInfo
- Publication number
- CN116016538A CN116016538A CN202310303751.XA CN202310303751A CN116016538A CN 116016538 A CN116016538 A CN 116016538A CN 202310303751 A CN202310303751 A CN 202310303751A CN 116016538 A CN116016538 A CN 116016538A
- Authority
- CN
- China
- Prior art keywords
- edge server
- layer
- cnn
- edge
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000005457 optimization Methods 0.000 title claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 53
- 238000004891 communication Methods 0.000 claims abstract description 35
- 230000005540 biological transmission Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 70
- 238000013500 data storage Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 abstract description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了面向动态环境的边端协同推理任务卸载优化方法与系统。所述方法运行在物理终端、边缘集群、云服务器三个层次内,其中云服务器负责模型训练,并将模型下发至边缘集群;物理终端产生计算任务并向边缘集群提出计算请求;在边缘集群内,本方法会综合考虑高度动态的网络带宽和设备负载情况,通过将边端协同推理工作中涉及到的推理时延和传输时延转换为与计算任务复杂度、设备负载、张量数据和网络带宽等相关联的最优化问题,并分步决策出模型的多个最佳分割位置以优化通信和计算权衡,最终在保证模型准确率的前提下,最小化协同推理时延的同时提升边缘服务器的计算资源利用率。
Description
技术领域
本发明属于边缘侧协同计算领域,具体涉及面向动态环境的边端协同推理任务卸载优化方法与系统。
背景技术
为了满足低时延、高精度的CNNs(Convolutional Neural Networks, 卷积神经网络)推理需求,新兴的边端协同推理计算范式成为研究重点。然而,边端协同推理同样面临着两个需要解决的关键挑战:①如何根据设备负载进行推理任务分配,②在动态网络带宽条件下,如何决策出模型的最佳分割位置以平衡计算和通信开销。为了应对以上挑战,目前的研究工作主要集中在三个方面:模型架构优化、模型分割优化和硬件加速。其中模型架构优化通过采用模型裁剪技术和多分支CNN训练技术以减少计算开销;在模型分割方面,Neurosurgeon和Edgent尝试通过将CNN只分割成两部分以减少通信开销;硬件加速方面的研究工作主要围绕硬件加速平台CUDA展开。上述工作倾向于仅在CNN中寻找一个最佳分割点来优化协同推理时延,忽视了高度动态的网络带带宽和设备负载情况下多边缘服务器参与带来的推理加速。
发明内容
本发明的目的在于:通过将边端协同推理工作中涉及到的推理时延和传输时延转换为与计算任务复杂度、设备负载、张量数据和网络带宽等相关联的最优化问题并求解,在高度动态的网络带宽和设备负载环境中分步决策出CNN的多个最佳分割位置,实现多边缘服务器参与的低时延协同推理。为实现上述目的,本发明提供如下技术方案:
面向动态环境的边端协同推理任务卸载优化方法,包括如下步骤:
S2、离线学习阶段:采集边缘服务器自身负载情况,并计算待处理的CNN的层的计算复杂度,以边缘服务器自身负载情况、以及待处理的CNN的层的计算复杂度为输入,以已知的边缘服务器计算CNN模型层产生的实际分层计算时延为输出,构建并训练分层计算时延预测模型;
S7、将实际的边缘服务器自身负载情况,以及计算得到的实际CNN的层的计算复杂度输入至步骤S2获得的分层计算时延预测模型,得到理论分层计算时延;边缘服务器动态比较理论分层计算时延是否小于等于理论分层计算时延与理论数据传输时延之和,是则由边缘服务器完成CNN的层的计算,并生成张量数据;否则边缘服务器借助无线网传输张量数据到边缘服务器,由边缘服务器完成CNN的层的计算,并生成张量数据;执行步骤S8;
其中,、、依次表示输入CNN的层的张量数据的高度、宽度、通道数,表示输入CNN的层的卷积核的边长,表示输出CNN的层的张量数据的通道数;、分别表示输入CNN的层的张量数据的维数、输出CNN的层的张量数据的维数。
进一步地前述的步骤S2包括如下子步骤:
S202、以边缘服务器的浮点计算能力、CPU使用率、GPU显存使用率和待处理的CNN的层的计算复杂度为输入,以已知的边缘服务器计算CNN模型层产生的实际分层计算时延为输出,构建分层计算时延预测模型,如下式:
本发明另一方面提出面向动态环境的边端协同推理任务卸载优化系统,其特征在于,包括:云服务器、与云服务器通信的至少两个边缘服务器,各边缘服务器的通信范围内至少设有一个物理终端,物理终端与边缘服务器的通信距离小于边缘服务器与云服务器的距离,云服务器通信范围内的任意一个边缘服务器,边缘服务器通信范围内与其物理距离小于预设距离的其他个边缘服务器,记为:,,,且这个边缘服务器也在云服务器的通信范围内,此个边缘服务器同边缘服务器一起组成边缘集群;
所述云服务器包括:模型训练模块、卷积神经网络,通信模块;
所述边缘服务器包括:态势感知中心、卷积神经网络、策略生成中心、通信模块;
所述物理终端包括通信模块;
所述模型训练模块用于训练卷积神经网络,所述卷积神经网络是服务于智能应用程序的层CNN;基于各个边缘服务器的离线样本数据存储模块采集模块采集到的信息,所述模型训练模块用于训练分层计算时延预测模型,并将训练好的模型发送给各个边缘服务器;所述通信模块用于云服务器、边缘服务器和物理终之间数据发送、接收;
所述态势感知中心包括工作负载感知模块、网络遥测模块;
所述策略生成中心包括离线样本数据存储模块、分层计算时延预测模块、传输时延计算模块、和决策信息生成模块;
所述卷积神经网络是服务于智能应用程序的N层CNN;
所述策略信息生成模块,用于动态比较理论分层计算时延是否小于等于理论分层计算时延与理论数据传输时延之和,是则由边缘服务器完成CNN的层的计算,否则边缘服务器借助无线网传输张量数据到边缘服务器,由边缘服务器完成CNN的层的计算,直至N个CNN层全部被计算完毕,获得张量数据;
所述通信模块用于云服务器、边缘服务器和物理终之间数据发送、接收。
相较于现有技术,本发明的有益效果如下:
1、本发明通过将边端协同推理工作中涉及到的推理时延和传输时延转换为与计算任务复杂度、设备负载、张量数据和网络带宽等相关联的最优化问题并求解,以实现边端协同加速推理。
2、本发明为应对高度动态的网络带宽和设备负载情况,分步决策出CNN的多个最佳分割位置以优化通信和计算权衡,其中边缘服务器计算资源利用率将在分层卸载策略的分步制定中得到提升。
3、以边缘集群为主导的CNN协同推理工作,将计算工作放在离物理终端更近的边缘侧,可有效保证计算数据的安全性和降低网络带宽的占用率。
附图说明
图1为本发明的CNN推理任务分层卸载原理图。
图2为本发明的技术原理图。
图3本发明的工作流程图。
具体实施方式
为了更了解本发明的技术内容,特举具体实施例并配合所附图式说明如下。
在本发明中参照附图来描述本发明的各方面,附图中示出了许多说明性实施例。本发明的实施例不局限于附图所述。应当理解,本发明通过上面介绍的多种构思和实施例,以及下面详细描述的构思和实施方式中的任意一种来实现,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
如图3所示,本发明的流程图,面向动态环境的边端协同推理任务卸载优化方法,包括如下步骤:
S2、离线学习阶段:采集边缘服务器自身负载情况,并计算待处理的CNN的层的计算复杂度,以边缘服务器自身负载情况、以及待处理的CNN的层的计算复杂度为输入,以已知的边缘服务器计算CNN模型层产生的实际分层计算时延为输出,构建并训练分层计算时延预测模型。具体包括以下步骤S201至步骤S202:
S202、以边缘服务器的浮点计算能力、CPU使用率、GPU显存使用率和待处理的CNN的层的计算复杂度为输入,以已知的边缘服务器计算CNN模型层产生的实际分层计算时延为输出,构建分层计算时延预测模型,如下式:
S7、将实际的边缘服务器自身负载情况,以及计算得到的实际CNN的层的计算复杂度输入至步骤S2获得的分层计算时延预测模型,得到理论分层计算时延;边缘服务器动态比较理论分层计算时延是否小于等于理论分层计算时延与理论数据传输时延之和,是则由边缘服务器完成CNN的层的计算,并生成张量数据;否则边缘服务器借助无线网传输张量数据到边缘服务器,由边缘服务器完成CNN的层的计算,并生成张量数据;执行步骤S8;
CNN推理产生的时延消耗主要由计算各个CNN的层产生的分层计算时延组成。CNN的层可分为三类:卷积层、全连接层和池化层,其中卷积层的计算复杂度最高,全连接层次之,池化层运算最简单,可以忽略。各个CNN的层的计算复杂度用下式来表示:
如果CNN的层为卷积层,那么它的计算复杂度用表示;如果CNN的层为全连接层,那么它的计算复杂度用表示。为简化表达,本发明使用表征任一CNN的层的计算复杂度。式中,、、依次代表输入CNN的层的张量数据的高度、宽度、通道数,代表输入CNN的层的卷积核的边长,代表输出CNN的层的张量数据的通道数,、分别代表输CNN的层的张量数据的维数、输出CNN的层的张量数据的维数。
CNN推理任务卸载的含义:当一个计算节点处理完CNN的层后,生成张量数据,在有利的网络带宽和设备负载条件下,可选择由当前计算节点借助无线网传输张量数据给选定的其他计算节点,由选定的其他计算节点对下一个CNN的层进行处理,直至张量数据生成,CNN推理结束;即将一个完整的CNN推理任务分成若干份,由多个计算节点协同完成计算。
如图2所示,面向动态环境的边端协同推理任务卸载优化系统,包括:云服务器、与云服务器通信的至少两个边缘服务器,各边缘服务器的通信范围内至少设有一个物理终端,物理终端与边缘服务器的通信距离小于边缘服务器与云服务器的距离,云服务器通信范围内的任意一个边缘服务器,边缘服务器通信范围内与其物理距离小于预设距离的其他个边缘服务器,记为:,,,且这个边缘服务器也在云服务器的通信范围内,此个边缘服务器同边缘服务器一起组成边缘集群;
云服务器包括:模型训练模块、卷积神经网络,通信模块;
边缘服务器包括:态势感知中心、卷积神经网络、策略生成中心、通信模块;
物理终端包括通信模块;
模型训练模块用于训练卷积神经网络,卷积神经网络是服务于智能应用程序的N层CNN;基于各个边缘服务器的离线样本数据存储模块采集模块采集到的信息,模型训练模块用于训练分层计算时延预测模型,并将训练好的模型发送给各个边缘服务器;所述通信模块用于云服务器、边缘服务器和物理终之间数据发送、接收;
态势感知中心包括工作负载感知模块、网络遥测模块;
所述策略生成中心包括离线样本数据存储模块、分层计算时延预测模块、传输时延计算模块、和决策信息生成模块;
所述策略信息生成模块,用于动态比较理论分层计算时延是否小于等于理论分层计算时延与理论数据传输时延之和,是则由边缘服务器完成CNN的层的计算,否则边缘服务器借助无线网传输张量数据到边缘服务器,由边缘服务器完成CNN的层的计算,直至个CNN层全部被计算完毕,获得张量数据;
所述通信模块用于云服务器、边缘服务器和物理终之间数据发送、接收。
虽然本发明已以较佳实施例阐述如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (5)
1.面向动态环境的边端协同推理任务卸载优化方法,其特征在于,包括如下步骤:
S2、离线学习阶段:采集边缘服务器自身负载情况,并计算待处理的CNN的层的计算复杂度,以边缘服务器自身负载情况、以及待处理的CNN的层的计算复杂度为输入,以已知的边缘服务器计算CNN模型层产生的实际分层计算时延为输出,构建并训练分层计算时延预测模型;
S7、将实际的边缘服务器自身负载情况,以及计算得到的实际CNN的层的计算复杂度输入至步骤S2获得的分层计算时延预测模型,得到理论分层计算时延;边缘服务器动态比较理论分层计算时延是否小于等于理论分层计算时延与理论数据传输时延之和,是则由边缘服务器完成CNN的层的计算,并生成张量数据;否则边缘服务器借助无线网传输张量数据到边缘服务器,由边缘服务器完成CNN的层的计算,并生成张量数据;执行步骤S8;
5.面向动态环境的边端协同推理任务卸载优化系统,其特征在于,包括:云服务器、与云服务器通信的至少两个边缘服务器,各边缘服务器的通信范围内至少设有一个物理终端,物理终端与边缘服务器的通信距离小于边缘服务器与云服务器的距离,云服务器通信范围内的任意一个边缘服务器,边缘服务器通信范围内与其物理距离小于预设距离的其他个边缘服务器,记为:,,,且这个边缘服务器也在云服务器的通信范围内,此个边缘服务器同边缘服务器一起组成边缘集群;
所述云服务器包括:模型训练模块、卷积神经网络,通信模块;
所述边缘服务器包括:态势感知中心、卷积神经网络、策略生成中心、通信模块;
所述物理终端包括通信模块;
所述模型训练模块用于训练卷积神经网络,所述卷积神经网络是服务于智能应用程序的N层CNN;基于各个边缘服务器的离线样本数据存储模块采集模块采集到的信息,所述模型训练模块用于训练分层计算时延预测模型,并将训练好的模型发送给各个边缘服务器;所述通信模块用于云服务器、边缘服务器和物理终之间数据发送、接收;
所述态势感知中心包括工作负载感知模块、网络遥测模块;
所述策略生成中心包括离线样本数据存储模块、分层计算时延预测模块、传输时延计算模块、和决策信息生成模块;
所述策略信息生成模块,用于动态比较理论分层计算时延是否小于等于理论分层计算时延与理论数据传输时延之和,是则由边缘服务器完成CNN的层的计算,否则边缘服务器借助无线网传输张量数据到边缘服务器,由边缘服务器完成CNN的层的计算,直至个CNN层全部被计算完毕,获得张量数据;
所述通信模块用于云服务器、边缘服务器和物理终之间数据发送、接收。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310303751.XA CN116016538A (zh) | 2023-03-27 | 2023-03-27 | 面向动态环境的边端协同推理任务卸载优化方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310303751.XA CN116016538A (zh) | 2023-03-27 | 2023-03-27 | 面向动态环境的边端协同推理任务卸载优化方法与系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116016538A true CN116016538A (zh) | 2023-04-25 |
Family
ID=86037707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310303751.XA Pending CN116016538A (zh) | 2023-03-27 | 2023-03-27 | 面向动态环境的边端协同推理任务卸载优化方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116016538A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116455768A (zh) * | 2023-06-16 | 2023-07-18 | 南京邮电大学 | 面向全局时延优化的云边端协同cnn推理方法及系统 |
CN117130693A (zh) * | 2023-10-26 | 2023-11-28 | 之江实验室 | 张量卸载方法、装置、计算机设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022257348A1 (zh) * | 2021-06-08 | 2022-12-15 | 重庆邮电大学 | 一种不确定网络环境中的任务卸载和资源分配方法 |
-
2023
- 2023-03-27 CN CN202310303751.XA patent/CN116016538A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022257348A1 (zh) * | 2021-06-08 | 2022-12-15 | 重庆邮电大学 | 一种不确定网络环境中的任务卸载和资源分配方法 |
Non-Patent Citations (1)
Title |
---|
郭永安等: "基于边端协同的CNN推理加速框架", 南京邮电大学学报(自然科学版), pages 1 - 5 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116455768A (zh) * | 2023-06-16 | 2023-07-18 | 南京邮电大学 | 面向全局时延优化的云边端协同cnn推理方法及系统 |
CN116455768B (zh) * | 2023-06-16 | 2023-09-12 | 南京邮电大学 | 面向全局时延优化的云边端协同cnn推理方法及系统 |
CN117130693A (zh) * | 2023-10-26 | 2023-11-28 | 之江实验室 | 张量卸载方法、装置、计算机设备及存储介质 |
CN117130693B (zh) * | 2023-10-26 | 2024-02-13 | 之江实验室 | 张量卸载方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Elgendy et al. | Joint computation offloading and task caching for multi-user and multi-task MEC systems: reinforcement learning-based algorithms | |
CN111835827B (zh) | 物联网边缘计算任务卸载方法及系统 | |
Nishio et al. | Client selection for federated learning with heterogeneous resources in mobile edge | |
CN116016538A (zh) | 面向动态环境的边端协同推理任务卸载优化方法与系统 | |
CN111405569A (zh) | 基于深度强化学习的计算卸载和资源分配方法及装置 | |
CN114143346B (zh) | 一种车联网任务卸载和服务缓存的联合优化方法及系统 | |
Zhou et al. | Edge computation offloading with content caching in 6G-enabled IoV | |
CN115034390B (zh) | 一种基于云边端协同的深度学习模型推理加速方法 | |
CN111158912B (zh) | 云雾协同计算环境下一种基于深度学习的任务卸载决策方法 | |
CN113645273B (zh) | 基于业务优先级的车联网任务卸载方法 | |
CN116455768B (zh) | 面向全局时延优化的云边端协同cnn推理方法及系统 | |
CN115413044B (zh) | 一种工业无线网络的计算和通信资源联合分配方法 | |
CN116360883A (zh) | 一种车联网计算任务卸载的联合优化方法 | |
CN116367231A (zh) | 基于ddpg算法的边缘计算车联网资源管理联合优化方法 | |
CN112672382A (zh) | 混合协作计算卸载方法、装置、电子设备及存储介质 | |
CN114521002A (zh) | 一种云边端合作的边缘计算方法 | |
CN113905049A (zh) | 一种基于多分类和分布式强化学习的卸载决策优化方法 | |
CN117236561A (zh) | 一种基于sac的多无人机辅助移动边缘计算方法、装置及存储介质 | |
CN116017570A (zh) | 一种基于区块链的边缘计算系统资源管理方法 | |
CN114745386A (zh) | 一种多用户边缘智能场景下的神经网络分割及卸载方法 | |
CN114513814A (zh) | 基于无人机辅助节点的边缘网络计算资源动态优化方法 | |
Cao | 5G communication resource allocation strategy based on edge computing | |
CN114116052A (zh) | 一种边缘计算方法及装置 | |
CN113452625A (zh) | 基于深度强化学习的卸载调度与资源分配方法 | |
Zhang et al. | Learning Client Selection Strategy for Federated Learning across Heterogeneous Mobile Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230425 |
|
RJ01 | Rejection of invention patent application after publication |