CN112532461B - 一种面向边缘智能的多边缘节点增量计算卸载方法 - Google Patents
一种面向边缘智能的多边缘节点增量计算卸载方法 Download PDFInfo
- Publication number
- CN112532461B CN112532461B CN202011494891.2A CN202011494891A CN112532461B CN 112532461 B CN112532461 B CN 112532461B CN 202011494891 A CN202011494891 A CN 202011494891A CN 112532461 B CN112532461 B CN 112532461B
- Authority
- CN
- China
- Prior art keywords
- node
- dnn
- edge
- execution
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/04—Network management architectures or arrangements
- H04L41/042—Network management architectures or arrangements comprising distributed management centres cooperatively managing the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
- H04L67/025—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer And Data Communications (AREA)
Abstract
一种面向边缘智能的多边缘节点增量计算卸载方法,在计划阶段,中心服务器和多边缘节点进行信息感知,根据信息确定参与协同计算的边缘节点,构建多边缘节点DNN协同执行图,确定需要初始优先上传给其它节点的DNN层,并记录对应的目标节点,然后以延时改善为基准排序各DNN层,确定后续上传顺序;在执行阶段,根据计划阶段生成的执行图尝试上传并运行DNN模型,若某节点基于失效锁的协作冲突检测机制检测到异常,则由失效锁强制结束该节点当前DNN层上传请求,若未检测到冲突则继续上传直到获得DNN模型执行结果。本发明通过协同多个目标进行DNN计算有效规避了单一边缘服务器易受网络波动的影响,实现了比只基于边缘服务器的方式更高的执行效率。
Description
技术领域
本发明属于边缘计算任务卸载技术领域,涉及到在多台边缘节点之间对DNN任务进行计算卸载,为一种面向边缘智能的多边缘节点增量计算卸载方法。
背景技术
由于DNN应用计算非常密集,很难在一个资源受限的边缘节点上独自运行。近年来有研究提出使用边缘节点和边缘服务器来按需协作执行DNN。比较流行的做法是将边缘节点的DNN模型按需上传到边缘服务器来进行DNN计算。但这些做法基于预安装DNN模型的边缘云服务器,不符合按需上传DNN模型的愿景。其次,仅依赖于单一远程边缘服务器的方式,极易受网络波动等因素的影响,造成阻塞,导致时间成本增大,具有不可忽视的不稳定性。
因此,现在最具前景的方法是将边缘环境下的计算任务完全推向网络边缘,甚至无需借助边缘服务器。协同多个边缘节点以执行DNN计算任务是一种有效的解决方式。这种方式的优势在于减少对云服务器的依赖,保护边缘节点的隐私性,并且能够实现分布式协同计算。然而,大多数边缘节点的计算、存储或能耗资源是非常有限的。而且他们无法实现动态DNN任务拆分,如何在实际场景中进行DNN任务的拆分和协作推断是亟待解决的问题。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种面向边缘智能的多边缘节点增量计算卸载方法,在动态收集各受信任节点实时反馈的等待队列,网络速度,可用性等状态信息的同时将DNN模型分块并按最优顺序上传给其他边缘节点。面向边缘智能的多边缘节点增量计算卸载策略可以在受信任边缘集群之中动态选取协作目标,通过协同多个目标进行DNN计算有效规避了单一边缘服务器易受网络波动的影响,实现了比只基于边缘服务器的方式更高的执行效率。
为了实现上述目的,本发明采用的技术方案是:
一种面向边缘智能的多边缘节点增量计算卸载方法,包括:
步骤(1),计划阶段
首先,中心服务器和多边缘节点进行信息感知,包括预计等待时间、网络速度、可用节点和预测文件,同时解析DNN模型结构;
其次,根据信息确定参与协同计算的边缘节点,构建多边缘节点DNN协同执行图,确定需要初始优先上传给其它节点的DNN层,并记录对应的目标节点,然后以延时改善为基准排序各DNN层,确定后续上传顺序,即上传策略;
步骤(2),执行阶段
首先,根据计划阶段生成的执行图尝试上传并运行DNN模型;
其次,若某节点基于失效锁的协作冲突检测机制检测到异常,则由失效锁强制结束该节点当前DNN层上传请求,若未检测到冲突则继续上传直到获得DNN模型执行结果。
优选地,所述预计等待时间由受信任节点集合中各节点等待锁计算,预测文件记录各DNN层在不同节点上的预计执行时间,由各节点根据DNN层的类型和参数生成,最终由请求方收集汇总。
优选地,所述等待锁指一个边缘节点一次只能计算一个DNN请求,其他DNN请求按顺序排队等待并返回预计等待时间,当请求j发送给目标节点后,请求j按顺序排队并记录节点等待锁返回的预计等待时间,请求j的预计等待时间其中,Li是请求i的预测执行时间。
优选地,所述解析DNN模型结构即从DNN模型的配置文件获取该DNN模型各层的详细信息,包括:层id,层名称,层的大小。
优选地,根据收集到的执行概要文件(执行概要文件记录了该DNN模型各层的预测执行时间)获得预计执行时延,然后再用层的大小除以当前网络速度来计算层传输时间,以此构建一个多边缘节点DNN协同执行图,多边缘节点DNN协同执行图中边的权重表示相应操作的时间开销;
上传各层能得到的延时改善=本地执行时延-总上传执行时延
采用最短路径算法,根据多边缘节点DNN协同执行图寻找最短路径,确定并记录一个节点需要上传的DNN层id,同时记录各DNN层对应的上传目标节点id;
以延时改善为基准,生成上传策略,优先上传延时改善最大的DNN层。
优选地,所述尝试上传并运行DNN模型过程中,若当前DNN请求不在等待队列首位,则按顺序排队等待。
优选地,所述尝试上传并运行DNN模型过程中,利用基于等待锁的节点间实时更新机制,对包括等待队列、网络速度在内的状态信息进行捕捉并动态调整执行图;若需要更换协作节点则从当前节点的等待队列退出,并上传DNN分块给新协作节点并等待执行,若不需要更换则继续等待直至执行。
优选地,判断是否调整执行图的公式为:min{Tjothers}<Wjk+Ejk,其中,Wjk是请求j在节点k的预计等待时间,Ejk是请求j在节点k执行的预测执行时间,min{Tjothers}是请求j与其他节点协作的时间中的最小值,若满足判定公式则从当前节点的等待队列退出,并上传DNN分块给新协作节点并等待执行。
优选地,所述失效锁的协作冲突检测机制是:若超出该占用时间的上限,强制结束相关计算进程。
优选地,所述占用时间的上限为原预计执行时间的2倍。
与现有技术相比,本发明依据实时反馈的状态信息动态调整以延时改善为标准的上传策略来执行计算任务,并且通过失效锁处理死锁,妥善处理并发冲突问题,在保证性能的前提下,显著提高系统的鲁棒性,保证了DNN应用的执行效率的提升。
附图说明
图1为本发明流程图。
图2为多边缘节点DNN协同执行图。
图3为本发明实施例的并发冲突解决的示例场景图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明的面向边缘智能的多边缘节点增量计算卸载策略方法进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明一种面向边缘智能的多边缘节点增量计算卸载方法,用于提升边缘深度学习(DNN)应用的执行效率和鲁棒性。其包括两个主要阶段:
(1),计划阶段
首先,中心服务器和多边缘节点进行信息感知,包括预计等待时间、网络速度、可用节点和预测文件等,同时解析DNN模型结构(即从DNN模型的配置文件获取该DNN模型各层的详细信息,包括:层id,层名称,层的大小等)。其中,预计等待时间由受信任节点集合中各节点等待锁计算,预测文件记录各DNN层在不同节点上的预计执行时间,由各节点根据DNN层的类型和参数生成,最终由请求方收集汇总;
由于边缘节点的硬件资源和计算能力十分有限,一个普通的边缘节点很难同时执行多个DNN请求。因此本发明设计了等待锁,一个边缘节点一次只能计算一个DNN请求,其他DNN请求按顺序排队等待并返回预计等待时间。当请求j发送给相应节点后,请求j按顺序排队并记录节点等待锁返回的预计等待时间。请求j的预计等待时间其中,Li是请求i的预测执行时间。
其次,根据上述信息确定参与协同计算的边缘节点,根据收集到的执行概要文件获得预计执行时延,然后再用层的大小除以当前网络速度来计算层传输时间,由此构建一个多边缘节点DNN协同执行图,多边缘节点DNN协同执行图中边的权重表示相应操作的时间开销。
然后,计算上传各层能得到的延时改善:
延时改善=本地执行时延-总上传执行时延
采用最短路径算法,根据多边缘节点DNN协同执行图寻找最短路径,确定需要初始优先上传的DNN层,并记录一个节点需要上传的DNN层id,同时记录各DNN层对应的目标边缘节点的id。
最后,以延时改善为基准排序各DNN层,确定后续上传顺序,生成上传策略,优先上传延时改善最大的DNN层。这样能够比传统上传策略更早抓住性能提升机会,最大化提升DNN应用的服务质量。
(2),执行阶段
在等待执行期间,根据计划阶段生成的执行图尝试上传并运行DNN模型。若当前DNN请求不在等待队列首位,则按顺序排队等待。在这一执行过程中,利用基于等待锁的节点间实时更新机制,对各协作节点实时反馈的等待队列,网络速度,可用性等状态信息进行捕捉并动态调整执行图,判断是否调整执行图的公式为:min{Tjothers}<Wjk+Ejk,其中,Wjk是请求j在节点k的预计等待时间,Ejk是请求j在节点k执行的预测执行时间,min{Tjothers}是请求j与其他节点协作的时间中的最小值;若需要更换协作节点则从当前节点的等待队列退出,并上传DNN分块给新协作节点并等待执行。若不需要更换则继续等待直至执行。
在执行期间,为了处理并发冲突异常,本发明设计了失效锁。若某节点基于失效锁的协作冲突检测机制检测到异常,则由失效锁强制结束本节点当前DNN层上传请求。由于死锁具有异常占用锁的特点,即占用时间远超预期。而且,在实际环境中,一个DNN请求的实际执行时间可能会长于预测执行时间。所以,本发明规定占用时间的上限为原预计执行时间的2倍。若超出该时间限制,失效锁会强制结束相关计算进程。若未检测到冲突则继续上传直到获得DNN模型执行结果。
以利用DNN模型VGG_16对输入图像进行分类推理为例,采用ILSVRC12图像数据集进行训练,测试集包括猫狗图片各50张。
步骤(1):首先,中心服务器和多边缘节点信息感知,包括预计等待时间,网络速度,可用节点和预测文件,同时解析DNN模型结构。其中,预计等待时间由请求方及其信任边缘节点各自计算,最终发送给请求方;网络速度通过实时测速记录;DNN模型为VGG_16模型;各节点是否可用以及预测文件由各节点各自发送给请求方。其次,为了确定需要上传的DNN层、协作目标及最优上传顺序,本发明建立多边缘节点DNN协同执行图(图2)。多边缘节点DNN协同执行图可以直观表示边缘节点协作执行DNN计算任务的过程及相应开销。图2为边缘计算环境下具有多个边缘节点(D1,D2,…,Dk)的多边缘节点DNN协同执行图,D1为请求协同方,D2到Dk为受D1信任的设备。其中,该DNN模型共有三层(A,B,C),每层对应每个协作目标都有三个节点。图2最下面的节点属于请求方,其他节点对应属于各个协作设备。属于请求方的节点之间的路径表示在请求方本地执行,属于请求方的节点和属于协作设备的节点之间的路径表示输入或输出数据的传输,同一层中属于协作设备的节点之间的路径表示在协作设备执行。另外,给每一条路径都添加权重以代表相应开销。有些路径的权重为零(图3中的虚线路径)是因为不涉及计算或传输开销。每当在边缘节点上安装DNN应用时,该节点会运行其DNN模型,并记录每个DNN层的执行时间。另外,由于协作目标无法知道将要执行哪种DNN模型,所以本发明通过DNN层的类型和参数来预测每层的执行时间。输入或输出数据的传输时延通过将传输数据的大小除以当前网络速度来计算。多边缘节点DNN协同执行图上的最短路径包括应将哪些层上传以最小化执行时间,路径的方向可以表示执行流程。
接下来,在多边缘节点DNN协同执行图上寻找最短路径,并将最短路径上属于被请求方的DNN层的id记录下来。因为最短路径是根据路径的权重计算的,所以被记录的DNN层id将包含有利于性能提升的DNN层的id,剩下的层将留在本地执行;然后,记录各层的目标边缘节点;其次,将各DNN层id对应的层按其延时改善从大到小排序。此时,优先上传靠前的id对应的层最有利于性能提升;然后,依次将记录中的层id和对应节点的id组成数据对;最后,这些数据对的记录即上传策略。该上传策略中包括需要上传的DNN层及协作目标,上传策略从前往后的顺序即最优上传顺序。
步骤(2):图3左侧一个智能眼镜正与其他边缘节点协同执行DNN请求。在图3右侧对步骤(2)进行了详细描述。首先,在等待执行期间,根据计划阶段生成的执行图尝试上传并运行VGG模型。然后,在其他边缘节点接收到计算请求R后,R进入等待锁。其次,判断R是否在等待列表的首位。如果R不在等待列表的首位,那么返回预计等待时间给请求方。此时,利用基于等待锁的节点间实时更新机制,对等待队列,网络速度等状态信息进行捕捉并动态调整执行图。若需要更换协作节点则退出当前等待列表,更换协作节点。
在其他边缘节点接收到计算请求R后,判断R是否在等待列表的首位。如果计算请求R在等待列表的首位,那么R进入失效锁并开始执行。在执行期间,若某节点基于失效锁的协作冲突检测机制检测到异常,则更新其执行时延为原预计执行时间的2倍反馈给请求方,由请求方重新全局考虑上传策略;若未检测到冲突则继续上传直到获得DNN模型执行结果。最后,返回图像分类推理的结果。
本发明在模型上传过程中执行图像分类推理以体现递增性,在模型还未上传时进行的图像分类推理在请求方本地执行,相应执行时间最长;然后,随着模型的分块陆续上传给其他节点,推理速度不断加快;在需要上传的模型分块上传完毕后推理速度达到顶点,其后的图像分类请求的速度趋于稳定。
以上,对本发明的具体实施方式做了具体描述,但是不应该认定本发明的具体实施只局限于这些说明。对于本发明所属领域的普通技术人员来说,在不脱离本发明构思和由权利要求书所限定的保护范围的前提之下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (9)
1.一种面向边缘智能的多边缘节点增量计算卸载方法,包括:
步骤(1),计划阶段
首先,中心服务器和多边缘节点进行信息感知,包括预计等待时间、网络速度、可用节点和预测文件,同时解析DNN模型结构;
其次,根据信息确定参与协同计算的边缘节点,构建多边缘节点DNN协同执行图,确定需要初始优先上传给其它节点的DNN层,并记录对应的目标节点,然后以延时改善为基准排序各DNN层,确定上传策略;
步骤(2),执行阶段
首先,根据计划阶段生成的执行图尝试上传并运行DNN模型;
其次,若某节点基于失效锁的协作冲突检测机制检测到异常,则由失效锁强制结束该节点当前DNN层上传请求,若未检测到冲突则继续上传直到获得DNN模型执行结果;
其特征在于,根据收集到的执行概要文件获得预计执行时延,然后再用层的大小除以当前网络速度来计算层传输时间,以此构建一个多边缘节点DNN协同执行图,多边缘节点DNN协同执行图中边的权重表示相应操作的时间开销;
上传各层能得到的延时改善=本地执行时延-总上传执行时延
采用最短路径算法,根据多边缘节点DNN协同执行图寻找最短路径,确定并记录一个节点需要上传的DNN层id,同时记录各DNN层对应的上传目标节点id;
以延时改善为基准,生成上传策略,优先上传延时改善最大的DNN层。
2.根据权利要求1所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,所述预计等待时间由受信任节点集合中各节点等待锁计算,预测文件记录各DNN层在不同节点上的预计执行时间,由各节点根据DNN层的类型和参数生成,最终由请求方收集汇总。
4.根据权利要求1所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,所述解析DNN模型结构,是指从DNN模型的配置文件获取该DNN模型各层的详细信息,包括:层id,层名称,层的大小。
5.根据权利要求1所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,所述尝试上传并运行DNN模型过程中,若当前DNN请求不在等待队列首位,则按顺序排队等待。
6.根据权利要求1所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,所述尝试上传并运行DNN模型过程中,利用基于等待锁的节点间实时更新机制,对包括等待队列、网络速度在内的状态信息进行捕捉并动态调整执行图;若需要更换协作节点则从当前节点的等待队列退出,并上传DNN分块给新协作节点并等待执行,若不需要更换则继续等待直至执行。
7.根据权利要求6所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,判断是否调整执行图的公式为:min{Tjothers}<Wjk+Ejk,其中,Wjk是请求j在节点k的预计等待时间,Ejk是请求j在节点k执行的预测执行时间,min{Tjothe}是请求j与其他节点协作的时间中的最小值,若满足判定公式则从当前节点的等待队列退出,并上传DNN分块给新协作节点并等待执行。
8.根据权利要求1所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,所述失效锁的协作冲突检测机制是:若超出占用时间的上限,强制结束相关计算进程。
9.根据权利要求8所述面向边缘智能的多边缘节点增量计算卸载方法,其特征在于,所述占用时间的上限为原预计执行时间的2倍。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011494891.2A CN112532461B (zh) | 2020-12-17 | 2020-12-17 | 一种面向边缘智能的多边缘节点增量计算卸载方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011494891.2A CN112532461B (zh) | 2020-12-17 | 2020-12-17 | 一种面向边缘智能的多边缘节点增量计算卸载方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112532461A CN112532461A (zh) | 2021-03-19 |
CN112532461B true CN112532461B (zh) | 2022-04-01 |
Family
ID=75000938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011494891.2A Active CN112532461B (zh) | 2020-12-17 | 2020-12-17 | 一种面向边缘智能的多边缘节点增量计算卸载方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112532461B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114595000B (zh) * | 2022-02-11 | 2023-05-02 | 内蒙古工业大学 | 一种面向边缘智能的高弹性多节点协同模型卸载方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200175361A1 (en) * | 2018-11-30 | 2020-06-04 | Alibaba Group Holding Limited | Partitioning of deep learning inference with dynamic offloading |
US11271994B2 (en) * | 2018-12-28 | 2022-03-08 | Intel Corporation | Technologies for providing selective offload of execution to the edge |
CN110418418B (zh) * | 2019-07-08 | 2022-12-06 | 广州海格通信集团股份有限公司 | 基于移动边缘计算的无线资源调度方法和装置 |
CN110764885B (zh) * | 2019-08-28 | 2024-04-09 | 中科晶上(苏州)信息技术有限公司 | 一种多移动设备的dnn任务的拆分和卸载方法 |
-
2020
- 2020-12-17 CN CN202011494891.2A patent/CN112532461B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112532461A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113242568B (zh) | 一种不确定网络环境中的任务卸载和资源分配方法 | |
US8386560B2 (en) | Pipeline for network based server-side 3D image rendering | |
CN111553213B (zh) | 移动边缘云中实时分布式的身份感知行人属性识别方法 | |
Huang et al. | A lightweight collaborative deep neural network for the mobile web in edge cloud | |
Wolfrath et al. | Haccs: Heterogeneity-aware clustered client selection for accelerated federated learning | |
CN112162789A (zh) | 一种基于软件定义的边缘计算随机卸载决策方法及系统 | |
CN112532461B (zh) | 一种面向边缘智能的多边缘节点增量计算卸载方法 | |
Liu et al. | Mix‐flow scheduling using deep reinforcement learning for software‐defined data‐center networks | |
CN114697324B (zh) | 一种基于边云协同的实时视频分析与处理方法 | |
Cao et al. | A deep reinforcement learning approach to multi-component job scheduling in edge computing | |
Tao et al. | Drl-driven digital twin function virtualization for adaptive service response in 6g networks | |
Zeng et al. | Heterogeneous Training Intensity for federated learning: A Deep reinforcement learning Approach | |
CN111629216B (zh) | 边缘网络环境下基于随机森林算法的vod业务缓存替换方法 | |
Ju et al. | eDeepSave: Saving DNN inference using early exit during handovers in mobile edge environment | |
CN116760722A (zh) | 一种存储辅助mec任务卸载系统及资源调度方法 | |
Suzuki et al. | Safe multi-agent deep reinforcement learning for dynamic virtual network allocation | |
WO2023221266A1 (zh) | 用于物联网的多分支网络协同推理方法及系统 | |
Tang et al. | To cloud or not to cloud: an on-line scheduler for dynamic privacy-protection of deep learning workload on edge devices | |
Kushwaha et al. | Optimal device selection in federated learning for resource-constrained edge networks | |
Barika et al. | Adaptive scheduling for efficient execution of dynamic stream workflows | |
CN113157344A (zh) | 移动边缘计算环境下基于drl的能耗感知任务卸载方法 | |
Cui et al. | Online container scheduling for low-latency iot services in edge cluster upgrade: A reinforcement learning approach | |
CN114595000B (zh) | 一种面向边缘智能的高弹性多节点协同模型卸载方法 | |
CN115987998B (zh) | 微服务系统领袖者选举方法、系统、存储介质和电子设备 | |
Chen et al. | Conflict‐Resilient Incremental Offloading of Deep Neural Networks to the Edge of Smart Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |