CN114745386A - 一种多用户边缘智能场景下的神经网络分割及卸载方法 - Google Patents
一种多用户边缘智能场景下的神经网络分割及卸载方法 Download PDFInfo
- Publication number
- CN114745386A CN114745386A CN202210387076.9A CN202210387076A CN114745386A CN 114745386 A CN114745386 A CN 114745386A CN 202210387076 A CN202210387076 A CN 202210387076A CN 114745386 A CN114745386 A CN 114745386A
- Authority
- CN
- China
- Prior art keywords
- neural network
- representing
- server
- user
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 57
- 230000011218 segmentation Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000005457 optimization Methods 0.000 claims abstract description 29
- 238000005265 energy consumption Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 29
- 230000014509 gene expression Effects 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 238000007667 floating Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
一种多用户边缘智能场景下的神经网络分割及卸载方法,包括以下步骤:系统中有一个边缘服务BS和N个用户设备,每个设备都有一个神经网络推理计算任务;以用户设备的能量和边缘服务器的计算资源为约束条件,以神经网络分割方案和卸载方案为优化变量,以最大化计算任务的完成率为优化目标建立优化问题P;采用最大流最小割结合动态规划的算法求得问题P,得到DNN网络最佳分割及卸载方案并将其应用在用户设备上。本发明适用于多用户且设备能量和服务器资源都有限制的神经网络分割及卸载场景,制定合适的神经网络分割和卸载方法,大幅提高设备神经网络推理计算任务的完成率。
Description
技术领域
本发明属于5G网络边缘智能技术领域,尤其涉及一种多用户边缘计算系统中神经网络的分割及卸载方法,该方法适用于用户设备能量和服务器资源都有限的情况下,制定出合理的神经网络分割和卸载决策,最大化用户任务完成率。
背景技术
随着深度学习的发展,近年来有关神经网络的应用呈现爆炸式的增长。从人脸识别到无人驾驶都是有关神经网络的应用。与此同时,物联网产业的发展诞生了一系列智能终端设备,越来越多的神经网络应用被部署在智能终端上,比如智能手机和智能可穿戴设备,甚至是嵌入式设备。
物联网终端设备是计算资源和能量资源都非常有限的设备,其在保证基本功能正常运行的情况下仅有有限的能量能支持神经网络的推理计算。传统的云计算虽然可以协助进行神经网络的推理计算,但其通过将任务传输到云上进行推理计算减轻设备负载的过程中,大量的数据传输会导致核心网负载过大,从而大幅增加传输时延以及传输能耗。网络分割理论和边缘卸载技术的出现使得用户可以将神经网络的部分网络层,尤其是计算量大的网络层分割并卸载到边缘服务器上进行推理计算,这样不仅能够加速终端设备神经网络的推理计算,减轻了核心网的负载,而且大幅降低设备的计算时延和传输能耗。因此,如何对神经网络做出有效的分割决策和卸载决策就成为了一个值得研究的问题。
发明内容
本发明要克服现有技术的上述缺点,提供一种多用户边缘计算系统中神经网络的分割及卸载方法。
首先,为了最大化神经网络推理计算任务完成率,提出了一个多用户环境下的神经网络分割及卸载的模型,该模型在将神经网络结构考虑为有向无环图的基础上,进一步考虑到了多个用户设备的能量限制和服务器的资源限制问题。其次,提出了一个基于最大流最小割和动态规划的优化算法来最大化用户任务完成率,通过最大限度地利用有限的设备能量和服务器资源实现DNN最佳分割,从而实现有效卸载决策。
为了实现上述过程,本发明提供以下的技术方案:
一种多用户边缘智能场景下的神经网络分割及卸载方法,包括以下步骤:
步骤1:将边缘服务器放置于基站BS中,并通过有线与BS连接。边缘服务器上放置各类已训练好的DNN模型,其计算资源为TH。在基站的通信范围内放置N个用户设备,每个设备i也放置一个已训练好的DNN模型,其能量限制为Si。
步骤2:每个设备i产生一个计算任务ri={Gi,Ci,Oi,Si},这里Gi=<Vi,Ei>表示处理计算任务的神经网络,其中表示图中的各节点,每个节点代表一个网络层,Ei={(vi,j,vi,l)|(vi,j,vi,l)∈Vi}表示各节点之间的边。表示计算网络层vi,j所需要的浮点数计算量。表示各网络层输出数据量的大小,其中oi,j(bit)表示的是网络层vi,j输出的数据大小,Si表示设备的能量限制。
步骤3:以每个用户设备的能量Si和边缘服务器的计算资源TH为约束条件,以神经网络分割方案和卸载方案为优化变量,以最大化每个用户计算任务的完成率为优化目标建立优化问题P。
步骤4:把优化问题P分解为两个子问题P1和P2。采用一种遍历搜索结合最大流最小割的方法对子问题P1进行求解;根据子问题P1的求解结果,采用动态规划算法求解问题P2;最终求得优化问题户,从而得到DNN网络最佳分割及卸载方案。
进一步地,所述步骤3中,优化问题P的表达式为:
其中Vloc和Vmec是所有用户的DNN网络分割决策,分别表示各用户在本地计算和边缘计算的网络层集合;th={th1,…,thN}表示服务器分配给各设备的计算资源;I={I1,I2,…,IN},Ii∈{0,1},表示设备i上的计算请求是否被执行,Ii=1表示请求被执行,否则表示不执行。
再进一步的,优化问题P的限制条件表达式为:
0≤thi≤TH (1)
Ii∈{0,1} (3)
其中式(1)表示边缘服务器给设备分配的资源在1到TH之间,不能超过服务器的资源限制;式(2)表示所有设备所被分配计算资源的总和不能超过服务器的总计算资源TH;式(3)表示任务执行决策变量的限制范围为{0,1}。式(4)表示DNN推理所需能耗不能超过设备的能量限制。
更进一步的,所述步骤4中,问题P1的表达式为:
其中这里ki表示本地计算的能量效率系数;表示计算网络层vi,j所需要的时延;fi表示本地计算速率;Pi表示设备工作时的功率;γi表示设备与服务器之间的传输速率;表示传输网络层输出参数所需要的时延;表示设备待机时的功率;fe表示服务器上每一个线程的计算速率;表示计算网络层vi,j所需要的时延。上述问题P中式(1)、式(4)为问题P1的限制条件表达式。
问题P2的表达式为:
其中pri表示卸载设备i的网络层所能获得的收益,
上述式(2)、式(3)为问题P2的限制条件表达式。
更进一步地,所述步骤4中,采用遍历搜索结合最大流最小割的算法对步骤4中问题P1以及采用动态规划算法对问题P2进行求解的步骤为:
步骤4.1:首先遍历每一个用户i,计算其神经网络全部网络层都在本地计算所需要的能耗如果此能耗不超过设备本身的能量限制,则让神经网络全部在本地进行计算。对于本地计算能耗超过设备能量限制的请求,将其放入另外一个队列Queue。
步骤4.2:针对队列Queue中的每一个请求,将服务器的资源从1到TH进行遍历,每次遍历都构造一个辅助图辅助图由原始的神经网络图Gi加上一些虚拟节点和边构成,虚拟节点是为了和网络节点连接成边,本身无实际意义;而图中的每一条边都有其实际意义,边的权重表示的是当请求ri的网络层j分得的计算资源为thi的时候本地计算所需的能耗;是ri从本地向MEC传输数据所需要的能耗;是ri在MEC计算时本地设备空闲所需要的能耗。
步骤4.3:在辅助图的基础上通过找到图中的最小割来计算出分配给设备的资源为thi的时候卸载DNN所需要的最小能耗,直到这个最小能耗不超过设备能耗的限制时,求解出thi,同时相应地得到最佳分割和如果当服务器将所有资源TH全部分配给设备i也不能满足其能量限制,则thi=∞。
步骤4.4:根据步骤4.3求得的thi值计算完成执行所获得的收益pri。当0≤thi≤TH时pri设置为1,表示任务可以执行完成,否则pri为0表示任务不能完成。
步骤4.5:用背包问题求解问题P2。其背包问题的递推关系式:
这里,dp[i][j]表示服务器资源为j,卸载第i个DNN所能获得的最大收益。根据其递推式求解出问题P2中的I值。
本发明的有益效果主要表现在:适用于多用户且设备能量和服务器资源都有限制的神经网络分割及卸载场景,根据用户设备自身的能量制定合理的分割策略来最小化神经网络推理计算所需要的能量,根据服务器计算资源的限制求解出有效的卸载决策来最大化利用服务器的资源,最后大幅提高设备神经网络推理计算任务的完成率。
附图说明
图1为神经网络边缘卸载系统的网络模型。
图2为神经网络建模原始图
图3为神经网络辅助分割图。
具体实施方式
下面结合附图对本发明做进一步说明。
结合图1、图2、图3,一种多用户边缘智能场景下的神经网络分割及卸载方法,包括如下步骤:
步骤1:将边缘服务器放置于基站BS中,并通过有线与BS连接。边缘服务器上放置各类已训练好的DNN模型,其计算资源为TH。在基站的通信范围内放置N个用户设备,多用户设备与基站之间的通信模式为时分复用,每个设备i也放置一个已训练好的DNN模型,其能量限制为Si,这个DNN模型可以是链式结构比如AlexNet或者是有向无环图结构比如GoogleNet。
步骤2:每个设备i产生一个计算任务ri={Gi,Ci,Oi,Si},这里Gi=<Vi,Ei>表示处理计算任务的神经网络,其中表示图中的各节点,每个节点代表一个网络层,Ei={(vi,j,vi,l)|(vi,j,vi,l)∈Vi}表示各节点之间的边。表示计算网络层vi,j所需要的浮点数计算量。Oi={oi,0,oi,1,…,oi,|v_i|-1}表示各网络层输出数据量的大小,其中oi,j(bit)表示的是网络层vi,j输出的数据大小,Si表示设备的能量限制。DNN切割之后的网络层分为三个集合,分别表示本地计算的网络层集合、本地计算网络层中需要将输出数据传到MEC的网络层的集合,和MEC计算的网络层集合。
步骤3:以每个用户设备的能量Si和边缘服务器的计算资源TH为约束条件,以神经网络分割方案和卸载方案为优化变量,以最大化每个用户计算任务的完成率为优化目标建立优化问题P。
步骤4:把优化问题P分解为两个子问题P1和P2。采用一种时间复杂度为O(n)遍历搜索结合最大流最小割的方法对子问题P1进行求解;根据子问题P1的求解结果,采用动态规划算法求解问题P2;最终求得优化问题P,从而得到DNN网络最佳分割及卸载方案。
进一步地,所述步骤3中,优化问题P的表达式为:
其中Vloc和Vmec是所有用户的DNN网络分割决策,分别表示各用户在本地计算和边缘计算的网络层集合;th={th1,…,thN}表示服务器分配给各设备的计算资源;I={I1,I2,…,IN},Ii∈{0,1},表示设备i上的计算请求是否被执行,Ii=1表示请求被执行,否则表示不执行。
再进一步的,优化问题P的限制条件表达式为:
0≤thi≤TH (1)
Ii∈{0,1} (3)
其中式(1)表示边缘服务器给设备分配的资源在1到TH之间,不能超过服务器的资源限制;式(2)表示所有设备所被分配计算资源的总和不能超过服务器的总计算资源TH;式(3)表示任务执行决策变量的限制范围为{0,1}。式(4)表示DNN推理所需能耗不能超过设备的能量限制。
更进一步的,所述步骤4中,问题P1的表达式为:
其中这里ki表示本地计算的能量效率系数;表示计算网络层vi,j所需要的时延;fi表示本地计算速率;Pi表示设备工作时的功率;γi表示设备与服务器之间的传输速率;表示传输网络层输出参数所需要的时延;表示设备待机时的功率;fe表示服务器上每一个线程的计算速率;表示计算网络层vi,j所需要的时延。上述问题P中式(1)、式(4)为问题P1的限制条件表达式。
问题P2的表达式为:
其中pri表示卸载设备i的网络层所能获得的收益,
上述式(2)、式(3)为问题P2的限制条件表达式。
更进一步地,所述步骤4中,采用遍历搜索结合最大流最小割的算法对步骤4中问题P1以及采用动态规划算法对问题P2进行求解的步骤为:
步骤4.1:首先遍历每一个用户i,计算其神经网络全部网络层都在本地计算所需要的能耗如果此能耗不超过设备本身的能量限制,则让神经网络全部在本地进行计算,以便服务器将计算资源分配给其他用户。对于本地计算能耗超过设备能量限制的请求,将其放入另外一个队列Queue。
步骤4.2:针对队列Queue中的每一个请求,将服务器的资源从1到TH进行遍历,每次遍历都构造一个辅助图辅助图由原始的神经网络图Gi加上一些虚拟节点和边构成,虚拟节点是为了和网络节点连接成边,本身无实际意义;而图中的每一条边都有其实际意义,边的权重表示的是当请求ri的网络层j分得的计算资源为thi的时候本地计算所需的能耗;是ri从本地向MEC传输数据所需要的能耗;是ri在MEC计算时本地设备空闲所需要的能耗。
步骤4.3:在辅助图的基础上通过找到图中的最小割来计算出分配给设备的资源为thi的时候卸载DNN所需要的最小能耗,直到这个最小能耗不超过设备能耗的限制时,求解出thi,同时相应地得到最佳分割和如果当服务器将所有资源TH全部分配给设备i也不能满足其能量限制,则thi=∞。
步骤4.4:根据步骤4.3求得的thi值计算完成执行所获得的收益pri。当0≤thi≤TH时pri设置为1,表示任务可以执行完成,否则pri为0表示任务不能完成。将thi表示为背包问题中的物品重量,收益pri表示为背包问题中物品价格,这样就可以将问题P2转化为一个背包问题。
步骤4.5:用背包问题求解问题P2。其背包问题的递推关系式:
判断第i个请求能否卸载的依据就是当卸载第i个请求时服务器所剩下的资源是否满足请求卸载所需要的资源,如果不能满足卸载,则收益不变,如果满足卸载,需要将卸载请求i所能获得的价值和不卸载请求i所能获得的最大价值进行比较,选出一个能获得最大价值的方案,这里,dp[i][j]表示服务器资源为j,卸载第i个DNN所能获得的最大收益。根据其递推式求解出问题P2中的I值。
针对如图1所示的N个物联网设备卸载神经网络到边缘服务器的场景来说明本发明的具体实施方案。
首先,系统中有一个边缘服务器BS与基站连接,其计算资源是有限的,在基站的通信范围内有N个用户设备,每个设备都有一个神经网络推理计算任务。
其次,以每个用户设备的能量Si和边缘服务器的计算资源TH为约束条件,以神经网络分割方案和卸载方案为优化变量,以最大化每个用户计算任务的完成率为优化目标建立优化问题P。
然后,采用一种遍历搜索结合最大流最小割的方法得到神经网络分割方案{Vloc,Vmec},采用动态规划算法得到卸载决策I。
最后,根据所求的最优解,将神经网络分割方案、计算卸载方案应用到边缘物联网设备上。
本发明适用于多用户且设备能量和服务器资源都有限制的神经网络分割及卸载场景,制定合适的神经网络分割和卸载方法,大幅提高设备神经网络推理计算任务的完成率。
本说明书的实施例所述的内容仅仅是对发明构思的实现形式的列举,仅作说明用途。本发明的保护范围不应当被视为仅限于本实施例所陈述的具体形式,本发明的保护范围也及于本领域的普通技术人员根据本发明构思所能想到的等同技术手段。
Claims (5)
1.一种多用户边缘智能场景下的神经网络分割及卸载方法,其特征在于,包括如下步骤:
步骤1:将边缘服务器放置于基站BS中,并通过有线与BS连接;边缘服务器上放置各类已训练好的DNN模型,其计算资源为TH;在基站的通信范围内放置N个用户设备,每个设备i也放置一个已训练好的DNN模型,其能量限制为Si;
步骤2:每个设备i差生一个计算任务ri={Gi,Ci,Oi,Si},这里Gi=<Vi,Ei>表示处理计算任务的神经网络,其中表示图中的各节点,每个节点代表一个网络层,Ei={(vi,j,vi,l)|(vi,j,vi,l)∈Vi}表示各节点之间的边;表示计算网络层vi,j所需要的浮点数计算量; 表示各网络层输出数据量的大小,其中oi,j(bit)表示的是网络层vi,j输出的数据大小,Si表示设备的能量限制;
步骤3:以每个用户设备的能量Si和边缘服务器的计算资源TH为约束条件,以神经网络分割方案和卸载方案为优化变量,以最大化每个用户计算任务的完成率为优化目标建立优化问题P;
步骤4:把优化问题P分解为两个子问题P1和P2;采用一种遍历搜索结合最大流最小割的方法对子问题P1进行求解;根据子问题P1的求解结果,采用动态规划算法求解问题P2;最终求得优化问题P,从而得到DNN网络最佳分割及卸载方案。
5.如权利要求1所述的一种多用户边缘智能场景下的神经网络分割及卸载方法,其特征在于,步骤4中,采用遍历搜索结合最大流最小割的算法对步骤4中问题P1以及采用动态规划算法对问题P2进行求解的步骤为:
步骤4.1:首先遍历每一个用户i,计算其神经网络全部网络层都在本地计算所需要的能耗如果此能耗不超过设备本身的能量限制,则让神经网络全部在本地进行计算;对于本地计算能耗超过设备能量限制的请求,将其放入另外一个队列Queue;
步骤4.2:针对队列Queue中的每一个请求,将服务器的资源从1到TH进行遍历,每次遍历都构造一个辅助图辅助图由原始的神经网络图Gi加上一些虚拟节点和边构成,虚拟节点是为了和网络节点连接成边,本身无实际意义;而图中的每一条边都有其实际意义,边的权重表示的是当请求ri的网络层j分得的计算资源为thi的时候本地计算所需的能耗;是ri从本地向MEC传输数据所需要的能耗;是ri在MEC计算时本地设备空闲所需要的能耗;
步骤4.3:在辅助图的基础上通过找到图中的最小割来计算出分配给设备的资源为thi的时候卸载DNN所需要的最小能耗,直到这个最小能耗不超过设备能耗的限制时,求解出thi,同时相应地得到最佳分割和如果当服务器将所有资源TH全部分配给设备i也不能满足其能量限制,则thi=∞;
步骤4.4:根据步骤4.3求得的thi值计算完成执行所获得的收益pri;当0≤thi≤TH时pri设置为1,表示任务可以执行完成,否则pri为0表示任务不能完成;
步骤4.5:用背包问题求解问题P2;其背包问题的递推关系式:
这里,dp[i][j]表示服务器资源为j,卸载第i个DNN所能获得的最大收益;根据其递推式求解出问题P2中的I值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210387076.9A CN114745386B (zh) | 2022-04-13 | 2022-04-13 | 一种多用户边缘智能场景下的神经网络分割及卸载方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210387076.9A CN114745386B (zh) | 2022-04-13 | 2022-04-13 | 一种多用户边缘智能场景下的神经网络分割及卸载方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114745386A true CN114745386A (zh) | 2022-07-12 |
CN114745386B CN114745386B (zh) | 2024-05-03 |
Family
ID=82282539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210387076.9A Active CN114745386B (zh) | 2022-04-13 | 2022-04-13 | 一种多用户边缘智能场景下的神经网络分割及卸载方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114745386B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116894469A (zh) * | 2023-09-11 | 2023-10-17 | 西南林业大学 | 端边云计算环境中的dnn协同推理加速方法、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170243053A1 (en) * | 2016-02-18 | 2017-08-24 | Pinscreen, Inc. | Real-time facial segmentation and performance capture from rgb input |
CN110347500A (zh) * | 2019-06-18 | 2019-10-18 | 东南大学 | 用于边缘计算环境中面向深度学习应用的任务卸载方法 |
CN113873022A (zh) * | 2021-09-23 | 2021-12-31 | 中国科学院上海微系统与信息技术研究所 | 一种可划分任务的移动边缘网络智能资源分配方法 |
CN114116052A (zh) * | 2021-11-18 | 2022-03-01 | 天津市英贝特航天科技有限公司 | 一种边缘计算方法及装置 |
-
2022
- 2022-04-13 CN CN202210387076.9A patent/CN114745386B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170243053A1 (en) * | 2016-02-18 | 2017-08-24 | Pinscreen, Inc. | Real-time facial segmentation and performance capture from rgb input |
CN110347500A (zh) * | 2019-06-18 | 2019-10-18 | 东南大学 | 用于边缘计算环境中面向深度学习应用的任务卸载方法 |
CN113873022A (zh) * | 2021-09-23 | 2021-12-31 | 中国科学院上海微系统与信息技术研究所 | 一种可划分任务的移动边缘网络智能资源分配方法 |
CN114116052A (zh) * | 2021-11-18 | 2022-03-01 | 天津市英贝特航天科技有限公司 | 一种边缘计算方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116894469A (zh) * | 2023-09-11 | 2023-10-17 | 西南林业大学 | 端边云计算环境中的dnn协同推理加速方法、设备及介质 |
CN116894469B (zh) * | 2023-09-11 | 2023-12-15 | 西南林业大学 | 端边云计算环境中的dnn协同推理加速方法、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114745386B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113242568B (zh) | 一种不确定网络环境中的任务卸载和资源分配方法 | |
CN112039950B (zh) | 边缘计算网络任务调度与资源分配方法和边缘计算系统 | |
CN113950066B (zh) | 移动边缘环境下单服务器部分计算卸载方法、系统、设备 | |
CN113568675B (zh) | 一种基于分层强化学习的车联网边缘计算任务卸载方法 | |
CN111475274B (zh) | 云协同多任务调度方法及装置 | |
Nath et al. | Multi-user multi-channel computation offloading and resource allocation for mobile edge computing | |
CN111800828A (zh) | 一种超密集网络的移动边缘计算资源分配方法 | |
CN113543176A (zh) | 基于智能反射面辅助的移动边缘计算系统的卸载决策方法 | |
CN114285853B (zh) | 设备密集型工业物联网中基于端边云协同的任务卸载方法 | |
CN112214301B (zh) | 面向智慧城市基于用户偏好的动态计算迁移方法及装置 | |
CN114265631B (zh) | 一种基于联邦元学习的移动边缘计算智能卸载方法及装置 | |
CN112650581A (zh) | 一种面向智能楼宇的云边协同任务调度方法 | |
CN113590279A (zh) | 一种面向多核边缘计算服务器的任务调度和资源分配方法 | |
CN111711962A (zh) | 一种移动边缘计算系统子任务协同调度方法 | |
CN116321293A (zh) | 基于多智能体强化学习的边缘计算卸载和资源分配方法 | |
Dong et al. | Quantum particle swarm optimization for task offloading in mobile edge computing | |
CN115473896A (zh) | 基于dqn算法的电力物联网卸载策略和资源配置优化方法 | |
CN114745386A (zh) | 一种多用户边缘智能场景下的神经网络分割及卸载方法 | |
CN113946423B (zh) | 基于图注意力网络的多任务边缘计算调度优化方法 | |
Hussein et al. | Efficient Computation Offloading of IoT-Based Workflows Using Discrete Teaching Learning-Based Optimization. | |
CN111158893B (zh) | 应用于雾计算网络的任务卸载方法、系统、设备及介质 | |
CN116828541A (zh) | 基于多智能体强化学习的边缘计算依赖任务动态卸载方法及系统 | |
CN116204319A (zh) | 基于sac算法与任务依赖关系的云边端协同卸载方法及系统 | |
CN112910716B (zh) | 一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 | |
CN114219074A (zh) | 一种按需动态调整的无线通信网络资源分配算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |