CN111741054A - 一种移动用户深度神经网络计算卸载时延最小化方法 - Google Patents
一种移动用户深度神经网络计算卸载时延最小化方法 Download PDFInfo
- Publication number
- CN111741054A CN111741054A CN202010330804.3A CN202010330804A CN111741054A CN 111741054 A CN111741054 A CN 111741054A CN 202010330804 A CN202010330804 A CN 202010330804A CN 111741054 A CN111741054 A CN 111741054A
- Authority
- CN
- China
- Prior art keywords
- sdag
- time
- edge cloud
- delay
- dnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
一种移动用户深度神经网络计算卸载时延最小方法,通过对处在移动状态下的用户处理基于深度神经网络的智能应用进行分析,以最小化时延为目的建立相应模型;将深度神经网络建模为一张有向无环图,通过对该图的多次切割制定最佳的卸载决策;切割过程分为两个阶段:第一阶段仅考虑一个时隙内的优化问题,寻找到一个最佳切割点,把该时隙内的网络模型分为前后两部分,第一部分进行本地计算,第二部分卸载至边缘云计算;第二阶段从全局角度出发,将整个有向无环图且切割为多个分块,实现最小化完成整个DNN任务所需的时隙数。本发明以最小化DNN计算时延为目标,实现移动用户和边缘云服务器的协同合作,同时保证用户移动过程中处理任务的连续性。
Description
技术领域
本发明属于边缘计算卸载技术领域,尤其涉及一种用户移动状态下基于深度神经网络的智能应用计算卸载时延最小化方法。
背景技术
深度神经网络(Deep Neural Networks,DNN)的最新研究成果实现了DNN大幅度的性能提升,已广泛应用于图像识别、智能搜索、语言处理等领域。尽管新型移动设备的中央处理器越来越强大,但仍然无法满足实时性要求极高的DNN智能应用的时延需求。
边缘计算是解决上述问题的一个有效方法。移动设备可以通过计算卸载将部分或全部计算任务交给边缘云服务器处理,以解决移动设备在资源存储、计算性能以及能效等方面存在的不足。计算卸载的关键是移动设备决定是否卸载、卸载多少以及卸载什么的问题,即卸载决策的制定。随着5G时代的到来,用户的移动性变得不可忽视,用户在移动过程中往往会不断更换与其连接的基站,从而导致计算卸载的失败率大大提高。为此,卸载决策的制定于任务的成功性至关重要。
发明内容
为了克服现有技术存在的不足,本发明提供一种在移动用户-边缘云系统中,考虑用户移动性在内的DNN卸载方法,该方法以最小化DNN计算时延为目标,实现移动用户和边缘云服务器的协同合作,同时保证用户移动过程中处理任务的连续性;此外,本方法在实现最小化计算时延的基础上尽可能少的占用边缘服务器的计算和存储资源,从而实现整个系统的性能最优化。
为解决上述技术问题,本发明采用的技术方案为:
一种移动用户深度神经网络计算卸载时延最小化方法,包括如下步骤:
步骤1:将深度神经网络所需的执行时间划分为多个不等长时间段,划分原则是用户移动过程中所连接的基站是否改变,每个基站均部署了云服务器,设定DNN请求发出的时刻为τstart,任务完成的时刻为τend,在这段时间内,用户在每个基站的通信区域内停留的时间即为一个时间段;
步骤2:将DNN模型建模为一张有n个顶点的有向无环图DAG,图中的每一个顶点代表深度神经网络模型中的一层,这一层网络可以选择在本地计算,也可以卸载到边缘云计算;
步骤3:用户完成该DNN任务需要m个时间段,m是需要优化的参数,基于图论的思想,把DNN拓扑图DAG划分为m个分块,记为
SDAG={SDAG1,......,SDAGj,......,SDAGm},
每一个时间段完成一个分块的执行,每一个分块j由移动用户和边缘云服务器协作完成,我们把这一分块再分为两小分块,前一小分块SDAGjl由本地执行,后一小分块SDAGje卸载至边缘云执行;
步骤4:由于边缘云服务器的存储资源是有限的,采取用户按需上传模型,哪几层模型需要在边缘云执行,就把那几层的模型上传到边缘云,因此,用户需上传SDAGje的神经网络模型,为此,重定义
SDAG={SDAG1l,SDAG1e,……,SDAGjl,SDAGje,……,SDAGml,SDAGme}
所有带l下标的分块均在本地执行,所有带e下标的分块均卸载至边缘云服务器执行;
步骤5:根据SDAG,该任务的整体执行流程为:在第一个时间段内,移动用户本地执行SDAG1l,同时把SDAG1e的DNN模型传输给到边缘云服务器,当两者均执行完成后,移动设备将SDAG1l的计算结果传输给边缘云服务器,边缘云服务器执行SDAG1e,当边缘云服务器执行完SDAG1e之后,将最终结果传回给用户,用户接着进入到第二个基站的通信范围,第二个时间段的执行过程以此类推;
步骤6:根据上述步骤所描述,建立DNN卸载过程中时延的数学模型,该时延分为三部分:第一部分为SDAGjl的本地计算,同时还要上传SDAGje的网络模型,这部分的时延取两者中的较大值,数学表达式如下:
第二部分为Vjt的网络传输时延,数学表达式如下:
第三部分为SDAGje在边缘云服务器中的处理时延,数学表达式如下:
总时延即为上述三部分的时延之和;
步骤7:用最大流最小割求解一个时间段内的优化问题;
步骤8:从全局最优角度出发,最小化完成整个DNN任务所需的时间段数,即m。
进一步,所述步骤7的过程如下:
7.1)假设在该阶段已经得到了SDAGj,要解决的问题是如何最优划分SDAGj以得到SDAGjl和SDAGje,使得执行SDAGj所需的时间最短,重新构建一张新图g,新增两个节点l和e,分别代表本地计算和边缘云计算,e和l分别连接SDAGj中的每一个节点;
7.2)基于图论的思想,使用最大流最小割方法把图g切割成两个子图,要求节点l和e分别在不同的子图内,切割的目标是达到时延最小。
再进一步,所述步骤8的过程如下:
8.1)初始化SDAG1为该时间段内最多能由移动设备进行本地计算完成的节点数,对SDAG1进行粗粒度增加,设置一个常量K,K值的设置可根据具体情况具体分析;在SDAG1集合中往后增加K个节点,对新的SDAG1进行步骤7的最小时延求解,若求得的时延小于这个时间段的时间长度,则重复本步骤,直到求得的时延大于这个时间段的时间长度;
8.2)对通过上述步骤得到的SDAG1进行细粒度减少,在SDAG1中删除最后一个节点,对新的SDAG1进行步骤7的最小时延求解,若该值大于这个时间段的时间长度,则重复本步骤,直到时延小于等于这个时间段的时间长度,此时的SDAG1即为最优解;
8.3)从DAG中删除SDAG1,对剩余部分进行SDAG2的初始化,重复步骤8.2)和步骤8.3),直至最后一个节点也被分配完成,得到最优的SDAG。
本发明的有益效果为:对处在移动状态下的用户处理基于深度神经网络的智能应用进行分析,提出了一种时延最小化方法。通过对深度神经网络拓扑图的层级细粒度分割,为移动用户制定合理的卸载策略,从而达到时延最小化。
附图说明
图1是移动用户-边缘云系统的场景图;
图2是移动用户-边缘云系统的卸载框架图;
图3是第分块j的神经网络拓扑图;
图4是为第分块j构建的新图g;
图5是最小割算法演示图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1至图5,一种移动用户深度神经网络计算卸载时延最小方法,包括如下步骤:
步骤1:将深度神经网络所需的执行时间划分为多个不等长时间段,划分原则是用户移动过程中所连接的基站是否改变,每个基站均部署了云服务器,设定DNN请求发出的时刻为τstart,任务完成的时刻为τend,在这段时间内,用户在每个基站的通信区域内停留的时间即为一个时间段,如图1所示,第一个时时间段从τstart开始,τ2结束,第二个时间段从τ2开始,τ3结束,第三个时间段从τ3开始,τend结束;
步骤2:将DNN模型建模为一张有n个顶点的有向无环图DAG,图中的每一个顶点代表深度神经网络模型中的一层,这一层网络可以选择在本地计算,也可以卸载到边缘云计算;
步骤3:用户完成该DNN任务需要m个时间段,m是需要优化的参数,基于图论的思想,把DNN拓扑图DAG划分为m个分块,记为
SDAG={SDAG1,……,SDAGj,……,SDAGm},
每一个时间段完成一个分块的执行,每一个分块j由移动用户和边缘云服务器协作完成,我们把这一分块再分为两小分块,前一小分块SDAGjl由本地执行,后一小分块SDAGje卸载至边缘云执行;
步骤4:由于边缘云服务器的存储资源是有限的,本策略采取用户按需上传模型,哪几层模型需要在边缘云执行,就把那几层的模型上传到边缘云,因此,用户需上传SDAGje的神经网络模型,为此,重定义
SDAG={SDAG1l,SDAG1e,......,SDAGjl,SDAGje,......,SDAGml,SDAGme}
所有带l下标的分块均在本地执行,所有带e下标的分块均卸载至边缘云服务器执行;
步骤5:如图2所示,移动用户处理DNN任务的整体执行流程为:当DNN请求发生时,移动设备动态生成SDAG,SDAG中包含m个时间段,在第一个时隙内,移动用户本地执行SDAG1l,同时把SDAG1e的DNN模型传输给到边缘云服务器,当两者均执行完成后,移动设备将SDAG1l的计算结果传输给边缘云服务器,边缘云服务器执行SDAG1e,当边缘云服务器执行完SDAG1e之后,将最终结果传回给用户,设定需要在网络中传输输出数据的网络层集合为Vjt,在第一个时间段内,即为V1t,用户接着进入到第二个基站的通信范围,第二个时间段的执行过程以此类推;
步骤6:根据上述步骤所描述,建立DNN卸载过程中时延的数学模型,该时延分为三部分:第一部分为SDAGjl的本地计算,同时还要上传SDAGje的网络模型,这部分的时延取两者中的较大值,数学表达式如下:
第二部分为Vjt的网络传输时延,数学表达式如下:
第三部分为SDAGje在边缘云服务器中的处理时延,数学表达式如下:
总时延即为上述三部分的时延之和;
步骤7:用最大流最小割求解一个时间段内的优化问题,过程如下:
7.1)假设在该阶段已经得到了SDAGj,如图3所示,要解决的问题是如何最优划分SDAGj以得到SDAGjl和SDAGje,使得执行SDAGj所需的时间最短,如图4所示,重新构建一张新图g,新增两个节点l和e,分别代表本地计算和边缘云计算,e和l分别连接SDAGj中的每一个节点;
7.2)基于图论的思想,用最大流最小割方法把图g切割成两个子图,要求节点l和e分别在不同的子图内,切割的目标是达到时延最小;以图5为例,切割完成后,与节点l相连的线被切断的节点将进行本地计算,这些节点构成了SDAGjl;与节点e相连的线被切断的节点将卸载至边缘云进行计算,这些节点构成了SDAGje;而被切断的属于原DAG的线的起始点的输出数据需通过网络传输至边缘云,以及边缘云最后的输出结果需要通过网络传输至移动设备,这些节点构成了这些节点构成了Vjt,得到上述三个集合之后,便可以使用前文提到的时延表达式求解最小时延;
步骤8:从全局最优角度出发,最小化完成整个DNN任务所需的时间段数,即m,过程如下:
8.1)从第一个时间段开始,初始化SDAG1为在该时间段的长度下最多能由移动设备进行本地计算完成的节点数,对SDAG1进行粗粒度增加,设置一个常量K,K值的设置可根据具体情况具体分析,在SDAG1集合中往后增加K个节点,对新的SDAG1进行步骤7的最小时延求解,若求得的时延小于这个时间段的时间长度,则重复本步骤,直到求得的时延大于这个时间段的时间长度;
8.2)对通过上述步骤得到的SDAG1进行细粒度减少,在SDAG1集合中删除最后一个节点,对新的SDAG1进行步骤7的最小时延求解,若该值大于这个时间段的时间长度,则重复本步骤,直到时延小于等于这个时间段的时间长度,此时的SDAG1即为最优解;
8.3)从DAG中删除SDAG1,对剩余部分进行SDAG2的初始化,重复步骤8.2)和步骤8.3),直至最后一个节点也被分配完成,得到最优的SDAG。
Claims (3)
1.一种移动用户深度神经网络计算卸载时延最小化方法,其特征在于,所述方法包括如下步骤:
步骤1:将深度神经网络所需的执行时间划分为多个不等长时间段,划分原则是用户移动过程中所连接的基站是否改变,每个基站均部署了云服务器,设定DNN请求发出的时刻为τstart,任务完成的时刻为τend,在这段时间内,用户在每个基站的通信区域内停留的时间即为一个时间段;
步骤2:将DNN模型建模为一张有n个顶点的有向无环图DAG,图中的每一个顶点代表深度神经网络模型中的一层,这一层网络可以选择在本地计算,也可以卸载到边缘云计算;
步骤3:用户完成该DNN任务需要m个时间段,m是需要优化的参数,基于图论的思想,把DNN拓扑图DAG划分为m个分块,记为
SDAG={SDAG1,......,SDAGj,……,SDAGm},
每一个时间段完成一个分块的执行,每一个分块j由移动用户和边缘云服务器协作完成,我们把这一分块再分为两小分块,前一小分块SDAGjl由本地执行,后一小分块SDAGje卸载至边缘云执行;
步骤4:由于边缘云服务器的存储资源是有限的,采取用户按需上传模型,哪几层模型需要在边缘云执行,就把那几层的模型上传到边缘云,因此,用户需上传SDAGje的神经网络模型,为此,重定义
SDAG={SDAG1l,SDAG1e,……,SDAGjl,SDAGje,……,SDAGml,SDAGme}
所有带l下标的分块均在本地执行,所有带e下标的分块均卸载至边缘云服务器执行;
步骤5:根据SDAG,该任务的整体执行流程为:在第一个时间段内,移动用户本地执行SDAG1l,同时把SDAG1e的DNN模型传输给到边缘云服务器,当两者均执行完成后,移动设备将SDAG1l的计算结果传输给边缘云服务器,边缘云服务器执行SDAG1e,当边缘云服务器执行完SDAG1e之后,将最终结果传回给用户,用户接着进入到第二个基站的通信范围,第二个时间段的执行过程以此类推;
步骤6:根据上述步骤所描述,建立DNN卸载过程中时延的数学模型,该时延分为三部分:第一部分为SDAGjl的本地计算,同时还要上传SDAGje的网络模型,这部分的时延取两者中的较大值,数学表达式如下:
第二部分为Vjt的网络传输时延,数学表达式如下:
第三部分为SDAGje在边缘云服务器中的处理时延,数学表达式如下:
总时延即为上述三部分的时延之和;
步骤7:用最大流最小割求解一个时间段内的优化问题;
步骤8:从全局最优角度出发,最小化完成整个DNN任务所需的时间段数,即m。
2.如权利要求1所述的一种移动用户深度神经网络计算卸载时延最小化方法,其特征在于,所述步骤7的过程如下:
7.1)假设在该阶段已经得到了SDAGj,要解决的问题是如何最优划分SDAGj以得到SDAGjl和SDAGje,使得执行SDAGj所需的时间最短,重新构建一张新图g,新增两个节点l和e,分别代表本地计算和边缘云计算,e和l分别连接SDAGj中的每一个节点;
7.2)基于图论的思想,使用最大流最小割方法把图g切割成两个子图,要求节点l和e分别在不同的子图内,切割的目标是达到时延最小。
3.如权利要求1或2所述的一种移动用户深度神经网络计算卸载时延最小化方法,其特征在于,所述步骤8的过程如下:
8.1)初始化SDAG1为该时间段内最多能由移动设备进行本地计算完成的节点数,对SDAG1进行粗粒度增加,设置一个常量K,K值的设置可根据具体情况具体分析;在SDAG1集合中往后增加K个节点,对新的SDAG1进行步骤7的最小时延求解,若求得的时延小于这个时间段的时间长度,则重复本步骤,直到求得的时延大于这个时间段的时间长度;
8.2)对通过上述步骤得到的SDAG1进行细粒度减少,在SDAG1中删除最后一个节点,对新的SDAG1进行步骤7的最小时延求解,若该值大于这个时间段的时间长度,则重复本步骤,直到时延小于等于这个时间段的时间长度,此时的SDAG1即为最优解;
8.3)从DAG中删除SDAG1,对剩余部分进行SDAG2的初始化,重复步骤8.2)和步骤8.3),直至最后一个节点也被分配完成,得到最优的SDAG。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010330804.3A CN111741054B (zh) | 2020-04-24 | 2020-04-24 | 一种移动用户深度神经网络计算卸载时延最小化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010330804.3A CN111741054B (zh) | 2020-04-24 | 2020-04-24 | 一种移动用户深度神经网络计算卸载时延最小化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111741054A true CN111741054A (zh) | 2020-10-02 |
CN111741054B CN111741054B (zh) | 2022-07-26 |
Family
ID=72646729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010330804.3A Active CN111741054B (zh) | 2020-04-24 | 2020-04-24 | 一种移动用户深度神经网络计算卸载时延最小化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111741054B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214261A (zh) * | 2020-10-30 | 2021-01-12 | 内蒙古工业大学 | 一种面向边缘智能的三层结构dnn计算卸载方法 |
CN112511644A (zh) * | 2020-12-14 | 2021-03-16 | 首都信息发展股份有限公司 | 一种多设备位姿共享方法及装置 |
CN112579285A (zh) * | 2020-12-10 | 2021-03-30 | 南京工业大学 | 面向边缘网络的分布式神经网络协同优化方法 |
CN112738272A (zh) * | 2021-01-12 | 2021-04-30 | 浙江工业大学 | 一种最小化网络时延的边缘节点负载均衡方法 |
CN112862083A (zh) * | 2021-04-06 | 2021-05-28 | 南京大学 | 一种边缘环境下的深度神经网络推断方法及装置 |
CN112990018A (zh) * | 2021-03-18 | 2021-06-18 | 江苏边智科技有限公司 | 一种动态变化网络环境下深度学习模型的加速执行方法 |
CN112995023A (zh) * | 2021-03-02 | 2021-06-18 | 北京邮电大学 | 一种多接入边缘计算网络计算卸载系统及其计算卸载方法 |
CN113592077A (zh) * | 2021-08-05 | 2021-11-02 | 哈尔滨工业大学 | 一种面向边缘智能的云边端dnn协同推理加速方法 |
CN117149444A (zh) * | 2023-10-31 | 2023-12-01 | 华东交通大学 | 适用于巡检系统的深度神经网络混合划分方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016161677A1 (zh) * | 2015-04-07 | 2016-10-13 | 北京邮电大学 | 一种业务卸载方法及系统 |
WO2017067586A1 (en) * | 2015-10-21 | 2017-04-27 | Deutsche Telekom Ag | Method and system for code offloading in mobile computing |
CN108809723A (zh) * | 2018-06-14 | 2018-11-13 | 重庆邮电大学 | 一种边缘服务器联合任务卸载及卷积神经网络层调度方法 |
US20190392307A1 (en) * | 2018-06-21 | 2019-12-26 | Beijing University Of Posts And Telecommunications | Method and apparatus for accelerating distributed training of a deep neural network |
CN110764885A (zh) * | 2019-08-28 | 2020-02-07 | 中科晶上(苏州)信息技术有限公司 | 一种多移动设备的dnn任务的拆分和卸载方法 |
-
2020
- 2020-04-24 CN CN202010330804.3A patent/CN111741054B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016161677A1 (zh) * | 2015-04-07 | 2016-10-13 | 北京邮电大学 | 一种业务卸载方法及系统 |
WO2017067586A1 (en) * | 2015-10-21 | 2017-04-27 | Deutsche Telekom Ag | Method and system for code offloading in mobile computing |
CN108809723A (zh) * | 2018-06-14 | 2018-11-13 | 重庆邮电大学 | 一种边缘服务器联合任务卸载及卷积神经网络层调度方法 |
US20190392307A1 (en) * | 2018-06-21 | 2019-12-26 | Beijing University Of Posts And Telecommunications | Method and apparatus for accelerating distributed training of a deep neural network |
CN110764885A (zh) * | 2019-08-28 | 2020-02-07 | 中科晶上(苏州)信息技术有限公司 | 一种多移动设备的dnn任务的拆分和卸载方法 |
Non-Patent Citations (1)
Title |
---|
YINHAO HUANG: "Cost Efficient Offloading Strategy for DNN-Based Applications in Edge-Cloud Environment", 《IEEE》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214261A (zh) * | 2020-10-30 | 2021-01-12 | 内蒙古工业大学 | 一种面向边缘智能的三层结构dnn计算卸载方法 |
CN112579285A (zh) * | 2020-12-10 | 2021-03-30 | 南京工业大学 | 面向边缘网络的分布式神经网络协同优化方法 |
CN112579285B (zh) * | 2020-12-10 | 2023-07-25 | 南京工业大学 | 面向边缘网络的分布式神经网络协同优化方法 |
CN112511644A (zh) * | 2020-12-14 | 2021-03-16 | 首都信息发展股份有限公司 | 一种多设备位姿共享方法及装置 |
CN112738272B (zh) * | 2021-01-12 | 2022-07-15 | 浙江工业大学 | 一种最小化网络时延的边缘节点负载均衡方法 |
CN112738272A (zh) * | 2021-01-12 | 2021-04-30 | 浙江工业大学 | 一种最小化网络时延的边缘节点负载均衡方法 |
CN112995023A (zh) * | 2021-03-02 | 2021-06-18 | 北京邮电大学 | 一种多接入边缘计算网络计算卸载系统及其计算卸载方法 |
CN112995023B (zh) * | 2021-03-02 | 2022-04-19 | 北京邮电大学 | 一种多接入边缘计算网络计算卸载系统及其计算卸载方法 |
CN112990018A (zh) * | 2021-03-18 | 2021-06-18 | 江苏边智科技有限公司 | 一种动态变化网络环境下深度学习模型的加速执行方法 |
CN112862083A (zh) * | 2021-04-06 | 2021-05-28 | 南京大学 | 一种边缘环境下的深度神经网络推断方法及装置 |
CN112862083B (zh) * | 2021-04-06 | 2024-04-09 | 南京大学 | 一种边缘环境下的深度神经网络推断方法及装置 |
CN113592077A (zh) * | 2021-08-05 | 2021-11-02 | 哈尔滨工业大学 | 一种面向边缘智能的云边端dnn协同推理加速方法 |
CN113592077B (zh) * | 2021-08-05 | 2024-04-05 | 哈尔滨工业大学 | 一种面向边缘智能的云边端dnn协同推理加速方法 |
CN117149444A (zh) * | 2023-10-31 | 2023-12-01 | 华东交通大学 | 适用于巡检系统的深度神经网络混合划分方法 |
CN117149444B (zh) * | 2023-10-31 | 2024-01-26 | 华东交通大学 | 适用于巡检系统的深度神经网络混合划分方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111741054B (zh) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111741054B (zh) | 一种移动用户深度神经网络计算卸载时延最小化方法 | |
CN111031102B (zh) | 一种多用户、多任务的移动边缘计算系统中可缓存的任务迁移方法 | |
CN114756383B (zh) | 一种分布式计算方法、系统、设备及存储介质 | |
CN111475274B (zh) | 云协同多任务调度方法及装置 | |
CN111918339B (zh) | 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法 | |
CN113220457B (zh) | 模型部署方法、模型部署装置、终端设备及可读存储介质 | |
CN111010684B (zh) | 一种基于mec缓存服务的车联网资源分配方法 | |
CN113515370A (zh) | 一种面向大规模深度神经网络的分布式训练方法 | |
CN112788605B (zh) | 基于双延迟深度确定性策略边缘计算资源调度方法和系统 | |
CN114662661B (zh) | 边缘计算下异构处理器加速多出口dnn推理的方法 | |
CN112020103A (zh) | 一种移动边缘云中的内容缓存部署方法 | |
CN112650581A (zh) | 一种面向智能楼宇的云边协同任务调度方法 | |
CN115277689B (zh) | 一种基于分布式联邦学习的云边网络通信优化方法及系统 | |
CN115297171B (zh) | 一种蜂窝车联网分级决策的边缘计算卸载方法及系统 | |
CN114745383A (zh) | 一种移动边缘计算辅助多层联邦学习方法 | |
CN112862088A (zh) | 一种基于流水线环形参数通信的分布式深度学习方法 | |
CN113220364A (zh) | 一种基于车联网移动边缘计算系统模型的任务卸载方法 | |
CN113315669B (zh) | 基于云边协同的吞吐量优化的机器学习推断任务部署方法 | |
CN115186806A (zh) | 一种支持跨节点自动微分的分布式图神经网络训练方法 | |
CN107766076B (zh) | 一种概率选择的软件模块聚类方法 | |
CN114339891A (zh) | 一种基于q学习的边缘卸载资源分配方法及系统 | |
CN109450684B (zh) | 一种网络切片系统物理节点容量扩充方法及装置 | |
CN114785692A (zh) | 一种虚拟电厂聚合调控通信网络流量均衡方法及装置 | |
CN114745386A (zh) | 一种多用户边缘智能场景下的神经网络分割及卸载方法 | |
Mei et al. | The Architecture of Computing Power Network Towards Federated Learning: Paradigms and Perspectives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |