CN112615736A - 面向线性边缘网络的延迟最优分布式NNs协同优化方法 - Google Patents
面向线性边缘网络的延迟最优分布式NNs协同优化方法 Download PDFInfo
- Publication number
- CN112615736A CN112615736A CN202011436693.0A CN202011436693A CN112615736A CN 112615736 A CN112615736 A CN 112615736A CN 202011436693 A CN202011436693 A CN 202011436693A CN 112615736 A CN112615736 A CN 112615736A
- Authority
- CN
- China
- Prior art keywords
- edge
- node
- neural network
- graph
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000005457 optimization Methods 0.000 title claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 62
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 238000010367 cloning Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
- H04L41/083—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for increasing network speed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种面向线性边缘网络的延迟最优分布式NNs协同优化方法,本发明首先将神经网络建模成有向图GN;然后将线性结构的边缘网络GE和有向图GN通过建模得到特定的辅助图Gk;之后任意分割辅助图Gk得到一个S‑T割集,该S‑T割集代表着对应的神经网络最优切割分配方案,S‑T割集的值代表着当前方案对应的总延迟;最后在辅助图Gk上找出最小S‑T割集,即得到面向线性边缘网络的最优分布式神经网络协同计算策略。本发明利用最大流最小割算法得到切割一般结构的神经网络并分配到线性结构边缘网络的最优分配方案。该方法能够明显降低在边缘设备中计算整个神经网络的总延迟。
Description
技术领域
本发明涉及了一种面向线性边缘网络的延迟最优分布式NNs协同优化方法,属于计算机人工智能领域。
背景技术
深度神经网络(DNN)在计算机视觉,自然语言处理等在内的各个领域都取得了显著成果。由于其复杂的结构,DNN的任务需要大量的计算。为了满足较高的计算要求,通常在提供了强大的计算资源的云中部署DNN,
同时,随着DNN的发展,智能终端用户应用正成为增长趋势。例如,在自动驾驶应用程序中,车辆需要首先收集视频流和传感信息的现场数据,然后将其发送到云中功能强大的DNN服务器。在云中执行推理计算后,将返回驾驶决策。但是,不可避免地会造成带宽负担,因为大量的数据是从一端生成并通过网络传输的。此外,像自动驾驶这样的智能称谓必须获得几乎即时的决策,而云模型不可避免地会引入额外的推理延迟。为了避免拥塞和延迟,将机器学习推理从云推到边缘进行边缘计算。在这种模型下,推理计算是在终端设备上完成的。由于有限的计算资源和能量约束,边缘设备通常不能完全支持推理计算的大工作量。
DNN的协作计算,它是将DNN划分到不同的层,然后在多个异构设备上分配分区,以形成分布式DNN(D-DNN)。通过这种方式,可以充分利用边缘设备中的本地资源来运行DNN分区。此外,由于保留了DNN架构,因此不会牺牲准确性。
发明内容
本发明所要解决的技术问题是针对当前单个边缘设备不能完全支持处理整个深度神经网络的情况,提出一种面向线性边缘网络的分布式神经网络协同优化方法。
本发明为解决上述技术问题采用以下技术方案:
本发明提出一种面向线性边缘网络的延迟最优分布式神经网络(NNs)协同优化方法,具体包括以下步骤:
步骤一、将一般结构的神经网络通过建模得到有向图GN;
步骤二、将边缘设备部署图映射成线性拓扑结构的边缘网络图GE;
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到辅助图Gk;
步骤四、在辅助图Gk上利用最大流最小割算法找到图Gk中的最小S-T割集;其中,在Gk上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤五、根据最小S-T割集,得到该S-T割集对应的分布式神经网络,即最优的分布式神经网络;
如前所述的一种面向线性边缘网络的分布式神经网络协同计算方法,进一步地,步骤一所述的具体步骤包括:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi;
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi)。
步骤二的具体步骤包括:
步骤2.1、将边缘设备部署图映射成线性拓扑结构的边缘网络图GE=(U,L)。
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相可以直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点u上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN,
其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
步骤三的具体步骤包括:
步骤3.1、构造辅助图Gk=(Wk,εk)中的节点集合Wk;
步骤3.2、构造辅助图Gk=(Wk,εk)中的边集εk;
如前所述的一种面向线性边缘网络的分布式神经网络协同计算方法,进一步地,步骤3.1所述的具体步骤包括:
步骤3.1.1、对于有向图GN中的vi∈V创建对应节点wi0∈WV,其中V表示有向图GN中的节点集合;
步骤3.1.2、对于有向图GN中的每个节点vi∈V,根据边缘网络GE克隆一个对应链:从U中的第一个节点u1开始,对于每个节点uj∈U,创建一个对应节点wij∈WU;
步骤3.1.3、创建源点S,汇点T;
Wk=WV∪WU∪{S,T};
如前所述的一种面向线性边缘网络的分布式神经网络协同计算方法,进一步地,步骤3.2所述的具体步骤包括:
步骤3.2.1、创建边集εV;对于有向图GN中的任意边(vi,vj),在Gk中创建一个有向边(wi0,wj0),同时设置这条边的权重为c(wi0,wj0)=∞;
步骤3.2.2、创建垂直边集对于GE上的每条边(uj,up)∈L,在Gk中创建一条对应边(wij,wip)∈ε1 U;在对应的每一组节点vi和uj之间创建有向边(wi0,wi1);同时对于任意边(wij,wi(j+1))(1≤i≤|V|,0≤j≤|U|-1),设置其权重为
步骤3.2.4、对于GN上的每个节点vi∈V,创建一条从源点S出发的边(S,wi0),同时设置这条边的权重为∞;对于每个vi∈V,创建一条指向汇点T的边(wi|u|,T),同时设置这条边的权重为∞;将这些边添加到步骤3.2.1中创建的边集εV中;
本发明的技术方案与现有技术相比,具有以下优点:
1.将单个深度神经网络切割成多个分区,将单个神经网络进行分区能够将单个任务切割成多个子任务,有效减少了每个任务需要进行处理的计算量大小,同时解决了由于计算资源和能量约束,单个边缘设备不能完全支持处理整个神经网络的问题。
2.本发明针对线性边缘网络提出了最优分布式神经网络协同优化方法,对于线性结构的边缘网络和一般结构的神经网络通过构造辅助图并利用图理论的方式得到最优的分布式协同优化方案。
附图说明
图1是本发明整体的流程图;
图2是本发明的应用场景示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本发明针对当前单个边缘设备不能完全支持处理整个深度神经网络的情况,提出了一种面向线性边缘网络的分布式神经网络协同优化方法。针对线性结构的边缘网络,能够找到最优的分布式神经网络协同优化策略,降低了在边缘设备上计算深度神经网络所需的总延迟。
本发明提出的一种面向线性边缘网络的延迟最优分布式神经网络(NNs)协同优化方法,规定当前网络带宽能够负载大量文件,无网络拥塞情况。同时规定一个深度神经网络中的所有神经网络层可以在边缘网络中的任意边缘节点上进行处理。
在以上条件之下,切割深度神经网络并分配到线性边缘网络中进行处理。切割神经网络并进行分配的步骤如图1所示。具体包括以下步骤:
步骤一、将一般结构的神经网络通过建模得到有向图GN,具体步骤如下:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi;
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
步骤二、将边缘设备部署图映射成线性拓扑结构的边缘网络图GE,具体步骤如下:
步骤2.1、将边缘设备部署图映射成线性拓扑结构的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相可以直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点u上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN,
其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
步骤三、将步骤一中得到的有向图GN和步骤二中得到的线性拓扑结构边缘网络GE,通过建模得到辅助图Gk:
步骤3.1、构造辅助图Gk=(Wk,εk)中的节点集合Wk,具体步骤如下:
步骤3.1.1、对于有向图GN中的每个节点vi∈V创建对应节点wi0∈WV,其中V表示有向图GN中的节点集合;
步骤3.1.2、对于有向图GN中的每个节点vi∈V,根据边缘网络GE克隆一个对应链:从U中的第一个节点u1开始,对于每个节点uj∈U,创建一个对应节点wij∈WU;
步骤3.1.3、创建源点S,汇点T;
步骤3.2、构造辅助图Gk=(Wk,εk)中的边集εk,具体步骤如下:
步骤3.2.1、创建边集εV;对于有向图GN中的任意边(vi,vj),在Gk中创建一个有向边(wi0,wj0),同时设置这条边的权重为c(wi0,wj0)=∞;
步骤3.2.2、创建垂直边集对于GE上的每条边(uj,up)∈L,在Gk中创建一条对应边(wij,wip)∈ε1 U;在对应的每一组节点vi和uj之间创建有向边(wi0,wi1);同时对于任意边(wij,wi(j+1))(1≤i≤|V|,0≤j≤|U|-1),设置其权重为
步骤3.2.4、对于GN上的每个节点vi∈V,创建一条从源点S出发的边(S,wi0),同时设置这条边的权重为∞;对于每个vi∈V,创建一条指向汇点T的边(wi|u|,T),同时设置这条边的权重为∞;将这些边添加到步骤3.2.1中创建的边集εV中;
在本发明应用场景中,以智能交通为例,在自动驾驶应用程序中,车辆首先收集视频流和传感信息的现场数据,之后将收集的数据输入深度神经网络框架进行推理计算。针对当前单个边缘设备不能完全支持处理整个深度神经网络的情况,可以利用本发明解决。如图2所示,多个边缘设备构成了线性结构的边缘网络,车辆将数据包发送给该边缘网络并利用本发明中提出的算法得到最优的分布式神经网络协同计算策略,经过协同计算后,边缘设备将决策结果返回给车辆。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (2)
1.一种面向线性边缘网络的延迟最优分布式NNs协同优化方法,其特征在于,包括以下步骤:
步骤一、将一般结构的神经网络通过建模得到有向图GN;
步骤二、将边缘设备部署图映射成线性拓扑结构的边缘网络图GE;
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到辅助图Gk;
步骤四、在辅助图Gk上利用最大流最小割算法找到图Gk中的最小S-T割集;其中,在Gk上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤五、根据最小S-T割集,得到该最小S-T割集对应的分布式神经网络,即最优的分布式神经网络;
所述步骤一的步骤包括:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi;
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
所述步骤二的步骤包括:
步骤2.1、将边缘设备部署图映射成线性拓扑结构的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点u上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后的进行协同计算所需要的时间TN,
其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
所述步骤三的步骤包括:
步骤3.1、构造辅助图Gk=(Wk,εk)中的节点集合Wk;
步骤3.2、构造辅助图Gk=(Wk,εk)中的边集εk。
2.如权利要求1所述的一种面向线性边缘网络的延迟最优分布式NNs协同优化方法,其特征在于,
所述步骤3.1的步骤包括:
步骤3.1.1、对于有向图GN中的每个节点vi∈V创建对应节点wi0∈WV,其中V表示GN中的节点集合;
步骤3.1.2、对于有向图GN中的每个节点vi∈V,根据边缘网络GE克隆一个对应链:从U中的第一个节点u1开始,对于每个节点uj∈U,创建一个对应节点wij∈WU;
步骤3.1.3、创建源点S,汇点T;
Wk=WV∪WU∪{S,T};
所述步骤3.2的步骤包括:
步骤3.2.1、创建边集εV;对于有向图GN中的任意边(vi,vj),在Gk中创建一个有向边(wi0,wj0),同时设置这条边的权重为c(wi0,wj0)=∞;
步骤3.2.2、创建垂直边集对于GE上的每条边(uj,up)∈L,在Gk中创建一条对应边在对应的每一组节点vi和uj之间创建有向边(wi0,wi1);同时对于任意边(wij,wi(j+1))(1≤i≤|V|,0≤j≤|U|-1),设置其权重为
步骤3.2.4、对于GN上的每个节点vi∈V,创建一条从源点S出发的边(S,wi0),同时设置这条边的权重为∞;对于每个vi∈V,创建一条指向汇点T的边(wi|u|,T),同时设置这条边的权重为∞;将这些边添加到步骤3.2.1中创建的边集εV中;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011436693.0A CN112615736B (zh) | 2020-12-10 | 2020-12-10 | 面向线性边缘网络的延迟最优分布式NNs协同优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011436693.0A CN112615736B (zh) | 2020-12-10 | 2020-12-10 | 面向线性边缘网络的延迟最优分布式NNs协同优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112615736A true CN112615736A (zh) | 2021-04-06 |
CN112615736B CN112615736B (zh) | 2022-03-18 |
Family
ID=75233997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011436693.0A Active CN112615736B (zh) | 2020-12-10 | 2020-12-10 | 面向线性边缘网络的延迟最优分布式NNs协同优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112615736B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114928609A (zh) * | 2022-04-27 | 2022-08-19 | 南京工业大学 | 物联网场景的异构云-边环境的最优任务卸载方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255605A (zh) * | 2017-12-29 | 2018-07-06 | 北京邮电大学 | 一种基于神经网络的图像识别协同计算方法及系统 |
US20190095515A1 (en) * | 2017-09-25 | 2019-03-28 | International Business Machines Corporation | Automatic feature learning from a relational database for predictive modelling |
CN109981372A (zh) * | 2019-04-03 | 2019-07-05 | 华南理工大学 | 基于边缘计算的流式大数据处理方法及系统 |
CN109995860A (zh) * | 2019-03-29 | 2019-07-09 | 南京邮电大学 | 一种vanet中基于边缘计算的深度学习任务分配算法 |
CN110648389A (zh) * | 2019-08-22 | 2020-01-03 | 广东工业大学 | 基于无人机和边缘车辆协同的城市街景3d重建方法和系统 |
CN111445026A (zh) * | 2020-03-16 | 2020-07-24 | 东南大学 | 面向边缘智能应用的深度神经网络多路径推理加速方法 |
CN111507489A (zh) * | 2020-04-20 | 2020-08-07 | 电子科技大学中山学院 | 一种云边协同的游乐设备故障预测与健康管理系统及方法 |
CN111522657A (zh) * | 2020-04-14 | 2020-08-11 | 北京航空航天大学 | 一种分散设备协同深度学习推理方法 |
CN111901392A (zh) * | 2020-07-06 | 2020-11-06 | 北京邮电大学 | 一种面向移动边缘计算的内容部署与分发方法及系统 |
CN112026782A (zh) * | 2019-06-04 | 2020-12-04 | 广州汽车集团股份有限公司 | 一种基于开关式深度学习网络模型的自动驾驶决策方法及系统 |
-
2020
- 2020-12-10 CN CN202011436693.0A patent/CN112615736B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190095515A1 (en) * | 2017-09-25 | 2019-03-28 | International Business Machines Corporation | Automatic feature learning from a relational database for predictive modelling |
CN108255605A (zh) * | 2017-12-29 | 2018-07-06 | 北京邮电大学 | 一种基于神经网络的图像识别协同计算方法及系统 |
CN109995860A (zh) * | 2019-03-29 | 2019-07-09 | 南京邮电大学 | 一种vanet中基于边缘计算的深度学习任务分配算法 |
CN109981372A (zh) * | 2019-04-03 | 2019-07-05 | 华南理工大学 | 基于边缘计算的流式大数据处理方法及系统 |
CN112026782A (zh) * | 2019-06-04 | 2020-12-04 | 广州汽车集团股份有限公司 | 一种基于开关式深度学习网络模型的自动驾驶决策方法及系统 |
CN110648389A (zh) * | 2019-08-22 | 2020-01-03 | 广东工业大学 | 基于无人机和边缘车辆协同的城市街景3d重建方法和系统 |
CN111445026A (zh) * | 2020-03-16 | 2020-07-24 | 东南大学 | 面向边缘智能应用的深度神经网络多路径推理加速方法 |
CN111522657A (zh) * | 2020-04-14 | 2020-08-11 | 北京航空航天大学 | 一种分散设备协同深度学习推理方法 |
CN111507489A (zh) * | 2020-04-20 | 2020-08-07 | 电子科技大学中山学院 | 一种云边协同的游乐设备故障预测与健康管理系统及方法 |
CN111901392A (zh) * | 2020-07-06 | 2020-11-06 | 北京邮电大学 | 一种面向移动边缘计算的内容部署与分发方法及系统 |
Non-Patent Citations (1)
Title |
---|
殷佳等: "基于移动边缘计算的任务迁移和协作式负载均衡机制", 《计算机科学》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114928609A (zh) * | 2022-04-27 | 2022-08-19 | 南京工业大学 | 物联网场景的异构云-边环境的最优任务卸载方法 |
CN114928609B (zh) * | 2022-04-27 | 2023-02-03 | 南京工业大学 | 物联网场景的异构云-边环境的最优任务卸载方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112615736B (zh) | 2022-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Load balancing problems for multiclass jobs in distributed/parallel computer systems | |
CN103763205B (zh) | 硅通孔负载全局均衡的三维片上网络延迟上界优化方法 | |
CN112100155A (zh) | 一种云边协同的数字孪生模型组装与融合方法 | |
CN107609694B (zh) | 海上风电集群输电系统结构优化方法及存储介质 | |
CN105515987A (zh) | 一种基于sdn架构面向虚拟光网络的映射方法 | |
CN108111335A (zh) | 一种调度和链接虚拟网络功能的方法及系统 | |
Wang et al. | A reinforcement learning approach for online service tree placement in edge computing | |
CN112579285B (zh) | 面向边缘网络的分布式神经网络协同优化方法 | |
CN104104621A (zh) | 一种基于非线性降维的虚拟网络资源动态自适应调节方法 | |
CN112615736B (zh) | 面向线性边缘网络的延迟最优分布式NNs协同优化方法 | |
CN115022937A (zh) | 拓扑特征提取方法和考虑拓扑特征的多边缘协作调度方法 | |
CN114327526B (zh) | 一种移动边缘计算环境中的任务卸载方法及其应用 | |
Zhang et al. | Dynamic DNN decomposition for lossless synergistic inference | |
CN110138830B (zh) | 基于超图分割的跨数据中心任务调度与带宽分配方法 | |
CN105430049A (zh) | 一种基于dcn的虚拟流媒体集群协同迁移方法 | |
CN108243066B (zh) | 低延迟的网络服务请求部署方法 | |
Zhang et al. | Offloading demand prediction-driven latency-aware resource reservation in edge networks | |
Xue et al. | Robust distributed control design for interconnected systems under topology uncertainty | |
CN114065457A (zh) | 一种电力通信网最优安全链路配置方法与系统 | |
CN115001978B (zh) | 一种基于强化学习模型的云租户虚拟网络智能映射方法 | |
CN110662272A (zh) | 一种基于蜂群无人机的最少数量领航者选取方法 | |
Ji et al. | Towards optimal application offloading in heterogeneous edge-cloud computing | |
CN105190599A (zh) | 云应用带宽建模 | |
CN115913979A (zh) | 一种全域网络拓扑处理方法和设备 | |
CN112234599B (zh) | 一种多元复杂城市电网超前动态自适应分区方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |