CN112579285B - 面向边缘网络的分布式神经网络协同优化方法 - Google Patents

面向边缘网络的分布式神经网络协同优化方法 Download PDF

Info

Publication number
CN112579285B
CN112579285B CN202011433118.5A CN202011433118A CN112579285B CN 112579285 B CN112579285 B CN 112579285B CN 202011433118 A CN202011433118 A CN 202011433118A CN 112579285 B CN112579285 B CN 112579285B
Authority
CN
China
Prior art keywords
edge
node
neural network
steps
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011433118.5A
Other languages
English (en)
Other versions
CN112579285A (zh
Inventor
万夕里
吉婷湘
管昕洁
李义丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tech University
Original Assignee
Nanjing Tech University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tech University filed Critical Nanjing Tech University
Priority to CN202011433118.5A priority Critical patent/CN112579285B/zh
Publication of CN112579285A publication Critical patent/CN112579285A/zh
Application granted granted Critical
Publication of CN112579285B publication Critical patent/CN112579285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向边缘网络的分布式神经网络协同优化方法。本方法首先将神经网络建模成有向图GN;然后将边缘网络GE和有向图GN通过建模得到特定的辅助图Gd;之后对辅助图Gd进行迭代优化求解当前最小割并得到最终S‑T割集,即面向边缘网络的高效分布式神经网络协同优化策略。本发明结合图理论对神经网络进行分层分区得到了面向边缘网络的高效分布式神经网络协同优化策略。该方法能够明显降低在边缘设备对分布式神经网络进行协同计算的总延迟。

Description

面向边缘网络的分布式神经网络协同优化方法
技术领域
本发明涉及了一种面向边缘网络的分布式神经网络协同优化方法,属于计算机人工智能领域。
背景技术
深度神经网络(DNN)的最新进展大大提高了计算机视觉和视频分析的准确性和速度,为新一代智能应用创造了新的途径。云计算技术的成熟,加上TPU、GPU等功能强大的硬件,成为此类计算密集型DNN任务的典型选择。例如,在一个自动驾驶汽车应用程序中,摄像头连续监控周围的场景并将其传输到服务器,然后服务器进行视频分析并将控制信号反馈给踏板和方向盘。在增强现实应用程序中,智能玻璃不断记录当前视图并将信息流传输到云服务器,而云服务器执行对象识别并发回上下文增强标签,以便无缝显示在实际场景上。
实现智能应用的一个障碍是视频流的大量数据量。例如,谷歌的自动驾驶汽车每秒可产生高达750兆字节的传感器数据,但现有最快解决方案4G的平均上行链路速率仅为5.85Mbps。当用户快速移动或网络负载重时,数据速率显著降低。为了避免网络的影响,将计算放在数据源附近,边缘计算应运而生。作为一种无网络的方法,它提供随时随地可用的计算资源。例如,AWS DeepLens相机可以运行深卷积神经网络(CNNs)来分析视觉图像。然而,边缘设备本身受到计算能力和能量的限制,边缘设备通常不能完全支持推理计算的大工作量。
DNN的协作计算,它是将DNN划分到不同的层,然后在多个异构设备上分配分区,以形成分布式DNN(D-DNN)。通过这种方式,可以充分利用边缘设备中的本地资源来运行DNN分区。此外,由于保留了DNN架构,因此不会牺牲准确性。
发明内容
本发明所要解决的技术问题是针对当前单个边缘设备不能完全支持处理整个深度神经网络的情况,提出一种面向边缘网络的分布式神经网络协同优化方法。
本发明为解决上述技术问题采用以下技术方案:
本发明提出一种面向边缘网络的分布式神经网络协同优化方法,具体包括以下步骤:
步骤一、将神经网络通过建模得到有向图GN
步骤二、将边缘设备部署图映射成相应的边缘网络图GE
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到特定的辅助图Gd
步骤四、在步骤三中得到的辅助图Gd上找到迭代中的最小S-T割集;其中,在Gd上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤五、根据步骤四得到的最小S-T割集,得到该S-T割集对应的面向边缘网络的分布式神经网络协同计算策略;
步骤一的具体步骤包括:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
步骤二的具体步骤包括:
步骤2.1、将边缘设备部署图映射成相应的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
令σ(vi)=uj表示神经网络节点vi被分配到了边缘节点uj上进行计算;则σ表示所有神经网络层在GE上进行计算的分配方案;对于神经网络层vi∈V,令它在边缘节点ui∈U上的计算时间用来表示;
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点uk上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN
其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
步骤三的具体步骤包括:
步骤3.1、对于初始分配σ,以表示分配到边缘节点uk进行计算的神经网络层的集合;
步骤3.2、在步骤3.1的初始分配σ的前提下构造图Gd=(Wdd);图Gd的结点集Wd,边集εd;步骤3.2的步骤包括:
步骤3.2.1、对于每一层神经网络vi∈V,在图Gd的结点集Wd中添加对应节点wi;将节点wi分别与源点S和汇点T相连得到边集合ε1中的边(S,wi)和(wi,T);如果那么设置边(S,wi)的权重为/>边(wi,T)的权重为∞;否则,令
步骤3.2.2、对于有向图GN的每条边(vi,vj),创建其对应的水平边;
步骤四的具体步骤包括:
步骤4.1、对于神经网络层vi,如果辅助图Gd中的一个割c经过了边(S,wi),则将神经网络层vi分配到边缘节点ui上进行计算;如果割c经过了边(wi,T),那么神经网络层vi的分配策略保持不变;得到割c的新分配方案σ';
步骤4.2、令uk是边缘节点集合U中的第k个节点,1≤k≤|U|;
步骤4.3、对于边缘节点uk∈U,利用最大流最小割的方法得到当前的最小割cmin;根据最小割cmin和步骤4.1得到σ',σ'表示cmin对应的分配方案;如果σ'的代价小于σ,那么就令σ=σ',U=U\{uk};
步骤4.4、重复步骤4.2和4.3,直到U=φ,即U中的节点为空;
步骤4.5、根据步骤4.1~4.4,得到最终的σ';
所述步骤五中,以步骤四得到最终σ'对应的分布式神经网络为最优的分布式神经网络;
步骤3.2.2中,包括四种不同情况:
情况一:如果σ(vi)=σ(vj)=uk,即神经网络层vi和vj都分配到边缘节点uk上进行计算,那么wi和wj之间没有水平边;
情况二:如果在神经网络层vi和vj中只有一个被分配到边缘节点uk上进行计算,那么创建边(wi,wj),并设置其权重为c(wi,wj)=d(σ(vi),σ(vj));
情况三:如果神经网络层vi和vj被分配到了两个不同的边缘节点上进行计算,且σ(vi)≠uk,σ(vj)≠uk,即这两个边缘节点都不是uk,则在wi和wj之间创建一个辅助节点o(wi,wj);将o(wi,wj)分别和wi、wj创建双向边(wi,o(wi,wj))和(o(wi,wj),wj),同时设置它们的权重分别为c(wi,o(wi,wj))=d(σ(vi),uk),c(o(wi,wj),wj)=d(uk,σ(vj));将节点o(wi,wj)和汇点T相连创建第三条边(o(wi,wj),T),同时设置它的权重是c(o(wi,wj),T)=d(σ(vi),σ(vj));
情况四:如果神经网络层vi和vj都被分配到同一个边缘节点um上进行计算,且uk≠um,则创建边(wi,wj),同时设置它的权重为c(wi,wj)=d(uk,um)。
本发明采用以上技术方案与现有技术相比,具有以下优点:
1.将单个深度神经网络分配到多个边缘设备上进行计算处理。对分割单个神经网络得到的多个子任务根据各边缘设备的计算资源、处理性能等属性进行分配,能有效减少计算整个神经网络的总延迟。
2.本发明针对边缘网络提出了高效分布式神经网络协同计算方法。对于边缘网络和神经网络通过利用图理论构造辅助图最终得到高效的分布式协同计算方案。
附图说明
图1是本发明整体的流程图
图2是本发明的应用场景示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
在以上条件之下,对于边缘网络找到高效的分布式神经网络协同优化方法的步骤如图1所示。具体包括以下步骤:
步骤一、将神经网络通过建模得到有向图GN
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
步骤二、将边缘设备部署图映射成相应的边缘网络图GE
步骤2.1、将边缘设备部署图映射成相应的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
令σ(vi)=uj表示神经网络节点vi被分配到了边缘节点uj上进行计算;则σ表示所有神经网络层在GE上进行计算的分配方案;对于神经网络层vi∈V,令它在边缘节点ui∈U上的计算时间用来表示;
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点uk上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟将会被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN
其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到特定的辅助图Gd
步骤3.1、对于初始分配σ,以Ruk表示分配到边缘节点uk进行计算的神经网络层的集合;
步骤3.2、在步骤3.1的初始分配σ的前提下构造图Gd=(Wdd);图Gd的结点集Wd,边集εd;步骤3.2的步骤包括:
步骤3.2.1、对于每一层神经网络vi∈V,在图Gd的结点集Wd中添加对应节点wi;将节点wi分别与源点S和汇点T相连得到边集合ε1中的边(S,wi)和(wi,T);如果那么设置边(S,wi)的权重为/>边(wi,T)的权重为∞;否则,令
步骤3.2.2、对于有向图GN的每条边(vi,vj),创建其对应的水平边;
步骤3.2.2中,包括四种不同情况:
情况一:如果σ(vi)=σ(vj)=uk,即神经网络层vi和vj都分配到边缘节点uk上进行计算,那么wi和wj之间没有水平边;
情况二:如果在神经网络层vi和vj中只有一个被分配到边缘节点uk上进行计算,那么创建边(wi,wj),并设置其权重为c(wi,wj)=d(σ(vi),σ(vj));
情况三:如果神经网络层vi和vj被分配到了两个不同的边缘节点上进行计算,且σ(vi)≠uk,σ(vj)≠uk,即这两个边缘节点都不是uk,则在wi和wj之间创建一个辅助节点o(wi,wj);将o(wi,wj)分别和wi、wj创建双向边(wi,o(wi,wj))和(o(wi,wj),wj),同时设置它们的权重分别为c(wi,o(wi,wj))=d(σ(vi),uk),c(o(wi,wj),wj)=d(uk,σ(vj));将节点o(wi,wj)和汇点T相连创建第三条边(o(wi,wj),T),同时设置它的权重是c(o(wi,wj),T)=d(σ(vi),σ(vj));
情况四:如果神经网络层vi和vj都被分配到同一个边缘节点um上进行计算,且uk≠um,则创建边(wi,wj),同时设置它的权重为c(wi,wj)=d(uk,um);
步骤四、在步骤三中得到的辅助图Gd上找到迭代中的最小S-T割集;其中,在Gd上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤4.1、对于神经网络层vi,如果辅助图Gd中的一个割c经过了边(S,wi),则将神经网络层vi分配到边缘节点ui上进行计算;如果割c经过了边(wi,T),那么神经网络层vi的分配策略保持不变;得到割c的新分配方案σ';
步骤4.2、令uk是边缘节点集合U中的第k个节点,1≤k≤|U|;
步骤4.3、对于边缘节点uk∈U,利用最大流最小割的方法得到当前的最小割cmin;根据最小割cmin和步骤4.1得到σ',σ'表示cmin对应的分配方案;如果σ'的代价小于σ,那么就令σ=σ',U=U\{uk};
步骤4.4、重复步骤4.2和4.3,直到U=φ,即U中的节点为空;
步骤4.5、根据步骤4.1~4.4,得到最终的σ';
所述步骤五中,以步骤四得到最终σ'对应的分布式神经网络为最优的分布式神经网络。
在本发明应用场景中,以智能交通为例,在自动驾驶应用程序中,车辆首先收集视频流和传感信息的现场数据,之后将收集的数据输入深度神经网络框架进行推理计算。针对当前单个边缘设备不能完全支持处理整个深度神经网络的情况,我们可以利用本发明解决。如图2所示,云端和多个边缘设备构成了一个云-边缘网络,车辆将数据包发送给该云-边缘网络并利用本发明中提出的算法得到高效的分布式神经网络协同计算策略,经过协同计算后,边缘设备将决策结果返回给车辆。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (2)

1.一种面向边缘网络的分布式神经网络协同优化方法,其特征在于,包括以下步骤:
步骤一、将一般结构的神经网络通过建模得到有向图GN
步骤二、将边缘设备部署图映射成相应的边缘网络图GE
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络图GE,通过建模得到特定的辅助图Gd
步骤四、在步骤三中得到的辅助图Gd上找到迭代中的最小S-T割集;其中,在Gd上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤五、根据步骤四得到的最小S-T割集,得到该S-T割集对应的面向边缘网络的分布式神经网络协同优化策略;
所述步骤一的步骤包括:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
所述步骤二的步骤包括:
步骤2.1、将边缘设备部署图映射成相应的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
令σ(vi)=uj表示节点vi被分配到了边缘节点uj上进行计算;则σ表示所有神经网络层在GE上进行计算的分配方案;对于节点vi∈V,令它在边缘节点uj∈U上的计算时间用来表示;
如果两个相邻的节点vi和vj被分配到同一个边缘节点uk上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN
其中,TN为对于图GN在σ映射下的总延迟;
所述步骤三的步骤包括:
步骤3.1、对于初始分配σ,以表示分配到边缘节点uk进行计算的神经网络层的集合;
步骤3.2、在步骤3.1的初始分配σ的前提下构造图Gd=(Wdd);图Gd的结点集Wd,边集εd;步骤3.2的步骤包括:
步骤3.2.1、对于每一层节点vi∈V,在图Gd的结点集Wd中添加对应节点wi;将节点wi分别与源点S和汇点T相连得到边集合ε1中的边(S,wi)和(wi,T);如果那么设置边(S,wi)的权重为/>边(wi,T)的权重为∞;否则,令/>
步骤3.2.2、对于有向图GN的每条边(vi,vj),创建其对应的水平边;
所述步骤四的步骤包括;
步骤4.1、对于节点vi,如果辅助图Gd中的一个割c经过了边(S,wi),则将节点vi分配到边缘节点ui上进行计算;如果割c经过了边(wi,T),那么节点vi的分配策略保持不变;得到割c的新分配方案σ';
步骤4.2、令uk是边缘节点集合U中的第k个节点,1≤k≤|U|;
步骤4.3、对于边缘节点uk∈U,利用最大流最小割的方法得到当前的最小割cmin;根据最小割cmin和步骤4.1得到σ',σ'表示cmin对应的分配方案;如果σ'的代价小于σ,那么就令σ=σ',U=U\{uk};
步骤4.4、重复步骤4.2和4.3,直到U=φ,即U中的节点为空;
步骤4.5、根据步骤4.1~4.4,得到最终的σ';
所述步骤五中,以步骤四得到最终σ'对应的分布式神经网络为最优的分布式神经网络。
2.根据权利要求1所述面向边缘网络的分布式神经网络协同优化方法,其特征是所述步骤3.2.2中,包括四种不同情况:
情况一:如果σ(vi)=σ(vj)=uk,即节点vi和vj都分配到边缘节点uk上进行计算,那么wi和wj之间没有水平边;
情况二:如果在节点vi和vj中只有一个被分配到边缘节点uk上进行计算,那么创建边(wi,wj),并设置其权重为c(wi,wj)=d(σ(vi),σ(vj));
情况三:如果节点vi和vj被分配到了两个不同的边缘节点上进行计算,且σ(vi)≠uk,σ(vj)≠uk,即这两个边缘节点都不是uk,则在wi和wj之间创建一个辅助节点o(wi,wj);将o(wi,wj)分别和wi、wj创建双向边(wi,o(wi,wj))和(o(wi,wj),wj),同时设置它们的权重分别为c(wi,o(wi,wj))=d(σ(vi),uk),c(o(wi,wj),wj)=d(uk,σ(vj));将节点o(wi,wj)和汇点T相连创建第三条边(o(wi,wj),T),同时设置它的权重是c(o(wi,wj),T)=d(σ(vi),σ(vj));
情况四:如果节点vi和vj都被分配到同一个边缘节点um上进行计算,且uk≠um,则创建边(wi,wj),同时设置它的权重为c(wi,wj)=d(uk,um)。
CN202011433118.5A 2020-12-10 2020-12-10 面向边缘网络的分布式神经网络协同优化方法 Active CN112579285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011433118.5A CN112579285B (zh) 2020-12-10 2020-12-10 面向边缘网络的分布式神经网络协同优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011433118.5A CN112579285B (zh) 2020-12-10 2020-12-10 面向边缘网络的分布式神经网络协同优化方法

Publications (2)

Publication Number Publication Date
CN112579285A CN112579285A (zh) 2021-03-30
CN112579285B true CN112579285B (zh) 2023-07-25

Family

ID=75130547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011433118.5A Active CN112579285B (zh) 2020-12-10 2020-12-10 面向边缘网络的分布式神经网络协同优化方法

Country Status (1)

Country Link
CN (1) CN112579285B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158243A (zh) * 2021-04-16 2021-07-23 苏州大学 分布式图像识别的模型推理方法及系统
CN114928609B (zh) * 2022-04-27 2023-02-03 南京工业大学 物联网场景的异构云-边环境的最优任务卸载方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110445866A (zh) * 2019-08-12 2019-11-12 南京工业大学 一种移动边缘计算环境中任务迁移和协作式负载均衡方法
CN110971706A (zh) * 2019-12-17 2020-04-07 大连理工大学 Mec中近似最优化与基于强化学习的任务卸载方法
WO2020133317A1 (zh) * 2018-12-29 2020-07-02 华为技术有限公司 计算资源分配技术及神经网络系统
CN111741054A (zh) * 2020-04-24 2020-10-02 浙江工业大学 一种移动用户深度神经网络计算卸载时延最小化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020133317A1 (zh) * 2018-12-29 2020-07-02 华为技术有限公司 计算资源分配技术及神经网络系统
CN110445866A (zh) * 2019-08-12 2019-11-12 南京工业大学 一种移动边缘计算环境中任务迁移和协作式负载均衡方法
CN110971706A (zh) * 2019-12-17 2020-04-07 大连理工大学 Mec中近似最优化与基于强化学习的任务卸载方法
CN111741054A (zh) * 2020-04-24 2020-10-02 浙江工业大学 一种移动用户深度神经网络计算卸载时延最小化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于边缘计算的分支神经网络模型推断延迟优化;樊琦;李卓;陈昕;;计算机应用(02);全文 *

Also Published As

Publication number Publication date
CN112579285A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN112579285B (zh) 面向边缘网络的分布式神经网络协同优化方法
CN113193984B (zh) 一种空天地一体化网络资源映射方法及系统
WO2022089077A1 (zh) 一种基于自适应候选视差预测网络的实时双目立体匹配方法
EP3370191B1 (en) Apparatus and method implementing an artificial neural network training algorithm using weight tying
CN110276768B (zh) 图像分割方法、图像分割装置、图像分割设备及介质
CN112399375B (zh) 基于终端能效优化的无人机辅助边缘计算的卸载方法
CN112104491B (zh) 面向服务的网络虚拟化资源管理方法
CN110531996B (zh) 一种多微云环境下基于粒子群优化的计算任务卸载方法
CN113573333B (zh) 一种基于虚拟力的粒子群异构WSNs覆盖优化算法
CN113987692B (zh) 用于无人机和边缘计算服务器的深度神经网络分区方法
CN115951587A (zh) 自动驾驶控制方法、装置、设备、介质及自动驾驶车辆
Marban et al. Learning sparse & ternary neural networks with entropy-constrained trained ternarization (EC2T)
CN112615736B (zh) 面向线性边缘网络的延迟最优分布式NNs协同优化方法
CN114282484A (zh) 基于改进天牛须算法的异构三维片上网络的布图优化方法、装置、设备及介质
CN110673651B (zh) 一种通信受限条件下的无人机群鲁棒编队方法
CN112861862A (zh) 基于区域生长与深度学习结合的针对兵马俑点云的无监督分割方法
CN112911618A (zh) 一种基于资源退出场景的无人机服务器任务卸载调度方法
CN114745386B (zh) 一种多用户边缘智能场景下的神经网络分割及卸载方法
WO2022095584A1 (zh) 一种基于流卷积的图像识别方法
CN112020085B (zh) 一种面向航空自组网的节点失效波及影响分析方法
WO2022186808A1 (en) Method for solving virtual network embedding problem in 5g and beyond networks with deep information maximization using multiple physical network structure
CN111832336B (zh) 一种基于改进的c3d视频行为检测方法
CN112434805B (zh) 一种深度神经网络模块分割方法
CN117094381B (zh) 一种兼顾高效通信和个性化的多模态联邦协同方法
CN112738225A (zh) 基于人工智能的边缘计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant