CN113128681A - 一种多边缘设备辅助的通用cnn推理加速系统 - Google Patents

一种多边缘设备辅助的通用cnn推理加速系统 Download PDF

Info

Publication number
CN113128681A
CN113128681A CN202110378386.XA CN202110378386A CN113128681A CN 113128681 A CN113128681 A CN 113128681A CN 202110378386 A CN202110378386 A CN 202110378386A CN 113128681 A CN113128681 A CN 113128681A
Authority
CN
China
Prior art keywords
inference
task
edge
parallel
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110378386.XA
Other languages
English (en)
Other versions
CN113128681B (zh
Inventor
周晓波
李端阳
李克秋
邱铁
张朝昆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202110378386.XA priority Critical patent/CN113128681B/zh
Publication of CN113128681A publication Critical patent/CN113128681A/zh
Application granted granted Critical
Publication of CN113128681B publication Critical patent/CN113128681B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer And Data Communications (AREA)
  • Multi Processors (AREA)

Abstract

本发明公开了一种多边缘设备辅助的通用CNN推理加速系统,包括如下步骤:S1、在边缘计算网络中建立有一个终端设备和至有4个边缘设备的推理加速系统;S2、选择距离终端设备最近的边缘设备作为任务卸载目的边缘设备,其余边缘设备作为协作计算目的边缘设备;S3、任务卸载目的边缘设备采用“零填充空间划分”的卷积划分方案对后续的卷积计算进行并行分解;S4、任务卸载目的边缘设备对CNN推理模型进行并行推理生成最佳并行推理进入点;S5、任务卸载目的边缘设备实时从相邻的P个协作计算边缘设备收集设备资源;S6、任务卸载目的边缘设备依据协作计算边缘设备实时资源将CNN推理任务分发到设备上进行并行推理计算,该发明可以极大的提高CNN任务的推理速度。

Description

一种多边缘设备辅助的通用CNN推理加速系统
技术领域
本发明属于移动边缘计算多设备协作计算领域,特别涉及一种多边缘设备辅助的通用CNN推理加速系统。
背景技术
在物联网(IoT)时代,数十亿物联网设备生成的大量传感数据将通过Internet进行收集和处理。最近的研究表明对此类数据进行数据分析以发现新信息是一项至关重要的任务,也是改善人类生活质量的一个关键。而基于深度学习的数据分析技术,尤其是深度/卷积神经网络(DNN/CNN),已被证明在解决此任务上表现出远超人类专家的卓越性能。
然而,考虑到资源受限的物联网设备,在其上执行CNN推理将带来许多挑战。在单个设备上处理对延迟敏感的任务(例如,目标检测)可能会消耗大量的计算资源并带来不可接受的处理延迟,从而导致非常差的用户体验。现有的解决单设备CNN推理延时大问题的方案主要分为三类:(1)云辅助:利用资源丰富的云平台来帮助执行目标检测任务;(2)边缘辅助:在更靠近数据源的边缘设备上的各种人工智能(AI)算法直接处理大规模数据;(3)推理加速:通过尽早退出推理并避免在后期进行计算来减少设备的资源消耗,把推理层分为多个部分在多个设备上运行,把推理层拆分为几个较小的推理块在多个设备上并行推理来加快任务的执行速度。但云辅助可能会引入大量的传输延迟和带宽成本,在延迟和带宽约束严格的情况下不适用。边缘辅助假设边缘服务器都配备了昂贵而强大的图形处理单元(GPU),这是不现实的。而推理加速相关的方法仅将计算任务转移,并且不会显着减少总的推理延迟,并且不可避免地带来细分任务之间的通信开销。
但在真实的边缘计算环境中,在一个区域内通常有多个边缘服务器,如果可以利用这些边缘设备的计算资源来执行CNN推理任务,则可以提高检测性能。当一个物联网设备连接到最近的边缘设备后,资源受限的物联网设备即可把待执行的CNN推理任务卸载到边缘设备上执行,当边缘设备上的资源不足以快速完成卸载的任务后,可通过和其他边缘设备间的有线网络连接把计算任务分发,从而极大减少任务完成时间。
为解决现有方案的限制,充分利用多个边缘设备的计算资源,需要找到一种在边缘计算环境中加速CNN推理任务的新颖方法。通过设计一种分区方案以拆分推理任务,以最大程度地减少层中的通信开销,并以最佳方式将推理子任务分派给多个边缘设备以进行并行推理。实现基于边缘设备的运行时能力在各个边缘设备之间进行细粒度的负载平衡,消除计算和网络传输的重叠以提高资源利用率,适用于现有的任意CNN模型,并且不会降低精度。
发明内容
本发明的目的在于克服现有技术方案的不足,本发明实现了一个多边缘设备辅助的通用CNN推理加速系统,该系统可以通过全局最优的任务分解和任务调度,通过利用多个边缘设备的计算资源来实现高计算量CNN推理任务的快速执行。
为了克服现有技术的不足,本发明采用如下技术方案予以实施:
1、一种多边缘设备辅助的通用CNN推理加速系统,包括如下步骤:
S1、在边缘计算网络中建立有一个终端设备和至有4个边缘设备的CNN推理加速系统;
S2、选择距离终端设备最近的边缘设备作为任务卸载目的边缘设备,其余边缘设备作为协作计算目的边缘设备;
S3、任务卸载目的边缘设备确认使用一种名为“零填充空间划分”的卷积划分方案对后续的卷积计算进行并行分解;
S4、任务卸载目的边缘设备对待使用的CNN推理模型进行并行推理进入点分析,通过如下公式分析最佳进入点
(1)进入点并行推理效率计算:
Figure BDA0003011752610000021
其中:
Figure BDA0003011752610000022
从该并行推理进入点开始到推理结束的累计计算量;
Figure BDA0003011752610000023
从该并行推理进入点开始到推理结束的累计内存消耗;
Figure BDA0003011752610000024
从该并行推理进入点开始到推理结束的累计通信开销;Inputi:在该并行推理进入点的任务分发量。
S5、任务卸载目的边缘设备实时从相邻的P个协作计算边缘设备收集设备资源情况,包括:CPU资源、内存资源、GPU资源、网络资源;
S6、任务卸载目的边缘设备依据协作计算边缘设备实时资源将CNN推理任务分发到设备上进行并行推理。
进一步,CNN任务并行推理的实现过程为:
6.1、对所述步骤S4中确定的最佳并行推理进入点及之后的全部CNN推理层计算总体任务量并计算P个协作计算边缘设备上的分配任务量。计算公式如下:
Figure BDA0003011752610000025
S={Sp=αp×Tasktotal:p=1,…,P}
其中N是需进行并行推理的CNN层数,
Figure BDA0003011752610000031
Figure BDA0003011752610000032
分别是第k层特征图的高度、宽度和通道数。αp是第p个协作计算边缘设备对应的推理任务分配比例,最终可生成包含P个子任务的任务集合S。
6.2、通过如下公式确定每个协作计算边缘设备的任务分配比例:
Figure BDA0003011752610000033
其中:
Figure BDA0003011752610000034
表示子任务Sp在协作计算边缘设备Ep上的总推理时间,当P个子任务的平均推理时间以及他们的推理时间方差最小,即可保证任务Tasktatal是在最短时间内完成。求解该最优化问题即可获得各设备上的最佳任务分配比例。
有益效果
1、本发明可以根据边缘计算环境中各设备的资源情况来最优化辅助终端设备完成CNN推理任务;
2、本发明可以极大的提高CNN任务的推理速度;
3、本发明可以显著减少单个边缘设备在执行CNN推理时的资源占用,实现各边缘设备间的负载均衡。
附图说明
图1为本发明系统模型流程图。
图2为本发明中“零填充空间划分”示意图。
具体实施方式
下面结合附图对本发明作出详细说明:
本发明实现了一个多边缘设备辅助的通用CNN推理加速系统,该系统可以通过全局最优的任务分解和任务调度,通过利用多个边缘设备的计算资源来实现高计算量CNN推理任务的快速执行。该系统
1)实现多边缘设备辅助的通用CNN推理加速系统
1.1)系统架构模型
系统架构模型如图1所示。从顶层上看,该系统具有通过无线链路连接的三个部分:IoT设备上的图像捕获系统,任务卸载目的边缘设备上的并行子任务生成和分发系统以及协作计算边缘设备上的目标检测系统。
S1、在边缘计算网络中建立有一个终端设备和至有4个边缘设备的CNN推理加速系统;
S2、选择距离终端设备最近的边缘设备作为任务卸载目的边缘设备,其余边缘设备作为协作计算目的边缘设备;
S3、任务卸载目的边缘设备采用“零填充空间划分”的卷积划分方案对后续的卷积计算进行并行分解以获得特征提取;
S4、任务卸载目的边缘设备对CNN推理模型进行并行推理进入点分析,通过如下公式分析最佳并行进入点
(1)进入点并行推理效率计算:
Figure BDA0003011752610000041
其中:
Figure BDA0003011752610000042
从该并行推理进入点开始到推理结束的累计计算量;
Figure BDA0003011752610000043
从该并行推理进入点开始到推理结束的累计内存消耗;
Figure BDA0003011752610000044
从该并行推理进入点开始到推理结束的累计通信开销;Inputi:在该并行推理进入点的任务分发量。
S5、任务卸载目的边缘设备实时从相邻的P个协作计算边缘设备收集设备资源情况,包括:CPU资源、内存资源、GPU资源、网络资源;
S6、任务卸载目的边缘设备依据协作计算边缘设备实时资源将CNN推理任务分发到设备上进行并行推理。即任务卸载目的边缘设备依据协作计算边缘设备实时资源状况生成最优协作计算子任务;并分发协作计算子任务给给协作计算边缘设备运行CNN并行推理计算,将其结果合并。
当IoT捕获的图像被卸载到任务卸载目的边缘设备,边缘设备便开始使用本地部署的特征提取网络为该图像生成特征数据并输入到并行子任务生成模块。并行子任务生成模块使用改进的空间划分方案和一种子任务生成算法,以降低任务划分的复杂性。改进的空间分区方案能够以简单有效的方式对任务进行分割,还可以完全消除了一个片及其相邻片之间的依赖性,从而显着减少了子任务分配的通信开销。
子任务调度算法通过全面感知周边设备的可用资源来确定最佳子任务分配比例,并指导子任务的生成。通过有线网络传输将所有生成的子任务分派到协作计算边缘设备。该模块的关键功能是最优化模型,通过建立子任务分配比率与子任务执行延迟之间的数学关系,优化目标是使每个子任务执行延迟的均值和方差最小,并通过数学方法解决问题,实现最佳子任务调度。
当子任务到达协作计算边缘设备,设备上部署的分类和回归模块就几乎同时开始运行CNN推理。推理结果通常包含一些表示对象位置和分类置信度的浮点数据,因此在边缘服务器之间传输检测结果的通信成本极小。得益于子任务调度算法的准确性,本发明确保每个部分的检测结果到任务卸载边缘设备。最后一步是结果合并。此步骤的目的是进一步消除检测结果之间的重叠,以减少最终发送到IoT设备的数据量。
1.2)问题建模
在建立子任务最优化调度的优化模型前,需要先定义子任务在边缘设备上执行的相关延时。
子任务传输延时,
Figure BDA0003011752610000051
是传输子任务Sp到边缘设备Ep的网络带宽占用:
Figure BDA0003011752610000052
子任务计算延时,
Figure BDA0003011752610000053
是子任务Sp的真实计算量,
Figure BDA0003011752610000054
是子任务Sp在边缘设备Ep上占用的计算资源:
Figure BDA0003011752610000055
子任务内存占用,
Figure BDA0003011752610000056
是子任务Sp的内存占用:
Figure BDA0003011752610000057
子任务总执行延时:
Figure BDA0003011752610000058
最优化调度的目标是最小化各子任务的平均执行延时和执行延时方差,如下表示:
Figure BDA0003011752610000059
subject to:
p∈{1,…,P}(1)
αp∈[0,1](2)
Figure BDA0003011752610000061
Figure BDA0003011752610000062
Figure BDA0003011752610000063
Figure BDA0003011752610000064
约束条件(1)确保将整个任务分解为P个子任务;约束条件(2)和(3)保证将每个子任务划分为总任务的一部分,并且子任务的总和等于总任务;约束条件(4)(5)(6)确保调度和执行过程中子任务的资源消耗不会超过边缘设备Ep上的可用资源。
2)解决非最优并行推理问题
本发明中新并行效率(PE)表示将CNN中的某个层作为并行起始点对整体CNN并行推理延迟的影响。PE的公式如下:
Figure BDA0003011752610000065
Figure BDA0003011752610000066
Figure BDA0003011752610000067
Figure BDA0003011752610000068
Figure BDA0003011752610000069
分区点越靠近CNN模型的前端,在并行推理期间累积的计算和内存量就越大,因此在多个边缘服务器上运行模型推理时获得的并行增益就越大。但同时在并行推理期间累积的通信量也越大。较大的通信数据量将增加边缘设备之间的网络传输开销。如果分区点所在的CNN层的输出数据量很大,则在该层之后进入并行推理时,初始任务调度延迟也将很大。通过四项参数的调节,可以分析确定每个CNN层的推理效率,实现最优并行推理。
3)解决子任务划分自由度低的问题
为了解决划分自由度低的问题,本发明采用“零填充空间划分”的卷积划分方案。该方案如图2所示,忽略两个卷积切片边缘处的特征数据,则可以避免额外的数据传输,但是CNN推理精度仅会受到不足5%的轻微影响。同时该方案可以把卷积划分为任意多个切片并在最大程度地保持特征图的完整性,并避免由于数据块太多而增加计算错误。
4)解决CNN推理延时的精准估计问题
确定CNN推理中任务大小与真实计算量之间的关系。如下公式:
Figure BDA0003011752610000071
可以确定给定规模的任务对应的理论计算量。但在实际的硬件平台上测量CNN推理的的运行时间时,该公式变得不可行。模型的最终运行速度不仅与计算量有关,而且与诸如内存带宽,GPU管道和Cache之类的因素有很大关系。我们在GPU平台上构建了理论计算量和真实计算量之间的回归方程,如下:
Figure BDA0003011752610000072
β是一组和CNN推理模型相关的系数,该回归方程在多种模型下的平均精度误差小于4%。
多边缘设备辅助的通用CNN推理加速系统的真实实验按图1所示流程构建,发明的实际应用操作步骤如下:
1)本发明应用在一个测试平台上实现了所提出的系统。本发明使用手机作为物联网设备,并使用2个Nvidia Jetson AGX Xavier和2个Nvidia Jetson TX2开发板来模拟边缘设备。手机通过WiFi(5GHz)连接到边缘设备,并且边缘设备通过1Gbps以太网电缆相互连接。Jetson TX2和Xavier都运行JetPack 4.4,其中包括用于深度学习,计算机视觉,加速计算和多媒体的CUDA-X加速库和API;
2)本发明在手机上实现了IoT方面的功能,并通过设备上的摄像头连续捕获场景的视频帧,然后将帧卸载到主边缘设备;
3)边缘端实现包括五个主要模块:特征提取,并行子任务生成,子任务分派,分类和回归以及结果合并。它们在五个独立的进程中运行,以避免彼此阻塞。特征提取和分类回归模块使用PyTorch1.6实现,其他三个模块是用Python 3.6编写的;
4)本发明在COCO 2017训练数据集上训练了FasterR-CNN,SSD和YOLO模型。经过训练,本发明获得了三个网络权重文件,以满足不同精度和速度下运行的目标检测要求;
5)对于可重复的实验,本发明使用COCO 2017验证数据集作为输入来评估以下所有实验。因为该数据集中的图像通常包含带有多个目标的复杂场景;
6)整个实验严格遵循图所示的相同工作流程,并且实时运行,而无需在每个图像上进行任何额外的预处理;
7)广泛的实验表明,该系统可在多个CNN推理模型中将推理延时至少减少40.98%,并且推理结果精度下降不到5%。

Claims (2)

1.一种多边缘设备辅助的通用CNN推理加速系统,其特征在于,包括如下步骤:
S1、在边缘计算网络中建立有一个终端设备和至有4个边缘设备的CNN推理加速系统;
S2、选择距离终端设备最近的边缘设备作为任务卸载目的边缘设备,其余边缘设备作为协作计算目的边缘设备;
S3、任务卸载目的边缘设备采用“零填充空间划分”的卷积划分方案对后续的卷积计算进行并行分解;
S4、任务卸载目的边缘设备通过如下公式对CNN推理加速系统中推理模型并行推理计算生成最佳并行推理进入点;
Figure FDA0003011752600000011
其中:
Figure FDA0003011752600000012
从该并行推理进入点开始到推理结束的累计计算量;
Figure FDA0003011752600000013
从该并行推理进入点开始到推理结束的累计内存消耗;
Figure FDA0003011752600000014
从该并行推理进入点开始到推理结束的累计通信开销;Inputi:在该并行推理进入点的任务分发量;
S5、任务卸载目的边缘设备实时从相邻的P个协作计算边缘设备收集设备资源情况,包括:CPU资源、内存资源、GPU资源、网络资源;
S6、任务卸载目的边缘设备依据协作计算边缘设备实时资源将CNN推理任务分发到协作计算目的边缘设备上进行并行推理计算。
2.根据权利要求1所述的一种多边缘设备辅助的通用CNN推理加速系统,其特征在于,所述步骤S6中CNN任务并行推理的实现过程为:
6.1、对所述步骤S4中生成的最佳并行推理进入点及之后的CNN推理加速系统中推理层计算总体任务量并计算P个协作计算边缘设备上的分配任务集合,计算公式如下:
Figure FDA0003011752600000015
S={Sp=αp×Tasktotal:p=1,…,P}
其中:N是需进行并行推理的CNN层数,
Figure FDA0003011752600000016
Figure FDA0003011752600000017
分别是第k层特征图的高度、宽度和通道数;αp是第p个协作计算边缘设备对应的推理任务分配比例,最终可生成包含P个子任务的任务集合S;
6.2、通过如下公式确定每个协作计算边缘设备的任务分配比例:
Figure FDA0003011752600000021
其中:
Figure FDA0003011752600000022
表示子任务Sp在协作计算边缘设备Ep上的总推理时间,当P个子任务的平均推理时间以及他们的推理时间方差最小,即可保证任务Tasktatal是在最短时间内完成;求解该最优化问题即可获得各设备上的最佳任务分配比例。
CN202110378386.XA 2021-04-08 2021-04-08 一种多边缘设备辅助的通用cnn推理加速系统 Active CN113128681B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110378386.XA CN113128681B (zh) 2021-04-08 2021-04-08 一种多边缘设备辅助的通用cnn推理加速系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110378386.XA CN113128681B (zh) 2021-04-08 2021-04-08 一种多边缘设备辅助的通用cnn推理加速系统

Publications (2)

Publication Number Publication Date
CN113128681A true CN113128681A (zh) 2021-07-16
CN113128681B CN113128681B (zh) 2023-05-12

Family

ID=76775588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110378386.XA Active CN113128681B (zh) 2021-04-08 2021-04-08 一种多边缘设备辅助的通用cnn推理加速系统

Country Status (1)

Country Link
CN (1) CN113128681B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114401063A (zh) * 2022-01-10 2022-04-26 中国人民解放军国防科技大学 基于轻量化模型的边缘设备协同频谱智能监测方法和系统
CN117496361A (zh) * 2024-01-02 2024-02-02 中国科学院空天信息创新研究院 面向遥感解译应用的训练推理一体机
TWI832279B (zh) * 2022-06-07 2024-02-11 宏碁股份有限公司 人工智慧模型運算加速系統及人工智慧模型運算加速方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101741884A (zh) * 2008-11-25 2010-06-16 华为技术有限公司 一种分布式存储方法和装置
US20190208007A1 (en) * 2018-01-03 2019-07-04 Verizon Patent And Licensing Inc. Edge Compute Systems and Methods
US20190205740A1 (en) * 2016-06-14 2019-07-04 The Governing Council Of The University Of Toronto Accelerator for deep neural networks
CN110347500A (zh) * 2019-06-18 2019-10-18 东南大学 用于边缘计算环境中面向深度学习应用的任务卸载方法
CN110460465A (zh) * 2019-07-29 2019-11-15 天津大学 面向移动边缘计算的服务功能链部署方法
CN111585916A (zh) * 2019-12-26 2020-08-25 国网辽宁省电力有限公司电力科学研究院 基于云边协同的lte电力无线专网任务卸载和资源分配方法
WO2021012584A1 (zh) * 2019-07-25 2021-01-28 北京工业大学 一种移动边缘计算场景下制定单任务迁移策略的方法
CN112380008A (zh) * 2020-11-12 2021-02-19 天津理工大学 一种面向移动边缘计算应用的多用户细粒度任务卸载调度方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101741884A (zh) * 2008-11-25 2010-06-16 华为技术有限公司 一种分布式存储方法和装置
US20190205740A1 (en) * 2016-06-14 2019-07-04 The Governing Council Of The University Of Toronto Accelerator for deep neural networks
US20190208007A1 (en) * 2018-01-03 2019-07-04 Verizon Patent And Licensing Inc. Edge Compute Systems and Methods
CN110347500A (zh) * 2019-06-18 2019-10-18 东南大学 用于边缘计算环境中面向深度学习应用的任务卸载方法
WO2021012584A1 (zh) * 2019-07-25 2021-01-28 北京工业大学 一种移动边缘计算场景下制定单任务迁移策略的方法
CN110460465A (zh) * 2019-07-29 2019-11-15 天津大学 面向移动边缘计算的服务功能链部署方法
CN111585916A (zh) * 2019-12-26 2020-08-25 国网辽宁省电力有限公司电力科学研究院 基于云边协同的lte电力无线专网任务卸载和资源分配方法
CN112380008A (zh) * 2020-11-12 2021-02-19 天津理工大学 一种面向移动边缘计算应用的多用户细粒度任务卸载调度方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
EN LI等: ""Edge AI: On-Demand Accelerating Deep Neural Network Inference via Edge Computing"", 《IEEE TRANS.WIRELESS COMMUNICATIONS》 *
李立: "5G网络架构下的移动云计算优化方法探讨", 《单片机与嵌入式系统应用》 *
李肯立等: ""边缘智能:现状和展望"", 《大数据》 *
黄凯锋等: "Hash函数与椭圆曲线密码相融合的双向认证方案", 《吉林大学学报(理学版)》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114401063A (zh) * 2022-01-10 2022-04-26 中国人民解放军国防科技大学 基于轻量化模型的边缘设备协同频谱智能监测方法和系统
CN114401063B (zh) * 2022-01-10 2023-10-31 中国人民解放军国防科技大学 基于轻量化模型的边缘设备协同频谱智能监测方法和系统
TWI832279B (zh) * 2022-06-07 2024-02-11 宏碁股份有限公司 人工智慧模型運算加速系統及人工智慧模型運算加速方法
CN117496361A (zh) * 2024-01-02 2024-02-02 中国科学院空天信息创新研究院 面向遥感解译应用的训练推理一体机
CN117496361B (zh) * 2024-01-02 2024-03-19 中国科学院空天信息创新研究院 面向遥感解译应用的训练推理一体机

Also Published As

Publication number Publication date
CN113128681B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN113128681B (zh) 一种多边缘设备辅助的通用cnn推理加速系统
CN113950066B (zh) 移动边缘环境下单服务器部分计算卸载方法、系统、设备
CN112188442B (zh) 基于移动边缘计算的车联网数据驱动任务卸载系统和方法
US20200089535A1 (en) Data sharing system and data sharing method therefor
CN110941667A (zh) 一种移动边缘计算网络中的计算卸载方法及系统
CN114662661B (zh) 边缘计算下异构处理器加速多出口dnn推理的方法
Hou et al. Distredge: Speeding up convolutional neural network inference on distributed edge devices
CN111274036A (zh) 一种基于速度预测的深度学习任务的调度方法
Eshratifar et al. Towards collaborative intelligence friendly architectures for deep learning
CN113778691B (zh) 一种任务迁移决策的方法、装置及系统
CN115249315B (zh) 面向异构计算设备的深度学习图像分类方法及装置
CN113792621B (zh) 一种基于fpga的目标检测加速器设计方法
CN113316116B (zh) 一种车辆计算任务卸载方法
CN114595049A (zh) 一种云边协同任务调度方法及装置
CN114356544A (zh) 面向边缘集群的并行计算方法和系统
CN113867843A (zh) 一种基于深度强化学习的移动边缘计算任务卸载方法
CN116263681A (zh) 移动边缘计算任务卸载方法、装置、设备及存储介质
CN112148451A (zh) 一种低时延的协同自适应cnn推断系统及方法
Zhang et al. Dynamic DNN decomposition for lossless synergistic inference
Rapp et al. Distreal: Distributed resource-aware learning in heterogeneous systems
CN114936708A (zh) 基于边云协同任务卸载的故障诊断优化方法及电子设备
CN114691372A (zh) 一种多媒体端边云系统的群体智能控制方法
CN117436485A (zh) 基于权衡时延和精度的多退出点的端-边-云协同系统及方法
CN116996941A (zh) 基于配网云边端协同的算力卸载方法、装置及系统
CN116915869A (zh) 基于云边协同的时延敏感型智能服务快速响应方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant