CN116166444A - 一种面向深度学习分层模型的协同推理方法 - Google Patents
一种面向深度学习分层模型的协同推理方法 Download PDFInfo
- Publication number
- CN116166444A CN116166444A CN202310459836.7A CN202310459836A CN116166444A CN 116166444 A CN116166444 A CN 116166444A CN 202310459836 A CN202310459836 A CN 202310459836A CN 116166444 A CN116166444 A CN 116166444A
- Authority
- CN
- China
- Prior art keywords
- node
- deep learning
- layer
- edge computing
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 62
- 238000004364 calculation method Methods 0.000 claims abstract description 31
- 230000000903 blocking effect Effects 0.000 claims abstract description 5
- 238000013136 deep learning model Methods 0.000 claims description 42
- 238000010606 normalization Methods 0.000 claims description 12
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000002360 preparation method Methods 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 abstract description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/509—Offload
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于端边协同计算领域,公开了一种面向深度学习分层模型的协同推理方法,对深度学习分层模型采取逐层分割的方案,通过边缘计算节点处理速度这一状态信息,只需做一次统一决策,即可为节点匹配计算量合适的不同层推理子任务;还使用网络遥测技术感知节点间网络状态,当出现阻塞问题时即刻对上述整体决策做出相应调整;既降低了决策复杂度,又降低推理时延的同时,同时还提高了边缘节点的资源利用率,保证资源的合理分配。
Description
技术领域
本发明属于端边协同计算领域,具体涉及一种面向深度学习分层模型的协同推理方法。
背景技术
现如今,随着基于深度神经网络DNN的智能应用得到广泛使用,存在大量计算密集型或延迟敏感型任务。由于网络带宽限制和动态环境的不确定性问题,传统的云端处理方式难以满足用户对时延提出的高要求,且数据的安全性难以保证。而随着边缘计算和5G技术的发展,为深度学习分层模型在边缘侧推理提供可能。
通常情况下,深度学习模型计算任务量较大,由单一边缘计算节点处理往往会因其计算能力有限,无法满足低时延的要求;为此,人们根据深度学习模型分层的特性提出了一种分层卸载方法,即将深度学习模型分割为前后两个部分,分别卸载至端设备、边缘节点或云端处理。不过根据其最优节点原则,任务往往被卸载至某一或某几个计算能力较高的节点处理,随着推理任务的增多,节点的负载过大。相反,某些计算能力一般的节点往往不参与计算,这就大量计算资源空闲,没有得到充分利用。
对此,现有技术中存在新的多层分割方式的研究,如专利申请CN115562760A,公开了基于边缘计算节点打分表的深度学习模型分层卸载方法,其中决策依据的是由节点信息和模型数据生成的打分表,在降低时延的同时保证了计算资源的充分利用;但该专利申请也存在一些不足,首先,在大大的边缘集群场景下,打分表的数据显得过于庞大,且每层任务处理完需要做一次决策,决策时延较高;其次,其并未考虑到节点间网络拥塞的问题,无法克服拥塞带来的影响。
发明内容
为解决上述技术问题,本发明提供了一种面向深度学习分层模型的协同推理方法,对深度学习分层模型采取逐层分割的方案,通过边缘计算节点处理速度这一状态信息,只需做一次统一决策,即可为节点匹配计算量合适的不同层推理子任务;还使用网络遥测技术感知节点间网络状态,当出现阻塞问题时即刻对上述整体决策做出相应调整。
本发明所述的一种面向深度学习分层模型的协同推理方法,包括以下步骤为:
步骤4、所有任务完成后将最终计算结果回传至终端设备。
边缘计算节点离线统计阶段,统计出各个边缘计算节点的处理速度并归一化;
各层计算量离线统计阶段,统计各类参与推理的深度学习模型的每层计算任务大小情况;
排序阶段,对归一化后的节点处理速度和分层模型各层计算量大小由大到小依次向下排列;
离线数据下发阶段,对以上获得的离线数据下发至边缘集群中各个边缘计算节点处。
进一步的,边缘计算节点离线统计阶段,统计边缘集群中所有边缘计算节点处理某项计算量大小已知任务所需时间,任务大小选取时需保证任一节点处理时间不低于一秒;具体公式为:
进一步的,各层计算量离线统计阶段,将要参与推理的深度学习模型通过距离终端最近的边缘计算节点,统计计算每层深度学习模型时延;表示深度学习模型第层推理任务,深度学习模型总层数记为,,则第层所需计算时延为;其中最高时延用表示,最低时延用表示;由于深度学习模型第层推理任务计算量的大小与通过第层计算时延成正相关,因此对计算时延归一化得到的数值即表示其计算量的大小;归一化计算量大小,,归一化公式如下:
进一步的,排序阶段将得到的边缘计算节点处理速度的归一化数值和深度学习模型推理的各层计算量大小的归一化数值按照从大到小的顺序进行排序。
在每次执行前,中心节点首先判断节点间网络是否阻塞或者下一节点的进程数量是否已满;如果出现以上两种情况的任意一种,则将阻塞信息告知中心节点,由中心节点查找是否有空闲的网络顺畅的更高处理能力的节点,直到找到存在可行的节点,并做出决策调整,由该可行节点处理下一层任务。
本发明所述的有益效果为:
1)本方法在离线获取边缘集群中各边缘计算节点处理速度参数的前提下展开,可提取每个计算节点的处理速度综合分数并做归一化处理,然后按从大到小顺序向下排列,最后将数据下发至边缘集群中各个边缘计算节点处;其为后续的分层卸载决策提供依据,还可以保证分层卸载至各个节点的负载均衡,更为合理;
2)本方法同时在离线统计深度学习分层模型各层计算量大小的前提下展开,通过统计参与推理的深度学习模型每一层计算量的大小情况并对其归一化处理,然后按从大到小顺序向下排列,最后将数据下发至边缘集群中各个边缘节点处;从而合理的分配给处理速度大小相当的边缘计算节点,提高边缘集群中节点的资源利用率、降低计算时延;
3)不同于二进制卸载或单一分割点部分卸载的深度学习模型推理方法,本方法将深度学习模型分多层卸载至不同的边缘计算节点,为了防止每层任务完成后再作下一层的决策,避开决策复杂度高的问题,本发明由中心节点负责作出整体决策,充分挖掘边缘侧的计算潜力,同时降低了决策复杂度,实现计算任务时延和决策时延最小化;
4)本发明将深度学习模型推理任务分层卸载至终端设备对应边缘集群的边缘计算节点上,端边协同推理的方式可有效保证计算数据的安全性和缓解网络带宽的压力,同时提高边缘集群中节点资源利用率;
5)本方法考虑到节点间网络阻塞问题,采用网络遥测技术实时监测即将传输数据的两节点间网络状况,一旦前方发生堵塞便立即调整到网络状况良好且处理速度更快的边缘节点处理,避免了网络拥塞导致任务无法及时处理的问题。
附图说明
图1为本发明前期准备流程图;
图2为本发明的技术原理图;
图3为本发明的一般流程图;
图4为本发明的部分推理任务示意图;
图5为本发明决策实时调整流程图;
图6为本发明的整体流程图。
具体实施方式
为了使本发明的内容更容易被清楚地理解,下面根据具体实施例并结合附图,对本发明作进一步详细的说明。
如图6所示,本发明所述的一种面向深度学习分层模型的协同推理方法,包括以下步骤:
步骤4、所有任务完成后将最终计算结果回传至终端设备。
如图1所示,本发明前期准备工作包括以下四个阶段:1.边缘计算节点离线统计阶段:统计出各个节点的处理速度并归一化;2.各层计算量离线统计阶段:统计各类参与推理的深度学习模型的每层计算任务大小情况;3.排序阶段:对归一化后的节点处理速度和分层模型各层计算量大小由大到小依次向下排列;4.离线数据下发:以上获得的数据下发至边缘集群中各个边缘计算节点处。(前期准备阶段的主要工作由边缘集群中的距离终端最近的边缘计算节点即中心节点计算并处理)。
边缘计算节点离线统计阶段:该阶段进行离线测试,边缘集群中所有的边缘计算节点处理某项计算量大小已知的任务,统计节点处理该项任务所需时间;具体公式如下:(需要声明的是:任务大小选取时需保证任一节点处理时间不低于一秒)
各层计算量离线统计阶段:同样是离线测试阶段,该阶段将要参与推理的深度学习模型通过距离终端最近的边缘计算节点,统计计算每层深度学习模型时延;用表示深度学习模型第层推理任务,深度学习模型总层数记为(),则第层所需计算时延为;其中最高时延用表示,最低时延用表示。由于深度学习模型第层推理任务计算量的大小与通过第层计算时延成正相关,因此对计算时延归一化得到的数值即可表示其计算量的大小,具体的归一化计算量大小的数值范围为,归一化公式如下:
排序阶段:本发明对上述离线测试得到的边缘计算节点处理速度的归一化数值和深度学习模型推理的各层计算量大小的归一化数值进行排序,如表1所示:
表1
表1为离线统计边缘节点和各层计算量并排序的部分示例,按照从大到小的顺序排列即可。
离线数据下发阶段:以上获得的数据,包括统计到的边缘计算节点归一化数值和分层模型计算量大小的归一化数值,以及它们排序之后的情况,通过边缘计算中心节点下发至边缘集群中各个边缘计算节点处,为边缘计算节点决策和策略实时调整提供依据。
本发明采用的网络结构如图2所示,边缘集群内包含多个边缘服务器,各边缘服务器部署在基站或是WIFI接入点中,且满足单个集群内任意一个边缘计算节点与各物理终端的通信范围保持在一定范围内,尽可能保证数据传输的稳定性和及时性。
同一局域网内存在多个物理终端和多个边缘计算节点,且距离终端最近的边缘计算节点作为中心节点,与此中心节点物理距离小于x千米的其他边缘计算节点一起组成边缘集群层;多个物理终端位于边缘集群层之下,组成终端设备层。
边缘计算节点上部署有数据中心、决策中心和深度学习模型。
数据中心:下设节点数据模块、深度学习模型数据模块和网络遥测模块;首先是节点数据模块,集群内的各边缘计算节点在离线统计阶段对各自的处理速度进行统计并传输至中心节点,随后由中心节点的归一化数据模块对数据归一化处理并排序,并储存在本地。此外各节点实时发送当前剩余进程数至中心节点,为后续决策调整提供依据。其次是深度学习模型数据模块,中心节点在离线阶段对不同类型深度学习模型进行处理,并统计出同一类型深度学习模型的每一层计算任务所需时间,然后通过对计算时延的归一化处理,得到每层任务计算量大小,按照从大到小依次向下的顺序排列,最后将数据储存在本地即可。最后是网络遥测模块,利用网络遥测技术,每个边缘计算节点每隔1毫秒对本节点至其余节点的网络状态进行实时监测,一旦监测到网络拥塞状况,立即将拥塞路径上传至中心节点的决策中心的决策调整模块。
决策中心:下设决策模块、决策收发模块和决策调整模块。
首先是决策模块,中心节点根据数据中心离线统计到的集群内边缘计算节点处理速度和各层模型计算量大小,统一决策,为每层模型分配至处理能力合适的边缘计算节点。其次是决策收发模块,用于完成接收和发送决策的任务。最后是决策调整模块,当前层任务处理完之后需要将结果下发至下一节点处理下一层任务,在这之前中心节点的决策调整模块将根据下一层节点的剩余进程数和两节点间的网络状况决定是否调整决策,一旦出现剩余进程数不足或网络拥塞问题,则立即调整下一层任务的目标节点。
深度学习模型:已经训练完备并赋予智能应用程序的算法模型。
如图3所示,前期准备工作完成之后,就可以按顺序对深度学习模型进行任务卸载计算,需要声明的是,同一个边缘集群内的边缘计算节点中的深度学习模型的数据信息都是共享的。
当终端设备接收到深度学习模型推理任务时,终端设备将任务装载至中心节点决策中心的决策模块中,中心节点的决策模块根据深度学习模型数据模块的各层模型计算量归一化值选取数据中心的节点数据模块中的节点处理速度归一化值最接近且不小于的节点。当决策模块决策好模型各层分配情况之后将决策分发至处理第一层任务的第一个节点处。此处需要声明的是,首先该次决策为统一决策,后续无需再由其余节点做决策任务;其次由于深度学习模型的特性,下一层任务处理之前需要上一层任务的结果作为此分层任务的输入,因此需要按顺序分配每层任务至下一节点,这也给中心节点的决策调整提供了可能。在当前层任务处理完,同时即将把处理结果传输至下一节点处理之前,中心节点的决策调整模块将依据涉及到的节点状态信息,包括下一节点剩余进程数以及两节点间的网络是否阻塞为标准决定是否采取相应的决策调整方案。
以图4中的深度学习模型分层计算的部分任务为例,其中第层推理任务由边缘计算节点处理,整体决策方案中下一层任务,即第j+1层,由边缘计算节点处理。当第层任务处理完之后,需要将处理结果传输至下一节点处理,不过在此之前,节点将监测其到节点的网络状况N是否阻塞,一旦出现网络阻塞问题则立即将结果上传至中心节点的数据中心,节点到的网络状况是否阻塞表示为:
需要声明的是,此处网络状况的检测方法为网络遥测技术,可以实现每个一毫米检测一次当前网络状况,而中心节点默认网络状况良好,直到当前检测到的网络状况和上一秒状况不同时才会将当前网络状况信息上传至中心节点。
此外,在传输处理结果至下一节点处理前还需监测节点的剩余进程数,一旦剩余进程数小于等于0时,立即将结果上传至中心节点的数据中心。表示边缘计算节点的剩余进程数,表示进程数有无,当剩余进程数小于等于0时,当剩余进程数大于等于1时;即第a个节点剩余进程数的有无表示为:
默认状态下中心节点的数据中心节点进程信息为;直到时,立即将进程数据上传至中心节点。当数值再次发生变化时,才将节点的进程信息更新。此外,一旦对于任意边缘节点,一旦有新的任务进来,即将进程数加一,反之如果有任务结束处理即进程数加一。
当时,表示需要做出决策调整;反之,当时,则不需要做出决策调整,按照原定的策略计算下一任任务。若需要调整策略,则根据中心节点的数据中心内节点处理能力排序表调整,以为例,向上依次查找处理速度比节点快的其他节点;若找到一个节点满足(表示x节点进程数是否剩余,表示a到x节点间的网络是否阻塞),则将下一层任务处理位置从节点调整为节点;若未找到该节点,则重新返回到节点向上查找,直到出现合适的节点并卸载至该节点为止;具体如图5所示。
以上所述仅为本发明的优选方案,并非作为对本发明的进一步限定,凡是利用本发明说明书及附图内容所作的各种等效变化均在本发明的保护范围之内。
Claims (8)
5.根据权利要求4所述的一种面向深度学习分层模型的协同推理方法,其特征在于,排序阶段将得到的边缘计算节点处理速度的归一化数值和深度学习模型推理的各层计算量大小的归一化数值按照从大到小的顺序进行排序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310459836.7A CN116166444B (zh) | 2023-04-26 | 2023-04-26 | 一种面向深度学习分层模型的协同推理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310459836.7A CN116166444B (zh) | 2023-04-26 | 2023-04-26 | 一种面向深度学习分层模型的协同推理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116166444A true CN116166444A (zh) | 2023-05-26 |
CN116166444B CN116166444B (zh) | 2023-07-04 |
Family
ID=86416805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310459836.7A Active CN116166444B (zh) | 2023-04-26 | 2023-04-26 | 一种面向深度学习分层模型的协同推理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116166444B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117834643A (zh) * | 2024-03-05 | 2024-04-05 | 南京邮电大学 | 一种面向工业物联网的深度神经网络协同推理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108901046A (zh) * | 2018-06-14 | 2018-11-27 | 北京大学 | 面向移动边缘计算的协同任务卸载算法及系统设计方案 |
CN111242282A (zh) * | 2020-01-09 | 2020-06-05 | 中山大学 | 基于端边云协同的深度学习模型训练加速方法 |
CN113326002A (zh) * | 2021-05-22 | 2021-08-31 | 清华大学 | 基于计算迁移的云边协同控制系统及迁移决策生成方法 |
CN115460710A (zh) * | 2022-08-30 | 2022-12-09 | 西北工业大学 | 基于深度强化学习的车辆边缘计算场景中的智能计算卸载方法 |
CN115562760A (zh) * | 2022-11-22 | 2023-01-03 | 南京邮电大学 | 基于边缘计算节点打分表的深度学习模型分层卸载方法 |
-
2023
- 2023-04-26 CN CN202310459836.7A patent/CN116166444B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108901046A (zh) * | 2018-06-14 | 2018-11-27 | 北京大学 | 面向移动边缘计算的协同任务卸载算法及系统设计方案 |
CN111242282A (zh) * | 2020-01-09 | 2020-06-05 | 中山大学 | 基于端边云协同的深度学习模型训练加速方法 |
CN113326002A (zh) * | 2021-05-22 | 2021-08-31 | 清华大学 | 基于计算迁移的云边协同控制系统及迁移决策生成方法 |
CN115460710A (zh) * | 2022-08-30 | 2022-12-09 | 西北工业大学 | 基于深度强化学习的车辆边缘计算场景中的智能计算卸载方法 |
CN115562760A (zh) * | 2022-11-22 | 2023-01-03 | 南京邮电大学 | 基于边缘计算节点打分表的深度学习模型分层卸载方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117834643A (zh) * | 2024-03-05 | 2024-04-05 | 南京邮电大学 | 一种面向工业物联网的深度神经网络协同推理方法 |
CN117834643B (zh) * | 2024-03-05 | 2024-05-03 | 南京邮电大学 | 一种面向工业物联网的深度神经网络协同推理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116166444B (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112118312B (zh) | 一种面向边缘服务器的网络突发负载疏散方法 | |
WO2022237086A1 (zh) | 一种基于机器学习模型的控制方法和装置 | |
CN116166444B (zh) | 一种面向深度学习分层模型的协同推理方法 | |
CN110717300A (zh) | 面向电力物联实时在线监测业务的边缘计算任务分配方法 | |
CN113691594B (zh) | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 | |
CN113315669B (zh) | 基于云边协同的吞吐量优化的机器学习推断任务部署方法 | |
CN110996365B (zh) | 一种基于多目标优化模型的异构网络垂直切换算法及系统 | |
CN113328953B (zh) | 网络拥塞调整的方法、装置和存储介质 | |
CN114938376B (zh) | 基于优先级处理数据的工业物联网及其控制方法 | |
CN117880605B (zh) | 基于5g技术的短信视频快速播放方法及系统 | |
CN116050540A (zh) | 一种基于联合双维度用户调度的自适应联邦边缘学习方法 | |
CN113676357B (zh) | 面向电力物联网中边缘数据处理的决策方法及其应用 | |
CN115562760B (zh) | 基于边缘计算节点打分表的深度学习模型分层卸载方法 | |
CN117114113A (zh) | 一种基于排队论的协同推理加速方法 | |
CN112084034A (zh) | 一种基于边缘平台层调节系数的mct调度方法 | |
CN115766475B (zh) | 基于通信效率的半异步电力联邦学习网络及其通信方法 | |
CN106789163A (zh) | 一种网络设备用电信息监测方法、装置和系统 | |
CN116170881A (zh) | 一种基于边缘计算的跨域资源分配与卸载方法及系统 | |
CN113485803B (zh) | 具有时延约束任务流场景下的自适应封装与协同推理方法 | |
CN114781598A (zh) | 一种基于分层神经网络分布式训练的故障预测方法 | |
Zhang et al. | Learning Client Selection Strategy for Federated Learning across Heterogeneous Mobile Devices | |
CN116257361B (zh) | 无人机辅助的易故障移动边缘计算资源调度优化方法 | |
CN116647874B (zh) | 一种5g高性能网络服务器数据优化传输方法及系统 | |
CN118259716B (zh) | 一种降低ai算力集群能耗的方法、装置及存储介质 | |
CN115883661B (zh) | 一种云边协同云游戏场景下的请求动态调度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |