CN109995860A - 一种vanet中基于边缘计算的深度学习任务分配算法 - Google Patents
一种vanet中基于边缘计算的深度学习任务分配算法 Download PDFInfo
- Publication number
- CN109995860A CN109995860A CN201910246261.4A CN201910246261A CN109995860A CN 109995860 A CN109995860 A CN 109995860A CN 201910246261 A CN201910246261 A CN 201910246261A CN 109995860 A CN109995860 A CN 109995860A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- learning task
- edge
- server
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/101—Server selection for load balancing based on network conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1012—Server selection for load balancing based on compliance of requirements or conditions with available server resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer And Data Communications (AREA)
Abstract
一种VANET中基于边缘计算的深度学习任务分配算法,所述分配算法包括离线分配算法和在线分配算法,所述离线分配算法主要针对事先已知一段时间内到来的深度学习任务序列的情况,所述在线分配算法主要针对事先不知道需要处理的深度学习任务序列的情况;该算法根据深度学习任务产生的计算开销,带宽需求来综合考虑确定云服务器分配到边缘服务器中的神经网络的层数,从而更有效地利用边缘服务器的计算资源,提高深度学习任务的处理效率。本发明提出的深度学习任务分配算法最大化边缘服务器中运行的深度学习任务的数量,不仅减少了从车联网终端设备传输到云服务器的网络流量,也减少了因为信息的传输带来的传输时延。
Description
技术领域
本发明涉及一种VANET中基于边缘计算的深度学习任务分配算法,属于车联网技术领域与通信领域。
背景技术
随着车联网理论知识的完善,车与车之间,车与基站之间,车与行人之间将具备信息传输的能力,这就使得车联网内的所有通信单元能够共享它们的运动信息,而随着大数据时代下数据挖掘技术的发展,只要有了大量已知的数据集,并通过机器学习算法进行学习,计算机就能对未知的数据进行预测和分析。因此,通过车联网技术和机器学习技术可以有效地对即将发生的交通事故进行预测和分析,在预测到车辆很可能发生交通事故时,使车辆能够及时调整自身的行车状态,来避免交通事故的发生。
目前车联网中的边缘计算环境中采用的任务分配算法在对深度学习任务进行分配时产生的时延过高,且通常情况下,边缘服务器主要用来处理较低层的数据,而云服务器主要处理较高层的数据,然而,如何对深度神经网络的层数进行划分并没有统一的标准。将更多层部署到边缘服务器可以减少更多网络流量,但是,与云服务器相比,边缘服务器的服务器容量有限,在边缘服务器中处理无限任务是不可能的,同时深度学习网络中的每一层都会给服务器带来额外的计算开销,部署在边缘服务器中的神经网络层越多,计算开销就越大,边缘服务器所需处理的计算开销很可能超出自身的计算能力。反之,若部署在边缘服务器中的神经网络层越少,边缘服务器的计算就越小,但是上传到云端的数据就越多,所占用的带宽也就越多,延时也就越大。
发明内容
本发明的主要目的在于解决在目前神经网络层没有统一划分标准的情况下,边缘计算环境中采用的任务分配算法在对深度学习任务进行分配时产生的时延过高,效率低下的问题,提出一种VANET中基于边缘计算的深度学习任务分配算法,具体技术方案如下:
一种VANET中基于边缘计算的深度学习任务分配算法,所述分配算法包括离线分配算法和在线分配算法,其特征在于:
所述离线分配算法主要针对事先已知一段时间内到来的深度学习任务序列的情况,所述在线分配算法主要针对事先不知道需要处理的深度学习任务序列的情况;
所述离线分配算法的流程如下所示:
步骤1,对于每个深度学习任务,遍历其所有的k,求得使lkj·rkj最大的k,rkj为第k层的神经网络的输入数据大小与初始输入数据的大小之比,lkj为在边缘服务器处理k层神经网络后产生的计算开销;
步骤2,遍历所有的边缘服务器,找到当前情况下边缘服务器的剩余服务能力和剩余带宽乘积最大的边缘服务器;
步骤3,将所有的深度学习任务先按照深度学习任务的输入数据大小进行升序排序;
步骤4,对排序后的每个深度学习任务,首先对序号为1的深度学习任务进行判断,若剩余服务能力和剩余带宽乘积最大的边缘服务器能够满足所提的约束条件,则在该边缘服务器上运行该任务,若该边缘服务器不满足约束条件,则改变k的值直到满足约束条件为止,若改变k后仍然不能满足条件,则不执行该任务;
步骤5,若序号为1的深度学习任务已经分配完成,则重新计算并找到当前情况下边缘服务器的剩余服务能力和剩余带宽乘积最大的边缘服务器,并按照排好的顺序对余下的深度学习任务进行分配,若某一个深度学习任务在遍历所有k后仍然不能分配到边缘服务器中,则说明当前所有的边缘服务器均已饱和,将该深度学习任务及其之后的所有深度学习任务暂缓,并在之前的任务处理完成后重复上述流程进行判断;
所述在线分配算法的流程如下所示:
步骤1,令Bmax和Bmin为任务tj在经过改变k层神经网络后所需的最大和最小带宽,对于任务tj,首先找出目前所有边缘服务器中具有最大剩余服务能力的服务器
步骤2,对该服务器的最大剩余服务能力进行判断,若满足处理条件,则认为该边缘服务器能够接受并立刻处理到来的深度学习任务;
步骤3,若该服务器的最大剩余服务能力不满足处理条件,则需要暂缓对该深度学习任务的处理,直至边缘服务器有足够的剩余服务能力进行处理。
进一步地,所述在线分配算法的步骤1中,服务器的剩余服务能力由函数给出:
其中,为边缘服务器的剩余计算能力,e为自然常数。
进一步地,所述在线分配算法的步骤2中,具体地,所述处理条件为:
若满足该条件,则认为该边缘服务器能够接受并立刻处理到来的深度学习任务,若不满足,则需要暂缓对该深度学习任务的处理,直至边缘服务器有足够的剩余服务能力进行处理。
与现有技术相比,本发明的有益效果是:本发明提出的深度学习任务分配算法最大化边缘服务器中运行的深度学习任务的数量,不仅减少了从车联网终端设备传输到云服务器的网络流量,也减少了因为信息的传输带来的传输时延。
附图说明
图1为VANET边缘深度学习框架。
图2为VANET边缘深度学习模型。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
一种VANET中基于边缘计算的深度学习任务分配算法,所述分配算法包括离线分配算法和在线分配算法。
参照图1,在深度神经网络的训练和部署方面,首先需要在云服务器中完成深度神经网络的训练。在训练完成之后,我们将深度神经网络分为两部分。第一部分为离输入数据较近的隐含层和输入层,第二部分为离输出数据较近的隐含层和输出层。本方案将第一部分安排在边缘服务器中,将第二部分部署到云服务器中进行处理。因此,边缘服务器主要用来处理较低层的数据,而云服务器主要处理较高层的数据。
然而,如何对深度神经网络的层数进行划分并没有统一的标准。通常,由较高层产生的中间数据的大小小于由较低层产生的中间数据的大小。将更多层部署到边缘服务器可以减少更多网络流量。但是,与云服务器相比,边缘服务器的服务器容量有限,在边缘服务器中处理无限任务是不可能的。深度学习网络中的每一层都会给服务器带来额外的计算开销,因此只能将部分深度学习网络部署到边缘服务器中。同时,由于不同的深度学习网络和任务具有不同大小的中间数据和计算开销,因此需要一种有效的分配算法分配深度学习网络在边缘服务器中运行的层数。
一种VANET中基于边缘计算的深度学习任务分配算法,所述分配算法包括离线分配算法和在线分配算法。所述离线分配算法主要针对事先已知一段时间内到来的深度学习任务序列的情况,所述在线分配算法主要针对事先不知道需要处理的深度学习任务序列的情况。其中,深度学习任务的具体分配方式如图2所示,深度神经网络的前面几层隐含层的处理将安排在边缘服务器中,而之后的隐藏层和输出层的处理将安排在云服务器中。因此,边缘服务器主要用来处理较低层的数据,而云服务器主要处理较高层的数据。
所述离线分配算法的流程如下所示:
步骤1,对于每个深度学习任务,遍历其所有的k,求得使lkj·rkj最大的k,rkj为第k层的神经网络的输入数据大小与初始输入数据的大小之比,lkj为在边缘服务器处理k层神经网络后产生的计算开销。
步骤2,遍历所有的边缘服务器,找到当前情况下边缘服务器的剩余服务能力和剩余带宽乘积最大的边缘服务器。服务器的剩余服务能力由函数给出:
其中,为边缘服务器的剩余计算能力,e为自然常数。
步骤3,将所有的深度学习任务先按照深度学习任务的输入数据大小进行升序排序。
步骤4,对排序后的每个深度学习任务,首先对序号为1的深度学习任务进行判断,若剩余服务能力和剩余带宽乘积最大的边缘服务器能够满足所提的约束条件,则在该边缘服务器上运行该任务,若该边缘服务器不满足约束条件,则改变k的值直到满足约束条件为止,若改变k后仍然不能满足条件,则不执行该任务。
步骤5,若序号为1的深度学习任务已经分配完成,则重新计算并找到当前情况下边缘服务器的剩余服务能力和剩余带宽乘积最大的边缘服务器,并按照排好的顺序对余下的深度学习任务进行分配,若某一个深度学习任务在遍历所有k后仍然不能分配到边缘服务器中,则说明当前所有的边缘服务器均已饱和,将该深度学习任务及其之后的所有深度学习任务暂缓,并在之前的任务处理完成后重复上述流程进行判断。
所述在线分配算法的流程如下所示:
步骤1,令Bmax和Bmin为任务tj在经过改变k层神经网络后所需的最大和最小带宽,对于任务tj,首先找出目前所有边缘服务器中具有最大剩余服务能力的服务器
步骤2,对该服务器的最大剩余服务能力进行判断,若满足处理条件,则认为该边缘服务器能够接受并立刻处理到来的深度学习任务。
步骤3,若该服务器的最大剩余服务能力不满足处理条件,则需要暂缓对该深度学习任务的处理,直至边缘服务器有足够的剩余服务能力进行处理。
所述在线分配算法的步骤2中,具体地,所述处理条件为:
若满足该条件,则认为该边缘服务器能够接受并立刻处理到来的深度学习任务,若不满足,则需要暂缓对该深度学习任务的处理,直至边缘服务器有足够的剩余服务能力进行处理。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。
Claims (3)
1.一种VANET中基于边缘计算的深度学习任务分配算法,所述分配算法包括离线分配算法和在线分配算法,其特征在于:
所述离线分配算法主要针对事先已知一段时间内到来的深度学习任务序列的情况,所述在线分配算法主要针对事先不知道需要处理的深度学习任务序列的情况;
所述离线分配算法的流程如下所示:
步骤1,对于每个深度学习任务,遍历其所有的k,求得使lkj·rkj最大的k,rkj为第k层的神经网络的输入数据大小与初始输入数据的大小之比,lkj为在边缘服务器处理k层神经网络后产生的计算开销;
步骤2,遍历所有的边缘服务器,找到当前情况下边缘服务器的剩余服务能力和剩余带宽乘积最大的边缘服务器;
步骤3,将所有的深度学习任务先按照深度学习任务的输入数据大小进行升序排序;
步骤4,对排序后的每个深度学习任务,首先对序号为1的深度学习任务进行判断,若剩余服务能力和剩余带宽乘积最大的边缘服务器能够满足所提的约束条件,则在该边缘服务器上运行该任务,若该边缘服务器不满足约束条件,则改变k的值直到满足约束条件为止,若改变k后仍然不能满足条件,则不执行该任务;
步骤5,若序号为1的深度学习任务已经分配完成,则重新计算并找到当前情况下边缘服务器的剩余服务能力和剩余带宽乘积最大的边缘服务器,并按照排好的顺序对余下的深度学习任务进行分配,若某一个深度学习任务在遍历所有k后仍然不能分配到边缘服务器中,则说明当前所有的边缘服务器均已饱和,将该深度学习任务及其之后的所有深度学习任务暂缓,并在之前的任务处理完成后重复上述流程进行判断;
所述在线分配算法的流程如下所示:
步骤1,令Bmax和Bmin为任务tj在经过改变k层神经网络后所需的最大和最小带宽,对于任务tj,首先找出目前所有边缘服务器中具有最大剩余服务能力的服务器
步骤2,对该服务器的最大剩余服务能力进行判断,若满足处理条件,则认为该边缘服务器能够接受并立刻处理到来的深度学习任务;
步骤3,若该服务器的最大剩余服务能力不满足处理条件,则需要暂缓对该深度学习任务的处理,直至边缘服务器有足够的剩余服务能力进行处理。
2.根据权利要求1所述的一种VANET中基于边缘计算的深度学习任务分配算法,其特征在于:所述在线分配算法的步骤1中,服务器的剩余服务能力由函数给出:
其中,为边缘服务器的剩余计算能力,e为自然常数。
3.根据权利要求1所述的一种VANET中基于边缘计算的深度学习任务分配算法,其特征在于:所述在线分配算法的步骤2中,具体地,所述处理条件为:
若满足该条件,则认为该边缘服务器能够接受并立刻处理到来的深度学习任务,若不满足,则需要暂缓对该深度学习任务的处理,直至边缘服务器有足够的剩余服务能力进行处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910246261.4A CN109995860B (zh) | 2019-03-29 | 2019-03-29 | 一种vanet中基于边缘计算的深度学习任务分配算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910246261.4A CN109995860B (zh) | 2019-03-29 | 2019-03-29 | 一种vanet中基于边缘计算的深度学习任务分配算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109995860A true CN109995860A (zh) | 2019-07-09 |
CN109995860B CN109995860B (zh) | 2022-03-04 |
Family
ID=67131762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910246261.4A Active CN109995860B (zh) | 2019-03-29 | 2019-03-29 | 一种vanet中基于边缘计算的深度学习任务分配算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109995860B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110536264A (zh) * | 2019-08-12 | 2019-12-03 | 大连理工大学 | 一种提高5g车联网通信服务质量的边缘计算方法 |
CN110850713A (zh) * | 2019-09-23 | 2020-02-28 | 重庆特斯联智慧科技股份有限公司 | 一种边缘化数据处理的城市公共设施调控方法和系统 |
CN111176820A (zh) * | 2019-12-31 | 2020-05-19 | 中科院计算技术研究所大数据研究院 | 一种基于深度神经网络的边缘计算任务的分配方法及装置 |
CN111953751A (zh) * | 2020-07-30 | 2020-11-17 | 国网河南省电力公司信息通信公司 | 一种物联网场景下的dnn划分方法及装置 |
CN112615736A (zh) * | 2020-12-10 | 2021-04-06 | 南京工业大学 | 面向线性边缘网络的延迟最优分布式NNs协同优化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436644A (zh) * | 2011-11-02 | 2012-05-02 | 南京物联网研究院发展有限公司 | 基于自适应边缘配准的非结构化道路检测方法 |
US20170032280A1 (en) * | 2015-07-27 | 2017-02-02 | Salesforce.Com, Inc. | Engagement estimator |
CN108063802A (zh) * | 2017-12-01 | 2018-05-22 | 南京邮电大学 | 基于边缘计算的用户位置动态性建模优化方法 |
CN108510126A (zh) * | 2018-04-11 | 2018-09-07 | 南京邮电大学 | 一种基于pca和bp神经网络的交通事故预测方法 |
CN109002358A (zh) * | 2018-07-23 | 2018-12-14 | 厦门大学 | 基于深度强化学习的移动终端软件自适应优化调度方法 |
-
2019
- 2019-03-29 CN CN201910246261.4A patent/CN109995860B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436644A (zh) * | 2011-11-02 | 2012-05-02 | 南京物联网研究院发展有限公司 | 基于自适应边缘配准的非结构化道路检测方法 |
US20170032280A1 (en) * | 2015-07-27 | 2017-02-02 | Salesforce.Com, Inc. | Engagement estimator |
CN108063802A (zh) * | 2017-12-01 | 2018-05-22 | 南京邮电大学 | 基于边缘计算的用户位置动态性建模优化方法 |
CN108510126A (zh) * | 2018-04-11 | 2018-09-07 | 南京邮电大学 | 一种基于pca和bp神经网络的交通事故预测方法 |
CN109002358A (zh) * | 2018-07-23 | 2018-12-14 | 厦门大学 | 基于深度强化学习的移动终端软件自适应优化调度方法 |
Non-Patent Citations (3)
Title |
---|
HAITAO ZHAO: ""A Driving Risk Prediction Algorithm Based on"", 《2018 10TH INTERNATIONAL CONFERENCE ON INTELLIGENT HUMAN-MACHINE SYSTEMS AND CYBERNETICS》 * |
HAITAO ZHAO: ""FMCNN: A Factorization Machine Combined Neural Network for Driving Safety Prediction in Vehicular Communication"", 《IEEE ACCESS》 * |
张凡: ""VANET中基于实时交通估计的多跳广播路由算法研究"", 《中国优秀硕士论文全文数据库》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110536264A (zh) * | 2019-08-12 | 2019-12-03 | 大连理工大学 | 一种提高5g车联网通信服务质量的边缘计算方法 |
CN110536264B (zh) * | 2019-08-12 | 2021-08-20 | 大连理工大学 | 一种提高5g车联网通信服务质量的边缘计算方法 |
CN110850713A (zh) * | 2019-09-23 | 2020-02-28 | 重庆特斯联智慧科技股份有限公司 | 一种边缘化数据处理的城市公共设施调控方法和系统 |
CN110850713B (zh) * | 2019-09-23 | 2023-01-24 | 重庆特斯联智慧科技股份有限公司 | 一种边缘化数据处理的城市公共设施调控方法和系统 |
CN111176820A (zh) * | 2019-12-31 | 2020-05-19 | 中科院计算技术研究所大数据研究院 | 一种基于深度神经网络的边缘计算任务的分配方法及装置 |
CN111953751A (zh) * | 2020-07-30 | 2020-11-17 | 国网河南省电力公司信息通信公司 | 一种物联网场景下的dnn划分方法及装置 |
CN112615736A (zh) * | 2020-12-10 | 2021-04-06 | 南京工业大学 | 面向线性边缘网络的延迟最优分布式NNs协同优化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109995860B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109995860A (zh) | 一种vanet中基于边缘计算的深度学习任务分配算法 | |
CN111240701B (zh) | 一种端-边-云协同计算的任务卸载优化方法 | |
CN109684083B (zh) | 一种面向边缘-云异构下的多级事务调度分配策略 | |
CN113193984B (zh) | 一种空天地一体化网络资源映射方法及系统 | |
CN110839184B (zh) | 基于流量预测的移动前传光网络带宽调整方法及装置 | |
CN108684046B (zh) | 一种基于随机学习的接入网服务功能链部署方法 | |
CN111711666B (zh) | 一种基于强化学习的车联网云计算资源优化方法 | |
CN110570075B (zh) | 一种电力业务边缘计算任务分配方法及装置 | |
CN112464784A (zh) | 一种基于混合并行的分布式训练方法 | |
CN112788605B (zh) | 基于双延迟深度确定性策略边缘计算资源调度方法和系统 | |
CN110489176B (zh) | 一种基于装箱问题的多接入边缘计算任务卸载方法 | |
CN114268923A (zh) | 车联网任务卸载调度方法和系统 | |
CN108111335A (zh) | 一种调度和链接虚拟网络功能的方法及系统 | |
CN109743751B (zh) | 无线接入网的资源分配方法及装置 | |
CN110519370A (zh) | 一种基于设施选址问题的边缘计算资源分配方法 | |
CN114285853A (zh) | 设备密集型工业物联网中基于端边云协同的任务卸载方法 | |
CN111246320B (zh) | 一种云-雾弹性光网络中的深度强化学习流量疏导方法 | |
CN113709694B (zh) | 一种面向边缘车联网系统的计算任务卸载方法 | |
Li et al. | Profit maximization for service placement and request assignment in edge computing via deep reinforcement learning | |
CN105335376B (zh) | 一种流处理方法、装置及系统 | |
CN109558240A (zh) | 一种移动终端应用下基于支持向量机的任务卸载方法 | |
CN109005060B (zh) | 一种基于层级化高度异构分布式系统的深度学习应用优化框架 | |
CN116562364A (zh) | 基于知识蒸馏的深度学习模型协同推演方法、装置及设备 | |
CN116367190A (zh) | 一种面向6g移动网络的数字孪生功能虚拟化方法 | |
CN112906745B (zh) | 基于边缘协同的诚信智能网络训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |