CN115437764A - 面向边缘服务器的高效任务调度方法、系统及电子设备 - Google Patents
面向边缘服务器的高效任务调度方法、系统及电子设备 Download PDFInfo
- Publication number
- CN115437764A CN115437764A CN202210990277.8A CN202210990277A CN115437764A CN 115437764 A CN115437764 A CN 115437764A CN 202210990277 A CN202210990277 A CN 202210990277A CN 115437764 A CN115437764 A CN 115437764A
- Authority
- CN
- China
- Prior art keywords
- task
- scheduling
- model
- server
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/546—Message passing systems or structures, e.g. queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/54—Indexing scheme relating to G06F9/54
- G06F2209/548—Queue
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种面向边缘服务器的高效任务调度方法、系统及电子设备,方法包括:获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster;将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,将输入值X输入到深度多核学习模型M进行分类,M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。本发明在边缘服务器资源有限的条件下,无需特殊AI芯片的支持就能快速准确的完成任务调度和资源分配,提高资源的利用率。
Description
技术领域
本发明涉及机器学习技术和深度学习的技术领域,具体涉及一种面向边缘服务器的高效任务调度方法、系统及电子设备。
背景技术
云计算作为目前互联网企业提供的众多业务中最重要部分之一,可以根据用户的需求随时向其提供无限的计算资源,而用户只需要为使用的计算服务付费。同时,云数据中心还能够提供各种容器管理服务,资源池服务,托管服务等等。
然而近些年来随着5G技术和智能物联网(IIOT)的飞速发展,诞生了大量的终端设备,据有关数据机构IDC的统计于2020年底就有不下500亿的智能终端设备连入互联网。在这样的场景下,传统的云计算框架受限于地域、带宽等因素将无法满足这些海量设备对计算服务实时性的要求,出现数据传输慢、计算延迟高等一系列问题。特别是像VR游戏,无人驾驶,智能家居等对计算延迟要求非常高的计算任务让云计算框架变得不在适用。
为此,众多互联网企业提供了一套新的计算体系-云边端协同计算架构。该体系主张算力下沉,在云数据中心与智能终端之间添加了由众多边缘节点组成的边缘网络,拉近计算资源与客户的距离。与传统云计算框架不同,此架构下的智能终端不再需要将计算任务和数据全部上传到云端,只需通过部署在网络边缘的边缘节点就能快速处理计算任务,云端则只需要定期对众多边缘节点进行调度、管理、协同统一等工作,进而大幅度的减轻了网络带宽的压力,也大大降低了计算延迟。
尽管边缘服务器,例如华为Atlas系列目前在理论上能够在降低计算服务延迟方面有很大的突破,但边缘服务器仍然因为其本身搭载的计算资源极度有限、计算资源利用率低、异构计算资源不能协同统一、边缘节点太多需要维护的人工成本高等原因,实际情况下还是会出现数据传输慢、计算延迟高等一系列问题。为此,近些年技术人员基于深度学习和强化学习技术提出了如优化服务器的资源利用率,计算任务的平均等待时间,服务器能耗等指标的任务调度模型来供服务器使用。例如电子科技大学提出的基于深度蒙特卡洛树搜索(DNN,MCTS,LSTM相互协作)的边缘计算任务分配方法,以支持边缘服务器对资源分配的优化;国防科技大学提出的一种强化学习的深度学习任务调度方法,面向深度学习多任务调度场景,基于任务在线性能反馈,自适应学习并调整调度策略;重庆工程学院提出的边缘计算的物联网深度学习及任务卸载调度策略,优化网络性能,保护数据上传中的用户隐私;陕西师范大学等单位合作提出的面向边缘设备的高能效深度学习任务调度策略,通过协同移动设备与边缘服务器,充分利用智能移动终端的便捷性和边缘服务器能力,完成深度学习模型在2种设备上的动态部署。
理论上,上述模型实现服务器性能升级的同时却忽略了这些模型过于复杂本身对机器的算力有着高要求和消耗。例如华为Atlas200DK上仅仅只搭载了2张NPU推理卡,如果调度程序本身就需要占用一张NPU推理卡,那留给计算任务的计算资源就会非常紧张,仍然会造成计算任务计算延迟高的问题,而例如基于启发式学习的传统调度模型的性能又不能满足边缘服务器的性能需求,这些问题都是边缘服务器所不能承担的。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种面向边缘服务器的高效任务调度方法、系统及电子设备,在边缘服务器资源有限的条件下,无需特殊AI芯片的支持就能快速准确的完成任务调度和资源分配,提高边缘服务器计算资源的利用率。
为了达到上述目的,本发明采用以下技术方案:
本发明一方面提供了一种面向边缘服务器的高效任务调度方法,包括下述步骤:
当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗;
将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接;
将输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;
将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
优选的,所述任务队列中的每个任务的属性特征信息Job进行统计得出的值x1包括:
任务队列中所有任务在不同芯片上单独运行所造成的能耗平均值Avge,最大值Maxe,方差Vare;
任务队列中所有任务在不同芯片上所需要的计算节点平均值Avgn,最大值Maxn,方差Varn;
任务队列中所有任务在不同芯片上所需要的计算内存平均值Avgm,最大值Maxm,方差Varm。
优选的,所述基础核函数包括线性核函数、高斯核函数、多项式核函数和Sigmoid核函数。
优选的,所述调度模型库通过预先训练建立,基于启发式学习、传统机器学习以及轻量级神经网络针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种轻量级调度模型,形成调度模型库。
优选的,所述针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种调度模型,其中训练目标主要为:
最小化平均任务等待时间wait、最小化服务器能耗energy、最小化平均任务响应时间response以及最大化服务器资源利用率usage。
优选的,所述深度多核学习模型M为预先训练好的,训练方式如下:
(1)将服务器的历史任务队列数据统计形成训练数据HistoryX={X1,X2,X3,…,Xh},其中h为历史数据的个数,表示h个时段;
(2)通过人为判断从调度模型库中选择最适合Xi的调度模型,并将其序号作为标签Yi对应出每一个时段的数据Xi,形成标签HistoryY={Y1,Y2,Y3,…,Yh};
(3)将HistoryX与HistoryY作为深度多核学习模型的训练数据;
(4)网络中的每个基础核函数的参数优化,采取网格搜索和随机搜索的方式;
(5)通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化;
(6)生成模型。
优选的,最适合当前任务队列信息和服务器环境信息的任务调度模型序号的采用评分的方式,评分准则如下所示:
Score=λ1wait+λ2energy+λ3response+λ4usage
λ1+λ2+λ3+λ4=1.0
其中参数λ1-λ4通过具体服务器本身的硬件状态和计算任务对计算时延的硬性要求作为约束。
优选的,所述通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化,包括下述步骤:
随机生成1个m×(L-1)位的二进制数对应模型拓扑结构,1和0分别代表相应层数对应的核函数是否被激活,激活则表示该核函数参与计算,没有激活则表示该层没有这个核函数;
根据所述的拓扑结构随机生成p组权重;
通过选择、变异、交叉方式对p组权重进行优化,找到对应拓扑结构的最优权重;
重复随机生成n个拓扑结构带不同最优权重的模型Model;
再次通过选择、变异、交叉方式对Model进行优化,得到拓扑结构最优,权重最优的模型。
本发明又一方面提供了一种面向边缘服务器的高效任务调度系统,应用于所述的面向边缘服务器的高效任务调度方法,包括获取信息模块、深度多核学习模块、最优调度模块、以及生成调度模块;
所述获取信息模块,用于当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗;
所述深度多核学习模块,用于将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接;
所述最优调度模块,用于输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;
所述生成调度模块,用于将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
本发明又一方面提供了一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行所述的面向边缘服务器的高效任务调度方法。
本发明的有益效果是:
本发明提出的一种面向边缘服务器的高效任务调度方法,利用深度多核学习模型M对模型库的调度模型进行选择,在边缘服务器计算资源有限的情况下,不占用边缘服务器的高算力推理卡,进一步提升边缘服务器的计算资源利用率,降低服务器能耗等指标,推进云边端计算体系的发展;另外,本发明深度多核学习模型M相较于普通的深度神经网络,无需大量的训练样本、不需要特殊计算芯片的支持、能够对网络结构进行自我训练和优化,面对不复杂的样本分布时能快速的计算并保持和深度神经网络一样的优越性能,在不和计算任务争抢高算力计算资源的情况下,实现边缘服务器性能的进一步突破。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例面向边缘服务器的高效任务调度模型示意图。
图2为本发明实施例面向边缘服务器的高效任务调度方法的任务和服务器属性信息示意图。
图3为本发明实施例面向边缘服务器的高效任务调度方法的整体流程图。
图4为本发明实施例面向边缘服务器的高效任务调度方法网络模型的拓扑结构设计与权重设置示意图。
图5为本发明实施例面向边缘服务器的高效任务调度方法网络模型拓扑结构优化示意图。
图6为本发明实施例面向边缘服务器的高效任务调度方法前期模型的准备流程图。
图7为本发明实施例面向边缘服务器的高效任务调度系统的构成示意图。
图8为本发明实施例电子设备的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行详细地描述。对于本发明实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
如图1所示、图3所示,本申请的一个实施例中提供了一种面向边缘服务器的高效任务调度方法,包括下述步骤:
S1、当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗,如图2所示。
S2、将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接。
进一步的,所述任务队列中的每个任务的属性特征信息Job进行统计得出的值x1包括:
任务队列中所有任务在不同芯片上单独运行所造成的能耗平均值Avge,最大值Maxe,方差Vare;
任务队列中所有任务在不同芯片上所需要的计算节点平均值Avgn,最大值Maxn,方差Varn;
任务队列中所有任务在不同芯片上所需要的计算内存平均值Avgm,最大值Maxm,方差Varm。
更进一步的,所述基础核函数包括线性核函数、高斯核函数、多项式核函数和Sigmoid核函数,具体公式如下:
Linear k(x,y)=xty
Poly k(x,y)=(axty+c)d
Sigmoid k(x,y)=tanh(axty+c)
S3、将输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel。
进一步的,所述调度模型库通过预先训练建立,基于启发式学习、传统机器学习以及轻量级神经网络针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种轻量级调度模型,形成调度模型库。
更进一步的,所述针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种调度模型,其中训练目标主要为:
最小化平均任务等待时间wait、最小化服务器能耗energy、最小化平均任务响应时间response以及最大化服务器资源利用率usage。
具体的,所述深度多核学习模型M为预先训练好的,训练方式如下:
(1)将服务器的历史任务队列数据统计形成训练数据HistoryX={X1,X2,X3,…,Xh},其中h为历史数据的个数,表示h个时段;
(2)通过人为判断从调度模型库中选择最适合Xi的调度模型,并将其序号作为标签Yi对应出每一个时段的数据Xi,形成标签HistoryY={Y1,Y2,Y3,…,Yh};
(3)将HistoryX与HistoryY作为深度多核学习模型的训练数据;
(4)网络中的每个基础核函数的参数优化,采取网格搜索和随机搜索的方式;
(5)通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化;
(6)生成模型。
所述最适合当前任务队列信息和服务器环境信息的任务调度模型序号的采用评分的方式,评分准则如下所示:
Score=λ1wait+λ2energy+λ3response+λ4usage
λ1+λ2+λ3+λ4=1.0
其中参数λ1-λ4通过具体服务器本身的硬件状态和计算任务对计算时延的硬性要求作为约束。
所述通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化,包括下述步骤:
随机生成1个m×(L-1)位的二进制数对应模型拓扑结构,1和0分别代表相应层数对应的核函数是否被激活,激活则表示该核函数参与计算,没有激活则表示该层没有这个核函数;
根据所述的拓扑结构随机生成p组权重,如图4所示;
通过选择、变异、交叉方式对p组权重进行优化,找到对应拓扑结构的最优权重;
重复随机生成n个拓扑结构带不同最优权重的模型Model;
再次通过选择、变异、交叉方式对Model进行优化,得到拓扑结构最优,权重最优的模型,如图5所示。
S4、将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
如图6所示,在本申请的另一实施例中,提供了一种面向边缘服务器的高效任务调度方法在Atlas200DK边缘设备上的实现,包括下述步骤:
S1、提前在Atlas200DK上部署自动获取不同计算任务在NPU和CPU运行时所产生的属性特征信息Job以及不同时间段服务器环境信息Cluster的脚本。
S2、随机生成各种不同计算任务在Atlas200DK上运行,并通过脚本获取到历史数据信息Trace。
S3、基于启发式学习、传统机器学习以及轻量级神经网络算法针对历史数据信息Trace中边缘服务器环境信息Cluster和计算任务属性特征信息Job使用CPU训练各种调度模型,形成调度模型库。
S4、设置深度多核学习模型M的自动训练脚本,确定m个基础核函数,以及隐层的L层的大小,剩下的参数都由进化算法自动得到。
S5、基于历史数据Trace统计的数据信息,调度模型库与自动训练脚本通过CPU训练出深度多核学习模型M。
S6、由于历史数据信息Trace的获得和深度多核学习模型的训练都有自动脚本的存在且训练过程无需Ai芯片的支持,因此深度多核学习模型可以在不用人工干预、不占用有限Ai计算芯片的情况下,不干扰其他计算任务而定期进行自动训练更新模型,至此,前期模型的准备工作完成。
S7、当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前Atlas200DK边缘设备环境信息Cluster,所述的属性特征信息包括:计算任务分别在CPU,NPU芯片上运行的时间、计算任务分别在CPU,NPU芯片上运行所造成的能耗、计算任务分别在CPU,NPU芯片上运行所需要的内存大小以及计算任务分别在CPU,NPU芯片上运行所需要的计算节点个数;所述的边缘服务器环境信息包括:Atlas200DK上两块NPU与CPU的空闲计算节点、空闲内存以及当前时间段的能耗。
S8、将任务队列中的每个任务的属性特征矩阵Job进行统计得出的值x1与服务器信息的值x2作为预先设立的深度多核学习模型M的输入值X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接。
进一步的,所述任务队列中的每个任务的属性特征信息Job进行统计得出的值x1包括:
任务队列中所有任务在CPU,NPU上运行所造成的能耗平均值Avge,最大值Maxe,方差Vare;
任务队列中所有任务在CPU,NPU上所需要的计算节点平均值Avgn,最大值Maxn,方差Varn;
任务队列中所有任务在CPU,NPU上所需要的计算内存平均值Avgm,最大值Maxm,方差Varm。
更进一步的,所述基础核函数包括线性核函数、高斯核函数、多项式核函数和Sigmoid核函数,具体公式如下:
Linear k(x,y)=xty
Poly k(x,y)=(axty+c)d
Sigmoid k(x,y)=tanh(axty+c)
S9、将输入值X输入到深度多核学习模型M进行分类,该深度多核学习模型的输出为调度模型库中最适合当前环境下的任务调度模型Bestmodel。
进一步的,所述调度模型库通过预先训练建立,基于启发式学习、传统机器学习以及轻量级神经网络针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种轻量级调度模型,形成调度模型库。
更进一步的,所述针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种调度模型,其中训练目标主要为:
最小化平均任务等待时间wait、最小化服务器能耗energy、最小化平均任务响应时间response以及最大化服务器资源利用率usage。
具体的,所述深度多核学习模型M为预先训练好的,训练方式如下:
(1)将服务器的历史任务队列数据统计形成训练数据HistoryX={X1,X2,X3,…,Xh},其中h为历史数据的个数,表示h个时段;
(2)通过人为判断从调度模型库中选择最适合Xi的调度模型,并将其序号作为标签Yi对应出每一个时段的数据Xi,形成标签HistoryY={Y1,Y2,Y3,…,Yh};
(3)将HistoryX与HistoryY作为深度多核学习模型的训练数据;
(4)网络中的每个基础核函数的参数优化,采取网格搜索和随机搜索的方式;
(5)通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化;
(6)生成模型。
所述最适合当前任务队列信息和服务器环境信息的任务调度模型序号的采用评分的方式,评分准则如下所示:
Score=λ1wait+λ2energy+λ3response+λ4usage
λ1+λ2+λ3+λ4=1.0
其中参数λ1-λ4通过具体服务器本身的硬件状态和计算任务对计算时延的硬性要求作为约束。
所述通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化,包括下述步骤:
随机生成1个m×(L-1)位的二进制数对应模型拓扑结构,1和0分别代表相应层数对应的核函数是否被激活,激活则表示该核函数参与计算,没有激活则表示该层没有这个核函数;
根据所述的拓扑结构随机生成p组权重;
通过选择、变异、交叉方式对p组权重进行优化,找到对应拓扑结构的最优权重;
重复随机生成个拓扑结构带不同最优权重的模型Model;
再次通过选择、变异、交叉方式对Model进行优化,得到拓扑结构最优,权重最优的模型。
S10、将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,生成调度策略,完成当前计算任务的调度工作,提升边缘服务器的计算资源利用率,降低服务器能耗等指标的同时降低计算任务的反馈时延。
本发明又一实施例中还提供了一种在Atlas200DK与浪潮边缘计算服务器NE5260M5两台边缘设备上使用一种面向边缘服务器的高任务调度方法进行协同调度,包括下述步骤:
S1、提前在Atlas200DK,NE5260M5上部署自动获取不同计算任务在NPU、GPU和CPU运行时所产生的属性特征信息Job以及不同时间段服务器环境信息Cluster的脚本。
S2、随机生成各种不同计算任务在Atlas200DK,NE5260M5上运行,并通过脚本获取到历史数据信息Trace。
S3、基于启发式学习、传统机器学习以及轻量级神经网络算法针对历史数据信息Trace中边缘服务器环境信息Cluster和计算任务属性特征信息Job使用CPU训练各种调度模型,形成调度模型库。
S4、设置深度多核学习模型M的自动训练脚本,确定m个基础核函数,以及隐层的L层的大小,剩下的参数都由进化算法自动得到。
S5、基于历史数据Trace统计的数据信息与调度模型库与自动训练脚本通过CPU训练出深度多核学习模型M。
S6、由于历史数据信息Trace的获得和深度多核学习模型的训练都有自动脚本的存在且训练过程无需Ai芯片的支持,因此深度多核学习模型可以在不用人工干预、不占用有限Ai计算芯片的情况下,不干扰其他计算任务而定期进行自动训练更新模型,至此前期模型的准备工作完成。
S7、当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前Atlas200DK,NE5260M5两台边缘设备环境信息Cluster,所述的属性特征信息Job包括:计算任务分别在CPU,NPU,GPU芯片上运行的时间、计算任务分别在CPU,NPU,GPU芯片上运行所造成的能耗、计算任务分别在CPU,NPU,GPU芯片上运行所需要的内存大小、运行所需要的计算节点个数;所述的边缘服务器环境信息Cluster包括:Atlas200DK上两块NPU,NE5260M5上两块GPU与CPU上的空闲计算节点、空闲内存、当前时间段的能耗。
S8、将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接。
进一步的,所述任务队列中的每个任务的属性特征信息Job进行统计得出的值x1包括:
任务队列中所有任务在不同芯片上单独运行所造成的能耗平均值Avge,最大值Maxe,方差Vare;
任务队列中所有任务在不同芯片上所需要的计算节点平均值Avgn,最大值Maxn,方差Varn;
任务队列中所有任务在不同芯片上所需要的计算内存平均值Avgm,最大值Maxm,方差Varm。
更进一步的,所述基础核函数包括线性核函数、高斯核函数、多项式核函数和Sigmoid核函数,具体公式如下:
Linear k(x,y)=xty
Poly k(x,y)=(axty+c)d
Sigmoid k(x,y)=tanh(axty+c)
S9、将输入X输入到一种深度多核学习模型M进行分类,其模型的输出为调度模型库中最适合当前环境下的任务调度模型Bestmodel。
进一步的,所述调度模型库通过预先训练建立,以两台边缘服务器的计算资源作为一个资源池进行训练,基于启发式学习、传统机器学习以及轻量级神经网络针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种轻量级调度模型,形成调度模型库。
更进一步的,所述针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种调度模型,其中训练目标主要为:
最小化平均任务等待时间wait、最小化服务器能耗energy、最小化平均任务响应时间response以及最大化服务器资源利用率usage。
具体的,所述深度多核学习模型M为预先训练好的,训练方式如下:
(1)将服务器的历史任务队列数据统计形成训练数据HistoryX={X1,X2,X3,…,Xh},其中h为历史数据的个数,表示h个时段;
(2)通过人为判断从调度模型库中选择最适合Xi的调度模型,并将其序号作为标签Yi对应出每一个时段的数据Xi,形成标签HistoryY={Y1,Y2,Y3,…,Yh};
(3)将HistoryX与HistoryY作为深度多核学习模型的训练数据;
(4)网络中的每个基础核函数的参数优化,采取网格搜索和随机搜索的方式;
(5)通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化;
(6)生成模型。
所述最适合当前任务队列信息和服务器环境信息的任务调度模型序号的采用评分的方式,评分准则如下所示:
Score=λ1wait+λ2energy+λ3response+λ4usage
λ1+λ2+λ3+λ4=1.0
其中参数λ1-λ4通过具体服务器本身的硬件状态和计算任务对计算时延的硬性要求作为约束。
所述通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化,包括下述步骤:
随机生成1个m×(L-1)位的二进制数对应模型拓扑结构,1和0分别代表相应层数对应的核函数是否被激活,激活则表示该核函数参与计算,没有激活则表示该层没有这个核函数;
根据所述的拓扑结构随机生成p组权重,如图4所示;
通过选择、变异、交叉方式对p组权重进行优化,找到对应拓扑结构的最优权重;
重复随机生成n个拓扑结构带不同最优权重的模型Model;
再次通过选择、变异、交叉方式对Model进行优化,得到拓扑结构最优,权重最优的模型。
S10、将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作;提升边缘服务器的计算资源利用率,降低服务器能耗等指标的同时降低计算任务的反馈时延。
基于与上述实施例中的一种面向边缘服务器的高效任务调度方法相同的思想,本发明还提供了一种面向边缘服务器的高效任务调度系统,该系统可用于执行上述一种面向边缘服务器的高效任务调度方法。为了便于说明,一种面向边缘服务器的高效任务调度系统实施例的结构示意图中,仅仅示出了与本发明实施例相关的部分,本领域技术人员可以理解,图示结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图7所示,在本申请的一个实施例中,提供了一种面向边缘服务器的高效任务调度系统100,该系统包括获取信息模块101、深度多核学习模块102、最优调度模块103、以及生成调度模块104;
所述获取信息模块101,用于当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗;
所述深度多核学习模块102,用于将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接;
所述最优调度模块103,用于输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;
所述生成调度模块104,用于将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
需要说明的是,本发明的一种面向边缘服务器的高效任务调度系统与本发明的一种面向边缘服务器的高效任务调度方法一一对应,在上述一种面向边缘服务器的高效任务调度方法的实施例阐述的技术特征及其有益效果均适用于一种面向边缘服务器的高效任务调度系统的实施例中,具体内容可参见本发明方法实施例中的叙述,此处不再赘述,特此声明。
此外,上述实施例的一种面向边缘服务器的高效任务调度系统的实施方式中,各程序模块的逻辑划分仅是举例说明,实际应用中可以根据需要,例如出于相应硬件的配置要求或者软件的实现的便利考虑,将上述功能分配由不同的程序模块完成,即将一种面向边缘服务器的高效任务调度系统的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分功能。
如图8所示,在一个实施例中,提供了一种面向边缘服务器的高效任务调度方法的电子设备,所述电子设备200可以包括第一处理器201、第一存储器202和总线,还可以包括存储在所述第一存储器202中并可在所述第一处理器201上运行的计算机程序,如高效任务调度学习程序203。
其中,所述第一存储器202至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述第一存储器202在一些实施例中可以是电子设备200的内部存储单元,例如该电子设备200的移动硬盘。所述第一存储器202在另一些实施例中也可以是电子设备200的外部存储设备,例如电子设备200上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述第一存储器202还可以既包括电子设备200的内部存储单元也包括外部存储设备。所述第一存储器202不仅可以用于存储安装于电子设备200的应用软件及各类数据,例如高效任务调度程序203的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述第一处理器201在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述第一处理器201是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述第一存储器202内的程序或者模块,以及调用存储在所述第一存储器202内的数据,以执行电子设备200的各种功能和处理数据。
图8仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图8示出的结构并不构成对所述电子设备200的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
所述电子设备200中的所述第一存储器202存储的高效任务调度程序203是多个指令的组合,在所述第一处理器201中运行时,可以实现:
当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗;
将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接;
将输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;
将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
进一步地,所述电子设备200集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种面向边缘服务器的高效任务调度方法,其特征在于,方法包括下述步骤:
当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗;
将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接;
将输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;
将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
2.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,所述任务队列中的每个任务的属性特征信息J0b进行统计得出的值x1包括:
任务队列中所有任务在不同芯片上单独运行所造成的能耗平均值Avge,最大值Maxe,方差Vare;
任务队列中所有任务在不同芯片上所需要的计算节点平均值Avgn,最大值Maxn,方差Varn;
任务队列中所有任务在不同芯片上所需要的计算内存平均值Avgm,最大值Maxm,方差Varm。
3.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,所述基础核函数包括线性核函数、高斯核函数、多项式核函数和Sigmoid核函数。
4.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,所述调度模型库通过预先训练建立,基于启发式学习、传统机器学习以及轻量级神经网络针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种轻量级调度模型,形成调度模型库。
5.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,所述针对边缘服务器环境信息Cluster和属性特征信息Job训练出各种调度模型,其中训练目标主要为:
最小化平均任务等待时间wait、最小化服务器能耗energy、最小化平均任务响应时间response以及最大化服务器资源利用率usage。
6.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,所述深度多核学习模型M为预先训练好的,训练方式如下:
(1)将服务器的历史任务队列数据统计形成训练数据HistoryX={X1,X2,X3,...,Xh},其中h为历史数据的个数,表示h个时段;
(2)通过人为判断从调度模型库中选择最适合Xi的调度模型,并将其序号作为标签Yi对应出每一个时段的数据Xi,形成标签HistoryY={Y1,Y2,Y3,...,Yh};
(3)将HistoryX与HistoryY作为深度多核学习模型的训练数据;
(4)网络中的每个基础核函数的参数优化,采取网格搜索和随机搜索的方式;
(5)通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化;
(6)生成模型。
7.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,最适合当前任务队列信息和服务器环境信息的任务调度模型序号的采用评分的方式,评分准则如下所示:
Score=λ1wait+λ2energy+λ3response+λ4usage
λ1+λ2+λ3+λ4=1.0
其中参数λ1-λ4通过具体服务器本身的硬件状态和计算任务对计算时延的硬性要求作为约束。
8.根据权利要求1所述面向边缘服务器的高效任务调度方法,其特征在于,所述通过遗传算法对深度多核学习模型的拓扑结构和网络连接权重进行优化,包括下述步骤:
随机生成1个m×(L-1)位的二进制数对应模型拓扑结构,1和0分别代表相应层数对应的核函数是否被激活,激活则表示该核函数参与计算,没有激活则表示该层没有这个核函数;
根据所述的拓扑结构随机生成p组权重;
通过选择、变异、交叉方式对p组权重进行优化,找到对应拓扑结构的最优权重;
重复随机生成n个拓扑结构带不同最优权重的模型Model;
再次通过选择、变异、交叉方式对Model进行优化,得到拓扑结构最优,权重最优的模型。
9.一种面向边缘服务器的高效任务调度系统,其特征在于,应用于权利要求1-8中任一项所述的一种面向边缘服务器的高效任务调度系统,包括获取信息模块、深度多核学习模块、最优调度模块、以及生成调度模块;
所述获取信息模块,用于当计算任务队列传输到调度程序时,提前获取当前任务队列中每个计算任务的属性特征信息Job以及当前边缘服务器的环境信息Cluster,所述属性特征信息Job包括:计算任务在不同计算芯片上运行的时间、计算任务在不同芯片上运行所造成的能耗、计算任务在不同芯片上运行所需要的内存大小以及计算任务在不同芯片上运行所需要的计算节点个数;所述环境信息Cluster包括:服务器上不同计算芯片的空闲计算节点、服务器上不同计算芯片的空闲内存以及服务器当前时间段的能耗;
所述深度多核学习模块,用于将任务队列中的每个任务的属性特征信息Job进行统计得出的值x1与服务器环境信息的值x2作为预先设立的深度多核学习模型M的输入值X,其中X={x1,x2};所述预先设立的深度多核学习模型M的拓扑结构呈网络状,由输入层、L层隐层以及输出层组成,每一层隐层最多包含了m个基础核函数,所述基础核函数用于计算从上层以及之前层传来的数据,并将计算结果输出给后续隐层;输出层为基于m个基础核函数中的某一个核函数训练而成的SVM分类器,由前往后,基础核函数之间带权重相连,并存在跨层连接;
所述最优调度模块,用于输入值X输入到所述深度多核学习模型M进行分类,该深度多核学习模型M的输出为调度模型库中最适合当前环境下的最优任务调度模型Bestmodel;
所述生成调度模块,用于将当前任务队列的调度任务属性特征信息Job输入到最优任务调度模型Bestmodel,完成当前计算任务的调度工作。
10.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-8中任意一项所述的一种面向边缘服务器的高效任务调度方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210990277.8A CN115437764A (zh) | 2022-08-18 | 2022-08-18 | 面向边缘服务器的高效任务调度方法、系统及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210990277.8A CN115437764A (zh) | 2022-08-18 | 2022-08-18 | 面向边缘服务器的高效任务调度方法、系统及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115437764A true CN115437764A (zh) | 2022-12-06 |
Family
ID=84242808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210990277.8A Pending CN115437764A (zh) | 2022-08-18 | 2022-08-18 | 面向边缘服务器的高效任务调度方法、系统及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115437764A (zh) |
-
2022
- 2022-08-18 CN CN202210990277.8A patent/CN115437764A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3158529B1 (en) | Model parallel processing method and apparatus based on multiple graphic processing units | |
US10282809B2 (en) | Data parallel processing method and apparatus based on multiple graphic processing units | |
CN106951926A (zh) | 一种混合架构的深度学习系统方法及装置 | |
CN109102065A (zh) | 一种基于PSoC的卷积神经网络加速器 | |
CN107341041B (zh) | 基于优先队列的云任务多维约束回填调度方法 | |
CN114610474B (zh) | 一种异构超算环境下多策略的作业调度方法及系统 | |
CN103701635A (zh) | 一种在线配置Hadoop参数的方法和装置 | |
CN110413776B (zh) | 一种基于cpu-gpu协同并行的文本主题模型lda高性能计算方法 | |
CN112817730B (zh) | 深度神经网络服务批处理调度方法、系统及gpu | |
US11875426B2 (en) | Graph sampling and random walk acceleration method and system on GPU | |
CN114237869A (zh) | 基于强化学习的Ray双层调度方法、装置和电子设备 | |
CN117271101A (zh) | 一种算子融合方法、装置、电子设备及存储介质 | |
CN116644804A (zh) | 分布式训练系统、神经网络模型训练方法、设备和介质 | |
CN115437764A (zh) | 面向边缘服务器的高效任务调度方法、系统及电子设备 | |
KR20220024076A (ko) | 기계 학습 모델 성능의 최적화 | |
CN109408230B (zh) | 基于能耗优化的Docker容器部署方法及系统 | |
CN116303219A (zh) | 一种网格文件的获取方法、装置及电子设备 | |
CN113806077A (zh) | 基于人工智能的数据中心服务器调控方法及装置 | |
CN114510319A (zh) | 一种基于Kubernetes集群GPU空间共享的方法 | |
CN111523657B (zh) | 神经网络加速器创建方法及装置、电子设备和存储介质 | |
Li et al. | Encoding for reinforcement learning driven scheduling | |
CN106790620B (zh) | 一种分布式大数据处理方法 | |
CN117112145B (zh) | 训练模型分配方法、装置、计算机设备和存储介质 | |
CN116188239B (zh) | 多请求并发的gpu图随机游走优化实现方法及系统 | |
CN115495224B (zh) | 基于优先级的超算节点使用方法、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |