CN114253735A - 一种任务处理方法、装置及相关设备 - Google Patents
一种任务处理方法、装置及相关设备 Download PDFInfo
- Publication number
- CN114253735A CN114253735A CN202111626248.5A CN202111626248A CN114253735A CN 114253735 A CN114253735 A CN 114253735A CN 202111626248 A CN202111626248 A CN 202111626248A CN 114253735 A CN114253735 A CN 114253735A
- Authority
- CN
- China
- Prior art keywords
- task
- processed
- model
- information
- service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 143
- 238000003860 storage Methods 0.000 claims abstract description 17
- 238000012163 sequencing technique Methods 0.000 claims abstract description 12
- 238000011156 evaluation Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000009471 action Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Stored Programmes (AREA)
- Computer And Data Communications (AREA)
Abstract
本申请公开了一种任务处理方法,包括获取各待处理任务的任务信息,并根据所述任务信息对各所述待处理任务进行优先级排序;按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各所述服务模型部署于边缘服务器上;利用预设决策网络模型对所述目标待处理任务的任务信息和各所述服务信息进行处理,获得有效服务模型以及各所述有效服务模型的收益价值;利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理。应用本申请所提供的技术方案,可以在解决网络资源受限问题的同时,提高任务处理效率。本申请还公开了一种任务处理装置、任务处理设备及计算机可读存储介质,均具有上述有益效果。
Description
技术领域
本申请涉及物联网技术领域,特别涉及一种任务处理方法,还涉及一种任务处理装置、任务处理设备及计算机可读存储介质。
背景技术
随着物联网(Internet of Things,IoT)技术的广泛应用,海量感知数据需要被采集、处理、分析,以支撑工业生产中的各种决策活动。以深度神经网络(Deep NeuralNetwork,DNN)为代表的机器学习方法,能够自动学习大规模输入数据的抽象表征,在物联网领域具有广泛的发展前景。对感知数据进行实时处理分析是IoT的重要特性,受物联网终端设备资源限制,无法直接运行各种规模庞大的深度神经网络模型。为了解决这一问题,相关技术中利用丰富的云计算资源部署深度学习网络模型,将物联网感知数据通过网络上传至云端,再由云端完成处理分析,并将结果返回给终端。然而,虽然云计算能够实现这一目标,但终端设备与云端之间的通信带宽资源有限,通信延迟较高,导致许多应用的实时性要求无法得到满足,造成任务执行效率的降低。
因此,如何在解决设备资源受限问题的同时,提高任务处理效率是本领域技术人员亟待解决的问题。
发明内容
本申请的目的是提供一种任务处理方法,该任务处理方法可以在解决网络资源受限问题的同时,提高任务处理效率;本申请的另一目的是提供一种任务处理装置、任务处理设备及计算机可读存储介质,均具有上述有益效果。
第一方面,本申请提供了一种任务处理方法,包括:
获取各待处理任务的任务信息,并根据所述任务信息对各所述待处理任务进行优先级排序;
按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各所述服务模型部署于边缘服务器上;
利用预设决策网络模型对所述目标待处理任务的任务信息和各所述服务信息进行处理,获得有效服务模型以及各所述有效服务模型的收益价值;
利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理。
优选的,所述根据所述任务信息对各所述待处理任务进行优先级排序之前,还包括:
根据所述任务信息计算对应待处理任务的资源消耗率;
利用本地服务模型对所述资源消耗率低于预设阈值的待处理任务进行处理。
优选的,所述任务信息包括所述待处理任务的固有约束时间、预估等待时长以及预估执行时间,则所述根据所述任务信息对各所述待处理任务进行优先级排序,包括:
根据所述固有约束时间、所述预估等待时长以及所述预估执行时间计算获得对应待处理任务的等级评估值;
根据所述等级评估值的取值大小对各所述待处理任务进行优先级排序。
优选的,所述根据所述固有约束时间、所述预估等待时长以及所述预估执行时间计算获得对应待处理任务的等级评估值,包括:
利用等级评估公式对所述固有约束时间、所述预估等待时长以及所述预估执行时间进行计算,获得所述等级评估值;其中,所述等级评估公式为:
优选的,所述预设决策网络模型的生成过程包括:
获取预设数量个样本任务的样本数据;其中,所述样本数据包括对应样本任务的任务信息,调取所述样本任务时刻各服务模型的服务信息,执行所述样本任务的最优服务模型的模型信息,以及利用所述最优服务器模型执行所述样本任务的收益价值;
构建初始决策网络模型,并利用所述初始决策网络模型对各所述样本数据进行训练,获得所述预设决策网络模型。
优选的,所述任务处理方法还包括:
将所述预设决策网络模型部署于所述边缘服务器。
优选的,各所述服务模型的生成过程包括:
通过在整体任务处理模型的指定输出层设置退出位置,得到各所述输出层对应的服务模型。
优选的,所述利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理之后,还包括:
接收所述有效服务模型反馈的任务处理结果;
输出所述任务处理结果。
第二方面,本申请还公开了一种任务处理装置,包括:
任务排序模块,用于获取各待处理任务的任务信息,并根据所述任务信息对各所述待处理任务进行优先级排序;
服务信息获取模块,用于按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各所述服务模型部署于边缘服务器上;
模型收益计算模块,用于利用预设决策网络模型对所述目标待处理任务的任务信息和各所述服务信息进行处理,获得有效服务模型以及各所述有效服务模型的收益价值;
任务处理模块,用于利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理。
优选的,所述任务处理装置还包括:
本地处理模块,用于在所述根据所述任务信息对各所述待处理任务进行优先级排序之前,根据所述任务信息计算对应待处理任务的资源消耗率;利用本地服务模型对所述资源消耗率低于预设阈值的待处理任务进行处理。
优选的,所述任务排序模块包括:
等级评估值计算单元,用于根据所述固有约束时间、所述预估等待时长以及所述预估执行时间计算获得对应待处理任务的等级评估值;
优先级排序单元,用于根据所述等级评估值的取值大小对各所述待处理任务进行优先级排序。
优选的,所述等级评估值计算单元具体用于利用等级评估公式对所述固有约束时间、所述预估等待时长以及所述预估执行时间进行计算,获得所述等级评估值;其中,所述等级评估公式为:
优选的,所述任务处理装置还包括:
预设决策网络模型构建模块,用于获取预设数量个样本任务的样本数据;其中,所述样本数据包括对应样本任务的任务信息,调取所述样本任务时刻各服务模型的服务信息,执行所述样本任务的最优服务模型的模型信息,以及利用所述最优服务器模型执行所述样本任务的收益价值;构建初始决策网络模型,并利用所述初始决策网络模型对各所述样本数据进行训练,获得所述预设决策网络模型。
优选的,所述任务处理装置还包括:
预设决策网络模型部署模块,用于将所述预设决策网络模型部署于所述边缘服务器。
优选的,所述任务处理装置还包括:
服务模型构建模块,用于通过在整体任务处理模型的指定输出层设置退出位置,得到各所述输出层对应的服务模型。
优选的,所述任务处理装置还包括:
结果反馈模块,用于在所述利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理之后,接收所述有效服务模型反馈的任务处理结果;输出所述任务处理结果。
第三方面,本申请还公开了一种任务处理设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述的任一种任务处理方法的步骤。
第四方面,本申请还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的任一种任务处理方法的步骤。
本申请所提供的一种任务处理方法,包括获取各待处理任务的任务信息,并根据所述任务信息对各所述待处理任务进行优先级排序;按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各所述服务模型部署于边缘服务器上;利用预设决策网络模型对所述目标待处理任务的任务信息和各所述服务信息进行处理,获得有效服务模型以及各所述有效服务模型的收益价值;利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理。
应用本申请所提供的技术方案,首先通过优先级排序的方式,对待处理任务按照优先级从高到低的顺序进行处理,然后在任务处理过程中,利用预设决策网络模型动态的为各待处理任务分配最优的服务模型,并且,各服务模型部署于边缘服务器上,由此,实现了边端协同的任务处理,进而实现了网络运行过程中延迟和推理结果精度的动态平衡,最大化边缘网络效用,即可以在解决网络资源受限问题的同时,提高任务处理效率。
本申请所提供的一种任务处理装置、任务处理设备及计算机可读存储介质,均具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明现有技术和本申请实施例中的技术方案,下面将对现有技术和本申请实施例描述中需要使用的附图作简要的介绍。当然,下面有关本申请实施例的附图描述的仅仅是本申请中的一部分实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图,所获得的其他附图也属于本申请的保护范围。
图1为本申请所提供的一种任务处理方法的流程示意图;
图2为本申请所提供的一种预设决策网络模型的原理示意图;
图3为本申请所提供的一种多服务模型的结构示意图;
图4为本申请所提供的一种多服务模型的部署示意图;
图5为本申请所提供的一种任务处理装置的结构示意图;
图6为本申请所提供的一种任务处理设备的结构示意图。
具体实施方式
本申请的核心是提供一种任务处理方法,该任务处理方法可以在解决网络资源受限问题的同时,提高任务处理效率;本申请的另一核心是提供一种任务处理装置、任务处理设备及计算机可读存储介质,也具有上述有益效果。
为了对本申请实施例中的技术方案进行更加清楚、完整地描述,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行介绍。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种任务处理方法。
请参考图1,图1为本申请所提供的一种任务处理方法的流程示意图,该任务处理方法可包括:
S101:获取各待处理任务的任务信息,并根据任务信息对各待处理任务进行优先级排序;
本步骤旨在基于任务信息实现待处理任务的优先级排序,以便于按照优先级高低进行任务处理。具体而言,在任务处理过程中,可以先采集各待处理任务的任务信息,然后根据任务信息对各待处理任务进行优先级排序,实现各待处理任务按照优先级由高到低的顺序进行排列。
其中,在实际任务处理过程中,为便于任务调取,可以将所有的待处理任务存放于任务队列,当然,在任务队列中,各待处理任务同样按照优先级由高到低的顺序进行排列。
其中,任务信息的具体内容并不影响本技术方案的实施,由技术人员根据实际情况进行设定即可,例如,可以为对应待处理任务的任务执行时间、任务执行过程中的资源利用率等,本申请对此不做限定。
其中,待处理任务的优先级排序操作可以实时进行,也可以按照预设时间间隔定时进行,本申请对此同样不做限定。
S102:按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各服务模型部署于边缘服务器上;
本步骤旨在按照优先级从高到低的顺序获取目标待处理任务,同时获取各服务模型的服务信息,以便于结合该服务信息以及目标待处理任务的任务信息实现该目标待处理任务的任务处理。
其中,服务模型是用于实现任务处理的网络模型,其数量为多个,不同的服务模型具有不同的精度,可以根据实际任务需求实现对应准确度的任务处理。并且,所有的服务模型均部署于边缘服务器,由此,实现边端协同的任务处理,相较于云端协同的任务处理,该种实现方式中的信息传输路径得到大大缩短,极大的提高了任务处理效率。
其中,服务信息则是指对应服务模型的相关信息,包括但不限于网络层数、模型精度等信息。通过将各个服务模型的服务信息与目标待处理任务的任务信息相结合,可以方便的计算出最适用于该目标待处理任务的最优服务模型,从而基于该最优服务模型实现目标待处理任务的处理。
S103:利用预设决策网络模型对目标待处理任务的任务信息和各服务信息进行处理,获得有效服务模型以及各有效服务模型的收益价值;
本步骤旨在从所有服务模型中筛选出适用于处理目标待处理任务的有效服务模型。可以理解的是,由于待处理任务的不同,部署于边缘服务器的服务模型并非全部适用于进行当前待处理任务的任务处理,基于此,可以先从所有的服务模型中筛选出有效服务模型,然后从有效服务模型中筛选出最优服务模型。
其中,有效服务模型的获取基于预设决策网络实现。具体而言,在从任务队列中调取获得目标待处理任务,以及边缘服务器上各服务模型的服务信息之后,即可将其一同输入至预设决策网络模型中,由预设决策网络模型对目标待处理任务的任务信息和各服务模型的服务信息进行处理,对应的输出即为有效服务模型。
可以想到的是,由于有效服务模型是指可以实现目标待处理任务处理的服务模型,因此,其数量一般为多个,为进一步实现最优服务模型的确定,可以在预设决策网络模型中设置另一分支用于计算各有效服务模型的收益价值,以便根据收益价值从多个有效服务模型中筛选得到最优服务模型。
其中,收益价值是指利用当前有效服务模型对目标待处理任务进行处理时的立即奖励,其取值越大,越适用于对该目标待处理任务进行处理,因此,收益价值取值最大时所对应的有效服务模型即为最优服务模型。
S104:利用取值最大的收益价值对应的有效服务模型对目标待处理任务进行处理。
本步骤旨在实现任务处理,如上所述,收益价值取值最大时所对应的有效服务模型即为最优服务模型,因此,直接利用取值最大的收益价值对应的有效服务模型对目标待处理任务进行处理即可。
可见,本申请所提供的任务处理方法,首先通过优先级排序的方式,对待处理任务按照优先级从高到低的顺序进行处理,然后在任务处理过程中,利用预设决策网络模型动态的为各待处理任务分配最优的服务模型,并且,各服务模型部署于边缘服务器上,由此,实现了边端协同的任务处理,进而实现了网络运行过程中延迟和推理结果精度的动态平衡,最大化边缘网络效用,即可以在解决网络资源受限问题的同时,提高任务处理效率。
在本申请的一个实施例中,上述根据任务信息对各待处理任务进行优先级排序之前,还可以包括:根据任务信息计算对应待处理任务的资源消耗率;利用本地服务模型对资源消耗率低于预设阈值的待处理任务进行处理。
为实现待处理任务的快速处理,在对待处理任务进行优先级排序之前,还可以先根据待处理任务的资源消耗率确定该待处理任务是否适合直接在本地进行处理,也就是说,将资源消耗率较低的待处理任务直接进行本地处理,将资源消耗率较高的待处理任务发送至边缘服务的服务模型上进行处理,以便于更为合理的规划网络资源,进一步提高任务处理效率。
具体而言,在对各待处理任务进行优先级排序之前,可以先根据各待处理任务的任务信息计算相应的资源消耗率,然后将资源消耗率低于预设阈值的待处理任务发送至本地服务模型进行任务处理,将资源消耗率不超出预设阈值的待处理任务进行优先级排序,并存放至任务队列中进行排队,以等待处理。
其中,预设阈值的具体取值并不唯一,由技术人员根据实际情况进行设置即可,本申请对此不做限定。
在本申请的一个实施例中,上述任务信息可以包括待处理任务的固有约束时间、预估等待时长以及预估执行时间,则上述根据任务信息对各待处理任务进行优先级排序,可以包括:根据固有约束时间、预估等待时长以及预估执行时间计算获得对应待处理任务的等级评估值;根据等级评估值的取值大小对各待处理任务进行优先级排序。
本申请实施例提供了具体类型的任务信息,以便于基于这些任务信息实现待处理任务的优先级排序。具体而言,任务信息具体可以包括对应待处理任务的固有约束时间(预先设定的预设时间)、预设等待时长(执行该任务的等待时长)以及预估执行时间(执行该任务所需占用的时长),由此,即可先根据这些任务信息计算获得对应待处理任务的等级评估值,然后根据各等级评估值的取值大小对各个待处理任务进行优先级排序。
在本申请的一个实施例中,上述根据固有约束时间、预估等待时长以及预估执行时间计算获得对应待处理任务的等级评估值,可以包括:利用等级评估公式对固有约束时间、预估等待时长以及预估执行时间进行计算,获得等级评估值;其中,等级评估公式为:
本申请实施例提供了一种等级评估公式,以用于实现等级评估值的计算,其中,等级评估值的取值越小,表示当前待处理任务的紧迫性越强,也即优先级越高,应适当提前其在任务队列中的存放位置。
在本申请的一个实施例中,上述预设决策网络模型的生成过程可以包括:获取预设数量个样本任务的样本数据;其中,样本数据包括对应样本任务的任务信息,调取样本任务时刻各服务模型的服务信息,执行样本任务的最优服务模型的模型信息,以及利用最优服务器模型执行样本任务的收益价值;构建初始决策网络模型,并利用初始决策网络模型对各样本数据进行训练,获得预设决策网络模型。
本申请提供了一种预设决策网络模型的构建方法,即利用初始决策网络魔心对样本数据进行训练,得到满足要求的预设决策网络模型。其中,样本数据即为对应样本任务的各类相关数据信息,包括但不限于样本任务的任务信息、调取样本任务时各服务模型的服务模型,适用于执行样本任务的最优服务模型的模型信息,以及利用该最优服务模型对样本任务进行处理的收益价值等。可以理解的是,上述预设数量的具体取值并不影响本技术方案的实施,由技术人员根据实际情况进行设置即可,本申请对此不做限定,但是,其取值越大,模型精度越高。
基于该申请实施例,预设决策网络模型的构建过程如下:
1、获取系统信息,该系统信息即为上述样本数据:
决策网络模型对待处理任务的调度过程可以看作是无限长度范围内的决策问题,可以构建基于马尔科夫决策过程的问题描述模型。其中,系统环境状态包括当前阶段各个服务模型的运行状态和待处理任务的任务信息;决策动作表示将待处理任务调度至某一服务模型上进行处理;表示执行当前决策所带来的系统收益(即收益价值)。
2、构建决策目标函数:
由于本申请技术方案的目的在于优化边缘计算环境下深度神经网络服务模型的运行效率,即平均任务处理结果精度和平均任务处理时间。因此,可以构建决策目标函数如下:
3、训练决策网络模型:
可以基于深度强化学习算法,构建基于深度神经网络的动作价值函数表示方法,并进一步通过价值网络的更新,得到最优的决策网络参数:
(1)环境状态输入:
基于深度神经网络构建决策网络QN(ω),其中,ω表示QN网络的参数,以t时刻的系统环境参数,作为QN的输入,其中,表示第k个服务模型的当前负载状态,K表示边缘服务器所有的服务模型,、、分别表示当前待处理任务i的时间约束、精度约束以及任务负载量大小。QN网络的输出为每个决策动作对应的动作价值,即Q值。
(2)选择动作:
(3)存储信息(包括环境状态信息、动作信息、奖励信息):
(4)更新学习网络参数:
根据损失函数L计算误差:
由此,即可根据梯度反向传播更新QN网络的参数ω。
4、输出决策网络模型:
请参考图2,图2为本申请所提供的一种预设决策网络模型的原理示意图,将训练完成的决策网络模型部署在边缘服务器上。在运行过程中,在每个变化时刻,收集当前系统环境状态信息,输出所有有效决策动作,最后基于贪婪策略选择价值函数最优的决策动作并执行。
在本申请的一个实施例中,该任务处理方法还可以包括:将预设决策网络模型部署于边缘服务器。
具体而言,预设决策网络模型同样可以部署于边缘服务器,以利用边缘服务器的网络资源实现更为快速的任务分配,进一步提高任务处理效率,同时有效减少本地资源的占用。
在本申请的一个实施例中,各服务模型的生成过程可以包括:通过在整体任务处理模型的指定输出层设置退出位置,得到各输出层对应的服务模型。
本申请实施例提供了一种服务模型的构建方法。具体而言,可以先进行 多精度深度学习模型的训练,以获得完整的深度学习模型;进一步,为了满 足不同精度要求的待处理任务,可以在整个深度学习模型不同的层次中设置 多个退出位置,可以想到的是,这些退出位置相比于完整的运行整个模型, 其推理精度有所下降,但在实际运行过程中将占用更少的计算资源,这对资 源受限的边缘服务器长期高效运行至关重要;最后,将不同退出位置所包含 的深度学习推理模型以服务的形式部署在边缘服务器,生成不同精度的服务模型。如图3所示,图3为本申请所提供的一种多服务模型的结构示意图,Serk表示第k个退出位置对应的服务模型。
与此同时,还可以根据深度学习模型规模,得到不同退出位置的平均推 理精度,作为该位置的服务信息。此外,还可以将终端设备可负载的服务模 型部署在设备端,以实现本地任务处理。
其中,为实现快速高效的模型训练,上述完整的深度学习模型可以由云端训练得到,在云端完成训练之后,再部署到边缘服务器和终端设备。请参考图4,图4为本申请所提供的一种多服务模型的部署示意图,对于云端训练得到的深度学习模型,可以将不同退出位置所在层及其之前所有层作为一个子网络模型(也即服务模型),以边缘服务的形式进行打包,并将这些服务部署至边缘服务器中,以等待用户请求对其进行调用。此外,将对计算资源消耗较小的部分服务模型部署至终端设备中,以实现本地任务处理。
在本申请的一个实施例中,上述利用取值最大的收益价值对应的有效服务模型对目标待处理任务进行处理之后,还可以包括:接收有效服务模型反馈的任务处理结果;输出任务处理结果。
本申请实施例所提供的任务处理方法,可用于实现任务处理结果的反馈。由于各服务模型部署于边缘服务器上,相当于由边缘服务器实现了各待处理任务的任务处理,基于此,在完成任务处理获得任务处理结果之后,边缘服务器还可以将最优服务模型的任务处理结果反馈至终端设备,由终端设备进行本地输出与存储,便于技术人员及时有效的获知任务处理结果。
本申请还提供了一种任务处理装置,请参考图5,图5为本申请所提供的一种任务处理装置的结构示意图,该任务处理装置可包括:
任务排序模块1,用于获取各待处理任务的任务信息,并根据任务信息对各待处理任务进行优先级排序;
服务信息获取模块2,用于按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各服务模型部署于边缘服务器上;
模型收益计算模块3,用于利用预设决策网络模型对目标待处理任务的任务信息和各服务信息进行处理,获得有效服务模型以及各有效服务模型的收益价值;
任务处理模块4,用于利用取值最大的收益价值对应的有效服务模型对目标待处理任务进行处理。
可见,本申请实施例所提供的任务处理装置,首先通过优先级排序的方式,对待处理任务按照优先级从高到低的顺序进行处理,然后在任务处理过程中,利用预设决策网络模型动态的为各待处理任务分配最优的服务模型,并且,各服务模型部署于边缘服务器上,由此,实现了边端协同的任务处理,进而实现了网络运行过程中延迟和推理结果精度的动态平衡,最大化边缘网络效用,即可以在解决网络资源受限问题的同时,提高任务处理效率。
在本申请的一个实施例中,该任务处理装置还可以包括本地处理模块,用于在根据任务信息对各待处理任务进行优先级排序之前,根据任务信息计算对应待处理任务的资源消耗率;利用本地服务模型对资源消耗率低于预设阈值的待处理任务进行处理。
在本申请的一个实施例中,上述任务排序模块1可以包括:
等级评估值计算单元,用于根据固有约束时间、预估等待时长以及预估执行时间计算获得对应待处理任务的等级评估值;
优先级排序单元,用于根据等级评估值的取值大小对各待处理任务进行优先级排序。
在本申请的一个实施例中,上述等级评估值计算单元可具体用于利用等级评估公式对固有约束时间、预估等待时长以及预估执行时间进行计算,获得等级评估值;其中,等级评估公式为:
在本申请的一个实施例中,该任务处理装置还可以包括预设决策网络模型构建模块,用于获取预设数量个样本任务的样本数据;其中,样本数据包括对应样本任务的任务信息,调取样本任务时刻各服务模型的服务信息,执行样本任务的最优服务模型的模型信息,以及利用最优服务器模型执行样本任务的收益价值;构建初始决策网络模型,并利用初始决策网络模型对各样本数据进行训练,获得预设决策网络模型。
在本申请的一个实施例中,该任务处理装置还可以包括预设决策网络模型部署模块,用于将预设决策网络模型部署于边缘服务器。
在本申请的一个实施例中,该任务处理装置还可以包括服务模型构建模块,用于通过在整体任务处理模型的指定输出层设置退出位置,得到各输出层对应的服务模型。
在本申请的一个实施例中,该任务处理装置还可以包括结果反馈模块,用于在利用取值最大的收益价值对应的有效服务模型对目标待处理任务进行处理之后,接收有效服务模型反馈的任务处理结果;输出任务处理结果。
对于本申请提供的装置的介绍请参照上述方法实施例,本申请在此不做赘述。
本申请还提供了一种任务处理设备,请参考图6,图6为本申请所提供的一种任务处理设备的结构示意图,该任务处理设备可包括:
存储器,用于存储计算机程序;
处理器,用于执行计算机程序时可实现如上述任意一种任务处理方法的步骤。
如图6所示,为任务处理设备的组成结构示意图,任务处理设备可以包括:处理器10、存储器11、通信接口12和通信总线13。处理器10、存储器11、通信接口12均通过通信总线13完成相互间的通信。
在本申请实施例中,处理器10可以为中央处理器(Central Processing Unit,CPU)、特定应用集成电路、数字信号处理器、现场可编程门阵列或者其他可编程逻辑器件等。
处理器10可以调用存储器11中存储的程序,具体的,处理器10可以执行任务处理方法的实施例中的操作。
存储器11中用于存放一个或者一个以上程序,程序可以包括程序代码,程序代码包括计算机操作指令,在本申请实施例中,存储器11中至少存储有用于实现以下功能的程序:
获取各待处理任务的任务信息,并根据任务信息对各待处理任务进行优先级排序;
按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各服务模型部署于边缘服务器上;
利用预设决策网络模型对目标待处理任务的任务信息和各服务信息进行处理,获得有效服务模型以及各有效服务模型的收益价值;
利用取值最大的收益价值对应的有效服务模型对目标待处理任务进行处理。
在一种可能的实现方式中,存储器11可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统,以及至少一个功能所需的应用程序等;存储数据区可存储使用过程中所创建的数据。
此外,存储器11可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件或其他易失性固态存储器件。
通信接口12可以为通信模块的接口,用于与其他设备或者系统连接。
当然,需要说明的是,图6所示的结构并不构成对本申请实施例中任务处理设备的限定,在实际应用中任务处理设备可以包括比图6所示的更多或更少的部件,或者组合某些部件。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如上述任意一种任务处理方法的步骤。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本申请提供的计算机可读存储介质的介绍请参照上述方法实施例,本申请在此不做赘述。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的技术方案进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请的保护范围内。
Claims (18)
1.一种任务处理方法,其特征在于,包括:
获取各待处理任务的任务信息,并根据所述任务信息对各所述待处理任务进行优先级排序;
按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各所述服务模型部署于边缘服务器上;
利用预设决策网络模型对所述目标待处理任务的任务信息和各所述服务信息进行处理,获得有效服务模型以及各所述有效服务模型的收益价值;
利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理。
2.根据权利要求1所述的任务处理方法,其特征在于,所述根据所述任务信息对各所述待处理任务进行优先级排序之前,还包括:
根据所述任务信息计算对应待处理任务的资源消耗率;
利用本地服务模型对所述资源消耗率低于预设阈值的待处理任务进行处理。
3.根据权利要求1所述的任务处理方法,其特征在于,所述任务信息包括所述待处理任务的固有约束时间、预估等待时长以及预估执行时间,则所述根据所述任务信息对各所述待处理任务进行优先级排序,包括:
根据所述固有约束时间、所述预估等待时长以及所述预估执行时间计算获得对应待处理任务的等级评估值;
根据所述等级评估值的取值大小对各所述待处理任务进行优先级排序。
5.根据权利要求1所述的任务处理方法,其特征在于,所述预设决策网络模型的生成过程包括:
获取预设数量个样本任务的样本数据;其中,所述样本数据包括对应样本任务的任务信息,调取所述样本任务时刻各服务模型的服务信息,执行所述样本任务的最优服务模型的模型信息,以及利用所述最优服务模型执行所述样本任务的收益价值;
构建初始决策网络模型,并利用所述初始决策网络模型对各所述样本数据进行训练,获得所述预设决策网络模型。
6.根据权利要求5所述的任务处理方法,其特征在于,还包括:
将所述预设决策网络模型部署于所述边缘服务器。
7.根据权利要求1至6任意一项所述的任务处理方法,其特征在于,各所述服务模型的生成过程包括:
通过在整体任务处理模型的指定输出层设置退出位置,得到各所述输出层对应的服务模型。
8.根据权利要求1所述的任务处理方法,其特征在于,所述利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理之后,还包括:
接收所述有效服务模型反馈的任务处理结果;
输出所述任务处理结果。
9.一种任务处理装置,其特征在于,包括:
任务排序模块,用于获取各待处理任务的任务信息,并根据所述任务信息对各所述待处理任务进行优先级排序;
服务信息获取模块,用于按照优先级从高到低的顺序获得目标待处理任务,并获取各服务模型的服务信息;其中,各所述服务模型部署于边缘服务器上;
模型收益计算模块,用于利用预设决策网络模型对所述目标待处理任务的任务信息和各所述服务信息进行处理,获得有效服务模型以及各所述有效服务模型的收益价值;
任务处理模块,用于利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理。
10.根据权利要求9所述的任务处理装置,其特征在于,还包括:
本地处理模块,用于在所述根据所述任务信息对各所述待处理任务进行优先级排序之前,根据所述任务信息计算对应待处理任务的资源消耗率;利用本地服务模型对所述资源消耗率低于预设阈值的待处理任务进行处理。
11.根据权利要求9所述的任务处理装置,其特征在于,所述任务信息包括所述待处理任务的固有约束时间、预估等待时长以及预估执行时间,则所述任务排序模块包括:
等级评估值计算单元,用于根据所述固有约束时间、所述预估等待时长以及所述预估执行时间计算获得对应待处理任务的等级评估值;
优先级排序单元,用于根据所述等级评估值的取值大小对各所述待处理任务进行优先级排序。
13.根据权利要求9所述的任务处理装置,其特征在于,还包括:
预设决策网络模型构建模块,用于获取预设数量个样本任务的样本数据;其中,所述样本数据包括对应样本任务的任务信息,调取所述样本任务时刻各服务模型的服务信息,执行所述样本任务的最优服务模型的模型信息,以及利用所述最优服务模型执行所述样本任务的收益价值;构建初始决策网络模型,并利用所述初始决策网络模型对各所述样本数据进行训练,获得所述预设决策网络模型。
14.根据权利要求13所述的任务处理装置,其特征在于,还包括:
预设决策网络模型部署模块,用于将所述预设决策网络模型部署于所述边缘服务器。
15.根据权利要求9至14任意一项所述的任务处理装置,其特征在于,还包括:
服务模型构建模块,用于通过在整体任务处理模型的指定输出层设置退出位置,得到各所述输出层对应的服务模型。
16.根据权利要求9所述的任务处理装置,其特征在于,还包括:
结果反馈模块,用于在所述利用取值最大的收益价值对应的有效服务模型对所述目标待处理任务进行处理之后,接收所述有效服务模型反馈的任务处理结果;输出所述任务处理结果。
17.一种任务处理设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至8任一项所述的任务处理方法的步骤。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述的任务处理方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111626248.5A CN114253735B (zh) | 2021-12-29 | 2021-12-29 | 一种任务处理方法、装置及相关设备 |
PCT/CN2022/138453 WO2023124947A1 (zh) | 2021-12-29 | 2022-12-12 | 一种任务处理方法、装置及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111626248.5A CN114253735B (zh) | 2021-12-29 | 2021-12-29 | 一种任务处理方法、装置及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114253735A true CN114253735A (zh) | 2022-03-29 |
CN114253735B CN114253735B (zh) | 2024-01-16 |
Family
ID=80798450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111626248.5A Active CN114253735B (zh) | 2021-12-29 | 2021-12-29 | 一种任务处理方法、装置及相关设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114253735B (zh) |
WO (1) | WO2023124947A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124947A1 (zh) * | 2021-12-29 | 2023-07-06 | 苏州浪潮智能科技有限公司 | 一种任务处理方法、装置及相关设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116909717B (zh) * | 2023-09-12 | 2023-12-05 | 国能(北京)商务网络有限公司 | 一种任务调度方法 |
CN117033247B (zh) * | 2023-10-07 | 2023-12-12 | 宜宾邦华智慧科技有限公司 | 一种手机、平板电脑搭载的验证方法和系统 |
CN117575113B (zh) * | 2024-01-17 | 2024-05-03 | 南方电网数字电网研究院股份有限公司 | 基于马尔科夫链的边端协同任务处理方法、装置和设备 |
CN118215052A (zh) * | 2024-03-19 | 2024-06-18 | 烟台泓威电子科技有限公司 | 一种基于时间戳的警务协同网络通信优化算法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110750342A (zh) * | 2019-05-23 | 2020-02-04 | 北京嘀嘀无限科技发展有限公司 | 调度方法、装置、电子设备及可读存储介质 |
CN111400005A (zh) * | 2020-03-13 | 2020-07-10 | 北京搜狐新媒体信息技术有限公司 | 一种数据处理方法、装置及电子设备 |
CN111427679A (zh) * | 2020-03-25 | 2020-07-17 | 中国科学院自动化研究所 | 面向边缘计算的计算任务调度方法、系统、装置 |
CN112905327A (zh) * | 2021-03-03 | 2021-06-04 | 湖南商务职业技术学院 | 一种任务调度方法、边缘服务器、计算机介质及边云协同计算系统 |
CN113326126A (zh) * | 2021-05-28 | 2021-08-31 | 湘潭大学 | 任务处理方法、任务调度方法、装置及计算机设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107977268B (zh) * | 2017-10-13 | 2021-07-20 | 北京百度网讯科技有限公司 | 人工智能的异构硬件的任务调度方法、装置及可读介质 |
CN110955463B (zh) * | 2019-12-03 | 2022-07-29 | 缀初网络技术(上海)有限公司 | 支持边缘计算的物联网多用户计算卸载方法 |
CN113254178B (zh) * | 2021-06-01 | 2021-10-29 | 苏州浪潮智能科技有限公司 | 一种任务调度方法、装置、电子设备及可读存储介质 |
CN114253735B (zh) * | 2021-12-29 | 2024-01-16 | 苏州浪潮智能科技有限公司 | 一种任务处理方法、装置及相关设备 |
-
2021
- 2021-12-29 CN CN202111626248.5A patent/CN114253735B/zh active Active
-
2022
- 2022-12-12 WO PCT/CN2022/138453 patent/WO2023124947A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110750342A (zh) * | 2019-05-23 | 2020-02-04 | 北京嘀嘀无限科技发展有限公司 | 调度方法、装置、电子设备及可读存储介质 |
CN111400005A (zh) * | 2020-03-13 | 2020-07-10 | 北京搜狐新媒体信息技术有限公司 | 一种数据处理方法、装置及电子设备 |
CN111427679A (zh) * | 2020-03-25 | 2020-07-17 | 中国科学院自动化研究所 | 面向边缘计算的计算任务调度方法、系统、装置 |
CN112905327A (zh) * | 2021-03-03 | 2021-06-04 | 湖南商务职业技术学院 | 一种任务调度方法、边缘服务器、计算机介质及边云协同计算系统 |
CN113326126A (zh) * | 2021-05-28 | 2021-08-31 | 湘潭大学 | 任务处理方法、任务调度方法、装置及计算机设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124947A1 (zh) * | 2021-12-29 | 2023-07-06 | 苏州浪潮智能科技有限公司 | 一种任务处理方法、装置及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114253735B (zh) | 2024-01-16 |
WO2023124947A1 (zh) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114253735A (zh) | 一种任务处理方法、装置及相关设备 | |
CN110737529B (zh) | 一种面向短时多变大数据作业集群调度自适应性配置方法 | |
CN113254178B (zh) | 一种任务调度方法、装置、电子设备及可读存储介质 | |
CN111309479A (zh) | 一种任务并行处理的实现方法、装置、设备和介质 | |
JP2021501417A (ja) | ニューラルアーキテクチャ検索 | |
CN112685153A (zh) | 微服务调度方法、装置以及电子设备 | |
CN115454589A (zh) | 一种任务调度方法、装置及Kubernetes调度器 | |
CN115421930B (zh) | 任务处理方法、系统、装置、设备及计算机可读存储介质 | |
CN111813524B (zh) | 一种任务执行方法、装置、电子设备和存储介质 | |
CN113515382B (zh) | 云资源的分配方法、装置、电子设备及存储介质 | |
CN113886080B (zh) | 高性能集群任务调度方法、装置、电子设备及存储介质 | |
CN114647515A (zh) | 一种面向gpu集群的动态资源调度方法 | |
KR20220045829A (ko) | 태스크 수행 방법 및 이를 이용하는 전자 장치 | |
CN113485833A (zh) | 资源预测方法和装置 | |
CN113608852B (zh) | 任务调度方法、调度模块、推理节点和协同作业系统 | |
CN118260053A (zh) | 异构计算系统的内存调度方法、异构计算系统和装置 | |
Bensalem et al. | Scaling Serverless Functions in Edge Networks: A Reinforcement Learning Approach | |
CN117707763A (zh) | 分层算力调度方法、系统、设备及存储介质 | |
CN116915869A (zh) | 基于云边协同的时延敏感型智能服务快速响应方法 | |
Tuli et al. | Optimizing the performance of fog computing environments using ai and co-simulation | |
Fan et al. | Associated task scheduling based on dynamic finish time prediction for cloud computing | |
CN114461299A (zh) | 一种卸载决策确定方法、装置、电子设备及存储介质 | |
CN115186793A (zh) | 多层级计算模型的控制方法、装置及可读存储介质 | |
CN113382424A (zh) | 一种lte基站硬件资源调度处理方法及装置 | |
CN113064710B (zh) | 一种云工作流调度方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |