CN117539610A - 感知能量调度器选核的方法、装置及存储介质 - Google Patents

感知能量调度器选核的方法、装置及存储介质 Download PDF

Info

Publication number
CN117539610A
CN117539610A CN202310904387.2A CN202310904387A CN117539610A CN 117539610 A CN117539610 A CN 117539610A CN 202310904387 A CN202310904387 A CN 202310904387A CN 117539610 A CN117539610 A CN 117539610A
Authority
CN
China
Prior art keywords
historical
current
selection result
core selection
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310904387.2A
Other languages
English (en)
Inventor
余青
刘灵皓
陈雄峰
郑小磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Weiguang Co ltd
Original Assignee
Zeku Technology Shanghai Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zeku Technology Shanghai Corp Ltd filed Critical Zeku Technology Shanghai Corp Ltd
Priority to CN202310904387.2A priority Critical patent/CN117539610A/zh
Publication of CN117539610A publication Critical patent/CN117539610A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本申请实施例公开了一种感知能量调度器选核的方法、装置及存储介质,用于基于人工智能AI的快速路径算法,可以有效改善EAS核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。本申请实施例方法包括:获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。

Description

感知能量调度器选核的方法、装置及存储介质
技术领域
本申请涉及芯片领域,尤其涉及一种感知能量调度器选核的方法、装置及存储介质。
背景技术
在安卓(Android)系统使用的linux Kernel中,通常会使用感知能量的调度器(Energy Aware Scheduler,EAS)进行任务的核心选择,即在任务被唤醒之后,使用EAS给任务选择一个“满足性能的前提下节约功耗”的中央处理器(Central Processing Unit,CPU)。
在满足特定条件的情况下可以跳过能量计算和比较的流程,直接选择特定候选作为最终的选择,称之为快速路径。但现有的快速路径覆盖有限,有很多核心选择需要进行能量计算和比较,而这部分需要付出一定时间的延迟,会降低系统的性能。
发明内容
本申请实施例提供了一种感知能量调度器选核的方法、装置及存储介质,用于基于人工智能AI的快速路径算法,可以有效改善EAS核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。
本申请第一方面提供一种感知能量调度器选核的方法,可以包括:
获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;
将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;
其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。
本申请第二方面提供一种感知能量调度器选核的装置,可以包括:
获取模块,用于获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;
选核模块,用于将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。
本申请第三方面提供一种感知能量调度器选核的装置,可以包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器用于分别对应执行如本申请第一方面所述的方法。
本申请第四方面提供一种终端设备,可以包括本申请第二方面或第三方面所述的DSDA共存场景下功率回退的装置。
本申请实施例又一方面提供一种计算机可读存储介质,包括指令,当其在处理器上运行时,使得处理器执行本申请第一方面所述的方法。
本申请实施例又一方面公开一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行本申请第一方面所述的方法。
本申请实施例又一方面公开一种应用发布平台,所述应用发布平台用于发布计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行本申请第一方面所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
在本申请实施例中,获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。可以将当前系统状态和当前任务状态输入预设的神经网络模型,输出的结果即为当前选核结果,不需要进行能量比较和计算,所以,本申请基于人工智能AI的快速路径算法,可以有效的改善EAS的核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例和现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,还可以根据这些附图获得其它的附图。
图1为在PIXEL6上进行Monkey测试5小时之后的统计数据示意图;
图2为本申请实施例中感知能量调度器选核的方法的一个实施例示意图;
图3A为本申请实施例中利用历史系统状态和历史任务状态产生一组训练集的示意图;
图3B为本申请实施例中整个网络运行过程的示意图;
图3C为典型三层BP神经网络学习及运行过程的一个示意图;
图4为本申请实施例中感知能量调度器选核的方法的另一个实施例示意图;
图5为本申请实施例中感知能量调度器选核的方法的另一个实施例示意图;
图6A为本申请实施例中感知能量调度器选核的装置的一个实施例示意图;
图6B所示,为本申请实施例中感知能量调度器选核的装置的另一个实施例示意图;
图6C所示,为本申请实施例中感知能量调度器选核的装置的另一个实施例示意图;
图7为本申请实施例中感知能量调度器选核的装置的另一个实施例示意图;
图8为本申请实施例中电子设备的一个实施例示意图。
具体实施方式
本申请实施例提供了一种感知能量调度器选核的方法、装置及存储介质,用于基于人工智能AI的快速路径算法,可以有效改善EAS核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,都应当属于本申请保护的范围。
在安卓(Android)系统使用的linux Kernel中,通常会使用感知能量的调度器(Energy Aware Scheduler,EAS)进行任务的核心选择,即在任务被唤醒之后,使用EAS给任务选择一个“满足性能的前提下节约功耗”的中央处理器(Central Processing Unit,CPU)。其主要流程大致分为如下几个步骤:
选择可以满足当前任务的候选CPU列表;计算各自候选CPU承载当前任务之后的系统能量,以及当前任务上一次运行过的CPU承载当前任务之后的系统能量;选择候选CPU中承载当前任务之后最小的CPU的系统能量和上一次运行过的CPU承载当前任务之后的系统能量进行比较;若最小的CPU的系统能量比上一次运行过的CPU承载当前任务之后的系统能量小3%以上,则选择候选,否则使用上一次运行过的CPU。
同时,在满足特定条件的情况下可以跳过能量计算和比较的流程,直接选择特定候选作为最终的选择,称之为快速路径。例如满足特定条件如下所示:
(1)当仅有一个候选且候选为空闲(idle)态或者为上一次运行过的CPU时,选择候选。
(2)当上一次运行过的CPU为idle状态时,选择上一次运行过的CPU。
(3)当候选为满足当前任务的算力最小的idle的CPU且当前任务优选idle时,选择候选。
(4)任务具有同步唤醒标志的,选择当前CPU。
现有的快速路径覆盖有限,大概有超过25%核心选择需要进行能量计算和比较,而这部分需要付出10us左右的延迟,降低了系统的性能。如图1所示,为在PIXEL6上进行Monkey测试5小时之后的统计数据示意图。
下面先对本申请所涉及的一些术语做一个简要的说明,如下所示:
(1)卷积神经网络
卷积神经网络是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征提取器。该特征提取器可以看做是过滤器,卷积过程可以看作是一个可训练的滤波器对一个输入信号做卷积,卷积特征平面还可以称为特征图。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经元组成。同一特征平面的神经单元共享权重,这里共享的权重对应的权重矩阵就是卷积核。卷积核可以以随机大小的矩阵的形式初始化,在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接数量,同时又降低了过拟合的风险。
(2)损失函数
在训练卷积神经网络的过程中,因为希望卷积神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量。例如,如果网络的预测值高了,就调整权重向量让它的预测值低一些,不断的调整,直到卷积神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么,卷积神经网络的训练就变成了尽可能缩小这个loss的过程。
(3)反向传播(back propagation,BP)算法,也可以称为BP神经网络
误差反向传播(back propagation,BP)神经网络是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络模型之一。BP神经网络具有任意复杂的模式分类能力和优良的多维函数映射能力,解决了简单感知器不能解决的异或(ExclusiveOR,XOR)和一些其他问题。从结构上讲,BP网络具有输入层、隐藏层和输出层;从本质上讲,BP算法就是以网络误差平方为目标函数、采用梯度下降法来计算目标函数的最小值。
人工神经网络无需事先确定输入输出之间映射关系的数学方程,仅通过自身的训练,学习某种规则,在给定输入值时得到最接近期望输出值的结果。作为一种智能信息处理系统,人工神经网络实现其功能的核心是算法。BP神经网络是一种按误差反向传播(简称误差反传)训练的多层前馈网络,其算法称为BP算法,它的基本思想是梯度下降法,利用梯度搜索技术,以期使网络的实际输出值和期望输出值的误差均方差为最小。
基本BP算法包括信号的前向传播和误差的反向传播两个过程。即计算误差输出时按从输入到输出的方向进行,而调整权值和阈值则从输出到输入的方向进行。正向传播时,输入信号通过隐含层作用于输出节点,经过非线性变换,产生输出信号,若实际输出与期望输出不相符,则转入误差的反向传播过程。误差反传是将输出误差通过隐含层向输入层逐层反传,并将误差分摊给各层所有单元,以从各层获得的误差信号作为调整各单元权值的依据。通过调整输入节点与隐层节点的联接强度和隐层节点与输出节点的联接强度以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。BP网络是在输入层与输出层之间增加若干层(一层或多层)神经元,这些神经元称为隐单元,它们与外界没有直接的联系,但其状态的改变,则能影响输入与输出之间的关系,每一层可以有若干个节点。
卷积神经网络可以采用BP算法在训练过程中修正卷积神经网络中参数的大小,使得卷积神经网络输出的预测值与真正想要的目标值之间的误差损失越来越小。具体的,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的卷积神经网络中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的卷积神经网络的参数,例如权重矩阵,也就是卷积层的卷积核。
(4)EAS
EAS目标:在保证满足系统性能的前提下,尽可能的降低功耗;通过合理的选择CPU来执行任务,合理的调整CPU频率。EAS调度器基础能效模型(Energy Model,EM),能效模型需要考虑CPU的计算能力(capacity)和功耗(energy)两方面因素。
异构CPU拓扑架构(比如Arm big.LITTLE架构),存在高性能的集群(cluster)和低功耗的cluster,它们的算力(capacity)之间存在差异,这让调度器在唤醒场景下进行任务放置(task placement)变得更加复杂,一般希望在不影响整体系统吞吐量的同时,尽可能地节省能量,因此,EAS应运而生。它的设计令调度器在做CPU选择时,增加能量评估的维度,它的运作依赖于能效模型(Energy Model,EM)。EAS对能量(energy)和功率(power)的定义与传统意义并无差别,energy是类似电源设备上的电池这样的资源,单位是焦耳,power则是每秒的能量损耗值,单位是瓦特。
EAS在非异构系统下,或者系统中存在超载CPU时不会使能,调度器对于CPU超载的判定是比较严格的,当root domain中存在CPU负载达到该CPU算力的80%以上时,就认为是超载。
下面以实施例的方式,对本申请技术方案做进一步的说明,如图2所示,为本申请实施例中感知能量调度器选核的方法的一个实施例示意图,可以包括:
201、获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载。
可以理解的是,这里的历史选核结果,可以通过关闭所有快速路径,根据历史系统状态和历史任务状态进行能量计算和比较,得到的一个最优选核结果。
可选的,所述历史系统状态、所述历史任务状态和对应的历史选核结果,可以存储在云服务器,也可以存储在本地服务器,也可以存储在其他的存储设备中,此处不做限定。
本申请新增一个基于人工智能(Artificial Intelligence,AI)的快速路径算法:当系统处于特定状态以及任务的负载等其他特征处于特定值时,必然存在一个最优解来达到EAS的“满足性能的前提下节约能量”,求解最优解的过程可以理解为一个黑箱模型,函数空间由离散整数值构成的,维度较高,没有显式的函数表达式,获取不到其梯度信息。示例性的,针对这种情况,可以搭建轻量化的BP(Back-Prooaeation)神经网络,通过前期数据收集,训练网络,得到能够拟合黑箱模型的深度神经网络。
202、根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型。
可选的,所述预设的神经网络模型为三层或三层以上的感知网络,包括输入层、隐含层和输出层。可以根据历史系统状态、历史任务状态和历史选核结果,进行模型训练,生成预设的神经网络模型。
可选的,所述根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型,可以包括:将所述历史系统状态和所述历史任务状态由输入层经隐含层向输出层传播,得到实际选核结果;根据实际选核结果和所述历史选核结果,按照误差平方最小规则,由输出层往所述隐含层向输入层修正连接权值;如此往复,在实际选核结果为所述历史选核结果,或,在实际选核结果与所述历史选核结果的误差小于第一预设阈值,或,在达到预设学习次数的情况下,确定各层的连接权值;根据所述历史系统状态、所述历史任务状态和所述各层的连接权值,得到所述预设的神经网络模型。
可以理解的是,预设的神经网络模型是基于人工智能AI的神经网络模型。可选的,预设的神经网络模型可以包括但不限于:BP神经网络,普通卷积神经网络、分离卷积神经网络、转置卷积神经网络、全连接层神经网络等。
如图3A所示,为本申请实施例中利用历史系统状态和历史任务状态产生一组训练集的示意图。输入为CPU各核(core)当前的负载{x0,x1,x2,...,xn},以及当前任务(task)的Util xt,需要获得的输出结果为该任务task最佳的运行核y。
如图3B所示,为本申请实施例中整个网络运行过程的示意图。在图3B所示中,该网络是一种具有三层或三层以上的感知网络。其中,典型的多层感知网络是三层,即:输入层、隐含层(也称中间层)和输出层。以上三层网络的相邻层之间的各神经元实现全连接,即下一层的每一个神经元与上一层的每个神经元都实现全连接,而且每层各神经元之间无连接,连接强度构成网络的权值矩阵W。
可以理解的是,BP神经网络首先对每一种输入的学习记忆模式设定一个期望输出值,那么,在本申请实施例中,每个系统状态对应一个选核结果。然后对网络输入学习记忆模式,并由输入层经中间层向输出层传播。实际输出值与期望输出值的差即是误差。按照误差平方最小这一规则,由输出层往中间层逐层修正连接权值,此过程称为“误差逆传播”。随着“模式顺传播”和“误差逆传播”过程的交替反复进行。BP神经网络的实际输出值逐渐向各自所对应的期望输出值逼近,BP神经网络对输入学习记忆模式的响应的正确率也不断上升。通过此学习过程,确定下各层间的连接权值后。就可以得到一个三层BP神经网络的模型,将此模型应用于无快速路径部分,即可对此部分进行优化,在可以得到非常高的正确率的核心选择的前提下还可以避免其进入能效计算的流程从而节约延迟,可以有效的提高EAS的效率。
如图3C所示,为典型三层BP神经网络学习及运行过程的一个示意图。在图3C所示中,将训练样本集中的样本数据向神经网络模型输入,输出预测数据(即实际输出值),该预测数据与样本数据的标签(即期望输出值)进行比较,按照误差平方最小这一规则,更新神经网络模型各层间的连接权值。
需要说明的是,BP神经网络的误差经过多次学习下降到一定程度后,进一步下降会非常缓慢,如果误差在用户所接受的范围内,可以停止学习,此时,得到的模型即可认为是预设的神经网络模型。这里用户所接受的范围就可以认为是第一预设阈值。理论上来说,第一预设阈值越小,预设的神经网络模型的准确度越高。这里第一预设阈值的取值,可以根据经验值而定,也可以根据用户的实际需求而定,此处不做具体限定。
上述中的预设学习次数,可以是一个经验值,也可以根据用户的实际需求而定,通常来说,在达到预设学习次数后,所产生的误差在用户所接受的范围内。理论上来说,学习次数越多,所产生的误差也就越小,但在实际应用中,不可能无限制的去学习,所以,可以设一个预设学习次数,在达到预设学习次数后,得到的模型即可认为是预设的神经网络模型。
203、获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载。
示例性的,检测并保存当前系统状态和当前任务状态,其中,当前系统状态可以包括当前各CPU的负载等,当前任务状态包括当前任务的负载等。当前任务的负载也可以称为当前待选核任务的负载。
204、将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果。
示例性的,因为预设的神经网络模型是根据历史系统状态、历史任务状态和历史选核结果进行模型训练得到的,所以,将当前系统状态包括的当前各CPU的负载等,当前任务的状态包括当前任务的负载等,输入预设的神经网络模型,输出的结果即为当前选核结果。
可选的,所述方法还可以包括:在所述当前选核结果对应的中央处理器中运行所述当前任务。
可选的,本申请实施例应用于具有非对称CPU拓扑的平台。
在本申请实施例中,获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载;根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型;获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果。可以根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练,得到预设的神经网络模型,再获取当前系统状态和当前任务状态,将当前系统状态和当前任务状态输入预设的神经网络模型,得到当前选核结果,不需要进行能量比较和计算,所以,本申请基于人工智能AI的快速路径算法,可以有效的改善EAS的核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。
如图4所示,为本申请实施例中感知能量调度器选核的方法的一个实施例示意图,可以包括:
401、获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载。
402、根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型。
403、获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载。
404、将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果。
需要说明的是,步骤401-404与图2所示实施例中的步骤201-204类似,此处不再赘述。
405、在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:所述当前选核结果对应的是非故障中央处理器;在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器。
可以理解的是,在所述当前选核结果满足以下条件的情况下,认为所述当前选核结果有效,即确定当前选核结果为最终选核结果:
条件1:所述当前选核结果对应的是非故障中央处理器;
条件2:在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器。
可选的,在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:
条件1:所述当前选核结果对应的是非故障中央处理器;
条件2:在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器;
条件3:所述当前选核结果对应的中央处理器处于空闲态。
可选的,在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:
条件1:所述当前选核结果对应的是非故障中央处理器;
条件2:在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器;
条件4:所述当前选核结果对应的中央处理器的利用率未超过第二预设阈值。
可选的,在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:
条件1:所述当前选核结果对应的是非故障中央处理器;
条件2:在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器;
条件3:所述当前选核结果对应的中央处理器处于空闲态;
条件4:所述当前选核结果对应的中央处理器的利用率未超过第二预设阈值。
可以理解的是,从一般的角度来看,EAS最有帮助的用例是那些涉及小/中核CPU(light/medium CPU)利用率的场景。每当CPU绑定任务执行时,这些任务将需要所有可用的CPU容量,并且调度程序无法在不严重损害吞吐量的情况下节省能源。为了避免EAS影响性能,一旦CPU利用率超过其计算容量的80%,就会被标记为“过度使用”。只要根域中没有CPU被过度使用,负载平衡就会被禁用,并且EAS会代替唤醒平衡代码。如果可以在不损害吞吐量的情况下完成,EAS可能会比其他系统加载更多能效CPU。因此,负载平衡器被禁用以防止它破坏EAS发现的节能任务迁移。当系统没有过度使用时,这样做是安全的,因为低于80%的临界点意味着:所有CPU上都有一些空闲容量,因此EAS使用的利用率很可能准确地表示系统中各种任务的“大小”;所有任务都应该已经提供了足够的CPU容量,无论它们的值如何,由于有空闲容量,所有任务都必须定期阻塞/休眠,并且在唤醒时进行平衡就足够了。
406、在所述当前选核结果满足以下至少一项的情况下,根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果:所述当前选核结果对应的是故障中央处理器;所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器。
可以理解的是,在所述当前选核结果满足以下至少一项的情况下,认为所述当前选核结果无效,即可以根据候选中央处理器列表和上次运行过的处理器,确定最终选核结果:
条件1:所述当前选核结果对应的是故障中央处理器;
条件2:所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器。
可选的,在所述当前选核结果满足所述当前选核结果对应的是故障中央处理器,和/或,所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器的情况下,若所述当前选核结果对应的中央处理器不处于空闲态;和/或,所述当前选核结果对应的中央处理器的利用率超过第二预设阈值的情况下,根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果。
可选的,所述根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果,可以包括:
选择满足当前任务的候选中央处理器列表;计算所述候选中央处理器列表中各候选中央处理器和上次运行过的中央处理器承载当前任务之后的系统能量;将目标中央处理器承载当前任务之后的系统能量与所述上次运行过的中央处理器承载当前任务之后的系统能量进行比较,所述目标中央处理器为所述各候选中央处理器中承载当前任务之后的系统能量最小的中央处理器;在所述目标中央处理器承载当前任务之后的能量比所述上次运行过的中央处理器承载当前任务之后的能量小第三预设阈值以上的情况下,将所述目标中央处理器作为最终选核结果;否则,将所述上次运行过的中央处理器作为最终选核结果。
示例性的,选择可以满足当前任务的候选CPU列表;计算各自候选CPU承载当前任务之后的系统能量,以及当前任务上一次运行过的CPU承载当前任务之后的系统能量;选择候选CPU中承载当前任务之后最小的CPU的系统能量和上一次运行过的CPU承载当前任务之后的系统能量进行比较;若候选CPU中最小的CPU的系统能量比上一次运行过的CPU承载当前任务之后的系统能量小3%以上,则选择候选CPU中承载当前任务之后最小的系统能量的CPU,否则使用上一次运行过的CPU。
在本申请实施例中,可以根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练,得到预设的神经网络模型,再获取当前系统状态和当前任务状态,将当前系统状态和当前任务状态输入预设的神经网络模型,得到当前选核结果;不需要进行能量比较和计算。在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:所述当前选核结果对应的是非故障中央处理器;在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器;所述当前选核结果对应的中央处理器处于空闲态;在所述当前选核结果满足以下至少一项的情况下,根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果:所述当前选核结果对应的是故障中央处理器;所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器;所述当前选核结果对应的中央处理器不处于空闲态。所以,本申请基于人工智能AI的快速路径算法,可以有效的改善EAS的核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。
如图5所示,为本申请实施例中感知能量调度器选核的方法的一个实施例示意图,可以包括:
501、获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载。
502、根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型。
503、获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载。
504、将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果。
需要说明的是,步骤501-504与图2所示实施例中的步骤201-204类似,此处不再赘述。
505、获取更新的历史系统状态、更新的历史任务状态和更新的历史选核结果。
可选的,所述更新的历史系统状态包括更新的历史各中央处理器的负载,所述更新的历史任务状态包括更新的历史各任务的负载。
可选的,所述更新的历史系统状态、更新的历史任务状态和对应更新的历史选核结果,可以存储在云服务器,也可以存储在本地服务器,也可以存储在其他的存储设备中,此处不做限定。
506、根据所述更新的历史系统状态、所述更新的历史任务状态和所述更新的历史选核结果,更新所述预设的神经网络模型。
可选的,本申请中预设的神经网络模型可以随着本地数据或云端数据动态更新,动态适配不同任务以及任务的变化更新。
可选的,所述方法还包括:获取下次系统状态和下次任务状态,所述下次系统状态包括系统下次各中央处理器的负载,所述下次任务状态包括下次任务的负载;将所述下次系统状态和所述下次任务状态输入更新后的预设的神经网络模型,得到下次选核结果。
本申请中提供的基于AI的快速路径算法,可以有效的改善EAS核心选择的延迟这样一个全系统的关键路径的性能,从而有效的提升系统的吞吐率,改善用户体验。
在本申请实施例中,可以根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练,得到预设的神经网络模型,再获取当前系统状态和当前任务状态,将当前系统状态和当前任务状态输入预设的神经网络模型,得到当前选核结果;不需要进行能量比较和计算。还可以对预设的神经网络模型进行更新,即获取更新的历史系统状态、更新的历史任务状态和更新的历史选核结果;根据所述更新的历史系统状态、所述更新的历史任务状态和所述更新的历史选核结果,更新所述预设的神经网络模型。所以,本申请基于人工智能AI的快速路径算法,可以有效的改善EAS的核心选择的延迟,从而有效的提升系统的吞吐率,改善用户体验。
需要说明的是,图4和图5所示的实施例可以互相引用,所构成的新的实施例也在本申请的保护范围内,此处不再赘述。
如图6A所示,为本申请实施例中感知能量调度器选核的装置的一个实施例示意图,可以包括:
获取模块601,用于获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;
选核模块602,用于将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。
可选的,如图6B所示,为本申请实施例中感知能量调度器选核的装置的另一个实施例示意图,可以包括:
获取模块601,还用于获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载;
生成模块603,用于根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型。
可选的,所述预设的神经网络模型为三层或三层以上的感知网络,包括输入层、隐含层和输出层。
可选的,生成模块603,具体用于将所述历史系统状态和所述历史任务状态由输入层经隐含层向输出层传播,得到实际选核结果;根据实际选核结果和所述历史选核结果,按照误差平方最小规则,由输出层往所述隐含层向输入层修正连接权值;如此往复,在实际选核结果为所述历史选核结果,或,在实际选核结果与所述历史选核结果的误差小于第一预设阈值,或,在达到预设学习次数的情况下,确定各层的连接权值;根据所述历史系统状态、所述历史任务状态和所述各层的连接权值,得到所述预设的神经网络模型。
可选的,获取模块601,还用于获取更新的历史系统状态、更新的历史任务状态和更新的历史选核结果;
生成模块603,还用于根据所述更新的历史系统状态、所述更新的历史任务状态和所述更新的历史选核结果,更新所述预设的神经网络模型。
可选的,如图6C所示,为本申请实施例中感知能量调度器选核的装置的另一个实施例示意图,可以包括:
确定模块604,用于在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:
所述当前选核结果对应的是非故障中央处理器;
在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器。
可选的,确定模块604,还用于在所述当前选核结果满足以下至少一项的情况下,根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果:
所述当前选核结果对应的是故障中央处理器;
所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器。
如图7所示,为本申请实施例中感知能量调度器选核的装置的另一个实施例示意图,可以包括:
存储有可执行程序代码的存储器701;
与存储器701耦合的处理器702;
处理器702用于执行以下步骤:
获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;
将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。
可选的,处理器702还用于执行以下步骤:
获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载;
根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型。
可选的,所述预设的神经网络模型为三层或三层以上的感知网络,包括输入层、隐含层和输出层。
可选的,处理器702还用于执行以下步骤:
将所述历史系统状态和所述历史任务状态由输入层经隐含层向输出层传播,得到实际选核结果;根据实际选核结果和所述历史选核结果,按照误差平方最小规则,由输出层往所述隐含层向输入层修正连接权值;如此往复,在实际选核结果为所述历史选核结果,或,在实际选核结果与所述历史选核结果的误差小于第一预设阈值,或,在达到预设学习次数的情况下,确定各层的连接权值;根据所述历史系统状态、所述历史任务状态和所述各层的连接权值,得到所述预设的神经网络模型。
可选的,处理器702还用于执行以下步骤:
获取更新的历史系统状态、更新的历史任务状态和更新的历史选核结果;
根据所述更新的历史系统状态、所述更新的历史任务状态和所述更新的历史选核结果,更新所述预设的神经网络模型。
可选的,处理器702还用于执行以下步骤:
在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:
所述当前选核结果对应的是非故障中央处理器;
在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器。
可选的,处理器702还用于执行以下步骤:
在所述当前选核结果满足以下至少一项的情况下,根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果:
所述当前选核结果对应的是故障中央处理器;
所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器。
如图8所示,为本申请实施例中电子设备的一个实施例示意图,可以包括:如图6A、图6B、图6C或图7所示的感知能量调度器选核的装置。
在本申请实施例中,所述电子设备包括无线设备或有线设备,可以是终端设备或可穿戴设备。终端设备可以是手机(Mobile Phone)、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(Virtual Reality,VR)终端设备、增强现实(Augmented Reality,AR)终端设备、工业控制(industrial control)中的无线终端设备、自动驾驶中的无线终端设备、远程医疗(remote medical)中的无线终端设备、智能电网(smart grid)中的无线终端设备、运输安全(transportation safety)中的无线终端设备、智慧城市(smart city)中的无线终端设备或智慧家庭(smart home)中的无线终端设备等。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(Digital Subscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(Solid State Disk,SSD))等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种感知能量调度器选核的方法,其特征在于,包括:
获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;
将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;
其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取历史系统状态、历史任务状态和对应的历史选核结果,所述历史系统状态包括历史各中央处理器的负载,所述历史任务状态包括历史各任务的负载;
根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述预设的神经网络模型为三层或三层以上的感知网络,包括输入层、隐含层和输出层。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述历史系统状态、所述历史任务状态和所述历史选核结果,进行模型训练,生成所述预设的神经网络模型,包括:
将所述历史系统状态和所述历史任务状态由输入层经隐含层向输出层传播,得到实际选核结果;
根据实际选核结果和所述历史选核结果,按照误差平方最小规则,由输出层往所述隐含层向输入层修正连接权值;
如此往复,在实际选核结果为所述历史选核结果,或,在实际选核结果与所述历史选核结果的误差小于第一预设阈值,或,在达到预设学习次数的情况下,确定各层的连接权值;
根据所述历史系统状态、所述历史任务状态和所述各层的连接权值,得到所述预设的神经网络模型。
5.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
获取更新的历史系统状态、更新的历史任务状态和更新的历史选核结果;
根据所述更新的历史系统状态、所述更新的历史任务状态和所述更新的历史选核结果,更新所述预设的神经网络模型。
6.根据权利要求1-3中任一项所述的方法,其特征在于,所述方法还包括:
在所述当前选核结果满足以下条件的情况下,将所述当前选核结果确定为最终选核结果:
所述当前选核结果对应的是非故障中央处理器;
在所述当前选核结果对应的中央处理器属于当前系统中的中央处理器。
7.根据权利要求1-3中任一项所述的方法,其特征在于,所述方法还包括:
在所述当前选核结果满足以下至少一项的情况下,根据候选中央处理器列表和上次运行过的中央处理器,确定最终选核结果:
所述当前选核结果对应的是故障中央处理器;
所述当前选核结果对应的中央处理器不属于当前系统中的中央处理器。
8.一种感知能量调度器选核的装置,其特征在于,包括:
获取模块,用于获取当前系统状态和当前任务状态,所述当前系统状态包括系统当前各中央处理器的负载,所述当前任务状态包括当前任务的负载;
选核模块,用于将所述当前系统状态和所述当前任务状态输入预设的神经网络模型,得到当前选核结果;其中,所述预设的神经网络模型是根据历史系统状态、历史任务状态和对应的历史选核结果进行模型训练得到的。
9.一种感知能量调度器选核的装置,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器用于对应执行如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,包括指令,当其在处理器上运行时,使得处理器执行如权利要求1-7中任一项所述的方法。
CN202310904387.2A 2023-07-21 2023-07-21 感知能量调度器选核的方法、装置及存储介质 Pending CN117539610A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310904387.2A CN117539610A (zh) 2023-07-21 2023-07-21 感知能量调度器选核的方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310904387.2A CN117539610A (zh) 2023-07-21 2023-07-21 感知能量调度器选核的方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN117539610A true CN117539610A (zh) 2024-02-09

Family

ID=89782913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310904387.2A Pending CN117539610A (zh) 2023-07-21 2023-07-21 感知能量调度器选核的方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN117539610A (zh)

Similar Documents

Publication Publication Date Title
US20220248237A1 (en) Neural network circuit remote electrical tilt antenna infrastructure management based on probability of actions
CN113225377A (zh) 物联网边缘任务卸载方法及装置
CN111641681A (zh) 基于边缘计算和深度强化学习的物联网服务卸载决策方法
Shan et al. “DRL+ FL”: An intelligent resource allocation model based on deep reinforcement learning for mobile edge computing
US9491060B1 (en) Integrated wireless sensor network (WSN) and massively parallel processing database management system (MPP DBMS)
Cui et al. Cross-platform machine learning characterization for task allocation in IoT ecosystems
JP7110278B2 (ja) 負荷を均衡化するための方法、装置、機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
CN113962161B (zh) 基于黑寡妇优化算法的最优QoS服务选择方法及装置
CN113645637B (zh) 超密集网络任务卸载方法、装置、计算机设备和存储介质
CN117873690B (zh) 运算器芯片功耗管理方法、计算子系统以及智能计算平台
Yan et al. Service caching for meteorological emergency decision-making in cloud-edge computing
CN118301002A (zh) 需求自适应预测的边缘dpu算力协同优化卸载方法
CN113342504A (zh) 基于缓存的智能制造边缘计算任务调度方法及系统
CN114090108A (zh) 算力任务执行方法、装置、电子设备及存储介质
Xiong et al. An energy aware algorithm for edge task offloading
Aiswarya et al. Latency Reduction in Medical IoT Using Fuzzy Systems by Enabling Optimized Fog Computing
CN117336899A (zh) 一种电网宽带无线传感网拓扑控制方法、装置及介质
CN115629576B (zh) 非侵入式柔性负荷聚合特性辨识与优化方法、装置及设备
CN117539610A (zh) 感知能量调度器选核的方法、装置及存储介质
Mehrani et al. Deep-learning based forecasting sampling frequency of biosensors in wireless body area networks
Li et al. H-BILSTM: a novel bidirectional long short term memory network based intelligent early warning scheme in mobile edge computing (MEC)
Kim et al. Fedgpo: Heterogeneity-aware global parameter optimization for efficient federated learning
CN114385359B (zh) 一种物联网云边端任务时序协同方法
Alhartomi et al. Enhancing Sustainable Edge Computing Offloading via Renewable Prediction for Energy Harvesting
CN112560210A (zh) 用于调整电网结构的方法、相关装置及计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20241016

Address after: 6th Floor, No.1 Chongqing Road, Banqiao District, Xinbei City, Taiwan, China, China

Applicant after: Weiguang Co.,Ltd.

Country or region after: Samoa

Address before: Room 01, 8th Floor (7th Floor, Real Estate Registration Floor), No. 1, Lane 61, Shengxia Road, China (Shanghai) Pilot Free Trade Zone, Pudong New Area, Shanghai, 201208

Applicant before: Zheku Technology (Shanghai) Co.,Ltd.

Country or region before: China