CN114968563A - 基于组合神经网络的微服务资源分配方法 - Google Patents

基于组合神经网络的微服务资源分配方法 Download PDF

Info

Publication number
CN114968563A
CN114968563A CN202210526299.9A CN202210526299A CN114968563A CN 114968563 A CN114968563 A CN 114968563A CN 202210526299 A CN202210526299 A CN 202210526299A CN 114968563 A CN114968563 A CN 114968563A
Authority
CN
China
Prior art keywords
micro
service
neural network
resource
combined neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210526299.9A
Other languages
English (en)
Inventor
张婷
蒋从锋
欧东阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202210526299.9A priority Critical patent/CN114968563A/zh
Publication of CN114968563A publication Critical patent/CN114968563A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于组合神经网络的微服务资源分配方法。本发明基于组合神经网络识别微服务的依赖关系与云环境的动态特征,预测并定位引起性能违约的微服务,并锁定其受到限制的瓶颈资源,针对瓶颈资源进行资源的分配,以在减少性能违约的情况下尽可能提高数据中心的资源使用率。通过本发明提供的基于组合神经网络的微服务资源分配方法,可以很好地捕捉云环境中工作负载特征和性能干扰模式的剧烈变化,精准预测与定位即将引起性能违约的微服务,并对其瓶颈资源进行分配,在减少在线服务违约率的情况下尽可能提高资源的利用率。

Description

基于组合神经网络的微服务资源分配方法
技术领域
本发明涉及一种微服务资源分配方法,具体是一种基于组合神经网络的微服务资源分配方法。
背景技术
云计算允许租户租用资源以部署其应用程序,无论是公有云服务,还是私有云服务,都是托管在云数据中心中的多台服务器上。有数据表明,目前绝大多数云服务数据中心的资源使用率仅为10%到30%。为了提高服务器利用率,一些研究提出将延时敏感的在线服务与离线作业混合部署。离线作业一般主要以计算逻辑为主,且对延时不敏感,主要代表有MapReduce等分布式计算模型相关的数据分析作业、Hive等数据仓库作业以及机器学习模型训练相关的作业。混部技术虽然能提高数据中心的利用率,但同时也带来了巨大的挑战。在混部负载同时运行的过程中,由于底层服务器上离线作业争用资源而产生干扰,导致在线服务性能下降,甚至产生违约情况。
同时,随着微服务的流行,在线服务逐渐从单一应用过渡到微服务架构。微服务体系结构提供了许多好处,例如能够独立部署、扩展和开发不同编程语言的单个服务,使得应用程序变得更加模块化,更易于理解、开发和测试。但因为动态工作负载的可变性,微服务之间的复杂交互可能导致的级联效应等等,使得性能下降的预测与资源调整变得更加困难。目前常用的解决方法主要使用机器学习模型,将可观察的资源使用指标或资源分配指标与应用程序性能联系起来,然而这些模型很难适应云环境的动态变化,例如工作负载特征和性能干扰模式的剧烈变化。
发明内容
由于目前基于微服务混部情况下的资源分配方法无法快速调整性能预测模型以适应工作负载特征和性能干扰模式的剧烈变化。因此,本发明使用组合神经网络进行预测,使用CNN(卷积神经网络)确定微服务之间的依赖关系,使用LSTM(长短期记忆人工神经网络)识别动态时序特征,以此达到良好的预测效果,可以精准定位即将引起违约的微服务并针对瓶颈资源进行资源的分配,使得减少在线服务违约率的情况下尽可能提升资源的利用率。
本发明方法的具体步骤是:
步骤1.使用分布式追踪系统追踪访问在线服务的用户请求,根据系统调用请求以及调用时间戳识别组成在线服务的微服务请求路径图。
步骤2.进行数据收集,收集在线服务的违约情况,记录各个微服务的延时,未处理请求数以及吞吐量。且针对每个微服务,收集其CPU、内存、IO、内存带宽、三级缓存等资源的硬件指标,最后将数据预处理之后存储进数据库。
步骤3.使用上述收集的数据在线训练组合神经网络(CNN+LSTM)以定位即将引起违约的微服务。
该组合神经网络使用4层CNN来处理高维数据,确定微服务之间的依赖关系,筛选出与性能违约的关键微服务以及关键特征,使用3层LSTM来识别云环境中的动态时序特征。组合神经网络的输入为每个微服务的延迟,未处理请求数,吞吐量以及采集的硬件指标,最终输出每个微服务引起性能违约的概率。同时,在网络训练的反向传播过程中使用概率因子进行梯度下降更新以提高模型的通用性,在微服务发生更换时,将网络拆分为基础层和更新层,以复用基础层权重系数与更新更新层权重系数的增量更新方式以减少训练时间。
步骤4.判断组合神经网络的预测精度,如果预测精度不满足设定阈值要求,则使用代理模型即阈值控制模型代替组合神经网络进行预测,以弥补在组合神经网络在线训练时间较长的缺陷。如果组合神经网络的预测精度达到要求,则直接输出预测结果,以定位即将导致违约的第i个微服务Si
步骤5.定位到即将导致违约的微服务后,将此微服务的硬件指标状态空间的未违约样本通过二分k均值方法聚类。遍历与当前硬件指标样本同一类的所有样本,基于样本间马氏距离d找到与当前硬件指标样本最接近的样本,并通过两个样本的比对精准识别出瓶颈资源R=(R1,…,Rj,…,Rl)。
步骤6.针对步骤5中识别出的瓶颈资源进行资源分配,从分配度Ai最小的批处理作业Ci开始释放资源以供微服务使用。
步骤7.周期性循环步骤1至步骤6。
本发明的有益效果:通过本发明提供的基于组合神经网络的微服务资源分配方法,可以很好地捕捉云环境中工作负载特征和性能干扰模式的剧烈变化,精准预测与定位即将引起性能违约的微服务,并对其瓶颈资源进行分配,在减少在线服务违约率的情况下尽可能提高资源的利用率。
附图说明
图1是本发明的整体架构图;
图2是微服务请求路径图示例;
图3是组合神经网络图。
具体实施方式
本发明通过分布式追踪系统追踪用户请求,识别基于微服务的请求路径图,并记录与在线服务性能有关的指标。在本发明中,针对每个微服务,需要记录其延时,未处理请求数,吞吐量以及一系列硬件指标。通过这些数据训练组合神经网络以预测即将引起违约的微服务,由于组合神经网络的在线训练时间较长,本发明提出基于阈值控制的代理模型在组合神经网络训练阶段代替其工作。在微服务被定位后,可以将该微服务硬件指标状态空间中未违约的样本聚类,使用马氏距离识别同一类中与当前硬件指标样本最接近的样本,通过比对识别出瓶颈资源,并基于分配度进行资源分配。
本发明提出的基于组合神经网络的微服务资源分配方法,其步骤如下:
步骤1.使用分布式追踪系统追踪访问在线服务的用户请求,根据系统调用请求以及调用时间戳识别组成在线服务的微服务请求路径图。
步骤2.进行数据收集,收集在线服务的违约情况,记录各个微服务的延时,未处理请求数以及吞吐量。且针对每个微服务,收集其CPU、内存、IO、内存带宽、三级缓存等资源的硬件指标,最后将数据预处理之后存储进数据库。
步骤3.使用上述收集的数据在线训练组合神经网络(CNN+LSTM)以定位即将引起违约的微服务。该组合神经网络使用4层CNN来处理高维数据,确定微服务之间的依赖关系,筛选出与性能违约的关键微服务以及关键特征,使用3层LSTM来识别云环境中的动态时序特征。组合神经网络的输入为每个微服务的延迟,未处理请求数,吞吐量以及采集的硬件指标,最终输出每个微服务引起性能违约的概率。同时,在网络训练的反向传播过程中使用概率因子进行梯度下降更新以提高模型的通用性,在微服务发生更换时,将网络拆分为基础层和更新层,以复用基础层权重系数与更新更新层权重系数的增量更新方式以减少训练时间。
步骤4.判断组合神经网络的预测精度,如果预测精度不满足设定阈值要求,则使用代理模型即阈值控制模型代替组合神经网络进行预测,以弥补在组合神经网络在线训练时间较长的缺陷。如果组合神经网络的预测精度达到要求,则直接输出预测结果,以定位即将导致违约的第i个微服务Si
步骤5.定位到即将导致违约的微服务后,将此微服务的硬件指标状态空间的未违约样本通过二分k均值方法聚类。遍历与当前硬件指标样本同一类的所有样本,基于样本间马氏距离d找到与当前硬件指标样本最接近的样本,并通过两个样本的比对精准识别出瓶颈资源R=(R1,…,Rj,…,Rl)。
步骤6.针对步骤5中识别出的瓶颈资源进行资源分配,从分配度Ai最小的批处理作业Ci开始释放资源以供微服务使用。
步骤7.周期性循环步骤1至步骤6。
以下结合实施例对本发明作进一步说明,本实施例中涉及四个模块,分别是:请求追踪与数据收集模块、微服务违约预测模块、瓶颈资源定位模块以及瓶颈资源调整模块。
请求追踪与数据收集模块:对用户请求进行追踪,识别在线服务经过微服务的请求路径,并采集与性能相关的各种指标,预处理之后存入数据库供后续使用,如图1中①所示。
微服务违约预测模块:利用组合神经网络来预测和定位引发性能违约的微服务,不需要应用程序的先验信息且完全基于数据驱动,并在其在线训练期间提出基于阈值控制的代理模型代替其工作,从而弥补组合神经网络训练时间长的缺陷,如图1中②所示。
瓶颈资源定位模块:对定位的微服务底层指标状态空间中的未违约样本进行聚类,从而缩小了搜索空间。在与当前样本所属类中查找与之最相似的样本,经过比对可锁定瓶颈资源,如图1中③所示。
瓶颈资源调整模块:利用相应的硬件技术基于分配度对瓶颈资源进行分配,时间与资源系数可调整,如图1中④所示。
本实施例中假设存在1…i…n个微服务,Si代表第i个微服务;每个微服务使用的资源有1…i…m种,Ri代表第i种资源;每个微服务与1…i…q个离线作业混部,Ci代表第i个批处理作业,Ai代表第i个批处理作业的分配度,据此本实施例的步骤如下:
(1)步骤1
使用分布式追踪系统追踪访问在线服务的用户请求,通过发送和接收的消息标识符和时间戳等信息,识别出组成在线服务的微服务的请求路径图,如图2所示。
(2)步骤2
该步骤进行数据收集。根据上述追踪系统按序记录每个微服务的延时和吞吐量,由于请求队列长度与性能和性能违约情况高度相关,因此该步骤还收集每个微服务中未完成的请求数。针对每个微服务,还需要收集CPU、内存、IO、内存带宽、三级缓存等资源的硬件指标以便于后续步骤使用。最后,将收集的数据进行预处理后存入数据库。
(3)步骤3
使用上述收集的数据在线训练CNN+LSTM组合神经网络以定位即将引起违约的微服务。定位即将引起违约的微服务既需要识别微服务之间的依赖关系,也需要利用时序特征使用过去的违约情况来预测未来的违约情况。由于CNN可以很好地处理高维数据集,且可以进行自动特征提取,而LSTM具有长时记忆功能,在识别序列规律上有极大的优势,因此本实施例结合CNN与LSTM来构建组合神经网络,以达到更好的预测效果,具体的:
首先使用4层CNN过滤掉不会影响服务性能的微服务以及非关键性指标,再通过3层LSTM来捕捉云环境中的动态特征。整体的网络结构如图3所示,组合神经网络的输入为每个微服务的延时,吞吐量,未处理请求数以及一系列硬件指标,最终输出每个微服务引起性能违约的概率。对于CNN来说,每层包含了卷积与激活两个功能。卷积功能使用卷积核进行特征提取和特征映射,激励功能主要对卷积的输出进行非线性映射,使用的激励函数为收敛速度较快的ReLu函数。此外,卷积核大小与个数可以在训练过程中进行自适应调整。针对LSTM,每层LSTM都包括多个LSTM单元,每个单元由遗忘门,输入门,输出门这三个控制开关组成。假设在t时刻,单元的输入有三个:当前时刻的输入值xt、上一时刻的输出值ht-1、以及上一时刻的单元状态ct-1;单元的输出有两个:当前时刻的输出值ht、和当前时刻的单元状态ct
遗忘门的计算公式如下,式中ft为遗忘因子,Wf为遗忘门的权重矩阵,[ht-1,xt]表示把两个向量连接成一个更长的向量,bf是遗忘门的偏置项,σ是sigmoid函数:
ft=σ(Wf·[ht-1,xt]+bf)
输入门的计算公式如下,式中Wi是输入门的权重矩阵,bi是输入门的偏置项,Wc是计算单元状态的权重矩阵,bc是计算单元状态的偏置项,it是更新因子,
Figure BDA0003644505920000061
为新的候选单元状态:
it=σ(Wi·[ht-1,xt]+bi)
Figure BDA0003644505920000062
Figure BDA0003644505920000063
输出门的计算公式如下,式中Wo是输出门的权重矩阵,bo是输出门的偏置项,ot为输出因子:
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot·tanh(ct)
同时,本实施例提出概率因子与增量更新以进一步提高组合神经网络的通用性:
1)概率因子
组合神经网络的训练中存在反向传播的过程,但通过梯度下降进行更新有时只能达到局部最优解,因此本实施例提出一个概率因子∈,以一定的概率∈进行梯度下降的更新,否则进行随机更新,以此提高预测模型的可用性和通用性。
2)增量更新
当微服务发生更换时,组合深度网络的预测准确度就会下降,因此需要重新训练网络。为大幅度降低网络训练时间,可以将每次训练好的网络权重参数保存在数据库中。如图3中所示,可以将CNN与LSTM分别拆分为基础层和更新层,当需要重新训练网络时,基础层的网络权重参数可以从数据库中取得并直接使用,只需要对更新层的网络权重系数重新进行训练。
(4)步骤4
由于组合神经网络的在线训练时间较长,无法直接使用。因此本实施例提出代理模型,在组合神经网络训练时替代其工作,待组合神经网络的精度满足设定阈值要求后代理模型自动将预测工作移交。代理模型本身是一个阈值控制模型,可设定每个微服务的违约阈值,代理模型根据当前每个微服务的延迟,未处理请求数和吞吐量计算出其当前数值,一旦微服务的当前数值超过其违约阈值,则认为该微服务将导致在线服务的性能违约。
(5)步骤5
当精准定位到即将导致违约的微服务后,需要分析其受到的资源干扰情况,以识别瓶颈资源。由于请求追踪与数据收集模块收集一系列硬件指标,可以针对每个微服务维护一个硬件指标状态空间,每个微服务使用的资源有1…i…m种,Ri代表第i种资源,则当下观测到的微服务指标样本为
Figure BDA0003644505920000071
对硬件指标状态空间中所有未违约样本进行聚类,本实施例中使用通过二分k均值方法作为聚类方法,它采用SSE(Sum of Squared Error)作为度量聚类效果的指标,首先将所有的数据点视为一个簇,然后将该簇一分为二,之后选择其中一个簇继续进行划分,选择哪一个簇进行划分是基于SSE最小化的原理;其次,在与当前样本属于同一类的所有样本中,使用样本间距离找到离当前样本距离最近的样本
Figure BDA0003644505920000072
比较这两个样本中的每个资源数值,数值相差超过指定资源阈值的资源则为瓶颈资源,资源阈值可自定义设置。本实施例中采用马氏距离为样本间距离,如下公式所示,样本x与y的距离d定义如下,S为协方差矩阵:
Figure BDA0003644505920000073
(6)步骤6
针对上述样本x和y,假设识别出的当前瓶颈资源为R=(R1,…,Rj,…,Rl)。那么当前微服务实际所需要的资源量为
Figure BDA0003644505920000074
Figure BDA0003644505920000075
步骤6.1针对每一种瓶颈资源,瓶颈资源调整模块首先检测是否有多余空闲资源可进行分配,如果有则直接分配给微服务,这时所需资源可更新为
Figure BDA0003644505920000081
Figure BDA0003644505920000082
为存在的空闲资源。
步骤6.2如果微服务资源仍然得不到满足(
Figure BDA0003644505920000083
中存在大于0的值),则需要当前与微服务混部的批处理作业让出资源。此时再收集与微服务混部的批处理作业指标,与持续不断地收集所有混部作业数据的情况不同,在定位引起违约的微服务并确定其需要的资源后,再对混部作业指标进行收集可以大幅度降低数据收集的成本。此处收集的指标与微服务的硬件指标相同,包括CPU、内存、IO、内存带宽、三级缓存等资源,共m种。
步骤6.3在收集完混部的批处理作业的指标后,需要选取让出资源的批处理作业。选取时首先要衡量该批处理作业所释放的资源是否与微服务所需资源值匹配,其次要考虑该批处理作业的待完成时间(优先释放待完成时间较长的批处理作业资源),因此定义α为资源系数,β为时间系数,这两个系数可调整。第i个批处理作业的资源使用指标为
Figure BDA0003644505920000084
待完成时间为Ti,定义分配度Ai为:
Figure BDA0003644505920000085
Figure BDA0003644505920000086
其中
Figure BDA0003644505920000087
表示,
Figure BDA0003644505920000088
表示,s表示
基于分配度Ai进行资源的分配,将混部的批处理作业按照分配度Ai升序排序,按序释放批处理作业资源,直到满足资源要求。
(7)步骤7
周期性循环步骤1至步骤6。

Claims (5)

1.基于组合神经网络的微服务资源分配方法,其特征在于该方法包括如下步骤:
步骤1.使用分布式追踪系统追踪访问在线服务的用户请求,根据系统调用请求以及调用时间戳识别组成在线服务的微服务请求路径图;
步骤2.记录各个微服务的延时、未处理请求数以及吞吐量,针对每个微服务,收集其硬件指标;
步骤3.在线训练组合神经网络以定位即将引起违约的微服务;
所述组合神经网络使用四层CNN网络来处理高维数据,确定微服务之间的依赖关系,筛选出与性能违约的关键微服务以及关键特征;使用三层LSTM网络来识别云环境中的动态时序特征;
所述组合神经网络输入为每个微服务的延迟、未处理请求数、吞吐量以及采集的硬件指标;输出为每个微服务引起性能违约的概率;
步骤4.判断组合神经网络的预测精度;
如果预测精度不满足设定阈值,则使用代理模型,即阈值控制模型代替组合神经网络进行预测;
如果预测精度达到要求,则直接输出预测结果,以定位即将导致违约的微服务;
步骤5.定位到即将导致违约的微服务后,将此微服务的硬件指标状态空间的未违约样本通过二分k均值方法聚类;
遍历与当前硬件指标样本同一类的所有样本,基于样本间马氏距离d找到与当前硬件指标样本最接近的样本,并通过两个样本的比对精准识别出瓶颈资源;
步骤6.针对步骤5中识别出的瓶颈资源进行资源分配,从分配度最小的批处理作业开始释放资源以供微服务使用;
步骤7.周期性循环步骤1至步骤6。
2.根据权利要求1所述的基于组合神经网络的微服务资源分配方法,其特征在于:步骤1中,通过发送和接收的消息标识符和时间戳,识别出组成在线服务的微服务的请求路径图。
3.根据权利要求1所述的基于组合神经网络的微服务资源分配方法,其特征在于:步骤3中,在网络训练的反向传播的过程中使用概率因子进行梯度下降更新。
4.根据权利要求1所述的基于组合神经网络的微服务资源分配方法,其特征在于:步骤3中,在微服务发生更换时,将每个网络拆分为基础层和更新层,以复用基础层权重系数与更新更新层权重系数的增量更新方式来减少训练时间。
5.根据权利要求1所述的基于组合神经网络的微服务资源分配方法,其特征在于:步骤6中,分配度Ai定义为
Figure FDA0003644505910000021
Figure FDA0003644505910000022
其中α为资源系数,β为时间系数,
Figure FDA0003644505910000023
为微服务对Rj的需求量,Rj为第j种资源,
Figure FDA0003644505910000024
为第i个批处理作业拥有的Rj资源量,f(s)为资源匹配函数,s为自变量,Ti为第i个批处理作业待完成时间。
CN202210526299.9A 2022-05-16 2022-05-16 基于组合神经网络的微服务资源分配方法 Pending CN114968563A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210526299.9A CN114968563A (zh) 2022-05-16 2022-05-16 基于组合神经网络的微服务资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210526299.9A CN114968563A (zh) 2022-05-16 2022-05-16 基于组合神经网络的微服务资源分配方法

Publications (1)

Publication Number Publication Date
CN114968563A true CN114968563A (zh) 2022-08-30

Family

ID=82984207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210526299.9A Pending CN114968563A (zh) 2022-05-16 2022-05-16 基于组合神经网络的微服务资源分配方法

Country Status (1)

Country Link
CN (1) CN114968563A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11853448B1 (en) * 2023-01-31 2023-12-26 Intuit, Inc. Applying transactional locks in distributed transactions

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11853448B1 (en) * 2023-01-31 2023-12-26 Intuit, Inc. Applying transactional locks in distributed transactions

Similar Documents

Publication Publication Date Title
CN110390345B (zh) 一种基于云平台的大数据集群自适应资源调度方法
CN110389820B (zh) 一种基于v-TGRU模型进行资源预测的私有云任务调度方法
CN110537175A (zh) 利用机器学习估计mppdb中的查询资源消耗
Imteaj et al. Federated learning for resource-constrained iot devices: Panoramas and state of the art
CN107404523A (zh) 云平台自适应资源调度系统和方法
CN110533112A (zh) 车联网大数据跨域分析融合方法
CN112511547A (zh) 基于Spark和聚类的网络异常流量分析方法及系统
Kolomvatsos et al. A probabilistic model for assigning queries at the edge
Liu et al. Temporal QoS management in scientific cloud workflow systems
CN114968563A (zh) 基于组合神经网络的微服务资源分配方法
CN111860621A (zh) 一种数据驱动的分布式交通流量预测方法及系统
Soula et al. Intelligent tasks allocation at the edge based on machine learning and bio-inspired algorithms
Raman et al. Computation of workflow scheduling using backpropagation neural network in cloud computing: a virtual machine placement approach
Davami et al. Distributed scheduling method for multiple workflows with parallelism prediction and DAG prioritizing for time constrained cloud applications
Raouf et al. A predictive multi-tenant database migration and replication in the cloud environment
Li et al. Mining performance data for metascheduling decision support in the grid
Lyu et al. Fine-grained modeling and optimization for intelligent resource management in big data processing
CN112070280B (zh) 实时交通流量并行预测方法、系统、终端及存储介质
Song et al. Spark-based cloud data analytics using multi-objective optimization
Liu et al. A parameter-level parallel optimization algorithm for large-scale spatio-temporal data mining
WO2023015787A1 (zh) 一种高吞吐云计算资源回收系统
CN112967495B (zh) 一种基于移动轨迹大数据的短时交通流量预测方法及系统
Ji et al. AdaptiveSLA: a two-stage scheduling framework for SLA profit maximization in multi-tenant database
Hu et al. Reloca: Optimize resource allocation for data-parallel jobs using deep learning
Gomez-Gasquet et al. Artificial intelligence for solving flowshop and jobshop scheduling problems: a literature review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination