CN106453608B - 一种基于云端的移动应用的后台请求自适应调度算法 - Google Patents

一种基于云端的移动应用的后台请求自适应调度算法 Download PDF

Info

Publication number
CN106453608B
CN106453608B CN201610984655.6A CN201610984655A CN106453608B CN 106453608 B CN106453608 B CN 106453608B CN 201610984655 A CN201610984655 A CN 201610984655A CN 106453608 B CN106453608 B CN 106453608B
Authority
CN
China
Prior art keywords
request
user
backstage
minute
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610984655.6A
Other languages
English (en)
Other versions
CN106453608A (zh
Inventor
陈艳姣
林龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201610984655.6A priority Critical patent/CN106453608B/zh
Publication of CN106453608A publication Critical patent/CN106453608A/zh
Application granted granted Critical
Publication of CN106453608B publication Critical patent/CN106453608B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/61Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources taking into account QoS or priority requirements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种基于云端的移动应用的后台请求自适应调度算法,首先预测未来需求;然后根据未来需求,得出最佳后台容量;最后根据最佳后台容量进行实时用户请求速率分配。本发明利用不同用户请求有不同延迟容忍性的特征,通过缓存延迟容忍的用户请求,减少用户请求的峰值,通过预测未来产生的用户请求,规划所需的最佳后台容量,从而降低了移动应用开发者的成本,提高了服务质量和云资源利用率。

Description

一种基于云端的移动应用的后台请求自适应调度算法
技术领域
本发明属于移动互联网技术领域,尤其涉及一种基于云端的移动应用的后台请求自适应调度算法。
背景技术
2015年,全球的移动应用下载量约1790亿次,收益约450亿并且有550万开发人员参与其中。为了争取更高的市场份额和利润,应用开发者纷纷寻求以更低的成本保证服务质量的途径和方法。
移动应用程序开发包括两个主要部分:前端设计和后台支持。应用程序的前端是用户在移动设备上可见的和可操作的部分,不同的应用具有不同的前端设计。应用程序的后台支持其前端功能的实现,当用户与应用程序交互时,前端用户请求都需要经由后台处理,因此后台配置是应用开发者所要考虑的基本问题之一。开发人员可以在平台即服务(Platform-as-a-Service,PaaS)的云端构建后台(如Heroku),也可以简单地使用移动后端即服务(Mobile-backend-as-a-Service,MBaaS)。在前一种情况下,开发人员可以有偿地在轻量级容器(如Heroku中的dynos)中构建自己的后台,比如一个配置512MB的RAM和2个CPU的dyno的月租为50美元。在后一种情况下,开发人员可以通过MBaaS供应商提供的按请求数量收费的服务来访问后台,但是此类服务规定了单位时间内的最大请求数,这可能导致超出限制的请求被丢弃。为了保证服务质量,开发人员可以租用更多dyno或更高级的MbaaS,但这意味着需要支付更昂贵的费用以及不必要的资源浪费。
在后台配置中,后台接收的用户请求速率在时刻变化,但是开发人员不能过于频繁地改变后台服务器的配置或者短时间内调整MbaaS的服务计划。虽然有些服务平台,如亚马逊的弹性计算云(Elastic Compute Cloud,EC2)、微软的Azure和Heroku,提供自动缩放机制(autoscaling),但是该机制通过启动或关闭计算机来增加或减少后台容量,产生较大的延迟,影响服务质量,并为开发人员带来较大的经济损失和资源浪费。
关于云资源配置,许多现有工作提出了在资源的动态配置时,使用云计算进行预测性的缩放机制。为了适应动态波动的视频请求,视频服务提供商可以利用预测视频需求的统计模型,预先指定带宽资源;为了有效地在不同数据中心存储和迁移数据,研究者提出了一种预测社交媒体应用查看请求的流行模型。类似预测型的自动缩放模型也被用于云端的资源分配和能量消耗上。
发明内容
本发明针对现有技术的不足,提出了一种基于云端的移动应用的后台请求自适应调度算法。
本发明所采用的技术方案是:一种基于云端的移动应用的后台请求自适应调度算法,包含以下步骤:
步骤1:预测未来需求;
步骤2:根据未来需求,得出最佳后台容量;
步骤3:根据最佳后台容量进行实时用户请求速率分配。
作为优选,步骤1的具体实现包括以下子步骤:
步骤1.1:依据延时容忍度(比如1秒或者5秒,由移动应用开发者根据不同的后台请求定义,作为算法的输入)将请求划分为K类;
步骤1.2:每一分钟的每类请求数量作为历史数据;根据相近原则和时间周期性原则,将前一个小时和前两天同一个小时的历史数据作为输入,预测下一小时第i分钟k类请求的数量
步骤1.3:利用训练集数据做训练,验证集数据做验证得到机器学习的预测模型;
步骤1.4:基于机器学习的预测模型预测未来需求。
作为优选,所述基于机器学习的预测模型包括逻辑回归模型、单隐层多层感知器模型、深度信念网络模型和卷积神经网络模型。
作为优选,所述单隐层多层感知器模型的神经元数量为1000;所述深度信念网络模型有三层隐层,每个隐层包含1000个神经元;所述卷积神经网络模型包含两个卷积层和一个全连层,每层包含500个神经元。
作为优选,步骤2的具体实现过程是:假设第i分钟的个请求中会被推迟到第j分钟的比例为其中,表示不被推迟的比例,表示第i分钟k类请求的数量;假设在第j分钟处理的请求表示为Nj,包括之前推迟到第j分钟内和在第j分钟内产生的请求,即:
则最佳后台容量N的值通过解决优化问题得到,其约束条件为其中,为移动应用开发者设定的k类请求从第i分钟延迟到第j分钟的比例的上限。
作为优选,步骤3的具体实现包括以下子步骤:
步骤3.1:云端服务器将每分钟分成T个时隙,用户每个时隙向云端服务器报告新产生的请求数量和类型;
步骤3.2:云端服务器根据用户的报告为用户分配速率,之后用户根据分配的速率自主安排发送自己的请求到后台。
作为优选,步骤3.2中用户产生新的请求后,首先放入一个队列中,根据优先级顺序进行发送。
作为优选,请求的优先级由用户决定,根据请求的类型和已经延迟的分钟数决定;每个时隙发送的请求数量不超过云端服务器所分配的请求速率Rs(τ)。
作为优选,速率分配由网络效用最大化模型决定;假设有S位用户,每个时隙总的用户请求上限为N/T;每个时隙τ,Xs(τ)为用户s未发送到后台的请求数,ws(τ)为用户s请求的权重,在时隙τ内,云端服务器分配给用户s速率Rs(τ)为:
其中,α为调节公平性的参数,取值范围为正数;N为最佳后台容量。
作为优选,所述用户s的请求的权重ws(τ)的计算方式为该用户所有新产生的请求的类型k之和。
本发明利用不同用户请求有不同延迟容忍性的特征,通过缓存延迟容忍的用户请求,减少用户请求的峰值,通过预测未来产生的用户请求,规划所需的最佳后台容量,从而降低了移动应用开发者的成本,提高了服务质量和云资源利用率。
附图说明
图1是本发明的架构图。
图2是本发明实施例的机器学习模型图。
图3是本发明实施例的机器学习模型预测精度对比图。
图4是本发明实施例的机器学习模型的训练时间对比图。
图5是本发明实施例的后台容量需求的对比图。
图6是本发明实施例的后台效用的对比图。
图7是本发明实施例的2名用户的实时请求速率分配状况图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
本发明主要根据移动应用用户请求延迟容忍度的不同,提出一种调度用户请求的方法,通过缓存延迟容忍的请求,降低用户请求的波动幅度。本方法利用机器学习方法预测未来请求的数量,从而得出最佳后台容量,然后实时根据每个用户新产生的请求分配速率。通过本发明的请求调度算法,应用开发商可以以更低的成本保证服务质量,提高后台资源利用率。
本发明提供的调度算法能够用第三方云服务和用户终端模块实现流程。参见图1,实施例以在亚马逊云端服务(Amazon Web Service,AWS)和iPhone手机上实现的调度算法(命名为Clockwork)为例对本发明的流程进行一个具体的阐述,如下:
步骤1:基于机器学习算法预测未来需求。依据延时容忍度将请求划分为K类。云端服务器存储每一分钟的每类请求数量作为历史数据。在预测下一小时第i分钟k类请求的数量时,根据相近原则和时间周期性原则,将前一个小时和前两天同一个小时的历史数据作为输入,即利用训练集数据做训练,验证集数据做验证得到机器学习的预测模型。机器学习算法可选择逻辑回归模型(Logistic Regression,LR),单隐层多层感知器模型(single-hidden-layer Multilayer Perceptron,sMLP),深度信念网络模型(Deep Belief Networks,DBN)和卷积神经网络模型(Convolutional Neural Networks,CNN)。其中CNN和DBN能有更好的预测结果,但比LR和sMLP等简单机器学习算法需要更长的训练时间。
本实施例的具体实施过程说明如下:
通过AWS关系数据库服务(Relational Database Service,RDS)建立和操作MySQL数据库,存储历史数据。利用Java程序语言在AWS弹性计算云(Elastic Compute Cloud,EC2)上构建服务器,进行未来请求预测。
机器学习算法预测模型每天训练更新一次,针对每种类型的请求训练一个预测模型,即总共K个预测模型。每个数据的输入为向量输出为即所有用户第i分钟产生的总的k类请求的数量。进行模型训练时,训练集包含50000个历史数据点,验证集包含10000个历史数据点,测试集包含10000个历史数据点。训练好的第k个预测模型在当前日的每个小时对下一个小时内每分钟的k类请求的数量进行预测,即每个模型进行60次预测。由于机器学习算法的输出为不连续的值,将输出离散化为10级,第一级表示请求数量为0~1000,第二级表示请求数量为1001~2000,以此类推,第十级表示请求数量为9000以上。同时,将输入归一化,即在进行训练时,对训练数据进行分批处理,每100个数据为一批。在用第m批数据对已有的训练模型进行再训练时,如果预测准确度提高的程度小于δ%时,则停止训练;如果预测准确度提高的程度大于或等于δ%时,则继续训练,直到所有50000个训练集数据用完为止。
本实施例的机器学习模型如图2所示,
LR:如图2(a)所示,假设输入向量为x,随机变量Y为i的概率为其中矩阵W和向量b是根据历史数据通过例如随机梯度下降算法学习得出的模型参数。根据训练模型,一个新的输入x在i取值为最高概率时的结果即预测结果,例如ypred=arg maxiP(Y=i|x,W,b)。
sMLP:如图2(b)所示,假设输入向量为x,隐层为h(x)=Φ(W(1)x+b(1)),其中Φ(·)为非线性函数,计算输出层为y=soft max(W(2)h(x)+b(2))。模型参数W(1),b(1),W(2),b(2)通过学习历史数据得到的。
DBN:如图2(c)所示,通过一系列限制型玻尔兹曼机(Restricted BoltzmannMachine,RBM)将输入层进行转化,然后进行逻辑回归。DBN与sMLP的不同点在于其采用了一种新的训练策略,先用无监督的训练通过贪婪算法对RBMs进行预训练,再用监督训练细调所有参数。
CNN:如图2(d)所示,CNN为MLP的一个变种,利用空间局部性来加快训练过程。在MLP中,邻近层的神经元是完全连接的,而CNN为了减少需要学习的参数,实行本地连接模式。
本实施例在建立上述机器学习算法模型时,其参数选择如下,sMLP的隐层由1000个神经元构成,DBN由三个隐层构成,每个隐层由1000个神经元构成,CNN由两个卷积层和一个全连层构成,每个卷积层和全连层均由500个神经元构成。
对于实施例的机器学习算法的评估通过模拟产生的历史数据进行,模拟产生的过程如下。假设有100个用户。首先,生成1440个具有昼夜模式(工作时间需求低,闲时需求高)的值代表一天内(24小时)平均每个用户每分钟(一小时60分钟)的请求数量。然后,在平均值上分别加微量噪音作为每个用户每分钟真实产生的请求数量。最后,将所有用户的请求数量相加得到每分钟总的请求数量。在配有2.9GHz的Inter CPU和8GB内存的MacBookPro笔记本上运行机器学习算法实施例的预测精确度如图3所示,训练时间如图4所示。其中,简单的机器学习算法LR和sMLP的预测准确度普遍小于深度学习模型DBN和CNN,但是所需的训练时间远小于深度学习模型DBN和CNN。
步骤2:根据采用步骤1所得未来需求的值,得出当前小时最佳后台容量。假设第i分钟的个请求中会被推迟到第j分钟的比例为其中,表示不被推迟的比例。在第j分钟处理的请求表示为Nj,包括之前推迟到第j分钟内和在第j分钟内产生的请求,即 为了满足后台容量大于峰值要求,即N≥maxj∈[1,60]Nj
为了减少请求延迟对用户体验的影响,开发人员根据请求的类型k和延迟分钟数j-1来定义的上限为以此来控制某种类型的请求可以被推迟的数量和时长。最佳后台容量N的值由云端通过解决优化问题得到,其约束条件为解决该优化问题可采用现有的经典算法或近似算法。每小时在运行步骤1的机器学习预测算法后更新最优后台容量,该后台容量在一小时内保持不变。
本实施例的具体实施方案如下:
改编一种基于iOS移动操作系统的,利用Swift程序语言开发的社交应用进行说明。该应用共有17种不同的请求,包括1)信息发送、2)状态更新、3)用户名更新、4)显示名更新、5)头像更新、6)加好友请求、7)接受好友请求、8)拒绝好友请求、9)注册、10)登陆、11)通讯录更新、12)浏览好友更新、13)浏览个人信息、14)浏览好友信息、15)获取聊天室历史记录、16)寻找好友和17)获取聊天记录。其中9)~17)种被划分为类型3请求,为延迟敏感的请求,2)~8)为类型1请求,为延迟容忍的请求,1)为类型2请求,为一般请求。
实施例中对请求延迟的上限定义为,类型3的请求不准予延时,即类型2和类型1的请求延时的时间不超过5分钟,在5分钟之内,延时的上限定为为其中,m=0.1为严约束(tightdelay constraint),m=0.4为宽约束(loose delay constraint)。
对实施例的评估通过仿真数据和真实数据两部分进行,其中仿真数据与机器学习算法的模拟产生的数据相同,得出的最佳后台容量如图5所示,其中基准曲线为当前小时在不延迟任何请求情况下的请求量峰值,仿真结果显示所需的后台容量降低最高可达36%。后台容量的利用效率如图6所示,仿真结果显示后台容量利用效率在宽约束条件下可提高57.3%,在严约束条件下可提高43.2%。实际数据为采集15个iPhone用户的真实产生的请求数量,为保护用户隐私,只收集统计20小时内的请求记录,其中并未涉及具体发送的信息内容。结果如下表所示:
步骤3:根据采用步骤2所得的最佳后台容量进行实时用户请求速率分配。云端服务器将每分钟分成T个时隙,用户每个时隙向云端服务器报告新产生的请求数量和类型。云端服务器根据用户的报告为他们分配速率,之后用户根据分配的速率自主安排发送自己的请求到后台。速率分配根据用户每次提交的近期请求信息进行更新。速率分配由网络效用最大化(Network Utility Maximization,NUM)模型决定。假设有S位用户,每个时隙总的用户请求上限为N/T。每个时隙τ,Xs(τ)为用户s未发送到后台的请求数,ws(τ)为请求的权重。在时隙τ内,云端服务器分配给用户s速率Rs(τ)为其中,α为调节公平性的参数,取值范围为正数。每个时隙,用户s的请求的权重ws(τ)的计算方式为该用户所有新产生的请求的类型k之和。
实施例具体的实施过程说明如下:
将每分钟分成T=4个时隙,每个时隙15秒钟。用户在打开应用时向云端服务器建立初始连接,连接成功后,在接下来的每个时隙向云端服务器报告新产生的请求情况,并获取新分配的请求速率。由于用户与云端服务器建立连接的时间各不相同,并且不能保证用户终端的时钟与云端服务器的时钟一致,所以云端服务器需要对所有用户进行同步,具体方法如下。用户与云端服务器建立初始连接时,云端服务器回复一个同步参数,该同步参数为云端服务器时钟的秒钟数,例如云端服务器的时钟为00:00:43,则云端服务器回复的同步参数为43。用户根据同步参数计算出首次发送请求报告的时间为15-(43mod 15)=2秒钟后,其中mod为模余操作,在首次发送请求报告后,用户每隔15秒向云端服务器发送请求报告。
如果用户与云端服务器的初始连接建立失败,用户将采用缺省请求发送模式,具体实现过程如下。缺省发送模式基于后台反馈信息,如果所有用户的请求量超过后台容量,多余的用户请求将被拒绝,同时后台将向用户发送错误码为155的错误信息。用户在首个时隙发送请求的速率为Rs(τ)=1,在接下来的时隙中,如果用户没有收到错误信息,则发送请求速率增加a,即Rs(τ)=Rs(τ-1)+a,如果用户收到错误信息,则发送请求速率减少b倍,即Rs(τ)=Rs(τ)/b。同时,用户在每个时隙继续向云端服务器发送建立连接请求,如果连接成功,则放弃缺省发送模式,采用云端服务器分配的请求发送速率。
用户产生新的请求后,不直接发送到后台,而是放入一个队列中,根据优先级顺序进行发送。请求的优先级由用户决定,可以根据请求的类型和已经延迟的分钟数决定。每个时隙发送的请求数量不超过云端服务器所分配的请求速率Rs(τ)。
本实施例具体的实施过程说明如下:
针对类型1和类型2共8种可以缓存的请求,分别建立8个数组,每个数组存放一种请求,每个数组的每一个元素类型是根据每种请求需要存储的变量自定义的类(class),如下表所示,该表中,“用户”和“朋友”属于PFObject类,“信息”、“状态”、“用户名”和“显示名”属于字符串类,“接受标志”和“拒绝标志”属于布尔0-1类。
用户终端在根据云端服务器分配的速率自行调度请求时,设置一个计数器,该计数器每个时隙自动归零。产生的新请求自动加入到每个相应数组的末端。在计数器的数字小于速率时,用户终端先发送数组1的第一个请求,发送请求后计数器增1,然后发送数组1的第二个请求,当数组1的请求为空时,再发送数组2的第一个请求,以此类推,直至计数器的数字等于所分配的速率,不再发送请求。数组中剩余的请求等待下一个时隙发送。
每个时隙,用户s的请求的权重ws(τ)的计算方式为该用户所有新产生的请求的类型k之和。例如,用户在本时隙中产生了10个类型1的请求,2个类型2的请求,1个类型3的请求,该用户的请求的权重为10*1+2*2+1*3=17.
对实施例的评估采用真实采集的用户数据,参数α取值为α=2。15个用户中的2名用户的实时速率分配情况如图7所示。通常而言,如果用户的加权请求量值较大时,分配给其的速率也更高。然而,用户的分配速率还取决于其他用户的请求需求。例如,用户1的请求数量在第15个时隙骤降,但是分配速率几乎与前一个时隙一致,这是因为用户2的请求数量也在第15个时隙骤降,使得两个用户的请求需求比例与第14个时隙大体一致,因此,2名用户在第15个时隙的分配速率与前一个时隙的相近。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (3)

1.一种基于云端的移动应用的后台请求自适应调度算法,其特征在于,包括以下步骤:
步骤1:预测未来需求;
具体实现包括以下子步骤:
步骤1.1:依据延时容忍度将请求划分为K类;
步骤1.2:每一分钟的每类请求数量作为历史数据;根据相近原则和时间周期性原则,将前一个小时和前两天同一个小时的历史数据作为输入,预测下一小时第i分钟k类请求的数量
步骤1.3:利用训练集数据做训练,验证集数据做验证得到机器学习的预测模型;
步骤1.4:基于机器学习的预测模型预测未来需求;
步骤2:根据未来需求,得出最佳后台容量;
具体实现过程是:假设第i分钟的个请求中会被推迟到第j分钟的比例为其中,表示不被推迟的比例,表示第i分钟k类请求的数量;假设在第j分钟处理的请求表示为Nj,包括之前推迟到第j分钟内和在第j分钟内产生的请求,即:
则最佳后台容量N的值通过解决优化问题得到,其约束条件为其中,为移动应用开发者设定的k类请求从第i分钟延迟到第j分钟的比例的上限;
步骤3:根据最佳后台容量进行实时用户请求速率分配;
具体实现包括以下子步骤:
步骤3.1:云端服务器将每分钟分成T个时隙,用户每个时隙向云端服务器报告新产生的请求数量和类型;
步骤3.2:云端服务器根据用户的报告为用户分配速率,之后用户根据分配的速率自主安排发送自己的请求到后台;
步骤3.2中用户产生新的请求后,首先放入一个队列中,根据优先级顺序进行发送;请求的优先级由用户决定,根据请求的类型和已经延迟的分钟数决定;每个时隙发送的请求数量不超过云端服务器所分配的请求速率Rs(τ);
速率分配由网络效用最大化模型决定;假设有S位用户,每个时隙总的用户请求上限为N/T;每个时隙τ,Xs(τ)为用户s未发送到后台的请求数,ws(τ)为用户s请求的权重,在时隙τ内,云端服务器分配给用户s速率Rs(τ)为:
其中,α为调节公平性的参数,取值范围为正数;N为最佳后台容量;
所述用户s的请求的权重ws(τ)的计算方式为该用户所有新产生的请求的类型k之和。
2.根据权利要求1所述的基于云端的移动应用的后台请求自适应调度算法,其特征在于:所述基于机器学习的预测模型包括逻辑回归模型、单隐层多层感知器模型、深度信念网络模型和卷积神经网络模型。
3.根据权利要求2所述的基于云端的移动应用的后台请求自适应调度算法,其特征在于:所述单隐层多层感知器模型的神经元数量为1000;所述深度信念网络模型有三层隐层,每个隐层包含1000个神经元;所述卷积神经网络模型包含两个卷积层和一个全连层,每层包含500个神经元。
CN201610984655.6A 2016-11-09 2016-11-09 一种基于云端的移动应用的后台请求自适应调度算法 Active CN106453608B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610984655.6A CN106453608B (zh) 2016-11-09 2016-11-09 一种基于云端的移动应用的后台请求自适应调度算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610984655.6A CN106453608B (zh) 2016-11-09 2016-11-09 一种基于云端的移动应用的后台请求自适应调度算法

Publications (2)

Publication Number Publication Date
CN106453608A CN106453608A (zh) 2017-02-22
CN106453608B true CN106453608B (zh) 2019-04-26

Family

ID=58207796

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610984655.6A Active CN106453608B (zh) 2016-11-09 2016-11-09 一种基于云端的移动应用的后台请求自适应调度算法

Country Status (1)

Country Link
CN (1) CN106453608B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107846614B (zh) * 2017-10-19 2020-09-11 北京奇艺世纪科技有限公司 一种视频流量调度方法、装置及电子设备
CN108053026B (zh) * 2017-12-08 2021-06-15 武汉大学 一种移动应用后台请求自适应调度算法
CN108170531B (zh) * 2017-12-26 2021-07-02 北京工业大学 一种基于深度信念网络的云数据中心请求流调度方法
CN108595272B (zh) * 2018-05-02 2020-11-27 厦门集微科技有限公司 一种请求分发方法和装置、计算机可读存储介质
CN108809723B (zh) * 2018-06-14 2021-03-23 重庆邮电大学 一种边缘服务器联合任务卸载及卷积神经网络层调度方法
CN108921342B (zh) * 2018-06-26 2022-07-12 圆通速递有限公司 一种物流客户流失预测方法、介质和系统
CN109901922B (zh) * 2019-03-05 2021-06-18 北京工业大学 一种面向多层服务的容器云资源调度优化方法
CN114625360B (zh) * 2022-05-16 2022-10-21 西安数道航空技术有限公司 一种无耦合数字化开发平台及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2275941A2 (en) * 2001-10-12 2011-01-19 Sonics, Inc. Method and apparatus for scheduling a resource to meet quality-of-service restrictions.
CN103220337A (zh) * 2013-03-22 2013-07-24 合肥工业大学 基于自适应弹性控制的云计算资源优化配置方法
CN104065663A (zh) * 2014-07-01 2014-09-24 复旦大学 一种基于混合云调度模型的自动伸缩、费用优化的内容分发服务方法
CN104283946A (zh) * 2014-09-26 2015-01-14 东北大学 一种单物理机下多虚拟机的资源自适应调整系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2275941A2 (en) * 2001-10-12 2011-01-19 Sonics, Inc. Method and apparatus for scheduling a resource to meet quality-of-service restrictions.
CN103220337A (zh) * 2013-03-22 2013-07-24 合肥工业大学 基于自适应弹性控制的云计算资源优化配置方法
CN104065663A (zh) * 2014-07-01 2014-09-24 复旦大学 一种基于混合云调度模型的自动伸缩、费用优化的内容分发服务方法
CN104283946A (zh) * 2014-09-26 2015-01-14 东北大学 一种单物理机下多虚拟机的资源自适应调整系统及方法

Also Published As

Publication number Publication date
CN106453608A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
CN106453608B (zh) 一种基于云端的移动应用的后台请求自适应调度算法
He et al. Blockchain-based edge computing resource allocation in IoT: A deep reinforcement learning approach
Tuli et al. COSCO: Container orchestration using co-simulation and gradient based optimization for fog computing environments
Kashani et al. Load balancing algorithms in fog computing
WO2020182989A1 (en) Scheduling computation graphs using neural networks
Zhang et al. MR-DRO: A fast and efficient task offloading algorithm in heterogeneous edge/cloud computing environments
WO2020214816A1 (en) Messaging selection systems in networked environments
Wu et al. An evolutionary fuzzy scheduler for multi-objective resource allocation in fog computing
Zhan et al. Incentive mechanism design for federated learning: Challenges and opportunities
CN106134136A (zh) 计算针对广域网上的数据传送的长期调度
CN114297722A (zh) 一种基于区块链的隐私保护异步联邦共享方法及系统
CN114303162A (zh) 用于驾驶员奖酬的强化学习方法:用于驾驶员-系统互动的生成性对抗网络
Dong et al. Deep reinforcement learning based worker selection for distributed machine learning enhanced edge intelligence in internet of vehicles
US20240054020A1 (en) Computing resource configuration methods and apparatuses
Zhan et al. L4L: Experience-driven computational resource control in federated learning
Li et al. Power of redundancy: Surplus client scheduling for federated learning against user uncertainties
Yang et al. Deep reinforcement learning based online network selection in CRNs with multiple primary networks
CN115766104A (zh) 一种基于改进的Q-learning网络安全决策自适应生成方法
Chen et al. Heterogeneous semi-asynchronous federated learning in Internet of Things: A multi-armed bandit approach
Tang et al. Digital twin assisted resource allocation for network slicing in industry 4.0 and beyond using distributed deep reinforcement learning
Dogani et al. Proactive auto-scaling technique for web applications in container-based edge computing using federated learning model
CN108053026B (zh) 一种移动应用后台请求自适应调度算法
CN111324839A (zh) 建筑大数据缓存方法及装置
CN110505635A (zh) 一种终端渗透率预测方法及装置
Gao et al. Dynamic Task Pricing in Mobile Crowdsensing: An Age-of-Information-Based Queueing Game Scheme

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant