CN109710500A - 一种基于自动伸缩Docker集群的组合预测方法 - Google Patents
一种基于自动伸缩Docker集群的组合预测方法 Download PDFInfo
- Publication number
- CN109710500A CN109710500A CN201811445826.3A CN201811445826A CN109710500A CN 109710500 A CN109710500 A CN 109710500A CN 201811445826 A CN201811445826 A CN 201811445826A CN 109710500 A CN109710500 A CN 109710500A
- Authority
- CN
- China
- Prior art keywords
- sequence
- workload
- memory
- error
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开的一种基于自动伸缩Docker集群的组合预测方法,通过负载预测每隔T时间从监控集群的数据中心中分别提取的历史CPU工作负载与内存工作负载时间序列,通过对时间序列数据进行线性和非线性时间序列的预测的融合,实现了Docker集群负载的预测,解决了并发访问的突发性导致的工作负载急剧增加和负载量的下降的问题,提高伸缩性能。在面对工作负载的急剧上升和下降时,组合式预测方法能更快地响应并进行扩容及缩容。
Description
技术领域
本发明属于虚拟化技术领域,涉及一种基于自动伸缩Docker集群的组合预测方法。
背景技术
Docker是一种轻量级虚拟化技术,建立于Linux容器之上,构造了一个全新的容器引擎。自动伸缩是通过对Docker集群进行监控并且做出扩容和缩容。传统的自动伸缩存在一定的局限性,当遇到访问量爆发式增长,扩容不及时,就会导致服务质量变差,相反,遇到访问量突发下降,集群又没有及时释放资源,缩容以降低成本。
针对解决优化这突发式负载变化的问题,本发明提出一种组合预测方法,针对集群负载进行预测,提前解决负载均衡问题,节约扩容和缩容时间,提升自动伸缩性能。所提出的组合预测方法在线性部分采用GM(1,1)模型,通过对时间序列中隐含的灰色信息进行挖掘从而进行线性时间序列的预测,由于它的预测结果中不包含非线性关系,因此本发明在非线性部分采用BP神经网络模型,表达出数据的非线性关系。因为真实环境中的时间序列既包含非线性关系也包含线性关系,所以将两者融合便能同时表达出非线性与线性关系,并实现了工作负载预测的自动伸缩,预测应用未来某个时间段的资源需求量,然后基于预测值提前进行资源扩展和缩容。
发明内容
本发明的目的是提供一种基于自动伸缩Docker集群的组合预测方法,解决了并发访问的突发性导致的工作负载急剧增加时的及时扩容问题和集群负载量急剧下降的缩容问题,提高伸缩性能。
本发明所采用的技术方案是,一种基于自动伸缩Docker集群的组合预测方法,包括如下步骤:
步骤1、负载预测每隔T时间从监控集群的数据中心中分别提取各服务的历史CPU使用率X={X(1),X(2),X(3)...X(n)}与内存工作负载 Y={Y(1),Y(2),Y(3)...Y(n)},并根据此负载序列进行负载预测;
步骤2、用GM(1,1)模型分别对历史CPU使用率X={X(1),X(2),X(3)...X(n)} 和内存工作负载Y={Y(1),Y(2),Y(3)...Y(n)}进行建模,分别表达出其中的线性关系,分别得到CPU工作负载预测值序列和内存工作负载预测值序列
步骤3、然后用BP神经网络对GM(1,1)模型产生的CPU工作负载预测值序列和内存工作负载预测值序列分别进行建模,得到CPU工作负载最终预测的误差序列e1和内存工作负载最终预测的误差序列e2;
步骤4、将CPU工作负载预测值序列与CPU工作负载最终预测的误差序列e1相加得到修正误差后的CPU工作负载预测值序列将内存工作负载预测值序列与内存工作负载最终预测的误差序列e2相加得到修正误差后的内存工作负载修正误差后的预测值序列
本发明的特点还在于,
步骤2具体为:
步骤2.1、弱化原始时间序列的随机性,需要先对原始时间序列CPU工作负载的时间序列X={X(1),X(2),X(3)...X(n)}和内存工作负载的时间序列 Y={Y(1),Y(2),Y(3)...Y(n)}进行数据处理,采用的是累加法处理,累加后得到CPU负载的一次累加序列X(1)={X(1)(1),X(1)(2),X(1)(3)...X(1)(n)}与内存负载的一次累加序列Y(1)={Y(1)(1),Y(1)(2),Y(1)(3)...Y(1)(n)};
步骤2.2、利用步骤2.1生成X(1)(k)与Y(1)(k)的紧邻域Z(1)(k)x和Z(1)(k)y,其中,X(1)(k)代表CPU负载第k次累加序列,Y(1)(k)代表内存负载第k次累加序列;
步骤2.3、根据X(1)(k)和Y(1)(k)分别建立灰色微分方程,利用最小二乘法分别对微分方程中参数ax,ux和ay,uy的值分别进行估计,得到的参数向量,求解微分方程;
步骤2.4、再根据累减法还原序列,可以得到序列在下一个t周期的预测值。这样就得到了CPU工作负载线性关系预测值与内存工作负载线性关系预测值
步骤3具体为:
步骤3.1、通过以步骤2可知通过GM(1,1)得到的CPU工作负载预测值序列和内存工作负载预测值序列存在一定误差序列et1、et2;
步骤3.2、将误差序列et1、et2作为BP神经网络的输入层,初始化神经网络的权和阈值;
步骤3.3、计算BP神经网络的神经元在隐藏层的数量,公式为其中,n为输入层神经元个数,m为输出层神经元个数,a 为[1,10]之间的常数。因为需要预测的结果是下一个t周期的,所以这里BP 神经网络的输出层神经元个数为1,那么隐藏层神经元个数为
步骤3.4、对步骤3.2中每个训练样本误差序列et1、et2进行步骤3.5到步骤3.6;
步骤3.5、计算各个网络层的实际输出;
步骤3.6、计算每层的权值和偏置的偏导;
步骤3.7、计算全局误差;
步骤3.8、修正权值和阈值;
步骤3.9、当样本集中的所有样本都经历了步骤3.5到步骤3.6,即完成了一个训练周期,如果各层神经元的输入权值以及偏置与神经网络的输出无限接近期望输出,即停止训练;否则,跳转到步骤3.3,继续下一个训练周期;
步骤3.10、训练完成后可得到CPU工作负载最终预测的误差序列e1和内存工作负载最终预测的误差序列e2。
步骤4具体为:
步骤4.1、将通过BP神经网络预测模型得到预测值相加,
得到CPU使用率修正误差后的预测值序列和内存工作负载修正误差后的预测值序列
本发明的有益效果是,
1、并发访问的突发性导致Docker集群工作负载急剧增加时,Docker 集群会及时扩容。
2、Docker集群负载量急剧下降时,集群能及时缩容以减少开销。
3、提高Docker集群自动伸缩的性能。
附图说明
图1是本发明基于自动伸缩Docker集群的组合预测方法的算法流程图;
图2是工作负载预测BP神经网络结构图;
图3是应用Test的实例个数变化图;
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
图1为本发明一种基于自动伸缩Docker集群的组合预测方法的算法流程图,结合流程图,具体的步骤如下:
步骤1、负载预测每隔T时间从监控集群的数据中心中分别提取各服务的历史CPU使用率X={X(1),X(2),X(3)...X(n)}与内存工作负载 Y={Y(1),Y(2),Y(3)...Y(n)},并根据此负载序列进行负载预测;
步骤2、用GM(1,1)模型分别对历史CPU使用率X={X(1),X(2),X(3)...X(n)} 和内存工作负载Y={Y(1),Y(2),Y(3)...Y(n)}进行建模,分别表达出其中的线性关系,分别得到CPU工作负载预测值序列和内存工作负载预测值序列
步骤2.1、弱化原始时间序列的随机性,需要先对原始时间序列CPU工作负载的时间序列X={X(1),X(2),X(3)...X(n)}和内存工作负载的时间序列 Y={Y(1),Y(2),Y(3)...Y(n)}进行数据处理,采用的是累加法,公式为:
累加后得到CPU负载的一次累加序列X(1)={X(1)(1),X(1)(2),X(1)(3)... X(1)(n)}与内存负载的一次累加序列Y(1)={Y(1)(1),Y(1)(2),Y(1)(3)...Y(1)(n)}。
步骤2.2、生成X(1)(k)与Y(1)(k)的紧邻域,相邻域的生成公式为:
Z(1)(k)x=0.5X(1)(k)+0.5X(1)(k-1)
Z(1)(k)y=0.5Y(1)(k)+0.5Y(1)(k-1)
其中,X(1)(k)代表CPU负载第k次累加序列,Y(1)(k)代表内存负载第k 次累加序列。Z(1)(k)x代表X(1)(k)生产的紧邻域,Z(1)(k)y代表Y(1)(k)生产的紧邻域。
步骤2.3、根据X(1)(k)和Y(1)(k)分别建立灰色微分方程:
步骤2.4、利用最小二乘法对步骤2.3中参数ax,ux和ay,uy的值分别进行估计,得到的参数向量如下所示:
其中,矩阵Bx,By和向量XN,YN可以表示为:
求解微分方程,即可得
步骤2.5、再根据累减法还原序列,就可以得到序列在下一个t周期的预测值,公式如下所示:
由以上公式得的下一个t周期的所有预测值的组合,就是t周期的工作负载线性关系预测序列,即为CPU工作负载预测值序列和内存工作负载预测值序列
步骤3、然后用BP神经网络对GM(1,1)模型产生的CPU工作负载预测值序列和内存工作负载预测值序列分别进行建模,得到CPU工作负载最终预测的误差序列e1和内存工作负载最终预测的误差序列e2;
步骤3.1、通过以步骤2可知通过GM(1,1)得到的CPU工作负载预测值序列和内存工作负载预测值序列存在一定误差序列et1、et2,其代表了非线性关系,公式如下:
其中,为CPU工作负载真实值,为内存工作负载真实值。
步骤3.2、将误差序列et1和et2作为BP神经网络的输入层,初始化神经网络的权和阈值;
步骤3.3、计算BP神经网络的神经元在隐藏层的数量,公式为其中,n为输入层神经元个数,m为输出层神经元个数,a为 [1,10]之间的常数。因为需要预测的结果是下一个t周期的,所以这里BP神经网络的输出层神经元个数为1,那么隐藏层神经元个数为BP 神经网络示意图结构如图2所示;
步骤3.4、对每个训练样本误差序列et1和et2进行步骤3.5到步骤3.6;
步骤3.5、计算各个网络层的实际输出:
x(l)=f(s(l))=f(wij (l)x(l-1)+bi (l))
其中,x(l)中l为第l层,f(s(l))为激活函数,wij (l)为从l-1层第j个神经元与l层第i个神经元之间的连接权重。bi (l)为第l层第i个神经元的偏置。
步骤3.6、计算每层的权值和偏置的偏导:
第l层的权值和偏置的偏导可以表示为:
其中,E(i)为单个样本的训练误差,公式为:
其中,dk(i)为对应输入误差序列et1和et2的期望输出。yk(i)为第k层的输出向量。
步骤3.7、计算全局误差:
即结果为:
其中,m为训练样本误差序列et1和et2的个数。
步骤3.8、修正权值和阈值;
步骤3.9、当样本集中的所有样本都经历了步骤3.5到步骤3.6,即完成了一个训练周期,如果各层神经元的输入权值以及偏置与神经网络的输出无限接近期望输出,即停止训练。否则,跳转到步骤3.3,继续下一个训练周期;
步骤3.10、训练完成后可得到CPU工作负载最终预测的误差序列e1和内存工作负载最终预测的误差序列e2;
步骤4、将CPU工作负载预测值序列与CPU工作负载最终预测的误差序列e1相加得到修正误差后的CPU工作负载预测值序列将内存工作负载预测值序列与内存工作负载最终预测的误差序列e2相加得到修正误差后的内存工作负载修正误差后的预测值序列
步骤4.1、将通过BP神经网络预测模型得到预测值相加,得到CPU使用率修正误差后的预测值序列和内存工作负载修正误差后的预测值序列公式为:
实施例
步骤1、编写用于测试的程序Test,将其打包为Docker镜像,作为应用服务运行在集群的容器中,初始时实例的个数为1。该应用是用Java语言的 Spring Boot框架开发,
步骤2、对外暴露三个URL,分别为“little”、“medium”、“large”,其中当访问“little”时新建10KB的数组,访问“medium”时新建1MB的数组,访问“large”新建10MB的数组,而且每次访问这三个URL新建数组 2秒后会释放该数组所占的内存空间和对象。
步骤3、利用JMeter进行测试,测试策略为:
(1)利用拥有10个线程的线程组,让其中的各个线程连续执行访问“little”与“medium”接口的动作,把访问间隔设置为800ms,线程组的任务时间为1分钟。
(2)在第一组线程启动1分钟后使用拥有30个线程的线程组,让其线程执行连续访问“large”的动作,把访问间隔设置为400ms,线程组的任务时间为2分钟。
(3)在第二组线程启动6分钟后使用拥有30个线程的线程组,让其线程执行连续访问“large”的动作,把访问间隔设置为400ms,线程组的任务时间为2分钟。
(4)在这种变化访问压力的环境下,利用本发明的组合预测方法对Docker集群根据工作负载进行扩容或缩容。
(5)对比实验,利用非预测式自动伸缩方法对Docker集群根据工作负载同样进行扩容和缩容,与(4)对比实验效果。
从图3中得到,本发明提出的预测式自动伸缩和非预测式自动伸缩分别在接受突发访问时集群中实例个数的变化情况,预测式明显地迅速扩容至所需资源量,使得容器数量增加到了21个,而响应式自动伸缩需要较长时间逐步进行扩容。在缩容过程中,预测式自动伸缩能够提前进行缩容使得实例数迅速减少至7个,而响应式自动伸缩则逐步进行缩容时间较长。
应用Test在基于工作负载预测的自动伸缩集群上的测试结果如表1集群压力测试统计所示。从表中分析能够知道,基于工作负载预测的自动伸缩集群能够有效应对密集型访问高峰,于整个测试中共计处理了约6000次访问,与无自动伸缩集群相比增加了2000次,平均响应时间也从700ms改善到了200ms。
表1
Claims (4)
1.一种基于自动伸缩Docker集群的组合预测方法,其特征在于,包括如下步骤:
步骤1、负载预测每隔T时间从监控集群的数据中心中分别提取各服务的历史CPU使用率X={X(1),X(2),X(3)...X(n)}与内存工作负载Y={Y(1),Y(2),Y(3)...Y(n)},并根据此负载序列进行负载预测;
步骤2、用GM(1,1)模型分别对历史CPU使用率X={X(1),X(2),X(3)...X(n)}和内存工作负载Y={Y(1),Y(2),Y(3)...Y(n)}进行建模,分别表达出其中的线性关系,分别得到CPU工作负载预测值序列和内存工作负载预测值序列
步骤3、然后用BP神经网络对GM(1,1)模型产生的CPU工作负载预测值序列和内存工作负载预测值序列分别进行建模,得到CPU工作负载最终预测的误差序列e1和内存工作负载最终预测的误差序列e2;
步骤4、将CPU工作负载预测值序列与CPU工作负载最终预测的误差序列e1相加得到修正误差后的CPU工作负载预测值序列将内存工作负载预测值序列与内存工作负载最终预测的误差序列e2相加得到修正误差后的内存工作负载修正误差后的预测值序列
2.根据权利要求1所述的一种基于自动伸缩Docker集群的组合预测方法,其特征在于,步骤2具体为:
步骤2.1、弱化原始时间序列的随机性,需要先对原始时间序列CPU工作负载的时间序列X={X(1),X(2),X(3)...X(n)}和内存工作负载的时间序列Y={Y(1),Y(2),Y(3)...Y(n)}进行数据处理,采用的是累加法处理,累加后得到CPU负载的一次累加序列X(1)={X(1)(1),X(1)(2),X(1)(3)...X(1)(n)}与内存负载的一次累加序列Y(1)={Y(1)(1),Y(1)(2),Y(1)(3)...Y(1)(n)};
步骤2.2、利用步骤2.1生成X(1)(k)与Y(1)(k)的紧邻域Z(1)(k)x和Z(1)(k)y,其中,X(1)(k)代表CPU负载第k次累加序列,Y(1)(k)代表内存负载第k次累加序列;
步骤2.3、根据X(1)(k)和Y(1)(k)分别建立灰色微分方程,利用最小二乘法分别对微分方程中参数ax,ux和ay,uy的值分别进行估计,得到的参数向量,求解微分方程;
步骤2.4、再根据累减法还原序列,可以得到序列在下一个t周期的预测值,这样就得到了CPU工作负载线性关系预测值与内存工作负载线性关系预测值
3.根据权利要求1所述的一种基于自动伸缩Docker集群的组合预测方法,其特征在于,步骤3具体为:
步骤3.1、通过以步骤2可知通过GM(1,1)得到的CPU工作负载预测值序列和内存工作负载预测值序列存在一定误差序列et1、et2;
步骤3.2、将误差序列et1、et2作为BP神经网络的输入层,初始化神经网络的权和阈值;
步骤3.3、计算BP神经网络的神经元在隐藏层的数量,公式为其中,n为输入层神经元个数,m为输出层神经元个数,a为[1,10]之间的常数;因为需要预测的结果是下一个t周期的,所以这里BP神经网络的输出层神经元个数为1,那么隐藏层神经元个数为
步骤3.4、对步骤3.2中每个训练样本误差序列et1、et2进行步骤3.5到步骤3.6;
步骤3.5、计算各个网络层的实际输出;
步骤3.6、计算每层的权值和偏置的偏导;
步骤3.7、计算全局误差;
步骤3.8、修正权值和阈值;
步骤3.9、当样本集中的所有样本都经历了步骤3.5到步骤3.6,即完成了一个训练周期,如果各层神经元的输入权值以及偏置与神经网络的输出无限接近期望输出,即停止训练;否则,跳转到步骤3.3,继续下一个训练周期;
步骤3.10、训练完成后可得到CPU工作负载最终预测的误差序列e1和内存工作负载最终预测的误差序列e2。
4.根据权利要求3所述的一种基于自动伸缩Docker集群的组合预测方法,其特征在于,步骤4具体为:
步骤4.1、将通过BP神经网络预测模型得到预测值相加,得到CPU使用率修正误差后的预测值序列和内存工作负载修正误差后的预测值序列
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811445826.3A CN109710500A (zh) | 2018-11-29 | 2018-11-29 | 一种基于自动伸缩Docker集群的组合预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811445826.3A CN109710500A (zh) | 2018-11-29 | 2018-11-29 | 一种基于自动伸缩Docker集群的组合预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109710500A true CN109710500A (zh) | 2019-05-03 |
Family
ID=66255344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811445826.3A Pending CN109710500A (zh) | 2018-11-29 | 2018-11-29 | 一种基于自动伸缩Docker集群的组合预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109710500A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110413406A (zh) * | 2019-06-27 | 2019-11-05 | 莫毓昌 | 一种任务负载预测系统及方法 |
CN110990159A (zh) * | 2019-12-25 | 2020-04-10 | 浙江大学 | 一种基于历史数据分析的容器云平台资源配额预测方法 |
CN111787109A (zh) * | 2020-07-02 | 2020-10-16 | 哈尔滨工程大学 | 一种基于时间序列预测的数据中心负载均衡方法 |
CN113010260A (zh) * | 2020-09-29 | 2021-06-22 | 证通股份有限公司 | 容器数量弹性伸缩方法以及容器数量弹性伸缩方法系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102682349A (zh) * | 2012-05-14 | 2012-09-19 | 云南电力试验研究院(集团)有限公司电力研究院 | 一种用电量智能预测系统及方法 |
CN106126338A (zh) * | 2016-06-21 | 2016-11-16 | 浪潮(北京)电子信息产业有限公司 | 一种虚拟机集群伸缩配置的方法及装置 |
CN106961351A (zh) * | 2017-03-03 | 2017-07-18 | 南京邮电大学 | 基于Docker容器集群的智能弹性伸缩方法 |
CN107808212A (zh) * | 2017-10-09 | 2018-03-16 | 南京邮电大学 | 基于灰色神经网络的太阳能收集功率预测方法 |
US20180321672A1 (en) * | 2016-05-09 | 2018-11-08 | StrongForce IoT Portfolio 2016, LLC | Methods and systems for a data marketplace in an industrial internet of things environment |
-
2018
- 2018-11-29 CN CN201811445826.3A patent/CN109710500A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102682349A (zh) * | 2012-05-14 | 2012-09-19 | 云南电力试验研究院(集团)有限公司电力研究院 | 一种用电量智能预测系统及方法 |
US20180321672A1 (en) * | 2016-05-09 | 2018-11-08 | StrongForce IoT Portfolio 2016, LLC | Methods and systems for a data marketplace in an industrial internet of things environment |
CN106126338A (zh) * | 2016-06-21 | 2016-11-16 | 浪潮(北京)电子信息产业有限公司 | 一种虚拟机集群伸缩配置的方法及装置 |
CN106961351A (zh) * | 2017-03-03 | 2017-07-18 | 南京邮电大学 | 基于Docker容器集群的智能弹性伸缩方法 |
CN107808212A (zh) * | 2017-10-09 | 2018-03-16 | 南京邮电大学 | 基于灰色神经网络的太阳能收集功率预测方法 |
Non-Patent Citations (3)
Title |
---|
张江石: "《行为安全管理中的数学模型及应用》", 29 February 2016, 北京煤炭工业出版社 * |
张继国: "《农村电子商务产业集群趋势预测研究——基于灰色神经网络组合模型》", 《商业经济研究》 * |
王天泽: "《基于灰色模型的云资源动态伸缩功能的研究》", 《软件导刊》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110413406A (zh) * | 2019-06-27 | 2019-11-05 | 莫毓昌 | 一种任务负载预测系统及方法 |
CN110990159A (zh) * | 2019-12-25 | 2020-04-10 | 浙江大学 | 一种基于历史数据分析的容器云平台资源配额预测方法 |
CN110990159B (zh) * | 2019-12-25 | 2023-05-23 | 浙江大学 | 一种基于历史数据分析的容器云平台资源配额预测方法 |
CN111787109A (zh) * | 2020-07-02 | 2020-10-16 | 哈尔滨工程大学 | 一种基于时间序列预测的数据中心负载均衡方法 |
CN113010260A (zh) * | 2020-09-29 | 2021-06-22 | 证通股份有限公司 | 容器数量弹性伸缩方法以及容器数量弹性伸缩方法系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109710500A (zh) | 一种基于自动伸缩Docker集群的组合预测方法 | |
Chen et al. | DNNOff: offloading DNN-based intelligent IoT applications in mobile edge computing | |
CN111507521B (zh) | 台区电力负荷预测方法及预测装置 | |
WO2021164250A1 (zh) | 一种湍流场更新方法、装置及其相关设备 | |
CN108122032A (zh) | 一种神经网络模型训练方法、装置、芯片和系统 | |
CN112163601B (zh) | 图像分类方法、系统、计算机设备及存储介质 | |
CN111638958B (zh) | 云主机负载处理方法、装置、控制设备及存储介质 | |
CN106933649A (zh) | 基于移动平均和神经网络的虚拟机负载预测方法及系统 | |
CN108446761A (zh) | 一种神经网络加速器及数据处理方法 | |
CN112101525A (zh) | 一种通过nas设计神经网络的方法、装置和系统 | |
CN104239194A (zh) | 基于bp神经网络的任务完成时间预测方法 | |
CN110858973A (zh) | 小区网络流量预测方法及装置 | |
CN113065653B (zh) | 面向移动端图像分类的轻量级卷积神经网络的设计方法 | |
CN112541584B (zh) | 深度神经网络模型并行模式选择方法 | |
CN112766600B (zh) | 一种城市区域人群流量预测方法及系统 | |
CN101877077A (zh) | 时间序列预测模型 | |
CN105976020A (zh) | 一种考虑小波跨层关联性的网络流量预测方法 | |
CN112488826A (zh) | 基于深度强化学习对银行风险定价的优化方法和装置 | |
CN103825946B (zh) | 一种基于网络感知的虚拟机放置方法 | |
CN112699074A (zh) | 用于配置和操作神经网络的技术 | |
Aslam et al. | Using artificial neural network for VM consolidation approach to enhance energy efficiency in green cloud | |
Yang et al. | NasmamSR: a fast image super-resolution network based on neural architecture search and multiple attention mechanism | |
CN104618480A (zh) | 基于网络链路利用率驱动的云系统资源分配方法 | |
CN113220466A (zh) | 一种基于长短期记忆模型的云服务负载通用预测方法 | |
CN105976027A (zh) | 数据处理方法和装置、芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190503 |
|
RJ01 | Rejection of invention patent application after publication |