CN110083405B - 一种函数启动方法及装置 - Google Patents
一种函数启动方法及装置 Download PDFInfo
- Publication number
- CN110083405B CN110083405B CN201910348499.8A CN201910348499A CN110083405B CN 110083405 B CN110083405 B CN 110083405B CN 201910348499 A CN201910348499 A CN 201910348499A CN 110083405 B CN110083405 B CN 110083405B
- Authority
- CN
- China
- Prior art keywords
- function
- container
- starting time
- target
- starting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Stored Programmes (AREA)
- Devices That Are Associated With Refrigeration Equipment (AREA)
Abstract
本发明实施例提供了一种函数启动方法及装置,涉及云计算领域,方法包括:针对每一函数,可以根据该函数的历史启动时刻,确定该函数的下一启动时刻,并在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器,当需要启动目标函数时,判断目标函数对应的容器当前是否已启动,如果目标函数对应的容器当前已启动,则将目标函数加载至对应的容器中运行。基于上述处理,可以对函数的启动时刻进行预测,并根据预测的函数的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,相对于现有技术中,定时启动所有函数对应的容器,能够减少系统资源的浪费。
Description
技术领域
本发明涉及云计算技术领域,特别是涉及一种函数启动方法及装置。
背景技术
随着云服务的发展和普及,无服务器计算已经得到了广泛的应用,国内外各大企业都推出了自己的无服务器计算产品,例如,亚马逊云服务、谷歌云平台等。在无服务器计算中,每个函数都对应一个容器,函数在对应的容器中运行。当云服务器需要启动函数时,云服务器需要启动该函数对应的容器,并将该函数加载至对应的容器中运行,该函数运行结束后,该函数对应的容器可以处于休眠状态,当该容器休眠的时长达到预设时长时,云服务器可以删除该容器,后续,当云服务器再次启动该函数时,云服务器需要重新启动该容器。重新启动该容器会消耗过多的时长,导致该函数启动的时延较大。
现有技术中,为了降低函数启动的延时,可以定时启动所有函数对应的容器,例如,可以每隔5分钟启动所有函数对应的容器。当云服务器需要启动某一函数时,如果当前该函数对应的容器已启动,则云服务器可以直接将该函数加载至对应的容器中运行。
由上述可见,云服务器需要定时启动所有函数对应的容器,会造成系统资源的浪费。
发明内容
本发明实施例的目的在于提供一种函数启动方法及装置,以减少系统资源的浪费。具体技术方案如下:
第一方面,为了达到上述目的,本发明实施例提供一种函数启动方法,所述方法应用于云服务器,所述方法包括:
针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行。
可选的,所述根据该函数的历史启动时刻,确定该函数的下一启动时刻,包括:
根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
可选的,在所述根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻之前,所述方法还包括:
判断该函数的历史启动时刻的数目是否大于预设阈值;
如果该函数的历史启动时刻的数目大于所述预设阈值,执行所述根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻步骤;
如果该函数的历史启动时刻的数目不大于所述预设阈值,根据该函数的历史启动时刻,计算该函数的历史启动时刻间隔时长的平均值;根据该函数的上一启动时刻与该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
可选的,所述启动时刻预测模型为长短期记忆LSTM网络模型。
可选的,所述方法还包括:
如果所述目标函数对应的容器当前未启动,判断预设容器池中是否存在所述目标函数的函数类型对应的目标空容器,其中,所述预设容器池中的空容器为已配置环境参数的容器;
如果所述预设容器池中存在所述目标空容器,则将所述目标函数加载至所述目标空容器中的空容器中运行。
如果所述预设容器池中不存在所述目标空容器,则启动所述目标函数对应的容器,并将所述目标函数加载至对应的容器中运行。
可选的,所述预设容器池中的空容器的个数为,各函数类型对应的容器的历史冷启动次数的平均值的和值;或者,
所述预设容器池中的空容器的个数为,根据各函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型确定的。
可选的,所述冷启动次数预测模型为LSTM网络模型。
可选的,该函数的下一启动时刻与所述目标时刻之间的时长为该函数对应的容器消亡周期的二分之一,所述容器消亡周期为该函数对应的容器从休眠至被删除所持续的时长。
第二方面,为了达到上述目的,本发明实施例提供一种函数启动装置,所述装置应用于云服务器,所述装置包括:
确定模块,用于针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
第一启动模块,用于在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
第一判断模块,用于当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
第一加载模块,用于如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行。
可选的,所述确定模块,具体用于根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
可选的,所述装置还包括:第二判断模块和处理模块;
所述第二判断模块,用于判断该函数的历史启动时刻的数目是否大于预设阈值;如果该函数的历史启动时刻的数目大于所述预设阈值,触发所述确定模块;如果该函数的历史启动时刻的数目不大于所述预设阈值,触发所述处理模块;
处理模块,用于根据该函数的历史启动时刻,计算该函数的历史启动时刻间隔时长的平均值;根据该函数的上一启动时刻与该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
可选的,所述启动时刻预测模型为LSTM网络模型。
可选的,所述装置还包括:第三判断模块、第二加载模块和第二启动模块;
第三判断模块,用于如果所述目标函数对应的容器当前未启动,判断预设容器池中是否存在所述目标函数的函数类型对应的目标空容器,其中,所述预设容器池中的空容器为已配置环境参数的容器;如果所述预设容器池中存在所述目标空容器,触发所述第二加载模块;如果所述预设容器池中不存在所述目标空容器,触发所述第二启动模块;
第二加载模块,用于将所述目标函数加载至所述目标空容器中的空容器中运行;
第二启动模块,用于启动所述目标函数对应的容器,并将所述目标函数加载至对应的容器中运行。
可选的,所述预设容器池中的空容器的个数为,各函数类型对应的容器的历史冷启动次数的平均值的和值;
或者,
所述预设容器池中的空容器的个数为,根据各函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型确定的。
可选的,所述冷启动次数预测模型为LSTM网络模型。
可选的,该函数的下一启动时刻与所述目标时刻之间的时长为该函数对应的容器消亡周期的二分之一,所述容器消亡周期为该函数对应的容器从休眠至被删除所持续的时长。
第三方面,本发明实施例还提供一种云服务器,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于启动存储器上所存放的程序时,实现上述任一所述的函数启动方法的步骤。
在本发明实施的又一方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述任一所述的函数启动方法的步骤。
在本发明实施的又一方面,本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的函数启动方法。
本发明实施例提供的一种函数启动方法,针对每一函数,云服务器可以根据该函数的历史启动时刻,确定该函数的下一启动时刻,并在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器,当需要启动目标函数时,判断目标函数对应的容器当前是否已启动,如果目标函数对应的容器当前已启动,则将目标函数加载至对应的容器中运行。基于上述处理,可以对函数的启动时刻进行预测,并根据预测的函数的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,且相对于现有技术中,定时启动所有函数对应的容器,能够减少系统资源的浪费。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种函数启动方法的流程图;
图2为本发明实施例提供的一种函数启动方法的流程图;
图3为本发明实施例提供的一种预测函数启动时刻的流程图;
图4为本发明实施例提供的一种计算预设容器池中的空容器的个数的流程图;
图5为本发明实施例提供的一种函数启动方法示例的流程图;
图6为本发明实施例提供的一种函数启动装置的结构图;
图7为本发明实施例提供的一种云服务器的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中,云服务器需要定时启动所有函数对应的容器,会导致系统资源的浪费。
为解决上述问题,本发明实施例提供了一种函数启动方法,针对每一函数,云服务器可以根据该函数的历史启动时刻,确定该函数的下一启动时刻,并在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器,当需要启动目标函数时,判断目标函数对应的容器当前是否已启动,如果目标函数对应的容器当前已启动,则将目标函数加载至对应的容器中运行。基于上述处理,可以对函数的启动时刻进行预测,并根据预测的函数的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,相对于现有技术中定时启动所有函数对应的容器,能够减少系统资源的浪费。
下面通过具体实施例,对本发明实施例提供的函数启动方法进行详细说明。
参见图1,图1为本发明实施例提供的一种函数启动方法的流程图,该方法可以应用于云服务器,该方法可以包括如下步骤:
S101:针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻。
其中,下一启动时刻为当前未发生的时刻。
在发明实施例中,云服务器通常需要启动多个函数,针对需要启动的每一函数,云服务器都可以获取该函数的历史启动时刻,并根据该函数的历史启动时刻,确定该函数的下一启动时刻。进而,实现对需要启动的各函数的启动时刻的预测。
可以理解的是,针对每一函数,在确定该函数的下一启动时刻之前,云服务器可以记录每一次启动该函数的时刻(即该函数的历史启动时刻),以根据该函数的历史启动时刻,确定该函数的下一启动时刻。另外,云服务器还可以将该函数的历史启动时刻存储在本地。
另外,为了提高确定的该函数的下一启动时刻的准确度,云服务器可以获取该函数的历史启动时刻,并根据该函数的历史启动时刻和预先训练好的启动时刻预测模型,预测该函数的下一启动时刻,可选的,S101可以包括以下步骤:
根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
其中,启动时刻预测模型可以为LSTM(Long Short-Term Memory,长短期记忆)网络模型,LRU(Least Recently Used,近期最少使用)网络模型,或者现有技术中其他用于进行预测的网络模型。
在发明实施例中,针对每一函数,云服务器可以根据该函数的历史启动时刻和预先训练好的启动时刻预测模型,对该函数的下一启动时刻进行预测。
其中,每一个函数可以对应一个启动时刻预测模型,或者,所有函数对应同一个启动时刻预测模型。
云服务器可以根据各函数的历史启动时刻,对启动时刻预测模型进行训练。启动时刻预测模型的输入参数的数目可以由用户根据经验设置,例如,输入参数的数目可以为3、也可以为5,但并不限于此。
一种实现方式中,某一函数的历史启动时刻包括:02:00,04:00,06:00,08:00,10:00,12:00,14:00,16:00,18:00。
如果启动时刻预测模型的输入参数的数目为3,针对上述历史启动时刻,云服务器可以将02:00,04:00,06:00作为启动时刻预测模型的输入参数,将08:00作为对应的输出参数;将10:00,12:00,14:00作为启动时刻预测模型的输入参数,将16:00作为对应的输出参数;将12:00,14:00,16:00作为启动时刻预测模型的输入参数,将18:00作为对应的输出参数,对启动时刻预测模型进行训练,直至启动时刻预测模型达到收敛条件,得到训练好的启动时刻预测模型。
可以理解的是,云服务器可以根据各函数的历史启动时刻对启动时刻预测模型进行训练。
相应的,云服务器可以将14:00,16:00,18:00输入至训练好的启动时刻预测模型,启动时刻预测模型的输出参数即为下一启动时刻。
另一种实现方式中,如果启动时刻预测模型的输入参数的数目为5,针对上述历史启动时刻,云服务器可以将02:00,04:00,06:00,08:00,10:00作为启动时刻预测模型的输入参数,将12:00作为对应的输出参数;将04:00,06:00,08:00,10:00,12:00作为启动时刻预测模型的输入参数,将14:00作为对应的输出参数;将08:00,10:00,12:00,14:00,16:00作为启动时刻预测模型的输入参数,将18:00作为对应的输出参数,对启动时刻预测模型进行训练,直至启动时刻预测模型达到收敛条件,得到训练好的启动时刻预测模型。
相应的,云服务器可以将10:00,12:00,14:00,16:00,18:00输入至训练好的启动时刻预测模型,启动时刻预测模型的输出参数即为下一启动时刻。
另外,为了进一步提高预测的函数的下一启动时刻的准确性,上述启动时刻预测模型可以为LSTM网络模型(可以称为第一LSTM网络模型)。
云服务器可以根据各函数的历史启动时刻,对第一LSTM网络模型进行训练,得到训练好的第一LSTM网络模型,训练好的第一LSTM网络模型可以用于对函数的启动时刻进行预测。
另外,为了提高第一LSTM网络模型预测的函数的下一启动时刻的准确度,可以定时更新第一LSTM网络模型,第一LSTM网络模型的更新周期可以由技术人员根据经验进行设置。
一种实现方式中,更新周期可以为3天,在第4天时,可以根据该函数第1天、第2天、第3天的历史启动时刻,训练第一LSTM网络模型;在第7天时,达到第一LSTM网络模型的更新周期,则可以根据前6天的历史启动时刻,训练第一LSTM网络模型。
为了保证上述函数启动方法的可靠性,当该函数的历史启动时刻的数目,不足以使用第一LSTM网络模型进行预测时,云服务器还可以根据该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。相应的,在步骤S101之前,该方法还可以包括以下步骤:
步骤一,判断该函数的历史启动时刻的数目是否大于预设阈值。如果该函数的历史启动时刻的数目大于预设阈值,执行步骤二;如果该函数的历史启动时刻的数目不大于预设阈值,执行步骤三。
其中,预设阈值可以根据启动时刻预测模型的输入参数的数目确定。
在发明实施例中,针对某一函数,在云服务器根据该函数的历史启动时刻和训练好的启动时刻预测模型,对该函数的下一启动时刻进行预测之前,云服务器可以判断该函数的历史启动时刻的数目是否大于预设阈值,以根据判定结果进行相应处理。
一种实现方式中,如果预设阈值为5,针对某一函数,云服务器可以获取该函数的历史启动时刻,并判断该函数的历史启动时刻的数目是否大于5,以根据判定结果进行相应处理。
步骤二,如果该函数的历史启动时刻的数目大于预设阈值,根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
可以理解的是,根据启动时刻预测模型对函数的下一启动时刻进行预测,通常需要一定数目的该函数的历史启动时刻,如果该函数的历史启动时刻的数目太少,则无法根据启动时刻预测模型进行预测。
在发明实施例中,针对每一函数,如果云服务器判定该函数的历史启动时刻的数目大于预设阈值,表明云服务器可以根据启动时刻预测模型,预测该函数的下一启动时刻,此时,云服务器可以根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
一种实现方式中,如果预设阈值为5,针对某一函数,该函数的历史启动时刻包括:X1,X2,X3,X4,X5,X6。该函数的历史启动时刻的数目(即6)大于预设阈值,则云服务器可以根据该函数的历史启动时刻X1,X2,X3,X4,X5,X6,以及训练好的第一LSTM网络模型,预测该函数的下一启动时刻X7。
步骤三,如果该函数的历史启动时刻的数目不大于预设阈值,根据该函数的历史启动时刻,计算该函数的历史启动时刻间隔时长的平均值;根据该函数的上一启动时刻与该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
在发明实施例中,针对每一函数,当云服务器判定该函数的历史启动时刻的数目小于或者等于预设阈值时,表明云服务器无法根据启动时刻预测模型,预测该函数的下一启动时刻,则云服务器可以根据该函数的历史启动时刻,计算该函数的历史启动时刻间隔时长的平均值。
一种实现方式中,如果预设阈值为5,针对某一函数,该函数的历史启动时刻包括:X1,X2,X3。该函数的历史启动时刻的数目(即3)小于预设阈值,则云服务器可以计算该函数的历史启动时刻间隔时长的平均值。
云服务器可以计算X1与X2之间的间隔时长T1,以及X2与X3之间的间隔时长T2,然后,云服务器可以计算间隔时长T1和间隔时长T2的平均值Ta,Ta即为该函数的历史启动时刻间隔时长的平均值。
然后,云服务器可以根据该函数的上一启动时刻与该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
针对上述示例,云服务器可以将X3+Ta对应的时刻,作为该函数的下一启动时刻X4。
S102:在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器。
目标时刻与下一启动时刻之前的时长可以由用户根据经验设置。
在发明实施例中,针对某一函数,在云服务器确定该函数的下一启动时刻之后,云服务器可以根据确定的该函数的下一启动时刻,确定目标时刻,并在达到目标时刻时,云服务器启动该函数对应的容器。
目标时刻为该函数的下一启动时刻之前的时刻,因此,云服务器可以提前启动该函数对应的容器,进而,当云服务器需要在该函数的下一启动时刻,启动该函数对应的容器时,由于云服务器已启动该函数对应的容器,此时,云服务器可以直接将该函数加载至对应的容器中运行,可以减少启动函数的延时。
为了保证当云服务器需要启动函数对应的容器时,该函数对应的容器已处于启动状态,针对每一函数,该函数的下一启动时刻与目标时刻之间的时长可以为该函数对应的容器消亡周期的二分之一,容器消亡周期为该函数对应的容器从休眠至被删除所持续的时长。
其中,当云服务器需要启动某一函数时,云服务器需要启动该函数对应的容器,并将该函数加载至对应的容器中运行,该函数运行结束后,该函数对应的容器可以处于休眠状态,当该容器休眠的时长达到预设时长时,云服务器可以删除该容器。
在发明实施例中,针对某一函数,在云服务器确定该函数的下一启动时刻后,云服务器可以获取该函数对应的容器消亡周期,并根据该函数的下一启动时刻和容器消亡周期,确定目标时刻。
示例性的,针对某一函数,云服务器确定的该函数的下一启动时刻为9:00,该函数对应的容器消亡周期可以为10分钟,该函数对应的容器消亡周期的二分之一为5分钟,则目标时刻可以为8:55,即,云服务器可以在8:55启动该函数对应的容器。
S103:当需要启动目标函数时,判断目标函数对应的容器当前是否已启动,如果目标函数对应的容器当前已启动,执行步骤S104。
其中,目标函数可以为任一函数。
在发明实施例中,由于根据启动时刻预测模型,预测的函数的下一启动时刻可能会存在误差,因此,当云服务器需要启动某一函数(即目标函数)时,云服务器可以判断目标函数对应的容器当前是否已经启动,以根据判定结果进行相应处理。
S104:将目标函数加载至对应的容器中运行。
在发明实施例中,当云服务器需要启动目标函数时,如果目标函数对应的容器当前已经启动,则云服务器可以将目标函数加载至对应的容器中运行。
基于上述处理,云服务器可以对函数的启动时刻进行预测,并根据预测的函数的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,且相对于现有技术中,定时启动所有函数对应的容器,能够减少系统资源的浪费。
另外,当云服务器需要启动目标函数时,如果目标函数对应的容器当前未启动,为了保证上述函数启动方法的可靠性,参见图2,该方法还可以包括以下步骤:
S105:如果目标函数对应的容器当前未启动,判断预设容器池中是否存在目标函数的函数类型对应的目标空容器,如果预设容器池中存在目标空容器,执行步骤S106,如果预设容器池中不存在目标空容器,执行步骤S107。
其中,预设容器池中的空容器为已配置环境参数的容器。
在发明实施例中,云服务器可以根据函数的函数类型,对函数对应的空容器进行分类。
例如,可以将Java(一门面向对象编程语言)类型的函数对应的空容器划分为同一类,将Python(一种计算机程序设计语言,是一种面向对象的动态类型语言)类型的函数对应的空容器划分为为同一类,但并不限于此。
针对某一函数,云服务器可以将该函数加载至,该函数的函数类型对应的空容器中的任一空容器中运行。
因此,如果目标函数对应的容器当前未启动,云服务器可以判断预设容器池中是否存在目标函数的函数类型对应的目标空容器,以根据判定结果进行相应处理。
S106:将目标函数加载至目标空容器中的容器中运行。
其中,目标空容器可以为一个,也可以为多个。
在发明实施例中,如果预设容器池中存在目标空容器,则云服务器可以将目标函数加载至目标空容器中的空容器中运行。
本步骤中,如果目标空容器为一个,云服务器可以直接将目标函数加载至目标空容器中运行。
如果目标空容器为多个,则云服务器可以从目标空容器中选取一个空容器,并将目标函数加载至该空容器中运行。例如,云服务器可以从目标空容器中随机选取一个空容器,并将目标函数加载至随机选取的空容器中运行。
S107:启动目标函数对应的容器,并将目标函数加载至对应的容器中运行。
在发明实施例中,如果预设容器池中不存在目标空容器,则云服务器可以启动目标函数对应的容器,并将目标函数加载至对应的容器中运行。
云服务器启动目标函数对应的容器,并将目标函数加载至对应的容器中运行的方法,与相关技术中启动函数的方法一致,此处不再赘述。
另外,为了减少系统资源浪费,云服务器还可以确定预设容器池中需要设置的空容器的个数。
云服务器确定预设容器池中的空容器的个数的方法可以是多种多样的,可选的,云服务器可以根据各函数类型对应的容器的历史冷启动次数的平均值,确定预设容器池中的空容器的个数。
其中,容器的冷启动是指:当云服务器删除某一函数对应的容器后,云服务器需要再次启动该函数时,云服务器可以重新启动该函数对应的容器。
某一函数类型对应的容器的历史冷启动次数,可以为该函数类型对应的容器在某一历史时间段内的冷启动次数。历史时间段的持续时长可以由用户根据经验设置。
一种实现方式中,预设容器池中的空容器的个数,可以为各函数类型对应的容器的历史冷启动次数的平均值的和值。
针对每一函数类型对应的容器,云服务器可以记录该函数类型对应的容器的历史冷启动次数,然后,云服务器可以计算该函数类型对应的容器的多个历史冷启动次数的平均值(可以称为平均冷启动次数),进而,云服务器可以计算各函数类型对应的容器的平均冷启动次数的和值,并将计算得到的和值作为预设容器池中的空容器的个数。
示例性的,如果上述历史时间段的持续时长为1分钟,针对某一函数类型对应的容器,09:01至09:02该函数类型对应的容器的冷启动次数为6;09:02至09:03该函数类型对应的容器的冷启动次数为5;09:03至09:04该函数类型对应的容器的冷启动次数为7。
云服务器可以计算该函数类型对应的容器的历史冷启动次数6、5和7的平均值,即该函数类型对应的容器的平均冷启动次数为6。则云服务器可以确定下一时间段(即09:04至09:05),该函数类型对应的容器的冷启动次数为6。
进而,云服务器可以得到下一时间段,各函数类型对应的容器的冷启动次数,以确定预设容器池中的空容器的个数。
另一实现方式中,为了提高确定的预设容器池中的空容器的个数的准确度,预设容器池中的空容器的个数可以为,根据各函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型确定的。
在发明实施例中,针对每一函数类型,云服务器可以记录各函数类型对应的容器的历史冷启动次数,根据该函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型,对该函数类型对应的容器的冷启动次数进行预测。
云服务器可以根据各函数类型对应的容器的历史冷启动次数,对冷启动次数预测模型进行训练。冷启动次数预测模型的输入参数的数目可以由用户根据经验设置,例如,输入参数的数目可以为3、也可以5,但并不限于此。
示例性的,某一函数类型对应的容器的历史冷启动次数包括:6,5,7,3,8,4,7,7,6。
如果冷启动次数预测模型的输入参数的数目为5,针对上述历史冷启动次数,云服务器可以将6,5,7,3,8作为冷启动次数预测模型的输入参数,将4作为对应的输出参数;将7,3,8,4,7作为冷启动次数预测模型的输入参数,将7作为对应的的输出参数;将3,8,4,7,7作为冷启动次数预测模型的输入参数,将6作为对应的的输出参数,对冷启动次数预测模型进行训练,直至冷启动次数预测模型达到收敛条件,得到训练好的冷启动次数预测模型。
可以理解的是,云服务器可以根据各函数类型对应的容器的历史冷启动次数对冷启动次数预测模型进行训练。
相应的,云服务器可以将8,4,7,7,6输入至训练好的冷启动次数预测模型,冷启动次数预测模型的输出参数即为下一时间段该函数类型对应的容器的冷启动次数。
另外,为了进一步提高预测的容器的冷启动次数的准确性,上述冷启动次数预测模型可以为LSTM网络模型(可以称为第二LSTM网络模型)。
云服务器可以根据各函数类型对应的容器的历史冷启动次数,对第二LSTM网络模型进行训练,得到训练好的第二LSTM网络模型,训练好的第二LSTM网络模型可以用于对容器的冷启动次数进行预测。
针对每一函数类型对应的容器,云服务器可以根据该函数类型对应的容器的历史冷启动次数,和预先训练好的第二LSTM网络模型,预测该函数类型对应的容器的冷启动次数,并根据预测的各函数类型对应的容器的冷启动次数,确定预设容器池中的空容器的个数。
示例性的,如果上述历史时间段的持续时长为1分钟,针对某一函数类型对应的空容器,09:01至09:02该函数类型对应的容器的冷启动次数为C1;09:02至09:03该函数类型对应的容器的冷启动次数为C2;09:03至09:04该函数类型对应的容器的冷启动次数为C3;09:04至09:05该函数类型对应的容器的冷启动次数为C4;09:05至09:06该函数类型对应的容器的冷启动次数为C5;09:06至09:07该函数类型对应的容器的冷启动次数为C6。
云服务器可以根据该函数类型对应的容器的历史冷启动次数C1,C2,C3,C4,C5,C6,以及预先训练好的第二LSTM网络模型,预测下一时间段(即09:07至09:08),该函数类型对应的容器的冷启动次数C7。
进而,云服务器可以得到下一时间段,各函数类型对应的容器的冷启动次数,以确定预设容器池中的空容器的个数。
基于上述处理,当云服务器启动目标函数时,如果目标函数对应的容器当前未启动,云服务器可以从预设容器池中选取目标函数的函数类型对应的目标空容器,将目标函数加载至目标空容器中的空容器中运行,降低函数启动延时,并且减少系统资源浪费。
本发明实施例还提供了一种预测函数启动时刻的流程图,参见图3,可以包括以下步骤:
S301:根据各函数的历史启动时刻,训练用于对函数的下一启动时刻进行预测的第一LSTM网络模型。
S302:针对每一函数,获取该函数的历史启动时刻。
S303:判断该函数的历史启动时刻的数目,是否大于预设阈值,如果该函数的历史启动时刻的数目大于预设阈值,执行步骤S304,如果该函数的历史启动时刻的数目不大于预设阈值,执行步骤S305。
S304:根据该函数的历史启动时刻,以及训练好的第一LSTM网络模型,确定该函数的下一启动时刻。
S305:计算该函数的历史启动时刻间隔时长的平均值,根据该函数的上一启动时刻和该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
S306:在确定的该函数的下一启动时刻前的目标时刻,启动该函数对应的容器。
S307:判断是否达到预设的模型更新周期,如果达到预设的模型更新周期,执行步骤S308。
S308:更新第一LSTM网络模型。
基于上述处理,可以确定函数的下一启动时刻,进而,云服务器可以根据确定的函数的下一启动时刻,提前启动该函数对应的容器,能够降低函数启动延时,并且减少系统资源浪费。
参见图4,本发明实施例还提供了一种计算预设容器池中的空容器的个数的流程图,可以包括以下步骤:
S401:根据各函数类型对应的容器的历史冷启动次数,训练用于对容器的冷启动次数进行预测的第二LSTM网络模型。
S402:针对每一函数类型,获取该函数类型对应的容器的历史冷启动次数。
S403:判断该函数类型对应的容器的历史冷启动次数的数目,是否大于预设阈值。如果该函数类型对应的容器的历史冷启动次数的数目,大于预设阈值,执行步骤S404;如果该函数类型对应的容器的历史冷启动次数的数目,不大于预设阈值,执行步骤S405。
S404:根据该函数类型对应的容器的历史冷启动次数,和训练好的第二LSTM网络模型,确定下一时间段该函数类型对应的容器的冷启动次数。
S405:计算该函数类型对应的容器的历史冷启动次数的平均值,根据该函数类型对应的容器的历史冷启动次数的平均值,确定下一时间段该函数类型对应的容器的冷启动次数。
S406:根据确定的下一时间段各函数类型对应的容器的冷启动次数,计算预设容器池中的空容器的个数。
S407:判断是否达到预设的冷启动次数预测时刻,如果达到预设的冷启动次数预测时刻,执行步骤S402。
基于上述处理,云服务器可以确定下一时间段各函数类型对应的容器的冷启动次数,进而,根据确定的下一时间段各函数类型对应的容器的冷启动次数,计算预设容器池中的空容器的个数。相比于现有技术中,用户根据经验设置预设容器池中的空容器的个数,能够减少预设容器池中无用的空容器,降低系统资源的浪费。
参见图5,图5为本发明实施例提供的一种函数启动方法示例的流程图,可以包括以下步骤:
S501:根据各函数的历史启动时刻,训练用于对函数的下一启动时刻进行预测的第一LSTM网络模型。
S502:针对每一函数,获取该函数的历史启动时刻。
S503:判断该函数的历史启动时刻的数目,是否大于预设阈值,如果该函数的历史启动时刻的数目大于预设阈值,执行步骤S504,如果该函数的历史启动时刻的数目不大于预设阈值,执行步骤S505。
S504:根据该函数的历史启动时刻,以及训练好的第一LSTM网络模型,确定该函数的下一启动时刻。
S505:计算该函数的历史启动时刻间隔时长的平均值,根据该函数的上一启动时刻和该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
S506:在确定的该函数的下一启动时刻前的目标时刻,启动该函数对应的容器。
其中,该函数的下一启动时刻与目标时刻之间的时长为该函数对应的容器消亡周期的二分之一,容器消亡周期为该函数对应的容器从休眠至被删除所持续的时长。
S507:当云服务器需要启动目标函数时,判断目标函数对应的容器当前是否已启动,如果目标函数对应的容器当前已启动,执行步骤S508;如果目标函数对应的容器当前未启动,执行步骤S509。
S508:将目标函数加载至对应的容器中运行。
S509:判断预设容器池中是否存在目标函数的函数类型对应的目标空容器,如果预设容器池中存在目标空容器,执行步骤S5010;如果预设容器池中不存在目标空容器,执行步骤S5011。
其中,预设容器池中的空容器的个数为,根据各函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型确定的。
S5010:将目标函数加载至目标空容器中的空容器中运行。
S5011:启动目标函数对应的容器,并将目标函数加载至对应的容器中运行。
由以上可见,本发明实施例提供的函数启动方法,针对每一函数,云服务器能够预测该函数的下一启动时刻,根据预测的该函数的下一启动时刻,提前启动该函数对应的容器,当云服务器需要启动目标函数时,云服务器可以将目标函数加载至对应的容器中运行。另外,如果云服务器需要启动目标函数时,目标函数对应的容器未启动,云服务器可以从预设容器池中获取目标函数的函数类型对应的目标空容器,将目标函数加载至目标空容器中的空容器中运行,能够降低函数启动延时,并减少系统资源的浪费。
基于同一发明构思,与本发明上述实施例提供的函数启动方法相对应,本发明实施例还提供了一种函数启动装置,如图6所示,该装置可以包括:
确定模块601,用于针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
第一启动模块602,用于在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
第一判断模块603,用于当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
第一加载模块604,用于如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行。
可选的,所述确定模块601,具体用于根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
可选的,所述装置还包括:第二判断模块和处理模块;
所述第二判断模块,用于判断该函数的历史启动时刻的数目是否大于预设阈值;如果该函数的历史启动时刻的数目大于所述预设阈值,触发所述确定模块;如果该函数的历史启动时刻的数目不大于所述预设阈值,触发所述处理模块;
处理模块,用于根据该函数的历史启动时刻,计算该函数的历史启动时刻间隔时长的平均值;根据该函数的上一启动时刻与该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
可选的,所述启动时刻预测模型为LSTM网络模型。
可选的,所述装置还包括:第三判断模块、第二加载模块和第二启动模块;
第三判断模块,用于如果所述目标函数对应的容器当前未启动,判断预设容器池中是否存在所述目标函数的函数类型对应的目标空容器,其中,所述预设容器池中的空容器为已配置环境参数的容器;如果所述预设容器池中存在所述目标空容器,触发所述第二加载模块;如果所述预设容器池中不存在所述目标空容器,触发所述第二启动模块;
第二加载模块,用于将所述目标函数加载至所述目标空容器中的空容器中运行;
第二启动模块,用于启动所述目标函数对应的容器,并将所述目标函数加载至对应的容器中运行。
可选的,所述预设容器池中的空容器的个数为,各函数类型对应的容器的历史冷启动次数的平均值的和值;
或者,
所述预设容器池中的空容器的个数为,根据各函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型确定的。
可选的,所述冷启动次数预测模型为LSTM网络模型。
可选的,该函数的下一启动时刻与所述目标时刻之间的时长为该函数对应的容器消亡周期的二分之一,所述容器消亡周期为该函数对应的容器从休眠至被删除所持续的时长。
由上述可见,本发明提供的一种函数启动的装置,针对每一函数,可以根据该函数的历史启动时刻,确定该函数的下一启动时刻,根据确定的该函数的下一启动时刻,提前启动该函数对应的容器,将该函数加载至对应的容器中运行,可以降低函数启动延时,相比于现有技术中,定时启动所有函数对应的容器,可以减少系统资源浪费。
另外,本发明实施例还提供了一种云服务器,如图7所示,包括处理器701、通信接口702、存储器703和通信总线704,其中,处理器701,通信接口702,存储器703通过通信总线704完成相互间的通信,
存储器703,用于存放计算机程序;
处理器701,用于启动存储器703上所存放的程序时,实现如下步骤:
针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行。
上述云服务器提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述云服务器与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明提供的云服务器,可以对函数的启动时刻进行预测,并根据预测的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,相对于现有技术中,定时启动所有函数对应的容器,能够减少系统资源的浪费。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一函数启动方法的步骤。
具体的,上述函数启动方法包括:
针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行。
需要说明的是,上述函数启动方法的其他实现方式与前述方法实施例部分相同,这里不再赘述。
通过本发明提供的计算机可读存储介质,可以对函数的启动时刻进行预测,并根据预测的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,相对于现有技术中,定时启动所有函数对应的容器,能够减少系统资源的浪费。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一函数启动方法。
具体的,上述函数启动方法包括:
针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行。
需要说明的是,上述函数启动方法的其他实现方式与前述方法实施例部分相同,这里不再赘述。
通过本发明提供的计算机程序产品,可以对函数的启动时刻进行预测,并根据预测的下一启动时刻,提前启动函数对应的容器,能够降低函数启动的延时,相对于现有技术中,定时启动所有函数对应的容器,能够减少系统资源的浪费。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、云服务器、计算机可读存储介质和计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (9)
1.一种函数启动方法,其特征在于,所述方法应用于云服务器,所述方法包括:
针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行;
所述根据该函数的历史启动时刻,确定该函数的下一启动时刻,包括:
根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
2.根据权利要求1所述的方法,其特征在于,在所述根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻之前,所述方法还包括:
判断该函数的历史启动时刻的数目是否大于预设阈值;
如果该函数的历史启动时刻的数目大于所述预设阈值,执行所述根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻步骤;
如果该函数的历史启动时刻的数目不大于所述预设阈值,根据该函数的历史启动时刻,计算该函数的历史启动时刻间隔时长的平均值;根据该函数的上一启动时刻与该函数的历史启动时刻间隔时长的平均值,确定该函数的下一启动时刻。
3.根据权利要求1或2所述的方法,其特征在于,所述启动时刻预测模型为长短期记忆LSTM网络模型。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
如果所述目标函数对应的容器当前未启动,判断预设容器池中是否存在所述目标函数的函数类型对应的目标空容器,其中,所述预设容器池中的空容器为已配置环境参数的容器;
如果所述预设容器池中存在所述目标空容器,则将所述目标函数加载至所述目标空容器中的容器中运行;
如果所述预设容器池中不存在所述目标空容器,则启动所述目标函数对应的容器,并将所述目标函数加载至对应的容器中运行。
5.根据权利要求4所述的方法,其特征在于,所述预设容器池中的空容器的个数为,各函数类型对应的容器的历史冷启动次数的平均值的和值;
或者,
所述预设容器池中的空容器的个数为,根据各函数类型对应的容器的历史冷启动次数和预先训练好的冷启动次数预测模型确定的。
6.根据权利要求5所述的方法,其特征在于,所述冷启动次数预测模型为LSTM网络模型。
7.根据权利要求1所述的方法,其特征在于,该函数的下一启动时刻与所述目标时刻之间的时长为该函数对应的容器消亡周期的二分之一,所述容器消亡周期为该函数对应的容器从休眠至被删除所持续的时长。
8.一种函数启动装置,其特征在于,所述装置应用于云服务器,所述装置包括:
确定模块,用于针对每一函数,根据该函数的历史启动时刻,确定该函数的下一启动时刻;
第一启动模块,用于在确定的该函数的下一启动时刻之前的目标时刻,启动该函数对应的容器;
第一判断模块,用于当需要启动目标函数时,判断所述目标函数对应的容器当前是否已启动;
第一加载模块,用于如果所述目标函数对应的容器当前已启动,则将所述目标函数加载至对应的容器中运行;
所述确定模块,具体用于根据该函数的历史启动时刻,以及预先训练好的启动时刻预测模型,预测该函数的下一启动时刻。
9.一种云服务器,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-7中任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910348499.8A CN110083405B (zh) | 2019-04-28 | 2019-04-28 | 一种函数启动方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910348499.8A CN110083405B (zh) | 2019-04-28 | 2019-04-28 | 一种函数启动方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110083405A CN110083405A (zh) | 2019-08-02 |
CN110083405B true CN110083405B (zh) | 2020-05-08 |
Family
ID=67417220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910348499.8A Active CN110083405B (zh) | 2019-04-28 | 2019-04-28 | 一种函数启动方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110083405B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114489940A (zh) * | 2022-01-18 | 2022-05-13 | 武汉理工大学 | 无服务器计算环境中基于时域卷积网络的冷启动优化方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014165538A2 (en) * | 2013-04-01 | 2014-10-09 | Nebula, Inc. | Update management for a distributed computing system |
CN105824809B (zh) * | 2015-01-04 | 2019-05-28 | 中国移动通信集团河北有限公司 | 一种etl调度的实现方法及装置 |
CN104991830B (zh) * | 2015-07-10 | 2018-01-02 | 山东大学 | 基于服务等级协议的yarn资源分配和节能调度方法及系统 |
CN106155778A (zh) * | 2016-07-07 | 2016-11-23 | 中国科学院声学研究所 | 一种应用容器的启动方法及系统 |
US10379835B2 (en) * | 2016-12-19 | 2019-08-13 | International Business Machines Corporation | Optimized creation of distributed storage and distributed processing clusters on demand |
CN109324879B (zh) * | 2017-07-28 | 2022-04-22 | 华为技术有限公司 | 管理触发器的方法及终端设备 |
CN107943576B (zh) * | 2017-12-14 | 2020-09-29 | 中国平安人寿保险股份有限公司 | 应用程序的启动优化方法、装置、设备、系统及介质 |
CN109062658B (zh) * | 2018-06-29 | 2021-06-04 | 优刻得科技股份有限公司 | 实现计算资源服务化的调度方法、装置、介质、设备及系统 |
-
2019
- 2019-04-28 CN CN201910348499.8A patent/CN110083405B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110083405A (zh) | 2019-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444009A (zh) | 一种基于深度强化学习的资源分配方法及装置 | |
CN108156252B (zh) | 一种数据访问方法、装置、服务器及客户端 | |
CN109901881B (zh) | 应用程序的插件加载方法、装置、计算机设备及存储介质 | |
CN110782090A (zh) | 一种数据处理的方法、装置、可读存储介质和电子设备 | |
CN111666113A (zh) | 一种应用程序启动管理方法、装置、电子设备及存储介质 | |
CN110083405B (zh) | 一种函数启动方法及装置 | |
CN107682389B (zh) | 一种执行网络请求的方法、终端及计算机可读存储介质 | |
CN113886069A (zh) | 一种资源分配方法、装置、电子设备及存储介质 | |
CN111835536B (zh) | 一种流量预测方法和装置 | |
CN114237852A (zh) | 一种任务调度方法、装置、服务器及存储介质 | |
CN111294377A (zh) | 一种依赖关系的网络请求发送方法、终端装置及存储介质 | |
CN109491771B (zh) | 基于系统性能优化的任务处理方法及相关设备 | |
CN112291086A (zh) | 一种交换机的内存扩容方法、系统及装置 | |
CN109976885B (zh) | 基于多任务操作系统的事件处理方法、装置及存储介质 | |
CN115421859B (zh) | 配置文件的动态加载方法、装置、计算机设备及存储介质 | |
CN114090268B (zh) | 容器管理方法及容器管理系统 | |
CN106775889B (zh) | 利用对象池实现Flash播放器资源加载的方法及系统 | |
CN109995855B (zh) | 一种数据获取方法、装置及终端 | |
CN107728769B (zh) | 后台应用管理方法、装置及计算机可读存储介质 | |
CN107391590B (zh) | 一种主题列表的更新方法、装置、电子设备及存储介质 | |
CN116719632B (zh) | 任务调度方法、装置、设备以及介质 | |
CN117453377B (zh) | 模型调度方法、终端设备以及服务器 | |
CN112636976B (zh) | 业务质量确定方法、装置、电子设备和存储介质 | |
CN110764916B (zh) | 一种信息处理方法、装置、存储介质及设备 | |
CN108984344B (zh) | 一种动态产生快照的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |