CN111736992B - 机器学习平台的gpu资源的管理方法及装置 - Google Patents
机器学习平台的gpu资源的管理方法及装置 Download PDFInfo
- Publication number
- CN111736992B CN111736992B CN202010533979.4A CN202010533979A CN111736992B CN 111736992 B CN111736992 B CN 111736992B CN 202010533979 A CN202010533979 A CN 202010533979A CN 111736992 B CN111736992 B CN 111736992B
- Authority
- CN
- China
- Prior art keywords
- user
- gpu resources
- container corresponding
- machine learning
- learning platform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012545 processing Methods 0.000 title claims description 10
- 238000012216 screening Methods 0.000 claims abstract description 11
- 238000004590 computer program Methods 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 230000009191 jumping Effects 0.000 claims description 4
- 239000002699 waste material Substances 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- WGZDBVOTUVNQFP-UHFFFAOYSA-N N-(1-phthalazinylamino)carbamic acid ethyl ester Chemical compound C1=CC=C2C(NNC(=O)OCC)=NN=CC2=C1 WGZDBVOTUVNQFP-UHFFFAOYSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000010936 titanium Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5022—Mechanisms to release resources
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明提供了一种机器学习平台的GPU资源的管理方法及装置,该方法包括:获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。本发明可以对机器学习平台的GPU资源进行管理,避免闲置的GPU资源浪费。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种机器学习平台的GPU资源的管理方法及装置。
背景技术
智能钛机器学习平台(Ti-One)作为一种机器学习平台,是为AI工程师打造的一站式机器学习服务平台,为用户提供从数据预处理、模型构建、模型训练、模型评估到模型服务的全流程开发及部署支持。Ti-One内置丰富的算法组件,支持多种算法框架,满足多种AI应用场景的需求。自动化建模(AutoML)的支持与拖拽式任务流设计让AI初学者也能轻松上手。
在腾讯TI-One平台中,用户申请Notebook(容器)开展机器学习模型训练。在实际的应用过程中,出现用户申请一个notebook后,对于申请的1个GPU资源采取独占的策略。即申请者在不使用GPU资源的情况下,只要用户启动Notebook,GPU资源会一直被独占,而不会共享给其他人进行使用,使得GPU资源无法充分发挥,闲置的GPU资源浪费大量的硬件计算资源;另外,在搭建GPU计算集群的过程中,被独占的闲置GPU资源占用GPU服务器,导致后续申请用户无法正常申请GPU计算资源。
发明内容
本发明实施例提出一种机器学习平台的GPU资源的管理方法,用以对机器学习平台的GPU资源进行管理,避免闲置的GPU资源浪费,该方法包括:
获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
本发明实施例提出一种机器学习平台的GPU资源的管理装置,用以对机器学习平台的GPU资源进行管理,避免闲置的GPU资源浪费,该装置包括:
用户获取模块,用于获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
查询模块,用于对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
处理模块,用于在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
本发明实施例还提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述机器学习平台的GPU资源的管理方法。
本发明实施例还提出了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述机器学习平台的GPU资源的管理方法的计算机程序。
在本发明实施例中,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。在上述过程中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中机器学习平台的GPU资源的管理方法的流程图;
图2为本发明实施例中机器学习平台的GPU资源的管理装置的示意图;
图3为本发明实施例中计算机设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
在本说明书的描述中,所使用的“包含”、“包括”、“具有”、“含有”等,均为开放性的用语,即意指包含但不限于。参考术语“一个实施例”、“一个具体实施例”、“一些实施例”、“例如”等的描述意指结合该实施例或示例描述的具体特征、结构或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。各实施例中涉及的步骤顺序用于示意性说明本申请的实施,其中的步骤顺序不作限定,可根据需要作适当调整。
图1为本发明实施例中机器学习平台的GPU资源的管理方法的流程图,如图1所示,该方法包括:
步骤101,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
步骤102,对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
步骤103,在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
在本发明实施例提出的方法中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
具体实施时,本发明实施例的原理是针对机器学习平台(主要是Ti-One)的部分用户在不使用GPU资源进行模型训练时,不主动释放GPU资源,导致其他用户一直处于排队且无法获取到GPU资源的情况,进行后台定期清理。
在步骤101中,可以通过机器学习平台的数据库获取到所有正在运行的应用程序及对应的用户,筛选要求可以是超出设定时长,即筛选出超出设定时长的运行的应用程序对应的用户。
在步骤102中,可以通过后台命令、探针等方式查询机器学习平台中该用户对应的容器中GPU资源的使用情况,在一实施例中,对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况,包括:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
在上述实施例中,由于用户进行模型训练是间断的,不定时的,因此要循环判断用户对应的容器中是否存在GPU资源,例如,第一设定时长为10分钟,第二设定时长为10s,第三设定时长为3分钟,即在10分钟内,每隔10s判断3分钟内该用户对应的容器中是否存在GPU资源,为了提高查询效率,只要第一次出现3分钟内存在GPU资源,则确定该用户对应的容器中GPU资源被使用,跳出判断,即不再进行后续判断查询,从而进行下一个容器的检测,这样可以提高效率。上述整个查询过程可以通过linux的crontab任务调度工具来实现。
在一实施例中,所述方法还包括:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
在上述实施例中,由于每个用户对应的GPU资源的管理互不影响,可以对所有用户对应的GPU资源的管理并行执行,从而进一步提高GPU资源管理的效率。
在一实施例中,所述方法还包括:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
在上述实施例中,相当于确定对暂停的GPU资源,或者称为闲置的GPU资源的有效处理,杀掉包含该GPU资源的容器notebook,从而释放了大量容器给新申请用户使用。另外,由于所有文件都是保存在CEPH上,所以杀掉容器不会丢失文件。
本发明实施例的方法适用于腾讯Ti-one平台以及各公有云平台中,可节省私有云平台的运营成本。
综上所述,在本发明实施例提出的方法中,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。在上述过程中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
本发明实施例还提出一种机器学习平台的GPU资源的管理装置,其原理与机器学习平台的GPU资源的管理方法类似,这里不再赘述,图2为本发明实施例中机器学习平台的GPU资源的管理装置的示意图,包括:
用户获取模块201,用于获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
查询模块202,用于对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
处理模块203,用于在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
在一实施例中,查询模块202具体用于:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
在一实施例中,所述装置还包括并行执行模块204,用于:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
在一实施例中,所述装置还包括容器查杀模块205,用于:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
综上所述,在本发明实施例提出的装置中,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。在上述过程中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
本申请的实施例还提供一种计算机设备,图3为本发明实施例中计算机设备的示意图,该计算机设备能够实现上述实施例中的机器学习平台的GPU资源的管理方法中全部步骤,所述电子设备具体包括如下内容:
处理器(processor)301、存储器(memory)302、通信接口(CommunicationsInterface)303和总线304;
其中,所述处理器301、存储器302、通信接口303通过所述总线304完成相互间的通信;所述通信接口303用于实现服务器端设备、检测设备以及用户端设备等相关设备之间的信息传输;
所述处理器301用于调用所述存储器302中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的机器学习平台的GPU资源的管理方法中的全部步骤。
本申请的实施例还提供一种计算机可读存储介质,能够实现上述实施例中的机器学习平台的GPU资源的管理方法中全部步骤,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的机器学习平台的GPU资源的管理方法的全部步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种机器学习平台的GPU资源的管理方法,其特征在于,包括:
获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源;
用户进行模型训练是间断的,不定时的,要循环判断用户对应的容器中是否存在GPU资源;
对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况,包括:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
2.如权利要求1所述的机器学习平台的GPU资源的管理方法,其特征在于,还包括:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
3.如权利要求1所述的机器学习平台的GPU资源的管理方法,其特征在于,还包括:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
4.一种机器学习平台的GPU资源的管理装置,其特征在于,包括:
用户获取模块,用于获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
查询模块,用于对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
处理模块,用于在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源;
用户进行模型训练是间断的,不定时的,要循环判断用户对应的容器中是否存在GPU资源;
查询模块具体用于:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
5.如权利要求4所述的机器学习平台的GPU资源的管理装置,其特征在于,还包括并行执行模块,用于:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
6.如权利要求4所述的机器学习平台的GPU资源的管理装置,其特征在于,还包括容器查杀模块,用于:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
7.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至3任一项所述方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序在执行时实现权利要求1至3任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010533979.4A CN111736992B (zh) | 2020-06-12 | 2020-06-12 | 机器学习平台的gpu资源的管理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010533979.4A CN111736992B (zh) | 2020-06-12 | 2020-06-12 | 机器学习平台的gpu资源的管理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111736992A CN111736992A (zh) | 2020-10-02 |
CN111736992B true CN111736992B (zh) | 2024-02-23 |
Family
ID=72648961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010533979.4A Active CN111736992B (zh) | 2020-06-12 | 2020-06-12 | 机器学习平台的gpu资源的管理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111736992B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105528249A (zh) * | 2015-12-06 | 2016-04-27 | 北京天云融创软件技术有限公司 | 一种多用户共享gpu资源的调度方法 |
CN109213600A (zh) * | 2018-09-11 | 2019-01-15 | 郑州云海信息技术有限公司 | 一种基于ai云的gpu资源调度方法和装置 |
CN110597635A (zh) * | 2019-09-12 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 图形处理资源分配方法、装置、计算机设备及存储介质 |
CN110688218A (zh) * | 2019-09-05 | 2020-01-14 | 广东浪潮大数据研究有限公司 | 资源调度方法及装置 |
CN110796591A (zh) * | 2019-09-25 | 2020-02-14 | 广东浪潮大数据研究有限公司 | 一种gpu卡的使用方法及相关设备 |
-
2020
- 2020-06-12 CN CN202010533979.4A patent/CN111736992B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105528249A (zh) * | 2015-12-06 | 2016-04-27 | 北京天云融创软件技术有限公司 | 一种多用户共享gpu资源的调度方法 |
CN109213600A (zh) * | 2018-09-11 | 2019-01-15 | 郑州云海信息技术有限公司 | 一种基于ai云的gpu资源调度方法和装置 |
CN110688218A (zh) * | 2019-09-05 | 2020-01-14 | 广东浪潮大数据研究有限公司 | 资源调度方法及装置 |
CN110597635A (zh) * | 2019-09-12 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 图形处理资源分配方法、装置、计算机设备及存储介质 |
CN110796591A (zh) * | 2019-09-25 | 2020-02-14 | 广东浪潮大数据研究有限公司 | 一种gpu卡的使用方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111736992A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110780914B (zh) | 服务发布方法及装置 | |
CN110515704B (zh) | 基于Kubernetes系统的资源调度方法及装置 | |
US9250886B2 (en) | Optimizing provisioning workflows in cloud computing | |
JP2007531130A5 (zh) | ||
CN105900064A (zh) | 调度数据流任务的方法和装置 | |
CN109117252B (zh) | 基于容器的任务处理的方法、系统及容器集群管理系统 | |
US11256547B2 (en) | Efficient allocation of cloud computing resources to job requests | |
CN109710416B (zh) | 资源调度方法及装置 | |
CN111984385A (zh) | 基于装饰bim模型的任务调度方法和任务调度装置 | |
CN110704283A (zh) | 一种统一生成告警信息的方法、装置和介质 | |
CN103677983B (zh) | 应用的调度方法及装置 | |
CN103488538B (zh) | 云计算系统中的应用扩展装置和应用扩展方法 | |
CN115134371A (zh) | 包含边缘网络算力资源的调度方法、系统、设备及介质 | |
CN109960579B (zh) | 一种调整业务容器的方法及装置 | |
CN113986534A (zh) | 任务调度方法、装置、计算机设备和计算机可读存储介质 | |
CN113051054A (zh) | 调度人工智能平台资源的方法、设备和计算机可读存储介质 | |
CN109032769B (zh) | 一种基于容器的持续集成ci任务处理方法及装置 | |
CN113626173B (zh) | 调度方法、装置及存储介质 | |
CN111736992B (zh) | 机器学习平台的gpu资源的管理方法及装置 | |
CN111597056A (zh) | 一种分布式调度方法、系统、存储介质和设备 | |
CN111158889A (zh) | 一种批量任务处理方法及系统 | |
Benoit et al. | Scheduling skeleton-based grid applications using PEPA and NWS | |
CN109684051A (zh) | 一种混合式大数据任务异步提交的方法和系统 | |
CN113961338A (zh) | 一种动态线程池的管理系统、管理方法及线程任务处理方法 | |
Sui et al. | On the distributed orchestration of stochastic discrete event simulations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |