CN111736992A - 机器学习平台的gpu资源的管理方法及装置 - Google Patents

机器学习平台的gpu资源的管理方法及装置 Download PDF

Info

Publication number
CN111736992A
CN111736992A CN202010533979.4A CN202010533979A CN111736992A CN 111736992 A CN111736992 A CN 111736992A CN 202010533979 A CN202010533979 A CN 202010533979A CN 111736992 A CN111736992 A CN 111736992A
Authority
CN
China
Prior art keywords
user
gpu resources
container corresponding
machine learning
learning platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010533979.4A
Other languages
English (en)
Other versions
CN111736992B (zh
Inventor
丁平
杨春明
郭铸
王欣
梁磊
许超
李小平
张海鹏
毕斓馨
陈园园
谷方方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bank of China Ltd
Original Assignee
Bank of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of China Ltd filed Critical Bank of China Ltd
Priority to CN202010533979.4A priority Critical patent/CN111736992B/zh
Publication of CN111736992A publication Critical patent/CN111736992A/zh
Application granted granted Critical
Publication of CN111736992B publication Critical patent/CN111736992B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明提供了一种机器学习平台的GPU资源的管理方法及装置,该方法包括:获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。本发明可以对机器学习平台的GPU资源进行管理,避免闲置的GPU资源浪费。

Description

机器学习平台的GPU资源的管理方法及装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种机器学习平台的GPU资源的管理方法及装置。
背景技术
智能钛机器学习平台(Ti-One)作为一种机器学习平台,是为AI工程师打造的一站式机器学习服务平台,为用户提供从数据预处理、模型构建、模型训练、模型评估到模型服务的全流程开发及部署支持。Ti-One内置丰富的算法组件,支持多种算法框架,满足多种AI应用场景的需求。自动化建模(AutoML)的支持与拖拽式任务流设计让AI初学者也能轻松上手。
在腾讯TI-One平台中,用户申请Notebook(容器)开展机器学习模型训练。在实际的应用过程中,出现用户申请一个notebook后,对于申请的1个GPU资源采取独占的策略。即申请者在不使用GPU资源的情况下,只要用户启动Notebook,GPU资源会一直被独占,而不会共享给其他人进行使用,使得GPU资源无法充分发挥,闲置的GPU资源浪费大量的硬件计算资源;另外,在搭建GPU计算集群的过程中,被独占的闲置GPU资源占用GPU服务器,导致后续申请用户无法正常申请GPU计算资源。
发明内容
本发明实施例提出一种机器学习平台的GPU资源的管理方法,用以对机器学习平台的GPU资源进行管理,避免闲置的GPU资源浪费,该方法包括:
获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
本发明实施例提出一种机器学习平台的GPU资源的管理装置,用以对机器学习平台的GPU资源进行管理,避免闲置的GPU资源浪费,该装置包括:
用户获取模块,用于获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
查询模块,用于对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
处理模块,用于在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
本发明实施例还提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述机器学习平台的GPU资源的管理方法。
本发明实施例还提出了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述机器学习平台的GPU资源的管理方法的计算机程序。
在本发明实施例中,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。在上述过程中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中机器学习平台的GPU资源的管理方法的流程图;
图2为本发明实施例中机器学习平台的GPU资源的管理装置的示意图;
图3为本发明实施例中计算机设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
在本说明书的描述中,所使用的“包含”、“包括”、“具有”、“含有”等,均为开放性的用语,即意指包含但不限于。参考术语“一个实施例”、“一个具体实施例”、“一些实施例”、“例如”等的描述意指结合该实施例或示例描述的具体特征、结构或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。各实施例中涉及的步骤顺序用于示意性说明本申请的实施,其中的步骤顺序不作限定,可根据需要作适当调整。
图1为本发明实施例中机器学习平台的GPU资源的管理方法的流程图,如图1所示,该方法包括:
步骤101,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
步骤102,对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
步骤103,在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
在本发明实施例提出的方法中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
具体实施时,本发明实施例的原理是针对机器学习平台(主要是Ti-One)的部分用户在不使用GPU资源进行模型训练时,不主动释放GPU资源,导致其他用户一直处于排队且无法获取到GPU资源的情况,进行后台定期清理。
在步骤101中,可以通过机器学习平台的数据库获取到所有正在运行的应用程序及对应的用户,筛选要求可以是超出设定时长,即筛选出超出设定时长的运行的应用程序对应的用户。
在步骤102中,可以通过后台命令、探针等方式查询机器学习平台中该用户对应的容器中GPU资源的使用情况,在一实施例中,对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况,包括:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
在上述实施例中,由于用户进行模型训练是间断的,不定时的,因此要循环判断用户对应的容器中是否存在GPU资源,例如,第一设定时长为10分钟,第二设定时长为10s,第三设定时长为3分钟,即在10分钟内,每隔10s判断3分钟内该用户对应的容器中是否存在GPU资源,为了提高查询效率,只要第一次出现3分钟内存在GPU资源,则确定该用户对应的容器中GPU资源被使用,跳出判断,即不再进行后续判断查询,从而进行下一个容器的检测,这样可以提高效率。上述整个查询过程可以通过linux的crontab任务调度工具来实现。
在一实施例中,所述方法还包括:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
在上述实施例中,由于每个用户对应的GPU资源的管理互不影响,可以对所有用户对应的GPU资源的管理并行执行,从而进一步提高GPU资源管理的效率。
在一实施例中,所述方法还包括:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
在上述实施例中,相当于确定对暂停的GPU资源,或者称为闲置的GPU资源的有效处理,杀掉包含该GPU资源的容器notebook,从而释放了大量容器给新申请用户使用。另外,由于所有文件都是保存在CEPH上,所以杀掉容器不会丢失文件。
本发明实施例的方法适用于腾讯Ti-one平台以及各公有云平台中,可节省私有云平台的运营成本。
综上所述,在本发明实施例提出的方法中,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。在上述过程中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
本发明实施例还提出一种机器学习平台的GPU资源的管理装置,其原理与机器学习平台的GPU资源的管理方法类似,这里不再赘述,图2为本发明实施例中机器学习平台的GPU资源的管理装置的示意图,包括:
用户获取模块201,用于获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
查询模块202,用于对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
处理模块203,用于在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
在一实施例中,查询模块202具体用于:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
在一实施例中,所述装置还包括并行执行模块204,用于:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
在一实施例中,所述装置还包括容器查杀模块205,用于:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
综上所述,在本发明实施例提出的装置中,获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。在上述过程中,通过查询机器学习平台中该用户对应的容器中GPU资源的使用情况来获得未被使用的GPU资源,并暂停这些未被使用的GPU资源,从而有效避免了GPU资源的浪费。
本申请的实施例还提供一种计算机设备,图3为本发明实施例中计算机设备的示意图,该计算机设备能够实现上述实施例中的机器学习平台的GPU资源的管理方法中全部步骤,所述电子设备具体包括如下内容:
处理器(processor)301、存储器(memory)302、通信接口(CommunicationsInterface)303和总线304;
其中,所述处理器301、存储器302、通信接口303通过所述总线304完成相互间的通信;所述通信接口303用于实现服务器端设备、检测设备以及用户端设备等相关设备之间的信息传输;
所述处理器301用于调用所述存储器302中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的机器学习平台的GPU资源的管理方法中的全部步骤。
本申请的实施例还提供一种计算机可读存储介质,能够实现上述实施例中的机器学习平台的GPU资源的管理方法中全部步骤,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的机器学习平台的GPU资源的管理方法的全部步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种机器学习平台的GPU资源的管理方法,其特征在于,包括:
获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
2.如权利要求1所述的机器学习平台的GPU资源的管理方法,其特征在于,对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况,包括:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
3.如权利要求1所述的机器学习平台的GPU资源的管理方法,其特征在于,还包括:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
4.如权利要求1所述的机器学习平台的GPU资源的管理方法,其特征在于,还包括:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
5.一种机器学习平台的GPU资源的管理装置,其特征在于,包括:
用户获取模块,用于获取机器学习平台中运行的满足筛选要求的应用程序对应的用户;
查询模块,用于对每一用户,查询机器学习平台中该用户对应的容器中GPU资源的使用情况;
处理模块,用于在确定该用户对应的容器中GPU资源未被使用时,暂停该用户对应的容器中的GPU资源。
6.如权利要求5所述的机器学习平台的GPU资源的管理装置,其特征在于,查询模块具体用于:
对每一用户,在第一设定时长内,每隔第二设定时长判断第三设定时长内该用户对应的容器中是否存在GPU资源,若第一设定时长内首次查询到存在GPU资源时,确定该用户对应的容器中GPU资源被使用,跳出判断;若第一设定时长内均不存在GPU资源,确定该用户对应的容器中GPU资源未被使用。
7.如权利要求5所述的机器学习平台的GPU资源的管理装置,其特征在于,还包括并行执行模块,用于:
针对所有用户,并行执行以下步骤:
查询机器学习平台中用户对应的容器中GPU资源的使用情况;
在确定用户对应的容器中GPU资源未被使用时,暂停用户对应的容器中的GPU资源。
8.如权利要求5所述的机器学习平台的GPU资源的管理装置,其特征在于,还包括容器查杀模块,用于:
若用户对应的容器中的GPU资源暂停,杀掉该用户对应的容器。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4任一项所述方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至4任一项所述方法的计算机程序。
CN202010533979.4A 2020-06-12 2020-06-12 机器学习平台的gpu资源的管理方法及装置 Active CN111736992B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010533979.4A CN111736992B (zh) 2020-06-12 2020-06-12 机器学习平台的gpu资源的管理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010533979.4A CN111736992B (zh) 2020-06-12 2020-06-12 机器学习平台的gpu资源的管理方法及装置

Publications (2)

Publication Number Publication Date
CN111736992A true CN111736992A (zh) 2020-10-02
CN111736992B CN111736992B (zh) 2024-02-23

Family

ID=72648961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010533979.4A Active CN111736992B (zh) 2020-06-12 2020-06-12 机器学习平台的gpu资源的管理方法及装置

Country Status (1)

Country Link
CN (1) CN111736992B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528249A (zh) * 2015-12-06 2016-04-27 北京天云融创软件技术有限公司 一种多用户共享gpu资源的调度方法
CN109213600A (zh) * 2018-09-11 2019-01-15 郑州云海信息技术有限公司 一种基于ai云的gpu资源调度方法和装置
CN110597635A (zh) * 2019-09-12 2019-12-20 腾讯科技(深圳)有限公司 图形处理资源分配方法、装置、计算机设备及存储介质
CN110688218A (zh) * 2019-09-05 2020-01-14 广东浪潮大数据研究有限公司 资源调度方法及装置
CN110796591A (zh) * 2019-09-25 2020-02-14 广东浪潮大数据研究有限公司 一种gpu卡的使用方法及相关设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528249A (zh) * 2015-12-06 2016-04-27 北京天云融创软件技术有限公司 一种多用户共享gpu资源的调度方法
CN109213600A (zh) * 2018-09-11 2019-01-15 郑州云海信息技术有限公司 一种基于ai云的gpu资源调度方法和装置
CN110688218A (zh) * 2019-09-05 2020-01-14 广东浪潮大数据研究有限公司 资源调度方法及装置
CN110597635A (zh) * 2019-09-12 2019-12-20 腾讯科技(深圳)有限公司 图形处理资源分配方法、装置、计算机设备及存储介质
CN110796591A (zh) * 2019-09-25 2020-02-14 广东浪潮大数据研究有限公司 一种gpu卡的使用方法及相关设备

Also Published As

Publication number Publication date
CN111736992B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
Baruah Optimal utilization bounds for the fixed-priority scheduling of periodic task systems on identical multiprocessors
US9250886B2 (en) Optimizing provisioning workflows in cloud computing
US9367359B2 (en) Optimized resource management for map/reduce computing
JP2007531130A5 (zh)
CN109117252B (zh) 基于容器的任务处理的方法、系统及容器集群管理系统
CN110569252B (zh) 一种数据处理系统及方法
US11256547B2 (en) Efficient allocation of cloud computing resources to job requests
CN115134371A (zh) 包含边缘网络算力资源的调度方法、系统、设备及介质
CN109960579B (zh) 一种调整业务容器的方法及装置
CN112445615A (zh) 一种线程的调度系统、计算机设备和存储介质
CN103488538B (zh) 云计算系统中的应用扩展装置和应用扩展方法
Goutam et al. Preemptable priority based dynamic resource allocation in cloud computing with fault tolerance
CN113626173B (zh) 调度方法、装置及存储介质
Sonmez et al. On the benefit of processor coallocation in multicluster grid systems
Liu et al. Scheduling parallel jobs using migration and consolidation in the cloud
CN110868330B (zh) 云平台可划分cpu资源的评估方法、装置及评估系统
Hsiao et al. A usage-aware scheduler for improving MapReduce performance in heterogeneous environments
CN111736992B (zh) 机器学习平台的gpu资源的管理方法及装置
CN111158889A (zh) 一种批量任务处理方法及系统
CN113485828B (zh) 基于quartz的分布式任务调度系统及方法
CN112000657A (zh) 数据管理方法、装置、服务器及存储介质
Benoit et al. Scheduling skeleton-based grid applications using PEPA and NWS
CN113961338A (zh) 一种动态线程池的管理系统、管理方法及线程任务处理方法
Sui et al. On the distributed orchestration of stochastic discrete event simulations
CN110688207B (zh) 一种嵌入式任务调度方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant