CN112860396A - 一种基于分布式深度学习的gpu调度方法及系统 - Google Patents
一种基于分布式深度学习的gpu调度方法及系统 Download PDFInfo
- Publication number
- CN112860396A CN112860396A CN202110119238.6A CN202110119238A CN112860396A CN 112860396 A CN112860396 A CN 112860396A CN 202110119238 A CN202110119238 A CN 202110119238A CN 112860396 A CN112860396 A CN 112860396A
- Authority
- CN
- China
- Prior art keywords
- task
- node
- scheduling
- tasks
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000013135 deep learning Methods 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 title description 13
- 238000012360 testing method Methods 0.000 abstract description 6
- 238000012549 training Methods 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5021—Priority
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Multi Processors (AREA)
Abstract
本发明涉及计算机技术领域,尤其涉及一种基于分布式深度学习的GPU调度方法,包括:向调度中心创建任务,任务根据优先级被依次放入任务队列中,等待被调度;调度中心周期性地从任务队列中调取任务,并根据任务所需的GPU资源,向节点选择器查询空闲的工作节点;节点选择器在复数个工作节点中查询到空闲的工作节点后,将空闲的工作节点的节点信息反馈给调度中心;调度中心将任务与节点信息组成一个综合任务信息放入任务池中;各个节点对任务池进行实时监测,当工作节点监测到任务池中存在可执行任务时,调取对应的综合任务信息以执行。有益效果:提升GPU的使用率并对任务进行有效管理,提高了深度学习的训练和测试效率。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于分布式深度学习的GPU调度方法及系统。
背景技术
随着计算机技术的快速发展,深度学习已经被广泛地运用于信息搜索、数据挖掘、图像识别、语音处理、自然语言、推理、决策等各方面实际场景中。深度学习是学习样本数据的内在规律和表示层次,在多层神经网络上运用各种机器学习算法解决图像、文本等各种问题的算法集合,其最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
当前深度学习所面临的问题除了数据处理、算法网络外,还需要对大量的数据进行训练与测试,因此需要足够的GPU(Graphics Processing Unit,图形处理器)算力来支撑,通常一台计算机不足以执行深度学习的任务,因此需要采用多台计算机组成的分布式系统,将任务拆分给多个GPU来进行处理,由多台计算机分别计算,再上传运算结果后,将结果统一合并得出数据结论的科学。在一个分布式系统中,一组独立的计算机展现给用户的是一个统一的整体,系统拥有多种通用的物理和逻辑资源,可以动态的分配任务,分散的物理和逻辑资源通过计算机网络实现信息交换。因此,如何协调分配任务是实现GPU调度的核心问题。
发明内容
本发明的其他特征和优点将在随后的说明书中阐述,并且部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书、权利要求书以及其他说明书附图中所特别指出的结构来实现和获得。
本发明的目的在于克服上述不足,提供一种基于分布式深度学习的GPU调度方法及系统。
为实现上述目的,本发明的技术解决方案是:本发明包括一种基于分布式深度学习的GPU调度方法,包括以下步骤:
步骤S1,向调度中心创建任务,所述任务根据优先级被依次放入任务队列中,等待被调度;
步骤S2,所述调度中心周期性地从所述任务队列中调取所述任务,并根据所述任务所需的GPU资源,向节点选择器查询空闲的工作节点;
步骤S3,所述节点选择器在复数个所述工作节点中查询到空闲的所述工作节点后,将空闲的所述工作节点的节点信息反馈给所述调度中心;
步骤S4,所述调度中心将所述任务与所述节点信息组成一个综合任务信息放入任务池中;
步骤S5,各个所述节点对所述任务池进行实时监测,当所述工作节点监测到所述任务池中存在可执行任务时,调取对应的所述综合任务信息以执行。
优选的,所述步骤S1包括:
步骤S101,创建所述任务;
步骤S102,将所述任务传送至所述调度中心;
步骤S103,所述调度中心判断所述任务的优先级;
步骤S104,依照所述优先级将所述任务放入所述任务队列中。
优选的,所述步骤S3包括:
步骤S301,所述节点选择器在复数个所述工作节点中查询是否存在空闲的所述工作节点:
若是,则转向步骤S302;
若否,则返回所述步骤S301;
步骤S302,所述节点选择器查询当前所述工作节点的负载,判断所述工作节点是否能够执行所述调度中心当前分配的所述任务:
若是,则转向步骤S303;
若否,则返回所述步骤S301;
步骤S303,所述节点选择器将当前选择的所述工作节点的所述节点信息反馈给所述调度中心。
优选的,于所述步骤S5中,所述工作节点在调取所述综合任务信息后,通知所述调度中心当前已有任务执行,确保下次任务调度时不会将任务分配到同一所述工作节点上。
优选的,于所述步骤S5中,所述工作节点在执行任务完毕后主动将执行结果反馈给所述调度中心,同时向所述节点选择器反馈当前节点资源已释放。
优选的,在进行所述步骤S1之前,所述调度中心启动时主动向一服务注册集群注册服务地址以及服务信息,复数个所述工作节点启动时先向所述服务注册集群查询所述调度中心的所述服务地址以及所述服务信息,以发现所述调度中心并连接,同时向所述调度中心注册所述工作节点自身的所述节点信息。
本发明还包括一种基于分布式深度学习的GPU调度系统,包括:
任务创建单元,用于创建任务;
调度中心,连接所述任务创建单元,将所述任务按照优先级依次放入任务队列中,并周期性地从所述任务队列中调取所述任务;
节点选择单元,分别连接所述调度中心以及复数个工作节点,用于根据所述任务所需的GPU资源,查询空闲的所述工作节点,并将空闲的所述工作节点的节点信息反馈给所述调度中心;
所述调度中心将所述任务与所述节点信息组成一个综合任务信息放入任务池中,各个所述节点对所述任务池进行实时监测,当所述工作节点监测到所述任务池中存在可执行任务时,调取对应的所述综合任务信息以执行。
通过采用上述的技术方案,本发明的有益效果是:提升了GPU的使用率并对任务进行有效管理,本发明的GPU调度系统通过将GPU容器化,把多个可以进行GPU运算的工作节点组成GPU运算池,通过分布式调度系统按需分配GPU任务到每个工作节点中执行,同时支持多任务并行处理、调度和管理,提高深度学习的训练和测试效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
无疑的,本发明的此类目的与其他目的在下文以多种附图与绘图来描述的较佳实施例细节说明后将变为更加显见。
为让本发明的上述和其他目的、特征和优点能更明显易懂,下文特举一个或数个较佳实施例,并配合所示附图,作详细说明如下。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。
在附图中,相同的部件使用相同的附图标记,并且附图是示意性的,并不一定按照实际的比例绘制。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一个或数个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据此类附图获得其他的附图。
图1为本发明实施例中的GPU调度方法的步骤图;
图2为本发明实施例中的GPU调度方法的原理流程图;
图3为本发明实施例中调度中心与工作节点的注册流程图;
图4为本发明实施例中调度中心与工作节点的工作原理示意图;
图5为本发明实施例中的GPU调度系统的原理框图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程能充分理解并据以实施。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
同时,在以下说明中,处于解释的目的而阐述了许多具体细节,以提供对本发明实施例的彻底理解。然而,对本领域的技术人员来说显而易见的是,本发明可以不用这里的具体细节或者所描述的特定方式来实施。
本发明包括一种基于分布式深度学习的GPU调度方法,如图1所示,包括以下步骤:
步骤S1,向调度中心创建任务,任务根据优先级被依次放入任务队列中,等待被调度;
步骤S2,调度中心周期性地从任务队列中调取任务,并根据任务所需的GPU资源,向节点选择器查询空闲的工作节点;
步骤S3,节点选择器在复数个工作节点中查询到空闲的工作节点后,将空闲的工作节点的节点信息反馈给调度中心;
步骤S4,调度中心将任务与节点信息组成一个综合任务信息放入任务池中;
步骤S5,各个节点对任务池进行实时监测,当工作节点监测到任务池中存在可执行任务时,调取对应的综合任务信息以执行。
具体地,本发明的调度方法适用于分布式深度学习,即将任务分配给多个工作节点进行处理,将GPU容器化,把多个可以进行GPU运算的工作节点组成GPU运算池,通过分布式调度系统按需分配GPU任务到每个工作节点中执行,同时支持多任务并行处理、调度和管理,提高深度学习的训练和测试效率。容器是轻量级的操作系统级虚拟化,可以在一个资源隔离的进程中运行应用及其依赖项。运行应用程序所必需的组件都将打包成一个镜像并可以复用,执行镜像时,其运行在一个隔离环境中,并且不会共享宿主机的内存、CPU以及磁盘,这就保证了容器内进程不能监控容器外的任何进程。由于容器技术能够对应用及其整个运行时环境一起进行打包或隔离,因此可以在不同环境(如开发、测试和生产等环境)之间迁移应用,同时还可保留应用的全部功能。容器也是保障IT安全的一个重要组成部分,将安全性内置于容器管道,可以为基础架构增添防护,从而保障容器的可靠性、可扩展性和信赖度。
在一种较优的实施例中,如图2所示,步骤S1包括:
步骤S101,创建任务;
步骤S102,将任务传送至调度中心;
步骤S103,调度中心判断任务的优先级;
步骤S104,依照优先级将任务放入任务队列中。
在一种较优的实施例中,如图2所示,步骤S3包括:
步骤S301,节点选择器在复数个工作节点中查询是否存在空闲的工作节点:
若是,则转向步骤S302;
若否,则返回步骤S301;
步骤S302,节点选择器查询当前工作节点的负载,判断工作节点是否能够执行调度中心当前分配的任务:
若是,则转向步骤S303;
若否,则返回步骤S301;
步骤S303,节点选择器将当前选择的工作节点的节点信息反馈给调度中心。
作为优选的实施方式,如图2所示,于步骤S5中,工作节点在调取综合任务信息后,通知调度中心当前已有任务执行,确保下次任务调度时不会将任务分配到同一工作节点上。
作为优选的实施方式,如图2所示,于步骤S5中,工作节点在执行任务完毕后主动将执行结果反馈给调度中心,同时向节点选择器反馈当前节点资源已释放。
在一种较优的实施例中,如图3所示,在进行步骤S1之前,调度中心启动时主动向一服务注册集群注册服务地址以及服务信息,复数个工作节点启动时先向服务注册集群查询调度中心的服务地址以及服务信息,以发现调度中心并连接,同时向调度中心注册工作节点自身的节点信息。
具体地,当复数个工作节点向调度中心注册成功后,每个工作节点开始定期向调度中心上报自己当前的资源负载,包括CPU、内存、IO、GPU的使用情况等信息;此外,工作节点会监控任务池中是否有需要执行的任务,在任务池中存在自己可执行的任务时,及时调取对应的综合任务信息以执行,从而使得各个工作节点高效地配合,提升GPU的使用率。
具体地,如图4所示,调度中心对工作节点和任务进行统一调度与管理,主要功能点包括节点资源负载监控、调度中心工作节点管理、调度中心任务管理和调度。
本发明还提供一种基于分布式深度学习的GPU调度系统,如图5所示,包括:
任务创建单元1,用于创建任务;
调度中心2,连接任务创建单元1,将任务按照优先级依次放入任务队列中,并周期性地从任务队列中调取任务;
节点选择单元3,分别连接调度中心2以及复数个工作节点4,用于根据任务所需的GPU资源,查询空闲的工作节点,并将空闲的工作节点的节点信息反馈给调度中心;
调度中心2将任务与节点信息组成一个综合任务信息放入任务池5中,各个节点对任务池进行实时监测,当工作节点监测到任务池中存在可执行任务时,调取对应的综合任务信息以执行。
具体地,本发明的调度方法适用于分布式深度学习,即将任务分配给多个工作节点进行处理,工作节点在调取综合任务信息后,通知调度中心当前已有任务执行,确保下次任务调度时不会将任务分配到同一工作节点上。工作节点在执行任务完毕后主动将执行结果反馈给调度中心,同时向节点选择器反馈当前节点资源已释放。
本发明实施例的有益效果在于:提升GPU的使用率并对任务进行有效管理,本发明的GPU调度系统通过将GPU容器化,把多个可以进行GPU运算的工作节点组成GPU运算池,通过分布式调度系统按需分配GPU任务到每个工作节点中执行,同时支持多任务并行处理、调度和管理,提高深度学习的训练和测试效率。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定处理步骤或材料,而应当延伸到相关领域的普通技术人员所理解的此类特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“实施例”意指结合实施例描述的特定特征、或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语或“实施例”并不一定均指同一个实施例。
需说明,在上文的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受上面公开的具体实施例的限制。
Claims (7)
1.一种基于分布式深度学习的GPU调度方法,其特征在于,包括以下步骤:
步骤S1,向调度中心创建任务,所述任务根据优先级被依次放入任务队列中,等待被调度;
步骤S2,所述调度中心周期性地从所述任务队列中调取所述任务,并根据所述任务所需的GPU资源,向节点选择器查询空闲的工作节点;
步骤S3,所述节点选择器在复数个所述工作节点中查询到空闲的所述工作节点后,将空闲的所述工作节点的节点信息反馈给所述调度中心;
步骤S4,所述调度中心将所述任务与所述节点信息组成一个综合任务信息放入任务池中;
步骤S5,各个所述节点对所述任务池进行实时监测,当所述工作节点监测到所述任务池中存在可执行任务时,调取对应的所述综合任务信息以执行。
2.根据权利要求1所述的GPU调度方法,其特征在于,所述步骤S1包括:
步骤S101,创建所述任务;
步骤S102,将所述任务传送至所述调度中心;
步骤S103,所述调度中心判断所述任务的优先级;
步骤S104,依照所述优先级将所述任务放入所述任务队列中。
3.根据权利要求1所述的GPU调度方法,其特征在于,所述步骤S3包括:
步骤S301,所述节点选择器在复数个所述工作节点中查询是否存在空闲的所述工作节点:
若是,则转向步骤S302;
若否,则返回所述步骤S301;
步骤S302,所述节点选择器查询当前所述工作节点的负载,判断所述工作节点是否能够执行所述调度中心当前分配的所述任务:
若是,则转向步骤S303;
若否,则返回所述步骤S301;
步骤S303,所述节点选择器将当前选择的所述工作节点的所述节点信息反馈给所述调度中心。
4.据权利要求1所述的GPU调度方法,其特征在于,于所述步骤S5中,所述工作节点在调取所述综合任务信息后,通知所述调度中心当前已有任务执行,确保下次任务调度时不会将任务分配到同一所述工作节点上。
5.据权利要求1所述的GPU调度方法,其特征在于,于所述步骤S5中,所述工作节点在执行任务完毕后主动将执行结果反馈给所述调度中心,同时向所述节点选择器反馈当前节点资源已释放。
6.据权利要求1所述的GPU调度方法,其特征在于,在进行所述步骤S1之前,所述调度中心启动时主动向一服务注册集群注册服务地址以及服务信息,复数个所述工作节点启动时先向所述服务注册集群查询所述调度中心的所述服务地址以及所述服务信息,以发现所述调度中心并连接,同时向所述调度中心注册所述工作节点自身的所述节点信息。
7.一种基于分布式深度学习的GPU调度系统,其特征在于,包括:
任务创建单元,用于创建任务;
调度中心,连接所述任务创建单元,将所述任务按照优先级依次放入任务队列中,并周期性地从所述任务队列中调取所述任务;
节点选择单元,分别连接所述调度中心以及复数个工作节点,用于根据所述任务所需的GPU资源,查询空闲的所述工作节点,并将空闲的所述工作节点的节点信息反馈给所述调度中心;
所述调度中心将所述任务与所述节点信息组成一个综合任务信息放入任务池中,各个所述节点对所述任务池进行实时监测,当所述工作节点监测到所述任务池中存在可执行任务时,调取对应的所述综合任务信息以执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110119238.6A CN112860396B (zh) | 2021-01-28 | 2021-01-28 | 一种基于分布式深度学习的gpu调度方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110119238.6A CN112860396B (zh) | 2021-01-28 | 2021-01-28 | 一种基于分布式深度学习的gpu调度方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112860396A true CN112860396A (zh) | 2021-05-28 |
CN112860396B CN112860396B (zh) | 2024-07-05 |
Family
ID=75987722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110119238.6A Active CN112860396B (zh) | 2021-01-28 | 2021-01-28 | 一种基于分布式深度学习的gpu调度方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112860396B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113742064A (zh) * | 2021-08-06 | 2021-12-03 | 苏州浪潮智能科技有限公司 | 一种服务器集群的资源整理方法、系统、设备及介质 |
WO2024065826A1 (en) * | 2022-09-30 | 2024-04-04 | Intel Corporation | Accelerate deep learning with inter-iteration scheduling |
CN118210606A (zh) * | 2024-03-12 | 2024-06-18 | 中国地质调查局自然资源综合调查指挥中心 | 人工智能地质图建模的任务管理与资源调度方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657214A (zh) * | 2015-03-13 | 2015-05-27 | 华存数据信息技术有限公司 | 一种基于多队列和多优先级的大数据任务管理系统和方法 |
CN109144710A (zh) * | 2017-06-16 | 2019-01-04 | 中国移动通信有限公司研究院 | 资源调度方法、装置及计算机可读存储介质 |
CN110688218A (zh) * | 2019-09-05 | 2020-01-14 | 广东浪潮大数据研究有限公司 | 资源调度方法及装置 |
KR102163402B1 (ko) * | 2020-06-15 | 2020-10-08 | 주식회사 딥노이드 | 멀티 노드와 멀티 gpu를 이용한 분산 학습 시스템 및 방법 |
CN111930522A (zh) * | 2020-09-24 | 2020-11-13 | 常州微亿智造科技有限公司 | Gpu虚拟化和资源调度方法和装置 |
-
2021
- 2021-01-28 CN CN202110119238.6A patent/CN112860396B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657214A (zh) * | 2015-03-13 | 2015-05-27 | 华存数据信息技术有限公司 | 一种基于多队列和多优先级的大数据任务管理系统和方法 |
CN109144710A (zh) * | 2017-06-16 | 2019-01-04 | 中国移动通信有限公司研究院 | 资源调度方法、装置及计算机可读存储介质 |
CN110688218A (zh) * | 2019-09-05 | 2020-01-14 | 广东浪潮大数据研究有限公司 | 资源调度方法及装置 |
KR102163402B1 (ko) * | 2020-06-15 | 2020-10-08 | 주식회사 딥노이드 | 멀티 노드와 멀티 gpu를 이용한 분산 학습 시스템 및 방법 |
CN111930522A (zh) * | 2020-09-24 | 2020-11-13 | 常州微亿智造科技有限公司 | Gpu虚拟化和资源调度方法和装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113742064A (zh) * | 2021-08-06 | 2021-12-03 | 苏州浪潮智能科技有限公司 | 一种服务器集群的资源整理方法、系统、设备及介质 |
CN113742064B (zh) * | 2021-08-06 | 2023-08-04 | 苏州浪潮智能科技有限公司 | 一种服务器集群的资源整理方法、系统、设备及介质 |
WO2024065826A1 (en) * | 2022-09-30 | 2024-04-04 | Intel Corporation | Accelerate deep learning with inter-iteration scheduling |
CN118210606A (zh) * | 2024-03-12 | 2024-06-18 | 中国地质调查局自然资源综合调查指挥中心 | 人工智能地质图建模的任务管理与资源调度方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112860396B (zh) | 2024-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112860396B (zh) | 一种基于分布式深度学习的gpu调度方法及系统 | |
CN114741207B (zh) | 一种基于多维度组合并行的gpu资源调度方法和系统 | |
US11347546B2 (en) | Task scheduling method and device, and computer storage medium | |
WO2014142498A1 (ko) | 컴퓨팅 스케줄링 방법 및 시스템 | |
CN114356587B (zh) | 算力任务跨区域调度方法、系统及设备 | |
Maruf et al. | Extending resources for avoiding overloads of mixed‐criticality tasks in cyber‐physical systems | |
CN112395736A (zh) | 一种分布交互仿真系统的并行仿真作业调度方法 | |
CN115686805A (zh) | Gpu资源共享的方法和装置、调度gpu资源共享的方法和装置 | |
JP5030647B2 (ja) | 複数処理ノードを含むコンピュータ・システムでプログラムをロードする方法、該プログラムを含むコンピュータ可読媒体、及び、並列コンピュータ・システム | |
WO2022166480A1 (zh) | 任务调度方法、装置及系统 | |
Liu et al. | Task offloading with execution cost minimization in heterogeneous mobile cloud computing | |
Liu et al. | KubFBS: A fine‐grained and balance‐aware scheduling system for deep learning tasks based on kubernetes | |
US20100131740A1 (en) | Data processing system and data processing method | |
JP4820553B2 (ja) | ルールに基づいてデータの決定的なディスパッチを実行する方法、コンピュータプログラムおよびコンピューティングシステム | |
CN112416591B (zh) | 分布式的任务处理方法、装置、设备、存储介质和系统 | |
CN117093335A (zh) | 分布式存储系统的任务调度方法及装置 | |
Liu et al. | Improving resource utilization of a cloud-based testing platform for android applications | |
CN115525418A (zh) | 多内核多分组操作系统构建方法 | |
CN112711448A (zh) | 一种基于Agent技术的并行构件组装及性能优化方法 | |
CN113515356A (zh) | 一种轻量级分布式资源管理与任务调度器及方法 | |
CN114764371A (zh) | 任务调度方法及管理系统 | |
CN116149794B (zh) | 一种基于容器架构的云仿真方法 | |
CN114358269B (zh) | 神经网络处理组件及多神经网络处理方法 | |
CN111788555B (zh) | 数据处理装置和方法 | |
US20240160487A1 (en) | Flexible gpu resource scheduling method in large-scale container operation environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |