CN114968559B - 基于lsf的多主机多gpu分布式布置深度学习模型的方法 - Google Patents
基于lsf的多主机多gpu分布式布置深度学习模型的方法 Download PDFInfo
- Publication number
- CN114968559B CN114968559B CN202210487185.8A CN202210487185A CN114968559B CN 114968559 B CN114968559 B CN 114968559B CN 202210487185 A CN202210487185 A CN 202210487185A CN 114968559 B CN114968559 B CN 114968559B
- Authority
- CN
- China
- Prior art keywords
- data
- lsf
- gpu
- deep learning
- host
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000013136 deep learning model Methods 0.000 title claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于LSF的多主机多GPU分布式布置深度学习模型的方法,属于计算机领域。该方法包括以下步骤:S1:资源申请及调度;S2:使用资源进行深度学习模型的训练。S1在LSF集群下完成,通过LSF的指令申请计算资源,然后在发送任务时使用blaunch指令,使作业得以发送到多台主机。计算资源包括:需要创建的作业总数,等于申请的GPU总数;单台主机的图形处理器GPU个数;每台主机上的作业数,不超过单台主机的GPU个数。在LSF集群下,实现了多主机多GPU分布式布置深度学习模型。这使得用户可以同时使用更多GPU处理同一训练任务。减少训练集数据较大时模型的训练时间。
Description
技术领域
本发明属于计算机领域,涉及基于LSF的多主机多GPU分布式布置深度学习模型的方法。
背景技术
近些年来,深度学习技术在图像和自然语言处理等方向发展迅速。为了使模型具有更高的精度和更强的泛化能力,在设计时模型结构往往更深更复杂,训练用的数据也更庞大。其中模型迭代时的前向传播与反向传播步骤伴随着大量计算,是典型的计算密集型任务。尽管硬件上GPU(Graphics Processing Unit-图形处理器)可以提供更强的算力,模型本身可以通过算法进行优化,加快收敛速度,但单机能提供的资源依旧无法满足大规模的训练任务。分布式计算通过将训练任务切分并使用多节点并行执行可以有效缓解了这一问题。
LSF(load sharing facility)是IBM旗下一个工业导向,商业级的软件。它强大的资源调度管理能力,使其能以更快的速度,更均衡的负载,更可靠的表现及更低的成本去分配多种IT资源执行分布式任务。对于深度学习训练任务,LSF能高效灵活地分配GPU资源,帮助创建,管理分布式计算环境,从而加快训练速度。但对于LSF环境下的作业,只有作业所在主机的GPU资源是对作业可见的。这使得训练任务依旧受限于单机的资源。虽然存在第三方库hovorod对LSF集群下的分布式深度学习训练任务有所适配,但仅适用于主机型号为IBMPower的集群,其他类型的集群则会因为环境中缺少变量“CSM_ALLOCATION_ID”而无法使用。
发明内容
有鉴于此,本发明的目的在于提供一种基于LSF的多主机多GPU分布式布置深度学习模型的方法。
为达到上述目的,本发明提供如下技术方案:
基于LSF的多主机多GPU分布式布置深度学习模型的方法,该方法包括以下步骤:
S1:资源申请及调度;
S2:使用资源进行深度学习模型的训练。
可选的,所述S1在LSF集群下完成,通过LSF的指令申请计算资源,然后在发送任务时使用blaunch指令,使作业得以发送到多台主机。
可选的,所述计算资源包括:
需要创建的作业总数,等于申请的GPU总数;
单台主机的图形处理器GPU个数;
每台主机上的作业数,不超过单台主机的GPU个数。
可选的,所述S2在程序内部实现,具体包括以下步骤:
S21:每个LSF作业独占一个进程和GPU,深度学习模型基于pytorch框架,每个作业从环境中读取'LSF_PM_TASKID'作为每个任务的进程rank;
S22:使用torch.distributed库初始化分布式进程组,参数包括进程rank,进程总数world_size,发现其他进程的地点和方式init_method,以及使用的后端通信方法backend;使用nccl作为通信后端;
S23:读取训练用数据集;数据集能够pytorch切分,通过设置num_replicas为world_size及rank为当前进程的rank,使每个进程获取相应的数据切片;num_replicas是数据切片方法的一个参数,用于指定切片的个数;
如果使用DistributedSampler进行数据切片,那么每个进程上训练的批的尺寸需除以进程总数;DistributedSampler是Dataloader方法的一个参数,用于指定用来读取数据的子进程的个数;
使用torch.utils.data.DataLoader进一步读取每个数据切片上数据;
其中num_workers设为大于1的数用于开启子进程加快数据读取速度,pin_memory设为True用于将数据直接读到进程所独占的GPU上,减少数据在传输时的耗时;pin_memory是Dataloader方法的一个参数,用于指定是否使用锁页内存的方式读取数据;
S24:构建模型并使用torch.nn.parallel.DistributedDataParallel包裹模型;
S25:训练模型;在参数更新前使用全局归约All reduce方法同步不同主机上不同进程的梯度;
基于数据并行,为每一块需要训练的数据切片分配一块GPU,并通过单独的一个进程进行控制;LSF系统将深度学习任务以作业的形式复制并发送到多台主机上,并为每一个任务单独开辟一个进程,不同进程内的任务彼此是并行的。
一种计算机系统,包括存储器、处理器及储存在存储器上并能够在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的方法。
一种计算机可读存储介质,其上储存有计算机程序,所述计算机程序被处理器执行时实现所述的方法。
本发明的有益效果在于:在LSF集群下,实现了多主机多GPU分布式布置深度学习模型。这使得用户可以同时使用更多GPU处理同一训练任务。减少训练集数据较大时模型的训练时间。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明流程图;
图2为实例中使用不同张数的GPU单次训练不同倍数的原始数据集的结果。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
如图1所示,本发明包含两部分:(1)资源申请及调度;(2)使用资源进行深度学习模型的训练。
第一部分在LSF集群下完成。
通过LSF的指令申请计算资源,包括:
(1)需要创建的作业总数,其值等于申请的GPU总数。
(2)单台主机的GPU个数;
(3)每台主机上的作业数,其值不能超过单台主机的GPU个数;
最后在发送任务时使用blaunch指令,使作业得以发送到多台主机
第二部分在程序内部实现;
首先每个LSF作业独占一个进程和GPU,深度学习模型基于pytorch框架。
第一步,每个作业从环境中读取'LSF_PM_TASKID'作为每个任务的rank
第二步,使用torch.distributed库初始化分布式进程组,参数包括rank,world_size,init_method,backend。Rank用来指代每一个进程,world_size是进程总数,init_method用于表明从何处及如何发现其他进程,backend用于指明使用的后端通信方法,该发明中使用nccl作为通信后端。NCCL是NVIDIA公司为GPU并行计算开发的通信后端。
第三步,读取训练用数据集。数据集可用pytorch中的torch.utils.data.distributed.DistributedSampler切分,通过设置num_replicas为world_size及rank为当前进程的rank,可以使每个进程获取相应的数据切片。如果使用DistributedSampler进行数据切片,那么每个进程上训练的批的尺寸需除以进程总数。使用torch.utils.data.DataLoader进一步读取每个数据切片上数据。其中num_workers设为大于1的数用于开启子进程加快数据读取速度,pin_memory设为True用于将数据直接读到进程所独占的GPU上,减少数据在传输时的耗时。
第四步,构建模型并使用torch.nn.parallel.DistributedDataParallel包裹模型。模型由使用者自行决定,自行构建。基于数据并行,对所有深度学习模型都适配。可以使用resnet50模型。
第五步,训练模型。在参数更新前使用All reduce方法同步不同主机上不同进程的梯度。
基于数据并行,为每一块需要训练的数据切片分配一块GPU,并通过单独的一个进程进行控制。LSF系统能将深度学习任务以作业的形式复制并发送到多台主机上,并为每一个任务单独开辟一个进程,不同进程内的任务彼此是并行的。通过模型内部算法的实现,可以做到每个进程独占一块GPU,数据的读取,模型的训练都在分配的GPU上进行。因为是直接将数据读取到GPU内部,可以减少CPU和GPU间通信的时间。另外,因为为每一个进程指定了发现其他进程的方法和与其他进程通信的方式,使得不同进程内的模型在前向传播与反向传播完成后,可以同步其他进程内模型的梯度。这使得分布式学习中用于同步梯度的多种All reduce方法得以实现。
实施例
基于8张GPU,两台主机,本实施例包括以下步骤。
步骤1,编写LSF作业提交指令。
BSUB-q HPC.S1.GPU.X785.sha
指定作业提交队列
#BSUB-n 8
设定使用的核心数为8。同时表明本次任务将开启8个任务,使用8张GPU。
#BSUB-gpu"num=4:mode=exclusive_process"
设定每台主机使用4张GPU,并且任务将独占分配的GPU。该语句将使得每台主机上环境变量CUDA_VISIBLE_DEVICES的值为‘0,1,2,3’,即有编号为0,1,2,3的GPU可供使用
#BSUB-R"span[ptile=4]affinity[core(4)]"
设定资源的申请方式。本施例中设定每台主机分配4个任务,并为每个任务分配4个核心。
#BSUB-o%J.out
#BSUB-e%J.err
指定输出文件和错误文件。
blaunch python resnet_v_6.py
作业提交语句。加入blaunch关键字,使作业能发送到多台主机上分布式计算。
步骤2,编写模型训练作业
深度学习模型基于pytorch框架实现
第一步,从环境中读取初始化分布式训练模型所需的参数。其中包括:
读取'LSF_PM_TASKID'的值并减1作为每个任务的rank
读取'LSB_MCPU_HOSTS',计算得到任务分配的主机总数,总的任务数。其中,总的任务数即总的GPU张数,作为world_size。
第二步,使用torch.distributed库初始化分布式进程组,参数包括rank,world_size,init_method,backend。init_method用于表明从何处及如何发现其他进程,该施例中使用本地共享文件方法:'file://///sharedfile'。backend用于指明使用的后端通信方法,该施例使用nccl作为通信后端。
第三步,读取训练用数据集。该施例使用FashionMNIST(包括训练集50000张图片和测试集10000张图片,图片尺寸为1*28*28)。首先使用torch.utils.data.distributed.DistributedSampler对数据进行切分,使不同进程上的任务使用相应rank的数据切片进行训练。通过设置DistributedSampler的参数num_replicas和rank分别为进程内world_size和rank的值即可。之后计算每个训练任务的批尺寸,其值为原定批尺寸除以总的任务数。最后,使用torch.utils.data.DataLoader进一步读取每个数据切片上数据。其中num_workers设为大于2的数用于开启两个子进程同时读取数据,加快数据读取速度,pin_memory设为True用于将数据直接读到进程所独占的GPU上,减少后续数据在传输和拷贝时的耗时。
第四步,构建模型。该施例中使用resnet50作为训练模型,交叉熵计算loss,两者通过.cuda(non_blocking=True)方法将模型读取到GPU上。Optimizer使用SGD方式,学习率设为0.01,动量为0.5。
第五步,训练模型。包括读取数据到GPU,前向传播,反向传播,使用All reduce同步不同进程间梯度和参数更新。
从图2可以看出,使用多倍的原始数据集是为了在不改变总的批数的同时增加单批的计算量以反映计算与通信对训练时间的影响。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的一种基于LSF的多主机多GPU分布式布置深度学习模型的方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.基于LSF的多主机多GPU分布式布置深度学习模型的方法,其特征在于:该方法包括以下步骤:
S1:资源申请及调度;
S2:使用资源进行深度学习模型的训练;
所述S1在LSF集群下完成,通过LSF的指令申请计算资源,然后在发送任务时使用blaunch指令,使作业得以发送到多台主机;
所述S2在程序内部实现,具体包括以下步骤:
S21:每个LSF作业独占一个进程和GPU,深度学习模型基于pytorch框架,每个作业从环境中读取'LSF_PM_TASKID'作为每个任务的进程rank;
S22:使用torch.distributed库初始化分布式进程组,参数包括进程rank,进程总数world_size,发现其他进程的地点和方式init_method,以及使用的后端通信方法backend;使用nccl作为通信后端;
S23:读取训练用数据集;数据集能够pytorch切分,通过设置num_replicas为world_size及rank为当前进程的rank,使每个进程获取相应的数据切片;num_replicas是数据切片方法的一个参数,用于指定切片的个数;
如果使用DistributedSampler进行数据切片,那么每个进程上训练的批的尺寸需除以进程总数;DistributedSampler是Dataloader方法的一个参数,用于指定用来读取数据的子进程的个数;
使用torch.utils.data.DataLoader进一步读取每个数据切片上数据;
其中num_workers设为大于1的数用于开启子进程加快数据读取速度,pin_memory设为True用于将数据直接读到进程所独占的GPU上,减少数据在传输时的耗时;pin_memory是Dataloader方法的一个参数,用于指定是否使用锁页内存的方式读取数据;
S24:构建模型并使用torch.nn.parallel.DistributedDataParallel包裹模型;
S25:训练模型;在参数更新前使用全局归约All reduce方法同步不同主机上不同进程的梯度;
基于数据并行,为每一块需要训练的数据切片分配一块GPU,并通过单独的一个进程进行控制;LSF系统将深度学习任务以作业的形式复制并发送到多台主机上,并为每一个任务单独开辟一个进程,不同进程内的任务彼此是并行的。
2.根据权利要求1所述的基于LSF的多主机多GPU分布式布置深度学习模型的方法,其特征在于:所述计算资源包括:
需要创建的作业总数,等于申请的GPU总数;
单台主机的图形处理器GPU个数;
每台主机上的作业数,不超过单台主机的GPU个数。
3.一种计算机系统,包括存储器、处理器及储存在存储器上并能够在处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1-2任一项所述的方法。
4.一种计算机可读存储介质,其上储存有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-2任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210487185.8A CN114968559B (zh) | 2022-05-06 | 2022-05-06 | 基于lsf的多主机多gpu分布式布置深度学习模型的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210487185.8A CN114968559B (zh) | 2022-05-06 | 2022-05-06 | 基于lsf的多主机多gpu分布式布置深度学习模型的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114968559A CN114968559A (zh) | 2022-08-30 |
CN114968559B true CN114968559B (zh) | 2023-12-01 |
Family
ID=82981079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210487185.8A Active CN114968559B (zh) | 2022-05-06 | 2022-05-06 | 基于lsf的多主机多gpu分布式布置深度学习模型的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114968559B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115794387A (zh) * | 2022-11-14 | 2023-03-14 | 苏州国科综合数据中心有限公司 | 基于LSF的单主机多GPU分布式pytorch并行计算方法 |
CN116048820B (zh) * | 2023-03-31 | 2023-06-06 | 南京大学 | 面向边缘云的dnn推断模型部署能耗优化方法和系统 |
CN117806833B (zh) * | 2024-02-28 | 2024-04-30 | 苏州元脑智能科技有限公司 | 一种数据处理系统、方法及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104615487A (zh) * | 2015-01-12 | 2015-05-13 | 中国科学院计算机网络信息中心 | 并行任务优化系统和方法 |
CN109034386A (zh) * | 2018-06-26 | 2018-12-18 | 中国科学院计算机网络信息中心 | 一种基于资源调度器的深度学习系统及其方法 |
CN112035238A (zh) * | 2020-09-11 | 2020-12-04 | 曙光信息产业(北京)有限公司 | 任务调度处理方法、装置、集群系统及可读存储介质 |
CN114067917A (zh) * | 2021-11-16 | 2022-02-18 | 苏州国科综合数据中心有限公司 | 基于调优参数的gatk超级计算机系统 |
-
2022
- 2022-05-06 CN CN202210487185.8A patent/CN114968559B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104615487A (zh) * | 2015-01-12 | 2015-05-13 | 中国科学院计算机网络信息中心 | 并行任务优化系统和方法 |
CN109034386A (zh) * | 2018-06-26 | 2018-12-18 | 中国科学院计算机网络信息中心 | 一种基于资源调度器的深度学习系统及其方法 |
CN112035238A (zh) * | 2020-09-11 | 2020-12-04 | 曙光信息产业(北京)有限公司 | 任务调度处理方法、装置、集群系统及可读存储介质 |
CN114067917A (zh) * | 2021-11-16 | 2022-02-18 | 苏州国科综合数据中心有限公司 | 基于调优参数的gatk超级计算机系统 |
Non-Patent Citations (1)
Title |
---|
MARBLE: A Multi-GPU Aware Job Scheduler for Deep Learning on HPC Systems;Jingoo Han等;《2020 20th IEEE/ACM International Symposium on Cluster, Cloud and Internet Computing (CCGRID)》;摘要 * |
Also Published As
Publication number | Publication date |
---|---|
CN114968559A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114968559B (zh) | 基于lsf的多主机多gpu分布式布置深度学习模型的方法 | |
JP2022137193A (ja) | 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
US20140176588A1 (en) | Technique for storing shared vertices | |
JP7454529B2 (ja) | 分散型モデルトレーニング装置および方法、電子機器、記憶媒体、ならびに、コンピュータプログラム | |
US9418616B2 (en) | Technique for storing shared vertices | |
US20230120253A1 (en) | Method and apparatus for generating virtual character, electronic device and readable storage medium | |
US9645802B2 (en) | Technique for grouping instructions into independent strands | |
US11275561B2 (en) | Mixed precision floating-point multiply-add operation | |
CN114730275A (zh) | 使用张量在分布式计算系统中进行矢量化资源调度的方法和装置 | |
CN103871019A (zh) | 优化三角形拓扑用于路径渲染 | |
CN114356578B (zh) | 自然语言处理模型的并行计算方法、装置、设备及介质 | |
KR102662672B1 (ko) | 3d 객체의 다각형 메쉬들을 생성하기 위한 자동 회귀 신경망 | |
CN111445003A (zh) | 神经网络生成器 | |
CN111966361A (zh) | 用于确定待部署模型的方法、装置、设备及其存储介质 | |
US11609899B2 (en) | Concurrent hash map updates | |
CN114840322A (zh) | 任务调度方法及装置、电子设备和存储 | |
CN112631775A (zh) | 模型训练方法、装置、电子设备和计算机可读存储介质 | |
US10467046B2 (en) | Fast and greedy scheduling machine based on a distance matrix | |
CN116542178A (zh) | 定常流动数值模拟方法、装置、设备及介质 | |
EP3770863B1 (en) | Multiplex pixel distribution for multi-machine rendering | |
US11809902B2 (en) | Fine-grained conditional dispatching | |
CN115292044A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
US20220121465A1 (en) | Reduction Server for Fast Distributed Training | |
EP3989059B1 (en) | Interactive code optimizer | |
CN115794387A (zh) | 基于LSF的单主机多GPU分布式pytorch并行计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |