CN116501502B - 一种基于Pytorch框架的数据并行优化方法 - Google Patents
一种基于Pytorch框架的数据并行优化方法 Download PDFInfo
- Publication number
- CN116501502B CN116501502B CN202310750946.9A CN202310750946A CN116501502B CN 116501502 B CN116501502 B CN 116501502B CN 202310750946 A CN202310750946 A CN 202310750946A CN 116501502 B CN116501502 B CN 116501502B
- Authority
- CN
- China
- Prior art keywords
- training
- round
- batch size
- node
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于Pytorch框架的数据并行优化方法,属于计算机技术领域,具体为:加载模型阶段;按照前一轮训练后各节点之间的性能比例,将对应份的数据划分并加载至对应节点中;各节点将加载的数据按照当前轮批大小,对待训练模型进行当前轮训练;第一轮训练中的批大小为总批大小与节点数的比值,第二轮训练中的批大小根据第一轮训练后的性能比例分配总批大小,第三轮及之后的训练中根据前一轮训练所占用的时间计算时间波动率,若大于波动率阀值,根据第一轮训练后的性能比例分配总批大小;否则,采用前一轮训练的批大小。本发明可及时应对集群性能波动,同时避免由于节点性能微小波动而频繁调整批大小,进而带来的额外性能损耗。
Description
技术领域
本发明属于计算机技术领域,具体涉及一种基于Pytorch框架的数据并行优化方法。
背景技术
随着人工智能的快速发展,深度学习模型参数和训练数据越来越大。模型参数规模逐步提升至千亿、万亿,同时用于训练的数据量级也显著提升。虽然对数据进行训练会提高模型的能力,但训练数据、模型参数的增多也会导致训练速度的降低,因此需要对数据并行方向进行研究以减少分布式训练时间。
PyTorch(一个开源的Python机器学习库)是深度学习研究和应用中常使用的训练框架。其中,PyTorch将值转换成张量,张量是具有丰富数据操作集的通用n维数组;模块定义了从输入到输出的转换,其正向传递期间的行为由前向传播函数指定;模块可以包含张量作为参数。例如,线性模块包含权重参数和偏差参数,其前向传播函数通过将输入乘以权重并添加偏差来生成输出。
PyTorch中提供了一个数据并行(Distributed Data Paralle, DDP)框架,以实现在多个进程或节点之间的数据并行训练。在训练过程中,每个节点的模型和优化器都是独立的,DDP通过确保所有模型的副本从完全相同的状态开始,来保证正确性,并在每个反向传递后拥有相同的参数。因此,即使来自不同节点的优化器都是相互独立的,但可通过在每次迭代结束前将不同节点的梯度进行同步,再更新本地模型参数,使得每个节点在每次迭代训练后的模型都能保持一致。
目前业界已有提出对于DDP的优化方法,例如,“DLB: A dynamic load balancestrategy for distributed training of deep neural networks[J]. IEEETransactions on Emerging Topics in Computational Intelligence, 2022,1-11(《深度神经网络分布式训练的动态负载平衡策略》,《IEEE计算智能新兴课题汇刊》)”公开了一种DLB策略,即基于动态负载平衡策略进行深度学习的分布式训练方法,用于解决梯度同步等待问题。具体来说,首先根据各节点在上一次的训练耗时来评估该节点的性能,然后根据节点的当前性能自适应调整批大小和数据集大小,以减少节点之间的等待时间,从而提高集群利用率。
但DLB策略存在以下问题:
(1)在每个epoch结束时才为下一次epoch训练调整批大小,而对于epoch耗时长的训练任务可能不能及时调整。如训练一个epoch耗时1小时,如果在这1小时因为其他用户使用集群资源,造成性能波动,则不能及时的调整批大小。
(2)DLB算法仅根据节点性能划分批大小,并没有考虑该节点显存大小,机器性能好的节点可能被分配到过大训练批大小,导致显存溢出造成程序终止。
(3)在每训练完一次epoch就重新划分批大小,当集群性能只是微小波动时也频繁调整训练数据批大小,会带来额外性能损耗。
发明内容
为了解决上述现有技术中存在的技术问题,本发明提供了一种基于Pytorch框架的数据并行优化方法,通过更细粒度的动态调整批大小和数据集分区,可对集群性能波动做出及时调整,避免显存溢出问题,以及由机器性能微小波动带来的额外性能损耗。
本发明的技术方案如下:
一种基于Pytorch框架的数据并行优化方法,包括以下步骤:
步骤1、加载模型阶段:
将基于Pytorch框架编写的待训练模型加载至J个节点中,使各节点均拥有待训练模型副本,J个节点的初始性能相同;并设置训练参数,包括:初始数据集的等分数量N,总批大小b,波动率阀值T,显存阈值S,以及显存调整步进P;
步骤2、加载数据阶段:
在对待训练模型进行当前轮训练前,按照前一轮训练后J个节点之间的性能比例,将对应份的数据不重复地划分为J个数据集分区,并行加载至对应节点中;其中,各节点的性能高低与被划分的数据量正相关;对第一轮训练,按照J个节点之间的初始性能比例,将对应份的数据不重复地划分为J个数据集分区;
步骤3、各节点将加载的数据按照当前轮的批大小,对待训练模型进行当前轮训练,包括前向传播阶段、损失计算阶段、反向传播阶段和模型参数更新阶段,获得各节点在当前轮训练过程中所占用的时间;
其中,在第一轮的训练过程中,以总批大小b与节点数J的比值为当前轮的批大小;
在第二轮的训练过程中,先计算各节点在第一轮训练后的性能,按照J个节点之间的性能比例,基于总批大小b重新分配当前轮训练所需的各节点的批大小;
在第三轮及之后的训练过程中,先根据各节点在前一轮训练过程中所占用的时间,计算前一轮的时间波动率,若大于波动率阀值T,则计算各节点在前一轮训练后的性能,再按照J个节点之间的性能比例,基于总批大小b重新分配当前轮训练所需的各节点的批大小,各节点的性能高低与被分配的批大小正相关;否则,将前一轮训练采用的批大小作为当前轮训练所需的批大小;
并且,在第二轮及之后的训练过程中,还包括对各节点所需显存大小的调节过程,具体为:根据Pytorch框架运行所需显存大小以及待训练模型在训练过程中所占用显存大小,计算各节点所需的显存大小,对显存大小大于显存阈值S的节点,将前一轮训练后与前两轮训练后之间的性能增加量减少P%,并将所减少的P%按照性能比例分配至其他节点,得到各节点在前一轮训练后的新性能,根据各节点之间的新性能比例,再次基于总批大小b重新分配当前轮训练所需的各节点的批大小;
重新进行对各节点所需显存大小的调节过程,直至各节点的显存大小不超过显存阈值S;
步骤4、重复执行步骤2~3,直至加载第N份数据,并完成第N轮训练。
进一步地,计算第i,i=2,3,…, N-1轮的时间波动率time_volatilityi的公式为:
;
其中,ti j,j=1,2,…, J为第j个节点在第i轮训练过程中所占用的时间;ti-1 j,j=1,2,…, J为第j个节点在第i-1轮训练过程中所占用的时间。
进一步地,计算第j个节点在第i,i=2,3,…, N-1轮训练后的性能pi j, j=1,2,…,J的公式为:
;
其中,bi j,j=1,2,…, J为第j个节点在第i轮训练所采用的批大小。
进一步地,基于总批大小b重新分配第i+1,i=2,3,…, N-1轮训练所需的第j个节点的批大小bi+1 j的计算公式为:
。
进一步地,步骤2中若按照前一轮训练后J个节点之间的性能比例划分的J个数据集分区的数据量非整数,则对各数据集分区的数据量向下取整,将剩余未被划分的数据丢弃。
进一步地,步骤3还包括对bi+1 j进行整数化处理的过程,具体为:
先对bi+1 j向上取整,得到所有向上取整后的bi+1 j总和,与总批大小b相差d,将各节点的性能pi j升序排列;对前d个节点,在对应向上取整后的批大小基础上减1,作为整数化后的第i+1轮训练所需的批大小;对其他节点,将对应向上取整后的批大小作为整数化后的第i+1轮训练所需的批大小。
进一步地,步骤1中波动率阀值T的确定过程具体为:
在训练前,先对待训练模型运行预设的脚本,并在脚本执行期间以固定步进调整待确定波动率阀值,得到各待确定波动率阀值所对应的加速比,取最大加速比所对应的待确定波动率阀值作为波动率阀值T。
进一步地,步骤1中显存阈值S根据硬件显存大小确定,P的取值为20。
进一步地,J、N和b均为大于等于1的正整数。
与现有技术相比,本发明的有益效果如下:
1、本发明提出了一种基于Pytorch框架的数据并行优化方法,根据每轮训练后的时间波动情况,判断是否需要动态调整各节点下一轮训练所需的批大小,可更及时地应对集群性能波动,同时避免由于节点性能微小波动而频繁调整批大小,进而带来的额外性能损耗;
2、本发明在重新分配数据集分区和训练批大小后不直接进行训练,而是先判断训练需显存是否溢出,再进行训练,避免性能好的节点可能被分配到过大训练批大小,而导致显存溢出造成程序终止的问题。
附图说明
图1为本发明实施例1提出的基于Pytorch框架的数据并行优化方法的流程图。
具体实施方式
下面结合附图和实施例,详述本发明的技术方案。
实施例1
本实施例提出了一种基于Pytorch框架的图像数据并行优化方法,流程如图1所示,包括以下步骤:
步骤1、加载模型阶段:
服务节点将基于Pytorch框架编写的待训练模型加载至J个节点中,使各节点均拥有待训练模型副本,J个节点的初始性能相同;并设置训练参数,包括:初始图像数据集的等分数量N,总批大小b,波动率阀值T,显存阈值S,显存调整步进P;
其中,本实施例针对的待训练模型为图像识别模型;
步骤2、令i=1,此时J个节点的性能相同,第i轮训练时第j个节点的批大小bi j =b/J, j=1,2,…, J;
步骤3、加载数据阶段:
按照J个节点之间的性能比例,将第i份数据不重复地划分为J个数据集分区,并行加载至对应节点中;其中,各节点的性能高低与被划分的数据量正相关;若按性能比例划分的J个数据集分区的数据量非整数,则对各数据集分区的数据量向下取整,将剩余未被划分的数据丢弃;
步骤4、第j, j=1,2,…, J个节点将加载的数据按照批大小bi j,对待训练模型进行第i轮训练,包括前向传播阶段、损失计算阶段、反向传播阶段和模型参数更新阶段,获得第j个节点在第i轮训练过程中所占用的时间ti j, j=1,2,…, J;
其中,在反向传播阶段,待训练模型会生成与各节点对应的局部梯度,发送至服务节点,服务节点通过集合通信库的All-Reduce操作进行聚合,计算得到平均梯度;在模型参数更新阶段,服务节点再将所得平均梯度更新至各节点;
步骤5、判断i是否大于1,若是,则计算第i轮的时间波动率time_volatilityi:
(1);
转至步骤6;否则,转至步骤7;
步骤6、判断时间波动率time_volatilityi是否大于波动率阀值T,若是,则转至步骤7;否则,第i+1轮训练保持第i轮训练所需的各节点的批大小,转至步骤8;
步骤7、计算第j个节点在第i轮训练后的性能pi j, j=1,2,…, J:
(2);
按照第i轮训练后J个节点之间的性能比例,基于总批大小b重新分配第i+1轮训练所需的各节点的批大小bi+1 j,各节点的性能高低与被分配的批大小正相关,具体为:
计算bi+1 j:
(3);
对bi+1 j向上取整,得到所有向上取整后的bi+1 j总和,与总批大小b相差d,将各节点的性能pi j升序排列;对前d个节点,在对应向上取整后的批大小基础上减1,作为整数化后的第i+1轮训练所需的批大小;对其他节点,将对应向上取整后的批大小作为整数化后的第i+1轮训练所需的批大小;
转至步骤8;
步骤8、对各节点在第i轮训练后所需显存大小进行调节,具体为:基于Torch-summary,根据Pytorch框架运行所需显存大小以及待训练模型在训练过程中所占用显存大小,待训练模型在训练过程中所占用显存大小包括待训练模型自身结构参数和待训练模型计算过程中所产生的中间变量(与各节点被分配的数据集分区大小有关),计算各节点所需的显存大小,对显存大小大于显存阈值S的节点,将第i轮训练后与第i-1轮训练后之间的性能增加量减少20%,并将所减少的20%按照性能比例分配至其他节点,得到各节点在第i轮训练后的新性能,根据各节点之间的新性能比例,再次基于总批大小b重新分配第i+1轮训练所需的各节点的批大小bi+1 j;其中i=1时,第i-1轮训练后的性能为初始性能;
重新进行对各节点在第i轮训练后所需显存大小的调节过程,直至各节点的显存大小不超过显存阈值S,转至步骤9;
步骤9、判断i是否等于N,若是,则对待训练模型的分布式训练完成;否则,令i=i+1,转回步骤3。
示例地,对J=3,b=128的情形,3个节点在第i轮训练过程中所占用的时间为{1, 2,3},在第i轮训练过程中对应分配的批大小为{32, 32, 64};根据式(2),计算得到在第i轮训练后对应的性能{32, 16, 64/3};根据式(3),按照3个节点之间的比例32:16:64/3,计算得到3个节点在第i+1轮训练所需的批大小为{59.07, 29.5, 39.3},向上取整后为{60,30, 40},求得差值d为2,将各节点的性能升序排列,将前2个节点向上取整后的批大小减1,得到最终3个节点在第i+1轮训练所需的批大小为{60, 29, 39}。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (8)
1.一种基于Pytorch框架的数据并行优化方法,其特征在于,包括以下步骤:
步骤1、加载模型阶段:
将基于Pytorch框架编写的待训练模型加载至J个节点中,J个节点的初始性能相同;并设置训练参数,包括:初始数据集的等分数量N,总批大小b,波动率阀值T,显存阈值S,以及显存调整步进P;
步骤2、加载数据阶段:
在对待训练模型进行当前轮训练前,按照前一轮训练后J个节点之间的性能比例,将对应份的数据划分为J个数据集分区,并行加载至对应节点中;其中,各节点的性能高低与被划分的数据量正相关;对第一轮训练,按照J个节点之间的初始性能比例,将对应份的数据划分为J个数据集分区;
步骤3、各节点将加载的数据按照当前轮的批大小,对待训练模型进行当前轮训练,包括前向传播阶段、损失计算阶段、反向传播阶段和模型参数更新阶段,获得各节点在当前轮训练过程中所占用的时间;
其中,在第一轮的训练过程中,以总批大小b与节点数J的比值为当前轮的批大小;
在第二轮的训练过程中,先计算各节点在第一轮训练后的性能,按照J个节点之间的性能比例,基于总批大小b重新分配当前轮训练所需的各节点的批大小;
在第三轮及之后的训练过程中,先根据各节点在前一轮训练过程中所占用的时间,计算前一轮的时间波动率,若大于波动率阀值T,则计算各节点在前一轮训练后的性能,再按照J个节点之间的性能比例,基于总批大小b重新分配当前轮训练所需的各节点的批大小,各节点的性能高低与被分配的批大小正相关;否则,将前一轮训练采用的批大小作为当前轮训练所需的批大小;
并且,在第二轮及之后的训练过程中,还包括对各节点所需显存大小的调节过程,具体为:根据Pytorch框架运行所需显存大小以及待训练模型在训练过程中所占用显存大小,计算各节点所需的显存大小,对显存大小大于显存阈值S的节点,将前一轮训练后与前两轮训练后之间的性能增加量减少P%,并将所减少的P%按照性能比例分配至其他节点,得到各节点在前一轮训练后的新性能,根据各节点之间的新性能比例,再次基于总批大小b重新分配当前轮训练所需的各节点的批大小;
重新进行对各节点所需显存大小的调节过程,直至各节点的显存大小不超过显存阈值S;
其中,计算第i,i=2,3,…, N-1轮的时间波动率time_volatility i 的公式为:
其中,t i j ,j=1,2,…, J为第j个节点在第i轮训练过程中所占用的时间;t i-1 j ,j=1,2,…, J为第j个节点在第i-1轮训练过程中所占用的时间;
步骤4、重复执行步骤2~3,直至加载第N份数据,并完成第N轮训练。
2.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,步骤3还包括对b i+1 j 进行整数化处理的过程,具体为:
先对b i+1 j 向上取整,得到所有向上取整后的b i+1 j 总和,与总批大小b相差d,将各节点的性能p i j 升序排列;对前d个节点,在对应向上取整后的批大小基础上减1,作为整数化后的第i+1轮训练所需的批大小;对其他节点,将对应向上取整后的批大小作为整数化后的第i+1轮训练所需的批大小。
3.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,步骤1中波动率阀值T的确定过程具体为:
在训练前,先对待训练模型运行预设的脚本,并在脚本执行期间以固定步进调整待确定波动率阀值,得到各待确定波动率阀值所对应的加速比,取最大加速比所对应的待确定波动率阀值作为波动率阀值T。
4.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,计算第j个节点在第i,i=2,3,…, N-1轮训练后的性能p i j , j=1,2,…, J的公式为:
其中,b i j ,j=1,2,…, J为第j个节点在第i轮训练所采用的批大小。
5.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,基于总批大小b重新分配第i+1,i=2,3,…, N-1轮训练所需的第j个节点的批大小b i+1 j 的计算公式为:
。
6.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,步骤2中若按照前一轮训练后J个节点之间的性能比例划分的J个数据集分区的数据量非整数,则对各数据集分区的数据量向下取整,将剩余未被划分的数据丢弃。
7.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,步骤1中显存阈值S根据硬件显存大小确定,P的取值为20。
8.根据权利要求1所述基于Pytorch框架的数据并行优化方法,其特征在于,J、N和b均为大于等于1的正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310750946.9A CN116501502B (zh) | 2023-06-25 | 2023-06-25 | 一种基于Pytorch框架的数据并行优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310750946.9A CN116501502B (zh) | 2023-06-25 | 2023-06-25 | 一种基于Pytorch框架的数据并行优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116501502A CN116501502A (zh) | 2023-07-28 |
CN116501502B true CN116501502B (zh) | 2023-09-05 |
Family
ID=87325065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310750946.9A Active CN116501502B (zh) | 2023-06-25 | 2023-06-25 | 一种基于Pytorch框架的数据并行优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116501502B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704323A (zh) * | 2017-11-07 | 2018-02-16 | 广州探迹科技有限公司 | 一种网络爬虫任务调度方法及装置 |
CN111309479A (zh) * | 2020-02-14 | 2020-06-19 | 北京百度网讯科技有限公司 | 一种任务并行处理的实现方法、装置、设备和介质 |
CN112148494A (zh) * | 2020-09-30 | 2020-12-29 | 北京百度网讯科技有限公司 | 用于算子服务的处理方法、装置、智能工作站和电子设备 |
CN112862098A (zh) * | 2021-02-10 | 2021-05-28 | 杭州幻方人工智能基础研究有限公司 | 一种集群训练任务处理的方法及系统 |
CN114169427A (zh) * | 2021-12-06 | 2022-03-11 | 北京百度网讯科技有限公司 | 基于端到端自适应的分布式训练方法、装置、设备 |
CN115185692A (zh) * | 2022-07-18 | 2022-10-14 | 北京一流科技有限公司 | 支持动态重计算的内存分配和释放决策系统及其方法 |
CN115437795A (zh) * | 2022-11-07 | 2022-12-06 | 东南大学 | 一种异构gpu集群负载感知的显存重计算优化方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12204954B2 (en) * | 2019-10-30 | 2025-01-21 | Cerebras Systems Inc. | Placement of compute and memory for accelerated deep learning |
-
2023
- 2023-06-25 CN CN202310750946.9A patent/CN116501502B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704323A (zh) * | 2017-11-07 | 2018-02-16 | 广州探迹科技有限公司 | 一种网络爬虫任务调度方法及装置 |
CN111309479A (zh) * | 2020-02-14 | 2020-06-19 | 北京百度网讯科技有限公司 | 一种任务并行处理的实现方法、装置、设备和介质 |
CN112148494A (zh) * | 2020-09-30 | 2020-12-29 | 北京百度网讯科技有限公司 | 用于算子服务的处理方法、装置、智能工作站和电子设备 |
CN112862098A (zh) * | 2021-02-10 | 2021-05-28 | 杭州幻方人工智能基础研究有限公司 | 一种集群训练任务处理的方法及系统 |
CN114169427A (zh) * | 2021-12-06 | 2022-03-11 | 北京百度网讯科技有限公司 | 基于端到端自适应的分布式训练方法、装置、设备 |
CN115185692A (zh) * | 2022-07-18 | 2022-10-14 | 北京一流科技有限公司 | 支持动态重计算的内存分配和释放决策系统及其方法 |
CN115437795A (zh) * | 2022-11-07 | 2022-12-06 | 东南大学 | 一种异构gpu集群负载感知的显存重计算优化方法及系统 |
Non-Patent Citations (1)
Title |
---|
"GOSH: Task Scheduling Using Deep Surrogate Models in Fog Computing Environments";Shreshth Tuli;《IEEE Transactions on Parallel and Distributed Systems》;第33卷(第11期);第2821-2833页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116501502A (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109951438B (zh) | 一种分布式深度学习的通信优化方法及系统 | |
CN113141317B (zh) | 流媒体服务器负载均衡方法、系统、计算机设备、终端 | |
WO2021056390A1 (zh) | 卷积神经网络模型同步训练方法、集群及可读存储介质 | |
CN109840154B (zh) | 一种移动云环境下基于任务依赖的计算迁移方法 | |
CN112579194B (zh) | 基于时延和事务吞吐量的区块链共识任务卸载方法及装置 | |
CN114154643A (zh) | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 | |
CN114756383A (zh) | 一种分布式计算方法、系统、设备及存储介质 | |
CN113485826B (zh) | 一种边缘服务器负载均衡方法、系统 | |
CN108416465B (zh) | 一种移动云环境下的工作流优化方法 | |
CN115237580B (zh) | 面向智能计算的流水并行训练自适应调整系统、方法 | |
CN111507474B (zh) | 一种动态调整Batch-size的神经网络分布式训练方法 | |
CN113988266B (zh) | 基于Top-k的支持复杂网络状况的自适应分布式梯度压缩方法 | |
CN112463189A (zh) | 基于通信操作稀疏化的分布式深度学习多步延迟更新方法 | |
CN116962176B (zh) | 一种分布式集群的数据处理方法、装置、系统及存储介质 | |
CN111898752B (zh) | 执行lstm神经网络运算的装置和方法 | |
CN112686383A (zh) | 一种通信并行的分布式随机梯度下降的方法、系统及装置 | |
CN112861362B (zh) | 一种基于整车油耗的动力总成性能参数优化方法和装置 | |
CN115437795A (zh) | 一种异构gpu集群负载感知的显存重计算优化方法及系统 | |
KR20200104734A (ko) | 이종 gpu 클러스터 환경에서 동기식 분산 학습의 스트래글러 해결을 위한 배치 오케스트레이션 서버 | |
CN116501502B (zh) | 一种基于Pytorch框架的数据并行优化方法 | |
CN115129471A (zh) | 面向大规模gpu集群的分布式局部随机梯度下降方法 | |
CN117035045A (zh) | 模型参数更新方法、装置、设备、存储介质和程序产品 | |
CN118093203B (zh) | 数据搬运方法、分布式训练系统、电子设备和存储介质 | |
Yu et al. | Accelerating distributed training in heterogeneous clusters via a straggler-aware parameter server | |
CN112395059A (zh) | 一种改进萤火虫算法的cmp任务调度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |