CN111461290A - 模型参数更新方法及装置 - Google Patents
模型参数更新方法及装置 Download PDFInfo
- Publication number
- CN111461290A CN111461290A CN202010167280.0A CN202010167280A CN111461290A CN 111461290 A CN111461290 A CN 111461290A CN 202010167280 A CN202010167280 A CN 202010167280A CN 111461290 A CN111461290 A CN 111461290A
- Authority
- CN
- China
- Prior art keywords
- training
- parameter
- model
- priority
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 321
- 230000006854 communication Effects 0.000 claims abstract description 130
- 238000004891 communication Methods 0.000 claims abstract description 129
- 230000015654 memory Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer And Data Communications (AREA)
- Debugging And Monitoring (AREA)
- Stored Programmes (AREA)
Abstract
本申请公开了模型参数更新方法及装置,涉及深度学习技术领域。具体实现方案为:获取模型对待训练的批次训练数据的批次训练时间;在批次训练时间大于等于预设的时间阈值时,提高参数梯度通信任务序列中排序在后的任务的优先级;按照模型中各个参数梯度通信任务的优先级进行参数梯度通信以及参数更新,从而能够结合批次训练时间对各个参数梯度通信任务的优先级进行调整,避免共享通信链路的其他训练任务的影响,减少训练时间,提高训练速度。
Description
技术领域
本申请涉及人工智能技术领域,具体涉及深度学习技术领域,尤其涉及模型参数更新方法及装置。
背景技术
目前在深度学习分布式训练中,深度学习模型是部署在多个训练节点上的,全量训练数据是按照训练节点的数量进行划分,为每个训练节点分配多个批次的批次训练数据。针对每个训练节点,采用一个批次的批次训练数据对深度学习模型进行训练后,会计算损失函数,结合损失函数确定深度学习模型中每个参数的梯度值,然后将每个参数的梯度值通信发送给其他训练节点,实现在每个训练节点上,针对每个参数,根据所有训练节点的所述参数的梯度值来对所述参数进行更新。
在上述方案中,存在多个训练任务采用相同的通信链路来发送参数梯度值的情况,若一直先传输某个训练任务的参数梯度值,则其他训练任务的参数梯度值的传输就会受影响,降低训练速度,加长训练时间。
发明内容
本申请提出一种模型参数更新方法及装置,通过结合批次训练时间对各个参数梯度通信任务的优先级进行调整,从而能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度。
本申请一方面实施例提出了一种模型参数更新方法,包括:
获取模型对待训练的批次训练数据的批次训练时间;
在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级;
将所述模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合所述其他训练节点分发的各个参数的梯度,对所述模型进行参数更新。
在本申请一个实施例中,所述时间阈值为预设的最小批次训练时间与预设系数的加和;
所述的方法还包括:
在所述批次训练时间小于所述最小批次训练时间时,将所述批次训练时间确定为更新后的最小批次训练时间。
在本申请一个实施例中,所述的方法还包括:
在所述批次训练时间小于所述最小批次训练时间时,对预设的计数值进行加1处理,得到更新后的计数值;所述预设的计数值的初始值为0;
在所述批次训练时间大于等于所述最小批次训练时间,且小于所述时间阈值时,对预设的计数值进行加1处理,得到更新后的计数值。
在本申请一个实施例中,所述获取模型对待训练的批次训练数据的批次训练时间之前,还包括:
获取所述预设的计数值;
判断所述计数值是否大于预设的计数阈值;
在所述计数值大于预设的计数阈值时,降低所述参数梯度通信任务序列中排序在后的任务的优先级,并对所述计数值进行清零处理。
在本申请一个实施例中,所述在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级,包括:
在所述批次训练时间大于等于预设的时间阈值时,按照预设的优先级调整策略,在所述参数梯度通信任务序列中排序在后的任务中选择待调整任务,以及待调整任务的调整后优先级;
根据所述待调整任务以及对应的调整后优先级,对所述待调整任务进行优先级调整处理。
在本申请一个实施例中,所述模型的参数梯度通信任务序列的获取方式为,
按照反向传播方向对所述模型中各个层参数的梯度通信任务进行排序,得到参数梯度通信任务序列;
对所述参数梯度通信任务序列中的各个任务进行优先级设置,使得排序在前的任务的优先级小于排序在后的任务的优先级。
在本申请一个实施例中,所述待训练的批次训练数据,为所述模型的训练数据中未经过训练的批次训练数据,或者,所述训练数据中训练轮次小于预设轮次阈值的批次训练数据。
本申请实施例的模型参数更新方法,获取模型对待训练的批次训练数据的批次训练时间;在批次训练时间大于等于预设的时间阈值时,提高模型的参数梯度通信任务序列中排序在后的任务的优先级;将模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合其他训练节点分发的各个参数的梯度,对模型进行参数更新,从而能够结合批次训练时间对各个参数梯度通信任务的优先级进行调整,从而能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度。
本申请另一方面实施例提出了一种模型参数更新装置,包括:
获取模块,用于获取模型对待训练的批次训练数据的批次训练时间;
调整模块,用于在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级;
参数更新模块,用于将所述模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合所述其他训练节点分发的各个参数的梯度,对所述模型进行参数更新。
在本申请一个实施例中,所述时间阈值为预设的最小批次训练时间与预设系数的加和;所述的装置还包括:确定模块,用于在所述批次训练时间小于所述最小批次训练时间时,将所述批次训练时间确定为更新后的最小批次训练时间。
在本申请一个实施例中,所述的装置还包括:
处理模块,用于在所述批次训练时间小于所述最小批次训练时间时,对预设的计数值进行加1处理,得到更新后的计数值;所述预设的计数值的初始值为0;
所述处理模块,还用于在所述批次训练时间大于等于所述最小批次训练时间,且小于所述时间阈值时,对预设的计数值进行加1处理,得到更新后的计数值。
在本申请一个实施例中,所述的装置还包括:判断模块;
所述获取模块,还用于获取所述预设的计数值;
所述判断模块,用于判断所述计数值是否大于预设的计数阈值;
所述调整模块,还用于在所述计数值大于预设的计数阈值时,降低所述参数梯度通信任务序列中排序在后的任务的优先级,并对所述计数值进行清零处理。
在本申请一个实施例中,所述调整模块具体用于,
在所述批次训练时间大于等于预设的时间阈值时,按照预设的优先级调整策略,在所述参数梯度通信任务序列中排序在后的任务中选择待调整任务,以及待调整任务的调整后优先级;
根据所述待调整任务以及对应的调整后优先级,对所述待调整任务进行优先级调整处理。
在本申请一个实施例中,所述模型的参数梯度通信任务序列的获取方式为,
按照反向传播方向对所述模型中各个层参数的梯度通信任务进行排序,得到参数梯度通信任务序列;
对所述参数梯度通信任务序列中的各个任务进行优先级设置,使得排序在前的任务的优先级小于排序在后的任务的优先级。
在本申请一个实施例中,所述待训练的批次训练数据,为所述模型的训练数据中未经过训练的批次训练数据,或者,所述训练数据中训练轮次小于预设轮次阈值的批次训练数据。
本申请实施例的模型参数更新装置,获取模型对待训练的批次训练数据的批次训练时间;在批次训练时间大于等于预设的时间阈值时,提高模型的参数梯度通信任务序列中排序在后的任务的优先级;将模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合其他训练节点分发的各个参数的梯度,对模型进行参数更新,从而能够结合批次训练时间对各个参数梯度通信任务的优先级进行调整,从而能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度。
本申请另一方面实施例提出了一种分布式训练系统,包括:多个训练节点;
所述多个训练节点中的任意两个训练节点相互连接;
所述多个训练节点中的每个训练节点,用于执行如上所述的模型参数更新方法。
本申请另一方面实施例提出了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请实施例的模型参数更新方法。
本申请另一方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请实施例的模型参数更新方法。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是根据本申请第三实施例的示意图;
图4是根据本申请第四实施例的示意图;
图5是根据本申请第五实施例的示意图;
图6是根据本申请第六实施例的示意图;
图7是用来实现本申请实施例的模型参数更新方法的电子设备的框图;
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的模型参数更新方法及装置。
图1是根据本申请第一实施例的示意图。其中,需要说明的是,本实施例提供的模型参数更新方法的执行主体为模型参数更新装置。模型参数更新装置可以为硬件或者安装在硬件上的软件。硬件例如终端设备或者服务器。本申请中,以模型参数更新装置为分布式训练系统中的训练节点为例进行说明。
如图1所示,该模型参数更新方法可以包括:
步骤101,获取模型对待训练的批次训练数据的批次训练时间。
本申请中,在步骤101之前,可以先执行以下步骤:获取训练节点上部署的待训练的模型、为训练节点上模型分配的训练数据、以及模型的参数梯度通信任务序列;训练数据包括:多个批次的批次训练数据;参数梯度通信任务序列包括:各个参数梯度通信任务以及对应的优先级。
本申请中,为训练节点上模型分配的训练数据的获取方式可以为,获取分布式训练系统中训练节点的总数量,按照总数量对模型的全量训练数据进行切分,得到多个切分训练数据,切分训练数据的份数与总数量一致,然后为每个训练节点分配一份切分训练数据。
本申请中,模型的参数梯度通信任务序列的获取方式可以为,按照反向传播方向对模型中各个层参数的梯度通信任务进行排序,得到参数梯度通信任务序列;对参数梯度通信任务序列中的各个任务进行优先级设置,使得排序在前的任务的优先级小于排序在后的任务的优先级。
本申请中,由于在模型规模大时,模型中的参数太多,而模型的层数一般不会太多,因此,可以将一层中所有参数的梯度传输作为一个梯度通信任务。本申请中,以将一层中所有参数的梯度传输作为一个梯度通信任务为例,为了方便进行优先级调整,可以将参数梯度通信任务序列中的任务依次划分到不同的分组中,得到分组序列,在进行优先级调整时,可以对分组进行优先级调整。其中,分组序列的各个分组的方式可以为,当参数梯度通信任务序列中任务数量与分组序列中分组的数量的比值大于预设比值阈值时,可以将参数梯度通信任务序列中的任务均分为N个等份,N为分组序列中分组的数量,然后将N个等份依次分配给分组序列中的各个分组。
当参数梯度通信任务序列中任务数量与分组序列中分组的数量的比值小于等于预设比值阈值时,在第一种场景下,例如任务数量为M个,分组的数量为N个,则第一个分组中分配M/N+M%N个任务,其他分组中分配M/N个任务。在第二种场景下,可以在最后一个分组中分配参数梯度通信任务序列中的最后一个任务,在倒数第二个分数中分配参数梯度通信任务序列中的倒数第二个任务和倒数第三个任务,依次类推,最后将剩余的任务全部分配到第一个分组中。
本申请中,待训练的批次训练数据,可以为模型的训练数据中未经过训练的批次训练数据,或者,训练数据中训练轮次小于预设轮次阈值的批次训练数据。
步骤102,在批次训练时间大于等于预设的时间阈值时,提高模型的参数梯度通信任务序列中排序在后的任务的优先级。
本申请中,参数梯度的计算和通信过程具体可以为,假设模型包括4层,从输入到输出,分别为第一层、第二层、第三层和第四层。则对模型进行反向传播指的是从模型的输出端到输入端结合模型的损失函数计算各层参数梯度的过程。先计算第四层,也就是反向传播阶段首端的参数梯度,此处的参数梯度指的是从输出到第四层参数的梯度数值。第四层计算完成后,计算第三层的参数梯度,也就是从输出到第三层参数的梯度数值。然后计算第二层的参数梯度,第一层的参数梯度,计算完成。其中,各层的参数梯度是结合模型的损失函数来确定的。例如,
当第四层的参数梯度计算完成后,训练节点需要将第四层的参数梯度通信传给其他训练节点,并接收其他训练节点传输的参数梯度,从而针对第四层的每个参数,可以结合各个训练节点对该参数的参数梯度,来对第四层的参数进行更新。例如,可以获取各个训练节点对该参数的参数梯度的平均值,在该参数的训练前数值上减去该平均值与学习率的乘积,得到该参数的更新后数值。
其中,第四层的参数梯度通信时间可以和第三层的参数梯度计算时间重合,第三层的参数梯度通信时间可以和第二层的参数梯度计算时间重合,第二层的参数梯度通信时间可以和第一层的参数梯度计算时间重合,但第一层的参数梯度通信需要占用额外的通信时间。因此,若该训练节点的训练任务,由于共享通信链路,被其他训练任务影响,则可能是因为在需要进行第一层的参数梯度通信时,由于通信链路被其他训练任务占用造成的影响。因此,在批次训练时间大于等于预设的时间阈值时,需要提高参数梯度通信任务序列中排序在后的任务的优先级。在上述例子中,例如是调高第一层的参数梯度通信任务的优先级,然后在执行第一层的参数梯度通信任务时,相比于共享通信链路的其他训练任务来说,该第一层的参数梯度通信任务就能够优先执行,避免等待,避免其他训练任务的影响。其中,排序在后的参数梯度通信任务为靠近模型输入端的层的参数梯度通信任务。排序在前的参数梯度通信任务为靠近模型输出端的层的参数梯度通信任务。
本申请中,由于最小训练批次训练时间是存在波动的,因此可以将最小训练批次训练时间与预设系数的加和作为预设的时间阈值。其中,预设系数可以根据用户经验和处理批次数据所需要的时间综合设定。
本申请中,训练节点执行步骤102的过程具体可以为,在批次训练时间大于等于预设的时间阈值时,按照预设的优先级调整策略,在参数梯度通信任务序列中排序在后的任务中选择待调整任务,以及待调整任务的调整后优先级;根据待调整任务以及对应的调整后优先级,对待调整任务进行优先级调整处理。其中,待调整任务例如可以为参数梯度通信任务序列中的最后多个任务。
进一步地,在上述实施例的基础上,所述的方法还可以包括以下步骤:在批次训练时间小于所述最小批次训练时间时,将批次训练时间确定为更新后的最小批次训练时间。从而能够及时对最小批次训练时间进行调整,且同时对预设的时间阈值进行调整。
步骤103,将模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合其他训练节点分发的各个参数的梯度,对模型进行参数更新。
另外,在本申请实施例中,模型可用于图像识别、图像比对等。例如,当模型用于进行图像识别时,若在模型训练过程中采用图1所示实施例对模型参数进行更新,则能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度,能够尽快得到准确度高的模型用于图像识别,提高图像识别的效率。
本申请实施例的模型参数更新方法,获取模型对待训练的批次训练数据的批次训练时间;在批次训练时间大于等于预设的时间阈值时,提高模型的参数梯度通信任务序列中排序在后的任务的优先级;将模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合其他训练节点分发的各个参数的梯度,对模型进行参数更新,从而能够结合批次训练时间对各个参数梯度通信任务的优先级进行调整,从而能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度。
图2是根据本申请第二实施例的示意图。如图2所示,该模型参数更新方法可以包括:
步骤201,获取训练节点上部署的待训练的模型、为训练节点上模型分配的训练数据、以及模型的分组序列;训练数据包括:多个批次的批次训练数据;分组序列包括:各个分组以及对应的优先级;分组中包括:所述模型中参数的梯度通信任务。
步骤202,判断训练数据中是否存在待训练的批次训练数据;若存在,执行步骤203;若不存在,执行步骤212。
步骤203,在训练数据中存在待训练的批次训练数据时,判断计数值是否大于预设的计数阈值;若大于,执行步骤204,若小于,直接执行步骤205。
步骤204,降低分组序列中排序在后的分组的优先级,并对所述计数值进行清零处理。
本申请中,当计数值大于预设的计数阈值时,表示在进行参数梯度通信时,优先执行的是本训练任务的参数梯度通信任务,而共享通信链路的其他训练任务的参数梯度通信任务等待,且本训练任务的参数梯度通信任务优先的次数过多,则容易存在高优先级通信导致低优先级通信的长时间堵塞,会导致其他训练任务的参数梯度通信任务的长时间等待,因此,需要降低本训练任务的分组序列中排序在后的分组的优先级,避免影响使用共享通信链路的其他训练任务的训练。
步骤205,选择一个待训练的批次训练数据并执行训练,获取批次训练时间,以及模型中各个参数的梯度。
步骤206,判断批次训练时间是否小于预设的最小批次训练时间,以及是否大于等于预设的时间阈值。
步骤207,若批次训练时间小于预设的最小批次训练时间,则将批次训练时间确定为更新后的最小批次训练时间,且对预设的计数值进行加1处理,得到更新后的计数值;预设的计数值的初始值为0。
步骤208,若批次训练时间大于等于预设的最小批次训练时间,且小于预设的时间阈值,则对预设的计数值进行加1处理,得到更新后的计数值。
步骤209,若批次训练时间大于等于预设的时间阈值,则提高所述分组序列中排序在后的分组的优先级。
步骤210,将模型中各个参数的梯度,按照参数的梯度通信任务所属分组的优先级分发到所述分布式训练系统中的其他训练节点,并结合分布式训练系统中其他训练节点的各个参数的梯度,以及训练节点的各个参数的梯度,对模型进行参数更新。
步骤211,在模型中各个参数更新完成后,重复执行步骤203。
步骤212,结束。
本申请实施例的模型参数更新方法,获取训练节点上部署的待训练的模型、为训练节点上模型分配的训练数据、以及模型的分组序列;训练数据包括:多个批次的批次训练数据;分组序列包括:各个分组以及对应的优先级;分组中包括:模型中参数的梯度通信任务;判断训练数据中是否存在待训练的批次训练数据;在训练数据中存在待训练的批次训练数据时,先判断计数值是否大于预设的计数阈值,若大于则对计数值进行清零,然后选择一个待训练的批次训练数据并执行训练,获取批次训练时间,以及模型中各个参数的梯度;在批次训练时间大于等于预设的时间阈值时,提高分组序列中排序在后的分组的优先级;时间阈值为预设的最小批次训练时间与预设系数的加和;将模型中各个参数的梯度,按照参数的梯度通信任务所属分组的优先级分发到分布式训练系统中的其他训练节点,并结合分布式训练系统中其他训练节点的各个参数的梯度,以及训练节点的各个参数的梯度,对模型进行参数更新,从而能够结合批次训练时间对各个分组的优先级进行调整,实现对参数梯度通信任务优先级的调整,从而能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度。
为了实现上述实施例,本申请实施例还提供一种模型参数更新装置。
图3是根据本申请第三实施例的示意图。如图3所示,该模型参数更新装置100,包括:
获取模块110,用于获取模型对待训练的批次训练数据的批次训练时间;
调整模块120,用于在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级;
参数更新模块130,用于将所述模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到所述分布式训练系统中的其他训练节点,并结合其他训练节点分发的各个参数的梯度,对所述模型进行参数更新。
在本申请一个实施例中,结合参考图4,在图3所示实施例的基础上,所述时间阈值为预设的最小批次训练时间与预设系数的加和;所述的装置还可以包括:确定模块140,用于在所述批次训练时间小于所述最小批次训练时间时,将所述批次训练时间确定为更新后的最小批次训练时间。
在本申请一个实施例中,结合参考图5,在图3所示实施例的基础上,所述的装置还可以包括:处理模块150;
处理模块150,用于在所述批次训练时间小于所述最小批次训练时间时,对预设的计数值进行加1处理,得到更新后的计数值;所述预设的计数值的初始值为0;
所述处理模块150,还用于在所述批次训练时间大于等于所述最小批次训练时间,且小于所述时间阈值时,对预设的计数值进行加1处理,得到更新后的计数值。
在本申请一个实施例中,结合参考图6,在图5所示实施例的基础上,还包括:判断模块160;
所述获取模块110,还用于获取所述预设的计数值;
所述判断模块160,还用于判断所述计数值是否大于预设的计数阈值;
所述调整模块120,还用于在所述计数值大于预设的计数阈值时,降低所述参数梯度通信任务序列中排序在后的任务的优先级,并对所述计数值进行清零处理。
在本申请一个实施例中,所述调整模块120具体用于,
在所述批次训练时间大于等于预设的时间阈值时,按照预设的优先级调整策略,在所述参数梯度通信任务序列中排序在后的任务中选择待调整任务,以及待调整任务的调整后优先级;
根据所述待调整任务以及对应的调整后优先级,对所述待调整任务进行优先级调整处理。
在本申请一个实施例中,所述模型的参数梯度通信任务序列的获取方式为,
按照反向传播方向对所述模型中各个层参数的梯度通信任务进行排序,得到参数梯度通信任务序列;
对所述参数梯度通信任务序列中的各个任务进行优先级设置,使得排序在前的任务的优先级小于排序在后的任务的优先级。
在本申请一个实施例中,所述待训练的批次训练数据,为所述模型的训练数据中未经过训练的批次训练数据,或者,所述训练数据中训练轮次小于预设轮次阈值的批次训练数据。
本申请实施例的模型参数更新装置,获取模型对待训练的批次训练数据的批次训练时间;在批次训练时间大于等于预设的时间阈值时,提高模型的参数梯度通信任务序列中排序在后的任务的优先级;将模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合其他训练节点分发的各个参数的梯度,对模型进行参数更新,从而能够结合批次训练时间对各个参数梯度通信任务的优先级进行调整,从而能够避免其他训练任务的参数梯度通信任务对当前训练任务的参数梯度通信任务的影响,减少训练时间,提高训练速度。
根据本申请的实施例,本申请还提供了一种分布式训练系统,包括:多个训练节点;
所述多个训练节点中的任意两个训练节点相互连接;
所述多个训练节点中的每个训练节点,用于执行如图1或图2所示的模型参数更新方法。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的模型参数更新方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器301、存储器302,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器301为例。
存储器302即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的模型参数更新方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的模型参数更新方法。
存储器302作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的模型参数更新方法对应的程序指令/模块(例如,附图3所示的获取模块110、调整模块120、参数更新模块130,附图4所示的确定模块140,附图5所示的处理模块150、附图6所示的判断模块160)。处理器301通过运行存储在存储器302中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的模型参数更新方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据模型参数更新的电子设备的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至模型参数更新的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
模型参数更新方法的电子设备还可以包括:输入装置303和输出装置304。处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置303可接收输入的数字或字符信息,以及产生与模型参数更新的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置304可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (17)
1.一种模型参数更新方法,其特征在于,包括:
获取模型对待训练的批次训练数据的批次训练时间;
在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级;
将所述模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合所述其他训练节点分发的各个参数的梯度,对所述模型进行参数更新。
2.根据权利要求1所述的方法,其特征在于,所述时间阈值为预设的最小批次训练时间与预设系数的加和;
所述的方法,还包括:
在所述批次训练时间小于所述最小批次训练时间时,将所述批次训练时间确定为更新后的最小批次训练时间。
3.根据权利要求2所述的方法,其特征在于,还包括:
在所述批次训练时间小于所述最小批次训练时间时,对预设的计数值进行加1处理,得到更新后的计数值;所述预设的计数值的初始值为0;
在所述批次训练时间大于等于所述最小批次训练时间,且小于所述时间阈值时,对预设的计数值进行加1处理,得到更新后的计数值。
4.根据权利要求3所述的方法,其特征在于,所述获取模型对待训练的批次训练数据的批次训练时间之前,还包括:
获取所述预设的计数值;
判断所述计数值是否大于预设的计数阈值;
在所述计数值大于预设的计数阈值时,降低所述参数梯度通信任务序列中排序在后的任务的优先级,并对所述计数值进行清零处理。
5.根据权利要求1所述的方法,其特征在于,所述在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级,包括:
在所述批次训练时间大于等于预设的时间阈值时,按照预设的优先级调整策略,在所述参数梯度通信任务序列中排序在后的任务中选择待调整任务,以及待调整任务的调整后优先级;
根据所述待调整任务以及对应的调整后优先级,对所述待调整任务进行优先级调整处理。
6.根据权利要求1所述的方法,其特征在于,所述模型的参数梯度通信任务序列的获取方式为,
按照反向传播方向对所述模型中各个层参数的梯度通信任务进行排序,得到参数梯度通信任务序列;
对所述参数梯度通信任务序列中的各个任务进行优先级设置,使得排序在前的任务的优先级小于排序在后的任务的优先级。
7.根据权利要求1所述的方法,其特征在于,所述待训练的批次训练数据,为所述模型的训练数据中未经过训练的批次训练数据,或者,所述训练数据中训练轮次小于预设轮次阈值的批次训练数据。
8.一种模型参数更新装置,其特征在于,包括:
获取模块,用于获取模型对待训练的批次训练数据的批次训练时间;
调整模块,用于在所述批次训练时间大于等于预设的时间阈值时,提高所述模型的参数梯度通信任务序列中排序在后的任务的优先级;
参数更新模块,用于将所述模型中各个参数的梯度,按照参数梯度通信任务的优先级分发到分布式训练系统中的其他训练节点,并结合所述其他训练节点分发的各个参数的梯度,对所述模型进行参数更新。
9.根据权利要求8所述的装置,其特征在于,所述时间阈值为预设的最小批次训练时间与预设系数的加和;
所述的装置,还包括:
确定模块,用于在所述批次训练时间小于所述最小批次训练时间时,将所述批次训练时间确定为更新后的最小批次训练时间。
10.根据权利要求9所述的装置,其特征在于,还包括:
处理模块,用于在所述批次训练时间小于所述最小批次训练时间时,对预设的计数值进行加1处理,得到更新后的计数值;所述预设的计数值的初始值为0;
所述处理模块,还用于在所述批次训练时间大于等于所述最小批次训练时间,且小于所述时间阈值时,对预设的计数值进行加1处理,得到更新后的计数值。
11.根据权利要求10所述的装置,其特征在于,还包括:判断模块;
所述获取模块,还用于获取所述预设的计数值;
所述判断模块,用于判断所述计数值是否大于预设的计数阈值;
所述调整模块,还用于在所述计数值大于预设的计数阈值时,降低所述参数梯度通信任务序列中排序在后的任务的优先级,并对所述计数值进行清零处理。
12.根据权利要求8所述的装置,其特征在于,所述调整模块具体用于,
在所述批次训练时间大于等于预设的时间阈值时,按照预设的优先级调整策略,在所述参数梯度通信任务序列中排序在后的任务中选择待调整任务,以及待调整任务的调整后优先级;
根据所述待调整任务以及对应的调整后优先级,对所述待调整任务进行优先级调整处理。
13.根据权利要求8所述的装置,其特征在于,所述模型的参数梯度通信任务序列的获取方式为,
按照反向传播方向对所述模型中各个层参数的梯度通信任务进行排序,得到参数梯度通信任务序列;
对所述参数梯度通信任务序列中的各个任务进行优先级设置,使得排序在前的任务的优先级小于排序在后的任务的优先级。
14.根据权利要求8所述的装置,其特征在于,所述待训练的批次训练数据,为所述模型的训练数据中未经过训练的批次训练数据,或者,所述训练数据中训练轮次小于预设轮次阈值的批次训练数据。
15.一种分布式训练系统,其特征在于,包括:多个训练节点;
所述多个训练节点中的任意两个训练节点相互连接;
所述多个训练节点中的每个训练节点,用于执行如权利要求1-7任一项所述的方法。
16.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
17.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010167280.0A CN111461290B (zh) | 2020-03-11 | 2020-03-11 | 模型参数更新方法及装置 |
US17/104,165 US11574146B2 (en) | 2020-03-11 | 2020-11-25 | Method for updating parameter of model, distributed training system and electric device |
EP20209669.9A EP3879465A1 (en) | 2020-03-11 | 2020-11-25 | Method and apparatus for updating parameter of model, distributed training system |
KR1020200183501A KR102592550B1 (ko) | 2020-03-11 | 2020-12-24 | 모델 파라미터를 업데이트하는 방법 및 장치 |
JP2020217473A JP7042897B2 (ja) | 2020-03-11 | 2020-12-25 | モデルパラメータ更新方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010167280.0A CN111461290B (zh) | 2020-03-11 | 2020-03-11 | 模型参数更新方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111461290A true CN111461290A (zh) | 2020-07-28 |
CN111461290B CN111461290B (zh) | 2023-09-22 |
Family
ID=71682813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010167280.0A Active CN111461290B (zh) | 2020-03-11 | 2020-03-11 | 模型参数更新方法及装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11574146B2 (zh) |
EP (1) | EP3879465A1 (zh) |
JP (1) | JP7042897B2 (zh) |
KR (1) | KR102592550B1 (zh) |
CN (1) | CN111461290B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113032152A (zh) * | 2021-04-02 | 2021-06-25 | 北京百度网讯科技有限公司 | 用于深度学习框架的调度方法、调度装置、电子设备、存储介质和程序产品 |
WO2023022321A1 (ko) * | 2021-08-17 | 2023-02-23 | 삼성전자 주식회사 | 분산 학습용 서버 및 분산 학습 방법 |
CN116258197A (zh) * | 2023-05-16 | 2023-06-13 | 之江实验室 | 基于参数计算和通信调度的分布式训练加速方法和系统 |
CN117155929A (zh) * | 2023-10-31 | 2023-12-01 | 浪潮电子信息产业股份有限公司 | 分布式集群的通信方法、系统、电子设备及可读存储介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114356540B (zh) * | 2021-10-30 | 2024-07-02 | 腾讯科技(深圳)有限公司 | 一种参数更新方法、装置、电子设备和存储介质 |
CN114037045A (zh) * | 2021-11-05 | 2022-02-11 | 光大科技有限公司 | 一种模型参数更新方法及装置 |
CN114027667B (zh) * | 2021-12-01 | 2023-08-15 | 慕思健康睡眠股份有限公司 | 一种在离床状态判定方法、装置、智能床垫及介质 |
CN114139731B (zh) * | 2021-12-03 | 2025-01-14 | 深圳前海微众银行股份有限公司 | 纵向联邦学习建模优化方法、设备、介质及程序产品 |
CN114845203B (zh) * | 2022-07-01 | 2022-09-20 | 龙旗电子(惠州)有限公司 | 电容式耳机的播放控制方法、装置、设备及存储介质 |
CN116187426B (zh) * | 2022-11-09 | 2024-04-19 | 北京百度网讯科技有限公司 | 深度学习模型的模型参数多流广播方法及其装置 |
CN115906982B (zh) * | 2022-11-15 | 2023-10-24 | 北京百度网讯科技有限公司 | 分布式训练方法、梯度通信方法、装置及电子设备 |
CN116701350B (zh) * | 2023-05-19 | 2024-03-29 | 阿里云计算有限公司 | 自动优化方法及训练方法、装置、电子设备 |
CN116629386B (zh) * | 2023-07-21 | 2023-09-19 | 支付宝(杭州)信息技术有限公司 | 模型训练方法及装置 |
CN117992223B (zh) * | 2024-01-31 | 2024-11-26 | 三六零数字安全科技集团有限公司 | 模型训练方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180300653A1 (en) * | 2017-04-18 | 2018-10-18 | Distributed Systems, Inc. | Distributed Machine Learning System |
CN109034175A (zh) * | 2017-06-12 | 2018-12-18 | 华为技术有限公司 | 数据处理方法、装置及设备 |
CN109189563A (zh) * | 2018-07-25 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 资源调度方法、装置、计算设备及存储介质 |
CN109726811A (zh) * | 2017-10-27 | 2019-05-07 | 谷歌有限责任公司 | 使用优先级队列训练神经网络 |
US20190180195A1 (en) * | 2015-01-23 | 2019-06-13 | Conversica, Inc. | Systems and methods for training machine learning models using active learning |
US20190324856A1 (en) * | 2018-04-18 | 2019-10-24 | EMC IP Holding Company LLC | Optimization of checkpoint operations for deep learning computing |
CN110520871A (zh) * | 2017-02-24 | 2019-11-29 | 渊慧科技有限公司 | 训练机器学习模型 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6776696B2 (ja) * | 2016-07-26 | 2020-10-28 | 富士通株式会社 | 並列情報処理装置、情報処理方法、およびプログラム |
CN111753997B (zh) * | 2020-06-28 | 2021-08-27 | 北京百度网讯科技有限公司 | 分布式训练方法、系统、设备及存储介质 |
CN112561078B (zh) * | 2020-12-18 | 2021-12-28 | 北京百度网讯科技有限公司 | 分布式的模型训练方法及相关装置 |
-
2020
- 2020-03-11 CN CN202010167280.0A patent/CN111461290B/zh active Active
- 2020-11-25 EP EP20209669.9A patent/EP3879465A1/en active Pending
- 2020-11-25 US US17/104,165 patent/US11574146B2/en active Active
- 2020-12-24 KR KR1020200183501A patent/KR102592550B1/ko active IP Right Grant
- 2020-12-25 JP JP2020217473A patent/JP7042897B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190180195A1 (en) * | 2015-01-23 | 2019-06-13 | Conversica, Inc. | Systems and methods for training machine learning models using active learning |
CN110520871A (zh) * | 2017-02-24 | 2019-11-29 | 渊慧科技有限公司 | 训练机器学习模型 |
US20180300653A1 (en) * | 2017-04-18 | 2018-10-18 | Distributed Systems, Inc. | Distributed Machine Learning System |
CN109034175A (zh) * | 2017-06-12 | 2018-12-18 | 华为技术有限公司 | 数据处理方法、装置及设备 |
CN109726811A (zh) * | 2017-10-27 | 2019-05-07 | 谷歌有限责任公司 | 使用优先级队列训练神经网络 |
US20190324856A1 (en) * | 2018-04-18 | 2019-10-24 | EMC IP Holding Company LLC | Optimization of checkpoint operations for deep learning computing |
CN109189563A (zh) * | 2018-07-25 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 资源调度方法、装置、计算设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
ANAND JAYARAJAN 等: "PRIORITY-BASED PARAMETER PROPAGATION FOR DISTRIBUTED DNN TRAINING" * |
白辰甲 等: "基于TD-error自适应校正的深度Q学习主动采样方法" * |
魏宁: "基于Flowlet的数据中心流量调度优化" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113032152A (zh) * | 2021-04-02 | 2021-06-25 | 北京百度网讯科技有限公司 | 用于深度学习框架的调度方法、调度装置、电子设备、存储介质和程序产品 |
CN113032152B (zh) * | 2021-04-02 | 2023-03-24 | 北京百度网讯科技有限公司 | 用于深度学习框架的调度方法、调度装置、电子设备、存储介质和程序产品 |
WO2023022321A1 (ko) * | 2021-08-17 | 2023-02-23 | 삼성전자 주식회사 | 분산 학습용 서버 및 분산 학습 방법 |
CN116258197A (zh) * | 2023-05-16 | 2023-06-13 | 之江实验室 | 基于参数计算和通信调度的分布式训练加速方法和系统 |
CN116258197B (zh) * | 2023-05-16 | 2023-09-08 | 之江实验室 | 基于参数计算和通信调度的分布式训练加速方法和系统 |
CN117155929A (zh) * | 2023-10-31 | 2023-12-01 | 浪潮电子信息产业股份有限公司 | 分布式集群的通信方法、系统、电子设备及可读存储介质 |
CN117155929B (zh) * | 2023-10-31 | 2024-02-09 | 浪潮电子信息产业股份有限公司 | 分布式集群的通信方法、系统、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20210114853A (ko) | 2021-09-24 |
JP2021144696A (ja) | 2021-09-24 |
US20210287044A1 (en) | 2021-09-16 |
CN111461290B (zh) | 2023-09-22 |
JP7042897B2 (ja) | 2022-03-28 |
EP3879465A1 (en) | 2021-09-15 |
KR102592550B1 (ko) | 2023-10-23 |
US11574146B2 (en) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111461290B (zh) | 模型参数更新方法及装置 | |
CN111753997B (zh) | 分布式训练方法、系统、设备及存储介质 | |
EP3923160A1 (en) | Method, apparatus, device and storage medium for training model | |
JP7095209B2 (ja) | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 | |
JP2022018095A (ja) | マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体 | |
CN111461343B (zh) | 模型参数更新方法及其相关设备 | |
CN111539227B (zh) | 训练语义表示模型的方法、装置、设备和计算机存储介质 | |
CN111798114B (zh) | 一种模型训练、订单处理方法、装置、设备及存储介质 | |
CN111639753B (zh) | 用于训练图像处理超网络的方法、装置、设备以及存储介质 | |
CN112560499B (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN112579897B (zh) | 信息搜索方法和装置 | |
EP3933712A1 (en) | Optimizer learning method and apparatus, electronic device and readable storage medium | |
CN114492788A (zh) | 训练深度学习模型的方法和装置、电子设备及存储介质 | |
CN112101552A (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111652354B (zh) | 用于训练超网络的方法、装置、设备以及存储介质 | |
CN112580723B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
CN111680599B (zh) | 人脸识别模型处理方法、装置、设备和存储介质 | |
CN112529162A (zh) | 神经网络模型的更新方法、装置、设备和存储介质 | |
CN112101551A (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111461340B (zh) | 权重矩阵的更新方法、装置及电子设备 | |
CN115293329A (zh) | 一种参数更新方法、装置、设备及存储介质 | |
CN111783872A (zh) | 训练模型的方法、装置、电子设备及计算机可读存储介质 | |
CN111967492A (zh) | 分类模型的训练方法、装置、电子设备以及存储介质 | |
CN111639752B (zh) | 用于训练超网络的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |