CN116340004A - 一种任务执行的方法、装置、存储介质及电子设备 - Google Patents

一种任务执行的方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN116340004A
CN116340004A CN202310429448.4A CN202310429448A CN116340004A CN 116340004 A CN116340004 A CN 116340004A CN 202310429448 A CN202310429448 A CN 202310429448A CN 116340004 A CN116340004 A CN 116340004A
Authority
CN
China
Prior art keywords
computing unit
micro
propagation
node
time node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310429448.4A
Other languages
English (en)
Inventor
段钧文
张吴越
刘鹏
张丽娜
唐雪飞
赖彦名
朱春节
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202310429448.4A priority Critical patent/CN116340004A/zh
Publication of CN116340004A publication Critical patent/CN116340004A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本说明书公开了一种任务执行的方法、装置、存储介质及电子设备。所述任务执行的方法包括:获取目标模型的模型数据,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为前向传播节点,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为反向传播节点,根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。

Description

一种任务执行的方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种任务执行的方法、装置、存储介质及电子设备。
背景技术
随着深度学习技术的发展,一些超大规模的模型也随之出现,这些模型所需计算的参数量达到了千亿乃至万亿级,因此一些可以用于多机多卡集群环境的流水线并行算法被提出,以通过多个计算单元(如图形处理器(Central Process Unit,GPU))并行执行模型所涉及的运算。
在流水线并行算法中,通常会将一个训练批次划分为多个微训练批次(Microbatch),进而通过不同的计算单元完成对多个微批次的前向传播以及反向传播。
然而,目前在通过流水线并行算法进行任务执行过程中,对各微批次的前向传播过程和反向传播过程的时间及次序设置的并不合理,导致任务执行时存储在计算单元缓存中的激活值无法得到及时释放,模型收敛率较低,进一步影响模型的训练效率。
因此,如何对任务执行过程中产生的激活值进行有效释放,提高模型的收敛率以及训练效率,是一个亟待解决的问题。
发明内容
本说明书提供一种任务执行的方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种任务执行的方法,包括:
获取目标模型的模型数据;
根据所述模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有所述目标模型的部分网络层;
将各子模型部署在不同的计算单元中;
针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点;
在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点;
根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
可选地,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
将所述目标模型当前的训练批次划分为至少两个微批次;
确定该计算单元在每个时间节点之前允许进行针对所述至少两个微训练批次的反向传播的最大次数。
可选地,针对每个时间节点,当该计算单元不在该时间节点进行其中任意一个微训练批次的前向传播时,该时间节点后的剩余训练时长足够完成该微训练批次的前向传播和反向传播以及该微训练批次后的其他微训练批次的前向传播和反向传播。
可选地,针对每个计算单元,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数。
可选地,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
若该计算单元为最后一个执行计算的计算单元,则针对每个时间节点,若在该时间节点之前完成针对该微训练批次的前向传播,则根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
可选地,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
若该计算单元不为最后一个执行计算的计算单元,则针对每个时间节点,当下一个计算单元在前一个时间节点之前完成针对该微训练批次的反向传播,则根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
可选地,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
针对每个时间节点,在该计算单元为最后一个执行计算的计算单元且在该时间节点之前未完成针对该微训练批次的前向传播时,以及在该计算单元不为最后一个执行计算的计算单元且下一个计算单元在前一个时间节点之前未完成针对该训练批次的反向传播时,根据该计算单元在该时间节点的前一个时间节点执行针对该微训练批次的最大反向传播次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
可选地,确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点,具体包括:
确定各微训练批次的反向传播次数的最大值对应的最早时间节点,作为所述前向传播节点。
可选地,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
若该计算单元为最后一个执行计算的计算单元,则针对位于所述前向传播节点之前的每个时间节点,若该计算单元在该时间节点之前执行针对其中任意一个微训练批次的前向传播,则确定该计算单元在该时间节点进行针对该微训练批次的反向传播,并将该时间节点作为所述反向传播节点。
可选地,所述方法还包括:
将该计算单元在该时间节点的状态更新为完成针对该微训练批次的反向传播的状态。
可选地,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
若该计算单元不为最后一个执行计算的计算单元,则针对位于所述前向传播节点之前的每个时间节点,若下一个计算单元在前一个时间节点执行针对其中任意一个微训练批次的反向传播,则确定该计算单元在该时间节点执行针对该微训练批次的反向传播,并将该时间节点作为所述反向传播节点。
可选地,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
针对位于所述前向传播节点之前的每个时间节点,在该计算单元为最后一个执行计算的计算单元且该计算单元在该时间节点之前未执行针对其中一个微训练批次的前向传播时,以及在该计算单元不为最后一个执行计算的计算单元且下一个计算单元在前一个时间节点执行针对该微训练批次的反向传播时,确定该时间节点不执行反向传播。
可选地,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点,具体包括:
通过动态规划DP算法优化器,确定所述前向传播节点;
在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
通过贪心算法优化器,确定所述反向传播节点。
本说明书提供了一种任务执行的装置,包括:
获取模块,获取目标模型的模型数据;
拆分模块,根据所述模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有所述目标模型的部分网络层;
部署模块,将各子模型部署在不同的计算单元中;
第一确定模块,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点;
第二确定模块,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点;
执行模块,根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任务执行的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任务执行的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的任务执行的方法中,获取目标模型的模型数据,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为前向传播节点,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为反向传播节点,根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
从上述方法可以看出,本方案在执行任务执行的过程中,能够确定各微训练批次的反向传播次数的最大值对应的时间节点,作为其对应的前向传播节点,这样一来,就能够在每个微批次前向传播之前进行尽可能多的反向传播,提前部分微批次反向传播的时间,这样不但能够使存储在缓存中的激活值提前得到释放,并且进行反向传播的次数越多,模型参数的更新次数也就越多,之后再进行前向传播时模型的收敛率也会增大,进一步提升了模型的训练效率。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种任务执行的方法的流程示意图;
图2为本说明书中提供的一种各计算单元与各网络层之间的对应关系示意图;
图3为本说明书中提供的一种基于DP算法优化器以及贪心算法优化器确定训练策略的流程示意图;
图4为本说明书中提供的一种目标模型的流水线并行计算过程示意图;
图5为本说明书提供的一种任务执行的装置的示意图;
图6为本说明书提供的一种对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种任务执行的方法的流程示意图,包括以下步骤:
S101:获取目标模型的模型数据。
S102:根据所述模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有所述目标模型的部分网络层。
S103:将各子模型部署在不同的计算单元中。
获取目标模型的模型数据,并将所述目标模型的各个网络层部署在不同的计算单元中。
目前的流水线并行算法通常包括如Gpipe,Pipedream,virtual Pipeline等。但这些流水线并行算法都存在着缓存占用高和模型收敛慢的问题。以Gpipe为例的同步并行方法,因其反向传播部分的进度安排在前向传播部分之后,因此激活值不能及时被释放,导致缓存占用高。以Pipedream和virtual Pipeline为例的异步并行方法,其神经网络层在前一个微批次的反向传播还没完成,权重还没更新的情况下,已经开始进行下个微批次的前向传播。这一操作导致了模型收敛效率低。
基于此,本说明书提供了一种任务执行的方法,使前向传播在不影响最终训练完成时间的前提下,尽可能的推迟前向传播的执行时间,尽可能的提前部分反向传播的执行时间,从而提升模型收敛率并及时释放前向传播过程中的激活值所占用的缓存。
在本说明书中,用于实现任务执行的方法执行主体可以是指服务器等指定设备,为了便于描述,本说明书仅以服务器是执行主体为例,对本说明书中提供的一种任务执行的方法进行说明。
其中,服务器在接收到目标模型的训练请求后,可以先获取目标模型的模型数据,而后确定该目标模型中包含的各个网络层。
而后服务器可以将目标模型的各个网络层部署在不同的计算单元中,在本说明书中,该计算单元可以为GPU,当然,也可以为中央处理器(Central Processing Unit,CPU)、张量处理单元(Tensor Processing Unit,TPU)、嵌入式神经网络处理器(Neural-NetworkProcessing Unit,NPU)等其他计算设备,本说明书对此不做具体限定。
具体的,服务器可以根据模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有目标模型的部分网络层,进而将各子模型部署在不同的计算单元中。
其中,服务器可以将目标模型分成a层,当计算单元的总数为n时,服务器可以将目标模型从输入层到输出层,每a/n个网络层设置为一组。其中,网络层总数a必须能整除计算单元总数n。
而后服务器可以将每组网络层分配至各计算单元上。即第1组(包含第1层到第a/n层)分配至计算单元1,第2组(包含第(a/n)+1层到第2a/n层)分配至计算单元2,……,第n组(包含第(n-1)×(a/n)+1层到第a层)分配至计算单元n。为了便于理解,本说明书提供了一种各计算单元与各网络层之间的对应关系示意图,如图2所示。
图2为本说明书中提供的一种各计算单元与各网络层之间的对应关系示意图。
其中,目标模型除了输入层以及输出层外,还包含有16个其他网络层(Layer),并分别分配到不同的GPU中执行计算。
S104:针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点。
为了尽可能的推迟前向传播,提前反向传播,在本说明书中可以将该问题等效为各计算单元在每个时间节点进行各微训练批次的前向传播时,最多可以进行多少反向传播,从而将反向传播次数达到最大值时的时间节点作为前向传播节点,以此在该前向传播节点之前执行尽可能多的反向传播,推迟前向传播的时间。
在实际应用中,计算单元每进行一次前向传播通常会占用一个时间节点,每进行一次反向传播通常会占用两个时间节点,每个时间节点之间的具体时间间隔可以根据实际情况进行设定,本说明书对此不做具体限定。
另外,在本说明书中,服务器可以将当前训练批次划分为多个微训练批次(Microbatch),进而确定每个计算单元对各微训练批次进行前向传播的前向传播节点。
具体的,针对于任意一个时间节点j,如果计算单元i在时间节点j不进行微训练批次k的前向传播,则需要保证:余下的时间(m-j)足够完成微训练批次k的前向传播和反向传播,以及余下的时间(m-j)足够剩下的z-k个微训练批次完成前向传播和反向传播。其中,m为当前训练批次的总训练时长。
当计算单元i为最后一个执行计算的计算单元时,只需保证完成微训练批次k的反向传播,耗时2n,而如果计算单元i不是最后一个执行计算的计算单元时,则需要保证完成微训练批次k剩余的前向传播和反向传播,耗时(n-i)+2n。另外,如果计算单元i在时间节点j不进行微训练批次k的前向传播,需要保证余下的时间(m-j)足够完成微训练批次k的前向传播和反向传播,以及余下的时间(m-j)足够完成剩下的z-k个微训练批次的前向传播和反向传播,耗时(z-k)*(1+2),其中,z为微训练批次总数。
也就是说,时间节点j存在如下关系:
m-j>=2n+(z-k)*(1+2),If i=n
m-j>=(n-i)+2n+(z-k)*(1+2),If i≠n
基于此,针对任意一个时间节点j,其对应的约束关系可以表示为:
Figure BDA0004191944200000101
针对任意一个计算单元i、任意一个微训练批次k以及任意一个时间节点j,服务器可以根据计算单元i在时间节点j的前一个时间节点(j-1)执行针对上一个微训练批次(k-1)的反向传播的最大次数、该计算单元i在前两个时间节点(j-2)执行针对上一个微训练批次(k-1)的反向传播的最大次数,以及该计算单元i在该时间节点j的前一个时间节点(j-1)执行针对该微训练批次k的最大反向传播次数中的至少一种,确定计算单元i在每个时间节点之前允许进行针对该微训练批次的反向传播的最大次数,其中,计算单元i在时间节点j之前允许执行针对微训练批次k的反向传播的最大次数可以表示为DP(i,j,k)。
在实际应用中,针对每个批次的前向传播,只可能从上一个微训练批次(k-1)的前向传播演变过来,而DP(i,j,k)一次最多从上个状态增加1或者不变,如果DP(i,j,k)增加1,那只可能是计算单元i在时间节点j-2时额外进行了一次反向传播,而如果DP(i,j,k)不变,说明在上一个微训练批次(k-1)之后没进行反向传播,直接进行微训练批次k的前向传播,那么反向传播个数不增加。
具体的,服务器可以先对DP(i,j,k)的基础值进行设置,在本说明书中,可以另DP(i,1…3n-2i,1)=0,DP(i,3n-2i,1)=1,也就是说,设备i在时间节点3n-2i,之前针对第一个微训练批次(起始微训练批次)的最大反向传播次数为0,即只进行前向传播,在时间节点3n-2i时进行第一次反向传播。
若计算单元i为最后一个执行计算的计算单元,则针对任意一个时间节点j,若在该时间节点j之前完成针对微训练批次k的前向传播,则根据计算单元i在前一个时间节点(j-1)针对执行上一个微训练批次(k-1)的反向传播的最大次数,以及计算单元i在前两个时间节点(j-2)执行针对上一个微训练批次(k-1)的反向传播的最大次数,确定计算单元i在时间节点j之前允许进行针对微训练批次k的反向传播的最大次数。
在本说明书中,服务器可以取计算单元i在前一个时间节点(j-1)执行针对上一个微训练批次(k-1)的反向传播的最大次数,和计算单元i在前两个时间节点(j-2)执行针对上一个微训练批次(k-1)的反向传播的最大次数中的最大值作为计算单元i在时间节点j之前允许进行针对微训练批次k的反向传播的最大次数,计算单元i在时间节点j之前允许进行针对微训练批次k的反向传播的最大次数DP(i,j,k)可以表示为:
DP(i,j,k)=max(DP(i,j-2,k-1)+1,DP(i,j-1,k-1))
其中,时间节点j满足j<=m-2n-3(z-k)。
若计算单元i不为最后一个执行计算的计算单元,则针对任意一个时间节点j,当下一个计算单元(i+1)在前一个时间节点(j-1)之前完成针对微训练批次(k)的反向传播,则根据计算单元i在前一个时间节点(j-1)执行针对上一个微训练批次(k-1)的反向传播的最大次数,以及该计算单元在前两个时间节点(j-2)执行针对上一个微训练批次(k-1)的反向传播的最大次数,确定计算单元i在时间节点j之前允许进行针对微训练批次k的反向传播的最大次数。
在本说明书中,服务器可以取计算单元i在前一个时间节点(j-1)执行针对上一个微训练批次(k-1)的反向传播的最大次数,和计算单元i在前两个时间节点(j-2)执行针对上一个微训练批次(k-1)的反向传播的最大次数中的最大值作为计算单元i在时间节点j之前允许进行针对微训练批次k的反向传播的最大次数,计算单元i在时间节点j之前允许进行针对微训练批次k的反向传播的最大次数DP(i,j,k)可以表示为:
DP(i,j,k)=max(DP(i,j-2,k-1)+1,DP(i,j-1,k-1))
其中,时间节点j满足j<=i+m-3(n+z-k)。
而若不满足上述两种情况,即针对任意一个时间节点j,在该计算单元i为最后一个执行计算的计算单元且在该时间节点j之前未完成针对微训练批次k的前向传播时,以及在计算单元i不为最后一个执行计算的计算单元且下一个计算单元(k+1)在前一个时间节点(j-1)之前未完成训练批次k的反向传播时,则服务器可以根据计算单元i在该时间节点j的前一个时间节点(j-1)进行针对该微训练批次的最大反向传播次数,确定计算单元i在该时间节点j之前允许进行针对该微训练批次的反向传播的最大次数。计算单元i在时间节点j之前允许进行针对该微训练批次的反向传播的最大次数DP(i,j,k)可以表示为:
DP(i,j,k)=DP(i,j-1,k)
基于此,服务器可以得到动态转移方程,该动态转移方程可以表示为:
Figure BDA0004191944200000131
服务器可以基于该动态转移方程,确定各计算单元在每个时间节点之前允许进行针对每个微训练批次的反向传播的最大次数。
进一步的,服务器可以基于上述动态转移方程,确定各微训练批次的反向传播次数的最大值对应的时间节点,作为该计算单元对各微训练批次进行前向传播的前向传播节点。
具体的,服务器可以根据上述动态转移方程,遍历各计算单元以及各时间节点,确定DP(i,j,k)为最大值时的最早的时间节点j*,作为计算单元i在进行针对微训练批次k的前向传播时的前向传播节点,进而得到二维数组DP_res(i,j*)=k,表示设备i在DP(i,j,k)为最大值时且时间节点为j*时,进行微批次k的前向传播。
服务器可以根据该计算单元对各微训练批次进行前向传播的前向传播节点,确定该计算单元的前向传播策略。
需要说明的是,针对每个微训练批次对应的前向传播节点,服务器已经在该传播节点之前完成针对上一个微训练批次的前向传播。即上一个微训练批次的前向传播节点需要在当前微训练批次对应的前向传播节点之前。
在本说明书中,服务器也可以通过动态规划优化器(Dynamic Programming,DP)根据目标模型的模型结构、训练数据集的数据集参数(如均值、方差等)、计算单元的环境参数等信息来确定上述动态规划方程,并进一步根据各计算单元对各微训练批次进行前向传播的前向传播节点,确定各计算单元的前向传播策略。
S105:在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点。
在确定各前向传播节点后,服务器可以在至少位于确定出的前向传播节点之前的其他时间节点中确定各计算单元对每个微批次进行反向传播的时间节点。
换句话说,服务器可以在前向传播节点之前确定出尽可能多的反向传播节点,从而在每一次进行前向传播之前执行尽可能多的进行反向传播,当然,也也有一部分微训练批次的反向传播位于前向传播节点之后。
具体的,针对任意一个计算单元i,若该计算单元i为最后一个执行计算的计算单元,则针对任意一个时间节点j,若该计算单元i在时间节点j之前执行针对任意一个微训练批次k的前向传播,则确定计算单元i在时间节点j进行针对微训练批次k的反向传播,并将时间节点j作为计算设备i对训练批次k进行反向传播的反向传播节点,表示为D_e(i,j)=k,以及将计算单元i在时间节点j的状态更新为完成针对微训练批次k的反向传播的状态,表示为D_b(i)=k。
若该计算单元i不为最后一个执行计算的计算单元,则针对任意一个时间节点j,若下一个计算单元(i+1)在前一个时间节点(j-1)进行针对任意一个微训练批次(k)的反向传播,则确定计算单元i在时间节点j进行针对该微训练批次k的反向传播,并将时间节点j作为计算设备i对微训练批次k进行反向传播的反向传播节点。
而对于除上述情况以外的其他情况,即计算单元i为最后一个执行计算的计算单元且该计算单元i在时间节点j之前未进行针对微训练批次k的前向传播,以及计算单元i不为最后一个执行计算的计算单元且下一个计算单元(k+1)在前一个时间节点(j-1)进行针对该微训练批次k的反向传播,则确定时间节点j不进行反向传播。
基于此,服务器可以得到反向传播节点的更新方程,该更新方程可以表示为:
Figure BDA0004191944200000151
服务器可以依据上述更新方程,确定计算单元i是否在时间节点j进行微训练批次k的反向传播,进而确定各计算单元对各微训练批次进行反向传播的反向传播节点。
在本说明书中,服务器可以通过贪心算法优化器,根据目标模型的模型结构信息、数据集参数、计算单元的环境参数等信息以及DP算法优化器的输出确定各计算单元对各微训练批次进行反向传播的反向传播节点。为了便于理解,本说明书提供了一种基于DP算法优化器以及贪心算法优化器确定训练策略的流程示意图,如图3所示。
图3为本说明书中提供的一种基于DP算法优化器以及贪心算法优化器确定训练策略的流程示意图。
其中,服务器可以获取模型结构信息、数据集参数、计算单元的环境参数,并将其输入DP算法优化器,输出各计算单元的前向传播策略,进而将DP算法优化器的输出、模型结构信息、数据集参数、计算单元的环境参数输入贪心算法优化器,确定各计算单元的反向传播策略,进而基于该前向传播策略以及反向传播策略确定目标模型的训练策略,并基于该训练策略训练目标模型。
S106:根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
确定各计算单元对各微训练批次进行前向传播的前向传播节点,以及各计算单元对各微训练批次进行反向传播的反向传播节点后,服务器可以基于各前向传播节点以及各反向传播节点,确定每个计算单元在哪一个时间节点进行针对哪一个微训练批次的前向传播,以及在哪一个计算节点进行针对哪一个微训练批次的反向传播,进而确定任务执行过程中的训练策略。
而后服务器可以按照该训练策略,基于每个微训练批次的训练样本,调用不同的计算单元完成各微训练批次的前向传播和反向传播,从而执行当前批次针对目标模型的训练任务。
为了便于理解,本说明书提供了一种目标模型的流水线并行计算过程示意图,如图4所示。
图4为本说明书中提供的一种目标模型的流水线并行计算过程示意图。
其中,每一个最小的矩形方框为一个时间节点,有数字的白色方框(即1L~4L,1R~4R)为前向传播,每次前向传播占用一个时间节点,有数字的黑色方框(即1L~4L,1R~4R)为反向传播,每次反向传播占用两个时间节点。
从上述方法可以看出,本方案在执行任务执行的过程中,能够确定各微训练批次的反向传播次数的最大值对应的时间节点,作为其对应的前向传播节点,这样一来,就能够在各微批次前向传播之前进行尽可能多的反向传播,提前多数反向传播被的时间,这样不但能够使存储在缓存中的激活值提前得到释放,并且进行反向传播的次数越多,模型参数的更新次数也就越多,之后再进行前向传播时模型的收敛率也会增大,进一步提升了模型的训练效率。
以上为本说明书的一个或多个实施任务执行的方法,基于同样的思路,本说明书还提供了相应的任务执行的装置,如图5所示。
图5为本说明书提供的一种任务执行的装置的示意图,包括:
获取模块501,用于获取目标模型的模型数据;
拆分模块502,用于根据所述模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有所述目标模型的部分网络层;
部署模块503,用于将各子模型部署在不同的计算单元中;
第一确定模块504,用于针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点;
第二确定模块505,用于在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点;
执行模块506,用于根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
可选地,所述拆分模块502具体用于,将所述目标模型当前的训练批次划分为至少两个微批次;确定该计算单元在每个时间节点之前允许进行针对所述至少两个微训练批次的反向传播的最大次数。
可选地,针对每个时间节点,当该计算单元不在该时间节点进行其中任意一个微训练批次的前向传播时,该时间节点后的剩余训练时长足够完成该微训练批次的前向传播和反向传播以及该微训练批次后的其他微训练批次的前向传播和反向传播。
可选地,所述第一确定模块504具体用于,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数。
可选地,所述第一确定模块504具体用于,若该计算单元为最后一个执行计算的计算单元,则针对每个时间节点,若在该时间节点之前完成针对该微训练批次的前向传播,则根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
可选地,所述第一确定模块504具体用于,若该计算单元不为最后一个执行计算的计算单元,则针对每个时间节点,当下一个计算单元在前一个时间节点之前完成针对该微训练批次的反向传播,则根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
可选地,所述第一确定模块504具体用于,针对每个时间节点,在该计算单元为最后一个执行计算的计算单元且在该时间节点之前未完成针对该微训练批次的前向传播时,以及在该计算单元不为最后一个执行计算的计算单元且下一个计算单元在前一个时间节点之前未完成针对该训练批次的反向传播时,根据该计算单元在该时间节点的前一个时间节点执行针对该微训练批次的最大反向传播次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
可选地,所述第一确定模块504具体用于,确定各微训练批次的反向传播次数的最大值对应的最早时间节点,作为所述前向传播节点。
可选地,所述第二确定模块505具体用于,若该计算单元为最后一个执行计算的计算单元,则针对位于所述前向传播节点之前的每个时间节点,若该计算单元在该时间节点之前执行针对其中任意一个微训练批次的前向传播,则确定该计算单元在该时间节点进行针对该微训练批次的反向传播,并将该时间节点作为所述反向传播节点。
可选地,所述第二确定模块505还用于,将该计算单元在该时间节点的状态更新为完成针对该微训练批次的反向传播的状态。
可选地,所述第二确定模块505具体用于,若该计算单元不为最后一个执行计算的计算单元,则针对位于所述前向传播节点之前的每个时间节点,若下一个计算单元在前一个时间节点执行针对其中任意一个微训练批次的反向传播,则确定该计算单元在该时间节点执行针对该微训练批次的反向传播,并将该时间节点作为所述反向传播节点。
可选地,所述第二确定模块505具体用于,针对位于所述前向传播节点之前的每个时间节点,在该计算单元为最后一个执行计算的计算单元且该计算单元在该时间节点之前未执行针对其中一个微训练批次的前向传播时,以及在该计算单元不为最后一个执行计算的计算单元且下一个计算单元在前一个时间节点执行针对该微训练批次的反向传播时,确定该时间节点不执行反向传播。
可选地,所述第一确定模块504具体用于,通过动态规划DP算法优化器,确定所述前向传播节点;
可选地,所述第二确定模块505具体用于,通过贪心算法优化器,确定所述反向传播节点。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种任务执行的方法。
本说明书还提供了图6所示的一种对应于图1的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的任务执行的方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device,PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logiccompiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware DescriptionLanguage,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced BooleanExpression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java HardwareDescription Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware DescriptionLanguage)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated CircuitHardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (16)

1.一种任务执行的方法,其特征在于,包括:
获取目标模型的模型数据;
根据所述模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有所述目标模型的部分网络层;
将各子模型部署在不同的计算单元中;
针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点;
在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点;
根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
2.如权利要求1所述的方法,其特征在于,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
将所述目标模型当前的训练批次划分为至少两个微批次;
确定该计算单元在每个时间节点之前允许进行针对所述至少两个微训练批次的反向传播的最大次数。
3.如权利要求2所述的方法,其特征在于,针对每个时间节点,当该计算单元不在该时间节点进行其中任意一个微训练批次的前向传播时,该时间节点后的剩余训练时长足够完成该微训练批次的前向传播和反向传播以及该微训练批次后的其他微训练批次的前向传播和反向传播。
4.如权利要求1所述的方法,其特征在于,针对每个计算单元,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数。
5.如权利要求4所述的方法,其特征在于,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
若该计算单元为最后一个执行计算的计算单元,则针对每个时间节点,若在该时间节点之前完成针对该微训练批次的前向传播,则根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
6.如权利要求4所述的方法,其特征在于,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
若该计算单元不为最后一个执行计算的计算单元,则针对每个时间节点,当下一个计算单元在前一个时间节点之前完成针对该微训练批次的反向传播,则根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
7.如权利要求4所述的方法,其特征在于,针对每个微训练批次以及每个时间节点,根据该计算单元在前一个时间节点执行针对上一个微训练批次的反向传播的最大次数、该计算单元在前两个时间节点执行针对上一个微训练批次的反向传播的最大次数,以及该计算单元在前一个时间节点执行针对该微训练批次的反向传播最大次数中的至少一种,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,具体包括:
针对每个时间节点,在该计算单元为最后一个执行计算的计算单元且在该时间节点之前未完成针对该微训练批次的前向传播时,以及在该计算单元不为最后一个执行计算的计算单元且下一个计算单元在前一个时间节点之前未完成针对该训练批次的反向传播时,根据该计算单元在该时间节点的前一个时间节点执行针对该微训练批次的最大反向传播次数,确定该计算单元在该时间节点之前允许执行针对该微训练批次的反向传播的最大次数。
8.如权利要求1所述的方法,其特征在于,确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点,具体包括:
确定各微训练批次的反向传播次数的最大值对应的最早时间节点,作为所述前向传播节点。
9.如权利要求1所述的方法,其特征在于,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
若该计算单元为最后一个执行计算的计算单元,则针对位于所述前向传播节点之前的每个时间节点,若该计算单元在该时间节点之前执行针对其中任意一个微训练批次的前向传播,则确定该计算单元在该时间节点进行针对该微训练批次的反向传播,并将该时间节点作为所述反向传播节点。
10.如权利要求9所述的方法,其特征在于,所述方法还包括:
将该计算单元在该时间节点的状态更新为完成针对该微训练批次的反向传播的状态。
11.如权利要求1所述的方法,其特征在于,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
若该计算单元不为最后一个执行计算的计算单元,则针对位于所述前向传播节点之前的每个时间节点,若下一个计算单元在前一个时间节点执行针对其中任意一个微训练批次的反向传播,则确定该计算单元在该时间节点执行针对该微训练批次的反向传播,并将该时间节点作为所述反向传播节点。
12.如权利要求1所述的方法,其特征在于,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
针对位于所述前向传播节点之前的每个时间节点,在该计算单元为最后一个执行计算的计算单元且该计算单元在该时间节点之前未执行针对其中一个微训练批次的前向传播时,以及在该计算单元不为最后一个执行计算的计算单元且下一个计算单元在前一个时间节点执行针对该微训练批次的反向传播时,确定该时间节点不执行反向传播。
13.如权利要求1所述的方法,其特征在于,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点,具体包括:
通过动态规划DP算法优化器,确定所述前向传播节点;
在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点,具体包括:
通过贪心算法优化器,确定所述反向传播节点。
14.一种任务执行的装置,其特征在于,包括:
获取模块,获取目标模型的模型数据;
拆分模块,根据所述模型数据,对所述目标模型进行拆分,得到各子模型,每个子模型包含有所述目标模型的部分网络层;
部署模块,将各子模型部署在不同的计算单元中;
第一确定模块,针对每个计算单元,确定该计算单元在每个时间节点之前允许进行针对各微训练批次的反向传播的最大次数,并确定反向传播次数的最大值所对应的时间节点,作为该计算单元执行针对各微训练批次的前向传播的前向传播节点;
第二确定模块,在至少位于所述前向传播节点之前的各时间节点中确定该计算单元执行针对每个微训练批次的反向传播的时间节点,作为该计算单元执行针对各微训练批次的反向传播的反向传播节点;
执行模块,根据每个计算单元对应的前向传播节点以及每个计算单元对应的反向传播节点,确定针对所述目标模型的训练策略,并基于所述训练策略,执行针对所述目标模型的任务执行任务。
15.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~13任一项所述的方法。
16.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~13任一项所述的方法。
CN202310429448.4A 2023-04-11 2023-04-11 一种任务执行的方法、装置、存储介质及电子设备 Pending CN116340004A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310429448.4A CN116340004A (zh) 2023-04-11 2023-04-11 一种任务执行的方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310429448.4A CN116340004A (zh) 2023-04-11 2023-04-11 一种任务执行的方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN116340004A true CN116340004A (zh) 2023-06-27

Family

ID=86885918

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310429448.4A Pending CN116340004A (zh) 2023-04-11 2023-04-11 一种任务执行的方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN116340004A (zh)

Similar Documents

Publication Publication Date Title
JP6793838B2 (ja) ブロックチェーンベースのデータ処理方法および装置
CN116432778B (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN115981870B (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN116225669B (zh) 一种任务执行方法、装置、存储介质及电子设备
CN114936085A (zh) 基于深度学习算法的etl调度方法及装置
CN116932175B (zh) 一种基于序列生成的异构芯片任务调度方法以及装置
CN116822657B (zh) 一种模型训练加速的方法、装置、存储介质及电子设备
CN116107728B (zh) 一种任务执行方法、装置、存储介质及电子设备
CN116341642B (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN116304212A (zh) 一种数据处理系统、方法、设备及存储介质
CN116384505A (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN116340004A (zh) 一种任务执行的方法、装置、存储介质及电子设备
CN113641872B (zh) 一种散列方法、装置、设备及介质
CN113177632B (zh) 一种基于流水线并行的模型训练方法、装置以及设备
CN109614388B (zh) 一种预算扣减方法和装置
CN110032433B (zh) 一种任务执行方法、装置、设备及介质
CN116996397B (zh) 一种网络丢包优化的方法、装置、存储介质及电子设备
CN117348999B (zh) 一种业务执行系统及业务执行方法
CN117873789B (zh) 一种基于分段量化的检查点写入方法及装置
CN116089434B (zh) 一种数据存储方法、装置、存储介质及电子设备
CN116415103B (zh) 一种数据处理的方法、装置、存储介质以及电子设备
CN117032999B (zh) 一种基于异步运行时的cpu-gpu协同调度方法及装置
CN112087488B (zh) 一种重要云机器人节点的确定方法、装置、设备及介质
CN117891600A (zh) 一种任务调度的方法、装置、存储介质及电子设备
CN116909744A (zh) 一种线程池参数调节方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination