CN112631775A - 模型训练方法、装置、电子设备和计算机可读存储介质 - Google Patents
模型训练方法、装置、电子设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN112631775A CN112631775A CN202011552010.8A CN202011552010A CN112631775A CN 112631775 A CN112631775 A CN 112631775A CN 202011552010 A CN202011552010 A CN 202011552010A CN 112631775 A CN112631775 A CN 112631775A
- Authority
- CN
- China
- Prior art keywords
- gradient
- inverse
- calculation
- processor
- computing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000004364 calculation method Methods 0.000 claims abstract description 170
- 230000001360 synchronised effect Effects 0.000 claims abstract description 63
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 11
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
Abstract
本公开公开了模型训练方法、装置、电子设备和计算机可读存储介质,涉及人工智能领域,尤其涉及深度学习领域和人工智能芯片领域。具体实现方案为:通过一个计算单元对一个训练数据集执行前向计算操作序列以及反向计算操作序列中包括的第一反向计算操作,以基于第一反向计算操作确定第一计算结果和模型的第一梯度;至少基于第一梯度,确定第一同步梯度;基于所述第一计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第二反向计算操作,以基于所述第二反向计算操作至少确定所述模型的第二梯度;至少基于第二梯度,确定第二同步梯度;以及至少基于第一同步梯度和第二同步梯度更新模型的参数。以此方式,实现了高效准确的并行训练。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及深度学习领域和人工智能芯片领域,具体地,涉及模型训练方法、装置、电子设备、计算机可读存储介质和计算机程序产品。
背景技术
随着人工智能技术的发展,模型训练场景对算力的需求越来越大,传统的通过单个计算单元基于训练数据集来完成对模型进行训练的方式逐渐被多个计算单元协同完成训练任务的方式所取代。然而,多个计算单元参与的并行训练过程存在瓶颈,制约了多个计算单元的训练性能的提升。
发明内容
本公开提供了一种用于训练模型的方法、装置、电子设备、存储介质以及计算机程序产品。
根据本公开的一方面,提供了一种模型训练方法。该方法可以包括通过多个计算单元中的一个计算单元对多个训练数据集中的一个训练数据集执行前向计算操作序列以及反向计算操作序列中包括的第一反向计算操作,以基于第一反向计算操作确定第一计算结果和模型的第一梯度。进而,至少基于第一梯度,确定第一同步梯度。这里,第一同步梯度与多个计算单元的相应第一反向计算操作相关联。该方法还可以包括基于所述第一计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第二反向计算操作,以基于所述第二反向计算操作至少确定所述模型的第二梯度。进而,至少基于第二梯度,确定第二同步梯度。这里,第二同步梯度与多个计算单元的相应第二反向计算操作相关联。此外,该方法可以进一步包括至少基于第一同步梯度和第二同步梯度更新模型的参数。
根据本公开的另一方面,提供了一种模型训练装置,包括:第一计算操作执行模块,被配置为通过多个计算单元中的一个计算单元对多个训练数据集中的一个训练数据集执行前向计算操作序列以及反向计算操作序列中包括的第一反向计算操作,以基于所述第一反向计算操作确定第一计算结果和所述模型的第一梯度;第一同步梯度确定模块,被配置为至少基于所述第一梯度确定第一同步梯度,其中所述第一同步梯度与所述多个计算单元的相应第一反向计算操作相关联;第二计算操作执行模块,被配置为基于所述第一计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第二反向计算操作,以基于所述第二反向计算操作至少确定所述模型的第二梯度;第二同步梯度确定模块,被配置为至少基于所述第二梯度确定第二同步梯度,其中所述第二同步梯度与所述多个计算单元的相应第二反向计算操作相关联;以及模型参数更新模块,被配置为至少基于所述第一同步梯度和所述第二同步梯度更新所述模型的参数
在本公开的第三方面中,提供了一种电子设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第四方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
在本公开的第五方面中,提供了一种计算机程序产品,计算机程序在被处理器执行时实现根据本公开的第一方面的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的实施例的详细示例环境的示意图;
图3示出了根据本公开的实施例的训练模型的过程的流程图;
图4示出了根据本公开的另一实施例的详细示例环境的示意图;
图5示出了根据本公开的实施例的训练模型的装置的框图;以及
图6示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
应理解,基于单个计算单元训练模型的方式通常可以包括前向计算、反向计算、更新模型参数等几个步骤。这里,前向计算可以是一个计算操作序列,其中包含了多个前向计算操作,用于计算得到模型的损失(即,预测值与真实值之间的差异)。反向计算通常是前向计算的逆过程,包含了多个反向计算操作,用于计算得到模型的梯度(即,使模型的损失函数最小化的向量)。最终,单个计算单元可以基于梯度迭代地更新模型的参数,从而得到训练好的模型。然而,目前缺少通过多个计算单元协同操作来并行训练模型的创新方案。这里,计算单元是专用处理器,诸如图像处理器(GPU)或人工智能芯片。
进一步地,如果简单地将多个计算单元配置为并行训练同一模型,则仍然可能存在一些缺陷。例如,当利用多个计算单元协同完成上述训练任务时,需要增加一个步骤来对各计算单元反向计算中确定的梯度进行同步,之后将经同步的梯度返回各计算单元进行模型参数的更新。因此,简单的多计算单元并行训练的方式无法实现线性扩展。
如上文提及的,亟需一种模型训练方法,来快速高效且低成本地实现多计算单元的并行训练操作。
根据本公开的实施例,提出了一种模型训练方案。在该方案中,可以将训练数据集分组成多个数据集,并将这些数据集分别分配至多个计算单元。每个计算单元均迭代地执行相同的计算任务:计算模型的第一梯度,并对各计算单元所计算得到的第一梯度进行同步;计算模型的第二梯度,并对各计算单元所计算得到的第二梯度或更多梯度进行同步;以及基于经同步的第一梯度、第二梯度甚至更多梯度来更新模型的参数。以此方式,实现了高效准确的并行训练。
此外,为了隐藏同步过程的时间开销,可以将对第一梯度、第二梯度、甚至更多梯度的同步操作转移至处理器处进行操作。换言之,针对一个计算单元,当该计算单元确定了第一梯度之后,可以在该计算单元继续确定第二梯度的同时利用处理器对第一梯度进行同步,并且在利用处理器对第二梯度进行同步的同时利用该计算单元基于经同步的第一梯度来更新与第一梯度对应的模型参数。由此,由处理器执行的梯度同步操作并未延迟计算单元的前向计算、反向计算和更新模型参数的操作,从而实现了多计算单元并行训练的线性扩展。
以下将参照附图来具体描述本公开的实施例。图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。如图1所示,示例环境100中包含计算单元组110和处理器120。在一些实施例中,计算单元组110可以包括但不限于人工智能芯片、图像处理器(GPU)等模型训练设备。此外,处理器120也可以是个人计算机、服务器计算机、手持或膝上型设备、移动设备(诸如移动电话、个人数字助理PDA、媒体播放器等)、消费电子产品、小型计算机、大型计算机等的中央处理器(CPU)。在本公开的技术方案中,计算单元组110包含多个计算单元,例如,如图1所示,计算单元111、计算单元112和计算单元113。应理解,计算单元组110所包含的计算单元的数目可以由更多个,这些计算单元用于协同完成模型训练的计算任务。由于各计算单元被分配到的训练数据不同,故各计算单元所计算得到的梯度通常不同。因此,计算单元组110中的各计算单元可以将各自确定的梯度传输至处理器120进行同步,并从处理器120接收经同步的梯度,从而更新各自的参数。
为了更详细的描述图1的并行的模型训练过程,现参照图2对各计算单元的计算过程进行描述。图2示出了根据本公开的实施例的详细的示例环境200的示意图。该示例环境200中包含多个计算单元200A、200B、200C…200N等。应理解,为了清楚显示的目的,图2仅详细示出了计算单元200A的计算操作以及计算单元200B的部分计算操作。
如图2所示,计算单元200A被配置为对一个训练数据集执行多个计算操作。作为示例,计算单元200A首先对训练数据集执行包含前向计算操作201A和前向计算操作202A的前向计算操作序列,进而基于前向计算操作202A的结果执行反向计算操作203A,从而确定反向计算操作203A的计算结果以及第一梯度。此时,反向计算操作203A的计算结果将被用于执行反向计算操作204A以确定第二梯度,而第一梯度将被用于执行同步操作205A。换言之,同步操作205A可以与反向计算操作204A同时进行,从而将同步操作205A的时间开销至少部分地隐藏在反向计算操作204A中。之后,经同步的第一梯度将被用于执行参数更新操作207A,而第二梯度将被用于执行同步操作206A。换言之,同步操作206A可以与参数更新操作207A同时进行,从而将同步操作206A的时间开销至少部分地隐藏在参数更新操作207A中。
应理解,上述计算过程,尤其是需要计算单元200A同时执行两个操作的过程依赖于各计算单元的算力。当各计算单元算力不足时,如图2所示,可以将诸如同步操作205A、206A的操作转移至处理器120进行处理。换言之,当计算单元200A在反向计算操作203A出确定了第一梯度后,可以将第一梯度传输至处理器120。处理器120可以执行同步操作205A、205B等操作以对第一梯度以及来自计算单元200B、200C…200N等的各附加梯度进行同步,并将同步后的梯度返回各计算单元,以执行相应的参数更新操作207A、207B等。类似地,处理器120还可以执行诸如同步操作206A等的针对第二梯度的同步操作。由此,同样可以隐藏各同步操作的时间开销。
上文描述的技术方案仅用于示例,而非限制本发明。应理解,还可以按照其他方式和时序关系来设计各个计算单元的计算步骤。为了更清楚地解释上述方案的原理,下文将参考图3来更详细地描述模型训练的过程。
图3示出了根据本公开的实施例的训练模型的过程300的流程图。在某些实施例中,过程300可以在图2的多个计算单元上实现,也可以通过图2的多个计算单元和处理器120的协同操作来实现。现参照图3描述根据本公开实施例的模型训练的过程300。为了便于理解,在下文描述中提及的具体实例均是示例性的,并不用于限定本公开的保护范围。
在302,多个计算单元中的一个计算单元(例如,计算单元200A)可以对多个训练数据集中的一个训练数据集执行前向计算操作序列(例如,图2中的前向计算操作201A、202A)以及反向计算操作序列(例如,图2中的反向计算操作203A、204A)中包括的反向计算操作203A,以基于该反向计算操作203A确定第一计算结果和模型的第一梯度。应理解,本公开描述的计算单元可以是人工智能芯片或图像处理器GPU等计算设备。
在304,计算单元200A被配置为至少基于在反向计算操作203A中计算得到的第一梯度确定第一同步梯度,即,执行同步操作205A。应理解,该第一同步梯度与上述多个计算单元的相应的反向计算操作相关联。换言之,由于每个计算单元均会在相应的反向计算操作中确定一个相应的第一梯度,且由于各计算单元所分配的训练数据集通常互不相同,故可以对这些不同的第一梯度进行同步,从而使每个计算单元均获得统一的第一梯度。
在某些实施例中,为了确定第一同步梯度,计算单元200A可以将计算确定的第一梯度传输至用于控制上述多个计算单元并行训练的处理器120,从而使处理器120执行同步操作205A。应理解,该处理器120可以是中央处理器(CPU)或其他具备调度、控制功能的控制器。之后,上述多个计算单元中的附加计算单元(例如,图2中的计算单元200B)可以将基于多个训练数据集中的另一训练数据集确定的第一附加梯度传输至处理器120。优选地,所有计算单元均将计算确定的相应梯度传输至处理器120。之后,处理器120可以对接收到的各计算单元的梯度进行求和,从而将梯度和确定为第一同步梯度。各计算单元接收由处理器120基于第一梯度、第一附加梯度以及其他相应梯度确定的第一同步梯度。以此方式,可以对各计算单元确定的梯度进行统一,从而为模型参数的更新提供更可靠的梯度参考。此外,通过利用处理器120执行同步操作,可以隐藏同步操作的开销,提高模型训练的效率。
在306,计算单元200A可以基于上述第一计算结果对该训练数据集执行反向计算操作序列中包括的反向计算操作204A,以基于反向计算操作204A至少确定模型的第二梯度。应理解,本公开的反向计算操作204A可以与同步操作205A几乎同时地执行,从而隐藏同步操作205A的时间开销。
在308,计算单元200A被配置为至少基于第二梯度确定第二同步梯度,即,执行同步操作206A。应理解,该第二同步梯度与上述多个计算单元的相应的反向计算操作相关联。换言之,由于每个计算单元均会在相应的反向计算操作中确定一个相应的第二梯度,且由于各计算单元所分配的训练数据集通常互不相同,故可以对这些不同的第二梯度进行同步,从而使每个计算单元均获得统一的第一梯度。
在某些实施例中,计算单元200A可以将第一梯度传输至处理器120,从而使处理器120执行同步操作205A。当处理器120完成同步操作205A后,计算单元200A可以接收由处理器120确定的第一同步梯度。应理解,针对图2所示的计算单元200A的计算操作序列,只将同步操作205分配给处理器120进行执行即可提升计算单元200A的工作效率。
更优选地,计算单元200A还可以将第二梯度传输至处理器120,从而使处理器120执行同步操作206A。当处理器120完成同步操作206A后,计算单元200A可以接收由处理器120确定的第二同步梯度。以此方式,同步操作205A可以与反向计算操作204A几乎同时执行,同步操作206A可以与参数更新操作207A同时进行,从而将所有同步操作的时间开销均隐藏在计算单元200A执行的其他操作中。
在310,计算单元200A可以至少基于第一同步梯度和第二同步梯度更新模型的参数。作为示例,计算单元200A可以基于第一同步梯度更新模型的第一参数,并且基于第二同步梯度更新模型的第二参数。通过多次迭代,计算单元200A或其他计算单元可以确定模型的第一参数和第二参数,从而完成对模型的训练。以此方式,可以实现每个计算单元所确定的每个梯度的同步,从而可以利用多个计算单元来高效准确地执行模型训练。
应理解,图2所示的每个计算单元均确定两个梯度、进而更新两个参数的方案以及本公开参照图2对图3的描述均是示例性的,并不旨在限制本公开的保护范围。图2的计算操作序列可以被修改为执行前向计算、反向计算等的其他形式。作为示例,图4示出了根据本公开的另一实施例的详细示例环境400的示意图。
如图4所示,前向计算操作序列包含前向计算操作401、402、403、404。这些前向计算操作可以是用于计算模型损失的多个计算操作,例如,矩阵乘法操作、激活操作等。相应地,反向计算操作序列包含反向计算操作405、406、407、408。这些反向计算操作通常是前向计算操作的逆操作。例如,反向计算操作405是前向计算操作404的逆操作,反向计算操作406是前向计算操作403的逆操作等。应理解,每个反向计算操作均可以确定模型的一个梯度。
如图4所示,当计算单元执行反向计算操作405时,可以确定第一计算结果和第一梯度。与图2类似地,第一梯度被传输至处理器120以执行同步操作409。此外,第一计算结果被用于反向计算操作406,除了确定第二梯度以外,计算单元还基于反向计算操作406确定第二计算结果,并且基于第二计算结果对训练数据集执行反向计算操作序列中包括的反向计算操作407,以基于反向计算操作407确定模型的第三梯度。因此,可以通过处理器120基于多个计算单元的相应第三梯度来确定第三同步梯度。
此外,第二计算结果被用于反向计算操作407,除了确定第三梯度以外,计算单元还基于反向计算操作407确定第三计算结果,并且基于第三计算结果对训练数据集执行反向计算操作序列中包括的反向计算操作408,以基于反向计算操作408确定模型的第四梯度。因此,可以通过处理器120基于多个计算单元的相应第四梯度来确定第四同步梯度。以此方式,本公开的并行训练方法可以适用于更复杂的模型训练过程。
通过以上实施例,本公开提供了一种包含多个计算操作的模型训练方案,以此方式实现高效准确的并行训练。此外,为了隐藏同步过程的时间开销,可以将同步操作与部分反向计算操作以及部分参数更新操作进行并行执行。此外,对于计算单元算力不足以执行并行操作的情况,本公开可以将同步过程转移至用于管理计算单元的处理器处进行操作,从而通过处理器与计算单元的协同操作实现并行训练。以此方式,可以是多计算单元并行训练的梯度同步操作的开销最小化,从而可以基本实现计算单元的线性扩展。
图5示出了根据本公开的实施例的训练模型的装置500的框图。如图5所示,装置500可以包括:第一计算操作执行模块502,被配置为通过多个计算单元中的一个计算单元对多个训练数据集中的一个训练数据集执行前向计算操作序列以及反向计算操作序列中包括的第一反向计算操作,以基于所述第一反向计算操作确定第一计算结果和所述模型的第一梯度;第一同步梯度确定模块504,被配置为至少基于所述第一梯度确定第一同步梯度,其中所述第一同步梯度与所述多个计算单元的相应第一反向计算操作相关联;第二计算操作执行模块506,被配置为基于所述第一计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第二反向计算操作,以基于所述第二反向计算操作至少确定所述模型的第二梯度;第二同步梯度确定模块508,被配置为至少基于所述第二梯度确定第二同步梯度,其中所述第二同步梯度与所述多个计算单元的相应第二反向计算操作相关联;以及模型参数更新模块510,被配置为至少基于所述第一同步梯度和所述第二同步梯度更新所述模型的参数。
在某些实施例中,第一同步梯度确定模块504可以包括:第一梯度传输模块,被配置为将所述第一梯度传输至用于控制所述多个计算单元并行训练所述模型的处理器;以及第一同步梯度接收模块,被配置为接收由所述处理器确定的所述第一同步梯度。
在某些实施例中,第二同步梯度确定模块508可以包括:第二梯度传输模块,被配置为将所述第二梯度传输至所述处理器;以及第二同步梯度接收模块,被配置为接收由所述处理器确定的所述第二同步梯度。
在某些实施例中,第一同步梯度确定模块504可以包括:第一梯度传输模块,被配置为将所述第一梯度传输至用于控制所述多个计算单元并行训练所述模型的处理器;第一附加梯度传输模块,被配置为将所述多个计算单元中的附加计算单元基于所述多个训练数据集中的另一训练数据集确定的第一附加梯度传输至所述处理器;以及第一同步梯度接收模块,被配置为接收由所述处理器基于所述第一梯度与所述第一附加梯度确定的所述第一同步梯度。
在某些实施例中,第一同步梯度接收模块504可以进一步被配置为接收基于所述第一梯度与所述第一附加梯度的和确定的所述第一同步梯度。
在某些实施例中,第二计算操作执行模块506可以进一步被配置为基于所述第二反向计算操作确定第二计算结果,装置500还可以包括:第三计算操作执行模块,被配置为基于所述第二计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第三反向计算操作,以基于所述第三反向计算操作至少确定所述模型的第三梯度;以及第三同步梯度确定模块,被配置为至少基于所述第三梯度确定第三同步梯度,其中所述第三同步梯度与所述多个计算单元的相应第三反向计算操作相关联。
在某些实施例中,第三计算操作执行模块进一步被配置为基于第三反向计算操作确定第三计算结果,装置500还可以包括:第四计算操作执行模块,被配置为基于所述第三计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第四反向计算操作,以基于所述第四反向计算操作至少确定所述模型的第四梯度;以及第四同步梯度确定模块,被配置为至少基于所述第四梯度确定第四同步梯度,其中所述第四同步梯度与所述多个计算单元的相应第四反向计算操作相关联。
在某些实施例中,处理器可以是中央处理器CPU,并且计算单元可以是人工智能芯片或图像处理器GPU。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如过程300。例如,在一些实施例中,过程300可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM603并由计算单元601执行时,可以执行上文描述的过程300的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行过程300。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种模型训练方法,包括:
通过多个计算单元中的一个计算单元,对多个训练数据集中的一个训练数据集执行前向计算操作序列、以及反向计算操作序列中包括的第一反向计算操作,以基于所述第一反向计算操作确定第一计算结果和所述模型的第一梯度;
至少基于所述第一梯度,确定第一同步梯度,其中所述第一同步梯度与所述多个计算单元的相应第一反向计算操作相关联;
基于所述第一计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第二反向计算操作,以基于所述第二反向计算操作至少确定所述模型的第二梯度;
至少基于所述第二梯度,确定第二同步梯度,其中所述第二同步梯度与所述多个计算单元的相应第二反向计算操作相关联;以及
至少基于所述第一同步梯度和所述第二同步梯度更新所述模型的参数。
2.根据权利要求1所述的方法,其中至少基于所述第一梯度确定所述第一同步梯度包括:
将所述第一梯度传输至用于控制所述多个计算单元并行训练所述模型的处理器;以及
接收由所述处理器确定的所述第一同步梯度。
3.根据权利要求2所述的方法,其中至少基于所述第二梯度确定所述第二同步梯度包括:
将所述第二梯度传输至所述处理器;以及
接收由所述处理器确定的所述第二同步梯度。
4.根据权利要求1所述的方法,其中基于所述第一梯度确定所述第一同步梯度包括:
将所述第一梯度传输至用于控制所述多个计算单元并行训练所述模型的处理器;
将所述多个计算单元中的附加计算单元基于所述多个训练数据集中的另一训练数据集确定的第一附加梯度传输至所述处理器;以及
接收由所述处理器基于所述第一梯度与所述第一附加梯度确定的所述第一同步梯度。
5.根据权利要求4所述的方法,其中接收由所述处理器基于所述第一梯度与所述第一附加梯度确定的所述第一同步梯度包括:
接收基于所述第一梯度与所述第一附加梯度的和确定的所述第一同步梯度。
6.根据权利要求1所述的方法,还包括:
基于所述第二反向计算操作确定第二计算结果;
基于所述第二计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第三反向计算操作,以基于所述第三反向计算操作至少确定所述模型的第三梯度;以及
至少基于所述第三梯度,确定第三同步梯度,其中所述第三同步梯度与所述多个计算单元的相应第三反向计算操作相关联。
7.根据权利要求6所述的方法,还包括:
基于所述第三反向计算操作确定第三计算结果;
基于所述第三计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第四反向计算操作,以基于所述第四反向计算操作至少确定所述模型的第四梯度;以及
至少基于所述第四梯度,确定第四同步梯度,其中所述第四同步梯度与所述多个计算单元的相应第四反向计算操作相关联。
8.根据权利要求2中任一项所述的方法,其中所述处理器是中央处理器CPU,并且所述计算单元是人工智能芯片或图像处理器GPU。
9.一种模型训练装置,包括:
第一计算操作执行模块,被配置为通过多个计算单元中的一个计算单元对多个训练数据集中的一个训练数据集执行前向计算操作序列以及反向计算操作序列中包括的第一反向计算操作,以基于所述第一反向计算操作确定第一计算结果和所述模型的第一梯度;
第一同步梯度确定模块,被配置为至少基于所述第一梯度确定第一同步梯度,其中所述第一同步梯度与所述多个计算单元的相应第一反向计算操作相关联;
第二计算操作执行模块,被配置为基于所述第一计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第二反向计算操作,以基于所述第二反向计算操作至少确定所述模型的第二梯度;
第二同步梯度确定模块,被配置为至少基于所述第二梯度确定第二同步梯度,其中所述第二同步梯度与所述多个计算单元的相应第二反向计算操作相关联;以及
模型参数更新模块,被配置为至少基于所述第一同步梯度和所述第二同步梯度更新所述模型的参数。
10.根据权利要求9所述的装置,其中所述第一同步梯度确定模块包括:
第一梯度传输模块,被配置为将所述第一梯度传输至用于控制所述多个计算单元并行训练所述模型的处理器;以及
第一同步梯度接收模块,被配置为接收由所述处理器确定的所述第一同步梯度。
11.根据权利要求10所述的装置,其中所述第二同步梯度确定模块包括:
第二梯度传输模块,被配置为将所述第二梯度传输至所述处理器;以及
第二同步梯度接收模块,被配置为接收由所述处理器确定的所述第二同步梯度。
12.根据权利要求9所述的装置,其中所述第一同步梯度确定模块包括:
第一梯度传输模块,被配置为将所述第一梯度传输至用于控制所述多个计算单元并行训练所述模型的处理器;
第一附加梯度传输模块,被配置为将所述多个计算单元中的附加计算单元基于所述多个训练数据集中的另一训练数据集确定的第一附加梯度传输至所述处理器;以及
第一同步梯度接收模块,被配置为接收由所述处理器基于所述第一梯度与所述第一附加梯度确定的所述第一同步梯度。
13.根据权利要求12所述的装置,其中所述第一同步梯度接收模块进一步被配置为:
接收基于所述第一梯度与所述第一附加梯度的和确定的所述第一同步梯度。
14.根据权利要求9所述的装置,其中所述第二计算操作执行模块进一步被配置为基于所述第二反向计算操作确定第二计算结果,所述装置还包括:
第三计算操作执行模块,被配置为基于所述第二计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第三反向计算操作,以基于所述第三反向计算操作至少确定所述模型的第三梯度;以及
第三同步梯度确定模块,被配置为至少基于所述第三梯度确定第三同步梯度,其中所述第三同步梯度与所述多个计算单元的相应第三反向计算操作相关联。
15.根据权利要求14所述的装置,其中所述第三计算操作执行模块进一步被配置为基于所述第三反向计算操作确定第三计算结果,所述装置还包括:
第四计算操作执行模块,被配置为基于所述第三计算结果对所述一个训练数据集执行所述反向计算操作序列中包括的第四反向计算操作,以基于所述第四反向计算操作至少确定所述模型的第四梯度;以及
第四同步梯度确定模块,被配置为至少基于所述第四梯度确定第四同步梯度,其中所述第四同步梯度与所述多个计算单元的相应第四反向计算操作相关联。
16.根据权利要求10中任一项所述的装置,其中所述处理器是中央处理器CPU,并且所述计算单元是人工智能芯片或图像处理器GPU。
17.一种电子设备,所述电子设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011552010.8A CN112631775A (zh) | 2020-12-24 | 2020-12-24 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011552010.8A CN112631775A (zh) | 2020-12-24 | 2020-12-24 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112631775A true CN112631775A (zh) | 2021-04-09 |
Family
ID=75324352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011552010.8A Pending CN112631775A (zh) | 2020-12-24 | 2020-12-24 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112631775A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177645A (zh) * | 2021-06-29 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、计算设备及存储介质 |
WO2022267036A1 (zh) * | 2021-06-25 | 2022-12-29 | 华为技术有限公司 | 神经网络模型训练方法和装置、数据处理方法和装置 |
CN115600687A (zh) * | 2022-11-08 | 2023-01-13 | 北京百度网讯科技有限公司(Cn) | 模型训练方法、装置、设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670579A (zh) * | 2018-12-14 | 2019-04-23 | 北京字节跳动网络技术有限公司 | 模型生成方法和装置 |
CN110378472A (zh) * | 2019-07-24 | 2019-10-25 | 苏州浪潮智能科技有限公司 | 一种深度神经网络模型的数据并行训练方法、装置及设备 |
CN110379416A (zh) * | 2019-08-15 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种神经网络语言模型训练方法、装置、设备及存储介质 |
WO2020226634A1 (en) * | 2019-05-07 | 2020-11-12 | Huawei Technologies Co., Ltd. | Distributed synchronous training architecture using stale weights |
-
2020
- 2020-12-24 CN CN202011552010.8A patent/CN112631775A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670579A (zh) * | 2018-12-14 | 2019-04-23 | 北京字节跳动网络技术有限公司 | 模型生成方法和装置 |
WO2020226634A1 (en) * | 2019-05-07 | 2020-11-12 | Huawei Technologies Co., Ltd. | Distributed synchronous training architecture using stale weights |
CN110378472A (zh) * | 2019-07-24 | 2019-10-25 | 苏州浪潮智能科技有限公司 | 一种深度神经网络模型的数据并行训练方法、装置及设备 |
CN110379416A (zh) * | 2019-08-15 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种神经网络语言模型训练方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
陈孟强;颜子杰;叶彦;吴维刚;: "基于HPC环境的深度学习并行优化", 计算机工程与科学, no. 1, 15 November 2018 (2018-11-15) * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022267036A1 (zh) * | 2021-06-25 | 2022-12-29 | 华为技术有限公司 | 神经网络模型训练方法和装置、数据处理方法和装置 |
CN113177645A (zh) * | 2021-06-29 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、计算设备及存储介质 |
CN113177645B (zh) * | 2021-06-29 | 2021-09-28 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、计算设备及存储介质 |
CN115600687A (zh) * | 2022-11-08 | 2023-01-13 | 北京百度网讯科技有限公司(Cn) | 模型训练方法、装置、设备以及存储介质 |
CN115600687B (zh) * | 2022-11-08 | 2023-06-09 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备以及存储介质 |
CN116596091A (zh) * | 2022-11-08 | 2023-08-15 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备以及存储介质 |
CN116596091B (zh) * | 2022-11-08 | 2024-02-02 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113961351B (zh) | 深度学习模型的分布式训练方法、装置、设备及存储介质 | |
CN112561078B (zh) | 分布式的模型训练方法及相关装置 | |
CN112631775A (zh) | 模型训练方法、装置、电子设备和计算机可读存储介质 | |
EP3940580A1 (en) | Multi-modal pre-training model acquisition method and apparatus, electrnonic device and storage medium | |
EP3913545A2 (en) | Method and apparatus for updating parameter of multi-task model, and electronic device | |
EP4016398A1 (en) | Apparatus and method for distributed training model, and computer program product | |
CN112528995B (zh) | 用于训练目标检测模型的方法、目标检测方法及装置 | |
CN113193947B (zh) | 实现分布式全局序的方法、设备、介质及程序产品 | |
CN114816393B (zh) | 信息生成方法、装置、设备以及存储介质 | |
CN111966361A (zh) | 用于确定待部署模型的方法、装置、设备及其存储介质 | |
CN114911465A (zh) | 算子的生成方法、装置、设备以及存储介质 | |
CN116562249A (zh) | 表单生成方法、装置、电子设备和介质 | |
CN112817660B (zh) | 扩展小程序能力的方法、装置、设备以及存储介质 | |
CN114841341B (zh) | 图像处理模型训练及图像处理方法、装置、设备和介质 | |
CN113570067B (zh) | 分布式系统的同步方法、装置 | |
CN114937478B (zh) | 用于训练模型的方法、用于生成分子的方法和装置 | |
CN114374703B (zh) | 云手机信息的获取方法、装置、设备以及存储介质 | |
CN113691403B (zh) | 拓扑节点配置方法、相关装置及计算机程序产品 | |
CN112560928B (zh) | 负样本挖掘方法、装置、电子设备及存储介质 | |
CN114048863A (zh) | 数据处理方法、装置、电子设备以及存储介质 | |
CN111582480A (zh) | 用于对模型剪枝的方法和装置 | |
CN111767989A (zh) | 神经网络的训练方法和装置 | |
CN115713582B (zh) | 虚拟形象生成方法、装置、电子设备和介质 | |
CN115860114B (zh) | 深度学习模型的训练方法、装置、电子设备及存储介质 | |
CN114331379B (zh) | 用于输出待办任务的方法、模型训练方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |