CN108122027B - 一种神经网络模型的训练方法、装置及芯片 - Google Patents

一种神经网络模型的训练方法、装置及芯片 Download PDF

Info

Publication number
CN108122027B
CN108122027B CN201611076461.2A CN201611076461A CN108122027B CN 108122027 B CN108122027 B CN 108122027B CN 201611076461 A CN201611076461 A CN 201611076461A CN 108122027 B CN108122027 B CN 108122027B
Authority
CN
China
Prior art keywords
layer
model
training
jth
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611076461.2A
Other languages
English (en)
Other versions
CN108122027A (zh
Inventor
白小龙
张长征
夏命榛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201611076461.2A priority Critical patent/CN108122027B/zh
Priority to PCT/CN2017/092092 priority patent/WO2018099085A1/zh
Publication of CN108122027A publication Critical patent/CN108122027A/zh
Priority to US16/425,012 priority patent/US20190332944A1/en
Application granted granted Critical
Publication of CN108122027B publication Critical patent/CN108122027B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及机器学习领域,尤其涉及一种神经网络模型的训练方法、装置及芯片,用以降低神经网络模型训练过程中的服务器模块和各个工作模块之间的通讯量。本发明实施例中根据每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定每层的模型训练方式,在第j层为模型并行训练方式的情况下,由于第二输出数据为m个工作模块第j‑1层训练的输出数据,因此工作模块根据第二输出数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。

Description

一种神经网络模型的训练方法、装置及芯片
技术领域
本发明实施例涉及神经网络模型训练领域,尤其涉及一种神经网络模型的训练方法、装置及芯片。
背景技术
自深度学习在大规模图像分类数据集上获得巨大成功之后,无论是学术界、政府还是工业界都在大力推动深度学习的发展,并不断取得新的成绩。前馈神经网络模型作为深度学习中主要的一种模型形式,目前开始广泛应用于人脸识别、图像分类、目标检测、视频分析等任务,正在迅速被各大机器视觉厂商所采用用于智能化图像、视频处理等产品。目前前馈神经网络模型的深度越来越深,结构越来越复杂,例如,在很多智能图像、视频处理的任务中,数据每时每刻都在不断增加,这就要求训练系统的训练速度足够快且快速更新以满足最新的任务需求。
目前前馈神经网络模型的训练加速主要依靠大规模分布式并行计算系统进行。目前较为常用的是参数服务器(英文可称为parameter sever)计算架构,配合有效的随机梯度下降算法(英文可称为Stochastic gradient descent)进行训练。图1示例性示出了现有技术中一种分布式系统架构示意图,如图1所示,包括服务器模块集合(英文可称为servers)101和工作模块集合(英文可称为workers)102,服务器模块集合可包括多个服务器模块(英文可称为server),工作模块集合可包括多个工作模块(英文可称为worker),服务器模块与主服务器(英文可称为master)节点类似,工作模块可指代计算执行器。分布式系统架构中包括多个分布式的节点,每个节点可包括一个或多个工作模块,也还可包括一个或多个服务器模块。
以图1为例,对分布式系统架构下服务器模块和工作模块之间的信令交互过程进行详细介绍。图1中包括N个工作模块以及M个服务器模块,N和M为大于等于1的整数。神经网络模型包括L层,L为大于等于1的整数,每层包括多个模型参数。每个工作模块进行多次迭代计算,在每次迭代计算中,工作模块通过对L层进行前向算法和后向算法,得到神经网络模型中的模型参数的局部梯度,之后每个工作模块将所有模型参数的局部梯度上传至服务器模块,服务器模块计算出每个模型参数的全局梯度,并将全局梯度从服务器模块下拉至每个工作模块,每个工作模块根据得到的每个模型参数的全局梯度更新各个模型参数,并根据更新后的各个模型参数进行下一次迭代。
上述方案中,由于神经网络模型的L层中包括大量的模型参数,因此应用该方案将导致各个工作模块向服务器模块上推大量的模型参数的局部梯度,以及从服务器模块下拉大量的模型参数的全局梯度,导致服务器模块和各个工作模块之间存在较大的信息通讯量的问题。
发明内容
本发明实施例提供一种神经网络模型的训练方法、装置及芯片,用以降低神经网络模型训练过程中的服务器模块和各个工作模块之间的通讯量,从而提高神经网络模型训练速度。
第一方面,本发明实施例提供一种神经网络模型的训练方法,方法用于包括M个工作模块的训练系统,神经网络模型包括L层,M和L为大于等于1的整数;针对神经网络模型的L层中的每层,都使用M个工作模块中的至少一个工作模块对该层进行训练;方法包括:针对神经网络模型的L层中的每层,至少一个工作模块中的每个工作模块根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式;其中,模型训练方式包括数据并行训练方式和模型并行训练方式;模型参数集合包括该层的所有模型参数。至少一个工作模块中的每个工作模块都执行以下操作以对该层进行训练:
在进行从第一层计算至第L层的前向算法、且j为大于1且小于等于L的整数的情况下:
在该层为神经网络模型中的第一层的情况下:第一层为数据并行训练方式的情况下:工作模块将第一输入数据作为第一层的输入数据,对第一层的模型参数进行数据并行训练,第一输入数据为工作模块对应的初始训练数据;在第一层为模型并行训练方式的情况下:工作模块将第二输入数据作为工作模块第一层的输入数据,对第一层的模型参数进行模型并行训练,第二输入数据为至少一个工作模块对应的初始训练数据;
在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,工作模块将第一输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第一输出数据为工作模块第j-1层训练的输出数据;在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第二输出数据为m个工作模块第j-1层训练的输出数据,m个工作模块为第j-1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
本发明实施例中,根据每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定每层的模型训练方式,如此,在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练。由于第二输出数据为m个工作模块第j-1层训练的输出数据;也就是说,针对模型并行训练方式对应的第j层,工作模块接收m个工作模块的输出数据,该数据可称为全量数据,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。
进一步,由于在神经网络训练中,工作模块和服务器模块之间的通讯会占用较长的时间,因此随着本发明实施例中工作模块和服务器模块之间的通讯量的减少,本发明实施例中对神经网络模型进行训练的速度也随之提升。
可选地,根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式,包括:在该层的模型参数集合中的预估数据量不大于输出数据的预估数据量的情况下,确定该层的模型训练方式为数据并行训练方式;在该层的模型参数集合中的预估数据量大于输出数据的预估数据量的情况下,确定该层的模型训练方式为模型并行训练方式。
具体实施中,针对输出数据的预估数据量较大的层,采用数据并行的训练方式。由于数据并行的训练方式下,工作模块将神经网络模型中上一层的输出数据作为自己下一层的输入数据,工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度,由于数据并行的训练方式对应的层中模型参数集合中的预估数据量较小,因此工作模块与服务器模块之间传输的通讯量较小。相对应地,针对模型参数集合中的预估数据量较大的层,采用模型并行的训练方式。由于在模型并行的训练方式下,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,很大程度上减少了工作模块和服务器模块之间的通讯量。
可选地,在第j层为模型并行训练方式的情况下:工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。如此,为对该层进行训练的m个工作模块中的每个工作模块分配一个模型参数的子集,通过m个工作模块中的各个工作模块对模型参数子集进行训练,从而提高模型参数训练的速度。
可选地,在第j层为模型并行训练方式的情况下:至少一个工作模块中的每个工作模块都执行以下操作以对该层进行训练之前,方法还包括:
步骤A,取i的值为一大于等于1、且小于等于M的整数,预估i个工作模块进行训练所消耗的第一总时长,并执行步骤B;其中,第一总时长为i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;步骤B,更新i的赋值,更新后的i的值为另一大于等于1、且小于等于M的整数,并执行步骤C;步骤C,预估更新后的i个工作模块进行训练所消耗的第二总时长;其中,第二总时长为更新后的i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;其中,每个i的取值对应一个总时长;若第一总时长和第二总时长的数量之和小于数量阈值,则执行步骤B;若第一总时长和第二总时长的数量之和等于数量阈值,则执行步骤D;步骤D,从第一总时长和第二总时长中确定出值最小的总时长,将值最小的总时长所对应的i的取值作为:确定用于对第j层的进行训练的至少一个工作模块的数量的值。
通过该方案,本发明实施例中在工作模块对该层进行训练以及输入数据的传输之间寻找一个平衡点,以使确定出的对第j层的模型参数进行训练的工作模块的数量所对应的该层的训练时间和输入数据的传输时间之和尽可能的缩短。
可选地,在第j层为模型并行训练方式的情况下:第二输出数据分为第一子输入数据块和第二子输入数据块;工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块接收第一子输入数据块;工作模块并行执行:根据第一子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第一子输出数据;以及接收第二子输入数据块;工作模块并行执行:根据第二子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第二子输出数据;以及向第j+1层传输第j层的第一子输出数据。通过将通讯模块的通讯进程和训练模块的训练进程进行并行执行,即训练进程与通讯进程并行执行,提升了神经网络模型的训练速度。
可选地,通过以下方式预估m个工作模块分别接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所消耗的总时长t:
t=max{t1,t3}+max{t2,t3};
其中,t1为m个工作模块接收第二子输入数据块的时长;
t2为m个工作模块向第j+1层传输第j层的第一子输出数据的时长;
t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长;或者t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长。如此,可更加准确的确定出m个工作模块分别接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所消耗的总时长t。
可选地,至少一个工作模块中的每个工作模块根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式之后,还包括:在进行从第L层计算至第一层的后向算法、且j为大于等于1且小于L的整数的情况下:在该层为神经网络模型中的第L层的情况下:在第L层为数据并行训练方式的情况下,工作模块将第三输入数据作为第L层的输入数据,对第L层的模型参数进行数据并行训练,第三输入数据为工作模块对应的前向算法中第L层的输出数据;在第L层为模型并行训练方式的情况下,工作模块将第四输入数据作为工作模块第L层的输入数据,对第L层的模型参数进行模型并行训练,第四输入数据为至少一个工作模块在前向算法中对第L层的模型参数进行训练的输出数据;在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,工作模块将第三输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第三输出数据为工作模块第j+1层训练的输出数据;在第j层为模型并行训练方式的情况下,工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第四输出数据为m个工作模块第j+1层训练的输出数据,m个工作模块为第j+1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
由于针对模型并行训练方式对应的第j层,工作模块接收m个工作模块的输出数据,该数据可称为全量数据,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。
可选地,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且第j层为模型并行训练方式的情况下:工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。如此,为对该层进行训练的m个工作模块中的每个工作模块分配一个模型参数的子集,通过m个工作模块中的各个工作模块对模型参数子集进行训练,从而提高模型参数训练的速度。
可选地,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且第j层为模型并行训练方式的情况下:第四输出数据分为第三子输入数据块和第四子输入数据块。工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块接收第三子输入数据块;工作模块并行执行:根据第三子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第三子输出数据;以及接收第四子输入数据块;工作模块并行执行:根据第四子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第四子输出数据;以及向第j-1层传输第j层的第三子输出数据。通过将通讯模块的通讯进程和训练模块的训练进程进行并行执行,即训练进程与通讯进程并行执行,提升了神经网络模型的训练速度。
第二方面,本发明实施例提供一种神经网络模型的训练装置,用于实现上述第一方面中的工作模块执行的任意一种方法,包括相应的功能模块,分别用于实现以上方法中的步骤。
第三方面,本发明实施例提供一种神经网络模型的训练装置,训练装置包括处理器、存储器和收发器,处理器包括至少一个处理器核,训练装置适用于包括M个处理器核的训练系统,神经网络模型包括L层,M和L为大于等于1的整数;针对神经网络模型的L层中的每层,使用至少一个处理器核对该层进行训练;存储器用于存储指令;处理器用于执行存储器存储的指令,并控制收发器与M个处理器核中的其它处理器核之间传输数据;当处理器执行存储器存储的指令时,至少一个处理器核中的每个处理器核用于执行上述第一方面中的工作模块执行的任意一种方法。
第四方面,本发明实施例提供一种用于神经网络模型训练的芯片,芯片适用于包括M个芯片的训练系统,神经网络模型包括L层,M和L为大于等于1的整数;针对神经网络模型的L层中的每层,使用M个芯片中的至少一个芯片对该层进行训练;至少一个芯片中的每个芯片用于执行上述第一方面中的工作模块执行的任意一种方法。
本发明实施例中,根据每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定每层的模型训练方式,如此,在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练。由于第二输出数据为m个工作模块第j-1层训练的输出数据;也就是说,针对模型并行训练方式对应的第j层,工作模块接收m个工作模块的输出数据,该数据可称为全量数据,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍。
图1为现有技术中一种分布式系统架构示意图;
图2为本发明实施例适用的一种应用场景架构示意图;
图3为本发明实施例提供的一种适用的系统架构示意图;
图4为本发明实施例提供的一种神经网络模型的训练方法的流程示意图;
图5为本发明实施例提供的一种确定用于对第j层的进行训练的至少一个工作模块的数量的值的方法流程示意图;
图6为本发明实施例提供的一种神经网络模型的训练方法的流程示意图;
图7为本发明实施例提供的一种神经网络模型的训练方法的流程示意图;
图8为图7中第三层和第四层的前向算法的方法示意图;
图9为图6至图8中工作模块502的一种工作流程示意图;
图10为本发明实施例提供的一种神经网络模型的训练装置的结构示意图;
图11为本发明实施例提供的另一种神经网络模型的训练装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图2示例性示出了本发明实施例适用的一种应用场景架构示意图,如图2所示,在具体实施中会存在多种原始数据,比如图2中的电信数据201、金融数据202以及消费者数据203等等,大数据平台204对这些原始数据进行数据采集,以及数据存储和数据计算等等,得到经过大数据平台204处理后的数据。数据挖掘平台205从大数据平台获取经过大数据平台204处理后的数据。并进行数据挖掘,比如使用回归分析(Logistic Regression,简称LR)、大规模传统机器学习模型(Latent Dirichlet Allocation,简称LDA);卷积神经网络(Convolution neural network,简称CNN)、循环神经网络(Recurrent neural network,简称RNN)、稀疏自动编码器(Sparse AutoEncoder,简称SAE)等深度学习模型中的至少一种进行数据挖掘,以得到数据挖掘后的结果。应用平台206中包括适用于各领域大数据分析的应用,可依据数据挖掘平台205确定出的数据挖掘后的结果进行电信领域大数据分析、金融领域大数据分析、消费者领域大数据分析,以及其它领域大数据分析等等。
本发明实施例可用于训练海量数据的分布式并行计算集群,适合的算法包括卷积神经网络(用于图像、语音或视频的处理)、递归神经网络(用于自然语言处理)、深度神经网络(用于处理语音)等多种深度学习算法以及大规模机器学习算法。
本发明实施例所提供的方案应用于数据挖掘平台205,数据挖掘平台205可通过深度学习智能分析对底层的原始数据进行挖掘分析,通过分布式架构的加速训练过程,提升了基于深度学习训练的数据挖掘平台的性能和可扩展性,从而支撑上层的应用平台的决策和运营,比如视频分析、图像识别、物体检测、自然语言处理等上层的应用平台的业务。
本发明实施例中一个节点可为包括至少一个图形处理器(Graphics ProcessingUnit,简称GPU)芯片和/或至少一个中央处理器(Central Processing Unit,简称CPU)芯片的计算机设备。其中,每个GPU芯片中包括一个或多个GPU核,每个CPU芯片中包括一个或多个CPU核。本发明实施例中的工作模块可包括一个或多个GPU核,服务器模块可包括一个或多个CPU核。
为了方便描述,多个服务器模块的可称为服务器模块集合,多个工作模块的可称为工作模块集合。图3示例性示出了本发明实施例提供的一种适用的系统架构示意图,如图3所示,本发明实施例包括服务器模块集合307和工作模块集合308,服务器模块集合307包括多个服务器模块,分别为服务器模块301、服务器模块302、…服务器模块303;工作模块集合308可包括多个工作模块,分别为工作模块304、工作模块305、…工作模块306。
分布式系统架构中包括多个分布式的节点。每个节点的具体部署形态包括3种:第一种,工作模块与服务器模块部署在同一个节点上,工作模块数目与服务器模块数目相等或不等;第二种,工作模块与服务器模块分别部署在不同节点上,工作模块数目与服务器模块相等或不等;第三种,工作模块与服务器模块混合部署在不同节点上,也就是多个节点中至少有一个节点上既有工作模块又有服务器模块,工作模块数目与服务器模块数目相等或不相等。本发明实施例所提供的方案适用于任一种具体部署形态。
本发明实施例中,一个或多个服务器模块和多个工作模块可用于在一个训练周期内训练一个神经网络模型中的模型参数。
一个训练周期包括多次迭代。神经网络模型中包括L层,L为大于等于1的整数,每次迭代过程包括对L层进行前向算法和后向算法。工作模块经过前向算法和后向算法,计算出得到神经网络模型中的模型参数的局部梯度,之后工作模块将模型参数的局部梯度上传至服务器模块,服务器模块计算出每个模型参数的全局梯度,并将全局梯度从服务器模块下拉至每个工作模块,每个工作模块根据得到的每个模型参数的全局梯度更新各个模型参数,并根据更新后的各个模型参数进行下一次迭代。神经网络模型中包括多层,在进行神经网络训练时可进行从第一层计算至第L层的前向算法,具体来说,计算第一层时,以初始训练数据作为输入数据进行训练,之后以每一层的上一层的输出数据作为该层的输入数据进行训练。可选地,在进行神经网络训练时也可进行从第L层计算至第一层的后向算法,具体来说,计算第L层时,以前向算法中第L层的输出数据作为后向算法中第L层的输入数据进行训练,之后以每一层的下一层的输出数据作为该层的输入数据进行训练。
具体实施中,神经网络模型中包括的L层,比如为卷积层、全连接层、批归一化层等多种类型的层,每种类型的层的特性差异巨大。比如最底层的卷积层一般模型参数较少,模型参数的量在兆级(MB级),但该层的输出数据量很大,输出数据量在百MB级;较为顶层的卷积层和全连接层中模型参数一般较多,通常为百MB级,但是输出数据量较小,通常为10KB至MB级。基于此,本发明实施例中提供以下方案,用于针对不同层的特性使用不同的训练方案,从而减少工作模块与服务器模块之间的通讯量。又由于工作模块和服务器模块之间的通讯速度较慢,因此在工作模块和服务器模块之间的信息通讯量称为神经网络模型训练速度的关键因素,本发明实施例通过降低工作模块与服务器模块之间的通讯量,很大程度上提高了神经网络模型训练的速度。基于上述描述,下面对本发明实施例所提供的方案进行详细论述。
基于上述内容,图4示例性示出了本发明实施例提供的一种神经网络模型的训练方法的流程示意图,该方法用于包括M个工作模块的训练系统,神经网络模型包括L层,M和L为大于等于1的整数,针对神经网络模型的L层中的每层,都使用M个工作模块中的至少一个工作模块对该层进行训练。如图4所示,方法包括:
步骤400,针对神经网络模型的L层中的每层开始执行如下进程;
步骤401,针对神经网络模型的L层中的每层,至少一个工作模块中的每个工作模块根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式;其中,模型训练方式包括数据并行训练方式和模型并行训练方式;模型参数集合包括该层的所有模型参数;
在具体训练过程中,至少一个工作模块中的每个工作模块都执行以下操作以对该层进行训练:
步骤402,工作模块确定该层是否为神经网络模型中的第一层;在该层为神经网络模型中的第一层的情况下,执行步骤403;在该层为神经网络模型中的第j层的情况下,执行步骤406;
步骤403,工作模块根据第一层的模型参数集合中的预估数据量和输出数据的预估数据量,确定第一层的模型训练方式;其中,模型训练方式包括数据并行训练方式和模型并行训练方式;在第一层为数据并行训练方式的情况下,执行步骤404;在第一层为模型并行训练方式的情况下,执行步骤405;
步骤404,工作模块将第一输入数据作为第一层的输入数据,对第一层的模型参数进行数据并行训练;第一输入数据为工作模块对应的初始训练数据;
步骤405,工作模块将第二输入数据作为工作模块第一层的输入数据,对第一层的模型参数进行模型并行训练;第二输入数据为至少一个工作模块对应的初始训练数据;
步骤406,工作模块根据第j层的模型参数集合中的预估数据量和输出数据的预估数据量,确定第j层的模型训练方式;模型参数集合包括第j层的所有模型参数;在第j层为数据并行训练方式的情况下,执行步骤407;在第j层为模型并行训练方式的情况下,执行步骤408;
步骤407,工作模块将第一输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第一输出数据为工作模块第j-1层训练的输出数据;
步骤408,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第二输出数据为m个工作模块第j-1层训练的输出数据,m个工作模块为第j-1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1;可选地,上述步骤408中,m可为第j-1层训练使用至少一个工作模块中所有工作模块的总数量,也可为大于等于1且小于为第j-1层训练使用的至少一个工作模块中所有工作模块的总数量的整数。
可选地,本发明实施例中,在对神经网络模型进行训练时,可选地,可通过进行从第一层计算至第L层的前向算法进行训练。可选地,也可通过进行从第一层计算至第L层的前向算法,以及进行从第L层计算至第一层的后向算法进行训练。
具体实施中,可选地,在进行从第L层计算至第一层的后向算法的情况下:在该层为神经网络模型中的第L层的情况下:在第L层为数据并行训练方式的情况下,工作模块将第三输入数据作为第L层的输入数据,对第L层的模型参数进行数据并行训练,第三输入数据为工作模块对应的前向算法中第L层的输出数据;在第L层为模型并行训练方式的情况下,工作模块将第四输入数据作为工作模块第L层的输入数据,对第L层的模型参数进行模型并行训练,第四输入数据为至少一个工作模块在前向算法中对第L层的模型参数进行训练的输出数据。
在进行从第L层计算至第一层的后向算法、且j为大于等于1且小于L的整数的情况下:在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,工作模块将第三输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第三输出数据为工作模块第j+1层训练的输出数据;在第j层为模型并行训练方式的情况下,工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第四输出数据为m个工作模块第j+1层训练的输出数据,m个工作模块为第j+1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
本发明实施例中,上述方法步骤可由对该层进行训练的至少一个工作模块中的每个工作模块执行,执行上述方法的工作模块中配置有管理模块。可选地上述步骤402可由对该层进行训练的至少一个工作模块中的每个工作模块执行,也可由对该层进行训练的至少一个工作模块中具有管理模块的一个工作模块执行,之后将结果(比如各层的模型训练方式)通知给对该层进行训练的至少一个工作模块中的各个工作模块。或者由M个工作模块中除了对该层进行训练的至少一个工作模块之外的一个具有管理模块的工作模块执行,之后将结果(比如各层的模型训练方式)通知给对该层进行训练的至少一个工作模块中的各个工作模块。
本发明实施例中,M个工作模块和服务器模块可位于一个节点上,该节点为包括多个GPU核和多个CPU核的计算机设备。一个工作模块包括一个或多个GPU核,一个服务器模块包括一个或多个CPU核,在该种情况下,M个工作模块之间可通过GPU核间的电连接实现通讯,M个工作模块和服务器模块之间可通过GPU核与CPU核之间的核间通信实现通讯。在M个工作模块和服务器模块分别位于多个节点的情况下,M个工作模块之间,或者M个工作模块和服务器模块之间可通过节点内的电连接或核间连接实现通讯,也可通过节点间的一些链路实现通讯。在一种实现方式下,本发明实施例中的M个工作模块之中的任两个工作模块均可实现通讯,M个工作模块中的每个工作模块与服务器模块之间的可实现通讯。
具体来说,M个工作模块中的至少一个工作模块对第一层进行训练之前,为对第一层进行训练的至少一个工作模块中的各个工作模块配置了初始训练数据,各个工作模对应的初始训练数据可为不同的数据,也可为相同的数据,用于使工作模块和服务器模块协同合作,对神经网络模型中的模型参数进行训练。举个例子,比如有100张图片,对第一层进行训练的至少一个工作模块的数量为10个,可选地,每个工作模块分配10张图片,每个工作模块所分配的10张图片称为该工作模块所配置的初始训练数据。
本发明实施例中,针对每层,对该层进行训练的工作模块根据输入数据和模型参数,进行前向算法和后向算法之后,得到的值称为梯度。针对数据并行训练方式对应的层,该工作模块将该工作模块自己对应的初始训练数据作为输入数据,或者该工作模块将该工作模块上一层训练的输出数据作为该层的输入数据,也就是说,针对数据并行训练方式对应的层,工作模块使用的输入数据为局部输入数据,此时,根据该输入数据和模型参数进行训练,得到的结果成为局部梯度。针对模型并行训练方式对应的层,该工作模块将对管该层进行训练的至少一个工作模块所对应的所有初始训练数据作为输入数据,或者该工作模块将对上一层进行训练的至少一个工作模块的所有输出数据作为该层的输入数据,也就是说,针对模型并行训练方式对应的层,工作模块使用的输入数据为全局输入数据,此时,根据该输入数据和模型参数进行训练,得到的结果成为全局梯度。可选地,针对每层,工作模块计算得到局部梯度,则将局部梯度上推至服务器,服务器根据接收到的多个局部梯度计算出全局梯度,工作模块再从服务器模块下拉该全局梯度,并根据该全局梯度更新本地的模型参数,以便于进行下一次迭代时使用。工作模块通过计算得到全局梯度,则根据计算得到的全局梯度更新本地的模型参数,以便于进行下一次迭代时使用。
本发明实施例中,根据每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定每层的模型训练方式,如此,在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练。由于第二输出数据为m个工作模块第j-1层训练的输出数据;也就是说,针对模型并行训练方式对应的第j层,工作模块接收m个工作模块的输出数据,该数据可称为全量数据,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。
进一步,由于在神经网络训练中,工作模块和服务器模块之间的通讯会占用较长的时间,因此随着本发明实施例中工作模块和服务器模块之间的通讯量的减少,本发明实施例中对神经网络模型进行训练的速度也随之提升。
进一步,由于工作模块和服务器模块之间的通讯速度较慢,因此在工作模块和服务器模块之间的信息通讯量称为神经网络模型训练速度的关键因素,本发明实施例通过降低工作模块与服务器模块之间的通讯量,很大程度上提高了神经网络模型训练的速度。
进一步,由于本发明实施例应用于包括服务器模块和M个工作模块的系统架构,由于分布式架构可并行计算,因此可加快神经网络模型中的迭代计算速度,从而缩短神经网络模型训练的时长。进一步,由于分布式系统架构中都采用GPU芯片对矩阵计算进行并行加速,从而进一步提高神经网络模型中的迭代计算速度,从而进一步缩短神经网络模型训练的时长。
神经网络模型中每层对应有特性参数,可根据每层的特性参数确定出该层的模型参数集合中的预估数据量和输出数据的预估数据量,之后根据该层的模型参数集合中的预估数据量和输出数据的预估数据量确定该层的模型训练方式。确定之后,在前向算法和后向算法中直接根据已经确定的每层的模型训练方式对神经网络模型进行训练。
可选地,根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式,包括:在该层的模型参数集合中的预估数据量不大于输出数据的预估数据量的情况下,确定该层的模型训练方式为数据并行训练方式;在该层的模型参数集合中的预估数据量大于输出数据的预估数据量的情况下,确定该层的模型训练方式为模型并行训练方式。
举例来说,神经网络模型中包括的L层,比如为卷积层、全连接层、批归一化层等多种类型的层,每种类型的层的对应一定的特性,每种类型的层包括一些特性参数。比如最底层的卷积层一般模型参数较少,模型参数的量在兆级(MB级),但该层的输出数据量很大,输出数据量在百MB级,则该层中模型参数集合中的预估数据量即为MB级,而该层中输出数据的预估数据量为百MB级,据此确定该层的模型训练方式,可选地,由于输出数据的预估数据量为百MB级,大于该层中模型参数集合中的预估数据量MB级,因此,该层确定为数据并行训练方式。
再举个例子,较为顶层的卷积层和全连接层中模型参数一般较多,通常为百MB级,但是输出数据量较小,通常为10KB至MB级。该层中模型参数集合中的预估数据量即为百MB级,而该层中输出数据的预估数据量为10KB至MB级,据此确定该层的模型训练方式,可选地,由于输出数据的预估数据量为10KB至MB级,小于该层中模型参数集合中的预估数据量百MB级,因此,该层确定为模型并行训练方式。
具体实施中,针对输出数据的预估数据量较大的层,采用数据并行的训练方式。由于数据并行的训练方式下,工作模块将神经网络模型中上一层的输出数据作为自己下一层的输入数据,工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度,由于数据并行的训练方式对应的层中模型参数集合中的预估数据量较小,因此工作模块与服务器模块之间传输的通讯量较小。本发明实施例中模型参数集合中的预估数据量为模型参数集合中的包括的所有模型参数的数据量。
相对应地,针对模型参数集合中的预估数据量较大的层,采用模型并行的训练方式。由于在模型并行的训练方式下,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,很大程度上减少了工作模块和服务器模块之间的通讯量。
图5示例性示出了本发明实施例提供的一种确定用于对第j层的进行训练的至少一个工作模块的数量的值的方法流程示意图。如图5所示,可选地,在第j层为模型并行训练方式的情况下:工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练之前,方法还包括确定用于对第j层的进行训练的至少一个工作模块的数量的值。具体方案有多种,本发明实施例提供以下方案,包括:
步骤A,取i的值为一大于等于1、且小于等于M的整数,预估i个工作模块进行训练所消耗的第一总时长,并执行步骤B;其中,第一总时长为i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;
步骤B,更新i的赋值,更新后的i的值为另一大于等于1、且小于等于M的整数,并执行步骤C;
步骤C,预估更新后的i个工作模块进行训练所消耗的第二总时长;其中,第二总时长为更新后的i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;其中,每个i的取值对应一个总时长;
若第一总时长和第二总时长的数量之和小于数量阈值,则执行步骤B;若第一总时长和第二总时长的数量之和等于数量阈值,则执行步骤D;可选地,数量阈值为预设的一个值,比如可为2个、3个等等,可根据经验和具体实施条件确定;
步骤D,从第一总时长和第二总时长中确定出值最小的总时长,将值最小的总时长所对应的i的取值作为:确定用于对第j层的进行训练的至少一个工作模块的数量的值。
具体来说,本发明实施例中,分布式架构中包括M个工作模块,针对为模型并行训练方式的第j层,用于对第j层的模型参数进行训练的至少一个工作模块的数量越大,对第j层进行模型训练的时间越短;但是用于对第j-1层进行模型参数训练的各个工作模块均需将第j-1层的输出数据输出给对第j层进行训练的各个工作模块,因此若用于对第j层的模型参数进行训练的至少一个工作模块的数量越大,则第j-1层的输出数据传输至对第j层的模型参数进行训练的各个工作模块的时间会越长。因此,本发明实施例中在工作模块对该层进行训练以及输入数据的传输之间寻找一个平衡点,以使确定出的对第j层的模型参数进行训练的工作模块的数量所对应的该层的训练时间和输入数据的传输时间之和尽可能的缩短。
可选地,上述确定用于对第j层的进行训练的至少一个工作模块的数量的值是以前向算法为例介绍的。本发明实施例中也可通过后向算法确定用于对第j层的进行训练的至少一个工作模块的数量的值,当通过后向算法来计算时,方案与上述内容类似,只是第一总时长为i个工作模块中的每个工作模块接收第四输入数据,以及根据第四输入数据对第j层的模型参数进行训练所预估消耗的总时长;第二总时长为更新后的i个工作模块中的每个工作模块接收第四输入数据,以及根据第四输入数据对第j层的模型参数进行训练所预估消耗的总时长。其余处理方案与上述方案类似,在此不再赘述。
本发明实施例提供一种可选地的实施方案,以前向算法为例,令i从1至M遍历取值,针对i的每个取值,均计算出i个工作模块对第j层的模型参数进行训练所消耗的总时长,得到一个第一总时长和M-1个第二总时长,将一个第一总时长和M-1个第二总时长中最小值对应的i的值确定为用于对第j层的进行训练的至少一个工作模块的数量的值。
在进行前向算法的情况下,可选地,在第j层为模型并行训练方式的情况下:工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。如此,为对该层进行训练的m个工作模块中的每个工作模块分配一个模型参数的子集,通过m个工作模块中的各个工作模块对模型参数子集进行训练,从而提高模型参数训练的速度。另一种可选地的实施方案为,将该层的所有模型参数在m个工作模块上进行均分。
在进行后向算法的情况下,可选地,在第j层为模型并行训练方式的情况下,工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。
具体实施中,确定对第j层进行训练的至少一个工作模块的数量m,以及为至少一个工作模块中的每个工作模块分配模型参数子集的工作可由对第j层进行训练的至少一个工作模块中的每个工作模块分别执行,且在执行过程中各个工作模块可进行通信以便协商出对第j层进行训练的至少一个工作模块的数量m,以及每个工作模块的模型参数子集,该每个工作模块中配置了管理模块。或者,可由M个工作模块中的任一个工作模块执行,执行之后通知对第j层进行训练的至少一个工作模块中的各个工作模块。
举个例子,第j层为模型并行训练方式对应的层,对第j层进行训练的至少一个工作模块数量m为3,则可从M个工作模块中随机选出3个工作模块用于对该层的模型参数进行训练。该层的模型参数集合中的预估数据量为300MB,将300MB的模型参数分配给3个工作模块,比如每个工作模块分配100MB的模型参数,每个工作模块所分配的100MB的模型参数即为该工作模块对应的模型参数的子集。
为了对本发明实施例进行进一步的介绍,图6和图7示例性示出了本发明实施例提供的一种神经网络模型的训练方法的流程示意图,如图6和图7所示,包括服务器模块501和3个工作模块,即M为3,分别为工作模块502、工作模块503和工作模块504。该示例中神经网络包括五层,即L为5。
根据上文方案确定出每层的模型训练方式,具体来说,根据每层模型参数集合中的预估数据量和输出数据的预估数据量,确定出每层的模型训练方式。比如确定出第一层和第二层为数据并行训练方式,第三层至第五层为模型并行训练方式。
进一步根据上述方案确定出对模型并行训练方式对应的层进行模型训练的工作模块的数量,以及经过协商对每层进行训练的工作模块。可选地,对于数据并行训练方式对应的层,由于数据并行训练方式对应的层,对该层进行模型训练的工作模块接收的是该工作模块对上一层进行训练所输出的数据,因此针对数据并行训练方式对应的层,对该层进行训练的工作模块的数量越多,对该层进行训练所消耗的时间越短,可选地,本发明实施例中确定对数据并行训练方式对应的层进行训练的工作模块为M个。
可选地,对于模型并行训练方式对应的层,可根据上述图5相关的方案确定出对每层进行模型训练的工作模块的数量。比如,通过上述方案,该示例中确定出用于对第三层的模型参数进行训练的工作模块数量为3,用于对第四层的模型参数进行训练的工作模块数量为2,用于对第五层的模型参数进行训练的工作模块数量为3。
针对模型并行训练方式对应的层,进一步根据上述方案,确定出对该层进行模型训练的每个工作模块对应的模型参数子集。也就是说,针对模型并行训练方式对应的层,将该层的模型参数集合中的所有模型参数分配到对该层进行模型参数训练的工作模块中。比如,第三层的所有模型参数分配到工作模块502、工作模块503和工作模块504上,第四层的模型参数的集合中包括的所有模型参数分配到工作模块502和工作模块503上,工作模块502和工作模块503分别对应一个第四层的模型参数的子集;第五层的模型参数的集合中包括的所有模型参数分配到工作模块502、工作模块503和工作模块504上,工作模块502、工作模块503和工作模块504分别对应一个第五层的模型参数的子集。
进一步,本发明实施例中,针对数据并行训练方式,对数据并行训练方式对应的层进行训练的工作模块的输入数据为第一输入数据或者为第一输出数据;对模型并行训练方式对应的层进行训练的工作模块的输入数据为第二输入数据或者为第二输出数据。在进行具体训练过程之前,经过本发明实施例所提供的方案,提前确定出上述信息,以备下述训练过程直接使用。
本发明实施例中工作模块和服务器模块通过多次迭代完成对神经网络模型的训练,该示例中介绍其中一次迭代过程,每个迭代过程中包括前向算法和后向算法。下面先对前向算法进行介绍。应理解,仅做示例性说明,并作为对本发明的实现方式的限制。
如图6和图7所示,工作模块502获取工作模块502所分配的初始训练数据,该初始训练数据作为工作模块502第一层的输入数据,工作模块502根据第一层的输入数据对第一层包括的所有模型参数进行训练,得到第一层的输出数据;并将第一层的输出数据传输给工作模块502的第二层,作为工作模块502的第二层的输入数据。相应地,工作模块503根据第一层的输入数据进行训练,得到工作模块503的第一层的输出数据;并将工作模块503第一层的输出数据作为工作模块503的第二层的输入数据。工作模块504根据第一层的输入数据进行训练,得到工作模块504的第一层的输出数据;并将工作模块504第一层的输出数据作为工作模块504的第二层的输入数据。
工作模块502根据第二层的输入数据对第二层包括的所有模型参数进行训练,得到第二层的输出数据;并将第二层的输出数据分别传输给工作模块502、工作模块503和工作模块504的第三层。相应地,工作模块503将第二层的输出数据分别传输给工作模块502、工作模块503和工作模块504的第三层。工作模块504将第二层的输出数据分别传输给工作模块502、工作模块503和工作模块504的第三层。
工作模块502将接收到的工作模块502、工作模块503和工作模块504的第二层的输出数据作为工作模块502的第三层的输入数据,工作模块502根据工作模块502的第三层的输入数据对分配的模型参数进行训练,也就是说工作模块502根据全量数据对分配至工作模块502的第三层的部分模型参数进行训练,得到第三层的输出数据,并将第三层的输出数据分别传输给工作模块502和工作模块503的第四层。相应地,工作模块503将接收到的工作模块502、工作模块503和工作模块504的第二层的输出数据作为工作模块502的第三层的输入数据,并将第三层的输出数据分别传输给工作模块502和工作模块503的第四层。工作模块504将接收到的工作模块502、工作模块503和工作模块504的第二层的输出数据作为工作模块504的第三层的输入数据,并将第三层的输出数据分别传输给工作模块502和工作模块503的第四层。
工作模块502将接收到的工作模块502、工作模块503和工作模块504的第三层的输出数据作为工作模块502的第四层的输入数据,工作模块502根据工作模块502的第四层的输入数据对分配的模型参数进行训练,也就是说工作模块502根据全量数据对分配至工作模块502的第四层的部分模型参数进行训练,得到第四层的输出数据,并将第四层的输出数据分别传输给工作模块502和工作模块503的第五层。相应地,工作模块503将接收到的工作模块502、工作模块503和工作模块504的第三层的输出数据作为工作模块502的第四层的输入数据,并将第四层的输出数据分别传输给工作模块502和工作模块503的第五层。可看出,工作模块504并不对第四层的模型参数进行训练。
工作模块502将接收到的工作模块502、工作模块503和工作模块504的第四层的输出数据作为工作模块502的第五层的输入数据,工作模块502根据工作模块502的第五层的输入数据对分配的模型参数进行训练,也就是说工作模块502根据全量数据对分配至工作模块502的第五层的部分模型参数进行训练,得到第五层的输出数据,至此,工作模块502的前向算法结束,开始后向算法,在后向算法开始时,工作模块502将第五层的输出数据分别传输给工作模块502和工作模块503的第四层。相应地,工作模块503将接收到的工作模块502、工作模块503和工作模块504的第四层的输出数据作为工作模块503的第五层的输入数据,根据工作模块503的第五层的输入数据对分配的模型参数进行训练,得到第五层的输出数据,至此,工作模块503的前向算法结束,开始后向算法,在后向算法开始时,工作模块503将第五层的输出数据分别传输给工作模块502和工作模块503的第四层。工作模块504将接收到的工作模块502、工作模块503和工作模块504的第四层的输出数据作为工作模块504的第五层的输入数据,根据工作模块504的第五层的输入数据对分配的模型参数进行训练,得到第五层的输出数据,至此,工作模块504的前向算法结束,开始后向算法,在后向算法开始时,工作模块504将第五层的输出数据分别传输给工作模块502和工作模块503的第四层。
前向算法之后,工作模块502将接收到的工作模块502、工作模块503和工作模块504的第五层的输出数据作为工作模块502的第四层的输入数据,工作模块502根据工作模块502的第四层的输入数据对分配的模型参数进行训练,也就是说工作模块502根据全量数据对分配至工作模块502的第四层的部分模型参数进行训练,得到第四层的输出数据,工作模块502将得到的第四层的输出数据分别传输给工作模块502、工作模块503和工作模块504的第三层。相对应地,工作模块503将接收到的工作模块502、工作模块503和工作模块504的第五层的输出数据作为工作模块502的第四层的输入数据,并根据工作模块502的第四层的输入数据对分配的模型参数进行训练,得到第四层的输出数据,工作模块503将得到的第四层的输出数据分别传输给工作模块502、工作模块503和工作模块504的第三层。
工作模块502将接收到的工作模块502和工作模块503的第四层的输出数据作为工作模块502的第三层的输入数据,工作模块502根据工作模块502的第三层的输入数据对分配的模型参数进行训练,也就是说工作模块502根据全量数据对分配至工作模块502的第三层的部分模型参数进行训练,得到第三层的输出数据,工作模块502将得到的第三层的输出数据传输给工作模块502的第二层,作为工作模块502的第二层的输入数据。相对应地,工作模块503根据接收到的工作模块502和工作模块503的第四层的输出数据,对分配的模型参数进行训练,得到第三层的输出数据,将得到的第三层的输出数据传输给工作模块503的第二层,作为工作模块503的第二层的输入数据。工作模块504根据接收到的工作模块502和工作模块503的第四层的输出数据,对分配的模型参数进行训练,得到第三层的输出数据,将得到的第三层的输出数据传输给工作模块504的第二层,作为工作模块504的第二层的输入数据。
工作模块502将工作模块502第三层的输出数据作为第二层的输入数据,并对第二层的所有模型参数进行训练,得到第二层模型参数的局部梯度,并将局部梯度向服务器模块上推至服务器模块501。在分布式架构中,与工作模块502并行工作的工作模块503,根据第二层的输入数据,对第二层的所有模型参数进行训练,得到第二层模型参数的局部梯度,并将局部梯度向服务器模块上推至服务器模块501;工作模块504,根据第二层的输入数据,对第二层的所有模型参数进行训练,得到第二层模型参数的局部梯度,并将局部梯度向服务器模块上推至服务器模块501。服务器模块501根据接收到三个工作模块分别上报的局部梯度,计算出第二层模型参数的全局梯度,各个工作模块从服务器模块501上从服务器模块下拉第二层模型参数的全局梯度。
类似的,工作模块502将工作模块502第二层的输出数据作为第一层的输入数据,并对第一层的所有模型参数进行训练,得到第一层模型参数的局部梯度,并将局部梯度向服务器模块上推至服务器模块501。在分布式架构中,工作模块503将第一层的模型参数的局部梯度向服务器模块上推至服务器模块501;工作模块504将第一层的模型参数的局部梯度向服务器模块上推至服务器模块501。服务器模块501根据接收到三个工作模块分别上报的第一层模型参数的局部梯度,计算出第一层模型参数的全局梯度,各个工作模块从服务器模块501上从服务器模块下拉第一层模型参数的全局梯度。
在上述示例中,工作模块502、工作模块503和工作模块504之间并行运行,比如工作模块502、工作模块503和工作模块504可以并行对第一层的模型参数进行训练,可见,分布式架构提高了神经网络模型训练的速度。针对数据并行训练方式对应的层,工作模块通过前向和后向算法,以及通过向服务器模块上推局部梯度,从服务器模块下拉全局梯度,从而得到数据并行训练方式对应的层中的模型参数的全局梯度。针对模型并行训练方式对应的层,工作模块通过前向和后向算法,由于每个工作模块根据该层的上一层的全量数据对模型参数进行训练,因此该工作模块计算得到的即为该层中该工作模块上分配的模型参数的全局梯度。可见,针对模型并行训练方式对应的层中,工作模块无需通过向服务器模块上推局部梯度再下来全局梯度的方式获取模型参数的全局梯度,从而减少了系统中的通讯量。
基于上述示例,为了进一步提高神经网络模型的训练速度,本发明实施例中提供一种可选地方案,在进行从第一层计算至第L层的前向算法的情况下,j为大于1且小于等于L的整数,每个工作模块的每个模型并行层的输入数据分为第一子输入数据块和第二子输入数据块;在第j层为模型并行训练方式的情况下,第二输出数据分为第一子输入数据块和第二子输入数据块;在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块接收第一子输入数据块;工作模块并行执行:根据第一子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第一子输出数据;以及接收第二子输入数据块;工作模块并行执行:根据第二子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第二子输出数据;以及向第j+1层传输第j层的第一子输出数据。通过将通讯模块的通讯进程和训练模块的训练进程进行并行运行,即训练进程与通讯进程并行运行,提升了神经网络模型的训练速度。
在进行从第L层计算至第一层的后向算法的情况下,j为大于等于1且小于L的整数,在第j层为模型并行训练方式的情况下,第四输出数据分为第三子输入数据块和第四子输入数据块;在第j层为模型并行训练方式的情况下,工作模块将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,包括:工作模块接收第三子输入数据块;工作模块并行执行:根据第三子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第三子输出数据;以及接收第四子输入数据块;工作模块并行执行:根据第四子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第四子输出数据;以及向第j-1层传输第j层的第三子输出数据。
本发明实施例提供一种可选地的方案,比如在图6和图7中,将连续的数据并行训练方式对应的一层或多层作为一个训练层,将每个模型并行训练方式对应的层作为一个训练层,在图6和图7中,由于第一层和第二层连续,且均为数据并行训练方式对应的层,因此第一层和第二层可称为一个训练层,本发明实施例中称为第一训练层;第三层称为第二训练层,第四层称为第三训练层,第五层称为第四训练层。
本发明实施例中,针对每个训练层,将每个训练层的输入数据分为第一子输入数据块和第二子输入数据块,也就是说,本发明实施例中将每个模型并行训练方式对应的层的输入数据分为第一子输入数据块和第二子输入数据块,可选地,将数据并行训练方式对应的层的输入数据分为第一子输入数据块和第二子输入数据块。图8示例性示出了图7中第三层和第四层的前向算法的方法示意图,如图8所示,针对每个工作模块,每个工作模块对应的第三层的输入数据分为第一子输入数据块和第二子输入数据块。工作模块502可以先根据第一子输入数据块进行训练,在得到第一子输出数据之后,即并行执行两个动作,第一个工作为:将第一子输出数据传输给工作模块502的第四层和工作模块503的第四层;另一个动作为,根据第三层的第二子输入数据块进行训练。上述两个动作并行执行可以是同时开始,或者不同时开始,只要两个动作的时间窗口有重合即为本发明实施例中所描述的并行执行。相对应地,工作模块503、工作模块504的功能与其类似,在此不再赘述。本发明实施例中后向算法与前向算法的方案类似,在此不再赘述。
图9示例性示出了图6至图8中工作模块502的一种工作流程示意图,如图9所示,工作模块502中包括训练模块和通讯模块,本发明实施例中的每个工作模块均可包括该训练模块和通讯模块,训练模块和通讯模块可以并行运行。以前向算法为例,工作模块502的训练模块根据第一训练层中的第一子输入数据块进行训练,并得到第一训练层中的第一子输入数据块的输出结果。
工作模块502并行执行两个动作:工作模块502的训练模块根据第一训练层中的第二子输入数据块进行训练,并得到第一训练层中的第二子输入数据块的输出结果;工作模块502的通信模块将第一训练层中的第一子输入数据块的输出结果传输给工作模块502、工作模块503和工作模块504的第二训练层。其它工作模块也并行的执行与工作模块502类似的动作,工作模块502将接收到的工作模块502、工作模块503和工作模块504分别输出的第一训练层中的第一子输入数据块的输出结果作为第二训练层的第一子输入数据块。
工作模块502接着并行执行两个动作:工作模块502的训练模块根据第二训练层中的第一子输入数据块进行训练,并得到第二训练层中的第一子输入数据块的输出结果;工作模块502的通信模块将第一训练层中的第二子输入数据块的输出结果传输给工作模块502、工作模块503和工作模块504的第二训练层。其它工作模块也并行的执行与工作模块502类似的动作,工作模块502将接收到的工作模块502、工作模块503和工作模块504分别输出的第一训练层中的第二子输入数据块的输出结果作为第二训练层的第二子输入数据块。
工作模块502接着并行执行两个动作:工作模块502的训练模块根据第二训练层中的第二子输入数据块进行训练,并得到第二训练层中的第二子输入数据块的输出结果;工作模块502的通信模块将第二训练层中的第一子输入数据块的输出结果传输给工作模块502、工作模块503和工作模块504的第三训练层。其它工作模块也并行的执行与工作模块502类似的动作,工作模块502将接收到的工作模块502、工作模块503和工作模块504分别输出的第二训练层中的第一子输入数据块的输出结果作为第三训练层的第一子输入数据块。其它训练层与上述内容类似,在此不再赘述。
通过上述内容可看出,本发明实施例中通过i个工作模块对该层的模型参数进行训练所消耗的总时长包括通过i个工作模块进行输入数据的传输的时长、通过i个工作模块对该层的模型参数进行训练的时长,具体来说,比如本发明实施例中的第三层,通过3个工作模块对该层的模型参数进行训练所消耗的总时长包括:通过3个工作模块进行输入数据的传输的时长、通过3个工作模块对该层的模型参数进行训练的时长。通过3个工作模块进行输入数据的传输的时长即为图6和图7中工作模块502、工作模块503和工作模块504分别向三个工作模块输入第二层的输出结果的时长。
从图9中可以看出,本发明实施例中将模型并行训练方式对应的层中的输入数据分为第一子输入数据块和第二子输入数据块,如此,每一层中对模型参数进行训练的时间会和数据传输的时间之间有重合,本发明实施例结合图9提供一种方案,通过以下方式预估m个工作模块分别接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所消耗的总时长t:
t=max{t1,t3}+max{t2,t3};
其中,t1为m个工作模块接收第二子输入数据块的时长;
t2为m个工作模块向第j+1层传输第j层的第一子输出数据的时长;
t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长;或者t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长。
可选地,t为前述内容中的第一总时长或者为第二总时长。
结合图9举例说明,m个工作模块对第三层(即第二训练层进行训练所消耗的总时长t满足上述公式(1),t1为m个工作模块接收用于对第二层进行模型参数训练的所有工作模块输出的第二层的第二子输出数据,得到第三层的第二子输入数据块的时长;t2为m个工作模块向第四层传输第三层的第一子输出数据的时长;t3为m个工作模块对第三层的第一子输入数据块进行模型参数训练,得到第三层的第一子输出数据的时长;或者t3为m个工作模块对第三层的第二子输入数据块进行模型参数训练,得到第三层的第二子输出数据的时长。可选地,m个工作模块对第三层的第一子输入数据块进行模型参数训练得到第三层的第一子输出数据的时长,与m个工作模块对第三层的第二子输入数据块进行模型参数训练得到第三层的第二子输出数据的时长相同。
本发明实施例提供一种可能的应用场景,以应用上述示例,将上述示例应用于:用深度神经网络对图像数据集进行分类的场景;图像数据集来源为计算机视觉系统识别项目(imagenet),数量为1000类,共128万张图像;神经网络模型采用VGG16,共1.4亿模型参数,90%的模型参数集中在全连接层。分布式系统架构中包括4个节点(node),每个节点包括2个工作模块和1个服务器模块,每个工作模块对应1块K80的GPU卡,12G显存;每个服务器模块对应一块Intel Xeon E5-2620CPU。VGG16是目前一种主流的CNN网络,广泛应用于图像、视频等分析过程。以第一轮迭代举例说明:
启动分布式系统架构,部署应用,根据上述方案确定出神经网络模型中每层的模型训练方式,在VGG16中,由于从第一层开始到最后一个汇集(pooling)层,因此确定为数据并行训练方式对应的层,这些层组成第一个训练层(LayerSet)。考虑到通信瓶颈问题,通过上述方案将最后一个汇集(pooling)之后的每一层均确定为模型训练方式对应的层,每个模型训练方式对应的层均为一个训练层,在前向算法中,将模型训练方式对应的层中的每层的输入数据均分为第一子输入数据块和第二子输入数据块,在后向算法中,将模型训练方式对应的层中的每层的输入数据均分为第三子输入数据块和第四子输入数据块。也就是说,将最后一个汇集(pooling)之后的每一层都纵向切分成两部分分配到一个节点里的两个工作模块上计算,也可以在一个工作模块上进行依次计算,视分布式系统架构的具体形式进行合理分配。并确定每个模型训练方式对应层中用于对该层的模型参数进行训练的工作模块数量m。
启动训练过程,开始第一次迭代计算,将每个节点处加载的每一个训练层中的输入数据(mini-batch)分为第一子输入数据块和第二子输入数据块两部分,比如共有Q个训练层,对于q=1,2,…,Q个训练层,分别做前向算法,在每个训练层的计算过程中,先计算第一子输入数据块,再计算第二子输入数据块。当前训练层的当前子输入数据块计算完后即可触发对该子输入数据块的输出数据的传输,同时也可触发对下一个子输入数据块的计算。
前向算法完成后,启动后向算法。对于q=1,2,…,Q个训练层,依次进行后向算法。计算第q个训练层的第二子输入数据块的同时,进行第q个训练层的第一子输出数据的传输,同样,在计算q个训练层的第一子输入数据块的同时,进行第q-1个训练层的第二子输出数据的传输。并且当训练层的训练方式为数据并行训练方式时,一旦得到训练层中的模型参数的局部梯度则推送给服务器模块,并在该模型参数的全局梯度可以从服务器模块下拉后,从服务器模块下拉。本发明实施例中,当神经网络模型中所有模型参数的全局梯度都得到时表示当前迭代完成,开始下一次迭代。
基于相同构思,图10示例性示出了本发明实施例提供一种神经网络模型的训练装置,用于执行上述方法流程。本发明实施例提供的训练装置包括至少一个工作模块,训练装置适用于包括M个工作模块的训练系统,神经网络模型包括L层,M和L为大于等于1的整数;针对神经网络模型的L层中的每层,使用至少一个工作模块对该层进行训练。如图10所示,训练装置1000包括至少一个工作模块,如图中所示工作模块1001。至少一个工作模块中的每个工作模块包括管理模块1002和训练模块1003。可选地,本发明实施例中工作模块还可包括通讯模块1004,通讯模块用于实现神经网络模型的L层中相邻层之间数据的传输,以及各个工作模块之间的数据的传输,以及工作模块服务器模块之间数据的传输。其中:
管理模块,用于针对神经网络模型的L层中的每层,根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式;其中,模型训练方式包括数据并行训练方式和模型并行训练方式;模型参数集合包括该层的所有模型参数;
训练模块,用于:
在进行从第一层计算至第L层的前向算法、且j为大于1且小于等于L的整数的情况下:
在该层为神经网络模型中的第一层的情况下:第一层为数据并行训练方式的情况下:将第一输入数据作为第一层的输入数据,对第一层的模型参数进行数据并行训练,第一输入数据为工作模块对应的初始训练数据;在第一层为模型并行训练方式的情况下:将第二输入数据作为工作模块第一层的输入数据,对第一层的模型参数进行模型并行训练,第二输入数据为至少一个工作模块对应的初始训练数据;
在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,将第一输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第一输出数据为工作模块第j-1层训练的输出数据;在第j层为模型并行训练方式的情况下,将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第二输出数据为m个工作模块第j-1层训练的输出数据,m个工作模块为第j-1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
可选地,管理模块,用于:在该层的模型参数集合中的预估数据量不大于输出数据的预估数据量的情况下,确定该层的模型训练方式为数据并行训练方式;在该层的模型参数集合中的预估数据量大于输出数据的预估数据量的情况下,确定该层的模型训练方式为模型并行训练方式。
可选地,在第j层为模型并行训练方式的情况下:训练模块,用于:根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;将第二输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。
可选地,在第j层为模型并行训练方式的情况下:管理模块,还用于:
步骤A,取i的值为一大于等于1、且小于等于M的整数,预估i个工作模块进行训练所消耗的第一总时长,并执行步骤B;其中,第一总时长为i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;
步骤B,更新i的赋值,更新后的i的值为另一大于等于1、且小于等于M的整数,并执行步骤C;
步骤C,预估更新后的i个工作模块进行训练所消耗的第二总时长;其中,第二总时长为更新后的i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;其中,每个i的取值对应一个总时长;
若第一总时长和第二总时长的数量之和小于数量阈值,则执行步骤B;若第一总时长和第二总时长的数量之和等于数量阈值,则执行步骤D;
步骤D,从第一总时长和第二总时长中确定出值最小的总时长,将值最小的总时长所对应的i的取值作为:确定用于对第j层的进行训练的至少一个工作模块的数量的值。
可选地,在第j层为模型并行训练方式的情况下:第二输出数据分为第一子输入数据块和第二子输入数据块;训练模块,用于:接收第一子输入数据块;并行执行:根据第一子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第一子输出数据;以及接收第二子输入数据块;并行执行:根据第二子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第二子输出数据;以及向第j+1层传输第j层的第一子输出数据。
可选地,管理模块,还用于通过以下方式预估m个工作模块分别接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所消耗的总时长t:
t=max{t1,t3}+max{t2,t3};
其中,t1为m个工作模块接收第二子输入数据块的时长;
t2为m个工作模块向第j+1层传输第j层的第一子输出数据的时长;
t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长;或者t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长。
可选地,训练模块,还用于:
在进行从第L层计算至第一层的后向算法、且j为大于等于1且小于L的整数的情况下:
在该层为神经网络模型中的第L层的情况下:在第L层为数据并行训练方式的情况下,将第三输入数据作为第L层的输入数据,对第L层的模型参数进行数据并行训练,第三输入数据为工作模块对应的前向算法中第L层的输出数据;在第L层为模型并行训练方式的情况下,将第四输入数据作为工作模块第L层的输入数据,对第L层的模型参数进行模型并行训练,第四输入数据为至少一个工作模块在前向算法中对第L层的模型参数进行训练的输出数据;
在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,将第三输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第三输出数据为工作模块第j+1层训练的输出数据;在第j层为模型并行训练方式的情况下,将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第四输出数据为m个工作模块第j+1层训练的输出数据,m个工作模块为第j+1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
可选地,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且第j层为模型并行训练方式的情况下:
训练模块,用于:根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;将第四输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。
可选地,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且第j层为模型并行训练方式的情况下:第四输出数据分为第三子输入数据块和第四子输入数据块;
训练模块,用于:接收第三子输入数据块;并行执行:根据第三子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第三子输出数据;以及接收第四子输入数据块;并行执行:根据第四子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第四子输出数据;以及向第j-1层传输第j层的第三子输出数据。
从上述内容可看出,本发明实施例中根据每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定每层的模型训练方式,如此,在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练。由于第二输出数据为m个工作模块第j-1层训练的输出数据;也就是说,针对模型并行训练方式对应的第j层,工作模块接收m个工作模块的输出数据,该数据可称为全量数据,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。
基于相同构思,图11示例性示出了本发明实施例提供一种神经网络模型的训练装置,用于执行上述方法流程。本发明实施例提供的训练装置1100包括处理器1101、收发器1102和存储器1103,处理器1101包括至少一个处理器核,训练装置适用于包括M个处理器核的训练系统,神经网络模型包括L层,M和L为大于等于1的整数;针对神经网络模型的L层中的每层,使用至少一个处理器核对该层进行训练。
其中,处理器、存储器、收发器通过总线相互连接。总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extendedindustry standard architecture,简称EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,简称RAM);存储器也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),硬盘(hard disk drive,简称HDD)或固态硬盘(solid-state drive,简称SSD);存储器还可以包括上述种类的存储器的组合。
处理器中包括的至少一个处理器核可包括GPU,或者可包括GPU和CPU。处理器核还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specificintegrated circuit,简称ASIC),可编程逻辑器件(programmable logic device,简称PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logicdevice,简称CPLD),现场可编程逻辑门阵列(field-programmable gate array,简称FPGA),通用阵列逻辑(generic array logic,简称GAL)或其任意组合。
收发器用于实现神经网络模型的L层中相邻层之间数据的传输,以及各个工作模块之间的数据的传输,以及工作模块服务器模块之间数据的传输。
存储器用于存储指令。可选地,存储器还用于存储确定出的各层的模型训练方式等信息。
处理器用于执行存储器存储的指令,并控制收发器与M个处理器核中的其它处理器核之间传输数据。可选地,M个处理器核之间可通过核间通信传输数据,比如通过处理器核之间的总线传输数据。可选地,处理器还控制收发器与服务器模块之间传输数据。
当处理器执行存储器存储的指令时,至少一个处理器核中的每个处理器核用于:
针对神经网络模型的L层中的每层,根据该层的模型参数集合中的预估数据量和输出数据的预估数据量,确定该层的模型训练方式;其中,模型训练方式包括数据并行训练方式和模型并行训练方式;模型参数集合包括该层的所有模型参数;
并执行以下操作以对该层进行训练:
在进行从第一层计算至第L层的前向算法、且j为大于1且小于等于L的整数的情况下:
在该层为神经网络模型中的第一层的情况下:第一层为数据并行训练方式的情况下:将第一输入数据作为第一层的输入数据,对第一层的模型参数进行数据并行训练,第一输入数据为工作模块对应的初始训练数据;在第一层为模型并行训练方式的情况下:将第二输入数据作为工作模块第一层的输入数据,对第一层的模型参数进行模型并行训练,第二输入数据为至少一个工作模块对应的初始训练数据;
在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,将第一输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第一输出数据为工作模块第j-1层训练的输出数据;在第j层为模型并行训练方式的情况下,将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第二输出数据为m个工作模块第j-1层训练的输出数据,m个工作模块为第j-1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
可选地,处理器,用于:在该层的模型参数集合中的预估数据量不大于输出数据的预估数据量的情况下,确定该层的模型训练方式为数据并行训练方式;在该层的模型参数集合中的预估数据量大于输出数据的预估数据量的情况下,确定该层的模型训练方式为模型并行训练方式。
可选地,在第j层为模型并行训练方式的情况下:处理器,用于:根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;将第二输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。
可选地,在第j层为模型并行训练方式的情况下:处理器,还用于:
步骤A,取i的值为一大于等于1、且小于等于M的整数,预估i个工作模块进行训练所消耗的第一总时长,并执行步骤B;其中,第一总时长为i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;
步骤B,更新i的赋值,更新后的i的值为另一大于等于1、且小于等于M的整数,并执行步骤C;
步骤C,预估更新后的i个工作模块进行训练所消耗的第二总时长;其中,第二总时长为更新后的i个工作模块中的每个工作模块接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所预估消耗的总时长;其中,每个i的取值对应一个总时长;
若第一总时长和第二总时长的数量之和小于数量阈值,则执行步骤B;若第一总时长和第二总时长的数量之和等于数量阈值,则执行步骤D;
步骤D,从第一总时长和第二总时长中确定出值最小的总时长,将值最小的总时长所对应的i的取值作为:确定用于对第j层的进行训练的至少一个工作模块的数量的值。
可选地,在第j层为模型并行训练方式的情况下:第二输出数据分为第一子输入数据块和第二子输入数据块;处理器,用于:接收第一子输入数据块;并行执行:根据第一子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第一子输出数据;以及接收第二子输入数据块;并行执行:根据第二子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第二子输出数据;以及向第j+1层传输第j层的第一子输出数据。
可选地,处理器,还用于通过以下方式预估m个工作模块分别接收第二输入数据,以及根据第二输入数据对第j层的模型参数进行训练所消耗的总时长t:
t=max{t1,t3}+max{t2,t3};
其中,t1为m个工作模块接收第二子输入数据块的时长;
t2为m个工作模块向第j+1层传输第j层的第一子输出数据的时长;
t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长;或者t3为m个工作模块根据第二子输入数据块对第j层的模型参数进行模型并行训练,得到第j层的第二子输出数据的时长。
可选地,处理器,还用于:
在进行从第L层计算至第一层的后向算法、且j为大于等于1且小于L的整数的情况下:
在该层为神经网络模型中的第L层的情况下:在第L层为数据并行训练方式的情况下,将第三输入数据作为第L层的输入数据,对第L层的模型参数进行数据并行训练,第三输入数据为工作模块对应的前向算法中第L层的输出数据;在第L层为模型并行训练方式的情况下,将第四输入数据作为工作模块第L层的输入数据,对第L层的模型参数进行模型并行训练,第四输入数据为至少一个工作模块在前向算法中对第L层的模型参数进行训练的输出数据;
在该层为神经网络模型中的第j层的情况下:在第j层为数据并行训练方式的情况下,将第三输出数据作为第j层的输入数据,对第j层的模型参数进行数据并行训练,第三输出数据为工作模块第j+1层训练的输出数据;在第j层为模型并行训练方式的情况下,将第四输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练,第四输出数据为m个工作模块第j+1层训练的输出数据,m个工作模块为第j+1层训练使用的一个或多个工作模块;m为大于等于1且小于等于M的整数;其中,L层中至少一层的m的值大于1。
可选地,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且第j层为模型并行训练方式的情况下:
处理器,用于:根据第j层的模型参数的集合,确定工作模块所训练的第j层的模型参数的子集;将第四输出数据作为第j层的输入数据,对第j层的模型参数的子集进行模型并行训练;其中,至少一个工作模块中的任两个工作模块所训练的第j层的模型参数的子集之间交集为空,至少一个工作模块中所有工作模块所训练的第j层的模型参数的子集的并集等于第j层的模型参数的全集。
可选地,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且第j层为模型并行训练方式的情况下:第四输出数据分为第三子输入数据块和第四子输入数据块;
处理器,用于:接收第三子输入数据块;并行执行:根据第三子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第三子输出数据;以及接收第四子输入数据块;并行执行:根据第四子输入数据块对第j层的模型参数进行模型并行训练,以得到第j层的第四子输出数据;以及向第j-1层传输第j层的第三子输出数据。
从上述内容可看出,本发明实施例中根据每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定每层的模型训练方式,如此,在第j层为模型并行训练方式的情况下,工作模块将第二输出数据作为第j层的输入数据,对第j层的模型参数进行模型并行训练。由于第二输出数据为m个工作模块第j-1层训练的输出数据;也就是说,针对模型并行训练方式对应的第j层,工作模块接收m个工作模块的输出数据,该数据可称为全量数据,工作模块根据全量数据进行模型参数训练,可直接得到模型参数的全局梯度,相比于现有技术中工作模块向服务器模块上推模型参数的局部梯度,并从服务器模块下拉模型参数的全局梯度之后才得到模型参数的全局梯度的方案,减少了工作模块和服务器模块之间的通讯量。
基于相同构思,本发明实施例提供一种用于神经网络模型训练的芯片,所述芯片适用于包括M个芯片的训练系统,所述神经网络模型包括L层,所述M和所述L为大于等于1的整数;针对所述神经网络模型的L层中的每层,使用所述M个芯片中的至少一个芯片对该层进行训练;所述至少一个芯片中的每个芯片用于执行上述内容中工作模块或处理器核执行的方法。
本领域内的技术人员应明白,本发明的实施例可提供为方法、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (18)

1.一种神经网络模型的训练方法,其特征在于,所述方法用于包括M个工作模块的训练系统,所述神经网络模型包括L层,所述M和所述L为大于等于1的整数;针对所述神经网络模型的L层中的每层,都使用所述M个工作模块中的至少一个工作模块对所述每层进行训练;所述方法包括:
针对所述神经网络模型的L层中的每层,在所述每层的模型参数集合中的预估数据量不大于输出数据的预估数据量的情况下,确定所述每层的模型训练方式为数据并行训练方式;在所述每层的模型参数集合中的预估数据量大于输出数据的预估数据量的情况下,确定所述每层的模型训练方式为模型并行训练方式;所述模型参数集合包括所述每层的所有模型参数;
所述至少一个工作模块中的每个工作模块都执行以下操作以对所述每层进行训练:
在进行从第一层计算至第L层的前向算法、且j为大于1且小于等于L的整数的情况下:
在所述每层为所述神经网络模型中的第一层,并且所述第一层为数据并行训练方式的情况下:所述工作模块将第一输入数据作为所述第一层的输入数据,对所述第一层的模型参数进行数据并行训练,所述第一输入数据为所述工作模块对应的初始训练数据;
在所述每层为所述神经网络模型中的第一层,并且所述第一层为模型并行训练方式的情况下:所述工作模块将第二输入数据作为所述工作模块第一层的输入数据,对所述第一层的模型参数进行模型并行训练,所述第二输入数据为所述至少一个工作模块对应的初始训练数据;
在所述每层为所述神经网络模型中的第j层,并且所述第j层为数据并行训练方式的情况下:所述工作模块将第一输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行数据并行训练,得到所述工作模块对应的局部梯度,并向服务器上推所述工作模块对应的局部梯度,并从所述服务器下拉所述第j层对应的全局梯度,所述第一输出数据为所述工作模块第j-1层训练的输出数据;
在所述每层为所述神经网络模型中的第j层,并且所述第j层为模型并行训练方式的情况下,所述工作模块将第二输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,得到所述第j层对应的全局梯度,所述第二输出数据为m个工作模块第j-1层训练的输出数据,所述m个工作模块为所述第j-1层训练使用的一个或多个工作模块;所述m为大于等于1且小于等于M的整数;其中,所述L层中至少一层的m的值大于1。
2.如权利要求1所述的方法,其特征在于,在所述第j层为模型并行训练方式的情况下:所述工作模块将第二输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,包括:
所述工作模块根据所述第j层的模型参数的集合,确定所述工作模块所训练的所述第j层的模型参数的子集;
所述工作模块将所述第二输出数据作为所述第j层的输入数据,对所述第j层的模型参数的子集进行模型并行训练;
其中,所述至少一个工作模块中的任两个工作模块所训练的所述第j层的模型参数的子集之间交集为空,所述至少一个工作模块中所有工作模块所训练的所述第j层的模型参数的子集的并集等于所述第j层的模型参数的全集。
3.如权利要求1或2所述的方法,其特征在于,在所述第j层为模型并行训练方式的情况下:所述至少一个工作模块中的每个工作模块都执行以下操作以对所述每层进行训练之前,所述方法还包括:
步骤A,取i的值为一大于等于1、且小于等于M的整数,预估i个工作模块进行训练所消耗的第一总时长,并执行步骤B;其中,所述第一总时长为所述i个工作模块中的每个工作模块接收所述第二输入数据,以及根据所述第二输入数据对所述第j层的模型参数进行训练所预估消耗的总时长;
步骤B,更新i的赋值,更新后的i的值为另一大于等于1、且小于等于M的整数,并执行步骤C;
步骤C,预估更新后的i个工作模块进行训练所消耗的第二总时长;其中,所述第二总时长为所述更新后的i个工作模块中的每个工作模块接收所述第二输入数据,以及根据所述第二输入数据对所述第j层的模型参数进行训练所预估消耗的总时长;其中,每个i的取值对应一个总时长;
若所述第一总时长和所述第二总时长的数量之和小于数量阈值,则执行步骤B;若所述第一总时长和所述第二总时长的数量之和等于数量阈值,则执行步骤D;
步骤D,从所述第一总时长和所述第二总时长中确定出值最小的总时长,将所述值最小的总时长所对应的i的取值作为:确定用于对所述第j层的进行训练的所述至少一个工作模块的数量的值。
4.如权利要求1或2所述的方法,其特征在于,在所述第j层为模型并行训练方式的情况下:
所述第二输出数据分为第一子输入数据块和第二子输入数据块;所述工作模块将第二输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,包括:
所述工作模块接收所述第一子输入数据块;
所述工作模块并行执行:根据所述第一子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第一子输出数据;以及接收所述第二子输入数据块;
所述工作模块并行执行:根据所述第二子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第二子输出数据;以及向所述第j+1层传输所述第j层的第一子输出数据。
5.如权利要求4所述的方法,其特征在于,通过以下方式预估m个工作模块分别接收所述第二输入数据,以及根据所述第二输入数据对所述第j层的模型参数进行训练所消耗的总时长t:
t=max{t1,t3}+max{t2,t3};
其中,t1为所述m个工作模块接收所述第二子输入数据块的时长;
t2为所述m个工作模块向所述第j+1层传输所述第j层的第一子输出数据的时长;
t3为所述m个工作模块根据所述第二子输入数据块对所述第j层的模型参数进行模型并行训练,得到所述第j层的第二子输出数据的时长;或者t3为所述m个工作模块根据所述第二子输入数据块对所述第j层的模型参数进行模型并行训练,得到所述第j层的第二子输出数据的时长。
6.如权利要求1或2所述的方法,其特征在于,所述至少一个工作模块中的每个工作模块根据所述每层的模型参数集合中的预估数据量和输出数据的预估数据量,确定所述每层的模型训练方式之后,还包括:
在进行从第L层计算至第一层的后向算法、且j为大于等于1且小于L的整数的情况下:
在所述每层为所述神经网络模型中的第L层的情况下:在所述第L层为数据并行训练方式的情况下,所述工作模块将第三输入数据作为所述第L层的输入数据,对所述第L层的模型参数进行数据并行训练,所述第三输入数据为所述工作模块对应的前向算法中第L层的输出数据;在所述第L层为模型并行训练方式的情况下,所述工作模块将第四输入数据作为所述工作模块第L层的输入数据,对所述第L层的模型参数进行模型并行训练,所述第四输入数据为所述至少一个工作模块在前向算法中对第L层的模型参数进行训练的输出数据;
在所述每层为所述神经网络模型中的第j层的情况下:在所述第j层为数据并行训练方式的情况下,所述工作模块将第三输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行数据并行训练,所述第三输出数据为所述工作模块第j+1层训练的输出数据;在所述第j层为模型并行训练方式的情况下,所述工作模块将第四输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,所述第四输出数据为m个工作模块第j+1层训练的输出数据,所述m个工作模块为所述第j+1层训练使用的一个或多个工作模块;所述m为大于等于1且小于等于M的整数;其中,所述L层中至少一层的m的值大于1。
7.如权利要求6所述的方法,其特征在于,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且所述第j层为模型并行训练方式的情况下:
所述工作模块将第四输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,包括:
所述工作模块根据所述第j层的模型参数的集合,确定所述工作模块所训练的所述第j层的模型参数的子集;
所述工作模块将所述第四输出数据作为所述第j层的输入数据,对所述第j层的模型参数的子集进行模型并行训练;
其中,所述至少一个工作模块中的任两个工作模块所训练的所述第j层的模型参数的子集之间交集为空,所述至少一个工作模块中所有工作模块所训练的所述第j层的模型参数的子集的并集等于所述第j层的模型参数的全集。
8.如权利要求6所述的方法,其特征在于,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且所述第j层为模型并行训练方式的情况下:所述第四输出数据分为第三子输入数据块和第四子输入数据块;
所述工作模块将第四输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,包括:
所述工作模块接收所述第三子输入数据块;
所述工作模块并行执行:根据所述第三子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第三子输出数据;以及接收所述第四子输入数据块;
所述工作模块并行执行:根据所述第四子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第四子输出数据;以及向所述第j-1层传输所述第j层的第三子输出数据。
9.一种神经网络模型的训练装置,其特征在于,所述训练装置包括至少一个工作模块,所述训练装置适用于包括M个工作模块的训练系统,所述神经网络模型包括L层,所述M和所述L为大于等于1的整数;针对所述神经网络模型的L层中的每层,使用所述至少一个工作模块对所述每层进行训练;所述至少一个工作模块中的每个工作模块包括管理模块和训练模块:
管理模块,用于针对所述神经网络模型的L层中的每层,在所述每层的模型参数集合中的预估数据量不大于输出数据的预估数据量的情况下,确定所述每层的模型训练方式为数据并行训练方式;在所述每层的模型参数集合中的预估数据量大于输出数据的预估数据量的情况下,确定所述每层的模型训练方式为模型并行训练方式;其中,所述模型训练方式包括数据并行训练方式和模型并行训练方式;所述模型参数集合包括所述每层的所有模型参数;
训练模块,用于:
在进行从第一层计算至第L层的前向算法、且j为大于1且小于等于L的整数的情况下:
在所述每层为所述神经网络模型中的第一层,并且所述第一层为数据并行训练方式的情况下:将第一输入数据作为所述第一层的输入数据,对所述第一层的模型参数进行数据并行训练,所述第一输入数据为所述工作模块对应的初始训练数据;
在所述每层为所述神经网络模型中的第一层,并且所述第一层为模型并行训练方式的情况下:将第二输入数据作为所述工作模块第一层的输入数据,对所述第一层的模型参数进行模型并行训练,所述第二输入数据为所述至少一个工作模块对应的初始训练数据;
在所述每层为所述神经网络模型中的第j层,并且所述第j层为数据并行训练方式的情况下,将第一输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行数据并行训练,得到所述工作模块对应的局部梯度,并向服务器上推所述工作模块对应的局部梯度,并从所述服务器下拉所述第j层对应的全局梯度,所述第一输出数据为所述工作模块第j-1层训练的输出数据;
在所述每层为所述神经网络模型中的第j层,在所述第j层为模型并行训练方式的情况下,将第二输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,得到所述第j层对应的全局梯度,所述第二输出数据为m个工作模块第j-1层训练的输出数据,所述m个工作模块为所述第j-1层训练使用的一个或多个工作模块;所述m为大于等于1且小于等于M的整数;其中,所述L层中至少一层的m的值大于1。
10.如权利要求9所述的训练装置,其特征在于,在所述第j层为模型并行训练方式的情况下:所述训练模块,用于:
根据所述第j层的模型参数的集合,确定所述工作模块所训练的所述第j层的模型参数的子集;
将所述第二输出数据作为所述第j层的输入数据,对所述第j层的模型参数的子集进行模型并行训练;
其中,所述至少一个工作模块中的任两个工作模块所训练的所述第j层的模型参数的子集之间交集为空,所述至少一个工作模块中所有工作模块所训练的所述第j层的模型参数的子集的并集等于所述第j层的模型参数的全集。
11.如权利要求9或10所述的训练装置,其特征在于,在所述第j层为模型并行训练方式的情况下:所述管理模块,还用于:
步骤A,取i的值为一大于等于1、且小于等于M的整数,预估i个工作模块进行训练所消耗的第一总时长,并执行步骤B;其中,所述第一总时长为所述i个工作模块中的每个工作模块接收所述第二输入数据,以及根据所述第二输入数据对所述第j层的模型参数进行训练所预估消耗的总时长;
步骤B,更新i的赋值,更新后的i的值为另一大于等于1、且小于等于M的整数,并执行步骤C;
步骤C,预估更新后的i个工作模块进行训练所消耗的第二总时长;其中,所述第二总时长为所述更新后的i个工作模块中的每个工作模块接收所述第二输入数据,以及根据所述第二输入数据对所述第j层的模型参数进行训练所预估消耗的总时长;其中,每个i的取值对应一个总时长;
若所述第一总时长和所述第二总时长的数量之和小于数量阈值,则执行步骤B;若所述第一总时长和所述第二总时长的数量之和等于数量阈值,则执行步骤D;
步骤D,从所述第一总时长和所述第二总时长中确定出值最小的总时长,将所述值最小的总时长所对应的i的取值作为:确定用于对所述第j层的进行训练的所述至少一个工作模块的数量的值。
12.如权利要求9或10所述的训练装置,其特征在于,在所述第j层为模型并行训练方式的情况下:
所述第二输出数据分为第一子输入数据块和第二子输入数据块;所述训练模块,用于:
接收所述第一子输入数据块;
并行执行:根据所述第一子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第一子输出数据;以及接收所述第二子输入数据块;
并行执行:根据所述第二子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第二子输出数据;以及向所述第j+1层传输所述第j层的第一子输出数据。
13.如权利要求12所述的训练装置,其特征在于,所述管理模块,还用于通过以下方式预估m个工作模块分别接收所述第二输入数据,以及根据所述第二输入数据对所述第j层的模型参数进行训练所消耗的总时长t:
t=max{t1,t3}+max{t2,t3};
其中,t1为所述m个工作模块接收所述第二子输入数据块的时长;
t2为所述m个工作模块向所述第j+1层传输所述第j层的第一子输出数据的时长;
t3为所述m个工作模块根据所述第二子输入数据块对所述第j层的模型参数进行模型并行训练,得到所述第j层的第二子输出数据的时长;或者t3为所述m个工作模块根据所述第二子输入数据块对所述第j层的模型参数进行模型并行训练,得到所述第j层的第二子输出数据的时长。
14.如权利要求9或10所述的训练装置,其特征在于,所述训练模块,还用于:
在进行从第L层计算至第一层的后向算法、且j为大于等于1且小于L的整数的情况下:
在所述每层为所述神经网络模型中的第L层的情况下:在所述第L层为数据并行训练方式的情况下,将第三输入数据作为所述第L层的输入数据,对所述第L层的模型参数进行数据并行训练,所述第三输入数据为所述工作模块对应的前向算法中第L层的输出数据;在所述第L层为模型并行训练方式的情况下,将第四输入数据作为所述工作模块第L层的输入数据,对所述第L层的模型参数进行模型并行训练,所述第四输入数据为所述至少一个工作模块在前向算法中对第L层的模型参数进行训练的输出数据;
在所述每层为所述神经网络模型中的第j层的情况下:在所述第j层为数据并行训练方式的情况下,将第三输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行数据并行训练,所述第三输出数据为所述工作模块第j+1层训练的输出数据;在所述第j层为模型并行训练方式的情况下,将第四输出数据作为所述第j层的输入数据,对所述第j层的模型参数进行模型并行训练,所述第四输出数据为m个工作模块第j+1层训练的输出数据,所述m个工作模块为所述第j+1层训练使用的一个或多个工作模块;所述m为大于等于1且小于等于M的整数;其中,所述L层中至少一层的m的值大于1。
15.如权利要求14所述的训练装置,其特征在于,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且所述第j层为模型并行训练方式的情况下:
所述训练模块,用于:
根据所述第j层的模型参数的集合,确定所述工作模块所训练的所述第j层的模型参数的子集;
将所述第四输出数据作为所述第j层的输入数据,对所述第j层的模型参数的子集进行模型并行训练;
其中,所述至少一个工作模块中的任两个工作模块所训练的所述第j层的模型参数的子集之间交集为空,所述至少一个工作模块中所有工作模块所训练的所述第j层的模型参数的子集的并集等于所述第j层的模型参数的全集。
16.如权利要求14所述的训练装置,其特征在于,在进行从第L层计算至第一层的后向算法、j为大于等于1且小于L的整数、且所述第j层为模型并行训练方式的情况下:所述第四输出数据分为第三子输入数据块和第四子输入数据块;
所述训练模块,用于:
接收所述第三子输入数据块;
并行执行:根据所述第三子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第三子输出数据;以及接收所述第四子输入数据块;
并行执行:根据所述第四子输入数据块对所述第j层的模型参数进行模型并行训练,以得到所述第j层的第四子输出数据;以及向所述第j-1层传输所述第j层的第三子输出数据。
17.一种神经网络模型的训练装置,其特征在于,所述训练装置包括处理器、存储器和收发器,所述处理器包括至少一个处理器核,所述训练装置适用于包括M个处理器核的训练系统,所述神经网络模型包括L层,所述M和所述L为大于等于1的整数;针对所述神经网络模型的L层中的每层,使用所述至少一个处理器核对所述每层进行训练;
所述存储器用于存储指令;所述处理器用于执行所述存储器存储的指令,并控制所述收发器与所述M个处理器核中的其它处理器核之间传输数据;当所述处理器执行所述存储器存储的指令时,所述至少一个处理器核中的每个处理器核用于执行如权利要求1至8任一权利要求中工作模块执行的方法。
18.一种用于神经网络模型训练的芯片,其特征在于,所述芯片适用于包括M个芯片的训练系统,所述神经网络模型包括L层,所述M和所述L为大于等于1的整数;针对所述神经网络模型的L层中的每层,使用所述M个芯片中的至少一个芯片对所述每层进行训练;
所述至少一个芯片中的每个芯片用于执行如权利要求1至8任一权利要求中工作模块执行的方法。
CN201611076461.2A 2016-11-29 2016-11-29 一种神经网络模型的训练方法、装置及芯片 Active CN108122027B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201611076461.2A CN108122027B (zh) 2016-11-29 2016-11-29 一种神经网络模型的训练方法、装置及芯片
PCT/CN2017/092092 WO2018099085A1 (zh) 2016-11-29 2017-07-06 一种神经网络模型的训练方法、装置及芯片
US16/425,012 US20190332944A1 (en) 2016-11-29 2019-05-29 Training Method, Apparatus, and Chip for Neural Network Model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611076461.2A CN108122027B (zh) 2016-11-29 2016-11-29 一种神经网络模型的训练方法、装置及芯片

Publications (2)

Publication Number Publication Date
CN108122027A CN108122027A (zh) 2018-06-05
CN108122027B true CN108122027B (zh) 2021-01-12

Family

ID=62227040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611076461.2A Active CN108122027B (zh) 2016-11-29 2016-11-29 一种神经网络模型的训练方法、装置及芯片

Country Status (3)

Country Link
US (1) US20190332944A1 (zh)
CN (1) CN108122027B (zh)
WO (1) WO2018099085A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492753A (zh) * 2018-11-05 2019-03-19 中山大学 一种去中心化的随机梯度下降的方法
CN109726797B (zh) * 2018-12-21 2019-11-19 北京中科寒武纪科技有限公司 数据处理方法、装置、计算机系统及存储介质
CN109670594A (zh) * 2018-12-28 2019-04-23 北京旷视科技有限公司 数据训练方法、装置及电子设备
JP7370158B2 (ja) * 2019-04-03 2023-10-27 株式会社Preferred Networks 情報処理装置および情報処理方法
CN110413776B (zh) * 2019-07-01 2021-09-14 武汉大学 一种基于cpu-gpu协同并行的文本主题模型lda高性能计算方法
CN110378472A (zh) * 2019-07-24 2019-10-25 苏州浪潮智能科技有限公司 一种深度神经网络模型的数据并行训练方法、装置及设备
CN110942147B (zh) * 2019-11-28 2021-04-20 支付宝(杭州)信息技术有限公司 基于多方安全计算的神经网络模型训练及预测方法、装置
US11599671B1 (en) 2019-12-13 2023-03-07 TripleBlind, Inc. Systems and methods for finding a value in a combined list of private values
US11431688B2 (en) 2019-12-13 2022-08-30 TripleBlind, Inc. Systems and methods for providing a modified loss function in federated-split learning
US12088565B2 (en) 2019-12-13 2024-09-10 Triplelind Holdings, Inc. Systems and methods for privacy preserving training and inference of decentralized recommendation systems from decentralized data
US10924460B2 (en) 2019-12-13 2021-02-16 TripleBlind, Inc. Systems and methods for dividing filters in neural networks for private data computations
US11973743B2 (en) 2019-12-13 2024-04-30 TripleBlind, Inc. Systems and methods for providing a systemic error in artificial intelligence algorithms
CN111310340B (zh) * 2020-02-19 2022-08-16 中南大学 基于人类移动的城市区域交互异常关系识别方法及设备
CN111695701B (zh) * 2020-06-12 2021-08-13 上海富数科技有限公司 基于联邦学习实现数据集构建处理的系统及其构建生成方法
CN111756602B (zh) * 2020-06-29 2022-09-27 上海商汤智能科技有限公司 神经网络模型训练中的通信超时检测方法和相关产品
CN111898676B (zh) * 2020-07-30 2022-09-20 深圳市商汤科技有限公司 目标检测方法及装置、电子设备和存储介质
KR20220023212A (ko) * 2020-08-20 2022-03-02 삼성전자주식회사 단말의 모델을 갱신하는 서버 및 그 동작 방법
CN112015749B (zh) 2020-10-27 2021-02-19 支付宝(杭州)信息技术有限公司 基于隐私保护更新业务模型的方法、装置及系统
CN114492723A (zh) * 2020-11-13 2022-05-13 华为技术有限公司 神经网络模型的训练方法、图像处理方法及装置
US20220156368A1 (en) * 2020-11-19 2022-05-19 Kabushiki Kaisha Toshiba Detection of model attacks in distributed ai
US11507693B2 (en) 2020-11-20 2022-11-22 TripleBlind, Inc. Systems and methods for providing a blind de-identification of privacy data
US11625377B1 (en) 2022-02-03 2023-04-11 TripleBlind, Inc. Systems and methods for enabling two parties to find an intersection between private data sets without learning anything other than the intersection of the datasets
CN114936323B (zh) * 2022-06-07 2023-06-30 北京百度网讯科技有限公司 图表示模型的训练方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279039A (zh) * 2013-05-17 2013-09-04 安徽工业大学 一种机器人神经网络式计算力矩控制器训练平台及训练方法
CN104036451A (zh) * 2014-06-20 2014-09-10 深圳市腾讯计算机系统有限公司 基于多图形处理器的模型并行处理方法及装置
CN104035751A (zh) * 2014-06-20 2014-09-10 深圳市腾讯计算机系统有限公司 基于多图形处理器的数据并行处理方法及装置
CN104933463A (zh) * 2015-07-07 2015-09-23 杭州朗和科技有限公司 深度神经网络模型的训练方法和设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160180214A1 (en) * 2014-12-19 2016-06-23 Google Inc. Sharp discrepancy learning
US20160328644A1 (en) * 2015-05-08 2016-11-10 Qualcomm Incorporated Adaptive selection of artificial neural networks
CN104899641B (zh) * 2015-05-25 2018-07-13 杭州朗和科技有限公司 深度神经网络学习方法、处理器和深度神经网络学习系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279039A (zh) * 2013-05-17 2013-09-04 安徽工业大学 一种机器人神经网络式计算力矩控制器训练平台及训练方法
CN104036451A (zh) * 2014-06-20 2014-09-10 深圳市腾讯计算机系统有限公司 基于多图形处理器的模型并行处理方法及装置
CN104035751A (zh) * 2014-06-20 2014-09-10 深圳市腾讯计算机系统有限公司 基于多图形处理器的数据并行处理方法及装置
CN104933463A (zh) * 2015-07-07 2015-09-23 杭州朗和科技有限公司 深度神经网络模型的训练方法和设备

Also Published As

Publication number Publication date
US20190332944A1 (en) 2019-10-31
WO2018099085A1 (zh) 2018-06-07
CN108122027A (zh) 2018-06-05

Similar Documents

Publication Publication Date Title
CN108122027B (zh) 一种神经网络模型的训练方法、装置及芯片
CN108122032B (zh) 一种神经网络模型训练方法、装置、芯片和系统
CN106951926B (zh) 一种混合架构的深度学习方法及装置
CN109919315B (zh) 一种神经网络的前向推理方法、装置、设备及存储介质
CN111406267A (zh) 使用性能预测神经网络的神经架构搜索
US11334814B2 (en) Method and apparatus for training a learning machine
US20180292824A1 (en) Automatic Tuning of Autonomous Vehicle Cost Functions Based on Human Driving Data
EP3583553A1 (en) Neural architecture search for convolutional neural networks
US20180121806A1 (en) Efficient parallel training of a network model on multiple graphics processing units
WO2018205776A1 (zh) 基于参数服务器的梯度提升决策树的实现方法及相关设备
CN107229966B (zh) 一种模型数据更新方法、装置及系统
CN110110843A (zh) 用于处理图像的方法和系统
EP3970012A1 (en) Scheduling operations on a computation graph
KR20190054449A (ko) 이종 클러스터 환경에서 신경망 트레이닝 가속화를 위한 연산 노드 배치 기법
CN115905656A (zh) 一种标签确定方法、装置、电子设备及存储介质
CN115952856A (zh) 一种基于双向分割的神经网络流水线并行训练方法及系统
CN110688993A (zh) 一种基于Spark作业的计算资源确定方法及装置
CN104239520B (zh) 一种基于历史信息的hdfs数据块放置策略
CN104346380A (zh) 基于MapReduce模型的数据排序方法和系统
CN116915869A (zh) 基于云边协同的时延敏感型智能服务快速响应方法
US20210125032A1 (en) Method and system for distributed neural network training
US20210133579A1 (en) Neural network instruction streaming
Gora et al. Investigating performance of neural networks and gradient boosting models approximating microscopic traffic simulations in traffic optimization tasks
CN106776600A (zh) 文本聚类的方法及装置
CN116415175A (zh) 用于大规模多标签分类的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant