CN112966829A - 一种深度学习模型的训练方法、装置、设备及可读介质 - Google Patents
一种深度学习模型的训练方法、装置、设备及可读介质 Download PDFInfo
- Publication number
- CN112966829A CN112966829A CN202110233535.3A CN202110233535A CN112966829A CN 112966829 A CN112966829 A CN 112966829A CN 202110233535 A CN202110233535 A CN 202110233535A CN 112966829 A CN112966829 A CN 112966829A
- Authority
- CN
- China
- Prior art keywords
- calculation
- data
- network layer
- deep learning
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 60
- 238000012549 training Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims abstract description 160
- 230000006870 function Effects 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本发明公开了一种深度学习模型的训练方法,包括:基于最小单位的整数倍将待处理数据拆分为若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;基于网络层的处理顺序将若干组微数据逐次输入到对应的计算设备中进行计算;响应于当前组微数据或其计算结果在当前计算设备完成计算,将在当前计算设备的计算结果输入到下一网络层对应的计算设备中进行计算,并将下一组微数据或其计算结果输入到当前计算设备中进行计算;以及最高层网络层将若干组微数据的计算结果汇总并进行损失函数计算,并基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。本发明还公开了对应的装置、计算机设备和可读存储介质。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种深度学习模型的训练方法、装置、设备及可读介质。
背景技术
目前,深度学习技术方兴未艾,在多个应用领域取得了长足的发展,展现出广阔的应用前景,涉及的应用领域包括人脸识别、推荐系统、智能语音助手、无人驾驶等。无论上述哪一个领域,应用落地的前提都是设计和训练复杂的深度学习模型,尽管现有硬件计算设备的计算能力与日俱增,比如现行通用的由Nvidia公司发布的V100 GPU的单卡计算能力达到了120TFlops,但是这也不足以满足所有深度学习模型的训练需求;比如目前在自然语言处理(NLP)领域广泛使用的bert模型,其如果使用单张V100GPU卡进行训练的话,整个训练时间估计会在一年以上。现在NLP领域的深度学习模型尺寸越来越大,其中GPT3更是达到了1750亿参数的规模,仅存储如此大的模型就需要700GB的存储空间,而对GPT3进行训练更是需要10倍于这个空间的GPU显存资源。而当前主流GPU设备的显存只有40GB左右,远低于GPT3的模型训练需求。
因此,我们需要更大规模的分布式深度学习计算来解决上述模型的训练问题。分布式深度学习顾名思义即为在多个计算设备上同时对一个深度学习模型进行训练的方法。为了实施这一方法、诸多的因素和细节都需要考虑到并被合理的处理,比如模型是如何的分布在多个计算设备上的。
对于多计算设备的分布式深度学习模型训练,这些年深度学习领域提出了不同的算法及实现。常见的算法主要包括模型并行和数据并行。
其中,数据并行是当前最常用的模型训练分布式并行策略,数据并行的思路是在每个计算设备上放置一个完整的模型,并按照计算设备对训练数据进行拆分,每个计算设备分别使用1个batch的数据进行训练,在每个计算设备完成每一个迭代步的计算之后,不同设备之间通过同步模型中的梯度信息,而完成整体的一个迭代步的计算。数据并行的计算效率比较高,各个计算设备可以并行计算,但是因为需要在每个设备里放置一个完整的模型,不能解决超大规模深度学习模型在计算设备中放不下的问题。
模型并行是另一种常见分布式并行策略,模型并行把深度学习模型的不同部分进行拆分,然后分布到多个计算设备上来实现并行。由于深度学习模型的计算过程中不同层之间具有依赖性,因此,虽然模型并行的方法可以解决单个计算设备放不下模型的问题,但是与数据并行相比计算效率较低。
发明内容
有鉴于此,本发明实施例的目的在于提出一种深度学习模型的训练方法、装置、设备及可读介质,将数据进行更小粒度的拆分,将拆分后的数据分批次传入模型进行计算,提升深度学习模型并行分布式训练中的计算效率,解决原算法中每次只有一个设备进行计算,而其他设备闲置的问题,从而大幅提升超大规模深度学习模型的训练效率。
基于上述目的,本发明实施例的一方面提供了一种深度学习模型的训练方法,包括以下步骤:基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;基于网络层的训练顺序将若干组微数据逐次输入到对应的计算设备中进行计算;响应于当前组微数据或其计算结果在当前计算设备完成计算,将在当前计算设备的计算结果输入到下一网络层对应的计算设备中进行计算,并将下一组微数据或其计算结果输入到当前计算设备中进行计算;以及最高层网络层将若干组微数据的计算结果汇总并进行损失函数计算,并基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。
在一些实施方式中,还包括:基于数据并行算法对数据集进行处理,得到若干待处理数据。
在一些实施方式中,基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据包括:基于预设数据对待处理数据进行拆分,使得到的每组微数据的数目均为预设数据,其中预设数据为最小单位的整数倍。
在一些实施方式中,将深度学习模型的网络层拆分到多个计算设备上包括:将深度学习模型的网络层基于计算效率拆分到多个计算设备上;和/或将深度学习模型的网络层平均拆分到多个计算设备上;和/或将深度学习模型的网络层基于处理顺序拆分到多个计算设备上。
在一些实施方式中,基于网络层的训练顺序将若干组微数据逐次输入到对应的计算设备中进行计算包括:将第一组微数据输入到包含第一层网络层的第一计算设备中;响应于第一组微数据完成在第一计算设备中的计算,将第二组微数据输入到第一计算设备。
在一些实施方式中,最高层网络将若干组微数据的计算结果汇总并进行损失函数计算包括:最高层网络将若干组微数据的计算结果作和,并基于得到的和进行损失函数计算。
在一些实施方式中,基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算包括:响应于当前组微数据的计算结果在当前计算设备完成反向计算,将在当前计算设备的计算结果输入到上一网络层对应的计算设备中进行计算,并将下一组微数据的计算结果输入到当前计算设备中进行计算。
本发明实施例的另一方面,还提供了一种深度学习模型的训练装置,包括:拆分模块,配置用于基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;输入模块,配置用于基于网络层的训练顺序将若干组微数据逐次输入到对应的计算设备中进行计算;处理模块,配置用于响应于当前组微数据或其计算结果在当前计算设备完成计算,将在当前计算设备的计算结果输入到下一网络层对应的计算设备中进行计算,并将下一组微数据或其计算结果输入到当前计算设备中进行计算;以及反向处理模块,配置用于最高层网络层将若干组微数据的计算结果汇总并进行损失函数计算,并基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。
本发明实施例的再一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行时实现上述方法的步骤。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明具有以下有益技术效果:提升深度学习模型并行分布式训练中的计算效率,解决原算法中每次只有一个设备进行计算,而其他设备闲置的问题。从而大幅提升超大规模深度学习模型的训练效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明提供的深度学习模型的训练方法的实施例的示意图;
图2为本发明提供的深度学习模型的训练方法的实施例的流程示意图;
图3为本发明提供的深度学习模型的训练装置的实施例的示意图;
图4为本发明提供的计算机设备的实施例的示意图;
图5为本发明提供的计算机可读存储介质的实施例的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了深度学习模型的训练方法的实施例。图1示出的是本发明提供的深度学习模型的训练方法的实施例的示意图。如图1所示,本发明实施例包括如下步骤:
S01、基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;
S02、基于网络层的训练顺序将若干组微数据逐次输入到对应的计算设备中进行计算;
S03、响应于当前组微数据或其计算结果在当前计算设备完成计算,将在当前计算设备的计算结果输入到下一网络层对应的计算设备中进行计算,并将下一组微数据或其计算结果输入到当前计算设备中进行计算;以及
S04、最高层网络层将若干组微数据的计算结果汇总并进行损失函数计算,并基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。
在本实施例中,图2示出的是深度学习模型的训练方法的实施例的流程示意图。如图2所示,将待处理数据拆分成mb1、mb2、mb3、mb4、mb5、mb6、mb7和mb8八组微数据,首先把分组后的第一组微数据mb1传入位于第一计算设备device1的第一网络层layer1和第二网络层layer2;响应于第一组微数据mb1在位于第一计算设备device1的第一网络层layer1和第二网络层layer2计算完毕,将计算结果传入位于第二计算设备device2的第三网络层layer3和第四网络层layer4,同时将第二组微数据mb2传入位于第一计算设备device1的第一网络层layer1和第二网络层layer2;此时第一计算设备device1和第二计算设备device2同时处于计算状态,其中第一计算设备device1在处理第二组微数据mb2,第二计算设备device2在处理第一组微数据mb1。更进一步的,在第二计算设备device2完成第一组微数据mb1后将处理结果传入第三计算设备device3,此时第一计算设备device1、第二计算设备device2和第三计算设备device3都处于计算状态。这样随着计算过程的开展,每个计算设备都将同时处于计算状态,从而大幅提高计算效率。
在本发明的一些实施例中,还包括:基于数据并行算法对数据集进行处理,得到若干待处理数据。
在本实施例中,可以与数据并算法结合,从而进一步提升超大规模深度学习模型的训练效率。因此可以在模型并行的基础上叠加数据并行。以M个计算设备、深度学习模型最多可以拆分到N个计算设备为例,N<M,且M能被N整除,则把M个计算设备拆分成M/N组,每组包含N个计算设备,在N个计算设备内采用本发明的方法,在M/N组内,采用数据并行算法。
在本发明的一些实施例中,基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据包括:基于预设数据对待处理数据进行拆分,使得到的每组微数据的数目均为预设数据,其中预设数据为最小单位的整数倍。
在本实施例中,把一个批次的待处理数据进行更小粒度的拆分,最小可拆分到单个数据。以一个批次包含32个数据为例,32张图片可以拆分成8组微数据,每组微数据包含4张图片;也可以拆分成32组微数据,每组微数据包含1张图片。
在本发明的一些实施例中,将深度学习模型的网络层拆分到多个计算设备上包括:将深度学习模型的网络层基于计算效率拆分到多个计算设备上;和/或将深度学习模型的网络层平均拆分到多个计算设备上;和/或将深度学习模型的网络层基于处理顺序拆分到多个计算设备上。
在本实施例中,由于对深度学习模型进行多计算设备的拆分粒度有限,不能无限拆分,以Bert-Large为例,有32层网络层,则最多可以拆分到32个计算设备。
在本发明的一些实施例中,基于网络层的训练顺序将若干组微数据逐次输入到对应的计算设备中进行计算包括:将第一组微数据输入到包含第一层网络层的第一计算设备中;响应于第一组微数据完成在第一计算设备中的计算,将第二组微数据输入到第一计算设备。
在本实施例中,,参考图2,首先把分组后的第一组微数据mb1传入位于第一计算设备device1的第一网络层layer1和第二网络层layer2;响应于第一组微数据mb1在位于第一计算设备device1的第一网络层layer1和第二网络层layer2计算完毕,将计算结果传入位于第二计算设备device2的第三网络层layer3和第四网络层layer4,同时将第二组微数据mb2传入位于第一计算设备device1的第一网络层layer1和第二网络层layer2;此时第一计算设备device1和第二计算设备device2同时处于计算状态,其中第一计算设备device1在处理第二组微数据mb2,第二计算设备device2在处理第一组微数据mb1。
在本发明的一些实施例中,最高层网络将若干组微数据的计算结果汇总并进行损失函数计算包括:最高层网络将若干组微数据的计算结果作和,并基于得到的和进行损失函数计算。
在本实施例中,基于参照图2,最高层网络即第八层网络layer8依次汇总所有微数据的计算结果,即将计算结果作和得到完整结果,然后把汇总后的完整结果进行损失函数的计算。
在本发明的一些实施例中,基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算包括:响应于当前组微数据的计算结果在当前计算设备完成反向计算,将在当前计算设备的计算结果输入到上一网络层对应的计算设备中进行计算,并将下一组微数据的计算结果输入到当前计算设备中进行计算。
在本实施例中,在最后一个微数据完成反向传播的计算之后,位于不同的计算设备上的模型网络层都已经包含了完成模型参数更新的梯度数据,此时各个计算设备可以同时进行模型参数的更新。
需要特别指出的是,上述深度学习模型的训练方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于深度学习模型的训练方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
基于上述目的,本发明实施例的第二个方面,提出了一种深度学习模型的训练装置。图3示出的是本发明提供的深度学习模型的训练装置的实施例的示意图。如图3所示,本发明实施例包括如下模块:拆分模块S11,配置用于基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;输入模块S12,配置用于基于网络层的训练顺序将若干组微数据逐次输入到对应的计算设备中进行计算;处理模块S13,配置用于响应于当前组微数据或其计算结果在当前计算设备完成计算,将在当前计算设备的计算结果输入到下一网络层对应的计算设备中进行计算,并将下一组微数据或其计算结果输入到当前计算设备中进行计算;以及反向处理模块S14,配置用于最高层网络层将若干组微数据的计算结果汇总并进行损失函数计算,并基于网络层的反向顺序将若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。
基于上述目的,本发明实施例的第三个方面,提出了一种计算机设备。图4示出的是本发明提供的计算机设备的实施例的示意图。如图4所示,本发明实施例包括如下装置:至少一个处理器S21;以及存储器S22,存储器S22存储有可在处理器上运行的计算机指令S23,指令由处理器执行时实现以上方法的步骤。
本发明还提供了一种计算机可读存储介质。图5示出的是本发明提供的计算机可读存储介质的实施例的示意图。如图5所示,计算机可读存储介质存储S31有被处理器执行时执行如上方法的计算机程序S32。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,深度学习模型的训练方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被处理器执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种深度学习模型的训练方法,其特征在于,包括以下步骤:
基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;
基于所述网络层的训练顺序将所述若干组微数据逐次输入到对应的所述计算设备中进行计算;
响应于当前组所述微数据或其计算结果在当前所述计算设备完成计算,将在当前所述计算设备的计算结果输入到下一所述网络层对应的所述计算设备中进行计算,并将下一组所述微数据或其计算结果输入到当前所述计算设备中进行计算;以及
最高层网络层将所述若干组微数据的计算结果汇总并进行损失函数计算,并基于所述网络层的反向顺序将所述若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。
2.根据权利要求1所述的深度学习模型的训练方法,其特征在于,还包括:
基于数据并行算法对数据集进行处理,得到若干待处理数据。
3.根据权利要求1所述的深度学习模型的训练方法,其特征在于,基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据包括:
基于预设数据对待处理数据进行拆分,使得到的每组微数据的数目均为所述预设数据,其中所述预设数据为最小单位的整数倍。
4.根据权利要求1所述的深度学习模型的训练方法,其特征在于,将深度学习模型的网络层拆分到多个计算设备上包括:
将深度学习模型的网络层基于计算效率拆分到多个计算设备上;和/或
将深度学习模型的网络层平均拆分到多个计算设备上;和/或
将深度学习模型的网络层基于处理顺序拆分到多个计算设备上。
5.根据权利要求1所述的深度学习模型的训练方法,其特征在于,基于所述网络层的训练顺序将所述若干组微数据逐次输入到对应的所述计算设备中进行计算包括:
将第一组微数据输入到包含第一层网络层的第一计算设备中;
响应于所述第一组微数据完成在所述第一计算设备中的计算,将第二组微数据输入到所述第一计算设备中。
6.根据权利要求1所述的深度学习模型的训练方法,其特征在于,最高层网络将所述若干组微数据的计算结果汇总并进行损失函数计算包括:
最高层网络将所述若干组微数据的计算结果作和,并基于得到的和进行损失函数计算。
7.根据权利要求1所述的深度学习模型的训练方法,其特征在于,基于所述网络层的反向顺序将所述若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算包括:
响应于当前组所述微数据的计算结果在当前所述计算设备完成反向计算,将在当前所述计算设备的计算结果输入到上一所述网络层对应的所述计算设备中进行计算,并将下一组所述微数据的计算结果输入到当前所述计算设备中进行计算。
8.一种深度学习模型的训练装置,其特征在于,包括:
拆分模块,配置用于基于最小单位的整数倍对待处理数据进行拆分以得到若干组微数据,并将深度学习模型的网络层拆分到多个计算设备上;
输入模块,配置用于基于所述网络层的训练顺序将所述若干组微数据逐次输入到对应的所述计算设备中进行计算;
处理模块,配置用于响应于当前组所述微数据或其计算结果在当前所述计算设备完成计算,将在当前所述计算设备的计算结果输入到下一所述网络层对应的所述计算设备中进行计算,并将下一组所述微数据或其计算结果输入到当前所述计算设备中进行计算;以及
反向处理模块,配置用于最高层网络层将所述若干组微数据的计算结果汇总并进行损失函数计算,并基于所述网络层的反向顺序将所述若干组微数据的计算结果逐次输入到对应的计算设备中进行反向计算。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现1-7任意一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110233535.3A CN112966829A (zh) | 2021-03-03 | 2021-03-03 | 一种深度学习模型的训练方法、装置、设备及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110233535.3A CN112966829A (zh) | 2021-03-03 | 2021-03-03 | 一种深度学习模型的训练方法、装置、设备及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112966829A true CN112966829A (zh) | 2021-06-15 |
Family
ID=76276614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110233535.3A Pending CN112966829A (zh) | 2021-03-03 | 2021-03-03 | 一种深度学习模型的训练方法、装置、设备及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966829A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108108813A (zh) * | 2017-12-01 | 2018-06-01 | 中国科学院重庆绿色智能技术研究院 | 一种大类别深度学习gpu并行加速的方法 |
CN110503194A (zh) * | 2019-08-09 | 2019-11-26 | 苏州浪潮智能科技有限公司 | 一种分布式并行训练的方法和系统 |
CN110889492A (zh) * | 2019-11-25 | 2020-03-17 | 北京百度网讯科技有限公司 | 用于训练深度学习模型的方法和装置 |
CN112154462A (zh) * | 2018-05-23 | 2020-12-29 | 微软技术许可有限责任公司 | 高性能流水线并行深度神经网络训练 |
-
2021
- 2021-03-03 CN CN202110233535.3A patent/CN112966829A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108108813A (zh) * | 2017-12-01 | 2018-06-01 | 中国科学院重庆绿色智能技术研究院 | 一种大类别深度学习gpu并行加速的方法 |
CN112154462A (zh) * | 2018-05-23 | 2020-12-29 | 微软技术许可有限责任公司 | 高性能流水线并行深度神经网络训练 |
CN110503194A (zh) * | 2019-08-09 | 2019-11-26 | 苏州浪潮智能科技有限公司 | 一种分布式并行训练的方法和系统 |
CN110889492A (zh) * | 2019-11-25 | 2020-03-17 | 北京百度网讯科技有限公司 | 用于训练深度学习模型的方法和装置 |
Non-Patent Citations (1)
Title |
---|
高志强: "《深度学习从入门到实践》", 30 June 2018 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970322B2 (en) | Training an artificial intelligence to generate an answer to a query based on an answer table pattern | |
CN109036425A (zh) | 用于操作智能终端的方法和装置 | |
US11461317B2 (en) | Method, apparatus, system, device, and storage medium for answering knowledge questions | |
US10223435B2 (en) | Data transfer between multiple databases | |
CN112463056A (zh) | 一种多节点分布式训练方法、装置、设备及可读介质 | |
CN106886535A (zh) | 一种适配多种数据源的数据抽取方法和装置 | |
CN113869495B (zh) | 神经网络卷积权重layout优化的方法、装置、设备及可读介质 | |
CN114118076A (zh) | 文本生成方法、装置、电子设备和计算机可读介质 | |
CN116112175A (zh) | 基于区块链的数字孪生网络的业务处理方法、装置及介质 | |
CN112966829A (zh) | 一种深度学习模型的训练方法、装置、设备及可读介质 | |
CN112070227B (zh) | 一种神经网络训练方法和装置以及设备 | |
CN111708880A (zh) | 类簇的识别系统及方法 | |
CN113626369B (zh) | 一种多节点集群环形通信的方法、装置、设备及可读介质 | |
CN114816762A (zh) | 映射的方法、电子设备、计算机可读存储介质 | |
CN114443279A (zh) | 异构加速池化中多主控设备的方法、装置、设备及介质 | |
CN110276403B (zh) | 模型建立方法和装置 | |
CN114358023A (zh) | 智能问答召回方法、装置、计算机设备及存储介质 | |
CN111090530A (zh) | 一种分布式跨进程间通信总线系统 | |
CN110472055A (zh) | 用于标注数据的方法和装置 | |
CN116663516B (zh) | 表格机器学习模型训练方法、装置、电子设备及存储介质 | |
CN117634711B (zh) | 张量维度切分方法、系统、设备和介质 | |
CN115795028B (zh) | 一种公文智能生成方法及系统 | |
CN114330512B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
CN117910598A (zh) | 基于克罗内克积的大模型微调方法、装置、设备及介质 | |
CN114089911B (zh) | 基于数据复用的块切分拼接处理方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210615 |