CN103996069A - 一种基于多gpu的bpnn训练方法和装置 - Google Patents

一种基于多gpu的bpnn训练方法和装置 Download PDF

Info

Publication number
CN103996069A
CN103996069A CN201310054733.9A CN201310054733A CN103996069A CN 103996069 A CN103996069 A CN 103996069A CN 201310054733 A CN201310054733 A CN 201310054733A CN 103996069 A CN103996069 A CN 103996069A
Authority
CN
China
Prior art keywords
gpu
bpnn
output
calculating
synchronous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310054733.9A
Other languages
English (en)
Other versions
CN103996069B (zh
Inventor
欧阳剑
王勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201310054733.9A priority Critical patent/CN103996069B/zh
Publication of CN103996069A publication Critical patent/CN103996069A/zh
Application granted granted Critical
Publication of CN103996069B publication Critical patent/CN103996069B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供了一种基于多图形处理器(GPU)的反向传播神经网络(BPNN)训练方法和装置,其中方法包括:S1、控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出;S2、控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出;S3、控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。本发明能够减少多GPU的BPNN训练时的数据同步开销,提高多GPU的BPNN训练效率。

Description

一种基于多GPU的BPNN训练方法和装置
【技术领域】
本发明涉及神经网络训练技术,尤其涉及一种基于多GPU的BPNN训练方法和装置。
【背景技术】
BPNN(Back-Propagation Nueral Networks)反向传播神经网络是1986年由Rumelhart和McCelland为首的科学家小组提出的一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。
BPNN模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(outputlayer)。输入层负责接收来自外界的输入数据,并传递给隐层;隐层是内部信息处理层,负责数据处理,隐层可以设计为单隐层或者多隐层结构;最后一层隐层传递到输出层各神经元的数据,经进一步处理后,完成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。当实际输出与期望输出不符时,进入误差的反向传播阶段。误差通过输出层,按误差梯度下降的方式修正各层权值,向隐层、输入层逐层反传。周而复始的数据正向传播和误差反向传播过程,是各层权值不断调整的过程,也是神经网络学习训练的过程。
BPNN训练过程的复杂度,与BPNN的规模和用于训练的数据规模有关。通常,商业或工业应用中的BPNN的规模较大,且用于训练的数据量也非常之大,传统的单机CPU已无法满足BPNN的训练需求。随着GPU计算的通用化,利用GPU进行BPNN的训练成为一种有效的加速BPNN训练过程的手段。然而,随着BPNN规模的不断增大,单GPU也已经无法满足训练需求,基于多GPU的BPNN训练成为研究热点。
目前,现有的多GPU的BPNN训练方法通常是在每个GPU上保存一个各层初始权重相同的BPNN,每次训练时将输入数据分为多份,每个GPU分别针对一份数据进行训练,即每个GPU针对一份数据进行BPNN的正向计算、反向误差计算和权重更新。在所有GPU完成各自的计算后,同步各个GPU所保存的BPNN的各层的权值,使得每个GPU的BPNN都获得完整的权重值,进行下一次训练。
然而,上述这样多GPU的BPNN训练方法中在同步GPU的BPNN之间的同步权重数据时存在较大的开销,大规模BPNN的权重值数据量可达数百兆,在多个GPU之间同步该些BPNN的权重值时的通信用时开销可达数百毫秒,导致利用多GPU对BPNN进行训练的效率低下,而单个GPU上训练过程通常只需耗时几十毫秒,可见,由于多个GPU之间数据同步开销较大,导致利用多GPU对BPNN进行训练的效率低下,有时甚至不如利用单GPU进行BPNN的训练。
【发明内容】
本发明提供了一种基于多GPU的BPNN训练方法和装置,能够减少多GPU的BPNN训练时的数据同步开销,提高多GPU的BPNN训练效率。
具体技术方案如下:
一种基于多图形处理器GPU的反向传播神经网络BPNN训练方法,该方法包括:
S1、控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出;
S2、控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出;
S3、控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。
根据本发明一优选实施例,所述步骤S1具体包括:
控制各GPU进行正向计算,针对每一层执行:在BPNN的当前层正向计算结束后将正向计算输出传递至下一层的同时,在各GPU之间同步当前层的正向计算输出。
根据本发明一优选实施例,所述步骤S2具体包括:
根据BPNN正向输出数据与预期值的差异,控制各GPU进行反向误差计算,针对每一层执行:在BPNN的当前层反向误差计算结束后将反向误差计算输出传递至下一层的同时,在各GPU之间同步当前层的反向误差计算输出。
根据本发明一优选实施例,调用GPU之间的PCI-E总线在各GPU之间同步所述正向计算输出并保存在GPU内存中。
根据本发明一优选实施例,调用GPU之间的PCI-E总线在各GPU之间同步所述反向误差计算输出并保存在GPU内存中
一种基于多图形处理器GPU的反向传播神经网络BPNN训练装置,该装置包括:
正向计算单元,用于控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出;
反向误差计算单元,用于控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出;
权重更新单元,用于控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。
根据本发明一优选实施例,所述正向计算单元具体执行:
控制各GPU进行正向计算,针对每一层执行:在BPNN的当前层正向计算结束后将正向计算输出传递至下一层的同时,在各GPU之间同步当前层的正向计算输出。
根据本发明一优选实施例,所述反向误差计算单元具体执行:
根据BPNN正向输出数据与预期值的差异,控制各GPU进行反向误差计算,针对每一层执行:在BPNN的当前层反向误差计算结束后将反向误差计算输出传递至下一层的同时,在各GPU之间同步当前层的反向误差计算输出。
根据本发明一优选实施例,所述正向计算单元调用GPU之间的PCI-E总线在各GPU之间同步所述正向计算输出并保存在GPU内存中。
根据本发明一优选实施例,所述反向误差计算单元调用GPU之间的PCI-E总线在各GPU之间同步所述正向计算输出并保存在GPU内存中。
由以上技术方案可以看出,本发明通过在BPNN的每层正向计算结束后在各GPU之间同步该层的正向计算输出,以及每层反向误差计算结束后在各GPU之间同步该层的反向误差计算输出,使得每个GPU上的BPNN都有完整的正向计算输出以及反向误差计算输出,并能以此更新得到完整权重值。与现有技术相比,本发明有效减少了多GPU的BPNN训练时数据同步的开销,显著提高了多GPU的BPNN训练效率。
【附图说明】
图1为本发明实施例一所提供的基于多GPU的BPNN训练方法流程图;
图2为本发明实施例一所提供的正向计算过程示例图;
图3为本发明实施例一所提供的反向误差计算过程示例图;
图4为现有的基于多GPU的BPNN的训练过程示例图;
图5为本发明所提供的基于多GPU的BPNN训练过程示例图;
图6为本发明实施例二所提供的基于多GPU的BPNN训练装置示意图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
BPNN的每一层的权重的更新依赖于BPNN每一层的正向计算的输出和反向误差计算的输出,为便于表述,可以用W表示权重、O表示正向计算的输出、E表示反向误差计算的输出,即根据正向计算输出O和反向误差计算输出E来更新每一层的权重值W。
在现有的多GPU的BPNN训练方法中,由于每个GPU只训练了一部分数据,所以每个GPU的BPNN的权重值只是基于该GPU训练的数据更新得到的,因此,需要在所有GPU完成各自BPNN的权重更新后,对各个GPU的BPNN的权重值进行同步,使得每个GPU的BPNN都具有完整的权重值,之后才能进行下一次训练。然而,相对于权重W,正向计算输出O和反向误差计算输出E的数据量小很多,而且,由于每个GPU只训练一部分数据,因此各个GPU的正向计算输出O和反向误差计算输出E数据量之和通常只是权重W的数十分之一,如果能通过同步正向计算输出O和反向误差计算输出E来使得每个GPU的BPNN获得完整的权重值W,则会明显减少数据同步开销。
本发明正是通过在每一层的正向计算或反向误差计算结束后,同步各个GPU上该层的正向计算输出O或反向误差计算输出E,来减少数据同步开销。
实施例一
图1为本发明实施例一所提供的基于多GPU的BPNN训练方法流程图,如图1所示,该方法包括:
S101、控制各个GPU进行正向计算,并同步正向计算输出O。
BPNN的正向计算和反向误差计算均是逐层进行的,可以在每层计算结束后在各个GPU之间同步该层的计算输出数据。
当输入层将数据传递至第一层隐层后,控制各个GPU从第一层隐层开始进行正向计算,可以在每一层隐层正向计算结束并将正向计算输出O传递至下一层隐层的同时,在各个GPU之间同步该层的正向计算输出O,直至最后一层隐层将正向计算输出传递至BPNN的输出层后,由输出层输出数据。下面结合图2所示正向计算过程示例来进一步描述上述过程,图2中,L0为第一层隐层,Ln为最后一层隐层,当输入层将输入数据传递至L0后,正向计算由L0开始逐层进行,直至Ln,其中,L0的正向计算输出为L0.O,Ln的正向计算输出为Ln.O,当L0层正向计算结束时,在各个GPU之间同步L0的正向计算输出L0.O,同时,将L0.O传递至下一层L1,当L1层正向计算结束时,在各个GPU之间同步L1的正向计算输出L1.O,同时,将L1.O传递至下一层L2,以此类推,直至最后一层Ln正向计算完毕后,在各个GPU之间同步Ln的正向输出Ln.O,同时,将Ln.O传递至输出层,由输出层向输出将数据输出。
各个GPU上的BPNN的正向计算过程与单GPU的BPNN训练方法中的正向计算过程相同,在此不过多赘述。可以调用GPU之间的PCI-E总线来传递正向计算输出O,并将正向计算输出O保存在各个GPU的内存中,以此实现正向计算输出O的同步。
S102、根据BPNN正向输出数据与预期值的差异,控制各个GPU进行反向误差计算,并同步反向误差计算输出E。
根据输出层所输出数据与预期的差异值,开始BPNN的反向误差计算。
当根据输出层所输出数据与预期的差异值得到的调整数据由输出层传递至最后一层隐层后,控制各个GPU进行从最后一层隐层开始进行反向误差计算,可以在每一层隐层反向误差计算结束并将反向误差计算输出E传递至下一层隐层的同时,在各个GPU之间同步该层的反向误差计算输出E,直至第一层隐层反向误差计算结束。下面结合图3所示反向误差计算过程示例来进一步描述上述过程,图3中,L0为第一层隐层,Ln为最后一层隐层,当输出层将数据传递至Ln后,反向误差计算由Ln开始逐层进行,直至L0,其中,Ln的反向误差计算输出为Ln.E,L0的反向误差计算输出为L0.E,当Ln层反向误差计算结束时,在各个GPU之间同步Ln的反向误差计算输出Ln.E,同时,将Ln.E传递至下一层Ln-1,当Ln-1层反向误差计算结束时,在各个GPU之间同步Ln-1的反向误差计算输出Ln-1.E,同时,将Ln-1.E传递至下一层Ln-2,以此类推,直至第一层隐层L0反向误差计算完毕后,在各个GPU之间同步L0的反向误差计算输出L0.E。
各个GPU上的BPNN的反向误差计算过程与单GPU的BPNN训练方法中的反向误差计算过程相同,在此不过多赘述。可以调用GPU之间的PCI-E总线来传递反向误差计算输出E,并将反向误差计算输出E保存在各个GPU的内存中,以此实现反向误差计算输出E的同步。
S103、控制各个GPU根据同步得到的正向计算输出O与反向误差计算输出E更新其所保存的BPNN的权重W。
经过上述步骤S101和S102中的正向计算和反向误差计算以及正向计算输出O和反向误差计算输出E的同步后,每个CPU上都存在其他各CPU的正向计算输出O和反向误差计算输出E,然后在每个GPU上分别针对各层同步到的正向计算输出O进行合并,使得各个GPU的BPNN的每一层得到完整的正向计算输出O,同样,在每个GPU上分别针对各层同步到的反向误差计算输出E进行合并,使得各个GPU的BPNN的每一层得到完整的反向误差计算输出E,之后,利用各层完整的正向计算输出O和完整的反向误差计算输出E分别计算得到各层的权重W。
可以根据各层完整的正向计算输出O和完整的反向误差计算输出E按预先设定的公式或函数来更新各个GPU的BPNN的每一层的权重值,所使用的公式或函数与单GPU的BPNN训练方法中使用的公式或函数相同,在此不过多赘述。
上述步骤S101-S103为对本发明所提供的基于多GPU的BPNN训练方法进行的描述,可以看出,本发明通过在各个GPU的BPNN的每层正向计算结束后同步该层的正向计算输出O,以及反向误差计算结束后同步该层的反向误差计算输出E,有效解决了现有方法中直接同步权重W所带来的同步开销过大的问题。
图4为现有的基于多GPU的BPNN的训练过程示例图,如图4所示,通过现有方法利用两个GPU进行BPNN的训练,将训练数据分为两份后,控制GPU1和GPU2分别针对一份数据进行各自的BPNN的正向计算、反向误差计算和权重更新,该过程与单GPU的BPNN训练过程相同,在GPU1和GPU2分别完成其BPNN的权重更新后,对该两个GPU上BPNN的权重值进行同步,通常,BPNN的权重值数据量较大,可达数百兆,通过PCI-E2.0总线进行传输的通信用时可能需要数百毫秒,开销很大。
图5为本发明所提供的基于多GPU的BPNN训练过程示例图,如图5所示,通过本发明所提供的方法利用两个GPU进行BPNN的训练,将训练数据分为两份后,控制GPU1和GPU2分别针对一份数据进行各自的BPNN的正向计算,并在正向计算完毕后,在GPU1和GPU2之间同步BPNN的正向计算输出,之后控制GPU1和GPU2分别进行BPNN的反向误差计算,并在反向误差计算完毕后,在GPU1和GPU2之间同步BPNN的反向误差计算输出,最后控制GPU1和GPU2分别进行BPNN的权重更新。由于正向计算输出O和反向误差计算输出E的数据量远小于权重W的数据量,且正向计算输出O和反向误差计算输出E的同步过程均可以与各个GPU上BPNN的正向计算或反向误差计算同时进行,因此,本发明所提供的多GPU的BPNN训练方法中数据同步几乎不需要占用额外的通信用时开销,避免了如图4所示的现有方法中直接同步权重值带来的过大的数据同步开销。同时,相比于单GPU的BPNN训练方法,本发明所提供的方法能显著提高BPNN的训练效率,例如,利用4个GPU进行BPNN的训练,则正向计算和反向误差计算效率为利用单GPU进行训练的4倍,权重计算更新的效率与单GPU训练时的相同,可见,当正向计算和反向误差计算在整个BPNN训练中占的比重越大时,本发明相比于单GPU的BPNN训练方法的训练效率就越高。
上述为对本发明实施一所提供的方法进行的描述,下面结合实施例二对本发明提供的装置进行描述。本发明所提供的装置用于控制GPU来完成本发明实施例一所提供的方法。
实施例二
图6为本发明实施例二所提供的基于多GPU的BPNN训练装置示意图,如图6所示,该装置包括:正向计算单元10、反向误差计算单元20、权重更新单元30。
正向计算单元10,用于控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出。
BPNN的正向计算和反向误差计算均是逐层进行的,可以在每层计算结束后在各个GPU之间同步该层的计算输出数据。
当数据由输入层传递至第一层隐层后,正向计算单元10控制各个GPU从第一层隐层开始进行正向计算,可以在每一层隐层正向计算结束并将正向计算输出O传递至下一层隐层的同时,在各个GPU之间同步该层的正向计算输出O,直至最后一层隐层将正向计算输出传递至BPNN的输出层并由输出层输出。
各个GPU上的BPNN的正向计算过程与单GPU的BPNN训练方法中的正向计算过程相同,在此不过多赘述。正向计算单元10可以调用GPU之间的PCI-E总线来传递正向计算输出O,并将正向计算输出O保存在各个GPU的内存中,以此实现正向计算输出O的同步。
反向误差计算单元20,用于根据BPNN输出数据与预期值的差异,控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出。
当根据输出层所输出数据与预期的差异值得到的调整数据由输出层传递至最后一层隐层后,反向误差计算单元20控制各个GPU进行从最后一层隐层开始进行反向误差计算,可以在每一层隐层反向误差计算结束并将反向误差计算输出E传递至下一层隐层的同时,在各个GPU之间同步该层的反向误差计算输出E,直至第一层隐层反向误差计算结束。
各个GPU上的BPNN的反向误差计算过程与单GPU的BPNN训练方法中的反向误差计算过程相同,在此不过多赘述。反向误差计算单元20可以调用GPU之间的PCI-E总线来传递反向误差计算输出E,并将反向误差计算输出E保存在各个GPU的内存中,以此实现反向误差计算输出E的同步。
权重更新单元30,用于控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。
经过上述正向计算单元10和反向误差计算单元20所执行的操作后,权重更新单元30在每个GPU上分别针对各层同步到的正向计算输出O进行合并,使得各个GPU的BPNN的每一层得到完整的正向计算输出O,同样,权重更新单元30在每个GPU上分别针对各层同步到的反向误差计算输出E进行合并,使得各个GPU的BPNN的每一层得到完整的反向误差计算输出E,之后,利用各层完整的正向计算输出O和完整的反向误差计算输出E分别计算得到各层的权重W。
权重更新单元30可以根据各层完整的正向计算输出O和完整的反向误差计算输出E按预先设定的公式或函数来更新各个GPU的BPNN的每一层的权重值,该方法与单GPU的BPNN训练方法中的根据各层正向计算输出O和反向误差计算输出E来更新每层权重值的方法相同,在此不过多赘述。
上述为对本发明所提供的基于多GPU的BPNN训练装置进行的描述,可以看出,本发明通过在各个GPU的BPNN的每层正向计算或反向误差计算结束后,同步该层的正向计算输出O或反向误差计算输出E来有效解决了现有方法中直接同步权重W所带来的同步开销过大的问题。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种基于多图形处理器GPU的反向传播神经网络BPNN训练方法,其特征在于,该方法包括:
S1、控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出;
S2、控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出;
S3、控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1具体包括:
控制各GPU进行正向计算,针对每一层执行:在BPNN的当前层正向计算结束后将正向计算输出传递至下一层的同时,在各GPU之间同步当前层的正向计算输出。
3.根据权利要求1所述的方法,其特征在于,所述步骤S2具体包括:
根据BPNN正向输出数据与预期值的差异,控制各GPU进行反向误差计算,针对每一层执行:在BPNN的当前层反向误差计算结束后将反向误差计算输出传递至下一层的同时,在各GPU之间同步当前层的反向误差计算输出。
4.根据权利要求2所述的方法,其特征在于,调用GPU之间的PCI-E总线在各GPU之间同步所述正向计算输出并保存在GPU内存中。
5.根据权利要求3所述的方法,其特征在于,调用GPU之间的PCI-E总线在各GPU之间同步所述反向误差计算输出并保存在GPU内存中。
6.一种基于多图形处理器GPU的反向传播神经网络BPNN训练装置,其特征在于,该装置包括:
正向计算单元,用于控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出;
反向误差计算单元,用于控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出;
权重更新单元,用于控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。
7.根据权利要求6所述的装置,其特征在于,所述正向计算单元具体执行:
控制各GPU进行正向计算,针对每一层执行:在BPNN的当前层正向计算结束后将正向计算输出传递至下一层的同时,在各GPU之间同步当前层的正向计算输出。
8.根据权利要求6所述的装置,其特征在于,所述反向误差计算单元具体执行:
根据BPNN正向输出数据与预期值的差异,控制各GPU进行反向误差计算,针对每一层执行:在BPNN的当前层反向误差计算结束后将反向误差计算输出传递至下一层的同时,在各GPU之间同步当前层的反向误差计算输出。
9.根据权利要求7所述的装置,其特征在于,所述正向计算单元调用GPU之间的PCI-E总线在各GPU之间同步所述正向计算输出并保存在GPU内存中。
10.根据权利要求8所述的装置,其特征在于,所述反向误差计算单元调用GPU之间的PCI-E总线在各GPU之间同步所述正向计算输出并保存在GPU内存中。
CN201310054733.9A 2013-02-20 2013-02-20 一种基于多gpu的bpnn训练方法和装置 Active CN103996069B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310054733.9A CN103996069B (zh) 2013-02-20 2013-02-20 一种基于多gpu的bpnn训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310054733.9A CN103996069B (zh) 2013-02-20 2013-02-20 一种基于多gpu的bpnn训练方法和装置

Publications (2)

Publication Number Publication Date
CN103996069A true CN103996069A (zh) 2014-08-20
CN103996069B CN103996069B (zh) 2018-04-03

Family

ID=51310229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310054733.9A Active CN103996069B (zh) 2013-02-20 2013-02-20 一种基于多gpu的bpnn训练方法和装置

Country Status (1)

Country Link
CN (1) CN103996069B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150596A (zh) * 2013-02-22 2013-06-12 百度在线网络技术(北京)有限公司 一种反向传播神经网络dnn的训练系统
CN104899641A (zh) * 2015-05-25 2015-09-09 杭州朗和科技有限公司 深度神经网络学习方法、处理器和深度神经网络学习系统
CN104933463A (zh) * 2015-07-07 2015-09-23 杭州朗和科技有限公司 深度神经网络模型的训练方法和设备
WO2017124641A1 (zh) * 2016-01-20 2017-07-27 北京中科寒武纪科技有限公司 用于执行人工神经网络反向训练的装置和方法
CN107292385A (zh) * 2016-03-31 2017-10-24 阿里巴巴集团控股有限公司 一种类Alexnet网络的模型训练方法和装置
WO2017185394A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 一种用于执行全连接层神经网络反向训练的装置和方法
CN108984689A (zh) * 2018-07-02 2018-12-11 广东睿江云计算股份有限公司 一种联合文件系统中多副本同步方法及装置
CN109670579A (zh) * 2018-12-14 2019-04-23 北京字节跳动网络技术有限公司 模型生成方法和装置
US10474586B2 (en) 2016-08-26 2019-11-12 Cambricon Technologies Corporation Limited TLB device supporting multiple data streams and updating method for TLB module
CN113127194A (zh) * 2021-03-26 2021-07-16 山东英信计算机技术有限公司 一种管理芯片资源自适应分配方法、装置及介质
WO2022267036A1 (zh) * 2021-06-25 2022-12-29 华为技术有限公司 神经网络模型训练方法和装置、数据处理方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1627251A (zh) * 2003-12-09 2005-06-15 微软公司 使用图形处理单元加速并优化机器学习技术的处理
CN101706870A (zh) * 2009-10-26 2010-05-12 中山大学 一种基于gpu实现的媒资特征识别的系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1627251A (zh) * 2003-12-09 2005-06-15 微软公司 使用图形处理单元加速并优化机器学习技术的处理
CN101706870A (zh) * 2009-10-26 2010-05-12 中山大学 一种基于gpu实现的媒资特征识别的系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BOARD SPECIFICATION: "《Tesla K10 GPU accelerator》", 30 June 2012 *
冯百明等: "《BP算法并行程序的自动生成与并行效率预测》", 《电光与控制》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150596B (zh) * 2013-02-22 2015-12-23 百度在线网络技术(北京)有限公司 一种反向传播神经网络dnn的训练系统
CN103150596A (zh) * 2013-02-22 2013-06-12 百度在线网络技术(北京)有限公司 一种反向传播神经网络dnn的训练系统
CN104899641A (zh) * 2015-05-25 2015-09-09 杭州朗和科技有限公司 深度神经网络学习方法、处理器和深度神经网络学习系统
CN104899641B (zh) * 2015-05-25 2018-07-13 杭州朗和科技有限公司 深度神经网络学习方法、处理器和深度神经网络学习系统
CN104933463B (zh) * 2015-07-07 2018-01-23 杭州朗和科技有限公司 深度神经网络模型的训练方法和设备
CN104933463A (zh) * 2015-07-07 2015-09-23 杭州朗和科技有限公司 深度神经网络模型的训练方法和设备
WO2017124641A1 (zh) * 2016-01-20 2017-07-27 北京中科寒武纪科技有限公司 用于执行人工神经网络反向训练的装置和方法
CN107292385A (zh) * 2016-03-31 2017-10-24 阿里巴巴集团控股有限公司 一种类Alexnet网络的模型训练方法和装置
WO2017185394A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 一种用于执行全连接层神经网络反向训练的装置和方法
US10474586B2 (en) 2016-08-26 2019-11-12 Cambricon Technologies Corporation Limited TLB device supporting multiple data streams and updating method for TLB module
CN108984689A (zh) * 2018-07-02 2018-12-11 广东睿江云计算股份有限公司 一种联合文件系统中多副本同步方法及装置
CN108984689B (zh) * 2018-07-02 2021-08-03 广东睿江云计算股份有限公司 一种联合文件系统中多副本同步方法及装置
CN109670579A (zh) * 2018-12-14 2019-04-23 北京字节跳动网络技术有限公司 模型生成方法和装置
CN113127194A (zh) * 2021-03-26 2021-07-16 山东英信计算机技术有限公司 一种管理芯片资源自适应分配方法、装置及介质
CN113127194B (zh) * 2021-03-26 2023-08-08 山东英信计算机技术有限公司 一种管理芯片资源自适应分配方法、装置及介质
WO2022267036A1 (zh) * 2021-06-25 2022-12-29 华为技术有限公司 神经网络模型训练方法和装置、数据处理方法和装置

Also Published As

Publication number Publication date
CN103996069B (zh) 2018-04-03

Similar Documents

Publication Publication Date Title
CN103996069A (zh) 一种基于多gpu的bpnn训练方法和装置
CN109754060A (zh) 一种神经网络机器学习模型的训练方法及装置
EP3196809A1 (en) System and method for training parameter set in neural network
CN103150596B (zh) 一种反向传播神经网络dnn的训练系统
CN107229966B (zh) 一种模型数据更新方法、装置及系统
CN109492753A (zh) 一种去中心化的随机梯度下降的方法
CN106156810A (zh) 通用机器学习算法模型训练方法、系统和计算节点
CN108009642A (zh) 分布式机器学习方法和系统
CN106991474A (zh) 深度神经网络模型并行的全连接层数据交换方法及系统
CN106796723A (zh) 用于在协同多用户slam系统中交换地图信息的选择策略
CN109597965A (zh) 基于深度神经网络的数据处理方法、系统、终端及介质
CN112862088A (zh) 一种基于流水线环形参数通信的分布式深度学习方法
KR20170041760A (ko) 프레임 페이싱을 위한 방법 및 시스템
CN110008992A (zh) 一种用于前列腺癌辅助诊断的深度学习方法
CN110069776A (zh) 客户满意度评估方法及装置、计算机可读存储介质
CN108734361A (zh) 拼车订单处理方法和装置
CN114492831A (zh) 联邦学习模型的生成方法及其装置
CN114841315A (zh) 混合专家模型实现方法、系统、电子设备及存储介质
CN114419884B (zh) 基于强化学习和相位竞争的自适应信号控制方法及系统
GB2591028A (en) Large model support in deep learning
CN109255439A (zh) 一种多个gpu并行的dnn模型训练方法和装置
CN115062926A (zh) 基于强化学习和数字孪生的拥挤缓解策略确定方法及装置
CN106169961A (zh) 基于人工智能的神经网络的网络参数处理方法及装置
CN113850394B (zh) 联邦学习方法、装置、电子设备及存储介质
CN109598480A (zh) 定时任务执行时间的管理方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant