CN113610210B - 基于智能网卡的深度学习训练网络迭代更新方法 - Google Patents
基于智能网卡的深度学习训练网络迭代更新方法 Download PDFInfo
- Publication number
- CN113610210B CN113610210B CN202110737729.7A CN202110737729A CN113610210B CN 113610210 B CN113610210 B CN 113610210B CN 202110737729 A CN202110737729 A CN 202110737729A CN 113610210 B CN113610210 B CN 113610210B
- Authority
- CN
- China
- Prior art keywords
- training
- node
- network
- broadcast
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 247
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013135 deep learning Methods 0.000 title claims abstract description 21
- 230000008569 process Effects 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 2
- 238000012217 deletion Methods 0.000 claims 1
- 230000037430 deletion Effects 0.000 claims 1
- 238000000926 separation method Methods 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于智能网卡的深度学习训练网络迭代更新方法,包括将所需要训练的模型与数据分发至训练网络中的训练节点;各训练节点根据自己得到的数据与模型,进行前向和后向运算,得到梯度结果;所述各训练节点得到训练的梯度时,选择合适的时机进行广播;所述各训练节点得到其他节点的梯度,由智能网卡进行累加,汇集结果,进行模型参数更新。本发明提供一种基于智能网卡的深度学习训练网络,采用建立局域网,在局域网内广播的方式进行梯度的传递,以在采用多主机分布式训练时,有效提高迭代的速度。
Description
技术领域
本发明属于网络安全技术领域,尤其涉及基于智能网卡的深度学习训练网络迭代更新方法。
背景技术
对于深度学习训练网络,常用的架构有两种,一种是参数服务器架构,一种是环形归约架构(Ring-allreduce)。
对于参数服务器架构,采用一台专门的参数服务器与多个训练节点,训练节点在进行完一次或多次训练后,将梯度交于参数服务器,参数服务器在汇总梯度后更新参数,将参数广播至各训练节点。
对于环形归约架构,各个训练节点采用环形布置,每个训练节点只有一个输入端,一个输出端,在一次训练后,每个训练节点将自己的梯度传递至下一个训练节点,并接收上一个训练节点的梯度进行参数更新。
对于参数服务器架构,需要各个训练节点均训练完毕后,等待参数服务器回馈参数,需要额外的GPU进行参数计算,而且需要等待参数汇总的时间;对于环形归约架构,难以容忍训练较慢的训练节点,对于异构(运算速度差距较大)的训练网络,一个训练较慢的训练节点可能成为整个训练网络速度的瓶颈。
发明内容
本发明提供一种基于智能网卡的深度学习训练网络,采用建立局域网,在局域网内广播的方式进行梯度的传递,以在采用多主机分布式训练时,有效提高迭代的速度。
为解决以上现有技术中存在的问题,本发明提出了一种基于智能网卡的深度学习训练网络迭代更新方法,包括:
将所需要训练的模型与数据分发至训练网络中的训练节点;
各训练节点根据自己得到的数据与模型,进行前向和后向运算,得到梯度结果;
所述各训练节点得到训练的梯度时,选择合适的时机进行广播;
所述各训练节点得到其他节点的梯度,由智能网卡进行累加,汇集结果,进行模型参数更新。
优选地,所述将所需要训练的模型与数据分发至训练网络中的训练节点之后包括:
将要并入训练网络中的随机一台主机进行广播,代表训练网络建立的开始。
优选地,所述将所需训练的模型与数据分发至训练网络中的训练节点具体包括:
用户在建立训练网络之前,将训练模型与数据置于任意一台训练节点上;
在训练网络建立结束后,各训练节点进入等待接收数据阶段;
由得到数据的训练节点进行广播,将模型广播至各训练节点;
在模型广播结束后,得到数据的训练节点发出特殊通知,进行训练数据的广播;
各训练节点按照自己在训练节点序列的序号,仅储存自己序号对应的数据;
在训练数据广播结束后,得到数据的训练节点进行广播,各训练节点进入训练状态。
优选地,所述各训练节点根据自己得到的数据与模型,进行前向和后向运算,得到梯度结果具体包括:
用户需在传入模型之前,实现训练网络提供的接口,将模型参数的梯度以固定的形式保存为json格式的文件中。
优选地,所述在训练网络的训练数据广播完毕后,还包括训练节点序列的第一个训练节点将产生一个“token”的步骤,token设置在MAC帧的头部,可由已编程的智能网卡进行识别;token中包含下一个将要接受token的训练节点的序号信息。
优选地,所述各训练节点得到训练的梯度时,选择合适的时机进行广播具体包括:
在训练过程中,仅有得到token的训练节点才可以进行梯度的广播;
在训练网络训练中,未训练完毕的训练节点得到token会更改token中的序号并交给下一个训练节点;
已训练完毕的训练节点在得到token后,会马上广播自己得到的结果,在结果广播完毕后,将token交给下一个节点;
在一段时间未收到广播后,最后发出广播的训练节点会重新发出一次广播,并标记这是重发的广播;
在收到重发的广播一段时间后,token所属的节点的下一个节点会发出节点脱离广播,各训练节点收到后,更新子节点训练节点序列。
优选地,对于所述建立深度学习训练网络,还包括:
对于单个节点,在收到自己已经退出训练网络的通知后,停止该节点的所有运算,更改自身状态为待机状态,但保留自己原网络序号,模型数据;
在训练过程中发生有节点脱离训练网络的,可在批次数据结束后进行广播查找,待机状态的训练节点在收到广播后会同时发出信号,训练节点序号为1的接收到信号后,会重新发出指令,进行网络重建;
在大量节点退出网络后,此时序号为1的训练节点会发出网络异常广播,所有节点运行完当前数据后,进入待机状态,序号1节点将模型保存,提醒用户进行操作。
优选地,对于所述在收到重发的广播一段时间后,token所属的节点的下一个节点会发出节点脱离广播,各训练节点收到后,更新子节点训练节点序列,具体包括;
后一个节点的等待时间为t,后第n节点等待时间为n*t,当等待时间超过k*t未收到广播时,后第k个节点会发出广播。
所述各训练节点得到其他节点的梯度,由智能网卡进行累加,汇集结果具体包括:
用户在进行训练之前,需实现从json读入梯度的接口。
优选地,所述进行模型参数更新之后还包括:对于同一批次的数据训练至90%时,放弃批次中其他数据,其中目的是为了减少对运行速度较慢的节点的等待。
与现有技术相比,本发明所述的基于智能网卡的深度学习训练网络,具有如下有益效果:
本发明提供了一种基于智能网卡的深度学习训练网络迭代更新方法,对异构训练节点的支持,即便训练速度差距较大的训练节点也可以布置在同一训练网络中;采用轮回广播方式,减少了广播冲突,提高了网络利用效率;采用智能网卡进行网络传输与梯度收集,保证了较大规模神经网络的梯度与参数也可以一次性传递,与更加自由的网络建立,打破了传统网卡的限制。
本发明在4个具有智能网卡的节点组成的训练网络进行训练,达到了预期的加速效果,加速比平均在3以上。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例提供的基于智能网卡的深度学习训练网络迭代更新方法流程图。
图2为本发明实施例提供的基于智能网卡的深度学习训练网络迭代更新方法建立训练网络流程图。
图3为本发明实施例提供的基于智能网卡的深度学习训练网络迭代更新方法选取合适时机进行广播的流程图。
图4为本发明实施例提供的基于智能网卡的深度学习训练网络迭代更新方法更新训练网络的流程图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
请参阅图1,本发明实施例提供了一种可应用于深度学习模型训练的基于智能网卡的深度学习训练网络,该方法应用于局域网时,执行步骤S110至S160:
步骤S110:用户点击开始,上传模型与数据。用户在建立训练网络之前,将训练模型与数据置于任意一台训练节点上。将所需要训练的模型与数据分发至训练网络中的训练节点。
其中,用户将其所需训练的模型与数据上传至任一训练节点主机,在本实施例中,使用的是Pytorch1.8.0框架构建的模型,并实现了将梯度数据存入json文件的函数。
所述将所需训练的模型与数据分发至训练网络中的训练节点具体包括:
用户在建立训练网络之前,将训练模型与数据置于任意一台训练节点上;
在训练网络建立结束后,各训练节点进入等待接收数据阶段;
由得到数据的训练节点进行广播,将模型广播至各训练节点;
在模型广播结束后,得到数据的训练节点发出特殊通知,进行训练数据的广播;
各训练节点按照自己在训练节点序列的序号,仅储存自己序号对应的数据;
在训练数据广播结束后,得到数据的训练节点进行广播,各训练节点进入训练状态。
步骤S120:开始建立训练网络,将要并入训练网络中的随机一台主机进行广播,代表训练网络建立的开始。
步骤S130:广播模型与数据。用户上传数据的训练节点开始广播模型与数据。
同样的,广播头部具有特殊的标志,广播模型与数据的MAC帧经过特殊设计,可由其余训练节点智能网卡识别。局域网中将要并入训练网络的节点收到广播后,在局域网发出特殊内容的广播进行回应;
各个节点记录广播的顺序与MAC地址,在训练期间,智能网卡主动忽略所有非记录MAC地址的数据帧;
在一段时间内没有接到广播之后,第一个发出广播的训练节点发出训练网络建立结束的广播,各训练节点进入等待接受数据状态;
在接到训练网络建立结束的广播后,即使没有进入训练网络的节点也不在进行广播。
各训练节点收到数据时,仅保留属于自己的训练数据。
步骤S140:训练节点进行计算,求取梯度。各训练节点根据自己得到的数据与模型,进行前向和后向运算,得到梯度结果。用户需在传入模型之前,实现训练网络提供的接口,将模型参数的梯度以固定的形式保存为json格式的文件中。
步骤S150:当一节点计算梯度完毕后,选取合适时机进行广播。在训练过程中,仅有得到token的训练节点才可以进行梯度的广播;
在训练网络训练中,未训练完毕的训练节点得到token会更改token中的序号并交给下一个训练节点;
已训练完毕的训练节点在得到token后,会马上广播自己得到的结果,在结果广播完毕后,将token交给下一个节点;
在一段时间未收到广播后,最后发出广播的训练节点会重新发出一次广播,并标记这是重发的广播;
在收到重发的广播一段时间后,token所属的节点的下一个节点会发出节点脱离广播,各训练节点收到后,更新子节点训练节点序列。
步骤S160:训练完毕,得到模型。所述各训练节点得到其他节点的梯度,由智能网卡进行累加,汇集结果,进行模型参数更新。
当一批次的数据训练完毕后,序号为0的节点判断是否达到训练完成要求,如已满足,则进行结束广播,所有训练节点保存模型,进入待机状态。
进行模型参数更新。模型参数的更新公式为:w′=w+η×sum/n,其中w为模型参数,η为更新步长,n为接收到的梯度数量。
请结合参阅图2,在本实施例中,所述步骤S120中,对所述建立训练网络的方式包括:
步骤S121:任一节点发出开始建立训练网络广播。
建立训练节点广播的MAC帧,是由编程过的智能网卡发出的,且可以被其余已编程智能网卡识别。
可选的,通常发出建立训练网络广播的是用户上传模型与数据的训练节点。
步骤S122:所有训练节点发出广播响应。
各训练节点按照局域网规则进行广播。
同样的,训练节点的响应广播也是由编程过的智能网卡发出的。
步骤S123:所有节点按广播顺序记录其余训练节点。
其中:发出建立广播的训练节点在第一次发出广播时即被记录。
在无响应广播发出后一段时间,所有训练节点进入等待数据阶段。
请结合参阅图3,在本实施例中,所述步骤S150中,对所述当一节点计算梯度完毕后,选取合适时机进行广播的方式包括:
步骤S131:在训练开始前,序号为1的训练节点生成token。
步骤S132:token以广播的形式传递,每个节点交出token时更改token中下一个接收token的节点序号。
同样的,token的广播在MAC层实现,由智能网卡发出。
步骤S133:与token中序号相同的节点接收token,判断是否得到梯度,如已经得到,进行梯度广播,进入步骤S134,否则进入步骤S135。
与token中序号相同的训练节点会接收token。
一段时间后未收到token,则认为token丢失,进入步骤S136。
步骤S134:将梯度的json文件广播至所有训练节点。
步骤S135:更改token中的序号,并广播至所有训练节点。
步骤S136:更新训练网络。
请结合参阅图4,在本实施例中,所述步骤S136中,对所述更新训练网络的方式包括:
步骤S310:每个训练节点在收到广播时,都会记录最后接收广播时间,即当前token序号,并计算自己的节点丢失等待时间,序号相对靠后的节点等待时间越长。
步骤S320:在超过等待时间后依然未受到广播,则发出节点丢失广播。
计算等待时间,判断超时,发出节点丢失广播的工作由智能网卡完成。
步骤S330:各训练节点将丢失节点去掉,更新节点列表。步骤S136结束。
可选的,对于丢失的节点,可在一个批次训练完毕后进行训练网络重建。
可选的,对于丢失的节点,可在一个批次的训练完毕后选择将其数据重新分发到训练网络的各个节点。
步骤S137:其余节点收到梯度进行梯度累加
其中:各训练节点收到梯度后,进行累加并保存。累加的工作由智能网卡完成。
可选的,步骤S160之后用户可选择在训练结束或一个批次数据训练结束时,进入测试阶段,此时不再广播梯度,只广播测试的成功与否,其中测试成功的规则由用户定义。
应该注意的是所述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若对本发明的这些修改和变型属于本发明权利要求及其同等技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (5)
1.一种基于智能网卡的深度学习训练网络迭代更新方法,其特征在于,包括:
用户在建立训练网络之前,将训练模型与数据置于任意一台训练节点上;
在训练网络建立结束后,各训练节点进入等待接收数据阶段;
由得到数据的训练节点进行广播,将模型广播至各训练节点;
在模型广播结束后,得到数据的训练节点发出特殊通知,进行训练数据的广播;
各训练节点按照自己在训练节点序列的序号,仅储存自己序号对应的数据;
在训练数据广播结束后,得到数据的训练节点进行广播,各训练节点进入训练状态;
将要并入训练网络中的随机一台主机进行广播,代表训练网络建立的开始;
用户需在传入模型之前,实现训练网络提供的接口,将模型参数的梯度以固定的形式保存为json格式的文件中;
训练节点序列的第一个训练节点将产生一个“token”的步骤,token设置在MAC帧的头部,可由已编程的智能网卡进行识别;token中包含下一个将要接受token的训练节点的序号信息;
在训练过程中,仅有得到token的训练节点才可以进行梯度的广播;
在训练网络训练中,未训练完毕的训练节点得到token会更改token中的序号并交给下一个训练节点;
已训练完毕的训练节点在得到token后,会马上广播自己得到的结果,在结果广播完毕后,将token交给下一个节点;
在一段时间未收到广播后,最后发出广播的训练节点会重新发出一次广播,并标记这是重发的广播;
在收到重发的广播一段时间后,token所属的节点的下一个节点会发出节点脱离广播,各训练节点收到后,更新子节点训练节点序列;
所述各训练节点得到其他节点的梯度,由智能网卡进行累加,汇集结果,进行模型参数更新。
2.根据权利要求1所述的基于智能网卡的深度学习训练网络迭代更新方法,其特征在于,对于所述建立训练网络,还包括:
对于单个节点,在收到自己已经退出训练网络的通知后,停止该节点的所有运算,更改自身状态为待机状态,但保留自己原网络序号,模型数据;
在训练过程中发生有节点脱离训练网络的,可在批次数据结束后进行广播查找,待机状态的训练节点在收到广播后会同时发出信号,训练节点序号为1的接收到信号后,会重新发出指令,进行网络重建;
在大量节点退出网络后,此时序号为1的训练节点会发出网络异常广播,所有节点运行完当前数据后,进入待机状态,序号1节点将模型保存,提醒用户进行操作。
3.根据权利要求1所述的基于智能网卡的深度学习训练网络迭代更新方法,其特征在于,对于所述在收到重发的广播一段时间后,token所属的节点的下一个节点会发出节点脱离广播,各训练节点收到后,更新子节点训练节点序列,具体包括;
后一个节点的等待时间为,后第节点等待时间为,当等待时间超过未收到广播时,后第个节点会发出广播。
4.根据权利要求1所述的基于智能网卡的深度学习训练网络迭代更新方法,其特征在于,所述各训练节点得到其他节点的梯度,由智能网卡进行累加,汇集结果具体包括:
用户在进行训练之前,需实现从json读入梯度的接口。
5.根据权利要求1所述的基于智能网卡的深度学习训练网络迭代更新方法,其特征在于,所述进行模型参数更新之后还包括:
对于同一批次的数据训练至90%时,放弃批次中其他数据;
在有节点失去从网络中删除时,动态调整舍弃的时间点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110737729.7A CN113610210B (zh) | 2021-06-28 | 2021-06-28 | 基于智能网卡的深度学习训练网络迭代更新方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110737729.7A CN113610210B (zh) | 2021-06-28 | 2021-06-28 | 基于智能网卡的深度学习训练网络迭代更新方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610210A CN113610210A (zh) | 2021-11-05 |
CN113610210B true CN113610210B (zh) | 2024-03-29 |
Family
ID=78337031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110737729.7A Active CN113610210B (zh) | 2021-06-28 | 2021-06-28 | 基于智能网卡的深度学习训练网络迭代更新方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610210B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021982A (zh) * | 2016-10-28 | 2018-05-11 | 北京市商汤科技开发有限公司 | 数据传输方法和系统、电子设备 |
CN109032671A (zh) * | 2018-06-25 | 2018-12-18 | 电子科技大学 | 一种基于数据并行策略的分布式深度学习方法及系统 |
CN111027671A (zh) * | 2019-11-12 | 2020-04-17 | 华中科技大学 | 一种基于模型结构特性的分布式深度学习通信方法和系统 |
CN111709533A (zh) * | 2020-08-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 机器学习模型的分布式训练方法、装置以及计算机设备 |
-
2021
- 2021-06-28 CN CN202110737729.7A patent/CN113610210B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021982A (zh) * | 2016-10-28 | 2018-05-11 | 北京市商汤科技开发有限公司 | 数据传输方法和系统、电子设备 |
CN109032671A (zh) * | 2018-06-25 | 2018-12-18 | 电子科技大学 | 一种基于数据并行策略的分布式深度学习方法及系统 |
CN111027671A (zh) * | 2019-11-12 | 2020-04-17 | 华中科技大学 | 一种基于模型结构特性的分布式深度学习通信方法和系统 |
CN111709533A (zh) * | 2020-08-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 机器学习模型的分布式训练方法、装置以及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113610210A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101015170A (zh) | 探查服务器在点对点监视系统中的存在 | |
CN101523446A (zh) | 预留管理系统和方法 | |
CN106846065A (zh) | 一种数据处理方法及装置 | |
CN107197036A (zh) | 一种基于区块链的信息一致处理方法及终端 | |
CN104010228B (zh) | 一种用于基于级的自动调整的对等媒体流的装置和方法 | |
TW201025932A (en) | Communication management device, communication device and communication method | |
CN106878083B (zh) | 一种节点选举方法及装置 | |
CN102571990B (zh) | 移动终端电子邮件同步方法及系统 | |
CN113610210B (zh) | 基于智能网卡的深度学习训练网络迭代更新方法 | |
CN109068371A (zh) | 推送、展示多媒体资源的方法、装置、设备、介质及系统 | |
CN110120908A (zh) | 群组消息处理方法、装置和服务器 | |
JP2007004390A (ja) | センサネットワークシステム、クラスタ形成方法およびセンサノード | |
CN101632261B (zh) | 网络中的全网状速率事务 | |
CN116684406A (zh) | 内网设备的内容下载方法 | |
US7752149B2 (en) | Method and apparatus for determining the variable dependency | |
Holzer et al. | Time-optimal information exchange on multiple channels | |
CN105141687B (zh) | 一种生产消息的方法 | |
CN108881437A (zh) | 一种智能终端的代理决策方法 | |
CN206145900U (zh) | 空调控制系统、集中控制节点及空调 | |
CN100578484C (zh) | 用于自适应组播文件传输的方法和装置 | |
JP5682436B2 (ja) | バックアッププログラム、情報処理装置、情報処理端末、バックアップ方法 | |
CN101090367B (zh) | 一种对等网络中的数据传输方法及装置 | |
CN113542775B (zh) | 直播保活服务系统、直播保活管理方法、服务器及介质 | |
CN107040455A (zh) | 一种基于redis的即时消息通讯方法和系统 | |
Maxemchuk | Reliable multicast with delay guarantees |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |