WO2021136065A1 - 深度学习方法、装置、网络设备和可读存储介质 - Google Patents
深度学习方法、装置、网络设备和可读存储介质 Download PDFInfo
- Publication number
- WO2021136065A1 WO2021136065A1 PCT/CN2020/139078 CN2020139078W WO2021136065A1 WO 2021136065 A1 WO2021136065 A1 WO 2021136065A1 CN 2020139078 W CN2020139078 W CN 2020139078W WO 2021136065 A1 WO2021136065 A1 WO 2021136065A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- gpu
- gradient data
- gradient
- data
- deep learning
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013135 deep learning Methods 0.000 title claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 28
- 230000001186 cumulative effect Effects 0.000 claims abstract description 16
- 230000002776 aggregation Effects 0.000 claims description 14
- 238000004220 aggregation Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 12
- 238000012935 Averaging Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000011478 gradient descent method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Debugging And Monitoring (AREA)
Abstract
Description
Claims (10)
- 一种深度学习方法,包括:对服务器中的各图形处理器GPU中的模型副本,进行数据处理,得到当前批次的梯度数据;当对应的GPU中的所述梯度数据累计个数达到预设阈值时,以累计的所述梯度数据,来更新所述模型副本;其中,至少一个GPU所对应的梯度数据的预设阈值大于等于2。
- 如权利要求1所述的深度学习方法,其中,所述对服务器中的各图形处理器GPU中的模型副本,进行数据处理,得到当前批次的梯度数据包括:在对应的图形处理器GPU中的梯度数据达到预设阈值之前,根据前次更新后的模型副本,和与所述模型副本所对应的样本,计算得到当前批次的梯度数据。
- 如权利要求1所述的深度学习方法,其中,在所述对服务器中的各图形处理器GPU中的模型副本,进行数据处理,得到当前批次的梯度数据之前,还包括:将原始GPU中的模型副本的初始权重,发送给其他所有副本。
- 如权利要求1所述的深度学习方法,其中,在所述当对应的GPU中的所述梯度数据累计个数达到预设阈值时,以累计的所述梯度数据,来更新所述模型副本之前,还包括:根据服务器中的各GPU的运算处理能力,确定所述梯度数据的预设阈值。
- 如权利要求4所述的深度学习方法,其中,所述根据服务器中的各GPU的运算处理能力,确定所述梯度数据的预设阈值包括:当两个GPU之间的运算处理能力相同时,所述GPU对应的梯度数据的预设阈值相同;当两个GPU之间的运算处理能力不同时,所述GPU对应的梯度数据的预设阈值中,运算能力更强的GPU的所对应的预设阈值更大。
- 如权利要求1-5任一项所述的深度学习方法,其中,所述以累计的所述梯度数据,来更新所述模型副本包括:对本GPU中的各所述梯度数据进行求和平均之后,在GPU之间做梯度聚合;用梯度聚合后的梯度数据,更新各GPU中的模型副本。
- 如权利要求6所述的深度学习方法,其中,所述对本GPU中的各所述梯度数据进行求和平均包括:对本GPU中,从前次更新后的模型副本之后,所新生成的各梯度数据,进行求和平均。
- 如权利要求1-5任一项所述的深度学习方法,其中,所述以累计的所述梯度数据,来更新所述模型副本包括:对本GPU中的各所述梯度数据进行求和平均之后,以求和平均之后的梯度数据对本GPU中的模型副本进行更新。
- 一种网络设备,所述网络设备包括处理器、存储器及通信总线;所述通信总线用于实现处理器和存储器之间的连接通信;所述处理器用于执行存储器中存储的一个或者多个计算机程序,以实现如权利要求1-8中任一项所述的深度学习方法的步骤。
- 一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个计算机程序,所述一个或者多个计算机程序可被一个或者多个处理器执行,以实现如权利要求1-8中任一项所述的深度学习方法的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911405827.XA CN113129200A (zh) | 2019-12-30 | 2019-12-30 | 深度学习方法、装置、网络设备和可读存储介质 |
CN201911405827.X | 2019-12-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021136065A1 true WO2021136065A1 (zh) | 2021-07-08 |
Family
ID=76686480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2020/139078 WO2021136065A1 (zh) | 2019-12-30 | 2020-12-24 | 深度学习方法、装置、网络设备和可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113129200A (zh) |
WO (1) | WO2021136065A1 (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463324A (zh) * | 2014-11-21 | 2015-03-25 | 长沙马沙电子科技有限公司 | 一种基于大规模高性能集群的卷积神经网络并行处理方法 |
US20160267380A1 (en) * | 2015-03-13 | 2016-09-15 | Nuance Communications, Inc. | Method and System for Training a Neural Network |
CN107018184A (zh) * | 2017-03-28 | 2017-08-04 | 华中科技大学 | 分布式深度神经网络集群分组同步优化方法及系统 |
CN109102075A (zh) * | 2018-07-26 | 2018-12-28 | 联想(北京)有限公司 | 一种分布式训练中的梯度更新方法及相关设备 |
CN110378472A (zh) * | 2019-07-24 | 2019-10-25 | 苏州浪潮智能科技有限公司 | 一种深度神经网络模型的数据并行训练方法、装置及设备 |
CN111027708A (zh) * | 2019-11-29 | 2020-04-17 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种面向分布式机器学习的参数通信优化方法 |
CN111052155A (zh) * | 2017-09-04 | 2020-04-21 | 华为技术有限公司 | 异步梯度平均的分布式随机梯度下降法 |
CN112288083A (zh) * | 2020-10-21 | 2021-01-29 | 周宇浩 | 一种神经网络分布式训练方法、装置、设备及存储介质 |
-
2019
- 2019-12-30 CN CN201911405827.XA patent/CN113129200A/zh active Pending
-
2020
- 2020-12-24 WO PCT/CN2020/139078 patent/WO2021136065A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463324A (zh) * | 2014-11-21 | 2015-03-25 | 长沙马沙电子科技有限公司 | 一种基于大规模高性能集群的卷积神经网络并行处理方法 |
US20160267380A1 (en) * | 2015-03-13 | 2016-09-15 | Nuance Communications, Inc. | Method and System for Training a Neural Network |
CN107018184A (zh) * | 2017-03-28 | 2017-08-04 | 华中科技大学 | 分布式深度神经网络集群分组同步优化方法及系统 |
CN111052155A (zh) * | 2017-09-04 | 2020-04-21 | 华为技术有限公司 | 异步梯度平均的分布式随机梯度下降法 |
CN109102075A (zh) * | 2018-07-26 | 2018-12-28 | 联想(北京)有限公司 | 一种分布式训练中的梯度更新方法及相关设备 |
CN110378472A (zh) * | 2019-07-24 | 2019-10-25 | 苏州浪潮智能科技有限公司 | 一种深度神经网络模型的数据并行训练方法、装置及设备 |
CN111027708A (zh) * | 2019-11-29 | 2020-04-17 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种面向分布式机器学习的参数通信优化方法 |
CN112288083A (zh) * | 2020-10-21 | 2021-01-29 | 周宇浩 | 一种神经网络分布式训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113129200A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220222531A1 (en) | Asynchronous neural network training | |
US11775831B2 (en) | Cascaded computing for convolutional neural networks | |
WO2020233084A1 (zh) | 一种图像分割方法、装置、存储介质及终端设备 | |
US10540587B2 (en) | Parallelizing the training of convolutional neural networks | |
US20160358068A1 (en) | Reducing computations in a neural network | |
TWI830938B (zh) | 對人工神經網路進行量化的方法及系統以及人工神經網路設備 | |
US20160358070A1 (en) | Automatic tuning of artificial neural networks | |
EP3686816A1 (en) | Techniques for removing masks from pruned neural networks | |
TW202014939A (zh) | 修改機器學習模型以改善局域性 | |
US20180307787A1 (en) | Accelerating particle-swarm algorithms | |
CN113469373A (zh) | 基于联邦学习的模型训练方法、系统、设备及存储介质 | |
WO2021051556A1 (zh) | 深度学习权值更新方法、系统、计算机设备及存储介质 | |
US20200160185A1 (en) | Pruning neural networks that include element-wise operations | |
CN109034384B (zh) | 一种数据处理方法和装置 | |
TW202001701A (zh) | 影像的量化方法及神經網路的訓練方法 | |
US20230254145A1 (en) | System and method to improve efficiency in multiplicationladder-based cryptographic operations | |
TWI740338B (zh) | 具有動態最小批次尺寸之運算方法,以及用於執行該方法之運算系統及電腦可讀儲存媒體 | |
WO2021136065A1 (zh) | 深度学习方法、装置、网络设备和可读存储介质 | |
WO2021115039A1 (zh) | Fpga平台及其性能评估与设计优化的方法、存储介质 | |
US8938484B2 (en) | Maintaining dependencies among supernodes during repeated matrix factorizations | |
CN116644804A (zh) | 分布式训练系统、神经网络模型训练方法、设备和介质 | |
CN107992821B (zh) | 一种图像识别方法及系统 | |
US11410036B2 (en) | Arithmetic processing apparatus, control method, and non-transitory computer-readable recording medium having stored therein control program | |
CN113870090A (zh) | 实现函数的方法、图形处理装置、系统和介质 | |
CN114723024A (zh) | 用于存算一体芯片的基于线性规划的神经网络映射方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20908625 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20908625 Country of ref document: EP Kind code of ref document: A1 |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 28/02/2023) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20908625 Country of ref document: EP Kind code of ref document: A1 |