CN111047050A - 一种分布式并行训练方法、设备以及存储介质 - Google Patents
一种分布式并行训练方法、设备以及存储介质 Download PDFInfo
- Publication number
- CN111047050A CN111047050A CN201911303152.8A CN201911303152A CN111047050A CN 111047050 A CN111047050 A CN 111047050A CN 201911303152 A CN201911303152 A CN 201911303152A CN 111047050 A CN111047050 A CN 111047050A
- Authority
- CN
- China
- Prior art keywords
- training
- parameter
- parameters
- server
- updated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 214
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种分布式并行训练方法、设备以及可读存储介质,方法包括:利用训练子集对初始训练模型进行训练,并将产生的训练参数上传;接收利用所有训练服务器上传的参数得到的更新参数以及下发的不同的训练子集;根据更新参数更新初始训练模型;利用不同的训练子集对更新后的初始训练模型进行训练,并再次得到训练参数;利用再次得到的训练参数以及更新参数计算差值参数,并判断差值参数与再次得到的训练参数的字节大小;响应于差值参数的字节小于再次得到的训练参数的字节,将差值参数上传到参数服务器;响应于所述训练模型未达到预设要求,返回步骤二,直到得到符合预设要求的训练模型。本发明提出的方案能够避免参数服务器的网络拥堵。
Description
技术领域
本发明涉及深度学习技术领域,具体涉及一种分布式并行训练方法、设备以及存储介质。
背景技术
TensorFlow的分布式训练分为数据并行和模型并行两种方式。其中使用模型并行方式训练的模型准确度不稳定,目前主要使用数据并行方式训练,该方式下所有参与训练的服务器上使用相同的训练模型,但训练数据不同。数据并行方式下使用同步更新参数和异步更新参数求平均梯度参数。同步更新是指每台服务器根据损失计算各自的梯度,并将梯度上传至参数服务器求平均梯度参数,根据平均梯度参数更新模型参数,再将模型参数下放至训练服务器,损失下降稳定,容易得到最优解。异步更新是指不用等所有服务器的梯度,每台服务器均可更新参数,损失下降过程抖动较大,参数容易移出最优解。目前深度学习训练均采用计算性能相同的服务器,因此梯度会同时计算完成并上传至参数服务器,造成参数服务器的网络拥堵,此时所有训练服务器都需要等待,训练效率低。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例的提出一种分布式并行训练方法,基于每个训练服务器执行以下步骤:
利用参数服务器下发的训练子集对初始训练模型进行训练,并将产生的训练参数上传到所述参数服务器;
接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集;
根据所述更新参数更新所述初始训练模型;
利用所述不同的训练子集对更新后的所述初始训练模型进行训练,并再次得到训练参数;
利用所述再次得到的训练参数以及更新参数计算差值参数,并判断所述差值参数与所述再次得到的训练参数的字节大小;
响应于所述差值参数的字节小于所述再次得到的训练参数的字节,将所述差值参数上传到所述参数服务器;
响应于所述训练模型未达到预设要求,返回接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型。
在一些实施例中,还包括:
响应于所述差值参数的字节大于所述再次得到的训练参数的字节,将所述再次得到的训练参数上传到所述参数服务器。
在一些实施例中,接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数,进一步包括:
接收所述参数服务器对所有的所述训练参数进行平均后的更新参数。
在一些实施例中,还包括:
接收所述参数服务器利用所述差值参数还原得到的所述训练参数进行平均后的更新参数。
在一些实施例中,响应于训练模型未达到预设要求,返回接收参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型,进一步包括:
利用测试集对所述训练模型进行测试;
判断测试结果是否大于阈值;
响应于所述测试结果大于阈值,停止训练。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行以下步骤:
利用参数服务器下发的训练子集对初始训练模型进行训练,并将产生的训练参数上传到所述参数服务器;
接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集;
根据所述更新参数更新所述初始训练模型;
利用所述不同的训练子集对更新后的所述初始训练模型进行训练,并再次得到训练参数;
利用所述再次得到的训练参数以及更新参数计算差值参数,并判断所述差值参数与所述再次得到的训练参数的字节大小;
响应于所述差值参数的字节小于所述再次得到的训练参数的字节,将所述差值参数上传到所述参数服务器;
响应于所述训练模型未达到预设要求,返回接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型。
在一些实施例中,还包括:
响应于所述差值参数的字节大于所述再次得到的训练参数的字节,将所述再次得到的训练参数上传到所述参数服务器。
在一些实施例中,接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数,进一步包括:
接收所述参数服务器对所有的所述训练参数进行平均后的更新参数。
在一些实施例中,还包括:
接收所述参数服务器利用所述差值参数还原得到的所述训练参数进行平均后的更新参数。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种分布式并行训练方法的步骤。
本发明具有以下有益技术效果之一:本发明提出的方案为对训练过程中产生的参数求差值参数以判断两者的字节大小,并将字节小的参数或差值参数上传至参数服务器,避免了参数服务器的网络拥堵。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的分布式并行训练方法的流程示意图;
图2为本发明的实施例提供的计算机设备的结构示意图;
图3为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,本发明的实施例提出一种分布式并行训练方法,如图1所示,其可以包括基于每个训练服务器执行以下步骤:S1,利用参数服务器下发的训练子集对初始训练模型进行训练,并将产生的训练参数上传到所述参数服务器;S2,接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集;S3,根据所述更新参数更新所述初始训练模型;S4,利用所述不同的训练子集对更新后的所述初始训练模型进行训练,并再次得到训练参数;S5,利用所述再次得到的训练参数以及更新参数计算差值参数,并判断所述差值参数与所述再次得到的训练参数的字节大小;S6,响应于所述差值参数的字节小于所述再次得到的训练参数的字节,将所述差值参数上传到所述参数服务器;S7,响应于所述训练模型未达到预设要求,返回接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型。
本发明提出的方案为对训练过程中产生的参数求差值参数以判断两者的字节大小,并将字节小的参数或差值参数上传至参数服务器,避免了参数服务器的网络拥堵。
在一些实施例中,在步骤S1中,下发到训练服务器的训练子集均为参数服务器基于同一训练集生成的训练子集,即将训练集分成多个训练子集,每一个训练服务器利用不同的训练子集训练同一个初始训练模型,进而加快训练速度。
在一些实施例中,在步骤S2中,接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数,进一步包括:
接收所述参数服务器对所有的所述训练参数进行平均后的更新参数。
在一些实施例中,方法还包括:
接收所述参数服务器利用所述差值参数还原得到的所述训练参数进行平均后的更新参数。
具体的,每一个训练服务器基于训练子集对初始的训练模型训练后均会产生训练参数,只有在第一次利用训练子集对训练模型进行训练后产生的参数直接上传到参数服务器上,参数服务器在接收到所有的训练服务器上传的参数后,对上传的所有的参数求取平均值,然后再将平均值(也即更新参数)下发到每一个训练服务器上,以利用更新参数对训练模型进行更新。
而在第二次至最后一次中,在每一次利用训练子集对更新后的训练模型进行训练后,需要将产生的参数(即训练参数)与上一次接收到的更新参数作差计算,以得到差值参数,接着判断差值参数与本次产生的训练参数的字节大小,将字节小的差值参数或训练参数,上传到参数服务器。若本次产生的训练参数的字节小,则将本次产生的训练参数上传到参数服务器,若作差值得到的差值参数的字节小,则将差值参数上传到参数服务器,参数服务器利用差值参数和上一次产生的更新参数还原成本次产生的训练参数,在对本次产生的训练参数求取平均值后下发到每一个训练服务器。
需要说明的是,每一个训练服务器每次利用的训练子集均互不相同,而且每一个产生的训练参数可以包含多个具体的子参数,在进行差值计算以及平均值计算时,需要对每一个子参数分别进行计算。例如,上一次的更新参数是A11,A12,A13,本次产生的训练参数是A21,A22,A23,则利用A11和A21、A12和A22,A13和A23计算差值参数A01,A02,A03,然后比较A01,A02和A03的总字节大小与A21,A22,A23的总字节N大小,例如A01,A02和A03的总字节为400MB,N总字节为500M,则将A01,A02和A03上传至参数服务器,在参数服务器利用A01,A02和A03以及A11,A12,A13还原得到A21,A22,A23,在对每一个训练服务器产生的A21、,A22和A23分别求平均值。
在一些实施例中,在步骤S7中,响应于训练模型未达到预设要求,返回接收参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型,进一步包括:
利用测试集对所述训练模型进行测试;
判断测试结果是否大于阈值;
响应于所述测试结果大于阈值,停止训练。
具体的,在进行若干次训练后,对训练模型进行测试,如果训练模型的测试结果对应的准确性大于阈值,则停止训练。
本发明提出的方案为对训练过程中产生的参数求差值参数以判断两者的字节大小,并将字节小的参数或差值参数上传至参数服务器,避免了参数服务器的网络拥堵。
基于同一发明构思,根据本发明的另一个方面,如图2所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种分布式并行训练方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图3所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种分布式并行训练方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种分布式并行训练方法,包括基于每个训练服务器执行以下步骤:
利用参数服务器下发的训练子集对初始训练模型进行训练,并将产生的训练参数上传到所述参数服务器;
接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集;
根据所述更新参数更新所述初始训练模型;
利用所述不同的训练子集对更新后的所述初始训练模型进行训练,并再次得到训练参数;
利用所述再次得到的训练参数以及更新参数计算差值参数,并判断所述差值参数与所述再次得到的训练参数的字节大小;
响应于所述差值参数的字节小于所述再次得到的训练参数的字节,将所述差值参数上传到所述参数服务器;
响应于所述训练模型未达到预设要求,返回接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型。
2.如权利要求1所述的方法,其特征在于,还包括:
响应于所述差值参数的字节大于所述再次得到的训练参数的字节,将所述再次得到的训练参数上传到所述参数服务器。
3.如权利要求1所述的方法,其特征在于,接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数,进一步包括:
接收所述参数服务器对所有的所述训练参数进行平均后的更新参数。
4.如权利要求3所述的方法,其特征在于,还包括:
接收所述参数服务器利用所述差值参数还原得到的所述训练参数进行平均后的更新参数。
5.如权利要求1所述的方法,其特征在于,响应于所述训练模型未达到预设要求,返回接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型,进一步包括:
利用测试集对所述训练模型进行测试;
判断测试结果是否大于阈值;
响应于所述测试结果大于阈值,停止训练。
6.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行以下步骤:
利用参数服务器下发的训练子集对初始训练模型进行训练,并将产生的训练参数上传到所述参数服务器;
接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集;
根据所述更新参数更新所述初始训练模型;
利用所述不同的训练子集对更新后的所述初始训练模型进行训练,并再次得到训练参数;
利用所述再次得到的训练参数以及更新参数计算差值参数,并判断所述差值参数与所述再次得到的训练参数的字节大小;
响应于所述差值参数的字节小于所述再次得到的训练参数的字节,将所述差值参数上传到所述参数服务器;
响应于所述训练模型未达到预设要求,返回接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数以及所述参数服务器下发的不同的训练子集的步骤,直到得到符合预设要求的所述训练模型。
7.如权利要求6所述的计算机设备,其特征在于,还包括:
响应于所述差值参数的字节大于所述再次得到的训练参数的字节,将所述再次得到的训练参数上传到所述参数服务器。
8.如权利要求6所述的计算机设备,其特征在于,接收所述参数服务器利用接收到的所有训练服务器上传的参数得到的更新参数,进一步包括:
接收所述参数服务器对所有的所述训练参数进行平均后的更新参数。
9.如权利要求8所述的计算机设备,其特征在于,还包括:
接收所述参数服务器利用所述差值参数还原得到的所述训练参数进行平均后的更新参数。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-5任意一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911303152.8A CN111047050A (zh) | 2019-12-17 | 2019-12-17 | 一种分布式并行训练方法、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911303152.8A CN111047050A (zh) | 2019-12-17 | 2019-12-17 | 一种分布式并行训练方法、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111047050A true CN111047050A (zh) | 2020-04-21 |
Family
ID=70237069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911303152.8A Pending CN111047050A (zh) | 2019-12-17 | 2019-12-17 | 一种分布式并行训练方法、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111047050A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626434A (zh) * | 2020-05-15 | 2020-09-04 | 浪潮电子信息产业股份有限公司 | 一种分布式训练参数更新方法、装置、设备及存储介质 |
CN111898424A (zh) * | 2020-06-19 | 2020-11-06 | 贝壳技术有限公司 | 文字识别模型训练方法、装置、电子设备及存储介质 |
CN112561078A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 分布式的模型训练方法、相关装置及计算机程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292326A (zh) * | 2016-03-31 | 2017-10-24 | 阿里巴巴集团控股有限公司 | 一种模型的训练方法和装置 |
CN107330516A (zh) * | 2016-04-29 | 2017-11-07 | 腾讯科技(深圳)有限公司 | 模型参数训练方法、装置及系统 |
CN109460826A (zh) * | 2018-10-31 | 2019-03-12 | 北京字节跳动网络技术有限公司 | 用于分发数据的方法、装置和模型更新系统 |
CN110070143A (zh) * | 2019-04-29 | 2019-07-30 | 北京达佳互联信息技术有限公司 | 获取训练数据的方法、装置、设备及存储介质 |
-
2019
- 2019-12-17 CN CN201911303152.8A patent/CN111047050A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292326A (zh) * | 2016-03-31 | 2017-10-24 | 阿里巴巴集团控股有限公司 | 一种模型的训练方法和装置 |
CN107330516A (zh) * | 2016-04-29 | 2017-11-07 | 腾讯科技(深圳)有限公司 | 模型参数训练方法、装置及系统 |
CN109460826A (zh) * | 2018-10-31 | 2019-03-12 | 北京字节跳动网络技术有限公司 | 用于分发数据的方法、装置和模型更新系统 |
CN110070143A (zh) * | 2019-04-29 | 2019-07-30 | 北京达佳互联信息技术有限公司 | 获取训练数据的方法、装置、设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626434A (zh) * | 2020-05-15 | 2020-09-04 | 浪潮电子信息产业股份有限公司 | 一种分布式训练参数更新方法、装置、设备及存储介质 |
CN111626434B (zh) * | 2020-05-15 | 2022-06-07 | 浪潮电子信息产业股份有限公司 | 一种分布式训练参数更新方法、装置、设备及存储介质 |
CN111898424A (zh) * | 2020-06-19 | 2020-11-06 | 贝壳技术有限公司 | 文字识别模型训练方法、装置、电子设备及存储介质 |
CN112561078A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 分布式的模型训练方法、相关装置及计算机程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11228440B2 (en) | Proof-of-work for smart contracts on a blockchain | |
CN111047050A (zh) | 一种分布式并行训练方法、设备以及存储介质 | |
CN110599169B (zh) | 数据处理方法、装置、终端及介质 | |
CN110620793B (zh) | 一种提高音频质量的方法、设备及介质 | |
US11055277B2 (en) | Integrity verification method, apparatus, and system and device for data in a blockchain-type ledger | |
CN113726751B (zh) | 一种块链式账本中的权重管理方法、装置及设备 | |
WO2021103403A1 (zh) | 区块链交易信息管理方法、装置、计算机设备及存储介质 | |
US11249987B2 (en) | Data storage in blockchain-type ledger | |
WO2020199713A1 (zh) | 数据验证方法、系统、装置及设备 | |
CN110147410B (zh) | 一种块链式账本中的数据验证方法、系统、装置及设备 | |
CN111046069B (zh) | 一种块链式账本中的聚合计算方法、装置及设备 | |
EP3812998A1 (en) | Data storage and attestation method and system based on multiple blockchain networks | |
CN109446093B (zh) | 一种扩展平台接口测试方法与装置 | |
CN108875035B (zh) | 分布式文件系统的数据存储方法及相关设备 | |
US10958440B2 (en) | Blockchain ledger compression | |
CN111158637A (zh) | 基于区块链的随机数生成方法、设备及存储介质 | |
CN109800236A (zh) | 支持多节点的分布式缓存方法及设备 | |
CN110597461B (zh) | 块链式账本中的数据存储方法、装置及设备 | |
CN110362568B (zh) | 一种针对块链式账本的压缩方法、装置及设备 | |
US20160295416A1 (en) | Method and apparatus for performing a message integrity check | |
CN113963248A (zh) | 神经网络训练、场景决策的方法及装置、设备及存储介质 | |
CN111597139B (zh) | 一种gpu的通信方法、系统、设备以及介质 | |
US20200177390A1 (en) | Providing data verification in a blockchain ledger | |
CN110737649B (zh) | 一种数据库的事务日志的处理方法、设备以及存储介质 | |
JP2018206084A (ja) | データベース管理システムおよびデータベース管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200421 |