CN113762527A - 一种数据处理方法、系统、存储介质及电子设备 - Google Patents
一种数据处理方法、系统、存储介质及电子设备 Download PDFInfo
- Publication number
- CN113762527A CN113762527A CN202111048745.1A CN202111048745A CN113762527A CN 113762527 A CN113762527 A CN 113762527A CN 202111048745 A CN202111048745 A CN 202111048745A CN 113762527 A CN113762527 A CN 113762527A
- Authority
- CN
- China
- Prior art keywords
- model parameters
- local model
- learning rate
- local
- parallel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
Description
技术领域
本发明涉及对抗学习技术领域,更具体地说,涉及一种数据处理方法、系统、存储介质及电子设备。
背景技术
对抗学习是一种机器学习方法。对抗学习实现的方法,是让两个网络相互竞争对抗,其中一个是生成器网络,它不断捕捉训练库里真实图片的概率分布,将输入的随机噪声转变成新的样本(假数据),另一个是判别器网络,它可以同时观察真实和假造的数据,判断这个数据的真假。通过反复对抗,生成器和判别器的能力都会不断增强,直到达成一个平衡,最后生成器可生成高质量的、以假乱真的图片。
在对抗学习中,模型效果十分依赖所采用的学习速率,因此自适应的学习速率在实践中具有重要意义。自适应的学习速率不需要工程师手动调整学习速率,消除了模型学习中人为因素的干扰,因此也是实现可靠人工智能的重要技术。
由于对抗学习的数据集通常数量巨大,在训练时需要使用分布式的训练方式。另外。在对抗学习中,模型效果十分依赖所采用自适应学习速率。由于对抗学习的损失函数具有最小化-最大化的结构,使得现有的技术方案无法同时实现自适应学习速率与分布式计算。
因此,在对抗学习进行训练的训练方式的局限性高。
发明内容
有鉴于此,本发明公开了一种数据处理方法、系统、存储介质及电子设备,实现降低了对抗学习进行训练的局限性和提高工程实践效率的目的。
为了实现上述目的,其公开的技术方案如下:
本发明第一方面公开了一种数据处理方法,所述方法包括:
在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率;
基于所述目标模型参数,执行网络模型训练操作。
优选的,所述在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率,包括:
在迭代计算过程中,获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数;
优选的,所述若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数和所述自适应学习速率进行加权平均计算,得到加权平均后的模型参数并将所述加权平均后的模型参数对预先获取到的本地模型参数进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数和所述自适应学习速率至中心设备,触发所述中心设备将所述本地模型参数所述自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数所述加权平均后的模型参数由所述权重、所述获取到的本地模型参数和所述并行设备数的总和确定;
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
优选的,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
获取可行集的直径、预设基础学习速率和预设梯度上界的估计值;
对所述可行集的直径、所述预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率。
优选的,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
初始化各个并行设备的本地模型参数。
本发明第二方面公开了一种数据处理系统,所述系统包括:
获取单元,用于在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率;
第一更新单元,用于若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数并将所述加权平均后的模型参数对预先获取到的本地模型参数进行更新;
执行单元,用于基于所述目标模型参数,执行网络模型训练操作。
优选的,所述获取单元,包括:
获取模块,用于获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数;
本发明第三方面公开了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如第一方面任意一项所述的数据处理方法。
本发明第四方面公开了一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如第一方面任意一项所述的数据处理方法。
经由上述技术方案可知,获取各个并行设备的当前迭代次数的自适应学习速率,若当前迭代次数符合第一预设条件,将获取到的本地模型参数和自适应学习速率进行加权平均计算,得到加权平均后的模型参数并将加权平均后的模型参数对预先获取到的本地模型参数进行更新,若当前迭代次数符合第二预设条件,基于加权平均后的模型参数权重和预先获取到的并行设备数的总和,得到本地模型参数并将本地模型参数对本地模型参数进行更新,通过额外梯度算法,将更新后的本地模型参数进行计算,得到随机梯度方向,并基于随机梯度方向,确定目标模型参数,基于目标模型参数,执行网络模型训练操作。通过上述方案,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种数据处理方法的流程示意图;
图2为本发明实施例公开的收敛速度效果对比示意图;
图3为本发明实施例公开的获取各个并行设备的当前迭代次数的自适应学习速率的流程示意图;
图6为本发明实施例公开的一种数据处理系统的结构示意图;
图7为本发明实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
由背景技术可知,在对抗学习进行训练的训练方式的局限性高。
为了解决该问题,本发明公开了一种数据处理方法、系统、存储介质及电子设备,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。具体实现方式通过下述实施例具体进行说明。
本方案解决如下对抗式优化问题:
minx∈Xmaxy∈YF(x,y) 公式(1)
其中,X和Y是模型参数模型搜索空间(也叫做可行集),F是针对不同机器学习问题而定的训练函数,min为最小值,max为最大值。上面的数学模型涵盖了工程实践中的很多问题,例如生成式对抗神经网络训练、双线性博弈论模型求解等。我们假设函数F具有凸凹性,并且我们考虑函数F是光滑或者不光滑的情形。我们提出的算法呈现在下图的算法框中。为符号方便,将变量x和变量y(表示模型参数)合并记作z,将集合X和集合Y的乘积集合记作Z。
参考图1所示,为本发明实施例公开的一种数据处理方法的流程示意图,该数据处理方法主要包括如下步骤:
步骤S101:执行初始化操作。
在步骤S101中,初始化操作包括初始化计算和初始化各个并行设备的本地模型参数。
在初始化操作之前,需进行算法参数输入,参数包括可行集的直径D、预设基础学习速率α、预设梯度上界的估计值G0、并行设备本地更新的步数K、并行设备数M和并行设备通信次数R。
初始化操作的过程如下:
首先,获取可行集的直径、预设基础学习速率和预设梯度上界的估计值,然后,对可行集的直径、预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率,初始化学习速率的公式如下:
初始化各个设备的本地模型参数的过程如下:
在获取各个并行设备的当前迭代次数的自适应学习速率之前,初始化各个并行设备的本地模型参数。
初始化各个并行设备的本地模型参数的公式如下:
初始化操作完成后,定义各个并行设备通信时间节点集合S={0,K,2K,…,RK}。
K为并行设备本地更新的步数,R为并行设备间通信次数。
当前迭代次数t=(1,2,…T)的过程中,各个并行设备均执行步骤S102至步骤S105,直至完成迭代过程结束。
其中,T=KR,T为每个并行设备的总迭代数目。
步骤S102:在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率。
在步骤S102中,具体在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率的过程如下:
首先,在迭代计算过程中,获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数,然后,当当前迭代次数等于预设次数时,计算得到本地模型参数本地模型参数和本地模型参数最后,将可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数本地模型参数和本地模型参数进行计算,得到自适应学习速率。
自适应学习速率的公式如下:
其中,为在迭代次数等于τ时计算出的自适应学习速率,和均为在迭代次数等于τ时计算出的本地模型参数,D为可行集的直径,α为预设基础学习速率,α的取值为0.01或0.1,G0为预设梯度上界的估计值,t为当前迭代次数,G0根据数据集进行估计得到,∑为求和。
公式(4)的分母中的求和项将本地设备中出现过的模型参数先进行求差后再求和。
需要说明的是,自适应学习速率的计算只依赖本地机器上的数据集以及本地出现过的模型迭代参数,而不需要进行机器之间的相互通信。
在步骤S103中,若t-1∈S,即当前迭代次数符合第一预设条件,则在当前迭代次数中,各个并行设备需要进行通信,其中,S为各个并行设备通信时间节点集合。
通过机器通信协议与模型加权平均规则,将获取到的本地模型参数和自适应学习速率进行加权平均计算。规定每台设备在更新K步之后向一个中心设备传递当前的模型参数以及学习步长。在中心设备上,我们计算各台设备模型的加权平均,其中权重与机器的当前学习步长成反比。然后我们将加权平均之后模型并广播到各个并行设备上。
首先,将当前迭代次数与预设次数进行求差计算,得到差值,其次,若差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定,然后,在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数和自适应学习速率至中心设备,触发中心设备将本地模型参数自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的本地模型参数加权平均后的本地模型参数由权重、获取到的本地模型参数和并行设备数的总和确定,最后,将加权平均后的本地模型参数对预先获取到的本地模型参数进行更新,即,中心设备更新本地模型参数
首先,将当前迭代次数与预设次数进行求差计算,得到差值,其次,若差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定,然后,在各个设备之间处于非通信状态下,基于加权平均后的模型参数权重和预先获取到的并行设备数的总和,得到本地模型参数最后将本地模型参数对本地模型参数进行更新,即中心设备更新本地模型参数
步骤S103和步骤S104即为迭代计算过程,在迭代计算过程完成后,执行步骤S105。
其中,额外梯度算法是对抗训练常用的算法。他与常规的梯度下降算法不同,他在每一次迭代中需要计算两次随机梯度,之后进行两次梯度下降。第一次的梯度下降在当前本地模型处沿着在出计算的随机梯度方向进行下降。将第一步得到的模型记作第二次的梯度下降在当前模型处沿着在出计算的随机梯度方向进行下降。在每个并行设备上,我们首先随机采样得到小批量的训练样本,利用这些样本计算随机梯度方向。
在步骤S105中,通过额外梯度算法,将更新后的本地模型参数进行计算,得到第一随机梯度方向和第二随机梯度方向,并基于第一随机梯度方向和第二随机梯度方向,确定目标模型参数其中,∑m为并行设备数的总和,∑t为迭代次数的总和,T为每个并行设备的总迭代数目,为本地模型参数。
第一随机梯度方向的公式如下:
第二随机梯度方向的公式如下:
步骤S106:基于目标模型参数,执行网络模型训练操作。
在步骤S106中,网络模型训练操作可以是在图像生成、可靠鲁棒模型训练以及博弈论模型的求解等场景。
针对分布式、模型参数模型本地更新式场景下对抗学习任务中的自适应学习速率设计,在该算法中自适应学习速率的设计是基于本地机器迭代出现过的模型参数而定,不需要预先知道数据集的参数。自适应学习速率的计算完全在本地上进行,不需要机器间通信。自适应学习速率减轻工程师试错式的模型训练,提高了工程实践效率。
本方案的自适应的分布式对抗学习算法在模型参数量巨大,训练数据量巨大、需要实现用户隐私保护、分布式计算、并行设备通信速度慢等诸多场景下具有重要工程实践意义。采用本技术方案可大幅降低分布式训练大规模对抗学习模型的训练通信,通信误差和学习率调试问题。
例如,对于图像生成任务上,ImageNet的数据集包含一千多万个样本,生成式对抗网络模型包含上千万的参数量。直接采用tensorflow/pytorch或者传统的分布式算法来训练,在并行设备和中心设备之间会存在超高的通信量并且学习率也难以调整。同时学习速率的设计对生成图像的质量有重要影响,每次调整学习率均需要消耗大量的GPU算例资源,大量增加了企业的成本。采用本专利中的技术方案可以统一的解决模型训练中的通信问题以及学习率调整问题,从而可以快速有效的训练大规模的对抗学习网络模型。
理论上对如上算法给出了如下收敛保证。对于不可导的函数F,证明本方案的输出具有如下收敛速度:
其中,函数DualGap衡量某一个模型模型参数的质量,是对抗学习中常用的模型参数模型衡量准则,为收敛速度,o为略去常数项,E为期望值,G为函数F的梯度模的上界,γ是工程师初始梯度估计与函数F的梯度模的上界的比值,T是每台设备的总迭代数,D为可行集的直径,σ为随机梯度的噪声程度,M为并行设备数。
其中,函数DualGap衡量某一个模型模型参数的质量,是对抗学习中常用的模型参数模型衡量准则,和均为变量,X和Y是模型搜索空间(也叫做可行集),F是针对不同机器学习问题而定的训练函数,max为最大值,min为最小值。
随着迭代次数的增加,该算法的输出在期望意义下会逼近函数F的鞍点。
对于函数F为可导的情况,本方案的输出具有如下收敛速度
其中,为收敛速度,V1(T)为每一台设备上出现的随机梯度的模之和开根号的期望值,o为略去常数项,D为可行集的直径,G为函数F的梯度模的上界,M为并行设备数,γ是工程师初始梯度估计与函数F的梯度模的上界的比值,L为函数F的光滑程度,T是每台设备的总迭代数,σ为随机梯度的噪声程度,从理论上说,以上的收敛速率是任何算法可以达到的最佳收敛速率。
结合图2所示,本方案提出的算法应用到训练生成式对网络模型训练的问题上。利用(Frechet Inception Distance,FID)(FID越低代表算法效果越好)和(InceptionScore,IS)(IS越高算法的效果越好)来度量本方案算法的优越性,根据以下的试验结果可以看出,在相同的通信量的情况下,本方案的算法可以快速的收敛并且达到最好的效果。
图2中,MB-ASMP表示小批量自适应镜面单梯度下降算法,MB-UMP表示小批量全局镜面梯度下降算法,LocalAdam表示局部自适应梯度下降算法,LocalAdaSEG表示本方案的算法,纵坐标(1.00、1.25、1.50、1.75、2.00、2.25、2.50、2.75)表示IS值,横坐标(0、2、4、6、8、10)表示通信量。
综上所述,本方案中提出的对抗学习算法可以取得最佳的收敛速率,并且随着设备数量的增多,算法的收敛速度逐渐加快。另外,算法中的自适应学习率调整机制大幅降低了学习率调整的成本,提高了算法的稳定性。同时,我们从理论上也验证了本方案提出的算法的收敛性,保证了算法在多种环境下均收敛,增强了本方案的可信程度。
本发明实施例中,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。
参考图3所示,为在上述步骤S102中涉及到获取各个并行设备的当前迭代次数的自适应学习速率的过程,主要包括如下步骤:
步骤S301:获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数。
步骤S301-步骤S303的执行原理与上述步骤S102的执行原理一致,可参考,此处不再进行赘述。
参考图4所示,为上述步骤S103中涉及到若当前迭代次数符合第一预设条件,将获取到的本地模型参数和自适应学习速率进行加权平均计算,得到加权平均后的模型参数并将加权平均后的模型参数对预先获取到的本地模型参数进行更新的过程,主要包括如下步骤:
步骤S401:将当前迭代次数与预设次数进行求差计算,得到差值。
步骤S402:若差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
步骤S403:在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数和自适应学习速率至中心设备,触发中心设备将本地模型参数自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数加权平均后的模型参数由权重、获取到的本地模型参数和并行设备数的总和确定。
步骤S401-步骤S404的执行原理与上述步骤S103的执行原理一致,可参考,此处不再进行赘述。
本发明实施例中,将当前迭代次数与预设次数进行求差计算,得到差值,在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数和自适应学习速率至中心设备,触发中心设备将本地模型参数自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数实现将加权平均后的模型参数对预先获取到的本地模型参数进行更新的目的。
参考图5所示,为上述步骤S104中涉及到若当前迭代次数符合第二预设条件,基于加权平均后的模型参数权重和预先获取到的并行设备数的总和,得到本地模型参数并将本地模型参数对本地模型参数进行更新的过程,主要包括如下步骤:
步骤S501:将当前迭代次数与预设次数进行求差计算,得到差值。
步骤S502:若差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
步骤S501-步骤S504的执行原理与上述步骤S104的执行原理一致,可参考,此处不再进行赘述。
本发明实施例中,将当前迭代次数与预设次数进行求差计算,得到差值,在各个设备之间处于非通信状态下,基于加权平均后的模型参数权重和预先获取到的并行设备数的总和,得到本地模型参数实现将本地模型参数对本地模型参数进行更新的目的。
基于上述实施例图1公开的一种数据处理方法,本发明实施例还对应公开了一种数据处理系统,如图6所示,该数据处理系统包括获取单元601、第一更新单元602、第二更新单元603、确定单元604和执行单元605。
获取单元601,用于获取各个并行设备的当前迭代次数的自适应学习速率。
第一更新单元602,用于若当前迭代次数符合第一预设条件,将获取到的本地模型参数和自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数并将加权平均后的模型参数对预先获取到的本地模型参数进行更新。
执行单元605,用于基于目标模型参数,执行网络模型训练操作。
进一步的,获取单元601,包括:
获取模块,用于获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数。
进一步的,第一更新单元602,包括:
第三计算模块,用于将当前迭代次数与预设次数进行求差计算,得到差值。
第一确定模块,用于若差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
第四计算模块,用于在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数和自适应学习速率至中心设备,触发中心设备将本地模型参数自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数加权平均后的模型参数由权重、获取到的本地模型参数和并行设备数的总和确定。
进一步的,第二更新单元603,包括:
第五计算模块,用于将当前迭代次数与预设次数进行求差计算,得到差值。
第二确定模块,用于若差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
进一步的,还包括第一初始化单元,第一初始化单元包括:
获取模块,用于获取可行集的直径、预设基础学习速率和预设梯度上界的估计值。
第六计算模块,用于对可行集的直径、预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率。
进一步的,还包括第二初始化单元。
第二初始化单元,用于初始化各个并行设备的本地模型参数。
本发明实施例中,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。
本发明实施例还提供了一种存储介质,存储介质包括存储的指令,其中,在指令运行时控制存储介质所在的设备执行上述数据处理方法。
本发明实施例还提供了一种电子设备,其结构示意图如图7所示,具体包括存储器701,以及一个或者一个以上的指令702,其中一个或者一个以上指令702存储于存储器701中,且经配置以由一个或者一个以上处理器703执行所述一个或者一个以上指令702执行上述数据处理方法。
上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种数据处理方法,其特征在于,所述方法包括:
在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率;
基于所述目标模型参数,执行网络模型训练操作。
3.根据权利要求1所述的方法,其特征在于,所述若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数并将所述加权平均后的模型参数对预先获取到的本地模型参数进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数和所述自适应学习速率至中心设备,触发所述中心设备将所述本地模型参数所述自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数所述加权平均后的模型参数由所述权重、所述获取到的本地模型参数和所述并行设备数的总和确定;
4.根据权利要求1所述的方法,其特征在于,所述若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数所述权重和预先获取到的并行设备数的总和,得到本地模型参数并将所述本地模型参数对所述本地模型参数进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
5.根据权利要求1所述的方法,其特征在于,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
获取可行集的直径、预设基础学习速率和预设梯度上界的估计值;
对所述可行集的直径、所述预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率。
6.根据权利要求1所述的方法,其特征在于,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
初始化各个并行设备的本地模型参数。
7.一种数据处理系统,其特征在于,所述系统包括:
获取单元,用于获取各个并行设备的当前迭代次数的自适应学习速率;
第一更新单元,用于若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数并将所述加权平均后的模型参数对预先获取到的本地模型参数进行更新;
执行单元,用于基于所述目标模型参数,执行网络模型训练操作。
9.一种存储介质,其特征在于,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如权利要求1至6任意一项所述的数据处理方法。
10.一种电子设备,其特征在于,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如权利要求1至6任意一项所述的数据处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111048745.1A CN113762527A (zh) | 2021-09-08 | 2021-09-08 | 一种数据处理方法、系统、存储介质及电子设备 |
PCT/CN2022/096157 WO2023035691A1 (zh) | 2021-09-08 | 2022-05-31 | 一种数据处理方法、系统、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111048745.1A CN113762527A (zh) | 2021-09-08 | 2021-09-08 | 一种数据处理方法、系统、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113762527A true CN113762527A (zh) | 2021-12-07 |
Family
ID=78793777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111048745.1A Pending CN113762527A (zh) | 2021-09-08 | 2021-09-08 | 一种数据处理方法、系统、存储介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113762527A (zh) |
WO (1) | WO2023035691A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114841341A (zh) * | 2022-04-25 | 2022-08-02 | 北京百度网讯科技有限公司 | 模型训练及数据处理方法、装置、设备和存储介质 |
CN115348329A (zh) * | 2022-10-17 | 2022-11-15 | 南京凯奥思数据技术有限公司 | 基于梯度传输优化的数据分布式训练方法、系统及介质 |
WO2023035691A1 (zh) * | 2021-09-08 | 2023-03-16 | 京东科技信息技术有限公司 | 一种数据处理方法、系统、存储介质及电子设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116663639B (zh) * | 2023-07-31 | 2023-11-03 | 浪潮电子信息产业股份有限公司 | 一种梯度数据同步方法、系统、装置及介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232541B2 (en) * | 2018-10-08 | 2022-01-25 | Rensselaer Polytechnic Institute | CT super-resolution GAN constrained by the identical, residual and cycle learning ensemble (GAN-circle) |
CN109615072A (zh) * | 2018-11-27 | 2019-04-12 | 长威信息科技发展股份有限公司 | 一种对抗神经网络的集成方法及计算机设备 |
CN110136063B (zh) * | 2019-05-13 | 2023-06-23 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111968666B (zh) * | 2020-08-20 | 2022-02-01 | 南京工程学院 | 基于深度域自适应网络的助听器语音增强方法 |
CN113762527A (zh) * | 2021-09-08 | 2021-12-07 | 京东科技信息技术有限公司 | 一种数据处理方法、系统、存储介质及电子设备 |
-
2021
- 2021-09-08 CN CN202111048745.1A patent/CN113762527A/zh active Pending
-
2022
- 2022-05-31 WO PCT/CN2022/096157 patent/WO2023035691A1/zh unknown
Non-Patent Citations (1)
Title |
---|
LUOFENG LIAO ETAL: "Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax Problems", ARXIV:2106.10022V1, pages 5 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023035691A1 (zh) * | 2021-09-08 | 2023-03-16 | 京东科技信息技术有限公司 | 一种数据处理方法、系统、存储介质及电子设备 |
CN114841341A (zh) * | 2022-04-25 | 2022-08-02 | 北京百度网讯科技有限公司 | 模型训练及数据处理方法、装置、设备和存储介质 |
CN114841341B (zh) * | 2022-04-25 | 2023-04-28 | 北京百度网讯科技有限公司 | 图像处理模型训练及图像处理方法、装置、设备和介质 |
CN115348329A (zh) * | 2022-10-17 | 2022-11-15 | 南京凯奥思数据技术有限公司 | 基于梯度传输优化的数据分布式训练方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023035691A1 (zh) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113762527A (zh) | 一种数据处理方法、系统、存储介质及电子设备 | |
CN111182637B (zh) | 一种基于生成对抗强化学习的无线网络资源分配方法 | |
CN110460880B (zh) | 基于粒子群和神经网络的工业无线流媒体自适应传输方法 | |
CN113762530B (zh) | 面向隐私保护的精度反馈联邦学习方法 | |
CN111629380B (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
CN108351881A (zh) | 分布式最优化的系统和方法 | |
CN111416774B (zh) | 网络拥塞控制方法、装置、计算机设备及存储介质 | |
CN110601777B (zh) | 一种低轨移动卫星星座下星地下行链路同频干扰估计方法 | |
CN112311578A (zh) | 基于深度强化学习的vnf调度方法及装置 | |
CN113778691B (zh) | 一种任务迁移决策的方法、装置及系统 | |
CN110689136B (zh) | 一种深度学习模型获得方法、装置、设备及存储介质 | |
CN113691594B (zh) | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 | |
CN113114581A (zh) | 基于多智能体深度强化学习的tcp拥塞控制方法及装置 | |
CN116320620A (zh) | 基于个性化联邦强化学习的流媒体比特率自适应调整方法 | |
CN113077056A (zh) | 基于横向联邦学习的数据处理系统 | |
CN115526333A (zh) | 边缘场景下动态权重的联邦学习方法 | |
CN111988787A (zh) | 一种任务的网络接入和服务放置位置选择方法及系统 | |
CN101399708A (zh) | 一种建立网络性能模型的方法和设备 | |
CN117150566A (zh) | 面向协作学习的鲁棒训练方法及装置 | |
CN112312299A (zh) | 服务卸载方法、装置及系统 | |
CN113543160A (zh) | 5g切片资源配置方法、装置、计算设备及计算机存储介质 | |
KR20190129422A (ko) | 뉴럴 네트워크를 이용한 변분 추론 방법 및 장치 | |
CN115022231A (zh) | 一种基于深度强化学习的最优路径规划的方法和系统 | |
CN115150335A (zh) | 一种基于深度强化学习的最优流量分割的方法和系统 | |
CN114298319A (zh) | 联合学习贡献值的确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |