CN113762527A - 一种数据处理方法、系统、存储介质及电子设备 - Google Patents

一种数据处理方法、系统、存储介质及电子设备 Download PDF

Info

Publication number
CN113762527A
CN113762527A CN202111048745.1A CN202111048745A CN113762527A CN 113762527 A CN113762527 A CN 113762527A CN 202111048745 A CN202111048745 A CN 202111048745A CN 113762527 A CN113762527 A CN 113762527A
Authority
CN
China
Prior art keywords
model parameters
local model
learning rate
local
parallel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111048745.1A
Other languages
English (en)
Inventor
沈力
廖烙锋
段佳
陶大程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Information Technology Co Ltd
Original Assignee
Jingdong Technology Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Technology Information Technology Co Ltd filed Critical Jingdong Technology Information Technology Co Ltd
Priority to CN202111048745.1A priority Critical patent/CN113762527A/zh
Publication of CN113762527A publication Critical patent/CN113762527A/zh
Priority to PCT/CN2022/096157 priority patent/WO2023035691A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种数据处理方法、系统、存储介质及电子设备,在迭代计算过程中,若当前迭代次数符合第一预设条件,将模型参数
Figure DDA0003252041180000011
对本地模型参数
Figure DDA0003252041180000014
进行更新,若当前迭代次数符合第二预设条件,将获取到的本地模型参数
Figure DDA0003252041180000015
对本地模型参数
Figure DDA0003252041180000012
进行更新,通过额外梯度算法将更新后的本地模型参数
Figure DDA0003252041180000013
进行计算,得到随机梯度方向并确定目标模型参数,基于目标模型参数执行网络模型训练操作。通过上述方案,结合额外梯度算法和自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻工程师试错式的模型训练,提高工程实践效率。

Description

一种数据处理方法、系统、存储介质及电子设备
技术领域
本发明涉及对抗学习技术领域,更具体地说,涉及一种数据处理方法、系统、存储介质及电子设备。
背景技术
对抗学习是一种机器学习方法。对抗学习实现的方法,是让两个网络相互竞争对抗,其中一个是生成器网络,它不断捕捉训练库里真实图片的概率分布,将输入的随机噪声转变成新的样本(假数据),另一个是判别器网络,它可以同时观察真实和假造的数据,判断这个数据的真假。通过反复对抗,生成器和判别器的能力都会不断增强,直到达成一个平衡,最后生成器可生成高质量的、以假乱真的图片。
在对抗学习中,模型效果十分依赖所采用的学习速率,因此自适应的学习速率在实践中具有重要意义。自适应的学习速率不需要工程师手动调整学习速率,消除了模型学习中人为因素的干扰,因此也是实现可靠人工智能的重要技术。
由于对抗学习的数据集通常数量巨大,在训练时需要使用分布式的训练方式。另外。在对抗学习中,模型效果十分依赖所采用自适应学习速率。由于对抗学习的损失函数具有最小化-最大化的结构,使得现有的技术方案无法同时实现自适应学习速率与分布式计算。
因此,在对抗学习进行训练的训练方式的局限性高。
发明内容
有鉴于此,本发明公开了一种数据处理方法、系统、存储介质及电子设备,实现降低了对抗学习进行训练的局限性和提高工程实践效率的目的。
为了实现上述目的,其公开的技术方案如下:
本发明第一方面公开了一种数据处理方法,所述方法包括:
在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率;
若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA0003252041160000021
和所述自适应学习速率进行加权平均计算,得到加权平均后的模型参数
Figure BDA0003252041160000022
并将所述加权平均后的模型参数
Figure BDA0003252041160000023
对预先获取到的本地模型参数
Figure BDA0003252041160000024
进行更新;
若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数
Figure BDA0003252041160000026
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000025
并将所述本地模型参数
Figure BDA0003252041160000027
对所述本地模型参数
Figure BDA0003252041160000028
进行更新;
通过额外梯度算法,将更新后的本地模型参数
Figure BDA0003252041160000029
进行计算,得到随机梯度方向,并基于所述随机梯度方向,确定目标模型参数;
基于所述目标模型参数,执行网络模型训练操作。
优选的,所述在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率,包括:
在迭代计算过程中,获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数;
当所述当前迭代次数等于预设次数时,计算得到本地模型参数
Figure BDA00032520411600000210
本地模型参数
Figure BDA00032520411600000211
和本地模型参数
Figure BDA00032520411600000212
将所述可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure BDA00032520411600000213
本地模型参数
Figure BDA00032520411600000214
和本地模型参数
Figure BDA00032520411600000215
进行计算,得到自适应学习速率。
优选的,所述若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA00032520411600000216
和所述自适应学习速率进行加权平均计算,得到加权平均后的模型参数
Figure BDA00032520411600000217
并将所述加权平均后的模型参数
Figure BDA00032520411600000218
对预先获取到的本地模型参数
Figure BDA00032520411600000219
进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数
Figure BDA00032520411600000220
和所述自适应学习速率至中心设备,触发所述中心设备将所述本地模型参数
Figure BDA0003252041160000031
所述自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA0003252041160000032
所述加权平均后的模型参数
Figure BDA0003252041160000033
由所述权重、所述获取到的本地模型参数
Figure BDA0003252041160000034
和所述并行设备数的总和确定;
将所述加权平均后的模型参数
Figure BDA0003252041160000035
对预先获取到的本地模型参数
Figure BDA0003252041160000036
进行更新。
优选的,所述若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数
Figure BDA0003252041160000037
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000038
并将所述本地模型参数
Figure BDA0003252041160000039
对所述本地模型参数
Figure BDA00032520411600000310
进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
在各个设备之间处于非通信状态下,基于所述加权平均后的模型参数
Figure BDA00032520411600000311
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA00032520411600000312
将所述本地模型参数
Figure BDA00032520411600000313
对所述本地模型参数
Figure BDA00032520411600000314
进行更新。
优选的,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
获取可行集的直径、预设基础学习速率和预设梯度上界的估计值;
对所述可行集的直径、所述预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率。
优选的,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
初始化各个并行设备的本地模型参数。
本发明第二方面公开了一种数据处理系统,所述系统包括:
获取单元,用于在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率;
第一更新单元,用于若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA0003252041160000041
和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA0003252041160000042
并将所述加权平均后的模型参数
Figure BDA0003252041160000043
对预先获取到的本地模型参数
Figure BDA0003252041160000044
进行更新;
第二更新单元,用于若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数
Figure BDA0003252041160000045
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000046
并将所述本地模型参数
Figure BDA0003252041160000047
对所述本地模型参数
Figure BDA0003252041160000048
进行更新;
确定单元,用于通过额外梯度算法,将更新后的本地模型参数
Figure BDA0003252041160000049
进行计算,得到随机梯度方向,并基于所述随机梯度方向,确定目标模型参数;
执行单元,用于基于所述目标模型参数,执行网络模型训练操作。
优选的,所述获取单元,包括:
获取模块,用于获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数;
第一计算模块,用于当所述当前迭代次数等于预设次数时,计算得到本地模型参数
Figure BDA00032520411600000410
本地模型参数
Figure BDA00032520411600000411
和本地模型参数
Figure BDA00032520411600000412
第二计算模块,用于将所述可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure BDA00032520411600000413
本地模型参数
Figure BDA00032520411600000414
和本地模型参数
Figure BDA00032520411600000415
进行计算,得到自适应学习速率。
本发明第三方面公开了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如第一方面任意一项所述的数据处理方法。
本发明第四方面公开了一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如第一方面任意一项所述的数据处理方法。
经由上述技术方案可知,获取各个并行设备的当前迭代次数的自适应学习速率,若当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA00032520411600000416
和自适应学习速率进行加权平均计算,得到加权平均后的模型参数
Figure BDA00032520411600000417
并将加权平均后的模型参数
Figure BDA00032520411600000418
对预先获取到的本地模型参数
Figure BDA00032520411600000419
进行更新,若当前迭代次数符合第二预设条件,基于加权平均后的模型参数
Figure BDA00032520411600000420
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000051
并将本地模型参数
Figure BDA0003252041160000052
对本地模型参数
Figure BDA0003252041160000053
进行更新,通过额外梯度算法,将更新后的本地模型参数
Figure BDA0003252041160000054
进行计算,得到随机梯度方向,并基于随机梯度方向,确定目标模型参数,基于目标模型参数,执行网络模型训练操作。通过上述方案,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种数据处理方法的流程示意图;
图2为本发明实施例公开的收敛速度效果对比示意图;
图3为本发明实施例公开的获取各个并行设备的当前迭代次数的自适应学习速率的流程示意图;
图4为本发明实施例公开的将加权平均后的模型参数
Figure BDA0003252041160000055
对预先获取到的本地模型参数
Figure BDA0003252041160000056
进行更新的流程示意图;
图5为本发明实施例公开的将本地模型参数
Figure BDA0003252041160000057
对本地模型参数
Figure BDA0003252041160000058
进行更新的流程示意图;
图6为本发明实施例公开的一种数据处理系统的结构示意图;
图7为本发明实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
由背景技术可知,在对抗学习进行训练的训练方式的局限性高。
为了解决该问题,本发明公开了一种数据处理方法、系统、存储介质及电子设备,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。具体实现方式通过下述实施例具体进行说明。
本方案解决如下对抗式优化问题:
minx∈Xmaxy∈YF(x,y) 公式(1)
其中,X和Y是模型参数模型搜索空间(也叫做可行集),F是针对不同机器学习问题而定的训练函数,min为最小值,max为最大值。上面的数学模型涵盖了工程实践中的很多问题,例如生成式对抗神经网络训练、双线性博弈论模型求解等。我们假设函数F具有凸凹性,并且我们考虑函数F是光滑或者不光滑的情形。我们提出的算法呈现在下图的算法框中。为符号方便,将变量x和变量y(表示模型参数)合并记作z,将集合X和集合Y的乘积集合记作Z。
参考图1所示,为本发明实施例公开的一种数据处理方法的流程示意图,该数据处理方法主要包括如下步骤:
步骤S101:执行初始化操作。
在步骤S101中,初始化操作包括初始化计算和初始化各个并行设备的本地模型参数。
在初始化操作之前,需进行算法参数输入,参数包括可行集的直径D、预设基础学习速率α、预设梯度上界的估计值G0、并行设备本地更新的步数K、并行设备数M和并行设备通信次数R。
初始化操作的过程如下:
首先,获取可行集的直径、预设基础学习速率和预设梯度上界的估计值,然后,对可行集的直径、预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率,初始化学习速率的公式如下:
Figure BDA0003252041160000071
其中,
Figure BDA0003252041160000072
为初始学习速率,D为可行集的直径,α为预设基础学习速率,α的取值为0.01或0.1,G0为预设梯度上界的估计值,G0根据数据集进行估计得到。
初始化各个设备的本地模型参数的过程如下:
在获取各个并行设备的当前迭代次数的自适应学习速率之前,初始化各个并行设备的本地模型参数。
初始化各个并行设备的本地模型参数的公式如下:
Figure BDA0003252041160000073
其中,
Figure BDA0003252041160000074
为初始化后的本地模型参数。
初始化操作完成后,定义各个并行设备通信时间节点集合S={0,K,2K,…,RK}。
K为并行设备本地更新的步数,R为并行设备间通信次数。
当前迭代次数t=(1,2,…T)的过程中,各个并行设备均执行步骤S102至步骤S105,直至完成迭代过程结束。
其中,T=KR,T为每个并行设备的总迭代数目。
步骤S102:在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率。
在步骤S102中,具体在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率的过程如下:
首先,在迭代计算过程中,获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数,然后,当当前迭代次数等于预设次数时,计算得到本地模型参数
Figure BDA0003252041160000075
本地模型参数
Figure BDA0003252041160000076
和本地模型参数
Figure BDA0003252041160000077
最后,将可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure BDA0003252041160000078
本地模型参数
Figure BDA0003252041160000079
和本地模型参数
Figure BDA00032520411600000710
进行计算,得到自适应学习速率。
自适应学习速率的公式如下:
Figure BDA0003252041160000081
其中,
Figure BDA0003252041160000082
为在迭代次数等于τ时计算出的自适应学习速率,
Figure BDA0003252041160000083
Figure BDA0003252041160000084
均为在迭代次数等于τ时计算出的本地模型参数,D为可行集的直径,α为预设基础学习速率,α的取值为0.01或0.1,G0为预设梯度上界的估计值,t为当前迭代次数,G0根据数据集进行估计得到,∑为求和。
公式(4)的分母中的求和项将本地设备中出现过的模型参数先进行求差后再求和。
需要说明的是,自适应学习速率的计算只依赖本地机器上的数据集以及本地出现过的模型迭代参数,而不需要进行机器之间的相互通信。
步骤S103:若当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA0003252041160000085
和自适应学习速率进行加权平均计算,得到加权平均后的模型参数
Figure BDA0003252041160000086
并将加权平均后的模型参数
Figure BDA0003252041160000087
对预先获取到的本地模型参数
Figure BDA0003252041160000088
进行更新。
在步骤S103中,若t-1∈S,即当前迭代次数符合第一预设条件,则在当前迭代次数中,各个并行设备需要进行通信,其中,S为各个并行设备通信时间节点集合。
通过机器通信协议与模型加权平均规则,将获取到的本地模型参数
Figure BDA0003252041160000089
和自适应学习速率进行加权平均计算。规定每台设备在更新K步之后向一个中心设备传递当前的模型参数以及学习步长。在中心设备上,我们计算各台设备模型的加权平均,其中权重与机器的当前学习步长成反比。然后我们将加权平均之后模型并广播到各个并行设备上。
具体若当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA00032520411600000810
和自适应学习速率进行加权平均计算,得到加权平均后的模型参数
Figure BDA00032520411600000811
并将加权平均后的模型参数
Figure BDA00032520411600000812
对预先获取到的本地模型参数
Figure BDA00032520411600000813
进行更新的过程如下:
首先,将当前迭代次数与预设次数进行求差计算,得到差值,其次,若差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定,然后,在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数
Figure BDA0003252041160000091
和自适应学习速率至中心设备,触发中心设备将本地模型参数
Figure BDA0003252041160000092
自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的本地模型参数
Figure BDA0003252041160000093
加权平均后的本地模型参数
Figure BDA0003252041160000094
由权重、获取到的本地模型参数
Figure BDA0003252041160000095
和并行设备数的总和确定,最后,将加权平均后的本地模型参数
Figure BDA0003252041160000096
对预先获取到的本地模型参数
Figure BDA0003252041160000097
进行更新,即,中心设备更新本地模型参数
Figure BDA0003252041160000098
触发中心设备将本地模型参数
Figure BDA0003252041160000099
自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA00032520411600000910
的公式分别如下:
Figure BDA00032520411600000911
其中,wm为权重,∑m为并行设备数的总和,
Figure BDA00032520411600000912
为在迭代次数等于τ时计算出的自适应学习速率。
Figure BDA00032520411600000913
其中,
Figure BDA00032520411600000914
为加权平均后的本地模型参数,∑m为并行设备数的总和,wm为权重,
Figure BDA00032520411600000915
为本地模型参数。
步骤S104:若当前迭代次数符合第二预设条件,基于加权平均后的模型参数
Figure BDA00032520411600000916
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA00032520411600000917
并将本地模型参数
Figure BDA00032520411600000918
对本地模型参数
Figure BDA00032520411600000919
进行更新。
在步骤S104中,若
Figure BDA00032520411600000920
即当前迭代次数符合第二预设条件,则在当前迭代次数中,各个并行设备不需要进行通信。
具体若当前迭代次数符合第二预设条件,基于加权平均后的模型参数
Figure BDA00032520411600000921
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA00032520411600000922
并将本地模型参数
Figure BDA00032520411600000923
对所述本地模型参数
Figure BDA00032520411600000924
进行更新的过程如下:
首先,将当前迭代次数与预设次数进行求差计算,得到差值,其次,若差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定,然后,在各个设备之间处于非通信状态下,基于加权平均后的模型参数
Figure BDA0003252041160000101
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000102
最后将本地模型参数
Figure BDA0003252041160000103
对本地模型参数
Figure BDA00032520411600001026
进行更新,即中心设备更新本地模型参数
Figure BDA0003252041160000104
步骤S103和步骤S104即为迭代计算过程,在迭代计算过程完成后,执行步骤S105。
步骤S105:通过额外梯度算法,将更新后的本地模型参数
Figure BDA0003252041160000105
进行计算,得到随机梯度方向,并基于随机梯度方向,确定目标模型参数。
其中,额外梯度算法是对抗训练常用的算法。他与常规的梯度下降算法不同,他在每一次迭代中需要计算两次随机梯度,之后进行两次梯度下降。第一次的梯度下降在当前本地模型
Figure BDA0003252041160000106
处沿着在
Figure BDA0003252041160000107
出计算的随机梯度方向进行下降。将第一步得到的模型记作
Figure BDA0003252041160000108
第二次的梯度下降在当前模型
Figure BDA0003252041160000109
处沿着在
Figure BDA00032520411600001010
出计算的随机梯度方向进行下降。在每个并行设备上,我们首先随机采样得到小批量的训练样本,利用这些样本计算随机梯度方向。
在步骤S105中,通过额外梯度算法,将更新后的本地模型参数
Figure BDA00032520411600001011
进行计算,得到第一随机梯度方向和第二随机梯度方向,并基于第一随机梯度方向和第二随机梯度方向,确定目标模型参数
Figure BDA00032520411600001012
其中,∑m为并行设备数的总和,∑t为迭代次数的总和,T为每个并行设备的总迭代数目,
Figure BDA00032520411600001013
为本地模型参数。
第一随机梯度方向的公式如下:
Figure BDA00032520411600001014
其中,
Figure BDA00032520411600001015
为本地模型参数,ΠZ为投影因子,
Figure BDA00032520411600001016
为本地模型参数,
Figure BDA00032520411600001017
为自适应学习速率,
Figure BDA00032520411600001018
是在
Figure BDA00032520411600001019
出计算的第一随机梯度方向。
第二随机梯度方向的公式如下:
Figure BDA00032520411600001020
其中,
Figure BDA00032520411600001021
为本地模型参数,ΠZ为投影因子,
Figure BDA00032520411600001022
为本地模型参数,
Figure BDA00032520411600001023
为自适应学习速率,
Figure BDA00032520411600001024
是在
Figure BDA00032520411600001025
出计算的第二随机梯度方向。
步骤S106:基于目标模型参数,执行网络模型训练操作。
在步骤S106中,网络模型训练操作可以是在图像生成、可靠鲁棒模型训练以及博弈论模型的求解等场景。
针对分布式、模型参数模型本地更新式场景下对抗学习任务中的自适应学习速率设计,在该算法中自适应学习速率的设计是基于本地机器迭代出现过的模型参数而定,不需要预先知道数据集的参数。自适应学习速率的计算完全在本地上进行,不需要机器间通信。自适应学习速率减轻工程师试错式的模型训练,提高了工程实践效率。
本方案的自适应的分布式对抗学习算法在模型参数量巨大,训练数据量巨大、需要实现用户隐私保护、分布式计算、并行设备通信速度慢等诸多场景下具有重要工程实践意义。采用本技术方案可大幅降低分布式训练大规模对抗学习模型的训练通信,通信误差和学习率调试问题。
例如,对于图像生成任务上,ImageNet的数据集包含一千多万个样本,生成式对抗网络模型包含上千万的参数量。直接采用tensorflow/pytorch或者传统的分布式算法来训练,在并行设备和中心设备之间会存在超高的通信量并且学习率也难以调整。同时学习速率的设计对生成图像的质量有重要影响,每次调整学习率均需要消耗大量的GPU算例资源,大量增加了企业的成本。采用本专利中的技术方案可以统一的解决模型训练中的通信问题以及学习率调整问题,从而可以快速有效的训练大规模的对抗学习网络模型。
理论上对如上算法给出了如下收敛保证。对于不可导的函数F,证明本方案的输出具有如下收敛速度:
Figure BDA0003252041160000111
其中,函数DualGap衡量某一个模型模型参数的质量,是对抗学习中常用的模型参数模型衡量准则,
Figure BDA0003252041160000112
为收敛速度,o为略去常数项,E为期望值,G为函数F的梯度模的上界,γ是工程师初始梯度估计与函数F的梯度模的上界的比值,T是每台设备的总迭代数,D为可行集的直径,σ为随机梯度的噪声程度,M为并行设备数。
对于模型参数
Figure BDA0003252041160000113
该衡量准则的具体定义为:
Figure BDA0003252041160000114
其中,函数DualGap衡量某一个模型模型参数的质量,是对抗学习中常用的模型参数模型衡量准则,
Figure BDA0003252041160000115
Figure BDA0003252041160000116
均为变量,X和Y是模型搜索空间(也叫做可行集),F是针对不同机器学习问题而定的训练函数,max为最大值,min为最小值。
随着迭代次数的增加,该算法的输出在期望意义下会逼近函数F的鞍点。
对于函数F为可导的情况,本方案的输出具有如下收敛速度
Figure BDA0003252041160000121
其中,
Figure BDA0003252041160000122
为收敛速度,V1(T)为每一台设备上出现的随机梯度的模之和开根号的期望值,o为略去常数项,D为可行集的直径,G为函数F的梯度模的上界,M为并行设备数,γ是工程师初始梯度估计与函数F的梯度模的上界的比值,L为函数F的光滑程度,T是每台设备的总迭代数,σ为随机梯度的噪声程度,从理论上说,以上的收敛速率是任何算法可以达到的最佳收敛速率。
结合图2所示,本方案提出的算法应用到训练生成式对网络模型训练的问题上。利用(Frechet Inception Distance,FID)(FID越低代表算法效果越好)和(InceptionScore,IS)(IS越高算法的效果越好)来度量本方案算法的优越性,根据以下的试验结果可以看出,在相同的通信量的情况下,本方案的算法可以快速的收敛并且达到最好的效果。
图2中,MB-ASMP表示小批量自适应镜面单梯度下降算法,MB-UMP表示小批量全局镜面梯度下降算法,LocalAdam表示局部自适应梯度下降算法,LocalAdaSEG表示本方案的算法,纵坐标(1.00、1.25、1.50、1.75、2.00、2.25、2.50、2.75)表示IS值,横坐标(0、2、4、6、8、10)表示通信量。
综上所述,本方案中提出的对抗学习算法可以取得最佳的收敛速率,并且随着设备数量的增多,算法的收敛速度逐渐加快。另外,算法中的自适应学习率调整机制大幅降低了学习率调整的成本,提高了算法的稳定性。同时,我们从理论上也验证了本方案提出的算法的收敛性,保证了算法在多种环境下均收敛,增强了本方案的可信程度。
本发明实施例中,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。
参考图3所示,为在上述步骤S102中涉及到获取各个并行设备的当前迭代次数的自适应学习速率的过程,主要包括如下步骤:
步骤S301:获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数。
步骤S302:当当前迭代次数等于预设次数时,计算得到本地模型参数
Figure BDA0003252041160000131
本地模型参数
Figure BDA0003252041160000132
和本地模型参数
Figure BDA0003252041160000133
步骤S303:将可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure BDA0003252041160000134
本地模型参数
Figure BDA0003252041160000135
和本地模型参数
Figure BDA0003252041160000136
进行计算,得到自适应学习速率。
步骤S301-步骤S303的执行原理与上述步骤S102的执行原理一致,可参考,此处不再进行赘述。
本发明实施例中,将可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure BDA0003252041160000137
本地模型参数
Figure BDA0003252041160000138
和本地模型参数
Figure BDA0003252041160000139
进行计算,实现得到自适应学习速率的目的。
参考图4所示,为上述步骤S103中涉及到若当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA00032520411600001310
和自适应学习速率进行加权平均计算,得到加权平均后的模型参数
Figure BDA00032520411600001311
并将加权平均后的模型参数
Figure BDA00032520411600001312
对预先获取到的本地模型参数
Figure BDA00032520411600001313
进行更新的过程,主要包括如下步骤:
步骤S401:将当前迭代次数与预设次数进行求差计算,得到差值。
步骤S402:若差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
步骤S403:在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数
Figure BDA00032520411600001314
和自适应学习速率至中心设备,触发中心设备将本地模型参数
Figure BDA00032520411600001315
自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA00032520411600001316
加权平均后的模型参数
Figure BDA00032520411600001317
由权重、获取到的本地模型参数
Figure BDA00032520411600001318
和并行设备数的总和确定。
步骤S404:将加权平均后的模型参数
Figure BDA00032520411600001319
对预先获取到的本地模型参数
Figure BDA00032520411600001320
进行更新。
步骤S401-步骤S404的执行原理与上述步骤S103的执行原理一致,可参考,此处不再进行赘述。
本发明实施例中,将当前迭代次数与预设次数进行求差计算,得到差值,在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数
Figure BDA0003252041160000141
和自适应学习速率至中心设备,触发中心设备将本地模型参数
Figure BDA0003252041160000142
自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA0003252041160000143
实现将加权平均后的模型参数
Figure BDA0003252041160000144
对预先获取到的本地模型参数
Figure BDA0003252041160000145
进行更新的目的。
参考图5所示,为上述步骤S104中涉及到若当前迭代次数符合第二预设条件,基于加权平均后的模型参数
Figure BDA0003252041160000146
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000147
并将本地模型参数
Figure BDA0003252041160000148
对本地模型参数
Figure BDA0003252041160000149
进行更新的过程,主要包括如下步骤:
步骤S501:将当前迭代次数与预设次数进行求差计算,得到差值。
步骤S502:若差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
步骤S503:在各个设备之间处于非通信状态下,基于加权平均后的模型参数
Figure BDA00032520411600001410
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA00032520411600001411
步骤S504:将本地模型参数
Figure BDA00032520411600001412
对本地模型参数
Figure BDA00032520411600001413
进行更新。
步骤S501-步骤S504的执行原理与上述步骤S104的执行原理一致,可参考,此处不再进行赘述。
本发明实施例中,将当前迭代次数与预设次数进行求差计算,得到差值,在各个设备之间处于非通信状态下,基于加权平均后的模型参数
Figure BDA00032520411600001414
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA00032520411600001415
实现将本地模型参数
Figure BDA00032520411600001416
对本地模型参数
Figure BDA00032520411600001417
进行更新的目的。
基于上述实施例图1公开的一种数据处理方法,本发明实施例还对应公开了一种数据处理系统,如图6所示,该数据处理系统包括获取单元601、第一更新单元602、第二更新单元603、确定单元604和执行单元605。
获取单元601,用于获取各个并行设备的当前迭代次数的自适应学习速率。
第一更新单元602,用于若当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure BDA0003252041160000151
和自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA0003252041160000152
并将加权平均后的模型参数
Figure BDA0003252041160000153
对预先获取到的本地模型参数
Figure BDA0003252041160000154
进行更新。
第二更新单元603,用于若当前迭代次数符合第二预设条件,基于加权平均后的模型参数
Figure BDA0003252041160000155
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000156
并将本地模型参数
Figure BDA0003252041160000157
对本地模型参数
Figure BDA0003252041160000158
进行更新。
确定单元604,用于通过额外梯度算法,将更新后的本地模型参数
Figure BDA0003252041160000159
进行计算,得到随机梯度方向,并基于随机梯度方向,确定目标模型参数。
执行单元605,用于基于目标模型参数,执行网络模型训练操作。
进一步的,获取单元601,包括:
获取模块,用于获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数。
第一计算模块,用于当所述当前迭代次数等于预设次数时,计算得到本地模型参数
Figure BDA00032520411600001510
本地模型参数
Figure BDA00032520411600001511
和本地模型参数
Figure BDA00032520411600001512
第二计算模块,用于将所述可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure BDA00032520411600001513
本地模型参数
Figure BDA00032520411600001514
和本地模型参数
Figure BDA00032520411600001515
进行计算,得到自适应学习速率。
进一步的,第一更新单元602,包括:
第三计算模块,用于将当前迭代次数与预设次数进行求差计算,得到差值。
第一确定模块,用于若差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
第四计算模块,用于在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数
Figure BDA00032520411600001516
和自适应学习速率至中心设备,触发中心设备将本地模型参数
Figure BDA00032520411600001517
自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数
Figure BDA0003252041160000161
加权平均后的模型参数
Figure BDA0003252041160000162
由权重、获取到的本地模型参数
Figure BDA0003252041160000163
和并行设备数的总和确定。
第一更新模块,用于将加权平均后的模型参数
Figure BDA0003252041160000164
对预先获取到的本地模型参数
Figure BDA0003252041160000165
进行更新。
进一步的,第二更新单元603,包括:
第五计算模块,用于将当前迭代次数与预设次数进行求差计算,得到差值。
第二确定模块,用于若差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定。
获取模块,用于在各个设备之间处于非通信状态下,基于加权平均后的模型参数
Figure BDA0003252041160000166
权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure BDA0003252041160000167
第二更新模块,用于将本地模型参数
Figure BDA0003252041160000168
对本地模型参数
Figure BDA0003252041160000169
进行更新。
进一步的,还包括第一初始化单元,第一初始化单元包括:
获取模块,用于获取可行集的直径、预设基础学习速率和预设梯度上界的估计值。
第六计算模块,用于对可行集的直径、预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率。
进一步的,还包括第二初始化单元。
第二初始化单元,用于初始化各个并行设备的本地模型参数。
本发明实施例中,结合额外梯度算法以及自适应学习速率,可同时实现在抗学习进行训练时自适应学习速率与分布式计算,降低了对抗学习进行训练的局限性。此外,自适应学习速率的计算在本地上进行,无需设备之间进行通信,从而减轻了工程师试错式的模型训练,提高了工程实践效率。
本发明实施例还提供了一种存储介质,存储介质包括存储的指令,其中,在指令运行时控制存储介质所在的设备执行上述数据处理方法。
本发明实施例还提供了一种电子设备,其结构示意图如图7所示,具体包括存储器701,以及一个或者一个以上的指令702,其中一个或者一个以上指令702存储于存储器701中,且经配置以由一个或者一个以上处理器703执行所述一个或者一个以上指令702执行上述数据处理方法。
上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种数据处理方法,其特征在于,所述方法包括:
在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率;
若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure FDA0003252041150000011
和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数
Figure FDA0003252041150000012
并将所述加权平均后的模型参数
Figure FDA0003252041150000013
对预先获取到的本地模型参数
Figure FDA0003252041150000014
进行更新;
若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数
Figure FDA0003252041150000015
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure FDA0003252041150000016
并将所述本地模型参数
Figure FDA0003252041150000017
对所述本地模型参数
Figure FDA0003252041150000018
进行更新;
通过额外梯度算法,将更新后的本地模型参数
Figure FDA0003252041150000019
进行计算,得到随机梯度方向,并基于所述随机梯度方向,确定目标模型参数;
基于所述目标模型参数,执行网络模型训练操作。
2.根据权利要求1所述的方法,其特征在于,所述在迭代计算过程中,获取各个并行设备的当前迭代次数的自适应学习速率,包括:
在迭代计算过程中,获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数;
当所述当前迭代次数等于预设次数时,计算得到本地模型参数
Figure FDA00032520411500000110
本地模型参数
Figure FDA00032520411500000111
和本地模型参数
Figure FDA00032520411500000112
将所述可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure FDA00032520411500000113
本地模型参数
Figure FDA00032520411500000114
和本地模型参数
Figure FDA00032520411500000115
进行计算,得到自适应学习速率。
3.根据权利要求1所述的方法,其特征在于,所述若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure FDA00032520411500000116
和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数
Figure FDA00032520411500000117
并将所述加权平均后的模型参数
Figure FDA00032520411500000118
对预先获取到的本地模型参数
Figure FDA00032520411500000119
进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值属于各个设备通信时间节点集合,则确定各个并行设备之间处于通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
在各个并行设备之间处于通信状态下,使各个并行设备发送本地模型参数
Figure FDA0003252041150000021
和所述自适应学习速率至中心设备,触发所述中心设备将所述本地模型参数
Figure FDA0003252041150000022
所述自适应学习速率和预先获取到的并行设备数的总和进行加权平均计算,得到权重和加权平均后的模型参数
Figure FDA0003252041150000023
所述加权平均后的模型参数
Figure FDA0003252041150000024
由所述权重、所述获取到的本地模型参数
Figure FDA0003252041150000025
和所述并行设备数的总和确定;
将所述加权平均后的模型参数
Figure FDA00032520411500000215
对预先获取到的本地模型参数
Figure FDA0003252041150000026
进行更新。
4.根据权利要求1所述的方法,其特征在于,所述若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数
Figure FDA0003252041150000027
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure FDA0003252041150000028
并将所述本地模型参数
Figure FDA0003252041150000029
对所述本地模型参数
Figure FDA00032520411500000210
进行更新,包括:
将所述当前迭代次数与预设次数进行求差计算,得到差值;
若所述差值不属于各个并行设备通信时间节点集合,则确定各个并行设备之间处于非通信状态,所述各个设备通信时间节点集合由并行设备本地更新步数和总迭代数目确定,所述总迭代数目由并行设备间通信次数和并行设备本地更新的步数确定;
在各个设备之间处于非通信状态下,基于所述加权平均后的模型参数
Figure FDA00032520411500000211
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure FDA00032520411500000212
将所述本地模型参数
Figure FDA00032520411500000213
对所述本地模型参数
Figure FDA00032520411500000214
进行更新。
5.根据权利要求1所述的方法,其特征在于,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
获取可行集的直径、预设基础学习速率和预设梯度上界的估计值;
对所述可行集的直径、所述预设基础学习速率和预设梯度上界的估计值进行初始化计算,得到初始学习速率。
6.根据权利要求1所述的方法,其特征在于,在所述获取各个并行设备的当前迭代次数的自适应学习速率之前,还包括:
初始化各个并行设备的本地模型参数。
7.一种数据处理系统,其特征在于,所述系统包括:
获取单元,用于获取各个并行设备的当前迭代次数的自适应学习速率;
第一更新单元,用于若所述当前迭代次数符合第一预设条件,将获取到的本地模型参数
Figure FDA0003252041150000031
和所述自适应学习速率进行加权平均计算,得到权重和加权平均后的模型参数
Figure FDA0003252041150000032
并将所述加权平均后的模型参数
Figure FDA0003252041150000033
对预先获取到的本地模型参数
Figure FDA0003252041150000034
进行更新;
第二更新单元,用于若所述当前迭代次数符合第二预设条件,基于所述加权平均后的模型参数
Figure FDA0003252041150000035
所述权重和预先获取到的并行设备数的总和,得到本地模型参数
Figure FDA0003252041150000036
并将所述本地模型参数
Figure FDA0003252041150000037
对所述本地模型参数
Figure FDA0003252041150000038
进行更新;
确定单元,用于通过额外梯度算法,将更新后的本地模型参数
Figure FDA0003252041150000039
进行计算,得到随机梯度方向,并基于所述随机梯度方向,确定目标模型参数;
执行单元,用于基于所述目标模型参数,执行网络模型训练操作。
8.根据权利要求7所述的系统,其特征在于,所述获取单元,包括:
获取模块,用于获取可行集的直径、预设梯度上界的估计值、预设基础学习速率和各个并行设备的当前迭代次数;
第一计算模块,用于当所述当前迭代次数等于预设次数时,计算得到本地模型参数
Figure FDA00032520411500000310
本地模型参数
Figure FDA00032520411500000311
和本地模型参数
Figure FDA00032520411500000312
第二计算模块,用于将所述可行集的直径、预设梯度上界的估计值、预设基础学习速率、各个并行设备的当前迭代次数、本地模型参数
Figure FDA00032520411500000313
本地模型参数
Figure FDA00032520411500000314
和本地模型参数
Figure FDA00032520411500000315
进行计算,得到自适应学习速率。
9.一种存储介质,其特征在于,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如权利要求1至6任意一项所述的数据处理方法。
10.一种电子设备,其特征在于,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如权利要求1至6任意一项所述的数据处理方法。
CN202111048745.1A 2021-09-08 2021-09-08 一种数据处理方法、系统、存储介质及电子设备 Pending CN113762527A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111048745.1A CN113762527A (zh) 2021-09-08 2021-09-08 一种数据处理方法、系统、存储介质及电子设备
PCT/CN2022/096157 WO2023035691A1 (zh) 2021-09-08 2022-05-31 一种数据处理方法、系统、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111048745.1A CN113762527A (zh) 2021-09-08 2021-09-08 一种数据处理方法、系统、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN113762527A true CN113762527A (zh) 2021-12-07

Family

ID=78793777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111048745.1A Pending CN113762527A (zh) 2021-09-08 2021-09-08 一种数据处理方法、系统、存储介质及电子设备

Country Status (2)

Country Link
CN (1) CN113762527A (zh)
WO (1) WO2023035691A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114841341A (zh) * 2022-04-25 2022-08-02 北京百度网讯科技有限公司 模型训练及数据处理方法、装置、设备和存储介质
CN115348329A (zh) * 2022-10-17 2022-11-15 南京凯奥思数据技术有限公司 基于梯度传输优化的数据分布式训练方法、系统及介质
WO2023035691A1 (zh) * 2021-09-08 2023-03-16 京东科技信息技术有限公司 一种数据处理方法、系统、存储介质及电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116663639B (zh) * 2023-07-31 2023-11-03 浪潮电子信息产业股份有限公司 一种梯度数据同步方法、系统、装置及介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232541B2 (en) * 2018-10-08 2022-01-25 Rensselaer Polytechnic Institute CT super-resolution GAN constrained by the identical, residual and cycle learning ensemble (GAN-circle)
CN109615072A (zh) * 2018-11-27 2019-04-12 长威信息科技发展股份有限公司 一种对抗神经网络的集成方法及计算机设备
CN110136063B (zh) * 2019-05-13 2023-06-23 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN111968666B (zh) * 2020-08-20 2022-02-01 南京工程学院 基于深度域自适应网络的助听器语音增强方法
CN113762527A (zh) * 2021-09-08 2021-12-07 京东科技信息技术有限公司 一种数据处理方法、系统、存储介质及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LUOFENG LIAO ETAL: "Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax Problems", ARXIV:2106.10022V1, pages 5 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023035691A1 (zh) * 2021-09-08 2023-03-16 京东科技信息技术有限公司 一种数据处理方法、系统、存储介质及电子设备
CN114841341A (zh) * 2022-04-25 2022-08-02 北京百度网讯科技有限公司 模型训练及数据处理方法、装置、设备和存储介质
CN114841341B (zh) * 2022-04-25 2023-04-28 北京百度网讯科技有限公司 图像处理模型训练及图像处理方法、装置、设备和介质
CN115348329A (zh) * 2022-10-17 2022-11-15 南京凯奥思数据技术有限公司 基于梯度传输优化的数据分布式训练方法、系统及介质

Also Published As

Publication number Publication date
WO2023035691A1 (zh) 2023-03-16

Similar Documents

Publication Publication Date Title
CN113762527A (zh) 一种数据处理方法、系统、存储介质及电子设备
CN111182637B (zh) 一种基于生成对抗强化学习的无线网络资源分配方法
CN110460880B (zh) 基于粒子群和神经网络的工业无线流媒体自适应传输方法
CN113762530B (zh) 面向隐私保护的精度反馈联邦学习方法
CN111629380B (zh) 面向高并发多业务工业5g网络的动态资源分配方法
CN108351881A (zh) 分布式最优化的系统和方法
CN111416774B (zh) 网络拥塞控制方法、装置、计算机设备及存储介质
CN110601777B (zh) 一种低轨移动卫星星座下星地下行链路同频干扰估计方法
CN112311578A (zh) 基于深度强化学习的vnf调度方法及装置
CN113778691B (zh) 一种任务迁移决策的方法、装置及系统
CN110689136B (zh) 一种深度学习模型获得方法、装置、设备及存储介质
CN113691594B (zh) 一种基于二阶导数解决联邦学习中数据不平衡问题的方法
CN113114581A (zh) 基于多智能体深度强化学习的tcp拥塞控制方法及装置
CN116320620A (zh) 基于个性化联邦强化学习的流媒体比特率自适应调整方法
CN113077056A (zh) 基于横向联邦学习的数据处理系统
CN115526333A (zh) 边缘场景下动态权重的联邦学习方法
CN111988787A (zh) 一种任务的网络接入和服务放置位置选择方法及系统
CN101399708A (zh) 一种建立网络性能模型的方法和设备
CN117150566A (zh) 面向协作学习的鲁棒训练方法及装置
CN112312299A (zh) 服务卸载方法、装置及系统
CN113543160A (zh) 5g切片资源配置方法、装置、计算设备及计算机存储介质
KR20190129422A (ko) 뉴럴 네트워크를 이용한 변분 추론 방법 및 장치
CN115022231A (zh) 一种基于深度强化学习的最优路径规划的方法和系统
CN115150335A (zh) 一种基于深度强化学习的最优流量分割的方法和系统
CN114298319A (zh) 联合学习贡献值的确定方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination