CN114584471A - 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 - Google Patents
一种基于联邦学习的网络数据分析功能的模型训练方法及装置 Download PDFInfo
- Publication number
- CN114584471A CN114584471A CN202011277906.XA CN202011277906A CN114584471A CN 114584471 A CN114584471 A CN 114584471A CN 202011277906 A CN202011277906 A CN 202011277906A CN 114584471 A CN114584471 A CN 114584471A
- Authority
- CN
- China
- Prior art keywords
- training
- learning
- task
- meta
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 167
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000006870 function Effects 0.000 title claims abstract description 50
- 238000007405 data analysis Methods 0.000 title claims abstract description 31
- 238000005457 optimization Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 11
- 230000002776 aggregation Effects 0.000 claims description 7
- 238000004220 aggregation Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/142—Network analysis or design using statistical or mathematical methods
Abstract
本发明的实施例提供一种基于联邦学习的网络数据分析功能的模型训练方法及装置。所述方法包括:获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。本发明的方案可以实现每轮迭代训练时间都很短的本地特征训练优化的过程。
Description
技术领域
本发明涉及通信技术领域,特别是指一种基于联邦学习的网络数据分析功能的模型训练方法及装置。
背景技术
在进行数据共享和分布式深度学习的过程中,往往存在数据隐私泄露的问题。为了解决这一问题,多采用联邦学习方法,在联邦学习的应用场景中,训练数据集被用在多个参入方(如不同的组织,不同的机构、不同设备,不同地理位置)之上。用户/组织/联盟方之间不分享他们的本地训练数据集,任意一方的数据不会泄露给其他参与者。通过共同联邦学习使得拥有数据的多方能够联合训练一个或多个模型,能在保证隐私数据不泄露的情况下,提升参与者们本地模型的任务表现,打破数据孤岛,这种方法被称为联邦学习。
现有的5G技术方案中,研究了通信网络中的人工智能的场景,梳理了需要分析的需求和数据。NWDAF(NNetwork Data Analytics Function,网络数据分析功能)利用包括从5G网络功能(NF)收集的网络运行数据、从运维管理系统OAM(Operation Administrationand Maintenance,操作管理维护)获取的终端和网络相关的统计数据、通过NEF从第三方应用获取的应用数据。
NWDAF生成的分析结果也会输出到5G网络功能、OAM或第三方应用。5G网络功能、OAM或应用层服务器可以利用NWDAF的分析结果进行不同的优化操作。
基于联邦学习(Federated Learning)的分布式智能架构,作为分布式机器学习框架,联邦学习技术可以让参与方在不共享数据的基础上进行联合建模,从技术上打破信息孤岛,实现分布式智能协作,同时也能实现模型训练效率的提升。
元学习是机器学习的一个子领域,是将自动学习算法应用于机器学习实验的元数据上。现在的AI系统可以通过大量时间和经验从头学习一项复杂技能。但是,如果想使智能体掌握多种技能、适应多种环境,则不应该从头开始在每一个环境中训练每一项技能,而是需要智能体通过对以往经验的再利用来学习如何学习多项新任务,这种学习如何学习的方法,又叫元学习(meta-learning),是通往可持续学习多项新任务的多面智能体的必经之路。元学习不再关注获取标签。与之相反,尝试让机器从少量的数据中更快的学习。如果用这一技巧,与一般的模型相比可以使用更少的数据进行训练。
当前的多NWDAF实例之间联邦学习中,中心服务器对不同个体的权重整合,多NWDAF实例联邦学习框架中的参入方比较分散和分布,联邦学习的目标是通过最小化经验函数,使得模型能够拟合由若干NWDAF参入方中收集到的数据,因此目前都是使用模型参数进行加权平均(FedAvg),再下发到各个NWDAF的参入方/联盟方,各个NWDAF参入方使用该模型进行推理和下一轮计算。
由于NWDAF的联邦学习的目的是为了能够获得一个共享的,平均的全局模型,因此最终所有的NWDAF联邦学习的参入方得到的模型效果都是一样,因此每个NWDAF联邦的参入方没有自己本地个性化的特征。但是由于实际应用中各个NWDAF的参入方的差异性,以及数据的Non-IID分布,导致很多时候,每个NWDAF的联邦学习参入方本地节点需要构建个性化模型的技术,如用于个性化推荐,个性化的分析处理等。因此需要实现对全局模型进行个性化定制来提升在独立节点上的效果。
另外每个NWDAF联邦的参入方是会持续不断收集到新的实时数据,因此每个参入方的产生的数据都是不断累积增加,随着时间增长可能会达到海量的数据。但是联邦学习的NWDAF联邦参入参入方的资源,算力都有限,而且联邦学习是参入方都是先并行计算,再由中心服务器集中汇聚,因此即使单个参入方的计算时间延长,也会影响和拖累整个系统。所以如果当前的NWDAF联邦学习系统在实际应用中使用本地的所有的海量数据训练出带有本地个性化模型,会碰到严重的性能,成本,效率问题。所以还需要解决如何用少量的数据构造出一个可靠的个性化模型的问题。
以在NWDAF联邦学习中的一种移动手机终端的键盘上考虑下一个输入预测单词的语言模型为例,不同的客户可能会使用语言,地域,习惯,喜好各不相同。因此输入预测的方法可能是把不仅用户到目前为止输入的单词,还需要连续实时的收集各种其他用户信息,如上下文特征,该用户经常使用哪些词,他们当前正在使用什么应用程序,如果他们正在和某人聊天,他们已向此人发送过消息,当前位置,时间,外界因素等数据,随时间变化这些数据也会逐渐增多。所以需要解决就是使用较低代价解决对共享的全局模型进行高度个性化,本地化的问题。
此外由于联邦学习各个NWDAF联邦的的”联邦性”和”公平性”,各个参入方可以随时的加入和退出联邦学习系统,当新加入的NWDAF参入方开始收集和能提供数据也很少,因此新加入联邦学习的NWDAF参入方如何用少量的数据构造出一个可靠的初始模型也是一个问题。
发明内容
本发明提供了一种基于联邦学习的网络数据分析功能的模型训练方法及装置,可以自动获取并更新调整上下文内容等信息,也能实现每轮迭代训练时间都很短的本地特征训练优化的过程。
为解决上述技术问题,本发明的实施例提供如下方案:
一种基于联邦学习的网络数据分析功能的模型训练方法,所述方法包括:
获取t时刻数据样本集以及所述数据样本集所对应的时序信息;
根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
可选的,t时刻有A个数据样本,表示为|Di|=A;
可选的,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
可选的,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2;
可选的,基于联邦学习的网络数据分析功能的模型训练方法,还包括:
本发明的实施例还提供一种基于联邦学习的网络数据分析功能的模型训练装置,所述装置包括:
上下文环境动态感知模块,用于获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
元学习训练模块根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
可选的,t时刻有A个数据样本,表示为|Di|=A;
可选的,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
可选的,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2;
可选的,基于联邦学习的网络数据分析功能的模型训练装置,还包括:
本发明的实施例还提供一种处理器可读存储介质,所述处理器可读存储介质存储有处理器可执行指令,所述处理器可执行指令用于使所述处理器执行如上所述的方法。
本发明的上述方案至少包括以下有益效果:
本发明的上述方案,通过获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。可以在NWDAF联邦学习参入方的每轮计算仅使用少量客户样本就可以进行模型训练调优,并可以自动获取并更新调整上下文内容等信息,也能实现每轮迭代训练时间都很短的本地特征训练优化的过程。
附图说明
图1为本发明的实施例基于联邦学习的网络数据分析功能的模型训练方法流程示意图;
图3为本发明的实施例中,元学习的框架的示意图;
图4为本发明的实施例的基于联邦学习的网络数据分析功能的模型训练装置的模块示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
如图1所示,本发明的实施例提供一种基于联邦学习的网络数据分析功能的模型训练方法,所述方法包括:
步骤11,获取t时刻数据样本集以及所述数据样本集所对应的时序信息;
步骤12,根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
步骤13,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
本发明的该实施例可以在NWDAF联邦学习参入方的每轮计算仅使用少量客户样本就可以进行模型训练调优,并可以自动获取并更新调整上下文内容等信息,也能实现每轮迭代训练时间都很短的本地特征训练优化的过程。
本发明的一可选的实施例中,t时刻有A(包括及t时刻新生成,t时刻之前已有数据)个数据样本,表示为|Di|=A;
本发明的一可选的实施例中,步骤12可以包括:
步骤121,反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
步骤122,按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
具体实现时,上下文环境动态感知模块主要完成包括,维护缓存Di t时刻之前的数据样本和样本所对应时序相关信息,获取t时刻数据样本和样本所对应时序相关信息。
上下文环境动态感知模块主要是完成实时感知参入方当前环境等情况,并根据实际需求为元学习模块准备训练所需Task。
1,如果Di在刚加入联邦学习系统,上下文环境动态感知模块反复在Di数据中抽取若干个Task,每个Task包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,一般来说,我们把这NK个训练样本称为支持集(Support Set),把NL个测试样本称为询问集(Query Set)。把这若干个Task(Train Task)表示为用图2所示。
如果NWDAF参入方i是已经加入到NWDAF的联邦系统,i每隔一定时间都会进行一轮的本地训练过程。上下文环境动态感知模块按照时序,从Di中随机选取最新的少数Task(包括N*K支持集,N*L的询问集),可以称之为Test Task,作为定时每轮的训练集,供第二部分的元学习训练模块训练。
本发明的一可选的实施例中,步骤13可以包括:
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2;
可选的,基于联邦学习的网络数据分析功能的模型训练方法,还包括:
如图3所示,该方法具体实现时,元学习训练模块实现了一种model-agnostic即模型无关的元学习的框架(以一台中心服务器和一个参入方为例,实际一般为一台中心服务器+多个参入方)。
当NWDAF的参入方i在刚加入联邦学习系统,启动后开始执行第一次的本地优化预训练流程是:
4,用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1。
8,用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2。
11,NWDAF联邦学习系统中心服务器下发聚合后的θt到各个参入方Di。
当NWDAF参入方i在启动后,每隔一定时间执行本地优化联邦学习学习练流程:
12,各个NWDAF参入方接受到中心服务器广播下发的θt后,上下文环境动态感知模块抽取去很少数据量,且时序排列较新的TestTask,可以把TestTask当作本次的训练的重复前面的1~9步,得出本轮训练的网络参数。
13,此后每轮本地训练计算都只需重复第12步。
因此除了各个NWDAF参入方第一次启动时候需要跟传统的联邦学习一样需要的数据外,随后的每隔一定时间(由联邦学习系统设定)的联邦学习训练过程都只需要很少量的最新数据,这样既可以满足NWDAF联邦学习的架构要求,实现允许用户使用分布在不同位置的多个数据集来训练机器学习模型,同时防止数据泄露遵守严格的数据隐私法,达到了对各个NWDAF参入方上下文信息的个性化,并且由于每轮训练时候需要选择的Task数量很少,所以计算量和成本大大减少,因此可以大大提高了NWDAF联邦学习的性能和效率。
本发明针对现有NWDAF的联邦学习中存在的最终并分发到NWDAF各个联邦的模型没有本地模型个性化的问题,以及如果为了实现本地化所带来的性能和效率的局限性和缺陷,提出了新的通过结合NWDAF的联邦学习,元学习的方法和架构。引入元学习训练模块和上下文环境动态感知模块利用少量数据训练训练调优,不仅能提高每个NWDAF参入方模型的个性化,性能,效率,还能合并各个参入方上下文时序化的信息,适合各个NWDAF参入方的资源和算力都有限的条件和情况。上下文环境动态感知模块的对环境上下文的动态感知,调整,分析,维护等功能架构的设计。基于联邦学习的NWDAF元学习训练模块的设计,功能,架构等。既满足了NWDAF联邦学习的主体架构要求,实现了NWDAF联邦学习的参入方的预测个性化,本地化优化等。也能很好的使用少量NWDAF数据训练调优,以适合各个NWDAF参入方的资源和算力都极其有限的条件和情况,而且基本不影响训练出来的模型效果。
如图4所示,本发明的实施例还提供一种基于联邦学习的网络数据分析功能的模型训练装置40,所述装置包括:
上下文环境动态感知模块41,用于获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
元学习训练模块42,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
可选的,t时刻有A个数据样本,表示为|Di|=A;
可选的,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
可选的,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2;
可选的,基于联邦学习的网络数据分析功能的模型训练装置,还包括:
需要说明的是,该装置是与上述方法实施例对应的装置,上述方法实施例中的所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种处理器可读存储介质,所述处理器可读存储介质存储有处理器可执行指令,所述处理器可执行指令用于使所述处理器执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
此外,需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行,某些步骤可以并行或彼此独立地执行。对本领域的普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用他们的基本编程技能就能实现的。
因此,本发明的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。还需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (13)
1.一种基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,所述方法包括:
获取t时刻数据样本集以及所述数据样本集所对应的时序信息;
根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
3.根据权利要求2所述的基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2;
7.一种基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,所述装置包括:
上下文环境动态感知模块,用于获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
元学习训练模块根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
9.根据权利要求8所述的基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2;
13.一种处理器可读存储介质,其特征在于,所述处理器可读存储介质存储有处理器可执行指令,所述处理器可执行指令用于使所述处理器执行权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011277906.XA CN114584471A (zh) | 2020-11-16 | 2020-11-16 | 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011277906.XA CN114584471A (zh) | 2020-11-16 | 2020-11-16 | 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114584471A true CN114584471A (zh) | 2022-06-03 |
Family
ID=81767043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011277906.XA Pending CN114584471A (zh) | 2020-11-16 | 2020-11-16 | 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114584471A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115550849A (zh) * | 2022-10-08 | 2022-12-30 | 广州爱浦路网络技术有限公司 | 终端设备选择方法、装置、网络设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569288A (zh) * | 2019-09-11 | 2019-12-13 | 中兴通讯股份有限公司 | 一种数据分析方法、装置、设备和存储介质 |
CN111046193A (zh) * | 2019-12-27 | 2020-04-21 | 南京邮电大学 | 一种基于元学习的领域知识图谱补全方法 |
US20200196155A1 (en) * | 2018-12-12 | 2020-06-18 | Verizon Patent And Licensing Inc. | Utilizing machine learning to provide closed-loop network management of a fifth generation (5g) network |
CN111639679A (zh) * | 2020-05-09 | 2020-09-08 | 西北工业大学 | 一种基于多尺度度量学习的小样本学习方法 |
CN111813869A (zh) * | 2020-08-21 | 2020-10-23 | 支付宝(杭州)信息技术有限公司 | 一种基于分布式数据的多任务模型训练方法及系统 |
-
2020
- 2020-11-16 CN CN202011277906.XA patent/CN114584471A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200196155A1 (en) * | 2018-12-12 | 2020-06-18 | Verizon Patent And Licensing Inc. | Utilizing machine learning to provide closed-loop network management of a fifth generation (5g) network |
CN110569288A (zh) * | 2019-09-11 | 2019-12-13 | 中兴通讯股份有限公司 | 一种数据分析方法、装置、设备和存储介质 |
CN111046193A (zh) * | 2019-12-27 | 2020-04-21 | 南京邮电大学 | 一种基于元学习的领域知识图谱补全方法 |
CN111639679A (zh) * | 2020-05-09 | 2020-09-08 | 西北工业大学 | 一种基于多尺度度量学习的小样本学习方法 |
CN111813869A (zh) * | 2020-08-21 | 2020-10-23 | 支付宝(杭州)信息技术有限公司 | 一种基于分布式数据的多任务模型训练方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115550849A (zh) * | 2022-10-08 | 2022-12-30 | 广州爱浦路网络技术有限公司 | 终端设备选择方法、装置、网络设备及存储介质 |
CN115550849B (zh) * | 2022-10-08 | 2023-06-06 | 广州爱浦路网络技术有限公司 | 终端设备选择方法、装置、网络设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2702980C1 (ru) | Распределённое обучение моделей машинного обучения для персонализации | |
Valenzuela et al. | Facebook, Twitter, and youth engagement: A quasi-experimental study of social media use and protest behavior using propensity score matching | |
CN110162717B (zh) | 一种推荐好友的方法和设备 | |
US8825701B2 (en) | Method and system of management of queries for crowd searching | |
CN110462604A (zh) | 基于设备使用关联互联网设备的数据处理系统和方法 | |
US20220351039A1 (en) | Federated learning using heterogeneous model types and architectures | |
US10474926B1 (en) | Generating artificial intelligence image processing services | |
CN109314722A (zh) | 用于测量针对通知的用户可行性或接受能力的方法、装置和机器可读介质 | |
CN110941698A (zh) | 一种基于bert下卷积神经网络的服务发现方法 | |
CN111079006A (zh) | 一种消息推送方法、装置、电子设备及介质 | |
CN109241268A (zh) | 一种相似信息推荐方法、装置、设备及存储介质 | |
CN112948885B (zh) | 实现隐私保护的多方协同更新模型的方法、装置及系统 | |
CN110233745A (zh) | 管理群消息的方法及装置 | |
CN113222170A (zh) | 一种用于物联网ai协同服务平台的智能算法和模型 | |
CN114584471A (zh) | 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 | |
CN106649743A (zh) | 一种创意分类脑库资源存储与分享方法及系统 | |
CN117236421A (zh) | 一种基于联邦知识蒸馏的大模型训练方法 | |
CN112199154A (zh) | 一种基于分布式协同采样中心式优化的强化学习训练系统及方法 | |
CN112348197A (zh) | 基于联邦学习的模型生成方法及装置 | |
WO2023196456A1 (en) | Adaptive wellness collaborative media system | |
CN109885668A (zh) | 一种可扩展的领域人机对话系统状态跟踪方法及设备 | |
GB2589828A (en) | Causal reasoning and counterfactual probabilistic programming framework using approximate inference | |
CN113886674A (zh) | 资源推荐方法、装置、电子设备及存储介质 | |
CN112270296A (zh) | 一种基于云平台的智慧城市可视化管理系统及方法 | |
CN116701972B (zh) | 业务数据处理方法、装置、设备以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |