CN114584471A - 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 - Google Patents

一种基于联邦学习的网络数据分析功能的模型训练方法及装置 Download PDF

Info

Publication number
CN114584471A
CN114584471A CN202011277906.XA CN202011277906A CN114584471A CN 114584471 A CN114584471 A CN 114584471A CN 202011277906 A CN202011277906 A CN 202011277906A CN 114584471 A CN114584471 A CN 114584471A
Authority
CN
China
Prior art keywords
training
learning
task
meta
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011277906.XA
Other languages
English (en)
Inventor
岳烈骧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Communications Ltd Research Institute filed Critical China Mobile Communications Group Co Ltd
Priority to CN202011277906.XA priority Critical patent/CN114584471A/zh
Publication of CN114584471A publication Critical patent/CN114584471A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods

Abstract

本发明的实施例提供一种基于联邦学习的网络数据分析功能的模型训练方法及装置。所述方法包括:获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。本发明的方案可以实现每轮迭代训练时间都很短的本地特征训练优化的过程。

Description

一种基于联邦学习的网络数据分析功能的模型训练方法及 装置
技术领域
本发明涉及通信技术领域,特别是指一种基于联邦学习的网络数据分析功能的模型训练方法及装置。
背景技术
在进行数据共享和分布式深度学习的过程中,往往存在数据隐私泄露的问题。为了解决这一问题,多采用联邦学习方法,在联邦学习的应用场景中,训练数据集被用在多个参入方(如不同的组织,不同的机构、不同设备,不同地理位置)之上。用户/组织/联盟方之间不分享他们的本地训练数据集,任意一方的数据不会泄露给其他参与者。通过共同联邦学习使得拥有数据的多方能够联合训练一个或多个模型,能在保证隐私数据不泄露的情况下,提升参与者们本地模型的任务表现,打破数据孤岛,这种方法被称为联邦学习。
现有的5G技术方案中,研究了通信网络中的人工智能的场景,梳理了需要分析的需求和数据。NWDAF(NNetwork Data Analytics Function,网络数据分析功能)利用包括从5G网络功能(NF)收集的网络运行数据、从运维管理系统OAM(Operation Administrationand Maintenance,操作管理维护)获取的终端和网络相关的统计数据、通过NEF从第三方应用获取的应用数据。
NWDAF生成的分析结果也会输出到5G网络功能、OAM或第三方应用。5G网络功能、OAM或应用层服务器可以利用NWDAF的分析结果进行不同的优化操作。
基于联邦学习(Federated Learning)的分布式智能架构,作为分布式机器学习框架,联邦学习技术可以让参与方在不共享数据的基础上进行联合建模,从技术上打破信息孤岛,实现分布式智能协作,同时也能实现模型训练效率的提升。
元学习是机器学习的一个子领域,是将自动学习算法应用于机器学习实验的元数据上。现在的AI系统可以通过大量时间和经验从头学习一项复杂技能。但是,如果想使智能体掌握多种技能、适应多种环境,则不应该从头开始在每一个环境中训练每一项技能,而是需要智能体通过对以往经验的再利用来学习如何学习多项新任务,这种学习如何学习的方法,又叫元学习(meta-learning),是通往可持续学习多项新任务的多面智能体的必经之路。元学习不再关注获取标签。与之相反,尝试让机器从少量的数据中更快的学习。如果用这一技巧,与一般的模型相比可以使用更少的数据进行训练。
当前的多NWDAF实例之间联邦学习中,中心服务器对不同个体的权重整合,多NWDAF实例联邦学习框架中的参入方比较分散和分布,联邦学习的目标是通过最小化经验函数,使得模型能够拟合由若干NWDAF参入方中收集到的数据,因此目前都是使用模型参数进行加权平均(FedAvg),再下发到各个NWDAF的参入方/联盟方,各个NWDAF参入方使用该模型进行推理和下一轮计算。
由于NWDAF的联邦学习的目的是为了能够获得一个共享的,平均的全局模型,因此最终所有的NWDAF联邦学习的参入方得到的模型效果都是一样,因此每个NWDAF联邦的参入方没有自己本地个性化的特征。但是由于实际应用中各个NWDAF的参入方的差异性,以及数据的Non-IID分布,导致很多时候,每个NWDAF的联邦学习参入方本地节点需要构建个性化模型的技术,如用于个性化推荐,个性化的分析处理等。因此需要实现对全局模型进行个性化定制来提升在独立节点上的效果。
另外每个NWDAF联邦的参入方是会持续不断收集到新的实时数据,因此每个参入方的产生的数据都是不断累积增加,随着时间增长可能会达到海量的数据。但是联邦学习的NWDAF联邦参入参入方的资源,算力都有限,而且联邦学习是参入方都是先并行计算,再由中心服务器集中汇聚,因此即使单个参入方的计算时间延长,也会影响和拖累整个系统。所以如果当前的NWDAF联邦学习系统在实际应用中使用本地的所有的海量数据训练出带有本地个性化模型,会碰到严重的性能,成本,效率问题。所以还需要解决如何用少量的数据构造出一个可靠的个性化模型的问题。
以在NWDAF联邦学习中的一种移动手机终端的键盘上考虑下一个输入预测单词的语言模型为例,不同的客户可能会使用语言,地域,习惯,喜好各不相同。因此输入预测的方法可能是把不仅用户到目前为止输入的单词,还需要连续实时的收集各种其他用户信息,如上下文特征,该用户经常使用哪些词,他们当前正在使用什么应用程序,如果他们正在和某人聊天,他们已向此人发送过消息,当前位置,时间,外界因素等数据,随时间变化这些数据也会逐渐增多。所以需要解决就是使用较低代价解决对共享的全局模型进行高度个性化,本地化的问题。
此外由于联邦学习各个NWDAF联邦的的”联邦性”和”公平性”,各个参入方可以随时的加入和退出联邦学习系统,当新加入的NWDAF参入方开始收集和能提供数据也很少,因此新加入联邦学习的NWDAF参入方如何用少量的数据构造出一个可靠的初始模型也是一个问题。
发明内容
本发明提供了一种基于联邦学习的网络数据分析功能的模型训练方法及装置,可以自动获取并更新调整上下文内容等信息,也能实现每轮迭代训练时间都很短的本地特征训练优化的过程。
为解决上述技术问题,本发明的实施例提供如下方案:
一种基于联邦学习的网络数据分析功能的模型训练方法,所述方法包括:
获取t时刻数据样本集以及所述数据样本集所对应的时序信息;
根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
可选的,t时刻有A个数据样本,表示为|Di|=A;
其中,Di代表第i个网络数据分析功能NWDAF参入方的数据
Figure BDA0002779728270000031
可选的,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
可选的,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
根据所述训练集,对元学习网络执行第一次的本地化预训练,生成所述元学习网络的模型参数
Figure BDA0002779728270000041
可选的,生成所述元学习网络的模型参数
Figure BDA0002779728270000042
包括:
采样第一步中
Figure BDA0002779728270000043
中的1个训练任务m;
将模型网络的参数φ0赋值给任务m的网络,得到
Figure BDA0002779728270000044
使用任务m的支持集,基于任务m的学习率对
Figure BDA0002779728270000045
进行1次优化,更新
Figure BDA0002779728270000046
基于1次优化后的
Figure BDA0002779728270000047
使用询问集计算任务m的损失函数loss:
Figure BDA0002779728270000048
并计算
Figure BDA0002779728270000049
Figure BDA00027797282700000410
的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
采样1个任务n,将参数φ1赋值给任务n,得到
Figure BDA00027797282700000411
使用任务n的训练数据,基于任务n的学习率αn,对
Figure BDA00027797282700000412
进行一次优化,更新
Figure BDA00027797282700000413
基于1次优化后的
Figure BDA00027797282700000414
使用询问集计算任务n的损失函数loss:
Figure BDA00027797282700000415
并计算
Figure BDA00027797282700000416
上的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
在训练任务
Figure BDA00027797282700000417
上,重复执行上述过程,计算完所有的任务后,得到
Figure BDA00027797282700000418
可选的,基于联邦学习的网络数据分析功能的模型训练方法,还包括:
把NWDAF参入方i传输更新的
Figure BDA00027797282700000419
到NWDAF联邦学习系统中心服务器上;
接收中心服务器执行全局聚合公式
Figure BDA00027797282700000420
得到的全局θt;S代表所有的NWDAF参入方;
根据所述全局θt,抽取去预设数量的数据样本,且时序排列较新的测试任务,把测试任务当作本次的训练的
Figure BDA0002779728270000051
重复得到
Figure BDA0002779728270000052
的过程,得出本轮训练的网络参数。
本发明的实施例还提供一种基于联邦学习的网络数据分析功能的模型训练装置,所述装置包括:
上下文环境动态感知模块,用于获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
元学习训练模块根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
可选的,t时刻有A个数据样本,表示为|Di|=A;
其中,Di代表第i个网络数据分析功能NWDAF参入方的数据
Figure BDA0002779728270000053
可选的,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
可选的,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
根据所述训练集,对元学习网络执行第一次的本地化预训练,生成所述元学习网络的模型参数
Figure BDA0002779728270000054
可选的,生成所述元学习网络的模型参数
Figure BDA0002779728270000055
包括:
采样第一步中
Figure BDA0002779728270000056
中的1个训练任务m;
将模型网络的参数φ0赋值给任务m的网络,得到
Figure BDA0002779728270000057
使用任务m的支持集,基于任务m的学习率对
Figure BDA0002779728270000058
进行1次优化,更新
Figure BDA0002779728270000059
基于1次优化后的
Figure BDA0002779728270000061
使用询问集计算任务m的损失函数loss:
Figure BDA0002779728270000062
并计算
Figure BDA0002779728270000063
Figure BDA0002779728270000064
的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
采样1个任务n,将参数φ1赋值给任务n,得到
Figure BDA0002779728270000065
使用任务n的训练数据,基于任务n的学习率αn,对
Figure BDA0002779728270000066
进行一次优化,更新
Figure BDA0002779728270000067
基于1次优化后的
Figure BDA0002779728270000068
使用询问集计算任务n的损失函数loss:
Figure BDA0002779728270000069
并计算
Figure BDA00027797282700000610
上的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
在训练任务
Figure BDA00027797282700000611
上,重复执行上述过程,计算完所有的任务后,得到
Figure BDA00027797282700000612
可选的,基于联邦学习的网络数据分析功能的模型训练装置,还包括:
收发模块,用于把NWDAF参入方i传输更新的
Figure BDA00027797282700000613
到NWDAF联邦学习系统中心服务器上;
接收中心服务器执行全局聚合公式
Figure BDA00027797282700000614
得到的全局θt
根据所述全局θt,抽取去预设数量的数据样本,且时序排列较新的测试任务,把测试任务当作本次的训练的
Figure BDA00027797282700000615
重复得到
Figure BDA00027797282700000616
的过程,得出本轮训练的网络参数。
本发明的实施例还提供一种处理器可读存储介质,所述处理器可读存储介质存储有处理器可执行指令,所述处理器可执行指令用于使所述处理器执行如上所述的方法。
本发明的上述方案至少包括以下有益效果:
本发明的上述方案,通过获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。可以在NWDAF联邦学习参入方的每轮计算仅使用少量客户样本就可以进行模型训练调优,并可以自动获取并更新调整上下文内容等信息,也能实现每轮迭代训练时间都很短的本地特征训练优化的过程。
附图说明
图1为本发明的实施例基于联邦学习的网络数据分析功能的模型训练方法流程示意图;
图2为本发明的实施例中,
Figure BDA0002779728270000071
的示意图;
图3为本发明的实施例中,元学习的框架的示意图;
图4为本发明的实施例的基于联邦学习的网络数据分析功能的模型训练装置的模块示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
如图1所示,本发明的实施例提供一种基于联邦学习的网络数据分析功能的模型训练方法,所述方法包括:
步骤11,获取t时刻数据样本集以及所述数据样本集所对应的时序信息;
步骤12,根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
步骤13,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
本发明的该实施例可以在NWDAF联邦学习参入方的每轮计算仅使用少量客户样本就可以进行模型训练调优,并可以自动获取并更新调整上下文内容等信息,也能实现每轮迭代训练时间都很短的本地特征训练优化的过程。
本发明的一可选的实施例中,t时刻有A(包括及t时刻新生成,t时刻之前已有数据)个数据样本,表示为|Di|=A;
其中,假设S代表所有的NWDAF参入方,Di代表第i个网络数据分析功能NWDAF参入方的数据
Figure BDA0002779728270000081
本发明的一可选的实施例中,步骤12可以包括:
步骤121,反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
步骤122,按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
具体实现时,上下文环境动态感知模块主要完成包括,维护缓存Di t时刻之前的数据样本和样本所对应时序相关信息,获取t时刻数据样本和样本所对应时序相关信息。
上下文环境动态感知模块主要是完成实时感知参入方当前环境等情况,并根据实际需求为元学习模块准备训练所需Task。
1,如果Di在刚加入联邦学习系统,上下文环境动态感知模块反复在Di数据中抽取若干个Task,每个Task包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,一般来说,我们把这NK个训练样本称为支持集(Support Set),把NL个测试样本称为询问集(Query Set)。把这若干个Task(Train Task)表示为
Figure BDA0002779728270000082
用图2所示。
如果NWDAF参入方i是已经加入到NWDAF的联邦系统,i每隔一定时间都会进行一轮的本地训练过程。上下文环境动态感知模块按照时序,从Di中随机选取最新的少数Task(包括N*K支持集,N*L的询问集),可以称之为Test Task,作为定时每轮的训练集,供第二部分的元学习训练模块训练。
本发明的一可选的实施例中,步骤13可以包括:
根据所述训练集,对元学习网络执行第一次的本地化预训练,生成所述元学习网络的模型参数
Figure BDA0002779728270000083
本发明的一可选的实施例中,生成所述元学习网络的模型参数
Figure BDA0002779728270000084
包括:
采样第一步中
Figure BDA0002779728270000085
中的1个训练任务m;
将模型网络的参数φ0赋值给任务m的网络,得到
Figure BDA0002779728270000091
使用任务m的支持集,基于任务m的学习率对
Figure BDA0002779728270000092
进行1次优化,更新
Figure BDA0002779728270000093
基于1次优化后的
Figure BDA0002779728270000094
使用询问集计算任务m的损失函数loss:
Figure BDA0002779728270000095
并计算
Figure BDA0002779728270000096
Figure BDA0002779728270000097
的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
采样1个任务n,将参数φ1赋值给任务n,得到
Figure BDA0002779728270000098
使用任务n的训练数据,基于任务n的学习率αn,对
Figure BDA0002779728270000099
进行一次优化,更新
Figure BDA00027797282700000910
基于1次优化后的
Figure BDA00027797282700000911
使用询问集计算任务n的损失函数loss:
Figure BDA00027797282700000912
并计算
Figure BDA00027797282700000913
上的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
在训练任务
Figure BDA00027797282700000914
上,重复执行上述过程,计算完所有的任务后,得到
Figure BDA00027797282700000915
可选的,基于联邦学习的网络数据分析功能的模型训练方法,还包括:
把NWDAF参入方i传输更新的
Figure BDA00027797282700000916
到NWDAF联邦学习系统中心服务器上;
接收中心服务器执行全局聚合公式
Figure BDA00027797282700000917
得到的全局θt;S代表所有的NWDAF参入方;
根据所述全局θt,抽取去预设数量的数据样本,且时序排列较新的测试任务,把测试任务当作本次的训练的
Figure BDA00027797282700000918
重复得到
Figure BDA00027797282700000919
的过程,得出本轮训练的网络参数。
如图3所示,该方法具体实现时,元学习训练模块实现了一种model-agnostic即模型无关的元学习的框架(以一台中心服务器和一个参入方为例,实际一般为一台中心服务器+多个参入方)。
由于联邦学习通常是最小化以下目标函数:
Figure BDA00027797282700000920
每个参入方在本地生成模型参数
Figure BDA00027797282700000921
后,上传到中心服务器,中心服务器聚合各个参入方模型参数得到
Figure BDA0002779728270000101
作为下一次模型下发内容下发到各个参入方。
当NWDAF的参入方i在刚加入联邦学习系统,启动后开始执行第一次的本地优化预训练流程是:
1,采样第一步中
Figure BDA0002779728270000102
中的1个训练任务m(或者1个batch的几个训练任务)。将模型网络的参数φ0赋值给任务m的网络,得到
Figure BDA0002779728270000103
(初始的
Figure BDA0002779728270000104
)。
2,使用任务m的Support Set,基于任务m的学习率对
Figure BDA0002779728270000105
进行1次优化,更新
Figure BDA0002779728270000106
3,基于1次优化后的
Figure BDA0002779728270000107
使用Query Set计算任务m的损失函数loss:
Figure BDA0002779728270000108
Figure BDA0002779728270000109
并计算
Figure BDA00027797282700001010
Figure BDA00027797282700001011
的梯度。
4,用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
5,采样1个任务n,将参数φ1赋值给任务n,得到
Figure BDA00027797282700001012
(初始的
Figure BDA00027797282700001013
)。
6,然后使用任务n的训练数据,基于任务n的学习率αn,对
Figure BDA00027797282700001014
进行一次优化,更新
Figure BDA00027797282700001015
7,基于1次优化后的
Figure BDA00027797282700001016
使用Query Set计算任务n的损失函数loss:
Figure BDA00027797282700001017
Figure BDA00027797282700001018
并计算
Figure BDA00027797282700001019
上的梯度;
8,用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
9,在训练任务
Figure BDA00027797282700001020
上,重复执行1-8步的过程,计算完所有的Task后,得到
Figure BDA00027797282700001021
10,把NWDAF参入方i传输更新的
Figure BDA00027797282700001022
到NWDAF联邦学习系统中心服务器上。中心服务器然后执行全局聚合公式
Figure BDA00027797282700001023
以实现得到全局的θt
11,NWDAF联邦学习系统中心服务器下发聚合后的θt到各个参入方Di。
当NWDAF参入方i在启动后,每隔一定时间执行本地优化联邦学习学习练流程:
12,各个NWDAF参入方接受到中心服务器广播下发的θt后,上下文环境动态感知模块抽取去很少数据量,且时序排列较新的TestTask,可以把TestTask当作本次的训练的
Figure BDA0002779728270000111
重复前面的1~9步,得出本轮训练的网络参数。
13,此后每轮本地训练计算都只需重复第12步。
因此除了各个NWDAF参入方第一次启动时候需要跟传统的联邦学习一样需要的数据外,随后的每隔一定时间(由联邦学习系统设定)的联邦学习训练过程都只需要很少量的最新数据,这样既可以满足NWDAF联邦学习的架构要求,实现允许用户使用分布在不同位置的多个数据集来训练机器学习模型,同时防止数据泄露遵守严格的数据隐私法,达到了对各个NWDAF参入方上下文信息的个性化,并且由于每轮训练时候需要选择的Task数量很少,所以计算量和成本大大减少,因此可以大大提高了NWDAF联邦学习的性能和效率。
本发明针对现有NWDAF的联邦学习中存在的最终并分发到NWDAF各个联邦的模型没有本地模型个性化的问题,以及如果为了实现本地化所带来的性能和效率的局限性和缺陷,提出了新的通过结合NWDAF的联邦学习,元学习的方法和架构。引入元学习训练模块和上下文环境动态感知模块利用少量数据训练训练调优,不仅能提高每个NWDAF参入方模型的个性化,性能,效率,还能合并各个参入方上下文时序化的信息,适合各个NWDAF参入方的资源和算力都有限的条件和情况。上下文环境动态感知模块的对环境上下文的动态感知,调整,分析,维护等功能架构的设计。基于联邦学习的NWDAF元学习训练模块的设计,功能,架构等。既满足了NWDAF联邦学习的主体架构要求,实现了NWDAF联邦学习的参入方的预测个性化,本地化优化等。也能很好的使用少量NWDAF数据训练调优,以适合各个NWDAF参入方的资源和算力都极其有限的条件和情况,而且基本不影响训练出来的模型效果。
如图4所示,本发明的实施例还提供一种基于联邦学习的网络数据分析功能的模型训练装置40,所述装置包括:
上下文环境动态感知模块41,用于获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
元学习训练模块42,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
可选的,t时刻有A个数据样本,表示为|Di|=A;
其中,Di代表第i个网络数据分析功能NWDAF参入方的数据
Figure BDA0002779728270000121
可选的,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
可选的,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
根据所述训练集,对元学习网络执行第一次的本地化预训练,生成所述元学习网络的模型参数
Figure BDA0002779728270000122
可选的,生成所述元学习网络的模型参数
Figure BDA0002779728270000123
包括:
采样第一步中
Figure BDA0002779728270000124
中的1个训练任务m;
将模型网络的参数φ0赋值给任务m的网络,得到
Figure BDA0002779728270000125
使用任务m的支持集,基于任务m的学习率对
Figure BDA0002779728270000126
进行1次优化,更新
Figure BDA0002779728270000127
基于1次优化后的
Figure BDA0002779728270000128
使用询问集计算任务m的损失函数loss:
Figure BDA0002779728270000129
并计算
Figure BDA00027797282700001210
Figure BDA00027797282700001211
的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
采样1个任务n,将参数φ1赋值给任务n,得到
Figure BDA00027797282700001212
使用任务n的训练数据,基于任务n的学习率αn,对
Figure BDA00027797282700001213
进行一次优化,更新
Figure BDA00027797282700001214
基于1次优化后的
Figure BDA00027797282700001215
使用询问集计算任务n的损失函数loss:
Figure BDA00027797282700001216
并计算
Figure BDA00027797282700001217
上的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
在训练任务
Figure BDA0002779728270000131
上,重复执行上述过程,计算完所有的任务后,得到
Figure BDA0002779728270000132
可选的,基于联邦学习的网络数据分析功能的模型训练装置,还包括:
收发模块,用于把NWDAF参入方i传输更新的
Figure BDA0002779728270000133
到NWDAF联邦学习系统中心服务器上;
接收中心服务器执行全局聚合公式
Figure BDA0002779728270000134
得到的全局θt
根据所述全局θt,抽取去预设数量的数据样本,且时序排列较新的测试任务,把测试任务当作本次的训练的
Figure BDA0002779728270000135
重复得到
Figure BDA0002779728270000136
的过程,得出本轮训练的网络参数。
需要说明的是,该装置是与上述方法实施例对应的装置,上述方法实施例中的所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种处理器可读存储介质,所述处理器可读存储介质存储有处理器可执行指令,所述处理器可执行指令用于使所述处理器执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
此外,需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行,某些步骤可以并行或彼此独立地执行。对本领域的普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用他们的基本编程技能就能实现的。
因此,本发明的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。还需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (13)

1.一种基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,所述方法包括:
获取t时刻数据样本集以及所述数据样本集所对应的时序信息;
根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
2.根据权利要求1所述的基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,
t时刻有A个数据样本,表示为|Di|=A;
其中,Di代表第i个网络数据分析功能NWDAF参入方的数据
Figure FDA0002779728260000011
3.根据权利要求2所述的基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
4.根据权利要求3所述的基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
根据所述训练集,对元学习网络执行第一次的本地化预训练,生成所述元学习网络的模型参数
Figure FDA0002779728260000012
5.根据权利要求4所述的基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,生成所述元学习网络的模型参数
Figure FDA0002779728260000013
包括:
采样第一步中
Figure FDA0002779728260000014
中的1个训练任务m;
将模型网络的参数φ0赋值给任务m的网络,得到
Figure FDA0002779728260000021
使用任务m的支持集,基于任务m的学习率对
Figure FDA0002779728260000022
进行1次优化,更新
Figure FDA0002779728260000023
基于1次优化后的
Figure FDA0002779728260000024
使用询问集计算任务m的损失函数loss:
Figure FDA0002779728260000025
并计算
Figure FDA0002779728260000026
Figure FDA0002779728260000027
的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
采样1个任务n,将参数φ1赋值给任务n,得到
Figure FDA0002779728260000028
使用任务n的训练数据,基于任务n的学习率αn,对
Figure FDA0002779728260000029
进行一次优化,更新
Figure FDA00027797282600000210
基于1次优化后的
Figure FDA00027797282600000211
使用询问集计算任务n的损失函数loss:
Figure FDA00027797282600000212
并计算
Figure FDA00027797282600000213
上的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
在训练任务
Figure FDA00027797282600000214
上,重复执行上述过程,计算完所有的任务后,得到
Figure FDA00027797282600000215
6.根据权利要求5所述的基于联邦学习的网络数据分析功能的模型训练方法,其特征在于,还包括:
把NWDAF参入方i传输更新的
Figure FDA00027797282600000216
到NWDAF联邦学习系统中心服务器上;
接收中心服务器执行全局聚合公式
Figure FDA00027797282600000217
得到的全局θt;S代表所有的NWDAF参入方;
根据所述全局θt,抽取去预设数量的数据样本,且时序排列较新的测试任务,把测试任务当作本次的训练的
Figure FDA00027797282600000218
重复得到
Figure FDA00027797282600000219
的过程,得出本轮训练的网络参数。
7.一种基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,所述装置包括:
上下文环境动态感知模块,用于获取t时刻数据样本集以及所述数据样本集所对应的时序信息;根据所述数据样本集,确定训练集,所述训练集包括至少一个训练任务,所述训练任务包括多个支持集以及多个询问集,所述支持集包括多个数据样本,所述询问集包括多数据样本;
元学习训练模块根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数。
8.根据权利要求7所述的基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,
t时刻有A个数据样本,表示为|Di|=A;
其中,Di代表第i个网络数据分析功能NWDAF参入方的数据
Figure FDA0002779728260000031
9.根据权利要求8所述的基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,根据所述数据样本集,确定训练集,包括:
反复在Di数据中抽取多个任务,每个任务包括N*K个(N*K)的N-ways,K-shot数据样本,N*L个(N*L)的N-ways,L-shot数据样本,其中,NK个训练样本形成支持集,把NL个测试样本形成询问集;
按照时序,从Di中随机选取最新的预设数量的任务,所述任务包括N*K的支持集以及N*L的询问集。
10.根据权利要求9所述的基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,根据所述训练集,对元学习网络进行训练,确定所述元学习网络的参数,包括:
根据所述训练集,对元学习网络执行第一次的本地化预训练,生成所述元学习网络的模型参数
Figure FDA0002779728260000032
11.根据权利要求10所述的基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,生成所述元学习网络的模型参数
Figure FDA0002779728260000033
包括:
采样第一步中
Figure FDA0002779728260000034
中的1个训练任务m;
将模型网络的参数φ0赋值给任务m的网络,得到
Figure FDA0002779728260000035
使用任务m的支持集,基于任务m的学习率对
Figure FDA0002779728260000036
进行1次优化,更新
Figure FDA0002779728260000037
基于1次优化后的
Figure FDA0002779728260000038
使用询问集计算任务m的损失函数loss:
Figure FDA0002779728260000039
并计算
Figure FDA00027797282600000310
Figure FDA00027797282600000311
的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ0,得到φ1
采样1个任务n,将参数φ1赋值给任务n,得到
Figure FDA0002779728260000041
使用任务n的训练数据,基于任务n的学习率αn,对
Figure FDA0002779728260000042
进行一次优化,更新
Figure FDA0002779728260000043
基于1次优化后的
Figure FDA0002779728260000044
使用询问集计算任务n的损失函数loss:
Figure FDA0002779728260000045
并计算
Figure FDA0002779728260000046
上的梯度;
用该梯度,乘以元学习网络的学习率αmeta,更新φ1,得到φ2
在训练任务
Figure FDA0002779728260000047
上,重复执行上述过程,计算完所有的任务后,得到
Figure FDA0002779728260000048
12.根据权利要求11所述的基于联邦学习的网络数据分析功能的模型训练装置,其特征在于,还包括:
收发模块,用于把NWDAF参入方i传输更新的
Figure FDA0002779728260000049
到NWDAF联邦学习系统中心服务器上;
接收中心服务器执行全局聚合公式
Figure FDA00027797282600000410
得到的全局θt
根据所述全局θt,抽取去预设数量的数据样本,且时序排列较新的测试任务,把测试任务当作本次的训练的
Figure FDA00027797282600000411
重复得到
Figure FDA00027797282600000412
的过程,得出本轮训练的网络参数。
13.一种处理器可读存储介质,其特征在于,所述处理器可读存储介质存储有处理器可执行指令,所述处理器可执行指令用于使所述处理器执行权利要求1至6任一项所述的方法。
CN202011277906.XA 2020-11-16 2020-11-16 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 Pending CN114584471A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011277906.XA CN114584471A (zh) 2020-11-16 2020-11-16 一种基于联邦学习的网络数据分析功能的模型训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011277906.XA CN114584471A (zh) 2020-11-16 2020-11-16 一种基于联邦学习的网络数据分析功能的模型训练方法及装置

Publications (1)

Publication Number Publication Date
CN114584471A true CN114584471A (zh) 2022-06-03

Family

ID=81767043

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011277906.XA Pending CN114584471A (zh) 2020-11-16 2020-11-16 一种基于联邦学习的网络数据分析功能的模型训练方法及装置

Country Status (1)

Country Link
CN (1) CN114584471A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115550849A (zh) * 2022-10-08 2022-12-30 广州爱浦路网络技术有限公司 终端设备选择方法、装置、网络设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569288A (zh) * 2019-09-11 2019-12-13 中兴通讯股份有限公司 一种数据分析方法、装置、设备和存储介质
CN111046193A (zh) * 2019-12-27 2020-04-21 南京邮电大学 一种基于元学习的领域知识图谱补全方法
US20200196155A1 (en) * 2018-12-12 2020-06-18 Verizon Patent And Licensing Inc. Utilizing machine learning to provide closed-loop network management of a fifth generation (5g) network
CN111639679A (zh) * 2020-05-09 2020-09-08 西北工业大学 一种基于多尺度度量学习的小样本学习方法
CN111813869A (zh) * 2020-08-21 2020-10-23 支付宝(杭州)信息技术有限公司 一种基于分布式数据的多任务模型训练方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200196155A1 (en) * 2018-12-12 2020-06-18 Verizon Patent And Licensing Inc. Utilizing machine learning to provide closed-loop network management of a fifth generation (5g) network
CN110569288A (zh) * 2019-09-11 2019-12-13 中兴通讯股份有限公司 一种数据分析方法、装置、设备和存储介质
CN111046193A (zh) * 2019-12-27 2020-04-21 南京邮电大学 一种基于元学习的领域知识图谱补全方法
CN111639679A (zh) * 2020-05-09 2020-09-08 西北工业大学 一种基于多尺度度量学习的小样本学习方法
CN111813869A (zh) * 2020-08-21 2020-10-23 支付宝(杭州)信息技术有限公司 一种基于分布式数据的多任务模型训练方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115550849A (zh) * 2022-10-08 2022-12-30 广州爱浦路网络技术有限公司 终端设备选择方法、装置、网络设备及存储介质
CN115550849B (zh) * 2022-10-08 2023-06-06 广州爱浦路网络技术有限公司 终端设备选择方法、装置、网络设备及存储介质

Similar Documents

Publication Publication Date Title
RU2702980C1 (ru) Распределённое обучение моделей машинного обучения для персонализации
Valenzuela et al. Facebook, Twitter, and youth engagement: A quasi-experimental study of social media use and protest behavior using propensity score matching
CN110162717B (zh) 一种推荐好友的方法和设备
US8825701B2 (en) Method and system of management of queries for crowd searching
CN110462604A (zh) 基于设备使用关联互联网设备的数据处理系统和方法
US20220351039A1 (en) Federated learning using heterogeneous model types and architectures
US10474926B1 (en) Generating artificial intelligence image processing services
CN109314722A (zh) 用于测量针对通知的用户可行性或接受能力的方法、装置和机器可读介质
CN110941698A (zh) 一种基于bert下卷积神经网络的服务发现方法
CN111079006A (zh) 一种消息推送方法、装置、电子设备及介质
CN109241268A (zh) 一种相似信息推荐方法、装置、设备及存储介质
CN112948885B (zh) 实现隐私保护的多方协同更新模型的方法、装置及系统
CN110233745A (zh) 管理群消息的方法及装置
CN113222170A (zh) 一种用于物联网ai协同服务平台的智能算法和模型
CN114584471A (zh) 一种基于联邦学习的网络数据分析功能的模型训练方法及装置
CN106649743A (zh) 一种创意分类脑库资源存储与分享方法及系统
CN117236421A (zh) 一种基于联邦知识蒸馏的大模型训练方法
CN112199154A (zh) 一种基于分布式协同采样中心式优化的强化学习训练系统及方法
CN112348197A (zh) 基于联邦学习的模型生成方法及装置
WO2023196456A1 (en) Adaptive wellness collaborative media system
CN109885668A (zh) 一种可扩展的领域人机对话系统状态跟踪方法及设备
GB2589828A (en) Causal reasoning and counterfactual probabilistic programming framework using approximate inference
CN113886674A (zh) 资源推荐方法、装置、电子设备及存储介质
CN112270296A (zh) 一种基于云平台的智慧城市可视化管理系统及方法
CN116701972B (zh) 业务数据处理方法、装置、设备以及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination