CN113435544A - 一种联邦学习系统,方法与装置 - Google Patents

一种联邦学习系统,方法与装置 Download PDF

Info

Publication number
CN113435544A
CN113435544A CN202110838897.5A CN202110838897A CN113435544A CN 113435544 A CN113435544 A CN 113435544A CN 202110838897 A CN202110838897 A CN 202110838897A CN 113435544 A CN113435544 A CN 113435544A
Authority
CN
China
Prior art keywords
learning
model
trained
cdn
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110838897.5A
Other languages
English (en)
Other versions
CN113435544B (zh
Inventor
姚经纬
李书博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202110838897.5A priority Critical patent/CN113435544B/zh
Publication of CN113435544A publication Critical patent/CN113435544A/zh
Application granted granted Critical
Publication of CN113435544B publication Critical patent/CN113435544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本申请提供了一种联邦学习系统,方法与装置。所述系统可以包括多个学习节点,与多个学习节点通信连接的内容分发网络CDN,以及与该CDN通信连接的联邦学习协调器。其中,多个学习节点中的各学习节点,向该CDN发送模型获取请求。该CDN,响应于所述模型获取请求,将存储的待训练模型分发至所述各学习节点。所述各学习节点,响应于接收到的所述待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器。所述联邦学习协调器,响应于接收到所述各学习节点发送的模型,对各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。

Description

一种联邦学习系统,方法与装置
技术领域
本申请一个或多个实施例涉及网络业务风险识别领域,尤其涉及一种联邦学习系统,方法与装置。
背景技术
联邦学习,是一种分布式机器学习技术,目标是在保证数据隐私安全及合法合规的基础上,实现分布式建模,提升人工智能模型的效果。联邦学习任务可能包括多轮分布式训练。其中,在一轮分布式训练的过程中,需要先利用分布式系统中的各学习节点对待训练模型进行训练,然后再聚合各学习节点训练得到的模型完成最终分布式训练。
目前采用的联邦学习系统主要是基于工业级的FATE(Federated AI TechnologyEnabler,联邦人工智能技术使能器)框架或者谷歌的TFF(Tensorflow Federated,张量流联合)框架构建的。
而目前使用的这些框架都具有组网复杂,数据传输效率低,数据占用带宽大等问题。
发明内容
有鉴于此,本申请提出一种联邦学习系统。所述系统可以包括多个学习节点,与所述多个学习节点通信连接的内容分发网络CDN,以及与所述CDN通信连接的联邦学习协调器。其中,所述多个学习节点中的各学习节点,向所述CDN发送模型获取请求;所述CDN,响应于所述模型获取请求,将存储的待训练模型分发至所述各学习节点;所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器;所述联邦学习协调器,响应于接收到所述各学习节点发送的模型,对各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在一些实施例中,所述系统还包括与所述多个学习节点和所述联邦学习协调器均通信连接的模型存储服务端;所述各学习节点,将本地训练后的模型发送至所述模型存储服务端进行存储;所述模型存储服务端,响应于所述联邦学习协调器发起的模型获取请求,将各学习节点发送的模型发送至所述联邦学习协调器。
在一些实施例中,所述系统还包括与所述多个学习节点,所述联邦学习协调器和所述CDN均通信连接的参数服务端;所述联邦学习协调器,响应于发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,将所述待训练模型发送至所述CDN。
在一些实施例中,所述各学习节点,根据自身运行状态,确定是否满足联邦学习的参与条件,并在满足所述参与条件的情形下,向所述参数服务端发起联邦学习参与请求;所述参数服务端,响应于接收到联邦学习参与请求,对发起该请求的学习节点进行接入验证,并在所述学习节点通过所述接入验证的情形下,允许所述学习节点参与联邦学习。
在一些实施例中,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;所述联邦学习协调器,响应于在一轮分布式训练中,完成调整所述待训练模型的参数的情形下,更新维护的迭代次数,并响应于更新后的迭代次数达到预设次数,将调整完成的模型输出作为最终训练模型。
在一些实施例中,所述联邦学习协调器,响应于更新后的迭代次数未达到所述预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过所述接入验证,将所述存储地址发送至所述学习节点;所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求以获取下一轮分布式训练使用的待训练模型。
在一些实施例中,所述联邦学习协调器,响应于接收到所述各学习节点发送的模型的数量达到预设阈值,对接收的各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在一些实施例中,所述学习节点包括边缘设备。
本申请还提出一种联邦学习方法,应用于内容分发网络CDN中的任一节点设备,所述CDN网络与多个用于进行联邦学习的学习节点以及联邦学习协调器通信连接;所述方法包括:响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,以使所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器,进行参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在一些实施例中,所述CDN与参数服务端通信连接;所述参数服务端还与所述多个学习节点和所述联邦学习协调器通信连接;所述联邦学习协调器,响应于发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,用于将所述待训练模型发送至所述CDN;所述方法还包括:接收所述参数服务端发送的所述待训练模型。
在一些实施例中,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;所述联邦学习协调器,响应于更新后的迭代次数未达到预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过接入验证,将所述存储地址发送至所述学习节点,以使所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求;所述响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,包括:响应于接收到所述模型获取请求,将与所述模型获取请求包括的存储地址对应的下一轮分布式训练使用的待训练模型发送至所述学习节点。
本申请还提出一种联邦学习装置,应用于内容分发网络CDN中的任一节点设备,所述CDN网络与多个用于进行联邦学习的学习节点以及联邦学习协调器通信连接;所述装置包括:分发模块,响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,以使所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器,进行参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在一些实施例中,所述CDN与参数服务端通信连接;所述参数服务端还与所述多个学习节点和所述联邦学习协调器通信连接;所述联邦学习协调器,响应于用户发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,用于将所述待训练模型发送至所述CDN;所述装置还包括:接收模块,接收所述参数服务端发送的所述待训练模型。
在一些实施例中,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;所述联邦学习协调器,响应于更新后的迭代次数未达到预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过接入验证,将所述存储地址发送至所述学习节点,以使所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求;所述分发模块具体用于:响应于接收到所述模型获取请求,将与所述模型获取请求包括的存储地址对应的下一轮分布式训练使用的待训练模型发送至所述学习节点。
在前述方案中,通过将CDN(内容分发服务网络)与联邦学习系统结合,利用CDN分发待训练模型,从而可以利用CDN高速,低成本的特性,一方面提升在联邦学习过程中传输模型的效率,进而提升联邦学习效率;另一方面,可以减少传输模型占用的带宽。还一方面,采用的服务侧与学习节点(客户端侧)结构,简化了联邦学习系统组网结构,可以方便地,低成本地对学习节点进行水平扩展。
另外,还可以通过CDN和模型存储服务端分别负责向节点发送模型,和接收节点发送的模型,可以使向节点发送待训练模型,和接收节点训练后的模型的过程实现异步,相互不冲突,提升数据吞吐,提升联邦学习效率。
附图说明
图1为本申请示出的一种联邦学习系统结构示意图;
图2为本申请示出的一种联邦学习系统内部单元交互示意图;
图3为本申请示出的一种联邦学习系统结构示意图;
图4为为申请示出的一种联邦学习系统内部单元交互示意图;
图5为本申请示出的一种联邦学习系统结构示意图;
图6为为申请示出的一种联邦学习系统内部单元交互示意图;
图7为为申请示出的一种联邦学习系统内部单元交互示意图;
图8为本申请示出的一种服务侧内部单元交互示意图;
图9为本申请示出的一种学习节点与服务侧之间的交互示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施例并不代表与本申请一个或多个实施例相一致的所有实施例。相反,它们仅是与如所附权利要求书中所详述的、本申请一个或多个实施例的一些方面相一致的装置和方法的例子。
需要说明的是:在其他实施例中并不一定按照本申请示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本申请所描述的更多或更少。此外,本申请中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本申请中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
有鉴于此,本申请提供了一种联邦学习系统(以下简称系统)。该方法通过将CDN(内容分发服务网络)与联邦学习系统结合,利用CDN分发待训练模型,从而可以利用CDN高速,低成本的特性,一方面提升在联邦学习过程中传输模型的效率,进而提升联邦学习效率;另一方面,可以减少传输模型占用的带宽。还一方面,采用的服务侧与学习节点(客户端侧)结构,简化了联邦学习系统组网结构,可以方便地,低成本地对学习节点进行水平扩展。
请参见图1,图1为本申请示出的一种联邦学习系统结构示意图。图1仅为示意性图例,不对联邦学习系统结构造成特别限定。
如图1所示,所述系统可以包括服务侧110,与学习节点101,102,103等。所述学习节点101-103中可以利用训练样本集对接收的神经网络进行训练。所述学习节点的设备类型可以是笔记本电脑,计算机,服务器,手机,PAD终端等。本申请不对学习节点的设备类型进行特别限定。在一些实施例中,所述学习节点可以作为边缘设备接入所述系统。所述学习节点可以承担大量的联邦学习任务。由此一方面可以简化服务测的运算压力,另一方面可以减轻组网复杂度,便于进行学习节点数量的扩展。
所述服务侧110,可以服务于联邦学习。比如,所述服务侧110可以为学习节点提供待训练的模型,以及聚合各学习节点训练后的模型等。所述服务侧110可以包括联邦学习协调器111,以及CDN(Content Delivery Network,内容分发网络)112。根据业务需要,所述服务侧包括的各单元之间可以相互进行通信,所述各单元也可以与各学习节点进行数据交互。
其中,所述联邦学习协调器111,可以是任意类型的电子设备。该协调器可以作为联邦学习系统的单元之一,负责联邦学习的总管,控制学习节奏。
所述CDN112,是构建在现有网络基础之上的智能虚拟网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。CDN的关键技术主要有内容存储和分发技术。本申请不对CDN的具体结构和CDN内服务器的设备类型进行限定。
在一些实施例中,所述CDN中可以存储了待训练模型。在一些实施例中,CDN中存储的待训练模型,可以是联邦学习协调器在接收到联邦学习任务后,对该任务进行解析获取到的待训练模型。需要说明的是,本申请指的模型包括模型的全部组成成分。例如,模型超参数,需要训练的模型参数等等。
请参见图2,图2为本申请示出的一种联邦学习系统内部单元交互示意图。
如图2所示,所述系统的各学习节点,可以执行S202,向所述CDN发送模型获取请求。
在一些实施例中,当所述各学习节点中的任一学习节点判断自身当前为空闲状态时,可以通过预先约定的通信格式,打包模型获取请求,发送至CDN。
所述CDN,可以执行S204,响应于所述模型获取请求,将存储的待训练模型分发至所述各学习节点。在一些实施例中,所述CDN可以将存储的待训练模型,发送至发起模型获取请求的学习节点。由于利用CDN网络进行待训练模型的下发,可以利用CDN网络分发效率高,低成本的特性,提升模型传输效率,减少对系统带宽的占用。
接收到待训练模型的学习节点,可以执行S206,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型。在一些实施例中,所述学习节点可以利用本地存储的训练样本和损失函数,对待训练模型进行一轮或多轮训练,得到训练后的模型。
然后,所述学习节点可以执行S208,将本地训练后的模型发送至所述联邦学习协调器。
所述联邦学习协调器可以执行S210,响应于接收到所述各学习节点发送的模型,对各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。在一些实施例中,所述联邦学习协调器(以下简称协调器)中可以部署聚合算法(例如,FederatedAveraging(联邦平均)算法,Secure Muti-party Computation(安全多方计算)算法)。所述协调器可以不断的接收学习节点发送的模型,响应于接收到所述各学习节点发送的模型的数量达到预设阈值(根据经验设定的数值),对接收的各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在前述系统中,CDN可以响应于所述模型获取请求,将所述待训练模型分发至所述各学习节点,从而可以利用CDN高速,低成本的特性,一方面提升各节点在联邦学习过程中传输模型的效率,进而提升联邦学习效率;另一方面,可以减少传输模型占用的带宽。还一方面,采用的服务侧与学习节点(客户端侧)结构,简化了联邦学习系统组网结构,可以方便地,低成本地对学习节点进行水平扩展。
在一些实施例中,所述系统执行的联邦学习任务可以包括多轮分布式训练。此时可以在所述协调器中可以维护学习任务对应的迭代次数。
所述协调器,可以响应于完成调整所述待训练模型的参数,更新迭代次数,并将更新后的迭代次数与调整完成的模型发送给CDN,等待学习节点发起模型请求进行下一轮的训练。所述协调器还可以在完成模型调整后,确定迭代次数是否达到预设次数(可以是预先指定的超参数),如果达到,则可以将当前完成调整的模型作为最终训练完成的模型进行输出。
请参见图3,图3为本申请示出的一种联邦学习系统结构示意图。图3仅为示意性图例,不对联邦学习系统结构造成特别限定。
如图3所示,所述系统可以包括服务侧310,与学习节点301,302,303等。对学习节点的说明可以参照前述实施例,在此不作详述。
所述服务侧310除了包括协调器311,CDN312外,还包括与多个学习节点和所述联邦学习协调器311均通信连接的模型存储服务端313。根据业务需要,所述服务侧包括的各单元之间可以相互进行通信,所述各单元也可以与各学习节点进行数据交互。
所述模型存储服务端313,可以面向学习节点提供模型存储服务。学习节点可以将本地训练得到的模型通过模型存储服务端进行模型存储。所述存储服务端313可以由单个服务器,多个服务器构成的服务器机器,或云服务端构成。在一些实施例中,所述模型存储服务端可以采用与CDN结构类似的存储网络。
请参见图4,图4为为申请示出的一种联邦学习系统内部单元交互示意图。
如图4所示,系统内部各单元执行S202-S210的步骤,完成模型训练。本例不对S202-S206,以及S210的步骤进行详细说明。
其中,所述各学习节点在执行S208时,可以执行S302,将本地训练后的模型发送至所述模型存储服务端进行存储。然后所述模型存储服务端可以执行S304,响应于所述联邦学习协调器发起的模型获取请求,将各学习节点发送的模型发送至所述联邦学习协调器。在一些实施例中,所述协调器可以采用消息订阅的方式或定期发送获取请求的形式,与模型存储服务端进行交互,获取该网络中存储的模型。
由此,可以通过模型存储服务专门负责存储各学习节点上传的模型,一方面,可以提升在联邦学习过程中传输模型的效率,进而提升联邦学习效率;另一方面,可以减少传输模型占用的带宽,还一方面,可以通过CDN和模型存储服务端分别负责向节点发送模型,和接收节点发送的模型,简化了系统组网方式,可以低成本对学习节点进行水平拓展,提升系统运算效率,以及可以使向节点发送待训练模型,和接收节点训练后的模型的过程实现异步,相互不冲突,提升数据吞吐,提升联邦学习效率。
请参见图5,图5为本申请示出的一种联邦学习系统结构示意图。图5仅为示意性图例,不对联邦学习系统结构造成特别限定。
如图5所示,所述系统可以包括服务侧510,与学习节点501,502,503等。对学习节点的说明可以参照前述实施例,在此不作详述。
所述服务侧510除了包括协调器511,CDN512,模型存储服务端513之外,还包括所述多个学习节点,所述联邦学习协调器和所述CDN均通信连接的参数服务端514。根据业务需要,所述服务侧包括的各单元之间可以相互进行通信,所述各单元也可以与各学习节点进行数据交互。
所述参数服务端514,可以作为协调器511与CDN之间的桥梁,存储并传输待训练模型参数。所述参数服务端514可以由单个服务器,多个服务器构成的服务器机器,或云服务端构成。
请参见图6,图6为为申请示出的一种联邦学习系统内部单元交互示意图。
如图6所示,系统内部各单元执行S202-S210的步骤,完成模型训练。本例不对S202-S210的步骤进行详细说明。其中,S208可以包括前述S302-S304。
在执行S202之前,协调器需要将待训练模型存储至CDN。
具体地,所述联邦学习协调器511,可以执行S601,响应于发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储。
在一些实施例中,用户可以发起联邦学习任务。该任务中包括需要训练的待训练模型。协调器511在接收到该任务的情形下,可以获取该任务中包括的待训练模型,然后将待训练模型的模型参数(包括超参数,与模型参数)发送至参数服务端进行存储。
所述参数服务端514,可以执行S602,将所述待训练模型发送至所述CDN。在一些实施例中,参数服务端可以通过消息订阅机制,将CDN订阅的待训练模型推送至CDN。可以理解的是,向CDN推送模型的方式有很多,本申请不一一列举。
由此,通过参数服务端存储并传输待训练模型参数,可以缓解联邦学习协调器的工作压力,提升联邦学习效率。
在一些实施例中,学习节点可以根据自身运行状态确定是否参与联邦学习。
请参见图7,图7为为申请示出的一种联邦学习系统内部单元交互示意图。
如图7所示,系统内部各单元执行S202-S210的步骤,完成模型训练。本例不对S204-S210的步骤进行详细说明。其中,S208可以包括前述S302-S304。S202之前可以包括S601-S602。
在执行S202之前,学习节点需要获取参与联邦学习的批准。由此可以实现保证满足条件的学习节点介入联邦学习,保证联邦学习可以正常进行。
在执行S202之前还可以执行S701,根据自身运行状态,确定是否满足联邦学习的参与条件,并在满足所述参与条件的情形下,向所述参数服务端发起联邦学习参与请求。
所述参与条件可以根据业务需求进行设定。例如,所述参与条件可以包括,设备电池电量达到阈值或处于充电状态,网络状况良好,设备当前处于空闲状态。在此不一一列举。
具体地,所述学习节点可以周期性监控自身运行状态,并确定当前运行状态是否满足预设的参与条件,如果满足,则可以打包联邦学习参与请求向所述参数服务端发送。
所述参数服务端,可以执行S702,响应于接收到联邦学习参与请求,对发起该请求的学习节点进行接入验证,并在所述学习节点通过所述接入验证的情形下,允许所述学习节点参与联邦学习。
所述接入验证可以根据业务需求进行提前设定。在一些实施例中,所述接入验证可以包括以下至少一项:身份验证;数据量验证;运行状态验证;参与频次验证。
所述身份验证,可以是指基于学习节点的IP地址,设备ID等唯一编号,与维护的身份列表进行匹配,从而确定学习节点的身份。如果学习节点的身份在列表中,可以确定通过接入验证。
所述数据量验证,可以是指基于学习节点的设备型号等信息,确定学习节点的数据吞吐量,存储量,以及运算量是否满足联邦学习要求,如果满足,则可以确定通过接入验证。
所述运行状态验证,可以是指基于预设的设备运行状态确定方法,确定学习节点的运行状态,如果确定学习节点为空闲状态,则确定通过接入验证。所述状态确定方法可以包括心跳检测法,或者根据联邦学习参与请求包括的设备工作状态标识确定状态的方法。
所述参与频次验证,可以是指对学习节点的参与模型训练次数进行验证。在一些实施例中,联邦学习任务需要对待训练模型进行多轮分布式训练,其中,每一轮分布式训练过程中,各学习节点参与模型训练的次数只能是预设次数(经验阈值,例如可以是1)。此时,可以通过参与频次验证,来限制学习节点在每一轮训练中的参与频次。
在通过接入验证后,所述参数服务端可以将待训练模型在CDN中对于的存储地址发送至学习节点以运行所述学习节点参与模型训练。
所述学习节点在获取到存储地址后,在执行S202时,可以将存储地址打包至模型获取请求中,使得CDN利用基于存储地址将待训练模型发送至学习节点。
由此,通过对学习节点进行接入验证的机制,可以确保联邦学习顺利进行,提升联邦学习稳定性。
在一些实施例中,所述系统执行的联邦学习任务可以包括多轮分布式训练。此时可以在所述协调器中可以维护学习任务对应的迭代次数。
所述联邦学习协调器,可以响应于在一轮分布式训练中,完成调整所述待训练模型的参数的情形下,更新维护的迭代次数,并响应于更新后的迭代次数达到预设次数,将调整完成的模型输出作为最终训练模型。由此可以通过联邦学习协调器完成对联邦学习的控制。
在一些实施例中,所述联邦学习协调器,可以响应于更新后的迭代次数未达到所述预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储。
具体地,协调器如果发现更新后的迭代次数未达到预设次数,则可以说明仍需继续进行分布式训练。协调器可以将当前轮分布式训练中调整完成的模型作为下一轮分布式训练使用的待训练模型,发送给参数服务端。在一些实施例中,协调器也可以将更新后的迭代次数发送给参数服务端,供其参考。
所述参数服务端可以将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过所述接入验证,将所述存储地址发送至所述学习节点。
所述学习节点可以响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求以获取下一轮分布式训练使用的待训练模型。
学习节点在接收到待训练模型后,则可以进行本地训练,并将训练得到的模型发送至模型存储服务端。协调器可以从模型存储服务端获取到各学习节点上传的模型,并进行聚合完成下一轮的分布式训练。
由此一方面,可以通过协调器管控多轮分布式训练的正常进行;另一方面,可以通过参数服务端向学习节点发送与下一轮分布式训练使用的待训练模型的对应的存储地址,可以使学习节点正确地获取到下一轮分布式训练使用的待训练模型。
以下结合图5示出的联邦学习系统进行实施例说明。
本例中使用图5示出的联邦学习系统执行联邦学习任务。其中,联邦学习任务包括对初始模型进行多轮分布式训练,得到最终模型。
所述系统可以包括服务侧510,与多个学习节点。所述学习节点可以是边缘设备。以下将联邦学习任务分为服务侧内部单元交互,与学习节点和服务侧单元交互两部分进行说明。
请参见图8,图8为本申请示出的一种服务侧内部单元交互示意图。
如图8所示,用户可以执行S801,将发起联邦学习任务,并将该任务发送至协调器。
协调器可以执行S802,获取该任务中包括的初始模型和训练次数等信息,然后将维护的迭代次数置为初始值(初始值可以是0)后,将初始模型作为第一轮分布式训练使用的待训练模型,发送给参数服务端。
所述参数服务端可以执行S803,保存待训练模型的参数,并将待训练模型推送至CDN,以及获取CDN返回的与待训练模型对应的存储地址。
请参见图9,图9为本申请示出的一种学习节点与服务侧之间的交互示意图。
如图9所示,学习节点可以执行S901,在满足于自身空闲,充电状态的条件下,向参数服务端申请参与联邦学习。
所述参数服务端可以执行S902,对学习节点进行身份验证和运行状态验证等接入验证,并在通过验证的情形下,将与本轮分布式训练使用的待训练模型所对应的CDN存储地址发送至学习节点。
所述学习节点可以执行S903,根据获取的存储地址,向CDN发起模型获取请求。
CND可以执行S904,响应于接收的模型获取请求,向该学习节点返回待训练模型。
所述学习节点可以执行S905,根据本地存储的数据(例如,训练样本等数据),对待训练模型进行训练,得到训练后的模型。然后可以将训练后的模型发送至模型存储服务端进行模型存储。
请继续参加图8。图8中,协调器完成S802后,可以执行S804,周期性向模型存储服务端获取存储的模型。
所述模型存储服务端可以执行S805,返回存储的模型。
协调器可以执行S806,确定接收的模型数量是否达到预设阈值(例如,20)。如果达到,可以执行S807,根据预设的聚合算法,对接收的模型的参数进行聚合,并完成对待训练模型的调整,得到调整后的模型。如果接收的模型数量未达到预设阈值,可以继续执行S804。
完成待训练模型的调整后,协调器可以各更新维护的迭代次数,并执行S808,判断更新后的迭代次数是否达到任务中设定的训练次数。如果达到,可以向用户输出调整后的模型,完成联邦学习任务。如果更新后的迭代次数未达到所述训练次数,可以将调整后的模型作为下一轮分布式训练所需的待训练模型发送至参数服务端,使得按照S803-S808继续执行下一轮分布式训练,直到维护的迭代次数达到所述训练次数。
在本例示出的系统中,一方面,可以通过CDN和模型存储服务端分别负责向节点发送模型,和接收节点发送的模型,可以使向节点发送待训练模型,和接收节点训练后的模型的过程实现异步,相互不冲突,提升数据吞吐,提升联邦学习效率。
另一方面,采用的服务侧与学习节点(客户端侧)结构,简化了联邦学习系统组网结构,可以方便地,低成本地对学习节点进行水平扩展。
本申请还提出一种联邦学习方法,应用于内容分发网络CDN中的任一节点设备。所述CDN网络与多个用于进行联邦学习的学习节点以及联邦学习协调器通信连接。
所述方法可以包括:响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,以使所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器,进行参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在所述方案中,CDN可以响应于所述模型获取请求,将所述待训练模型分发至所述各学习节点,从而可以利用CDN高速,低成本的特性,一方面提升各节点在联邦学习过程中传输模型的效率,进而提升联邦学习效率;另一方面,可以减少传输模型占用的带宽。还一方面,采用的服务侧与学习节点(客户端侧)结构,简化了联邦学习系统组网结构,可以方便地,低成本地对学习节点进行水平扩展。
在一些实施例中,所述CDN与参数服务端通信连接;所述参数服务端还与所述多个学习节点和所述联邦学习协调器通信连接;所述联邦学习协调器,响应于用户发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,用于将所述待训练模型发送至所述CDN;所述方法还包括:接收所述参数服务端发送的所述待训练模型。
在一些实施例中,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;所述联邦学习协调器,响应于更新后的迭代次数未达到预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过接入验证,将所述存储地址发送至所述学习节点,以使所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求;所述响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,包括:响应于接收到所述模型获取请求,将与所述模型获取请求包括的存储地址对应的下一轮分布式训练使用的待训练模型发送至所述学习节点。
与前述实施例相应的,本申请提出一种联邦学习装置。所述装置应用于内容分发网络CDN中的任一节点设备,所述CDN网络与多个用于进行联邦学习的学习节点以及联邦学习协调器通信连接。
所述装置可以包括:
分发模块,响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,以使所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器,进行参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
在一些实施例中,所述CDN与参数服务端通信连接;所述参数服务端还与所述多个学习节点和所述联邦学习协调器通信连接;所述联邦学习协调器,响应于用户发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,用于将所述待训练模型发送至所述CDN;
所述装置还包括:
接收模块,接收所述参数服务端发送的所述待训练模型。
在一些实施例中,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;
所述联邦学习协调器,响应于更新后的迭代次数未达到预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过接入验证,将所述存储地址发送至所述学习节点,以使所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求;
所述分发模块具体用于:
响应于接收到所述模型获取请求,将与所述模型获取请求包括的存储地址对应的下一轮分布式训练使用的待训练模型发送至所述学习节点。
本领域技术人员应明白,本申请一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本申请一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(可以包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请中记载的“和/或”表示至少具有两者中的其中一个,例如,“A和/或B”包括三种方案:A、B、以及“A和B”。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于数据处理设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
所述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的行为或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本申请中描述的主题及功能操作的实施例可以在以下中实现:数字电子电路、有形体现的计算机软件或固件、包括本申请中公开的结构及其结构性等同物的计算机硬件、或者它们中的一个或多个的组合。本申请中描述的主题的实施例可以实现为一个或多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或控制数据处理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。
本申请中描述的处理及逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过根据输入数据进行操作并生成输出来执行相应的功能。所述处理及逻辑流程还可以由专用逻辑电路—例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)来执行,并且装置也可以实现为专用逻辑电路。
适合用于执行计算机程序的计算机包括,例如通用和/或专用微处理器,或任何其他类型的中央处理系统。通常,中央处理系统将从只读存储器和/或随机存取存储器接收指令和数据。计算机的基本组件包括用于实施或执行指令的中央处理系统以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存驱动器的便携式存储设备,仅举几例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、媒介和存储器设备,例如包括半导体存储器设备(例如EPROM、EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘以及0xCD_00ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入专用逻辑电路中。
虽然本申请包含许多具体实施细节,但是这些不应被解释为限制任何公开的范围或所要求保护的范围,而是主要用于描述特定公开的具体实施例的特征。本申请内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,所述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
以上仅为本申请一个或多个实施例的较佳实施例而已,并不用以限制本申请一个或多个实施例,凡在本申请一个或多个实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请一个或多个实施例保护的范围之内。

Claims (14)

1.一种联邦学习系统,包括多个学习节点,与所述多个学习节点通信连接的内容分发网络CDN,以及与所述CDN通信连接的联邦学习协调器;
其中,所述多个学习节点中的各学习节点,向所述CDN发送模型获取请求;
所述CDN,响应于所述模型获取请求,将存储的待训练模型分发至所述各学习节点;
所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器;
所述联邦学习协调器,响应于接收到所述各学习节点发送的模型,对各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
2.根据权利要求1所述的系统,还包括与所述多个学习节点和所述联邦学习协调器均通信连接的模型存储服务端;
所述各学习节点,将本地训练后的模型发送至所述模型存储服务端进行存储;
所述模型存储服务端,响应于所述联邦学习协调器发起的模型获取请求,将各学习节点发送的模型发送至所述联邦学习协调器。
3.根据权利要求2所述的系统,还包括与所述多个学习节点,所述联邦学习协调器和所述CDN均通信连接的参数服务端;
所述联邦学习协调器,响应于发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;
所述参数服务端,将所述待训练模型发送至所述CDN。
4.根据权利要求3所述的系统,所述各学习节点,根据自身运行状态,确定是否满足联邦学习的参与条件,并在满足所述参与条件的情形下,向所述参数服务端发起联邦学习参与请求;
所述参数服务端,响应于接收到联邦学习参与请求,对发起该请求的学习节点进行接入验证,并在所述学习节点通过所述接入验证的情形下,允许所述学习节点参与联邦学习。
5.根据权利要求4所述的系统,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;
所述联邦学习协调器,响应于在一轮分布式训练中,完成调整所述待训练模型的参数的情形下,更新维护的迭代次数,并响应于更新后的迭代次数达到预设次数,将调整完成的模型输出作为最终训练模型。
6.根据权利要求5所述的系统,所述联邦学习协调器,响应于更新后的迭代次数未达到所述预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;
所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过所述接入验证,将所述存储地址发送至所述学习节点;
所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求以获取下一轮分布式训练使用的待训练模型。
7.根据权利要求1所述的系统,所述联邦学习协调器,响应于接收到所述各学习节点发送的模型的数量达到预设阈值,对接收的各模型的参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
8.根据权利要求1所述的系统,所述学习节点包括边缘设备。
9.一种联邦学习方法,应用于内容分发网络CDN中的任一节点设备,所述CDN网络与多个用于进行联邦学习的学习节点以及联邦学习协调器通信连接;
所述方法包括:
响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,以使所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器,进行参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
10.根据权利要求9所述的方法,所述CDN与参数服务端通信连接;所述参数服务端还与所述多个学习节点和所述联邦学习协调器通信连接;所述联邦学习协调器,响应于发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,用于将所述待训练模型发送至所述CDN;
所述方法还包括:
接收所述参数服务端发送的所述待训练模型。
11.根据权利要求10所述的方法,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;
所述联邦学习协调器,响应于更新后的迭代次数未达到预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过接入验证,将所述存储地址发送至所述学习节点,以使所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求;
所述响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,包括:
响应于接收到所述模型获取请求,将与所述模型获取请求包括的存储地址对应的下一轮分布式训练使用的待训练模型发送至所述学习节点。
12.一种联邦学习装置,应用于内容分发网络CDN中的任一节点设备,所述CDN网络与多个用于进行联邦学习的学习节点以及联邦学习协调器通信连接;
所述装置包括:
分发模块,响应于所述多个学习节点中的各学习节点发送的模型获取请求,将存储的待训练模型分发至所述各学习节点,以使所述各学习节点,响应于接收到的所述CDN分发的待训练模型,根据本地数据对所述待训练模型进行本地训练,得到本地训练后的模型,并将本地训练后的模型发送至所述联邦学习协调器,进行参数进行聚合,得到聚合模型参数,并根据所述聚合模型参数调整所述待训练模型的参数。
13.根据权利要求12所述的装置,所述CDN与参数服务端通信连接;所述参数服务端还与所述多个学习节点和所述联邦学习协调器通信连接;所述联邦学习协调器,响应于用户发起的联邦学习请求,将所述联邦学习请求包括的待训练模型的模型参数发送至所述参数服务端进行存储;所述参数服务端,用于将所述待训练模型发送至所述CDN;
所述装置还包括:
接收模块,接收所述参数服务端发送的所述待训练模型。
14.根据权利要求13所述的装置,所述联邦学习包括多轮分布式训练;所述联邦学习协调器包括分布式训练的迭代次数;
所述联邦学习协调器,响应于更新后的迭代次数未达到预设次数,将调整完成的模型作为下一轮分布式训练使用的待训练模型,发送至所述参数服务端进行存储;所述参数服务端,将所述下一轮分布式训练使用的待训练模型发送至所述CDN,并获取所述CDN返回的存储地址;以及,响应于所述学习节点通过接入验证,将所述存储地址发送至所述学习节点,以使所述学习节点,响应于接收到所述存储地址,基于所述存储地址向所述CDN发送模型获取请求;
所述分发模块具体用于:
响应于接收到所述模型获取请求,将与所述模型获取请求包括的存储地址对应的下一轮分布式训练使用的待训练模型发送至所述学习节点。
CN202110838897.5A 2021-07-23 2021-07-23 一种联邦学习系统,方法与装置 Active CN113435544B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110838897.5A CN113435544B (zh) 2021-07-23 2021-07-23 一种联邦学习系统,方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110838897.5A CN113435544B (zh) 2021-07-23 2021-07-23 一种联邦学习系统,方法与装置

Publications (2)

Publication Number Publication Date
CN113435544A true CN113435544A (zh) 2021-09-24
CN113435544B CN113435544B (zh) 2022-05-17

Family

ID=77761689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110838897.5A Active CN113435544B (zh) 2021-07-23 2021-07-23 一种联邦学习系统,方法与装置

Country Status (1)

Country Link
CN (1) CN113435544B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114118447A (zh) * 2021-12-15 2022-03-01 湖南红普创新科技发展有限公司 新型联邦学习系统、方法、装置、计算机设备及存储介质
CN114584581A (zh) * 2022-01-29 2022-06-03 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN114666274A (zh) * 2022-03-17 2022-06-24 广州广电运通金融电子股份有限公司 异步模式训练的联邦学习方法、设备、系统及可读介质
CN115550849A (zh) * 2022-10-08 2022-12-30 广州爱浦路网络技术有限公司 终端设备选择方法、装置、网络设备及存储介质
CN115563499A (zh) * 2021-12-02 2023-01-03 华为技术有限公司 训练模型的方法和装置、系统以及计算节点
WO2023207980A1 (zh) * 2022-04-29 2023-11-02 维沃移动通信有限公司 模型信息获取方法、发送方法、装置、节点和储存介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728375A (zh) * 2019-10-16 2020-01-24 支付宝(杭州)信息技术有限公司 多个计算单元联合训练逻辑回归模型的方法和装置
CN110929880A (zh) * 2019-11-12 2020-03-27 深圳前海微众银行股份有限公司 一种联邦学习方法、装置及计算机可读存储介质
CN111507481A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 一种联邦学习系统
CN112329073A (zh) * 2021-01-05 2021-02-05 腾讯科技(深圳)有限公司 分布式数据处理方法、装置、计算机设备及存储介质
CN112631605A (zh) * 2020-12-31 2021-04-09 深圳前海微众银行股份有限公司 联邦学习模型的代码编译方法、装置、设备及存储介质
CN112862011A (zh) * 2021-03-31 2021-05-28 中国工商银行股份有限公司 基于联邦学习的模型训练方法、装置及联邦学习系统
US20210174257A1 (en) * 2019-12-04 2021-06-10 Cerebri AI Inc. Federated machine-Learning platform leveraging engineered features based on statistical tests

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728375A (zh) * 2019-10-16 2020-01-24 支付宝(杭州)信息技术有限公司 多个计算单元联合训练逻辑回归模型的方法和装置
CN110929880A (zh) * 2019-11-12 2020-03-27 深圳前海微众银行股份有限公司 一种联邦学习方法、装置及计算机可读存储介质
US20210174257A1 (en) * 2019-12-04 2021-06-10 Cerebri AI Inc. Federated machine-Learning platform leveraging engineered features based on statistical tests
CN111507481A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 一种联邦学习系统
CN112631605A (zh) * 2020-12-31 2021-04-09 深圳前海微众银行股份有限公司 联邦学习模型的代码编译方法、装置、设备及存储介质
CN112329073A (zh) * 2021-01-05 2021-02-05 腾讯科技(深圳)有限公司 分布式数据处理方法、装置、计算机设备及存储介质
CN112862011A (zh) * 2021-03-31 2021-05-28 中国工商银行股份有限公司 基于联邦学习的模型训练方法、装置及联邦学习系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115563499A (zh) * 2021-12-02 2023-01-03 华为技术有限公司 训练模型的方法和装置、系统以及计算节点
CN114118447A (zh) * 2021-12-15 2022-03-01 湖南红普创新科技发展有限公司 新型联邦学习系统、方法、装置、计算机设备及存储介质
CN114584581A (zh) * 2022-01-29 2022-06-03 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN114584581B (zh) * 2022-01-29 2024-01-09 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN114666274A (zh) * 2022-03-17 2022-06-24 广州广电运通金融电子股份有限公司 异步模式训练的联邦学习方法、设备、系统及可读介质
WO2023207980A1 (zh) * 2022-04-29 2023-11-02 维沃移动通信有限公司 模型信息获取方法、发送方法、装置、节点和储存介质
CN115550849A (zh) * 2022-10-08 2022-12-30 广州爱浦路网络技术有限公司 终端设备选择方法、装置、网络设备及存储介质
CN115550849B (zh) * 2022-10-08 2023-06-06 广州爱浦路网络技术有限公司 终端设备选择方法、装置、网络设备及存储介质

Also Published As

Publication number Publication date
CN113435544B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN113435544B (zh) 一种联邦学习系统,方法与装置
Long et al. Edge computing framework for cooperative video processing in multimedia IoT systems
CN106549878B (zh) 一种业务分流方法和装置
Phan et al. Dynamic fog-to-fog offloading in SDN-based fog computing systems
Jiau et al. Multimedia services in cloud-based vehicular networks
CN110417558A (zh) 签名的验证方法和装置、存储介质及电子装置
Asheralieva et al. Reputation-based coalition formation for secure self-organized and scalable sharding in iot blockchains with mobile-edge computing
US10091675B2 (en) System and method for estimating an effective bandwidth
TW201926069A (zh) 運算裝置、其資源分配方法及通訊系統
da Silva et al. Towards federated learning in edge computing for real-time traffic estimation in smart cities
CN115718868A (zh) 模型训练方法、装置及系统
CN112989894B (zh) 目标检测方法、任务处理方法、装置、设备及存储介质
CN116669111A (zh) 一种基于区块链的移动边缘计算任务卸载方法
CN115208518A (zh) 数据传输控制方法、装置及计算机可读存储介质
CN114492739A (zh) 基于车联网的联邦学习方法、路边单元、车辆节点和基站
Yuan et al. Integrated route planning and resource allocation for connected vehicles
Li et al. Cumulative participant selection with switch costs in large-scale mobile crowd sensing
CN111710153B (zh) 交通流量的预测方法、装置、设备及计算机存储介质
CN116157806A (zh) 支持网络中的人工智能服务的系统和方法
Liwang et al. Graph-Represented Computation-Intensive Task Scheduling Over Air-Ground Integrated Vehicular Networks
CN115208892B (zh) 基于动态资源需求的车路协同在线任务调度方法及系统
CN111800491A (zh) 一种数据传输方法、系统、计算设备及存储介质
Rajput et al. Evolution of cooperation in vehicular cloud assisted networks for ITS services: A hunt game-based approach
CN113487041B (zh) 横向联邦学习方法、装置及存储介质
CN115499657A (zh) 视频码率自适应网络的训练方法、应用方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant