CN117010023A - 一种基于联邦学习的计算系统、方法、终端及存储介质 - Google Patents
一种基于联邦学习的计算系统、方法、终端及存储介质 Download PDFInfo
- Publication number
- CN117010023A CN117010023A CN202311268492.8A CN202311268492A CN117010023A CN 117010023 A CN117010023 A CN 117010023A CN 202311268492 A CN202311268492 A CN 202311268492A CN 117010023 A CN117010023 A CN 117010023A
- Authority
- CN
- China
- Prior art keywords
- training
- terminal
- offer
- federal learning
- initiating terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 144
- 230000000977 initiatory effect Effects 0.000 claims abstract description 81
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004590 computer program Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000003999 initiator Substances 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及人工智能技术领域,具体涉及基于联邦学习的计算系统、方法、终端及存储介质,系统包括:发起终端、至少一个参与终端和中心节点;发起终端通过中心节点与至少一个参与终端连接,发起终端与参与终端达成邀约关系,在达成邀约关系后,对发起终端与参与终端存储的样本数据进行联合训练得到联合训练联邦学习模型,发起终端基于得到的联合训练联邦学习模型对发起终端需要预测的样本数据进行预测得到预测结果,本发明通过发起终端与参考终端达成邀约关系,通过邀约关系的确定,确定各方数据的使用许可,使得训练过程更加清晰,样本数据的使用更加规范。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及基于联邦学习的计算系统、方法、终端及存储介质。
背景技术
随着新型电力系统建设逐步推进,电力及相关社会企业,各部门、各地区之间的数据要素共享交换更为频繁,数据安全流动、开放、协作、共享已经成为深挖数据价值必不可少的方式。基于联邦学习对电力数据与外部数据进行计算,并根据计算结果,可使得电网业务自身赋能升级、提质增效。
联邦学习(Federated Learning,FL)在电网中得到广泛应用,联邦学习本质是分布式机器学习,通过中间加密数据的交互来完成多方联合的机器学习训练。联邦学习是以一个中央服务器为中心节点,中央服务器生成通用模型供各参与方下载,各参与方利用本地数据训练模型,将训练后的模型更新内容上传。中央服务器聚合更新内容后,优化初始通用模型,各参与方继续下载更新的通用模型训练迭代,上述过程不断重复直至达到既定标准。
整个联邦学习过程中,虽然各参与方的数据始终保存在本地服务器,降低了数据泄露的风险,但是联邦学习的过程中存在训练过程不清晰,样本数据使用不规范的问题。
发明内容
本发明的目的是提供一种基于联邦学习的计算系统、方法、终端及存储介质,有助于提高训练过程的清晰性和样本数据使用的规范性。
本发明所提供的具体技术方案如下:一种基于联邦学习的计算系统,包括:发起终端、至少一个参与终端和中心节点;
发起终端通过中心节点与至少一个参与终端连接,发起终端与参与终端达成邀约关系,在达成邀约关系后,对发起终端与参与终端存储的样本数据进行联合训练得到联合训练联邦学习模型,发起终端基于得到的联合训练联邦学习模型对发起终端需要预测的样本数据进行预测得到预测结果。
进一步地,所述中心节点包括注册发现模块和邀约管理模块;
所述注册发现模块用于基于获取到发起终端和参与终端的基本信息以及发起终端和参与终端存储的样本数据,接收发起终端和参与终端的注册;
所述邀约管理模块用于对发起终端发起的邀约转发至参与终端,达成邀约关系。
另一发明,本发明提供了一种基于联邦学习的计算方法,包括:
S1、发起终端从多个存储不同训练样本数据的参与终端中选择存储有所需训练样本数据的参与终端作为目标终端;
S2、发起终端向中心节点发起训练邀约,中心节点向目标终端转发训练邀约,使发起终端与目标终端达成邀约关系,其中,训练邀约包括训练期限、所选择的目标终端以及所需的训练样本数据;
S3、基于达成的邀约关系,发起终端和目标终端在所述训练期限内,使用发起终端与参与终端存储的训练样本数据进行联合训练得到联合训练联邦学习模型;
S4、发起终端基于得到的联合训练联邦学习模型对预测样本数据进行预测,并生成预测结果。
进一步地,所述步骤S2包括:
发起终端向中心节点发送训练邀约;
中心节点对训练邀约进行分析,以在训练期限内,向目标终端发送邀约请求;
目标终端针对邀约请求向中心节点作出邀约反馈;
中心节点基于邀约反馈,生成目标终端的邀约状态,其中,邀约状态包括接受邀约和不接受邀约;
发起终端获取目标终端的邀约状态,并判断目标终端的邀约状态是否均为接受邀约,若是,则发起终端与目标终端达成邀约关系;若否,则发起终端与各目标终端无法达成邀约关系。
进一步地,所述步骤S3还包括:
选择训练邀约和算法并设置参数;
启动训练实例,并对训练实例的训练过程进行数据采集,生成训练结果;
基于训练结果,得到联合训练联邦学习模型和训练评估数据。
进一步地,所述步骤S4包括:
发起终端选择所生成的联合训练联邦学习模型以及所需预测的样本数据,并向目标终端发起预测邀约;
目标终端对接收到的预测邀请进行处理,并作出预测邀请反馈,其中,预测邀请反馈包括接受邀约和不接受邀约;
若目标终端均接受邀约,则发起终端上传预测样本并基于所选择的联合训练联邦学习模型对所需预测的样本数据进行预测,并收集预测结果;
若目标终端中任一目标终端不接受邀约,则结束预测。
另一方面,本发明提供了一种基于联邦学习的计算终端,包括:样本库管理模块、模型库管理模块、算法库管理模块、预测任务管理模块、训练管理模块和邀约管理模块;
样本库管理模块用于存储和管理各专业、各类型样本数据,为训练环境提供标准训练样本数据,并用于对训练样本数据进行统一存储、管理、更新、维护与共享;
算法库管理模块用于提供内置算法应用和算法自定义;
邀约模块用于发起和处理邀约;
训练任务管理模块用于基于选择的算法,启动训练实例,并对训练实例的训练过程进行数据采集,生成训练结果;
模型库管理模块用于基于训练结果,得到联合训练联邦学习模型和训练评估数据并进行存储;
预测任务管理模块用于基于得到的联合训练联邦学习模型对所需预测的样本数据进行预测,得到预测结果。
进一步地,邀约管理模块还用于解耦获取到的样本数据描述信息。
进一步地,所述终端还包括运行看板模块;
所述运行看板模块通过代码复用的形式集成FATE框架任务看板,以对训练与预测的实时进度与历史数据进行展示。
又另一方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令执行时实现以上所述的基于联邦学习的计算方法。
本发明的有益效果在于:本发明通过发起终端与参考终端达成邀约关系,通过邀约关系的确定,确定各方数据的使用许可,使得训练过程更加清晰,样本数据的使用更加规范。
其次,中心节点的注册发现功能,对样本数据进行统一维护与管理,邀约时不需要对每个参与方的样本数据进行单独请求,只需要在中心节点获取即可,起到解耦的作用。
此外,本发明设计原理可靠,结构简单,具有非常广泛的应用前景。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明一个实施例的基于联邦学习的计算系统的原理图框图示意图。
图2示出了本发明一个实施例的发起终端的原理框图示意图。
图3示出了本发明一个实例的中心节点的原理框图示意图。
图4示出了本发明一个实施例的基于联邦学习的计算方法的流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
实施例1:
如图1至图3所示,本实施例提供了一种基于联邦学习的计算系统,包括:发起终端1、至少一个参与终端2和中心节点3。其中,需要说明的是,发起终端1和至少一个参与终端2是完全相同的终端,发起终端1可以作为参与终端2,参与终端2也可以作为发起终端1。
中心节点3包括注册发现模块3-1和邀约管理模块3-2。
发起终端1和至少一个参与终端2均包括样本库管理模块1-1、模型库管理模块1-5、算法库管理模块1-3、预测任务管理模块1-6、训练管理模块1-4和邀约模块1-2。
样本库管理模块1-1用于发起终端1和至少一个参与终端2上传样本数据,并存储样本数据,其中,样本库管理模块1-1还用于存储和管理各专业、各类型样本资源的功能,为训练环境提供标注样本,对样本数据进行统一存储与管理,实现样本数据的更新、维护与共享,支撑训练与预测。
注册发现模块3-1用于获取各参与终端和发起终端的样本库管理模块1-1中存储的样本数据的特征,使得发起终端1可以查看各参与终端2中存储的样本数据,以从参与终端2中选择存储有所需样本数据的参与终端作为目标终端。
邀约模块1-2用于发起终端1通过邀约模块1-2生成训练邀约,并将训练邀约发送给中心节点3的邀约管理模块3-2。其中,训练邀约包括训练期限、所选择的目标终端以及所需样本数据。
邀约管理模块3-2用于对接收到训练邀约进行分析,以在训练期限内,向训练邀约中所选择的目标终端的邀约模块发送邀约请求。
目标终端的邀约模块1-2用于根据接收到的邀约请求,生成邀约目标终端的邀约状态,并将生成的邀约状态发送至中心节点3的邀约管理模块3-2,若各目标终端均为接受邀约,则发起终端1与目标终端达成邀约关系;若目标终端中的任一目标终端不接受邀约,则发起终端1与目标终端无法达成邀约关系,其中,邀约状态包括接受邀约和不接受邀约。
算法库管理模块1-3用于提供内置算法应用、算法自定义等功能,主要包括算子管理、算子参数管理、算法管理等功能模块,以供发起终端1和目标终端选择算法。
训练管理模块1-4用于基于选择的算法,启动训练实例,并对训练实例的训练过程进行数据采集,生成训练结果。
模型库管理模块1-5用于基于训练结果,得到联合训练联邦学习模型和训练评估数据,还用于为模型预测提供模型。
预测任务管理模块1-6用于基于得到的联合训练联邦学习模型对所需预测的样本数据进行预测,得到预测结果。
运行看板模块1-7通过代码复用的形式集成FATE框架任务看板,以对训练与预测的实时进度与历史数据进行展示
示例性地,所述训练管理模块1-4与预测任务管理模块1-6基于fate联邦学习框架,并采用接口调用的方式进行样本数据的选择和预测。
示例性地,邀约管理模块3-2还用于解耦获取到的样本数据描述信息。
实施例2:
如图4所示,本实施例提供了一种基于联邦学习的计算方法,包括:
Q1、发起终端从多个存储不同训练样本数据的参与终端中选择存储有所需训练样本数据的参与终端作为目标终端。
具体地,发起终端和参与终端均与中心节点通信连接,发起终端查看中心节点中由发起终端和参与终端注册的其存储不同训练样本数据的样本特征,以根据训练样本特征,从存储有所需训练样本数据的参与终端中选择目标终端。
Q2、发起终端向中心节点发起训练邀约,中心节点向目标终端转发训练邀约,使发起终端与目标终端达成邀约关系,其中,训练邀约包括训练期限、所选择的目标终端以及所需训练样本数据。
具体地,发起终端向中心节点发送训练邀约,中心节点对训练邀约进行分析,以在训练期限内,向目标终端发送邀约邀请,目标终端针对接收到的邀约请求,向中心节点作出邀约反馈。
中心节点基于目标终端作出的邀约反馈,生成目标终端的邀约状态,其中,邀约状态包括接受邀约和不接受邀约。
发起终端获取目标终端的邀约状态,并判断目标终端的邀约状态是否均为接受邀约,若是,则发起终端与目标终端达成邀约关系;若否,则发起终端与各目标终端无法达成邀约关系。
中心节点向发起终端发送提示信息,具体地,若目标终端作出的邀约反馈均为接受邀约,则中心节点向发起终端发送达成邀约关系提示信息,若目标终端中任一目标终端作出的邀约反馈为不接受邀约,则中心节点向发起终端发送无法达成邀约关系提示信息。
Q3、基于达成的邀约关系,发起终端和目标终端在所述训练期限内,使用发起终端与参与终端存储的训练样本数据进行联合训练得到联合训练联邦学习模型;
具体地,发起终端和目标终端达成邀约关系后,发起终端和目标终端在所述训练期限内,选择训练邀约并从算法库管理模块中选择算法以及设置参数,启动训练实例,并对训练实例的训练过程进行数据采集,生成训练结果。基于训练结果,得到联合训练联邦学习模型和训练评估数据。
Q4、发起终端基于得到的联合训练联邦学习模型对预测样本数据进行预测,并生成预测结果。
具体地,发起终端选择所生成的联合训练联邦学习模型以及所需预测的样本数据,并向目标终端发起预测邀约;
目标终端对接收到的预测邀约进行处理,判定是否接受预测邀约,并向发起终端作出预测邀请反馈;预测邀请反馈包括接受预测邀请和不接受预测邀请。
若发起终端接收到目标终端作出的预测邀请反馈均为接受预测邀请,则上传预测样本数据,并基于所选择的联合训练联邦学习模型对预测样本数据进行预测,并收集预测结果;若发起终端接收到的目标终端中任一目标终端作出的预测邀请反馈为不接受预测邀请,则结束预测。
实施例3:
本实施例提供了一种存储有计算机程序的计算机可读存储介质,该程序被处理器执行时实现实施例2所述的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合
需要说明的是,附图中的流程图显示了本公开实施例的方法,在附图中的流程图或框图中所对应的描述中,不同的方框所对应的操作或步骤也可以以不同于描述中所披露的顺序发生,有时不同的操作或步骤之间不存在特定的顺序。例如,两个连续的操作或步骤实际上可以基本并行地执行,他们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
尽管通过参考附图并结合优选实施例的方式对本发明进行了详细描述,但本发明并不限于此。在不脱离本发明的精神和实质的前提下,本领域普通技术人员可以对本发明的实施例进行各种等效的修改或替换,而这些修改或替换都应在本发明的涵盖范围内/任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种基于联邦学习的计算系统,其特征在于,包括:发起终端、至少一个参与终端和中心节点;
发起终端通过中心节点与至少一个参与终端连接,发起终端与参与终端达成邀约关系,在达成邀约关系后,对发起终端与参与终端存储的训练样本数据进行联合训练得到联合训练联邦学习模型,发起终端基于得到的联合训练联邦学习模型对发起终端需要预测的样本数据进行预测得到预测结果。
2.根据权利要求1所述的基于联邦学习的计算系统,其特征在于,所述中心节点包括注册发现模块和邀约管理模块;
所述注册发现模块用于基于获取到发起终端和参与终端的基本信息以及发起终端和参与终端存储的样本数据,接收发起终端和参与终端的注册;
所述邀约管理模块用于对发起终端发起的邀约转发至参与终端,达成邀约关系。
3.一种基于联邦学习的计算方法,其特征在于,包括以下步骤:
S1、发起终端从多个存储不同训练样本数据的参与终端中选择存储有所需训练样本数据的参与终端作为目标终端;
S2、发起终端向中心节点发起训练邀约,中心节点向目标终端转发训练邀约,使发起终端与目标终端达成邀约关系,其中,训练邀约包括训练期限、所选择的目标终端以及所需的训练样本数据;
S3、基于达成的邀约关系,发起终端和目标终端在所述训练期限内,使用发起终端与参与终端存储的训练样本数据进行联合训练得到联合训练联邦学习模型;
S4、发起终端基于得到的联合训练联邦学习模型对预测样本数据进行预测,并生成预测结果。
4.根据权利要求3所述的基于联邦学习的计算方法,其特征在于,所述步骤S2包括:
发起终端向中心节点发送训练邀约;
中心节点对训练邀约进行分析,以在训练期限内,向目标终端发送邀约请求;
目标终端针对邀约请求向中心节点作出邀约反馈;
中心节点基于邀约反馈,生成目标终端的邀约状态,其中,邀约状态包括接受邀约和不接受邀约;
发起终端获取目标终端的邀约状态,并判断目标终端的邀约状态是否均为接受邀约,若是,则发起终端与目标终端达成邀约关系;若否,则发起终端与各目标终端无法达成邀约关系。
5.根据权利要求3所述的基于联邦学习的计算方法,其特征在于,所述步骤S3还包括:
选择训练邀约和算法并设置参数;
启动训练实例,并对训练实例的训练过程进行数据采集,生成训练结果;
基于训练结果,得到联合训练联邦学习模型和训练评估数据。
6.根据权利要求3所述的基于联邦学习的计算方法,其特征在于,所述步骤S4包括:
发起终端选择所生成的联合训练联邦学习模型,并向目标终端发起预测邀约;
目标终端对接收到的预测邀请进行处理,并作出预测邀请反馈,其中,预测邀请反馈包括接受邀约和不接受邀约;
若目标终端均接受邀约,则发起终端上传预测样本数据,并基于所选择的联合训练联邦学习模型对预测样本数据进行预测,并收集预测结果;
若目标终端中任一目标终端不接受邀约,则结束预测。
7.一种基于联邦学习的计算终端,其特征在于,包括:样本库管理模块、模型库管理模块、算法库管理模块、预测任务管理模块、训练管理模块和邀约管理模块;
样本库管理模块用于存储和管理各专业、各类型样本数据,为训练环境提供标准训练样本数据,并用于对训练样本数据进行统一存储、管理、更新、维护与共享;
算法库管理模块用于提供内置算法应用和算法自定义;
邀约模块用于发起和处理邀约;
训练任务管理模块用于基于选择的算法,启动训练实例,并对训练实例的训练过程进行数据采集,生成训练结果;
模型库管理模块用于基于训练结果,得到联合训练联邦学习模型和训练评估数据并进行存储;
预测任务管理模块用于基于得到的联合训练联邦学习模型对预测样本数据进行预测,得到预测结果。
8.根据权利要求7所述的基于联邦学习的计算终端,其特征在于,邀约管理模块还用于解耦获取到的样本数据描述信息。
9.根据权利要求7所述的基于联邦学习的计算终端,其特征在于,
所述终端还包括运行看板模块;
所述运行看板模块通过代码复用的形式集成FATE框架任务看板,以对训练与预测的实时进度与历史数据进行展示。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令执行时实现权利要求3-6中任一项所述的基于联邦学习的计算方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311268492.8A CN117010023A (zh) | 2023-09-28 | 2023-09-28 | 一种基于联邦学习的计算系统、方法、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311268492.8A CN117010023A (zh) | 2023-09-28 | 2023-09-28 | 一种基于联邦学习的计算系统、方法、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117010023A true CN117010023A (zh) | 2023-11-07 |
Family
ID=88569427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311268492.8A Pending CN117010023A (zh) | 2023-09-28 | 2023-09-28 | 一种基于联邦学习的计算系统、方法、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117010023A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109167695A (zh) * | 2018-10-26 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的联盟网络构建方法、设备及可读存储介质 |
CN114139722A (zh) * | 2021-11-29 | 2022-03-04 | 广发银行股份有限公司 | 基于区块链的联邦学习任务调度方法、系统、设备及介质 |
CN116029371A (zh) * | 2023-03-27 | 2023-04-28 | 北京邮电大学 | 基于预训练的联邦学习工作流构建方法及相关设备 |
CN116030317A (zh) * | 2022-12-29 | 2023-04-28 | 中国科学院计算技术研究所 | 基于DMA-MaaS联邦学习平台的模型训练方法及系统 |
-
2023
- 2023-09-28 CN CN202311268492.8A patent/CN117010023A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109167695A (zh) * | 2018-10-26 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的联盟网络构建方法、设备及可读存储介质 |
CN114139722A (zh) * | 2021-11-29 | 2022-03-04 | 广发银行股份有限公司 | 基于区块链的联邦学习任务调度方法、系统、设备及介质 |
CN116030317A (zh) * | 2022-12-29 | 2023-04-28 | 中国科学院计算技术研究所 | 基于DMA-MaaS联邦学习平台的模型训练方法及系统 |
CN116029371A (zh) * | 2023-03-27 | 2023-04-28 | 北京邮电大学 | 基于预训练的联邦学习工作流构建方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674440A (zh) | 埋点数据处理方法、系统、计算机设备及可读存储介质 | |
CN110955715A (zh) | Erp系统和目标平台的数据转换方法、装置以及电子设备 | |
CN113487084A (zh) | 一种设备使用寿命的预测方法、装置、计算机设备及计算机可读存储介质 | |
WO2019148657A1 (zh) | 关联环境测试方法、电子装置及计算机可读存储介质 | |
CN113703363A (zh) | 智能边缘计算网关在电力调度云的即插即用方法 | |
CN117010023A (zh) | 一种基于联邦学习的计算系统、方法、终端及存储介质 | |
CN110704099B (zh) | 联盟链的构建方法、装置和电子设备 | |
JP2021086604A (ja) | 異常サーバのサービス処理方法および装置 | |
CN114417275A (zh) | 基于rpa的自动化登录方法、装置及存储介质 | |
CN113779021B (zh) | 数据处理方法、装置、计算机系统及可读存储介质 | |
CN113784235B (zh) | 电缆载流量监测系统、方法、装置、网关设备和存储介质 | |
CN114924937A (zh) | 批量任务处理方法、装置、电子设备及计算机可读介质 | |
US20210334107A1 (en) | PREDICTING EXECUTION DURATION FOR USER-DEFINED FUNCTIONS ON FUNCTION-AS-A-SERVICE (FaaS) CLOUD COMPUTING PLATFORMS | |
CN108804309B (zh) | 一种合同管理系统自动化测试方法及测试工具 | |
CN111860954A (zh) | 车辆失联预测方法、装置、计算机设备和存储介质 | |
CN111324654A (zh) | 接口调用方法、系统、计算机设备及计算机可读存储介质 | |
CN110602187A (zh) | 终端共享方法、装置及设备 | |
CN112148803A (zh) | 区块链中任务的调用方法、装置、设备及可读存储介质 | |
CN112527825B (zh) | 数据存储方法、装置及计算机设备 | |
CN115391827B (zh) | 日志信息存储方法、装置、设备、计算机可读介质和产品 | |
CN113742271B (zh) | 电力户表信息处理方法、装置、设备和存储介质 | |
CN110716963B (zh) | 提供自适应配置的用户数据的方法及相关设备 | |
CN116881238A (zh) | 一种基于微服务架构的电力市场用户管理saas平台及方法 | |
CN116384524A (zh) | 一种设备故障检测方法、装置、设备及介质 | |
CN116012158A (zh) | 业务处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |