CN113408746A - 一种基于区块链的分布式联邦学习方法、装置及终端设备 - Google Patents

一种基于区块链的分布式联邦学习方法、装置及终端设备 Download PDF

Info

Publication number
CN113408746A
CN113408746A CN202110692794.2A CN202110692794A CN113408746A CN 113408746 A CN113408746 A CN 113408746A CN 202110692794 A CN202110692794 A CN 202110692794A CN 113408746 A CN113408746 A CN 113408746A
Authority
CN
China
Prior art keywords
model parameters
intelligent contract
local
global
federal learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110692794.2A
Other languages
English (en)
Other versions
CN113408746B (zh
Inventor
黄子湛
杨晴
王晖
张胜利
王滔滔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202110692794.2A priority Critical patent/CN113408746B/zh
Publication of CN113408746A publication Critical patent/CN113408746A/zh
Application granted granted Critical
Publication of CN113408746B publication Critical patent/CN113408746B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种基于区块链的分布式联邦学习方法、装置及终端设备,方法包括:确定预先创建的区块链;参与者节点通过智能合约确定全局模型参数,基于全局模型参数更新本地网络模型的模型参数,基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;参与者节点将本地模型参数发送至智能合约,并通过智能合约聚合接收到的所有本地模型参数以更新全局模型参数;通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源。本申请通过使用区块链上的智能合约来实现传统联邦学习中的中央服务器的功能,从而使用能够进行可信计算的智能合约来代替联邦学习中的中央服务器,可以解决联邦学习中的中央服务器不可信的问题。

Description

一种基于区块链的分布式联邦学习方法、装置及终端设备
技术领域
本申请涉及区块链技术领域,特别涉及一种基于区块链的分布式联邦学习方法、装置及终端设备。
背景技术
在工业4.0的进程中,数据信息的充分利用已经成为了企业推动产业变革的重要力量。但出于隐私保护的考虑以及企业之间的竞争,小公司能够掌握的数据量相对较少,这不利于这些公司在工业4.0进程中的发展。而联邦学习这一技术的出现则一定程度上解决了小公司掌握的数据量较少的问题。即这些公司可以先在本地利用自己的数据进行模型训练,之后将训练后的本地模型上传到中央服务器进行聚合。接着各个公司再从服务器下载聚合后的全局模型并以此为基础继续利用自己的数据进行本地训练,以得到性能更好的全局模型。
目标普遍使用的联邦学习框架需要借助一个可信任的中央服务器来协调整个联邦学习过程,也就是说,在传统的联邦学习过程中,参与者会预先选择一个第三方作为中央服务器以协助其完成模型训练过程。但是,中央服务器无法保证完全诚实的,从而使得联邦学习过程存在安全性问题。
因而现有技术还有待改进和提高。
发明内容
本申请要解决的技术问题在于,针对现有技术的不足,提供一种基于区块链的分布式联邦学习方法、装置及终端设备。
为了解决上述技术问题,本申请实施例第一方面提供了一种基于区块链的分布式联邦学习方法,所述的方法包括:
确定预先创建的区块链,其中,所述区块链至少包括参考联邦学习的参与者节点以及用于执行联邦学习任务的智能合约;
参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;
参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;
参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;
通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
所述基于区块链的分布式联邦学习方法,其中,所述区块链还包括联邦学习的请求者节点;所述参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数之前,所述方法还包括:
所述请求者节点将全局网络模型存储于预设存储空间,并且在所述智能合约中写入全局网络模型对应的训练参数。
所述基于区块链的分布式联邦学习方法,其中,所述参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数具体包括:
参与者节点向联邦学习对应的智能合约发送调用交易,通过所述调用交易获取所述智能合约携带的全局网络模型的哈希值;
参考者节点根据所述哈希值获取预设存储空间中的全局模型参数。
所述基于区块链的分布式联邦学习方法,其中,所述参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数具体包括:
参与这节点将所述本地模型参数发送至所述智能合约;
当所述智能合约接收到本地模型参数达到预设阈值时,通过智能合约调用所述区块链中的预编译合约,通过所述编译合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数。
所述基于区块链的分布式联邦学习方法,其中,所述智能合约接收到的所有本地模型参数对应的聚合公式为:
Figure BDA0003126807930000031
其中,|D|表示所有参与者节点的所有本地训练数据的数据总量,N表示参与者节点的数量,i表示第i个参与者节点,
Figure BDA0003126807930000032
表示第t轮训练第i个参与者节点的本地模型参数,wt +1表示第t轮训练聚合得到的用于作为第t+1轮训练的全局模型参数。
所述基于区块链的分布式联邦学习方法,其中,所述通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中具体包括:
通过智能合约调用区块链中的预编译合约,通过所述预编译合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
所述基于区块链的分布式联邦学习方法,其中,各参与者节点中的本地网络模型的模型结构均与全局网络模型的模型结构相同。
本申请实施例第二方面提供了一种基于区块链的分布式联邦学习系统,所述系统包括:
确定模块,用于确定预先创建的区块链,其中,所述区块链至少包括参考联邦学习的参与者节点以及用于执行联邦学习任务的智能合约;
调用模块,用于控制参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;
训练模块,用于控制参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;
聚合模块,用于控制参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;
奖励模块,用于通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
本申请实施例第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任一所述的基于区块链的分布式联邦学习方法中的步骤。
本申请实施例第四方面提供了一种终端设备,其包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如上任一所述的基于区块链的分布式联邦学习方法中的步骤。
有益效果:与现有技术相比,本申请提供了一种基于区块链的分布式联邦学习方法、装置及终端设备,所述的方法包括:确定预先创建的区块链;参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。本申请通过使用区块链上的智能合约来实现传统联邦学习中的中央服务器的功能,从而使用能够进行可信计算的智能合约来代替联邦学习中的中央服务器,可以解决联邦学习中的中央服务器不可信的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员而言,在不符创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的基于区块链的分布式联邦学习方法的流程图。
图2为本申请提供的基于区块链的分布式联邦学习方法的原理流程图。
图3为本申请提供的基于区块链的分布式联邦学习方法的时序流程图。
图4为本申请提供的基于区块链的分布式联邦学习装置的结构原理图。
图5为本申请提供的终端设备的结构原理图。
具体实施方式
本申请提供一种基于区块链的分布式联邦学习方法、装置及终端设备,为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
具体实现中,本申请实施例中描述的终端设备包括但不限于诸如具有触摸敏感表面(例如,触摸显示屏和/或触摸板)的移动电话,膝上形计算机或平板计算机之类的其他便携式设备。还应该理解的是,在某些实施例中,所述设备并非便携式通讯设备,而是具有触摸敏感表面(例如,触摸显示屏和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端设备。然而,应当理解的是,终端设备还可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其他物理用户接口设备。
终端设备支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、视频会议应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件由于程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数据相机应用程序、数字摄像机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放应用程序等。
可以在终端设备上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的第一或多个功能以及终端上显示的相应信息。这样,终端的公共物理框架(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
应理解,本实施例中各步骤的序号和大小并不意味着执行顺序的先后,各过程的执行顺序以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
发明人经过研究发现,在工业4.0的进程中,数据信息的充分利用已经成为了企业推动产业变革的重要力量。但出于隐私保护的考虑以及企业之间的竞争,小公司能够掌握的数据量相对较少,这不利于这些公司在工业4.0进程中的发展。而联邦学习这一技术的出现则一定程度上解决了小公司掌握的数据量较少的问题。即这些公司可以先在本地利用自己的数据进行模型训练,之后将训练后的本地模型上传到中央服务器进行聚合。接着各个公司再从服务器下载聚合后的全局模型并以此为基础继续利用自己的数据进行本地训练,以得到性能更好的全局模型。
目标普遍使用的联邦学习框架需要借助一个可信任的中央服务器来协调整个联邦学习过程,也就是说,在传统的联邦学习过程中,参与者会预先选择一个第三方作为中央服务器以协助其完成模型训练过程。但是,中央服务器无法保证完全诚实的,从而使得联邦学习过程存在安全性问题。
而区块链作为一种分布式账本数据库,其数据存储在区块中,由区块链节点基于共识机制来共同维护,而不需要中心化的设备和管理机构,节点间也不存在信任问题。每个区块前后相连形成链状结构,通过区块的链状结构与密码学方法,区块链的链上数据具有防篡改,可追溯等特性。然而,目前用于联邦学习的区块链技术主要包括两类,一类是利用区块链技术来实现模型训练报酬的分配;这种方式通过声誉机制或者博弈论等理论来分析各个参与者的所得收益,并将各方的报酬等信息存储到区块链中,通过区块链保证了报酬的透明分配,但这对于联邦学习的中央服务器(即传统联邦学习中的第三方)是否作恶的情况无能为力;另一类是利用区块链来存储分发密钥、哈希等辅助数据,通过密码学和区块链等技术设计一种去掉中央服务器,让参与者来进行模型聚合的机制,但该方法流程过于繁琐且无法保证每个参与者都能够合作地进行模型聚合。
基于此,本申请实施例中,确定预先创建的区块链;参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。本申请通过使用区块链上的智能合约来实现传统联邦学习中的中央服务器的功能,从而使用能够进行可信计算的智能合约来代替联邦学习中的中央服务器,可以解决联邦学习中的中央服务器不可信的问题。
下面结合附图,通过对实施例的描述,对申请内容作进一步说明。
本实施例提供了一种基于区块链的分布式联邦学习方法,如图1、图2以及图3所示,所述方法包括:
S10、确定预先创建的区块链。
具体地,所述区块链为预先建立的,区块链包括用于执行联邦学习任务的智能合约。智能合约作为联邦学习的中心服务器,通过智能合约协调联邦学习过程,智能合约可以进行可信度计算,从而可以采用智能合约作为中心服务器,可以解决中央服务器不可信的问题。在本实施例的一个实现方式中,区块链可以为联盟链,联盟链作为区块链中的一种,其仅允许授权节点加入网络,并且每个区块的生成由所有的预选节点共同决定,这样可以进一步提高联邦学习过程的可靠性。
区块链中包括若干参与者节点,若干参与者节点中的各个参与者节点均在各自本地可信执行环境中运行训练过程,基于各自本地存储的本地训练数据通过联邦学习共同训练模型,以完成联邦学习任务。此外,区块链中还可以包括一请求者节点,该请求者节点可以为若干参与者节点中的一节点,也可以是独立于若干参考者节点外的节点,请求者节点用于发起联邦学习任务,并联邦学习对应的智能合约中写入训练参数,并将写入训练参数的智能合约部署到预先建立的区块链以开始联邦学习。
基于此,所述参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数之前,所述方法还包括:
所述请求者节点将全局网络模型存储于预设存储空间,并且在所述智能合约中写入全局网络模型对应的训练参数。
具体地,所述训练参数至少包括全局网络模型的全局模型参数的哈希值,并且在每轮训练完成后,智能合约中的全局模型参数的哈希值会替换为本轮训练得到的全局模型参数的哈希值。可以理解的是,在联邦学习开始之前,请求者节点会确定需要训练的全局网络模型,该全局网络模型作为全局网络模型存储于预设存储空间,将初始网络模型的初始模型参数作为全局模型参数,并将该全局模型参数的哈希值存储于智能合约内,以使得各参与者节点可以通过智能合约获取到全局模型参数的哈希值,并通过该全局模型参数的哈希值在预设存储空间获取到全局模型参数。
由此可知,在联邦学习的第一轮训练过程中,全局网络模型的全局模型参数为全局网络模型的初始网络参数,智能合约中存储的哈希值为初始模型参数的哈希值,在非第一轮训练过程中,全局网络模型的全局模型参数为前一轮训练得到的全局模型参数,智能合约中存储的哈希值为前一轮训练得到的全局模型参数的哈希值。这样通过将全局模型参数的哈希值存储于智能合约中,智能合约向所有参与者节点公开,从而所有参与者节点均可以通过智能合约中的哈希值,在预设存储空间获取到全局网络参数。
在本实施例的一个实现方式中,训练参数还可以包括待通过联邦学习训练的网络模型的训练条件参数以及参与联邦学习的参与者节点的预设阈值等,其中,训练条件参数可以包括模型学习率、损失函数、训练总轮数以及总奖励等。在第一轮训练过程中,各参与者节点会通过智能合约获取到训练条件参数以及参与联邦学习的参与者节点的预设阈值,以便于训练本地网络模型的训练条件参数,其中,本地网络模型与全局网络模型的模型结构相同,两者不同之处在于本地网络模型的模型参数和全局网络模型的模型参数不同,并且本地网络模型在开始训练之前,会采用通过智能合约获取到全局网络模型更新其自身携带的网络模型。当然,在第一轮训练过程中,或者是在第一轮训练之前,各参与者节点可以通过智能合约在预设存储空间获取到其存储的全局网络模型,并将获取到全局网络模型存储于各参与者节点的本地,以得到各参与者节点各自对应的本地网络模型。
S20、参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数。
具体地,所述调用交易用于调用智能合约中的训练参数,以获取训练参数中的全局模型参数的哈希值。这样通过参与者与智能合约的交易形式来获取全局模型参数,可以使得全局模型参数获取过程的公开化,同时可以基于该交易计算智能合约的可信程度。
在本实施例的一个实现方式中,所述参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数具体包括:
参与者节点向联邦学习对应的智能合约发送调用交易,通过所述调用交易获取所述智能合约携带的全局网络模型的哈希值;
参考者节点根据所述哈希值获取预设存储空间中的全局模型参数。
具体地,预设存储空间可以为IPFS节点,全局网络模型以及全局网络模型对应的全局模型参数可以均存储于IPFS接的你,在参与者节点获取到哈希值后,可以通过哈希值自行从预设存储空间中获取到全局模型参数,这样通过哈希值在预设存储空间获取全局模型参数的方式,可以让参与者节点自己选择更新本地网络模型的模型参数的方式,无需中心服务器来分发全局模型参数,从而可以通过无中心服务器的方式来实现联邦学习。
S30、参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数。
具体地,所述本地网络模型的模型结构与全局网络模型的模型结构相同,两者的区别之处在于,本地网络模型的模型参数为基于本地训练数据训练得到的本地模型参数,全局网络模型的模型参数为基于前一轮训练中的所有参与者节点训练得到的本地模型参数聚合得到的全局模型参数。当然,在第一轮训练过程中,本地网络模型的模型参数和全局网络模型的模型参数可以均为初始模型参数。
本地训练数据为参与者节点所提供的训练数据,参与者节点仅基于其自身存储的本地训练数据对本地网络模型进行训练,其中,本地网络模型配置的模型参数为参与者节点通过智能合约获取到的全局模型参数。此外,联邦学习中的各参与者节点进行知道其自身存储的本地训练数据,并知道不知道除其外的各参与者节点各自存储的本地训练数据,这可以保证各参与者节点各自存储的本地训练数据的保密性。
在本实施例的一个实现方式中,参与者节点在获取到全局模型参数,并采用全局模型参数更新其自身存储的本地网络模型的模型参数后,使用其自身存储的本地训练数据来训练更新后的本地网络模型。当经过多次迭代的本地网络模型训练完成后,将训练得到的本地模型参数以交易的形式发送给对应的智能合约。这样参与者节点的个人数据即使保留在本地,也可以进行联邦机器学习训练。在一个具体实现方式中,参与者节点的本地网络模型的模型参数的更新公式以及损失函数可以分别为:
参与者节点i的损失函数可以:
Figure BDA0003126807930000111
参与者节点i的本地模型参数的更新公式可以:
Figure BDA0003126807930000112
其中,|Di|代表数据集Di的数据量大小,fk(w)表示某一个数据样本k在全局模型w下的损失函数,w(t)表示第t轮次的全局模型参数,
Figure BDA0003126807930000113
表示参与者i在第t+1轮次的本地模型参数,η表示学习率。
S40、参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数。
具体地,参与者节点将本地模型参数以交易形成发送给智能合约,以使得智能合约获取到参与者节点训练得到的本地模型参数。智能合约在获取到各参与者节点各自发送的本地模型参数后,可以将接收到所有本地模型参数进行聚合以得到全局模型参数。此外,在获取全局模型参数后,将该全局模型参数存储于预设存储空间,并将智能合约中的全局模型参数的哈希值修改为本轮聚合得到的全局模型参数的哈希值,以使得各参与者节点可以获取到本轮聚合得到的全局模型参数。
在本实施例的一个实现方式中,所述参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数具体包括:
参与这节点将所述本地模型参数发送至所述智能合约;
当所述智能合约接收到本地模型参数达到预设阈值时,通过智能合约调用所述区块链中的预编译合约,通过所述编译合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数。
具体地,所述预设阈值为预先设置的,为智能合约进行聚合操作的约束条件,其中,当所述智能合约接收到本地模型参数达到预设阈值时,智能合约将接收到所有本地模型参数进行聚合,反之,当所述智能合约接收到本地模型参数未达到预设阈值时,智能合约继续接收参与者节点发送的本地模型参数,直至智能合约接收到本地模型参数达到预设阈值,才会将接收到所有本地模型参数进行聚合。
预编译合约为预先存储于区块链中的,用于执行聚合智能合约接收到的所有本地模型参数的操作。预编译合约为一种在客户端用客户端代码实现的函数,执行预编译合约所耗费的gas可以自己按需定义,从而减少通过聚合操作的所需要的gas。采用预编译合约进行聚合操作相对于直接采用智能合约进行聚合操作而言,可以减少聚合操作所耗费的gas,这样由于本地模型参数的聚合操作需要涉及到大量的数据计算以及复杂逻辑运算,而智能合约是根据合约代码的内容来计算gas,在执行涉及到大量的数据计算以及复杂逻辑运算的操作时,会出现效率低以及耗费大量的gas的现象,而预编译合约为在客户端用客户端代码实现的函数,在执行预编译合约时可以按需定义所需gas,从而可以聚合操作所耗费的gas。
在本实施例的一个实现方式中,所述智能合约接收到的所有本地模型参数对应的聚合公式为:
Figure BDA0003126807930000121
其中,|D|表示所有参与者节点的所有本地训练数据的数据总量,N表示参与者节点的数量,i表示第i个参与者节点,
Figure BDA0003126807930000122
表示第t轮训练第i个参与者节点的本地模型参数,wt +1表示第t轮训练聚合得到的用于作为第t+1轮训练的全局模型参数。
S50、通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
具体地,在聚合操作结束以及将聚合操作所生成的全局模型参数存储到IPFS之后,该轮次的模型训练结束。此时,智能合约会通过调用预先编写进区块链底层的预编译合约进行各个参与者节点的报酬计算和分配。其中,报酬分配方案可以根据实际所需来确定,例如,根据参与者节点的本地训练数据的数据量大小进行分配,或者是,根据参与者节点的信誉值进行分配,或者是,根据Shapley值对参与者节点的贡献进行计算以进行分配等。此外,在完成报酬分配之后,可以进行新一轮次的模型训练过程。
基于此,在本实施例的一个实现方式中,所述通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中具体包括:
通过智能合约调用区块链中的预编译合约,通过所述预编译合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
具体地,所述预编译合约为预先编写进区块链底层的,用于执行各参与者节点的报酬计算以及分配。预编译合约为一种在客户端用客户端代码实现的函数,执行预编译合约所耗费的gas可以自己按需定义,从而减少通过报酬计算的所需要的gas。采用预编译合约进行报酬计算操作相对于直接采用智能合约进行报酬计算操作而言,可以减少报酬计算操作所耗费的gas,这样由于报酬计算需要涉及到大量的数据计算以及复杂逻辑运算,而智能合约是根据合约代码的内容来计算gas,在执行涉及到大量的数据计算以及复杂逻辑运算的操作时,会出现效率低以及耗费大量的gas的现象,而预编译合约为在客户端用客户端代码实现的函数,在执行预编译合约时可以按需定义所需gas,从而可以计算报酬操作所耗费的gas。此外,值得说明的,用于执行聚合操作的预编译合约和用于执行报酬计算的预编译合约可以相同,也就是说,预编译合约具有聚合操作和报酬计算的功能;或者是,聚合操作和报酬计算操作可以分别对应不用的预编译合约,并且各自对应的预编译合约与各操作相关联,当需要执行聚合操作时,可以选取聚合操作对应的预编译合约;当执行报酬计算操作时,可以选取报酬计算操作对应的预编译合约。
综上所述,本实施例提供了一种基于区块链的分布式联邦学习方法,方法包括:确定预先创建的区块链;参与者节点通过智能合约确定全局模型参数,基于全局模型参数更新本地网络模型的模型参数,基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;参与者节点将本地模型参数发送至智能合约,并通过智能合约聚合接收到的所有本地模型参数以更新全局模型参数;通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源。本申请通过使用区块链上的智能合约来实现传统联邦学习中的中央服务器的功能,从而使用能够进行可信计算的智能合约来代替联邦学习中的中央服务器,可以解决联邦学习中的中央服务器不可信的问题。
基于上述基于区块链的分布式联邦学习方法,本实施例提供了一种基于区块链的分布式联邦学习系统,如图4所示,所述系统包括:
确定模块100,用于确定预先创建的区块链,其中,所述区块链至少包括参考联邦学习的参与者节点以及用于执行联邦学习任务的智能合约;
调用模块200,用于控制参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;
训练模块300,用于控制参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;
聚合模块400,用于控制参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;
奖励模块500,用于通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
基于上述基于区块链的分布式联邦学习方法,本实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述实施例所述的基于区块链的分布式联邦学习方法中的步骤。
基于上述基于区块链的分布式联邦学习方法,本申请还提供了一种终端设备,如图5所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器20通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及移动终端中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种基于区块链的分布式联邦学习方法,其特征在于,所述的方法包括:
确定预先创建的区块链,其中,所述区块链至少包括参考联邦学习的参与者节点以及用于执行联邦学习任务的智能合约;
参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;
参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;
参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;
通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
2.根据权利要求1所述基于区块链的分布式联邦学习方法,其特征在于,所述区块链还包括联邦学习的请求者节点;所述参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数之前,所述方法还包括:
所述请求者节点将全局网络模型存储于预设存储空间,并且在所述智能合约中写入全局网络模型对应的训练参数。
3.根据权利要求1所述基于区块链的分布式联邦学习方法,其特征在于,所述参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数具体包括:
参与者节点向联邦学习对应的智能合约发送调用交易,通过所述调用交易获取所述智能合约携带的全局网络模型的哈希值;
参考者节点根据所述哈希值获取预设存储空间中的全局模型参数。
4.根据权利要求1所述基于区块链的分布式联邦学习方法,其特征在于,所述参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数具体包括:
参与这节点将所述本地模型参数发送至所述智能合约;
当所述智能合约接收到本地模型参数达到预设阈值时,通过智能合约调用所述区块链中的预编译合约,通过所述编译合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数。
5.根据权利要求1或4所述基于区块链的分布式联邦学习方法,其特征在于,所述智能合约接收到的所有本地模型参数对应的聚合公式为:
Figure FDA0003126807920000021
其中,|D|表示所有参与者节点的所有本地训练数据的数据总量,N表示参与者节点的数量,i表示第i个参与者节点,
Figure FDA0003126807920000022
表示第t轮训练第i个参与者节点的本地模型参数,wt+1表示第t轮训练聚合得到的用于作为第t+1轮训练的全局模型参数。
6.根据权利要求1所述基于区块链的分布式联邦学习方法,其特征在于,所述通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中具体包括:
通过智能合约调用区块链中的预编译合约,通过所述预编译合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
7.根据权利要求1所述基于区块链的分布式联邦学习方法,其特征在于,各参与者节点中的本地网络模型的模型结构均与全局网络模型的模型结构相同。
8.一种基于区块链的分布式联邦学习系统,其特征在于,所述系统包括:
确定模块,用于确定预先创建的区块链,其中,所述区块链至少包括参考联邦学习的参与者节点以及用于执行联邦学习任务的智能合约;
调用模块,用于控制参与者节点向联邦学习对应的智能合约发送调用交易,并通过所述智能合约确定全局网络模型的全局模型参数;
训练模块,用于控制参与者节点基于所述全局模型参数更新其自身存储的本地网络模型的模型参数,并基于本地训练数据对更新后的本地网络模型进行训练以得到本地模型参数;
聚合模块,用于控制参与者节点将所述本地模型参数发送至所述智能合约,并通过所述智能合约聚合所述智能合约接收到的所有本地模型参数,以更新全局网络模型的全局模型参数;
奖励模块,用于通过智能合约确定本轮训练过程中各参与者节点各自对应的奖励资源,并将所述奖励资源写入区块链中。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-7任意一项所述的基于区块链的分布式联邦学习方法中的步骤。
10.一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如权利要求1-7任意一项所述的基于区块链的分布式联邦学习方法中的步骤。
CN202110692794.2A 2021-06-22 2021-06-22 一种基于区块链的分布式联邦学习方法、装置及终端设备 Active CN113408746B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110692794.2A CN113408746B (zh) 2021-06-22 2021-06-22 一种基于区块链的分布式联邦学习方法、装置及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110692794.2A CN113408746B (zh) 2021-06-22 2021-06-22 一种基于区块链的分布式联邦学习方法、装置及终端设备

Publications (2)

Publication Number Publication Date
CN113408746A true CN113408746A (zh) 2021-09-17
CN113408746B CN113408746B (zh) 2023-03-14

Family

ID=77682242

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110692794.2A Active CN113408746B (zh) 2021-06-22 2021-06-22 一种基于区块链的分布式联邦学习方法、装置及终端设备

Country Status (1)

Country Link
CN (1) CN113408746B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837761A (zh) * 2021-11-26 2021-12-24 北京理工大学 一种基于区块链和可信执行环境的联邦学习方法及系统
CN113849805A (zh) * 2021-09-23 2021-12-28 国网山东省电力公司济宁供电公司 移动用户可信认证方法及装置、电子设备、存储介质
CN113992694A (zh) * 2021-10-01 2022-01-28 浙商银行股份有限公司 一种基于联邦学习的区块链节点集群监控方法及设备
CN113992360A (zh) * 2021-10-01 2022-01-28 浙商银行股份有限公司 一种基于区块链跨链的联邦学习方法及设备
CN114244835A (zh) * 2021-11-19 2022-03-25 海南火链科技有限公司 基于区块链的去中心化自适应协同训练方法和装置
CN114302422A (zh) * 2021-11-29 2022-04-08 北京邮电大学 利用学习模型进行业务处理的方法以及装置
CN114372581A (zh) * 2022-02-25 2022-04-19 中国人民解放军国防科技大学 基于区块链的联邦学习方法、装置和计算机设备
CN114372587A (zh) * 2021-12-10 2022-04-19 海南火链科技有限公司 基于状态通道的去中心训练方法、装置、存储介质及设备
CN114422535A (zh) * 2022-01-18 2022-04-29 网易(杭州)网络有限公司 区块链中部署合约的方法、装置、计算机设备及存储介质
CN114519306A (zh) * 2022-02-21 2022-05-20 山西大学 一种去中心化的终端节点网络模型训练方法及系统
CN114580009A (zh) * 2022-01-13 2022-06-03 吉林省元依科技有限公司 基于联邦学习的区块链数据管理方法、系统及存储介质
CN114726868A (zh) * 2022-02-24 2022-07-08 北京工业大学 一种面向分布式网络的分级分片区块链架构
CN114912136A (zh) * 2022-07-14 2022-08-16 之江实验室 基于竞争机制的区块链上医疗数据协同分析方法及系统
CN115660114A (zh) * 2022-11-11 2023-01-31 湖北文理学院 基于区块链的异步联邦学习架构系统及方法
CN116029370A (zh) * 2023-03-17 2023-04-28 杭州海康威视数字技术股份有限公司 基于区块链的联邦学习的数据共享激励方法、装置及设备
CN117235782A (zh) * 2023-08-31 2023-12-15 北京可利邦信息技术股份有限公司 基于联盟链实现隐私计算数据安全的方法、系统及终端

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111125779A (zh) * 2019-12-17 2020-05-08 山东浪潮人工智能研究院有限公司 一种基于区块链的联邦学习方法及装置
CN111161069A (zh) * 2019-12-27 2020-05-15 深圳大学 区块链系统
CN111212110A (zh) * 2019-12-13 2020-05-29 清华大学深圳国际研究生院 一种基于区块链的联邦学习系统及方法
CN111966698A (zh) * 2020-07-03 2020-11-20 华南师范大学 一种基于区块链的可信联邦学习方法、系统、装置及介质
US20200394552A1 (en) * 2019-06-12 2020-12-17 International Business Machines Corporation Aggregated maching learning verification for database
CN112232527A (zh) * 2020-09-21 2021-01-15 北京邮电大学 安全的分布式联邦深度学习方法
CN112434280A (zh) * 2020-12-17 2021-03-02 浙江工业大学 一种基于区块链的联邦学习防御方法
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN112861152A (zh) * 2021-02-08 2021-05-28 北京航空航天大学 一种基于许可链的联邦学习激励方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200394552A1 (en) * 2019-06-12 2020-12-17 International Business Machines Corporation Aggregated maching learning verification for database
CN111212110A (zh) * 2019-12-13 2020-05-29 清华大学深圳国际研究生院 一种基于区块链的联邦学习系统及方法
CN111125779A (zh) * 2019-12-17 2020-05-08 山东浪潮人工智能研究院有限公司 一种基于区块链的联邦学习方法及装置
CN111161069A (zh) * 2019-12-27 2020-05-15 深圳大学 区块链系统
CN111966698A (zh) * 2020-07-03 2020-11-20 华南师范大学 一种基于区块链的可信联邦学习方法、系统、装置及介质
CN112232527A (zh) * 2020-09-21 2021-01-15 北京邮电大学 安全的分布式联邦深度学习方法
CN112434280A (zh) * 2020-12-17 2021-03-02 浙江工业大学 一种基于区块链的联邦学习防御方法
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN112861152A (zh) * 2021-02-08 2021-05-28 北京航空航天大学 一种基于许可链的联邦学习激励方法及系统

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113849805A (zh) * 2021-09-23 2021-12-28 国网山东省电力公司济宁供电公司 移动用户可信认证方法及装置、电子设备、存储介质
CN113992694A (zh) * 2021-10-01 2022-01-28 浙商银行股份有限公司 一种基于联邦学习的区块链节点集群监控方法及设备
CN113992360A (zh) * 2021-10-01 2022-01-28 浙商银行股份有限公司 一种基于区块链跨链的联邦学习方法及设备
CN113992694B (zh) * 2021-10-01 2024-10-11 浙商银行股份有限公司 一种基于联邦学习的区块链节点集群监控方法及设备
CN113992360B (zh) * 2021-10-01 2024-01-30 浙商银行股份有限公司 一种基于区块链跨链的联邦学习方法及设备
CN114244835B (zh) * 2021-11-19 2023-09-29 海南火链科技有限公司 基于区块链的去中心化自适应协同训练方法和装置
CN114244835A (zh) * 2021-11-19 2022-03-25 海南火链科技有限公司 基于区块链的去中心化自适应协同训练方法和装置
CN113837761B (zh) * 2021-11-26 2022-03-18 北京理工大学 一种基于区块链和可信执行环境的联邦学习方法及系统
CN113837761A (zh) * 2021-11-26 2021-12-24 北京理工大学 一种基于区块链和可信执行环境的联邦学习方法及系统
CN114302422A (zh) * 2021-11-29 2022-04-08 北京邮电大学 利用学习模型进行业务处理的方法以及装置
CN114372587A (zh) * 2021-12-10 2022-04-19 海南火链科技有限公司 基于状态通道的去中心训练方法、装置、存储介质及设备
CN114580009A (zh) * 2022-01-13 2022-06-03 吉林省元依科技有限公司 基于联邦学习的区块链数据管理方法、系统及存储介质
CN114580009B (zh) * 2022-01-13 2023-05-30 唐彩焱 基于联邦学习的区块链数据管理方法、系统及存储介质
CN114422535B (zh) * 2022-01-18 2024-04-09 网易(杭州)网络有限公司 区块链中部署合约的方法、装置、计算机设备及存储介质
CN114422535A (zh) * 2022-01-18 2022-04-29 网易(杭州)网络有限公司 区块链中部署合约的方法、装置、计算机设备及存储介质
CN114519306A (zh) * 2022-02-21 2022-05-20 山西大学 一种去中心化的终端节点网络模型训练方法及系统
CN114726868A (zh) * 2022-02-24 2022-07-08 北京工业大学 一种面向分布式网络的分级分片区块链架构
CN114726868B (zh) * 2022-02-24 2024-03-08 北京工业大学 一种面向分布式网络的分级分片区块链架构
CN114372581A (zh) * 2022-02-25 2022-04-19 中国人民解放军国防科技大学 基于区块链的联邦学习方法、装置和计算机设备
CN114372581B (zh) * 2022-02-25 2024-03-19 中国人民解放军国防科技大学 基于区块链的联邦学习方法、装置和计算机设备
CN114912136A (zh) * 2022-07-14 2022-08-16 之江实验室 基于竞争机制的区块链上医疗数据协同分析方法及系统
CN115660114A (zh) * 2022-11-11 2023-01-31 湖北文理学院 基于区块链的异步联邦学习架构系统及方法
CN116029370B (zh) * 2023-03-17 2023-07-25 杭州海康威视数字技术股份有限公司 基于区块链的联邦学习的数据共享激励方法、装置及设备
CN116029370A (zh) * 2023-03-17 2023-04-28 杭州海康威视数字技术股份有限公司 基于区块链的联邦学习的数据共享激励方法、装置及设备
CN117235782A (zh) * 2023-08-31 2023-12-15 北京可利邦信息技术股份有限公司 基于联盟链实现隐私计算数据安全的方法、系统及终端

Also Published As

Publication number Publication date
CN113408746B (zh) 2023-03-14

Similar Documents

Publication Publication Date Title
CN113408746B (zh) 一种基于区块链的分布式联邦学习方法、装置及终端设备
US10255108B2 (en) Parallel execution of blockchain transactions
US11347855B2 (en) Data lineage management
US10887338B2 (en) Creating notes on lock screen
US10754976B2 (en) Configuring image as private within storage container
US20240176906A1 (en) Methods, apparatuses, and systems for collaboratively updating model by multiple parties for implementing privacy protection
WO2021184347A1 (zh) 实现隐私保护的数据处理方法和装置
US20220232101A1 (en) Virtual workspace experience visualization and optimization
WO2018209465A1 (zh) 一种网页访问控制方法和网关设备
CN109271247A (zh) 内存优化方法、装置、计算机装置以及存储介质
Cui et al. Bsela: A blockchain simulator with event-layered architecture
Huang et al. [Retracted] Construction of Virtual Marketing Interactive Platform for Digital Twin Innovation and Entrepreneurship Based on Blockchain
US10726367B2 (en) Resource allocation forecasting
TWI694402B (zh) 業務校驗方法和設備
WO2023071529A1 (zh) 设备数据清洗方法、装置、计算机设备及介质
Zhang et al. Key based data analytics across data centers considering bi-level resource provision in cloud computing
US11258838B2 (en) Method, system, and non-transitory computer readable record medium for processing chatroom based on usage
CN113487704B (zh) 一种燕尾箭头标的绘制方法、装置、存储介质及终端设备
US20220198301A1 (en) Method and apparatus for update processing of question answering system
US9172729B2 (en) Managing message distribution in a networked environment
Haque et al. Challenges and opportunities in mobile cloud computing
CN109561146A (zh) 文件下载方法、装置、终端设备
US20230179499A1 (en) System and method to estimate a latency cost of relocating a software service
US12038941B1 (en) Data mesh for unstructured data
Li Existence of Generalized Nash Equilibrium in n− Person Noncooperative Games under Incomplete Preference

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant