CN116629379A - 联邦学习聚合方法及装置、存储介质及电子设备 - Google Patents
联邦学习聚合方法及装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN116629379A CN116629379A CN202310594011.6A CN202310594011A CN116629379A CN 116629379 A CN116629379 A CN 116629379A CN 202310594011 A CN202310594011 A CN 202310594011A CN 116629379 A CN116629379 A CN 116629379A
- Authority
- CN
- China
- Prior art keywords
- node
- model
- node set
- federal learning
- participating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000002776 aggregation Effects 0.000 title claims abstract description 70
- 238000004220 aggregation Methods 0.000 title claims abstract description 70
- 238000012795 verification Methods 0.000 claims abstract description 90
- 238000001914 filtration Methods 0.000 claims abstract description 60
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims abstract description 23
- 230000004931 aggregating effect Effects 0.000 claims abstract description 17
- 238000004590 computer program Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000010200 validation analysis Methods 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 15
- 238000010801 machine learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 3
- 231100000572 poisoning Toxicity 0.000 description 3
- 230000000607 poisoning effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012954 risk control Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/20—Network architectures or network communication protocols for network security for managing network security; network security policies in general
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computer And Data Communications (AREA)
Abstract
本公开提供了一种联邦学习聚合方法及装置、存储介质及电子设备,涉及分布式机器学习技术领域。应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,改方法包括:接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。减少横向联邦学习训练过程中恶意节点对全局模型影响,保护用户数据和隐私安全。
Description
技术领域
本公开涉及分布式机器学习技术领域,尤其涉及一种联邦学习聚合方法及装置、存储介质及电子设备。
背景技术
联邦学习是一种新兴的人工智能技术,其目标是在保证大数据交换时的信息安全、保护终端数据和个人数据隐私的前提下,在多参与方或多个计算节点之间进行高效的统计学习。联邦学习可以使用的统计学习方法不局限于神经网络,还包括决策树、支持向量机和随机森林等重要算法。
现有的横向联邦学习流程通常为:1.各参与方本地计算模型梯度,并使用加密技术对参数或参数的梯度信息进行加密,并将加密后的结果发给参数服务器;2.参数服务器实现聚合操作,并将聚合后的结果发送给各参与方;3.各参与方对收到的结果进行解密,并使用解密后的结果更新各自的模型参数。
上述过程存在两方面问题:一是中间参数的隐私泄露;另一方面,现有的联邦学习系统在训练过程中容易受到节点的投毒攻击影;若当参与节点中,存在恶意节点,进行随机梯度攻击时,将会对直接加权聚合方法产生的全局模型质量产生很大影响,直接导致模型的训练精度降低。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种联邦学习聚合方法及装置、存储介质及电子设备,至少在一定程度上克服由于相关技术的限中的参数隐私泄露及恶意节点攻击导致的模型训练精度降低的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供了一种联邦学习聚合方法,应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述方法包括:
接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;
根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;
接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
在一些实施例中,接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点,包括:
接收各参与节点上传的模型参数;
根据各参与节点对应的模型参数,确定各节点对应的可靠性分值;
对可靠性分值按照由高到低的顺序进行排序,将最高可靠性分值对应的参与节点确定为验证节点。
在一些实施例中,根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,包括:
根据各参与节点对应的可靠性分值和参与节点的数量,确定第一阈值;
将可靠性分值由高到低的排序中低于第一阈值的可靠性分值对应的参与节点滤除,确定第一节点集合。
在一些实施例中,所述验证节点用于:
根据第一节点集合中参与节点对应的模型参数,利用联邦学习模型还原出训练模型;
利用自身的训练数据计算出第一节点集合中参与节点对应的模型质量数据;
将第一节点集合中参与节点对应的模型质量数据上传至服务端。
在一些实施例中,接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,包括:
接收验证节点发送的模型质量数据;
将模型质量数据中低于第二阈值的模型质量数据对应的参与节点滤除,确定第二节点集合。
在一些实施例中,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型,包括:
利用加权聚合算法对第二节点集合中参与节点对应的模型参数进行聚合,联邦学习全局模型。
根据本公开的另一个方面,还提供了一种种联邦学习聚合方法,应用于验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述方法包括:
接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;
将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
根据本公开的另一个方面,还提供了一种联邦学习聚合装置,应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述装置包括:
验证节点确定模块,用于接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;
第一过滤模块,用于根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;
聚合模块,用于接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
根据本公开的另一个方面,还提供了一种联邦学习聚合装置,应用于验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述装置包括:
模型质量数据确定模块,用于接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;
模型质量数据上传模块,用于将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
根据本公开的另一个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的一种联邦学习聚合方法。
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的一种联邦学习聚合方法。
根据本公开的另一个方面,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述任意一项的一种联邦学习聚合方法。
本公开的实施例中提供的一种联邦学习聚合方法及装置、存储介质及电子设备,利用参与节点的可靠性分值得到验证节点,再先后进行两次节点过滤,确保筛选出的节点更加安全,可以极大程度减少横向联邦学习训练过程中恶意节点对全局模型的影响,有效降低了中间参数的隐私泄露风险,有效保护了用户数据和隐私安全,提升联邦训练全局模型的精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种联邦学习聚合方法的系统结构的示意图。
图2示出传统的横向联邦学习架构的示意图。
图3示出传统的横向联邦学习架构被投毒攻击的示意图。
图4示出本公开实施例中一种联邦学习聚合方法的示意图。
图5示出本公开实施例中一种联邦学习聚合方法的确定验证节点的过程示意图。
图6示出本公开实施例中一种联邦学习聚合方法的第一过滤的过程示意图。
图7示出本公开实施例中一种联邦学习聚合方法的验证节点功能示意图。
图8示出本公开实施例中一种联邦学习聚合方法的第二过滤的过程示意图。
图9示出本公开实施例中一种联邦学习聚合方法的另一实施例示意图。
图10示出本公开实施例中一种联邦学习聚合装置的示意图。
图11示出本公开实施例中一种联邦学习聚合装置的另一实施例示意图。
图12示出本公开实施例中一种联邦学习聚合方法的计算机设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
下面结合附图,对本公开实施例的具体实施方式进行详细说明。
图1示出了可以应用本公开实施例中一种联邦学习聚合方法的示例性应用系统架构示意图。如图1所示,该系统架构可以包括终端设备101、网络102和服务器103。
网络102用以在终端设备101和服务器103之间提供通信链路的介质,可以是有线网络,也可以是无线网络。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
终端设备101可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、增强现实设备、虚拟现实设备等。
可选地,不同的终端设备101中安装的应用程序的客户端是相同的,或基于不同操作系统的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端等。
服务器103可以是提供各种服务的服务器,例如对用户利用终端设备101所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
可选地,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
本领域技术人员可以知晓,图1中的终端设备、网络和服务器的数量仅仅是示意性的,根据实际需要,可以具有任意数目的终端设备、网络和服务器。本公开实施例对此不作限定。
在上述系统架构下,本公开实施例中提供了一种联邦学习聚合方法,该方法可以由任意具备计算处理能力的电子设备执行。
在一些实施例中,本公开实施例中提供的一种联邦学习聚合可以由上述系统架构的终端设备执行;在另一些实施例中,本公开实施例中提供的一种联邦学习聚合可以由上述系统架构中的服务器执行;在另一些实施例中,本公开实施例中提供的一种联邦学习聚合可以由上述系统架构中的终端设备和服务器通过交互的方式来实现。
联邦学习本质上是一种将数据存储在参与节点本地的分布式机器学习框架,其根据数据在不同参与方之间的特征空间和样本ID空间的分布情况可分为横向联邦学习、纵向联邦学习和迁移联邦学习,其中横向联邦学习使用场景最为广泛。
如图2所示,在传统的横向联邦学习架构下,每轮联邦训练的过程中,参与方上传模型参数,服务端接收模型参数,进行联邦聚合得到全局模型。具体的,传统的联邦训练过程中的参数聚合方法采用加权聚合方式,如平均聚合方法Fedavg,将各个节点上传的参数如权重和偏置,进行均值计算,得到全局模型参数。如图3所示,传统的横向联邦学习架构在训练过程中容易受到节点的投毒攻击影响,当参与节点中,存在恶意节点,进行随机梯度攻击时,将会对直接加权聚合方法产生的全局模型质量产生很大影响,直接导致模型的训练精度降低。
图4示出本公开实施例中一种联邦学习聚合方法的示意图,如图4所示,具体实施本公开实施例提供的一种联邦学习聚合方法时,在一个实施例中,该方法应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述方法包括:
S402:接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;
S404:根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;
S406:接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
在本公开中,联邦学习的架构包括服务端和多个参与节点,服务端与多个参与节点通信连接,在每个参与节点上都运行有结构相同的联邦学习模型,可以让数据不出库的同时能得到充分利用;本公开实施例的一个应用场景是金融行业的风险控制,由于各个金融行业公司、银行、券商等需要考虑到数据隐私安全的问题,需要保证数据不能外露,但同为金融行业,数据特点和特征是类似的,存在差异的是用户ID等信息,因此可以采用横向联邦学习。将各个金融行业公司、银行、券商等作为参与节点,将数据特征数量、种类以及特征处理方法进行统一,并且统一搭建结构相同的风控神经网络模型作为联邦学习模型,运行在每一个参与节点上。
如图5所示,具体实施本公开实施例提供的一种联邦学习聚合方法时,在一个实施例中,接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点,包括:
S502:接收各参与节点上传的模型参数;
S504:根据各参与节点对应的模型参数,确定各节点对应的可靠性分值;
S506:对可靠性分值按照由高到低的顺序进行排序,将最高可靠性分值对应的参与节点确定为验证节点。
实施例中,在确定验证节点时,主要包括:首先,服务器接收各参与节点上传的模型参数;该模型参数是各参与节点在运行联邦学习模型进行训练时得到;下一步,根据各参与节点对应的模型参数,计算各节点对应的可靠性分值;上述可靠性分值用于表征参与节点的可信度,可靠性分值越高,则表示该参与节点可信度越高,即该参与节点为恶意攻击节点的可能性就越低;反之,可靠性分值越低,则表示该参与节点可信度越低,即该参与节点为恶意攻击节点的可能性就越高。最后,对可靠性分值按照由高到低的顺序进行排序,得到可靠性分值排序,将最高可靠性分值对应的参与节点确定为验证节点。此时得到的验证节点,可行度为最高,因此验证节点可以认为不具有恶意攻击性,因此可以将验证节点作为验证的基础,过滤掉参与节点中具有恶意攻击性的节点,确保筛选出的节点更加安全,可以极大程度减少横向联邦学习训练过程中恶意节点对全局模型的影响。
如图6所示,具体实施本公开实施例提供的一种联邦学习聚合方法时,在一个实施例中,根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,包括:
S602:根据各参与节点对应的可靠性分值和参与节点的数量,确定第一阈值;
S604:将可靠性分值由高到低的排序中低于第一阈值的可靠性分值对应的参与节点滤除,确定第一节点集合。
实施例中,在进行第一过滤时,需要设定第一阈值,该第一阈值是根据各参与节点对应的可靠性分值和参与节点的数量计算得到;例如,将各参与节点对应的可靠性分值进行加权平均值再与参与节点的数量相乘得到第一阈值;在前述得到可靠性分值排序中,将可靠性分值由高到低的排序中低于第一阈值的可靠性分值对应的参与节点滤除,则剩余的参与节点构成第一节点集合。通过第一次过滤,可以将可靠性分值较低的参与节点滤除,降低了中间参数的隐私泄露风险,确保筛选出的节点更加安全,有效保护了用户数据和隐私安全,提升联邦训练全局模型的精度。
如图7所示,具体实施本公开实施例提供的一种联邦学习聚合方法时,在一个实施例中,所述验证节点用于:
S702:根据第一节点集合中参与节点对应的模型参数,利用联邦学习模型还原出训练模型;
S704:利用自身的训练数据计算出第一节点集合中参与节点对应的模型质量数据;
S706:将第一节点集合中参与节点对应的模型质量数据上传至服务端。
实施例中,在服务端得到第一节点集合后,将第一节点集合对应的模型参数发送至验证节点;验证节点首先根据第一节点集合中参与节点对应的模型参数,利用自身运行的联邦学习模型还原出训练模型;然后,验证节点利用自身的训练数据计算出第一节点集合中参与节点对应的模型质量数据;上述模型质量数据,用于表征各个参与节点中联邦学习模型训练的质量,可以包括训练模型的准确率以及训练模型的召回率等。利用模型质量数据,可以进一步筛选出模型精准度更高的参与节点,从而进一步提升联邦训练全局模型的精度。最后,将第一节点集合中参与节点对应的模型质量数据上传至服务端。
如图8所示,具体实施本公开实施例提供的一种联邦学习聚合方法时,在一个实施例中,接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,包括:
S802:接收验证节点发送的模型质量数据;
S804:将模型质量数据中低于第二阈值的模型质量数据对应的参与节点滤除,确定第二节点集合。
实施例中,在进行第二过滤时,服务端接收验证节点发送的模型质量数据;设定第二阈值,上述第二阈值,可以是根据将模型质量数据进行加权平均后得到,也可以根据经验值直接设定。下一步,将模型质量数据中低于第二阈值的模型质量数据对应的参与节点滤除,剩余的参与节点即为第二节点集合。
上述二次过滤,可以进一步保证得到的第二节点集合更加安全且训练精度更高,进一步提升联邦训练全局模型的精度。
具体实施本公开实施例提供的一种联邦学习聚合方法时,在一个实施例中,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型,包括:
利用加权聚合算法对第二节点集合中参与节点对应的模型参数进行聚合,联邦学习全局模型。
实施例中,服务端在得到第二节点集合对应的模型参数后,利用加权聚合算法对第二节点集合中参与节点对应的模型参数进行聚合,联邦学习全局模型。
本公开实施例通过对参与节点上传的模型参数,计算节点可靠性值,进行第一次节点过滤;服务区端选择可靠性值最高的节点,作为验证节点。.服务器端通过将模型参数发送给验证节点,利用验证节点的部分数据,计算各参与节点模型训练质量,并基于模型质量进行第二次过滤。可以极大程度减少横向联邦学习训练过程中恶意节点对全局模型的影响,有效降低了中间参数的隐私泄露风险,有效保护了用户数据和隐私安全,提升联邦训练全局模型的精度。
如图9所示,本公开的联邦学习聚合方法还可以应用在验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述方法包括:
S902:接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;
S902:将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
实施例中,与上述应用于服务端相比,应用与验证节点时,实现的基础是先从多个参与节点中确定出验证节点,首先服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;基于确定出的验证节点,联邦学习聚合方法的主要步骤包括:
接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是服务端根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;将模型质量数据上传至服务端;服务端接收模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
本公开还提供一种联邦学习聚合方法应用在金融行业的具体实例,首先,实现本实例的基础是:将各金融节点作为参与节点,将数据特征数量、种类以及特征处理方法进行统一处理。统一搭建结构相同的风控神经网络模型,并在各金融节点本地进行风控模型参数初始化。
具体步骤,包括:
服务端基于各个金融节点上传的风控模型参数,计算各金融节点可靠性分值,分值越大说明节点可信度越高,即该节点为恶意攻击节点可能性越低;
服务端将金融节点可靠性分值按照从大到小排序;
服务端选择节点可靠性最高的节点作为验证节点;
服务端利用节点可靠性分值进行第一次过滤,根据训练节点数量和可靠性分值设定比例阈值,过滤排名低于阈值的金融节点;
服务端服务器端将未过滤的风控模型参数,发送给验证节点;
验证节点利用验证节点自身的风控模型参数还原出训练模型;
验证节点利用自身的部分训练数据,计算出各金融节点训练模型的准确率、召回率等风控模型质量数据;
验证节点将各个参与模型的质量数据,上传到服务端;
服务端利用模型的质量数据进行第二次过滤,提前设定模型质量阈值,过滤低于阈值的金融节点;
服务端利用加权聚合算法,对剩余模型参数聚合,得到全局模型。
需要注意的是,本公开技术方案中对数据的获取、存储、使用、处理等均符合国家法律法规的相关规定,本公开实施例中获取的个人、客户和人群等相关的个人身份数据、操作数据、行为数据等多种类型的数据,均已获得授权。
基于同一发明构思,本公开实施例中还提供了一种联邦学习聚合装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图10示出本公开实施例中一种联邦学习聚合装置的示意图,如图10所示,该装置应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述装置包括:
验证节点确定模块1001,用于接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;
第一过滤模块1002,用于根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;
聚合模块1003,用于接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
此处需要说明的是,上验证节点确定模块1001、第一过滤模块1002和聚合模块1003对应于方法实施例中的S402~S406,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
基于同一发明构思,本公开实施例中还提供了一种联邦学习聚合装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图11示出本公开另一实施例中一种联邦学习聚合装置示意图,如图11所示,该装置应用于验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述装置包括:
模型质量数据确定模块1101,用于接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;
模型质量数据上传模块1102,用于将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
此处需要说明的是,上述模型质量数据确定模块1101和模型质量数据上传模块1102对应于方法实施例中的S902~S904,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图12来描述根据本公开的这种实施方式的电子设备1200。图12显示的电子设备1200仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图12所示,电子设备1200以通用计算设备的形式表现。电子设备1200的组件可以包括但不限于:上述至少一个处理单元1210、上述至少一个存储单元1220、连接不同系统组件(包括存储单元1220和处理单元1210)的总线1230。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1210执行,使得所述处理单元1210执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元1210可以执行上述方法实施例的如下步骤:一种联邦学习聚合方法,应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述方法包括:接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
再例如,所述处理单元1210还可以执行上述方法实施例的如下步骤:一种联邦学习聚合方法,应用于验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述方法包括:接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
存储单元1220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)12201和/或高速缓存存储单元12202,还可以进一步包括只读存储单元(ROM)12203。
存储单元1220还可以包括具有一组(至少一个)程序模块12205的程序/实用工具12204,这样的程序模块12205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1200也可以与一个或多个外部设备1240(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1200交互的设备通信,和/或与使得该电子设备1200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1250进行。并且,电子设备1200还可以通过网络适配器1260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1260通过总线1230与电子设备1200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述一种联邦学习聚合方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (11)
1.一种联邦学习聚合方法,其特征在于,应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述方法包括:
接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;
根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;
接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
2.根据权利要求1所述的联邦学习聚合方法,其特征在于,接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点,包括:
接收各参与节点上传的模型参数;
根据各参与节点对应的模型参数,确定各节点对应的可靠性分值;
对可靠性分值按照由高到低的顺序进行排序,将最高可靠性分值对应的参与节点确定为验证节点。
3.根据权利要求2所述的联邦学习聚合方法,其特征在于,根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,包括:
根据各参与节点对应的可靠性分值和参与节点的数量,确定第一阈值;
将可靠性分值由高到低的排序中低于第一阈值的可靠性分值对应的参与节点滤除,确定第一节点集合。
4.根据权利要求1所述的联邦学习聚合方法,其特征在于,所述验证节点用于:
根据第一节点集合中参与节点对应的模型参数,利用联邦学习模型还原出训练模型;
利用自身的训练数据计算出第一节点集合中参与节点对应的模型质量数据;
将第一节点集合中参与节点对应的模型质量数据上传至服务端。
5.根据权利要求1所述的联邦学习聚合方法,其特征在于,接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,包括:
接收验证节点发送的模型质量数据;
将模型质量数据中低于第二阈值的模型质量数据对应的参与节点滤除,确定第二节点集合。
6.根据权利要求1所述的联邦学习聚合方法,其特征在于,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型,包括:
利用加权聚合算法对第二节点集合中参与节点对应的模型参数进行聚合,联邦学习全局模型。
7.一种联邦学习聚合方法,其特征在于,应用于验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述方法包括:
接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;
将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
8.一种联邦学习聚合装置,其特征在于,应用于服务端;所述服务端与多个参与节点通信连接,所述各参与节点运行有结构相同的联邦学习模型,所述装置包括:
验证节点确定模块,用于接收各参与节点上传的模型参数,计算对应的可靠性分值,确定验证节点;
第一过滤模块,用于根据可靠性分值从各参与节点中进行第一过滤得到第一节点集合,将第一节点集合对应的模型参数发送至验证节点,以使验证节点确定模型质量数据;
聚合模块,用于接收验证节点发送的模型质量数据,对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
9.一种联邦学习聚合装置,其特征在于,应用于验证节点;所述验证节点属于多个参与节点中的一个,所述多个参与节点与服务端通信连接,所述服务端接收各参与节点上传的模型参数,计算对应的可靠性分值,从多个参与节点中确定出验证节点;所述装置包括:
模型质量数据确定模块,用于接收服务端发送的第一节点集合对应的模型参数,确定模型质量数据;所述第一节点集合对应的模型参数是根据可靠性分值从各参与节点中进行第一过滤得到的第一节点集合对应的模型参数;
模型质量数据上传模块,用于将模型质量数据上传至服务端,以使服务端对第一节点集合进行第二过滤得到第二节点集合,对第二节点集合对应的模型参数进行聚合,确定联邦学习全局模型。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~6中任意一项或权利要求7所述的一种联邦学习聚合方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~6中任意一项或权利要求7所述的一种联邦学习聚合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310594011.6A CN116629379A (zh) | 2023-05-24 | 2023-05-24 | 联邦学习聚合方法及装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310594011.6A CN116629379A (zh) | 2023-05-24 | 2023-05-24 | 联邦学习聚合方法及装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116629379A true CN116629379A (zh) | 2023-08-22 |
Family
ID=87596820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310594011.6A Pending CN116629379A (zh) | 2023-05-24 | 2023-05-24 | 联邦学习聚合方法及装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116629379A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117436078A (zh) * | 2023-12-18 | 2024-01-23 | 烟台大学 | 联邦学习中双向模型投毒检测方法与系统 |
-
2023
- 2023-05-24 CN CN202310594011.6A patent/CN116629379A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117436078A (zh) * | 2023-12-18 | 2024-01-23 | 烟台大学 | 联邦学习中双向模型投毒检测方法与系统 |
CN117436078B (zh) * | 2023-12-18 | 2024-03-12 | 烟台大学 | 联邦学习中双向模型投毒检测方法与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112351031B (zh) | 攻击行为画像的生成方法、装置、电子设备和存储介质 | |
CN110602114B (zh) | 基于区块链的身份验证方法及装置、存储介质、电子设备 | |
CN116629379A (zh) | 联邦学习聚合方法及装置、存储介质及电子设备 | |
CN114492854A (zh) | 训练模型的方法、装置、电子设备以及存储介质 | |
CN109614780B (zh) | 生物信息认证方法及装置、存储介质、电子设备 | |
CN114650179A (zh) | 风险数据监测方法、装置、系统、电子设备及存储介质 | |
CN113537512A (zh) | 基于联邦学习的模型训练方法、装置、系统、设备和介质 | |
CN115345279B (zh) | 多指标异常检测方法、装置、电子设备及存储介质 | |
US11734455B2 (en) | Blockchain-based data processing method and apparatus, device, and storage medium | |
CN115906177A (zh) | 集合安全求交方法、装置、电子设备及存储介质 | |
CN111383096A (zh) | 欺诈检测及其模型训练方法、装置、电子设备及存储介质 | |
US20230418794A1 (en) | Data processing method, and non-transitory medium and electronic device | |
CN113487041B (zh) | 横向联邦学习方法、装置及存储介质 | |
CN110690973B (zh) | 身份验证方法、装置、介质及电子设备 | |
CN114282237B (zh) | 一种通信方法、装置、设备及存储介质 | |
CN116562396A (zh) | 联邦学习参与方筛选方法、装置、电子设备及存储介质 | |
CN115378624B (zh) | 知识图谱构建方法、装置、电子设备及存储介质 | |
CN114785605B (zh) | 网络异常检测模型的确定方法、装置、设备及存储介质 | |
CN115829729B (zh) | 一种基于三链架构的供应链金融信用评价系统及方法 | |
CN116629380A (zh) | 联邦学习参与方节点筛选方法、装置及相关设备 | |
CN115664839B (zh) | 隐私计算进程的安全监控方法、装置、设备、介质 | |
CN118095474A (zh) | 联邦学习方法、装置、电子设备及存储介质 | |
CN117807634A (zh) | 认知计算模型的更新方法、装置、设备及存储介质 | |
CN118052274A (zh) | 联邦学习方法、装置、电子设备及计算机可读存储介质 | |
CN116996271A (zh) | 风险流量检测方法及装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |