CN116614273B - 基于cp-abe的对等网络中联邦学习数据共享系统及模型构建方法 - Google Patents
基于cp-abe的对等网络中联邦学习数据共享系统及模型构建方法 Download PDFInfo
- Publication number
- CN116614273B CN116614273B CN202310585446.4A CN202310585446A CN116614273B CN 116614273 B CN116614273 B CN 116614273B CN 202310585446 A CN202310585446 A CN 202310585446A CN 116614273 B CN116614273 B CN 116614273B
- Authority
- CN
- China
- Prior art keywords
- training
- peer
- participants
- model
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010276 construction Methods 0.000 title claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 112
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000011156 evaluation Methods 0.000 claims abstract description 18
- 238000012216 screening Methods 0.000 claims abstract description 14
- 238000005516 engineering process Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 8
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 238000012546 transfer Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000005304 joining Methods 0.000 claims description 5
- 238000007726 management method Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 210000002364 input neuron Anatomy 0.000 claims description 4
- 210000004205 output neuron Anatomy 0.000 claims description 4
- 238000012797 qualification Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011217 control strategy Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 229920002430 Fibre-reinforced plastic Polymers 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000011151 fibre-reinforced plastic Substances 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/20—Network architectures or network communication protocols for network security for managing network security; network security policies in general
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/06—Network architectures or network communication protocols for network security for supporting key management in a packet data network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/104—Peer-to-peer [P2P] networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0816—Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
- H04L9/085—Secret sharing or secret splitting, e.g. threshold schemes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明提出一种基于CP‑ABE的对等网络中联邦学习数据共享模型及其构建方法,该模型包括参与方、访问控制模块和联邦学习模块;该方法包括:1)创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;2)参与方使用私钥和解密公式解密密文,取得含有初始训练任务及训练参数的明文,参与方加入循环队列,构建对等网络;3)在对等网络结构下,组建参与方组成的循环队列,确定联邦学习中训练参数的传递方向,构建联邦学习训练架构;4)启动联合训练,在对等网络中采用参数传递运算评测方式进行模型及参数更新,使模型达到收敛标准;5)设置最佳模型参数,预测测试数据,观测预测精度及评估指标,评估共享模型的性能。
Description
技术领域
本发明涉及信息安全技术领域,具体涉及一种基于CP-ABE的对等网络中联邦学习数据共享系统及模型构建方法。
背景技术
近年来,基于密文策略的属性加密(Ciphertext Policy Attribute-BasedEncryption,CP-ABE)作为加密与访问控制的完美结合,解决了在开放网络环境下以属性作为身份标识的高安全认证问题,被广泛应用于数据访问控制领域;联邦学习,作为一种新的满足隐私保护和数据安全的解决方案,很好地解决了数据孤岛问题,为人工智能打破数据屏障和进一步发展提供了新的思路。因此,在电力数据跨界汇聚融合和创新应用日益广泛的今天,急需创建一种安全可信共享模型,在保障电力数据安全的基础上促进其开发利用,实现协同共享,发挥电力数据的巨大价值。
随着智能电网和信息化建设的加速升级,电力行业积累了海量数据,通过应用这些电力大数据,可以指导电网规划、优化电网运行方式、提升客户管理策略,为政府部门提供产业转移、产业发展等社会经济指标,对热点问题的资源进行优化配置。但是随着供电企业与政府、发电企业、用户和其他相关机构间业务合作的深入,电力数据的可信共享和隐私保护诉求多样化需求强烈,急需打通各机构之间的数据壁垒。因此,电力数据的开放共享以释放更大的社会价值成为电力行业的发展共识。
电力数据的开放共享及多方协作将不可避免带来安全挑战和隐私泄露风险,如何建立一种安全可信、协同共享模型成为目前电力企业面临的重要课题。目前,虽然联邦学习技术带来了良好的示范效应,但是,随着参与者数量和角色的丰富,在联邦学习建模过程中,存在着参与方假冒、针对训练和部署的显示攻击等问题。
联邦学习,作为一种新的满足隐私保护和数据安全的解决方案,很好地解决了数据孤岛问题,为人工智能打破数据屏障和进一步发展提供了新的思路。当前,随着联邦学习早期成功案例带来的示范效应和建模工具的升级带来的使用成本降低,越来越多的企业尝试使用联邦学习技术。但是,随着参与者数量和角色的丰富,尝试过小规模的联邦学习之后的参与者会试图通过加入更多的成员,或加入更多领域的数据集来试图获得效果更好的模型。多成员参与的学习系统很容易出现问题,例如数据预处理过程中的错误、伪造的参与方,以及一些针对训练和部署的显式攻击,数据中毒、模型规避、模型窃取、拜占庭攻击等等。为了保证参与训练的各方有个安全的联邦学习环境,这里引入了可信机构作为协调方,专门用于参与方的身份认证、控制训练规模和派发初始训练任务,准许通过认证的参与方加入对等网络,搭建安全的联邦学习训练环境,方便数据协同训练与合作,实现数据的安全共享。
联邦学习的分布式训练模式目前常用的是C/S模式。在这种模式下,用户数据都不出本地,所有的模型训练都是在本地进行。本地模型训练完毕后将得到的参数上传至服务器端,服务器端接收到各方上传的参数后进行统一聚合,然后将新的训练要求再次下发到参与方,本地更新得到一个全新模型,如此反复直至达到训练要求。在这种训练模式下,若任意参与方出现通信中断、或者临时加入,都会影响训练进度及训练结果,因此,安全可控的参与方的数量及允许通信中断出现的训练环境是现实使用中所期待的。
发明内容
本发明针对现有技术中的不足,为了实现在复杂网络环境下的数据协同共享建模,实现数据不动、模型动的“可用不可见”共享模式,打破电力机构的数据孤岛,创建一个参与方真实可信、能抵抗合谋攻击的联邦学习环境,提供一种基于CP-ABE的对等网络中联邦学习数据共享模型及其构建方法。在基于CP-ABE高安全认证确保参与方安全可信的前提下,构建对等网络进行联合学习,整个训练过程依然是只移动模型,不移动数据。能够用于多机构之间的数据安全协同共享,它既不影响数据的使用,保护各参与方的隐私信息,同时允许更新循环队列中的参与方,即使通信中断不影响其训练结果,具有很好的抗攻击性能,能解决电力数据的数据融合及共享安全问题。
为实现上述目的,本发明采用以下技术方案:
一种基于CP-ABE的对等网络中联邦学习数据共享模型,包括参与方、访问控制模块和基于对等网络的联邦学习模块;
所述参与方具体为想加入到联邦学习训练计划中进行协同共享的参与者;参与方在访问控制模块的密钥管理中心注册,具有合法加入资格的参与方拥有一组解密密钥,具有合法加入资格的参与方加入联邦学习训练计划时,用解密密钥解锁访问树的根节点,通过访问策略的参与方解密密文,获得本次训练任务及各项参数,然后加入训练管理队列,组建对等网络,参与联邦学习;
所述访问控制模块用于密钥的分发与管理、访问控制树的创建、对任意参与方的核实与认证、存储带有训练任务及参数的密文以及管理由多个参与方组成的加入对等网络中的训练队列;
所述基于对等网络的联邦学习模块用于参与方部署本地的BP神经网络模型,参与联邦学习,在循环队列中反复训练本地数据使模型达到收敛标准。
本发明还提出了一种基于CP-ABE的对等网络中联邦学习数据共享模型的构建方法,包括以下步骤:
步骤1:创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;
步骤2:通过访问策略认证的参与方使用私钥和解密公式解密密文,取得含有初始训练任务及训练参数的明文,同时参与方加入循环队列,构建对等网络;
步骤3:在对等网络结构下,组建参与方组成的循环队列,确定联邦学习中训练参数的传递方向,构建参与方数据不离本地的联邦学习训练架构;
步骤4:启动联合训练,在对等网络中采用参数传递运算评测方式进行模型及参数更新,直至满足训练要求,使模型达到收敛标准;
步骤5:根据上述训练结果,设置最佳模型参数,对测试数据进行预测,观测其预测精度及评估指标,对共享模型的性能进行整体评估。
为优化上述技术方案,采取的具体措施还包括:
进一步地,步骤1中,所述访问控制树包括阈值节点和属性节点,阈值节点的阈值(s,t)表示s个节点中至少含有t个节点的秘密值才能求解该阈值节点;
步骤1中,所述属性加密技术具体过程如下:
定义属性集合,创建公私密钥对,发布公钥,公式表示如下:
Setup(1λ,U)→PK,MSK
PK:G,g,e(g,g)α,gβ
MSK:gα,β
其中,Setup()表示初始化函数,λ表示安全系数,U表示系统属性集合,PK表示公钥,MSK表示系统主私钥,G表示双线性群,g表示生成元,e(g,g)表示双线性函数,α,β,r表示随机数;
对通过注册的合法参与方秘密发送私钥组件:
SK'S表示私钥组件,D表示该使用者私钥中的部分密钥,S表示当前用户的属性集,Dj D'j
表示每个属性对应的一对值;H()表示哈希函数,att(j)表示节点j的属性;
对含有训练任务及参数要求的明文加密,生成密文:
式中,CT表示密文,A'表示访问结构,和C表示密文的一部分,M表示明文消息,e()表示双线性函数,t表示随机值,x表示系统属性集合中的任意属性,U表示系统属性集合,Cx和C'x表示访问树中每个叶节点计算出的一对密文组件,qx(0)表示节点x的秘密值。
进一步地,步骤1中,所述采用结合随机多项式的门限访问策略筛选参与方具体为:
对于每个阈值节点,构造一个随机多项式,使用Shamir的秘密分享方法逐层分发加密密钥直至分发到叶节点;参与方访问时,若参与方的属性秘钥组件自底向上层层运算,能够得到根节点秘密,再得到解密密钥,那么该参与方筛选通过,获得访问策略认证;所述随机多项式的个数由访问控制树中的阈值节点个数决定,而每个随机多项式的项数由阈值节点的阈值(s,t)中的t决定。
进一步地,所述Shamir的秘密分享方法利用拉格朗日插值公式完成,拉格朗日插值公式具体如下:
其中,Fn(x)表示一个阶数为n的多项式函数,F(xi)表示函数在xi处的函数值,n表示多项式阶数,Δi,s(x)为拉格朗日系数,系数计算公式如下:
其中S={x0,x1,...,xn};xn表示平面上某一点(xn,yn)的横坐标;
拉格朗日插值公式的展开如下式所示:
式中,yi表示平面上第i个点(xi,yi)的纵坐标,Fn(x)表示含有n个点的次数不超过n的多项式,x表示平面上点坐标的横坐标。
进一步地,步骤2中,所述解密公式具体为:
式中,s为访问树根节点的秘密值。
进一步地,步骤4具体为:
参与方各自部署本地的BP神经网络模型,确定该参与方的BP神经网络的输入神经元、输出神经元以及激活函数,确定本地训练数据集合,初始化和预处理自身的本地训练数据使其满足联合训练要求;启动训练循环队列的任一参与方,开始联合训练,当前参与方A将训练好的模型参数加密后传递给下一个参与方B,参与方B进行参数运算评测后进行模型及参数的更新,若不满足训练要求,则继续传递给下一个参与方C,继续进行模型训练,如此在循环队列中依次反复直到满足训练要求,使模型达到收敛标准。
本发明的有益效果是:
本发明设计的这种电力数据协同共享模型,可以用在复杂网络环境下,通过CP-ABE技术来筛选参与方,保证了各参与方的真实可信性,实现了访问控制的灵活性,同时在联邦学习架构下,实现了数据不出本地,多方参与的协同数据共享。整个方案具有高安全、抗攻击性,在实际应用中,可以应用于电力数据的跨域融合及协同共享。
附图说明
图1是基于CP-ABE的对等网络中联邦学习数据共享模型的结构图;
图2是带阈值的访问控制树结构图;
图3是带有随机多项式的阈值访问控制树结构图;
图4是系统流程图;
图5是访问控制流程图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
在本实施例中,选取多家机构的用户用电数据,进行数据不离本地的多参与方数据联合训练与分析,在基于对等网络的联邦学习架构下,能够对未来的用电数据做出精准预测。
基于CP-ABE的对等网络架构的联邦学习设置中,有多个参与联邦学习的用户(节点),然而没有中心服务器,每个用户都拥有自己的私有数据,这个数据同样是用户的隐私数据,不能传出本地。基于CP-ABE的对等网络中联邦学习数据共享模型如图1所示,此模型主要由三部分构成:参与方、访问控制模块和基于对等网络的联邦学习模块。
参与方在这里主要指想加入到联邦学习训练计划中,进行协同共享的参与者。在此模型中,该参与方必须首先在密钥管理中心注册,具有合法加入资格的客户会拥有一组解密密钥。加入训练时,用解密密钥解锁访问树的根节点,通过访问策略的参与者方可解密密文,获得本次训练任务及各项参数,然后加入训练管理队列,组建对等网,参与联邦学习。
访问控制模块作为可信机构,主要完成对参与方的认证核查。主要任务包括密钥的分发与管理、访问控制树的创建、对任意参与方的核实与认证、存储带有训练任务及参数的密文,以及管理由多个参与方组成的加入对等网络中的训练队列。
基于对等网络的联邦学习模块用于参与方部署本地的BP神经网络模型,参与联邦学习,在循环队列中反复训练本地数据使模型达到收敛标准。
为了构建上述基于CP-ABE的对等网络中联邦学习数据共享模型,在本实施例中还提出一种基于CP-ABE的对等网络中联邦学习数据共享模型的构建方法,包括以下步骤:
步骤1:创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;
步骤2:通过访问策略认证的参与方使用私钥和解密公式解密密文,取得含有初始训练任务及训练参数的明文,同时参与方加入循环队列,构建对等网络;
步骤3:在对等网络结构下,组建参与方组成的循环队列,确定联邦学习中训练参数的传递方向,构建参与方数据不离本地的联邦学习训练架构;
步骤4:启动联合训练,在对等网络中采用参数传递运算评测方式进行模型及参数更新,直至满足训练要求,使模型达到收敛标准;
步骤5:根据上述训练结果,设置最佳模型参数,对测试数据进行预测,观测其预测精度及评估指标,对共享模型的性能进行整体评估。
步骤1中,所述访问控制树包括阈值节点和属性节点,阈值节点的阈值(s,t)表示s个节点中至少含有t个节点的秘密值才能求解该阈值节点;
步骤1中,所述属性加密技术具体过程如下:
定义属性集合,创建公私密钥对,发布公钥,公式表示如下:
Setup(1λ,U)→PK,MSK
PK:G,g,e(g,g)α,gβ
MSK:gα,β
其中,Setup()表示初始化函数,λ表示安全系数,U表示系统属性集合,PK表示公钥,MSK表示系统主私钥,G表示双线性群,g表示生成元,e(g,g)表示双线性函数,α,β,r表示随机数;
对通过注册的合法参与方秘密发送私钥组件:
SK'S表示私钥组件,D表示该使用者私钥中的部分密钥,S表示当前用户的属性集,Dj D'j表示每个属性对应的一对值;H()表示哈希函数,att(j)表示节点j的属性;
对含有训练任务及参数要求的明文加密,生成密文:
式中,CT表示密文,A'表示访问结构,和C表示密文的一部分,M表示明文消息,e()表示双线性函数,t表示随机值,x表示系统属性集合中的任意属性,U表示系统属性集合,Cx和C′x表示访问树中每个叶节点计算出的一对密文组件,qx(0)表示节点x的秘密值。
步骤1中,所述采用结合随机多项式的门限访问策略筛选参与方具体为:
对于每个阈值节点,构造一个随机多项式,使用Shamir的秘密分享方法逐层分发加密密钥直至分发到叶节点;参与方访问时,若参与方的属性秘钥组件自底向上层层运算,能够得到根节点秘密,再得到解密密钥,那么该参与方筛选通过,获得访问策略认证;所述随机多项式的个数由访问控制树中的阈值节点个数决定,而每个随机多项式的项数由阈值节点的阈值(s,t)中的t决定。
所述Shamir的秘密分享方法利用拉格朗日插值公式完成,拉格朗日插值公式具体如下:
其中,Fn(x)表示一个阶数为n的多项式函数,F(xi)表示函数在xi处的函数值,n表示多项式阶数,Δi,s(x)为拉格朗日系数,系数计算公式如下:
其中S={x0,x1,...,xn};xn表示平面上某一点(xn,yn)的横坐标;
拉格朗日插值公式的展开如下式所示:
式中,yi表示平面上第i个点(xi,yi)的纵坐标,Fn(x)表示含有n个点的次数不超过n的多项式,x表示平面上点坐标的横坐标。
步骤2中,所述解密公式具体为:
式中,s为访问树根节点的秘密值。
步骤4具体为:
参与方各自部署本地的BP神经网络模型,确定该参与方的BP神经网络的输入神经元、输出神经元以及激活函数,确定本地训练数据集合,初始化和预处理自身的本地训练数据使其满足联合训练要求;启动训练循环队列的任一参与方,开始联合训练,当前参与方A将训练好的模型参数加密后传递给下一个参与方B,参与方B进行参数运算评测后进行模型及参数的更新,若不满足训练要求,则继续传递给下一个参与方C,继续进行模型训练,如此在循环队列中依次反复直到满足训练要求,使模型达到收敛标准。
访问控制的实现如下:
为了防止恶意用户伪造参与方,本发明中采用了CP-ABE技术,让拥有私钥组件的参与方灵活地加入对等网络中,参与联邦学习和训练。
CP-ABE最大的优点是能够抗合谋攻击。首先,系统根据属性集合设定满足条件的参与方的访问策略,此访问策略是由一棵带有阈值随机多项式的访问树组成,只有分发属性密钥组的参与方能够通过访问策略取得密钥后,解密得到含有训练要求和参数的明文信息,携带明文信息加入对等网络,成为循环队列的一个节点,参与联邦训练。具体过程如下:
(1)创建基于阈值和随机多项式的访问控制树
含有阈值节点的访问树如图2所示,圆形为阈值节点,矩形为属性节点。阈值(s,t)表示s个节点中至少含有t个节点的秘密值才能求解该节点。阈值节点(3,3),表示节点(3,3)的3个孩子节点必须计算得到3个秘密值才能解密得到根节点的秘密。
对于每个阈值节点,构造一个随机多项式,使用秘密共享方案逐层分发加密密钥,最后到达叶节点。访问时,只要用户的属性秘钥组件自底向上层层运算,能够得到根节点秘密,就可以得到解密密钥。这里,随机多项式的个数由访问树中的阈值节点个数决定,而每个随机多项式的项数由(s,t)中的t决定。
此理论主要应用了Shamir的秘密分享原理,利用拉格朗日插值公式完成。拉格朗日插值公式具体如下式所示:
其中,Δi,s(x)为拉格朗日系数,系数计算公式如下所示:
其中S={x0,x1,...,xn}。
拉格朗日插值公式的展开如下式所示:
图2中,由于访问树中阈值节点个数为3,所以需要随机分配的多项式个数为3。阈值节点(3,2),其随机分配的多项式项的个数为2。例如:设根节点的秘密为6,为某个参与方随机生成三个多项式f0(x),f1(x),f2(x)。具体为:
f0(x)=6+5x+3x2
f1(x)=f0(1)+3x=14+3x
f2(x)=f0(3)+7x=48+7x
根据f0(x)计算得到:f0(1)=14f0(2)=28f0(3)=48,那么f0(1)=14作为节点f1(x)多项式的秘密值(即多项式的常数项),秘密继续向下分配,直到分配到叶子节点。与图2所对应的秘密值分配具体如图3所示。
对于不同的参与方,根密钥是相同的(这里假设根秘密值为6),但多项式是随机的。虽然它们有相同的根密钥,但它们各自有不同的多项式,自然地,它们的秘密份额从上到下的分布是不同的。因此,不同的参与方有不同的私钥组件。由于私钥组件与随机多项式绑定,用户无法实现合谋攻击。
(2)密钥分发及加解密流程
CP-ABE是基于秘密分享和双线性映射操作来完成信息的加解密,在密钥分发和加解密过程中涉及到椭圆曲线加密、Weil双线性配对理论,还有哈希函数的参与。大体步骤如下,各符号表示的具体意义见表1所示。
1)定义属性结合,创建公私密钥对,发布公钥
Setup(1λ,U)→PK,MSK
PK:G,g,e(g,g)α,gβ
MSK:gα,β
2)对通过注册的合法用户秘密发送私钥组件
3)对含有训练任务及参数要求的明文加密,生成密文
4)解密密文,获取明文
具体解密过程如下公式所示,其中s为访问树根节点的秘密值。
(3)访问控制流程
首先,参与方把系统分发的秘钥组件提交给管理中心,管理中心依据CP-ABE的加解密流程,经过一系列运算后,确定该参与方是否满足本次联合训练的访问控制策略:首先根据秘钥组件计算出访问树根节点的秘密值,然后根据该秘密值,经过解密公式取得含有训练任务的明文,加入循环队列,等待系统组建对等网络。若秘钥组件无法解密根节点秘密值,也就无法解密密文,因此无法通过访问控制策略,退出系统。具体的访问控制流程如图4所示。
表1CP-ABE中的符号说明
基于对等网络的联邦学习:
构建基于对等网络的联邦学习,首先要考虑参与方之间的相互通信,建立本次训练任务的循环队列;其次,各参与方根据训练任务,各自组建本地BP神经网络,确定该节点BP神经网络的输入神经元,输出神经元以及激活函数,初始化和预处理自身的本地训练数据,使其满足联合训练要求;最后,启动循环队列中的任一节点,开始联合训练,若本次训练结果不满足收敛要求,则加密模型参数后将其传递给下一个节点,如此循环反复,直到满足收敛要求。
假设系统中共有n个参与方(节点),其中c=1,2,…,n。具体隐私保护模型的训练步骤如下:
(1)系统初始化隐私保护模型及其参数,建立循环队列;
(2)各个参与方进行数据的预处理,同时初始化BP神经网络;
(3)启动某一参与方进行本地训练(节点),若本次训练结果不满足收敛要求,则加密模型参数后将其传递给下一个节点。
(4)下一个节点接到模型参数,进行本地运算、评测,若不满足收敛要求,则继续传递参数,更新模式,如此反复,直到满足收敛要求。
具体系统流程如图5所示。通过使用基于CP-ABE的对等网络联邦学习架构训练模型,不仅保证了参与方的真实可信、灵活入网,同时也达到了各方数据不出本地协同共享的目的,解决了数据样本量少,数据质量差的问题。
分析与评估:
(1)评估指标
对于共享模型,评价它的好坏,就是看它的预测结果与真实结果的差异大小。这里选用均方根误差(RMSE)作为评估指标来衡量模型的性能。均方根误差(RMSE),就是在均方误差的基础上再开方,具体如下式所示:
(2)分析过程
与客户端-服务器架构相比,对等网络架构不需要中心服务器,这大大方便了联邦学习的实际部署,因为现实生活中,寻找中心服务器并不容易,然而对等网络架构下进行联邦学习,训练速度会相对慢一些。因为对等网络架构下的训练过程只能一个节点接着一个节点的依次进行,而客户端-服务器架构所有节点可以同时进行训练。表格2对比了两类联邦学习架构。
表2两种联邦学习架构的对比
最后,针对基于对等网络的联邦学习模型,与基于C/S模式的联邦学习模型进行对比,从本地训练次数、数据集样本量、训练要求等多方面进行测试与评估,进一步验证此模型的性能和优势。与现有隐私保护模型相比,此方法不仅具有方便、安全的特性,而且该方法具有良好的抗攻击性,在确保参与方可信的基础上,不仅保证训练环境的可信性,而且保护了参与方的数据隐私,实现电力业务数据的协同共享。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (5)
1.一种基于CP-ABE的对等网络中联邦学习数据共享系统,其特征在于,包括参与方、访问控制模块和基于对等网络的联邦学习模块;
所述参与方具体为想加入到联邦学习训练计划中进行协同共享的参与者;参与方在访问控制模块的密钥管理中心注册,具有合法加入资格的参与方拥有一组解密密钥,具有合法加入资格的参与方加入联邦学习训练计划时,用解密密钥解锁访问树的根节点,通过访问策略的参与方解密密文,获得本次训练任务及各项参数,然后加入训练管理队列,组建对等网络,参与联邦学习;所述访问控制模块用于密钥的分发与管理、访问控制树的创建、对任意参与方的核实与认证、存储带有训练任务及参数的密文以及管理由多个参与方组成的加入对等网络中的训练队列;
所述访问控制模块通过访问策略筛选参与方的具体过程为:
创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;所述访问控制树包括阈值节点和属性节点,阈值节点的阈值(u,v)表示u个节点中至少含有v个节点的秘密值才能求解该阈值节点;
所述属性加密技术具体过程如下:
定义属性集合,创建公私密钥对,发布公钥,公式表示如下:
Setup(1λ,U)→PK,MSK
PK:G,g,e(g,g)α,gβ
MSK:gα,β
其中,Setup()表示初始化函数,λ表示安全系数,U表示系统属性集合,PK表示公钥,MSK表示系统主私钥,G表示双线性群,g表示生成元,e(g,g)表示双线性函数,α,β,r表示随机数;
对通过注册的合法参与方秘密发送私钥组件:
SK'S表示私钥组件,D表示该使用者私钥中的部分密钥,S表示当前用户的属性集,DjD'j表示每个属性对应的一对值;H()表示哈希函数,att(j)表示节点j的属性;
对含有训练任务及参数要求的明文加密,生成密文:
式中,CT表示密文,A'表示访问结构,和C表示密文的一部分,M表示明文消息,e()表示双线性函数,t表示随机值,x表示系统属性集合中的任意属性,U表示系统属性集合,Cx和C′x表示访问树中每个叶节点计算出的一对密文组件,qx(0)表示节点x的秘密值;所述采用结合随机多项式的门限访问策略筛选参与方具体为:
对于每个阈值节点,构造一个随机多项式,使用Shamir的秘密分享方法逐层分发加密密钥直至分发到叶节点;参与方访问时,若参与方的属性秘钥组件自底向上层层运算,能够得到根节点秘密,再得到解密密钥,那么该参与方筛选通过,获得访问策略认证;所述随机多项式的个数由访问控制树中的阈值节点个数决定,而每个随机多项式的项数由阈值节点的阈值(u,v)中的v决定;
所述基于对等网络的联邦学习模块用于参与方部署本地的BP神经网络模型,参与联邦学习,在循环队列中反复训练本地数据使模型达到收敛标准。
2.一种基于CP-ABE的对等网络中联邦学习数据共享模型的构建方法,其特征在于,包括以下步骤:
步骤1:创建访问控制树,基于属性加密技术,采用结合随机多项式的门限访问策略筛选参与方;所述访问控制树包括阈值节点和属性节点,阈值节点的阈值(u,v)表示u个节点中至少含有v个节点的秘密值才能求解该阈值节点;
所述属性加密技术具体过程如下:
定义属性集合,创建公私密钥对,发布公钥,公式表示如下:
Setup(1λ,U)→PK,MSK
PK:G,g,e(g,g)α,gβ
MSK:gα,β
其中,Setup()表示初始化函数,λ表示安全系数,U表示系统属性集合,PK表示公钥,MSK表示系统主私钥,G表示双线性群,g表示生成元,e(g,g)表示双线性函数,α,β,r表示随机数;
对通过注册的合法参与方秘密发送私钥组件:
SK'S表示私钥组件,D表示该使用者私钥中的部分密钥,S表示当前用户的属性集,DjD'j表示每个属性对应的一对值;H()表示哈希函数,att(j)表示节点j的属性;
对含有训练任务及参数要求的明文加密,生成密文:
式中,CT表示密文,A'表示访问结构,和C表示密文的一部分,M表示明文消息,e()表示双线性函数,t表示随机值,x表示系统属性集合中的任意属性,U表示系统属性集合,Cx和C'x表示访问树中每个叶节点计算出的一对密文组件,qx(0)表示节点x的秘密值;
所述采用结合随机多项式的门限访问策略筛选参与方具体为:
对于每个阈值节点,构造一个随机多项式,使用Shamir的秘密分享方法逐层分发加密密钥直至分发到叶节点;参与方访问时,若参与方的属性秘钥组件自底向上层层运算,能够得到根节点秘密,再得到解密密钥,那么该参与方筛选通过,获得访问策略认证;所述随机多项式的个数由访问控制树中的阈值节点个数决定,而每个随机多项式的项数由阈值节点的阈值(u,v)中的v决定;
步骤2:通过访问策略认证的参与方使用私钥和解密公式解密密文,取得含有初始训练任务及训练参数的明文,同时参与方加入循环队列,构建对等网络;
步骤3:在对等网络结构下,组建参与方组成的循环队列,确定联邦学习中训练参数的传递方向,构建参与方数据不离本地的联邦学习训练架构;
步骤4:启动联合训练,在对等网络中采用参数传递运算评测方式进行模型及参数更新,直至满足训练要求,使模型达到收敛标准;
步骤5:根据上述训练结果,设置最佳模型参数,对测试数据进行预测,观测其预测精度及评估指标,对共享模型的性能进行整体评估。
3.如权利要求2所述的基于CP-ABE的对等网络中联邦学习数据共享模型的构建方法,其特征在于,所述Shamir的秘密分享方法利用拉格朗日插值公式完成,拉格朗日插值公式具体如下:
其中,Fn(x)表示一个阶数为n的多项式函数,F(xi)表示函数在xi处的函数值,n表示多项式阶数,Δi,s(x)为拉格朗日系数,系数计算公式如下:
其中S={x0,x1,...,xn};xn表示平面上某一点(xn,yn)的横坐标;
拉格朗日插值公式的展开如下式所示:
式中,yi表示平面上第i个点(xi,yi)的纵坐标,Fn(x)表示含有n个点的次数不超过n的多项式,x表示平面上点坐标的横坐标。
4.如权利要求2所述的基于CP-ABE的对等网络中联邦学习数据共享模型的构建方法,其特征在于,步骤2中,所述解密公式具体为:
式中,s为访问树根节点的秘密值。
5.如权利要求2所述的基于CP-ABE的对等网络中联邦学习数据共享模型的构建方法,其特征在于,步骤4具体为:
参与方各自部署本地的BP神经网络模型,确定该参与方的BP神经网络的输入神经元、输出神经元以及激活函数,确定本地训练数据集合,初始化和预处理自身的本地训练数据使其满足联合训练要求;启动训练循环队列的任一参与方,开始联合训练,当前参与方A将训练好的模型参数加密后传递给下一个参与方B,参与方B进行参数运算评测后进行模型及参数的更新,若不满足训练要求,则继续传递给下一个参与方C,继续进行模型训练,如此在循环队列中依次反复直到满足训练要求,使模型达到收敛标准。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310585446.4A CN116614273B (zh) | 2023-05-23 | 2023-05-23 | 基于cp-abe的对等网络中联邦学习数据共享系统及模型构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310585446.4A CN116614273B (zh) | 2023-05-23 | 2023-05-23 | 基于cp-abe的对等网络中联邦学习数据共享系统及模型构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116614273A CN116614273A (zh) | 2023-08-18 |
CN116614273B true CN116614273B (zh) | 2024-03-19 |
Family
ID=87681309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310585446.4A Active CN116614273B (zh) | 2023-05-23 | 2023-05-23 | 基于cp-abe的对等网络中联邦学习数据共享系统及模型构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116614273B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118312626B (zh) * | 2024-04-18 | 2024-10-08 | 云仓库(广东)数字化科技有限公司 | 一种基于机器学习的数据管理方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297396A (zh) * | 2021-07-21 | 2021-08-24 | 支付宝(杭州)信息技术有限公司 | 基于联邦学习的模型参数更新方法、装置及设备 |
CN113612805A (zh) * | 2021-10-08 | 2021-11-05 | 国网浙江省电力有限公司信息通信分公司 | 基于密文策略属性基的能源数据访问权限撤销方法 |
CN114091690A (zh) * | 2021-11-25 | 2022-02-25 | 支付宝(杭州)信息技术有限公司 | 联邦学习模型的训练方法和调用方法以及联邦学习系统 |
CN114429190A (zh) * | 2022-01-28 | 2022-05-03 | 上海富数科技有限公司 | 基于联邦学习的模型构建方法、授信评估方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11588621B2 (en) * | 2019-12-06 | 2023-02-21 | International Business Machines Corporation | Efficient private vertical federated learning |
-
2023
- 2023-05-23 CN CN202310585446.4A patent/CN116614273B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297396A (zh) * | 2021-07-21 | 2021-08-24 | 支付宝(杭州)信息技术有限公司 | 基于联邦学习的模型参数更新方法、装置及设备 |
CN113612805A (zh) * | 2021-10-08 | 2021-11-05 | 国网浙江省电力有限公司信息通信分公司 | 基于密文策略属性基的能源数据访问权限撤销方法 |
CN114091690A (zh) * | 2021-11-25 | 2022-02-25 | 支付宝(杭州)信息技术有限公司 | 联邦学习模型的训练方法和调用方法以及联邦学习系统 |
CN114429190A (zh) * | 2022-01-28 | 2022-05-03 | 上海富数科技有限公司 | 基于联邦学习的模型构建方法、授信评估方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116614273A (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Feng et al. | Blockchain-empowered decentralized horizontal federated learning for 5G-enabled UAVs | |
Wang et al. | Distributed security architecture based on blockchain for connected health: Architecture, challenges, and approaches | |
CN112540926B (zh) | 一种基于区块链的资源分配公平的联邦学习方法 | |
Tian et al. | A voting protocol based on the controlled quantum operation teleportation | |
Yang et al. | A practical cross-device federated learning framework over 5g networks | |
Lyu et al. | Towards fair and decentralized privacy-preserving deep learning with blockchain | |
CN113127910B (zh) | 基于区块链和去中心可追踪属性签名的可控匿名投票系统 | |
Huang et al. | DAPA: A decentralized, accountable, and privacy-preserving architecture for car sharing services | |
CN116614273B (zh) | 基于cp-abe的对等网络中联邦学习数据共享系统及模型构建方法 | |
CN108462696A (zh) | 一种去中心化的区块链智能身份认证系统 | |
Zhang et al. | SABlockFL: a blockchain-based smart agent system architecture and its application in federated learning | |
Zhang et al. | Towards verifiable federated learning | |
Smahi et al. | BV-ICVs: A privacy-preserving and verifiable federated learning framework for V2X environments using blockchain and zkSNARKs | |
Yang et al. | Efficient and secure federated learning with verifiable weighted average aggregation | |
Bandara et al. | Skunk—A blockchain and zero trust security enabled federated learning platform for 5G/6G network slicing | |
CN117201132A (zh) | 一种完全去中心化的多委员会属性基加密方法及其应用 | |
Li et al. | Catfl: Certificateless authentication-based trustworthy federated learning for 6g semantic communications | |
CN115277696A (zh) | 一种跨网络联邦学习系统及方法 | |
Itoo et al. | A robust ECC-based authentication framework for energy internet (EI)-based vehicle to grid communication system | |
Samiullah et al. | Group key management in internet of things: A systematic literature review | |
Akram et al. | Digital Twin-Driven Trust Management in Open RAN-Based Spatial Crowdsourcing Drone Services | |
Liu et al. | ATRC: An anonymous traceable and revocable credential system using blockchain for VANETs | |
Li et al. | Privacy-preserving and poisoning-defending federated learning in fog computing | |
CN110890961B (zh) | 一种新型安全高效的多授权属性基密钥协商协议 | |
Yang et al. | AI-Oriented Two-Phase Multifactor Authentication in SAGINs: Prospects and Challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |