CN111581663A - 面向非规则用户的保护隐私的联邦深度学习方法 - Google Patents
面向非规则用户的保护隐私的联邦深度学习方法 Download PDFInfo
- Publication number
- CN111581663A CN111581663A CN202010360559.0A CN202010360559A CN111581663A CN 111581663 A CN111581663 A CN 111581663A CN 202010360559 A CN202010360559 A CN 202010360559A CN 111581663 A CN111581663 A CN 111581663A
- Authority
- CN
- China
- Prior art keywords
- server
- user
- reliability
- encrypted
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 10
- 230000001788 irregular Effects 0.000 title claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 230000000739 chaotic effect Effects 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0428—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
- H04L63/0442—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload wherein the sending and receiving network entities apply asymmetric encryption, i.e. different keys for encryption and decryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0861—Generation of secret information including derivation or calculation of cryptographic keys or passwords
- H04L9/0869—Generation of secret information including derivation or calculation of cryptographic keys or passwords involving random numbers or seeds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioethics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明提供一种面向非规则用户的保护隐私的联邦深度学习方法,包括步骤:1)系统设置步骤;2)迭代初始化步骤;3)更新加密的用户的可靠性;4)更新加密的汇总信息:服务器利用更新得到的加密的用户的可靠性信息为汇总结果的权重来更新各梯度的加密的汇总结果使得可靠性越低的用户对汇总结果的影响越小。本发明保护所有用户相关信息的隐私,并且减少用户在训练过程中因使用低质量数据的影响,同时确保用户相关信息的真实性。由服务器完成大部分计算,对于计算能力有限的终端用户来说非常友好,且对用户在整个训练过程中由于各种不可预知的原因而中途退出也具有鲁棒性。
Description
技术领域
本发明具体涉及一种在云环境下面向非规则用户的保护隐私的联邦深度学习方法,属于信息安全技术领域。
技术背景
传统的集中式深度学习通常需要一个数据处理中心(如云服务器)来收集大量的用户数据,并训练深度神经网络。深度学习作为人工智能的一个有前途的分支,已经渗透到电子健康的各个领域,如疾病预测、分析、预防和远程医疗等。此外,日益流行的网络链接设备提供了大量的电子健康记录,如可穿戴设备和智能手机等,在这些记录上进行深度学习模型可以显著提高医疗服务的质量。虽然将深度学习应用到电子健康有显而易见的好处,但收集大量的电子健康记录可能会泄露参与者隐私敏感信息,如疾病历史和医疗记录。为了解决这个问题,联邦学习被广泛应用于电子健康,因为它只通过在神经网络之间共享参数来支持神经网络优化,而不是共享用户的原始数据。用户只需要将本地完成一次训练iteration之后的训练模型(深度神经网络)梯度发送给云服务器,云服务器收集梯度计算汇总结果再下发至用户,用户根据接收到的汇总结果对本地的下一次的训练时使用的模型参数进行调整,直至完成训练。
然而,最新的研究表明,对手(如云服务器)仍然可以利用共享的梯度和汇总结果恢复目标数据(如数据标签、成员关系等)。为了解决联合训练过程中的隐私泄露问题,人们提出了许多出色的解决方案,并将其应用于各种场景。
在真实的场景中,每个用户所持有的原始数据的质量通常是不均匀的。拥有高级专业知识或终端设备的用户通常生成高质量的数据,而其他人可能持有低质量的数据。在本文中,我们将这些低质量数据的用户视为不规则用户。显然,在联合训练过程中,不规则用户共享的参数可能会影响训练的准确性,甚至导致最终模型的无用性。
综上,目前的联邦学习机制存在以下不足:1)当模型的准确性是可接受的时,对手仍然可以很容易地恢复用户的敏感数据。2)要求成功完成私有训练任务的服务器是可信的,这与许多实际场景中不可信服务器设置的假设相矛盾。3)服务器可以访问每个用户的可靠性,即每个用户的“数据质量”信息(称为用户的可靠性)未进行保密。
发明内容
本发明所要解决的技术问题是,提供一种考虑到不规则用户的可靠性并能保留数据隐私的联邦深度学习方法。
本发明为解决上述技术问题所采用的技术方案是,面向非规则用户的保护隐私的联邦深度学习方法包括以下步骤:
1)系统设置步骤:被指定的两台服务器S0、S1,服务器S1保存有第三方为其生成一对非对称密钥(pk1,sk1),pk1为公钥,sk1为私钥;
服务器S0用于接收用户发送的使用随机值与公钥pk1进行加密处理后的梯度信息其中,为用户i第m次迭代的梯度,i为用户序号i=1,…,N,N为系统内用户总数,为用户i第m次迭代时生成的用户随机数,表示使用公钥pk1对A加密,m表示迭代次数序号,m∈[1,M],M表示完成一代训练epoch时所进行的迭代Iteration的总次数;服务器S1用于接收用户发送的随机数
2)迭代初始化步骤:服务器S0初始化各次迭代的使用随机值与公钥pk1进行加密处理后的汇总信息其中,为汇总结果的初始值,为加密后的第m次迭代中生成的汇总随机数的初始值;服务器S1使用与服务器S0相同的方式设置第m次迭代中生成的汇总随机数的初始值
3)更新加密的用户的可靠性:服务器S0利用给定的加密处理后的梯度信息加密处理后的汇总信息和服务器S1给定的汇总随机数以及保存的私钥sk1一起进行各用户i的可靠性更新:由服务器S0生成加密的用户的可靠性信息其中,Ti为用户i的可靠性,Ti与用户i本地梯度与汇总结果之间的距离呈负相关,为生成的用户i的可靠性随机数;服务器S1获得用户i的可靠性随机数
4)更新加密的汇总结果:服务器S0利用更新得到的加密的用户的可靠性信息作为权重,以及服务器S1获得每个用户的可靠性随机数和用户随机数来更新各梯度m的加密的汇总信息使得可靠性越低的用户对汇总结果的影响越小,可靠性越高的用户对汇总结果的影响越大,并将更新的各梯度m的加密的汇总信息发送至各用户。
本发明的有益效果是:提出的不规则用户中保留隐私的联邦学习方法,保护所有用户相关信息的隐私,包括每个用户的梯度、可靠性以及汇总结果,在将本地梯度上传到云中之前,每个用户都使用附加的同态加密对其进行加密,并且减少用户在训练过程中因使用低质量数据的影响,同时确保用户相关信息的真实性。本发明方法的大部分计算都是由服务器完成的,对于计算能力有限的终端用户来说非常友好,且对用户在整个训练过程中由于各种不可预知的原因而中途退出也具有鲁棒性。
附图说明
图1为联邦学习系统的示意图。
如图1所示,在系统模型中包括服务器S0、S1和N个用户共同实现保护隐私的联合训练。所有参与的用户首先同意一个统一的深度神经网络DNN。然后,在每一代训练epoch的每一次训练iteration中,每个用户使用其本地数据集训练DNN,并计算训练样本对应的梯度。为了加快收敛速度和提高训练的准确性,每个用户都对其本地梯度加密并将其提交给云。接下来,两个没有勾结的云服务器S0和S1交互执行本发明参数传递方法以获取密文(梯度的汇总结果)并将汇总结果返回给所有用户。最后,每个用户对密文进行解密,并更新本地DNN的参数。为了获得满意的网络结构,两个服务器和所有用户反复执行上述操作,直到DNN满足预定义的优化条件。
本发明方法,包括以下步骤:
1)系统设置步骤:被指定的两台服务器S0、S1,服务器S1保存有第三方为其生成一对非对称密钥(pk1,sk1),pk1为公钥,sk1为私钥;
服务器S0用于接收用户发送的使用随机值与公钥pk1进行加密处理后的梯度信息其中,为用户i第m次迭代的梯度,i为用户序号i=1,…,N,N为系统内用户总数,为用户i第m次迭代时生成的用户随机数,表示使用公钥pk1对A加密,m表示迭代次数序号,m∈[1,M],M表示完成一代训练epoch时所进行的迭代Iteration的总次数;服务器S1用于接收用户发送的随机数
2)迭代初始化步骤:服务器S0初始化各次迭代的使用随机值与公钥pk1进行加密处理后的汇总信息其中,为汇总结果的初始值,为加密后的第m次迭代中生成的汇总随机数的初始值;服务器S1使用与服务器S0相同的方式设置第m次迭代中生成的汇总随机数的初始值
3)更新加密的用户的可靠性:服务器S0利用给定的加密处理后的梯度信息加密处理后的汇总信息和服务器S1给定的汇总随机数以及保存的私钥sk1一起进行各用户i的可靠性更新:由服务器S0生成加密的用户的可靠性信息其中,Ti为用户i的可靠性,Ti与用户i本地梯度与汇总结果之间的距离呈负相关,为生成的用户i的可靠性随机数;服务器S1获得用户i的可靠性随机数
具体的:
3-4-2)服务器S1收到中间值x′1和x′2后,首先对接收到的中间值利用私钥sk1进行解密得到接着随机选择整数根据d1,d2,构造混乱电路GC,再使用公钥pk1加密随机选择的整数得到最后将GC和混淆的d1、d2、和发送到服务器S0;
3-4-3)服务器S0和S1共同执行不经意传输协议OT协议使得服务器S1来获得d1、d2的混淆值;
4)更新加密的汇总结果:服务器S0利用更新得到的加密的用户的可靠性信息作为权重,以及服务器S1获得每个用户的可靠性随机数和用户随机数来更新各梯度m的加密的汇总信息使得可靠性越低的用户对汇总结果的影响越小,可靠性越高的用户对汇总结果的影响越大,并将更新的各梯度m的加密的汇总信息发送至各用户;
具体的:
4-3)服务器S0计算:
4-4-2)服务器S1收到中间值x′3和x′4后,首先对接收到的中间值利用私钥sk1进行解密得到接着随机选择整数作为更新的汇总随机数根据d3,d4,构造混乱电路GC,最后将GC和混淆的d3、d4、和的值发送到服务器S0;
4-4-3)S0和S1共同执行OT协议来获得d3、d4的混淆值;
5)用户利用接收到的服务器S0发送的加密处理后的用户i的汇总信息对训练模型的参数进行调整后再次进行训练,得到当前的第m次迭代训练的训练模型的梯度并生成对应此次迭代训练的用户随机数对与进行加密处理得到加密处理后的梯度信息并发送至S0,同时将发送至S1,重复步骤3)至步骤5)直至用户完成训练。
整个过程中两个服务器分工不同,只有服务器S1拥有私钥,只有服务器S0有用户的可靠性以及更新后的加密的汇总结果,以防止服务器恶意解密用户数据。
Claims (4)
1.面向非规则用户的保护隐私的联邦深度学习方法,其特征在于,云服务器方执行以下步骤:
1)系统设置步骤:被指定的两台服务器S0、S1,服务器S1保存有第三方为其生成一对非对称密钥(pk1,sk1),pk1为公钥,sk1为私钥;
服务器S0用于接收用户发送的使用随机值与公钥pk1进行加密处理后的梯度信息其中,为用户i第m次迭代的梯度,i为用户序号i=1,...,N,N为系统内用户总数,为用户i第m次迭代时生成的用户随机数,表示使用公钥pk1对A加密,m表示迭代次数序号,m∈[1,M],M表示完成一代训练epoch时所进行的迭代Iteration的总次数;服务器S1用于接收用户发送的随机数
2)迭代初始化步骤:服务器S0初始化各次迭代的使用随机值与公钥pk1进行加密处理后的汇总信息其中,为汇总结果的初始值,为加密后的第m次迭代中生成的汇总随机数的初始值;服务器S1使用与服务器S0相同的方式设置第m次迭代中生成的汇总随机数的初始值
3)更新加密的用户的可靠性信息:服务器S0利用给定的加密处理后的梯度信息加密处理后的汇总信息和服务器S1给定的汇总随机数以及保存的私钥sk1一起进行各用户i的可靠性更新:由服务器S0生成加密的用户的可靠性信息其中,Ti为用户i的可靠性,Ti与用户i本地梯度与汇总结果之间的距离呈负相关,为生成的用户i的可靠性随机数;服务器S1获得用户i的可靠性随机数
3.如权利要求1所述方法,其特征在于,步骤3)的具体方法是:
3-4-2)服务器S1收到中间值x′1和x′2后,首先对接收到的中间值利用私钥sk1进行解密得到接着随机选择整数根据d1,d2,构造混乱电路GC,再使用公钥pk1加密随机选择的整数得到最后将GC和混淆的d1、d2、和发送到服务器S0;
3-4-3)服务器S0和S1共同执行不经意传输协议OT协议使得服务器S1来获得d1、d2的混淆值;
4.如权利要求1所述方法,其特征在于,步骤4)具体包括以下步骤:
4-3)服务器S0计算:
4-4-2)服务器S1收到中间值x′3和x′4后,首先对接收到的中间值利用私钥sk1进行解密得到j=3,4;接着随机选择整数作为更新的汇总随机数根据d3,d4,构造混乱电路GC,最后将GC和混淆的d3、d4、和的值发送到服务器S0;
4-4-3)S0和S1共同执行OT协议来获得d3、d4的混淆值;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360559.0A CN111581663B (zh) | 2020-04-30 | 2020-04-30 | 面向非规则用户的保护隐私的联邦深度学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360559.0A CN111581663B (zh) | 2020-04-30 | 2020-04-30 | 面向非规则用户的保护隐私的联邦深度学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111581663A true CN111581663A (zh) | 2020-08-25 |
CN111581663B CN111581663B (zh) | 2022-05-03 |
Family
ID=72111952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360559.0A Active CN111581663B (zh) | 2020-04-30 | 2020-04-30 | 面向非规则用户的保护隐私的联邦深度学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111581663B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782176A (zh) * | 2022-06-23 | 2022-07-22 | 浙江数秦科技有限公司 | 一种基于联邦学习的信贷业务推荐方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150049163A1 (en) * | 2013-03-15 | 2015-02-19 | James Paul Smurro | Network system apparatus and method of use adapted for visual neural networking with multi-channel multiplexed streaming medical imagery and packetized clinical informatics |
CN109359588A (zh) * | 2018-10-15 | 2019-02-19 | 电子科技大学 | 一种新的隐私保护下非交互式的k近邻分类方法 |
CN109543445A (zh) * | 2018-10-29 | 2019-03-29 | 复旦大学 | 一种基于条件概率分布的隐私保护数据发布方法 |
CN109684855A (zh) * | 2018-12-17 | 2019-04-26 | 电子科技大学 | 一种基于隐私保护技术的联合深度学习训练方法 |
EP3477527A1 (en) * | 2017-10-31 | 2019-05-01 | Twinpeek | Privacy management |
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN110443063A (zh) * | 2019-06-26 | 2019-11-12 | 电子科技大学 | 自适性保护隐私的联邦深度学习的方法 |
CN110719158A (zh) * | 2019-09-11 | 2020-01-21 | 南京航空航天大学 | 基于联合学习的边缘计算隐私保护系统及保护方法 |
CN110796267A (zh) * | 2019-11-12 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 数据共享的机器学习方法和机器学习装置 |
CN110874491A (zh) * | 2020-01-16 | 2020-03-10 | 支付宝(杭州)信息技术有限公司 | 基于机器学习的隐私数据处理方法、装置及电子设备 |
-
2020
- 2020-04-30 CN CN202010360559.0A patent/CN111581663B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150049163A1 (en) * | 2013-03-15 | 2015-02-19 | James Paul Smurro | Network system apparatus and method of use adapted for visual neural networking with multi-channel multiplexed streaming medical imagery and packetized clinical informatics |
EP3477527A1 (en) * | 2017-10-31 | 2019-05-01 | Twinpeek | Privacy management |
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN109359588A (zh) * | 2018-10-15 | 2019-02-19 | 电子科技大学 | 一种新的隐私保护下非交互式的k近邻分类方法 |
CN109543445A (zh) * | 2018-10-29 | 2019-03-29 | 复旦大学 | 一种基于条件概率分布的隐私保护数据发布方法 |
CN109684855A (zh) * | 2018-12-17 | 2019-04-26 | 电子科技大学 | 一种基于隐私保护技术的联合深度学习训练方法 |
CN110443063A (zh) * | 2019-06-26 | 2019-11-12 | 电子科技大学 | 自适性保护隐私的联邦深度学习的方法 |
CN110719158A (zh) * | 2019-09-11 | 2020-01-21 | 南京航空航天大学 | 基于联合学习的边缘计算隐私保护系统及保护方法 |
CN110796267A (zh) * | 2019-11-12 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 数据共享的机器学习方法和机器学习装置 |
CN110874491A (zh) * | 2020-01-16 | 2020-03-10 | 支付宝(杭州)信息技术有限公司 | 基于机器学习的隐私数据处理方法、装置及电子设备 |
Non-Patent Citations (7)
Title |
---|
GUOWEN XU: "Achieving efficient and privacy-preserving truth discovery in crowd sensing systems", 《HTTP://DX.DOI.ORG/DOI: 10.1016/J.COSE.2016.11.014》 * |
GUOWEN XU: "Data Security Issues in Deep Learning:Attacks, Countermeasures, and Opportunities", 《IEEE COMMUNICATIONS MAGAZINE》 * |
MENG HAO: "Towards Efficient and Privacy-preserving Federated Deep Learning", 《ICC 2019》 * |
WENBO JIANG: "PTAS: Privacy-preserving Thin-client Authentication Scheme in Blockchain-based PKI", 《FUTURE GENERATION COMPUTER SYSTEMS》 * |
刘峰: "一种隐私保护关联规则挖掘的混合算法", 《计算机应用研究》 * |
张铭凯等: "多数据源下机器学习的隐私保护研究", 《网络空间安全》 * |
贾延延等: "联邦学习模型在涉密数据处理中的应用", 《中国电子科学研究院学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782176A (zh) * | 2022-06-23 | 2022-07-22 | 浙江数秦科技有限公司 | 一种基于联邦学习的信贷业务推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111581663B (zh) | 2022-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110572253B (zh) | 一种联邦学习训练数据隐私性增强方法及系统 | |
CN109495465B (zh) | 基于智能合约的隐私集合交集方法 | |
CN111581648B (zh) | 在不规则用户中保留隐私的联邦学习的方法 | |
CN113761557A (zh) | 一种基于全同态加密算法的多方深度学习隐私保护方法 | |
CN114219483B (zh) | 基于lwe-cpabe的区块链数据共享方法、设备和存储介质 | |
CN109347829B (zh) | 一种基于隐私保护的群智感知网络真值发现方法 | |
CN113836556B (zh) | 面向联邦学习的去中心化函数加密隐私保护方法及系统 | |
Wang et al. | VOSA: Verifiable and oblivious secure aggregation for privacy-preserving federated learning | |
CN111931249B (zh) | 支持传输容错机制的医疗密态数据统计分析方法 | |
Sun et al. | A privacy-aware and traceable fine-grained data delivery system in cloud-assisted healthcare IIoT | |
CN117421762A (zh) | 基于差分隐私和同态加密的联邦学习隐私保护方法 | |
CN112787809B (zh) | 一种高效的群智感知数据流隐私保护真值发现方法 | |
CN114386069A (zh) | 一种基于条件隐私集合求交的联邦学习模型训练方法 | |
CN116865938A (zh) | 基于秘密共享和同态加密的多服务器联邦学习方法 | |
CN111581663B (zh) | 面向非规则用户的保护隐私的联邦深度学习方法 | |
CN113204788B (zh) | 一种细粒度属性匹配隐私保护方法 | |
CN117077192B (zh) | 一种隐私保护的联邦学习中搭便车攻击防御方法及装置 | |
CN118337417A (zh) | 一种可检索的去中心化细粒度安全共享知识的方法 | |
Yang et al. | Federated medical learning framework based on blockchain and homomorphic encryption | |
CN110247761A (zh) | 一种格上支持属性撤销的密文策略属性加密方法 | |
CN116502223A (zh) | 联邦学习下保护用户数据隐私和抵抗恶意攻击者的方法 | |
CN117150546A (zh) | 基于联邦学习的隐私保护可验证安全聚合方法及系统 | |
CN115442103B (zh) | 一种群体学习抗毒化攻击方法、系统、设备及存储介质 | |
Ren et al. | Data dynamics enabled privacy-preserving public batch auditing in cloud storage | |
CN118643919B (zh) | 基于多密钥的联邦学习方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |