CN112862001A - 一种隐私保护下的去中心化数据建模方法 - Google Patents
一种隐私保护下的去中心化数据建模方法 Download PDFInfo
- Publication number
- CN112862001A CN112862001A CN202110290605.9A CN202110290605A CN112862001A CN 112862001 A CN112862001 A CN 112862001A CN 202110290605 A CN202110290605 A CN 202110290605A CN 112862001 A CN112862001 A CN 112862001A
- Authority
- CN
- China
- Prior art keywords
- model
- local
- participant
- training
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 230000002776 aggregation Effects 0.000 claims description 7
- 238000004220 aggregation Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000010801 machine learning Methods 0.000 abstract description 13
- 230000008901 benefit Effects 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000011176 pooling Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种隐私保护下的去中心化数据建模方法。包括:S1.初始化与本地模型训练:从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;S2.模型参数加密发送与回传:参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;S3.迭代停止:重复上述步骤直到全局模型参数[W]收敛。本发明解决了当前机器学习领域存在的数据孤岛和隐私泄露等问题;充分发挥各参与方数据的优势,降低数据中心化存储的风险,降低参与方数据隐私泄露的可能性,提升多方机器学习的安全性。
Description
技术领域
本发明属于机器学习与信息安全的交叉领域,特别是涉及一种隐私保护下的去中心化数据建模方法。
背景技术
机器学习技术在人工智能各领域如图像识别、自然语言处理的应用中取得了很大的成就。机器学习的本质就是收集大量的数据对模型进行训练,以此来得到一个能对新的输入数据有良好预测效果的模型。简而言之,机器学习过程可以归结为数据的采集、处理、计算。然而在当前的发展过程中,数据的采集和处理过程存在着两个问题,数据孤岛问题和隐私保护问题。数据孤岛和隐私保护问题广泛存在,且两者相互影响,共同阻碍了数据的获取和共享。因此如何在保护数据隐私的前提下,设计新型的机器学习框架,达到联合多方数据共同建模的目的,成为机器学习与信息安全领域的热门研究方向。如专利CN111723947A,公开日为2020.09.29,公开了一种联邦学习模型的训练方法及装置,提高了全局模型参数对非独立同分布数据训练的准确率;现有的联邦学习充分整合了各个数据孤岛,汇聚多维度数据形成一个数据联邦,使得各参与方都能得到训练出的模型。但是当前的联邦学习方式允许服务器泄露聚合后的明文信息,目前已经有研究指出这种信息泄露在满足一定约束条件下,可以让攻击者部分的恢复训练的原始数据。
发明内容
本发明为克服上述现有技术中的至少一个缺陷,提供一种隐私保护下的去中心化数据建模方法,有效提升了多方机器学习的安全性。
为解决上述技术问题,本发明采用的技术方案是:一种隐私保护下的去中心化数据建模方法,包括以下步骤:
S1.初始化与本地模型训练:从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;
S2.模型参数加密发送与回传:参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;
S3.迭代停止:重复上述步骤直到全局模型参数[W]收敛。
进一步的,其特征在于,所述的步骤S1具体包括:
S11.服务器S向参与方发送初始模型W0,每个参与方都有一个本地数据集,数据集的样本数量为Ni,i是参与方的序号;
S12.每个参与方用本地数据集进行模型训练;
S14.参与方利用其本地数据集不断进行训练,直至达到子模型的评价指标时,停止训练,得到最终的本地模型参数Wi。
进一步的,每个参与方的样本数量Ni可以不同,但需要确保样本的特征相似。
进一步的,所述的步骤S2具体包括:
S21.各参与方将本地模型参数Wi进行全同态加密生成[Wi]并发送给服务器;
S22.服务器接收到各参与方的加密模型后,在不解密的情况下进行参数聚合[W]=[W1]+[W2]+…+[Wi],得到加密后的全局模型参数[W];
S23.服务器将聚合后的全局模型参数[W]回传给各个参与方;
S24.各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练。
本发明提供一种隐私保护下的去中心化数据建模系统,包括:
初始化与本地模型训练模块,用于从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;
模型参数加密发送与回传模块:用于参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;
迭代停止模块:用于判断是否达到全局模型参数[W]收敛,以停止迭代。
进一步的,每个参与方的样本数量Ni可以不同,但需要确保样本的特征相似。
进一步的,所述的初始化与本地模型训练模块包括:
初始化单元:用于服务器S向参与方发送初始模型W0,每个参与方都有一个本地数据集;数据集的样本数量为Ni,i是参与方的序号;
参与方模型训练单元:用于每个参与方用本地数据集进行模型训练;
获取本地模型参数单元:用于参与方利用其本地数据集不断进行训练,直至达到子模型的评价指标时,停止训练,得到最终的本地模型参数Wi。
进一步的,所述的模型参数加密发送与回传模块包括:
全同态加密单元:用于各参与方将本地模型参数Wi进行全同态加密生成[Wi]并发送给服务器;
全局模型参数单元:用于服务器接收到各参与方的加密模型后,在不解密的情况下进行参数聚合[W]=[W1]+[W2]+…+[Wi],得到加密后的全局模型参数[W];
回传单元:用于服务器将聚合后的全局模型参数[W]回传给各个参与方;
迭代单元:各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练。
本发明还提供一种计算机设备,包括存储器和处理器,所述的存储器存储有计算机程序,所述的处理器执行所述的计算机程序时实现以上所述的方法的步骤。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述的计算机程序被处理器执行时实现以上所述方法的步骤。
与现有技术相比,有益效果是:本发明提供的一种隐私保护下的去中心化数据建模方法,解决了当前机器学习领域存在的数据孤岛和隐私泄露等问题;充分发挥各参与方数据的优势,降低数据中心化存储的风险,降低参与方数据隐私泄露的可能性,提升多方机器学习的安全性。
附图说明
图1是本发明方法流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
实施例1:
本发明提出了一种隐私保护下的去中心化数据建模方法,本实施例将以基本的线性回归为例,阐述在联邦学习的模式下建立一个回归模型。设定参与方有服务器S、用户u1、用户u2、用户u3,假设参与方全程不掉线。设定参数交互过程采用的加密方案为Dan Boneh等人的论文中所述的门限全同态加密方案(TFHE),该论文名称为“ThresholdCryptosystems From Threshold Fully Homomorphic Encryption”于2018年发表。
具体包括以下步骤:
步骤1:初始化密钥建立;
S11.输入安全参数λ,TFHE的Setup算法将输出公钥pk,以及私钥sk1、sk2、sk3;
S12.设定一个方案的迭代次数t(例如100次,具体根据训练集规模大致设定),再迭代t次后检验系统模型的准确率如果达到预设要求,停止迭代;否则再进行t次,直到达到为止;
S13.服务器设定一个初始模型参数W0。
步骤2:用户本地训练及加密发送;
S21.各用户从服务器端得到最新的参数wt;
S23.输入公钥pk,TFHE的Encrypt算法将输出加密后的梯度[gi(Wt)]。
步骤3:服务器更新全局模型参数;
S31.服务器等待所有用户完成好本轮梯度计算,输入公钥pk,TFHE的Eval算法将对加密后的梯度实施聚合[g(Wt)]=[g1(Wt)]+[g2(Wt)]+[g3(Wt)];
S32.服务器根据梯度下降法更新全局模型参数[Wt+1]=[Wt]-α*[g(Wt)],其中α为学习率;
步骤4:t轮后验证全局模型的准确率,用于迭代停止;
S41.假设每个用户有一个测试集Ai,其样本数量为Ni。t轮后停止训练,此时每个用户都有了全局模型参数[Wt];
S43.此时采用L.H.Crawford等人的论文5.4节Comparing Two Integers中所述的比较两个加密后的整数的方案,该论文名称为“Doing Real Work with FHE:The Case ofLogistic Regression”发表于2018年。将与[yi]通过该方法逐项进行对比形成[Ci],其中yi为测试集样本的真实标签。用户将[Ci]发给服务器;
S44.服务器等待所有用户完成好标签的比对,输入公钥pk,TFHE的Eval算法将对加密后的比较数值实施聚合[C]=[C1]+[C2]+[C3]。服务器将[C]发送给用户;
S45.输入公钥pk,私钥ski,各用户使用TFHE的PartDec算法得到部分解密结果Ci。用户将Ci发送给服务器;
S46.输入公钥pk和各用户的Ci,服务器使用TFHE的FinDec算法得到最终解密结果C,该C就是各用户在该模型下预测正确的样本的加和数量,再与N1+N2+N3比较可以计算出模型的准确率。
实施例二
本发明提出了一种隐私保护下的去中心化数据建模方法,本实施例将以机器学习中的图像识别为例,阐述在本发明下开展图像识别任务。设定的具体实施例是对手写数字图片进行识别,用户向模型输入0-9的一个数字图片,模型输出判别的结果。图片和对应的标签输入模型中训练以提高训练准确率。测试时预测的准确率将作为评判模型好坏的标准。
实施例采用MNIST数据集作为用户本地数据集,服务器将等份切分数据集,各参与方将根据索引获取对应的数据进行联邦学习。在各参与方开始训练前需要对数据做预处理。MNIST数据集有60000张图片的训练集,10000张图片的测试集。每张图片由28*28的灰度值像素组成,在作为本地数据集前需要转换为[1,784]的向量,标签也做独热编码转换为[1,10]的向量。因此整个MNIST数据集是一个[60000,784]的矩阵,第一个维度作为索引,第二个维度为图片的灰度值。
各参与方本地的训练模型均采用卷积神经网络,优化算法采用梯度下降法。具体的CNN模型包括:卷积层1,最大池化层1,ReLu层1,卷积层2,最大池化层2,ReLu层2,全连接层1,ReLu层3,全连接层2,ReLu层4。
具体包括以下步骤:
步骤1:初始化与本地模型训练;服务器首先根据参与方的数量将数据集平均分配给每个参与方形成本地数据集,服务器向参与方发送初始模型参数W0,每个参与方输入本地数据集进行训练,具体步骤如下:
S11.卷积层1:将已经转化为向量的图片输入,输入为[28,28,1]的矩阵,使用20个5*5卷积核,步长为1进行处理,输出矩阵为[24,24,20];
S12.最大池化层1:上一步输出20个矩阵,其中每个元素都是一个(-1,1)的浮点数,最大池化层以2*2的矩阵窗口,步长为2,在这20个结果上进行滑动即选取每一个2*2局部矩阵的最大值,输出矩阵为[12,12,20];
S13.ReLu层1:激活函数层将池化层输出矩阵的负元素转换成0,其余正数元素保持不变,以增加神经网络层的非线性关系;
S14.卷积层2:保持卷积核大小为5*5,20个矩阵作为输入通道,输出为50个通道,输出矩阵大小为[50,8,8];
S15.最大池化层2:对上述步骤的结果进行池化,卷积核大小不变,作用和原理同A3),输出矩阵大小为[50,4,4];
S16.ReLu层2:作用和原理同步骤S13;
S17.全连接层1:经过上述步骤,一张28*28的图片被处理成50个4*4的特征向量,全连接层1将这些特征进行线性变换输出概率值。全连接层1将50*4*4个元素变换成[1,500]个输出,再经过ReLu层3得到概率值;
S18.全连接层2:神经元个数为10个,将A8)中输出的[1,500]个概率值再变换为[1,10]的概率矩阵;
S19.最后对这10个元素再输入ReLu层,取Log对数后得到各个结果所占的概率值返回。CNN训练过程完毕;
S21.参与方利用其本地数据集不断进行训练直至达到一定的评价指标时,停止训练,得到最终的本地模型参数Wi;
步骤2:型参数加密发送与回传;
S21.每个参与方在本地对模型参数进行加密。这里使用的是浮点数全同态加密方案,CKKS方案。CKKS方案支持针对实数或复数的浮点数加法和乘法同态运算,得到计算结果为近似值,适用于机器学习等场景。Helib是一个基于C++语言的同态加密开源软件库,可以调用该库实现全同态加密方案的计算过程。模型参数Wi进行全同态加密生成[Wi]并发送给服务器;
S22.服务器接收到各参与方的加密模型后,在不解密的情况下进行参数聚合,这里利用了全同态加密的特性,使得密文在未解密的情况下可以直接对其进行运算,被处理后的密文可以被正常解密而不会修改明文的内容。这里采用同态加法对参数聚合,[W]=[W1]+[W2]+…+[Wi],得到加密后的全局模型参数[W];
S23.服务器将聚合后的全局模型参数[W]回传给各个参与方;
S24.各参与方用新的模型参数基于全同态的加、乘运算和本地数据,开始新一轮的训练。
步骤3:迭代停止:重复上述步骤直到全局模型参数[W]收敛。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种隐私保护下的去中心化数据建模方法,其特征在于,包括以下步骤:
S1.初始化与本地模型训练:从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;
S2.模型参数加密发送与回传:参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;
S3.迭代停止:重复上述步骤直到全局模型参数[W]收敛。
3.根据权利要求2所述的隐私保护下的去中心化数据建模方法,其特征在于,每个参与方的样本数量Ni可以不同,但需要确保样本的特征相似。
4.根据权利要求2所述的隐私保护下的去中心化数据建模方法,其特征在于,所述的步骤S2具体包括:
S21.各参与方将本地模型参数Wi进行全同态加密生成[Wi]并发送给服务器;
S22.服务器接收到各参与方的加密模型后,在不解密的情况下进行参数聚合[W]=[W1]+[W2]+…+[Wi],得到加密后的全局模型参数[W];
S23.服务器将聚合后的全局模型参数[W]回传给各个参与方;
S24.各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练。
5.一种隐私保护下的去中心化数据建模系统,其特征在于,包括:
初始化与本地模型训练模块,用于从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;
模型参数加密发送与回传模块:用于参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;
迭代停止模块:用于判断是否达到全局模型参数[W]收敛,以停止迭代。
6.根据权利要求5所述的隐私保护下的去中心化数据建模系统,其特征在于,每个参与方的样本数量Ni可以不同,但需要确保样本的特征相似。
7.根据权利要求5所述的隐私保护下的去中心化数据建模系统,其特征在于,所述的初始化与本地模型训练模块包括:
初始化单元:用于服务器S向参与方发送初始模型W0,每个参与方都有一个本地数据集;数据集的样本数量为Ni,i是参与方的序号;
参与方模型训练单元:用于每个参与方用本地数据集进行模型训练;
获取本地模型参数单元:用于参与方利用其本地数据集不断进行训练,直至达到子模型的评价指标时,停止训练,得到最终的本地模型参数Wi。
8.根据权利要求7所述的隐私保护下的去中心化数据建模系统,其特征在于,所述的模型参数加密发送与回传模块包括:
全同态加密单元:用于各参与方将本地模型参数Wi进行全同态加密生成[Wi]并发送给服务器;
全局模型参数单元:用于服务器接收到各参与方的加密模型后,在不解密的情况下进行参数聚合[W]=[W1]+[W2]+…+[Wi],得到加密后的全局模型参数[W];
回传单元:用于服务器将聚合后的全局模型参数[W]回传给各个参与方;
迭代单元:各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练。
9.一种计算机设备,包括存储器和处理器,所述的存储器存储有计算机程序,其特征在于,所述的处理器执行所述的计算机程序时实现权利要求1至4任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述的计算机程序被处理器执行时实现权利要求1至4任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110290605.9A CN112862001B (zh) | 2021-03-18 | 2021-03-18 | 一种联邦学习下去中心化数据建模的隐私保护方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110290605.9A CN112862001B (zh) | 2021-03-18 | 2021-03-18 | 一种联邦学习下去中心化数据建模的隐私保护方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112862001A true CN112862001A (zh) | 2021-05-28 |
CN112862001B CN112862001B (zh) | 2024-07-26 |
Family
ID=75993331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110290605.9A Active CN112862001B (zh) | 2021-03-18 | 2021-03-18 | 一种联邦学习下去中心化数据建模的隐私保护方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112862001B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449318A (zh) * | 2021-06-18 | 2021-09-28 | 北京明朝万达科技股份有限公司 | 一种数据分级模型训练方法、装置、数据分级方法、装置 |
CN113645197A (zh) * | 2021-07-20 | 2021-11-12 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及系统 |
CN113792632A (zh) * | 2021-09-02 | 2021-12-14 | 广州广电运通金融电子股份有限公司 | 基于多方合作的指静脉识别方法、系统和存储介质 |
CN113836556A (zh) * | 2021-09-26 | 2021-12-24 | 广州大学 | 面向联邦学习的去中心化函数加密隐私保护方法及系统 |
CN113961967A (zh) * | 2021-12-13 | 2022-01-21 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护联合训练自然语言处理模型的方法及装置 |
CN114357526A (zh) * | 2022-03-15 | 2022-04-15 | 中电云数智科技有限公司 | 抵御推断攻击的医疗诊断模型差分隐私联合训练方法 |
CN116151370A (zh) * | 2023-04-24 | 2023-05-23 | 西南石油大学 | 一种模型参数优化选择系统 |
CN116186784A (zh) * | 2023-04-27 | 2023-05-30 | 浙江大学 | 基于联邦学习隐私保护的心电图心率失常分类方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
CN111260081A (zh) * | 2020-02-14 | 2020-06-09 | 广州大学 | 一种非交互式隐私保护多方机器学习方法 |
CN112199702A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及系统 |
-
2021
- 2021-03-18 CN CN202110290605.9A patent/CN112862001B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
CN111260081A (zh) * | 2020-02-14 | 2020-06-09 | 广州大学 | 一种非交互式隐私保护多方机器学习方法 |
CN112199702A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及系统 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449318A (zh) * | 2021-06-18 | 2021-09-28 | 北京明朝万达科技股份有限公司 | 一种数据分级模型训练方法、装置、数据分级方法、装置 |
CN113449318B (zh) * | 2021-06-18 | 2024-03-19 | 北京明朝万达科技股份有限公司 | 一种数据分级模型训练方法、装置、数据分级方法、装置 |
CN113645197A (zh) * | 2021-07-20 | 2021-11-12 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及系统 |
CN113645197B (zh) * | 2021-07-20 | 2022-04-29 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及系统 |
CN113792632A (zh) * | 2021-09-02 | 2021-12-14 | 广州广电运通金融电子股份有限公司 | 基于多方合作的指静脉识别方法、系统和存储介质 |
CN113836556A (zh) * | 2021-09-26 | 2021-12-24 | 广州大学 | 面向联邦学习的去中心化函数加密隐私保护方法及系统 |
CN113961967A (zh) * | 2021-12-13 | 2022-01-21 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护联合训练自然语言处理模型的方法及装置 |
CN113961967B (zh) * | 2021-12-13 | 2022-03-22 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护联合训练自然语言处理模型的方法及装置 |
CN114357526A (zh) * | 2022-03-15 | 2022-04-15 | 中电云数智科技有限公司 | 抵御推断攻击的医疗诊断模型差分隐私联合训练方法 |
CN116151370A (zh) * | 2023-04-24 | 2023-05-23 | 西南石油大学 | 一种模型参数优化选择系统 |
CN116151370B (zh) * | 2023-04-24 | 2023-07-21 | 西南石油大学 | 一种模型参数优化选择系统 |
CN116186784A (zh) * | 2023-04-27 | 2023-05-30 | 浙江大学 | 基于联邦学习隐私保护的心电图心率失常分类方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112862001B (zh) | 2024-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112862001B (zh) | 一种联邦学习下去中心化数据建模的隐私保护方法及系统 | |
CN110460600B (zh) | 可抵御生成对抗网络攻击的联合深度学习方法 | |
US20230078061A1 (en) | Model training method and apparatus for federated learning, device, and storage medium | |
CN113159329B (zh) | 模型训练方法、装置、设备及存储介质 | |
CN113658051A (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
CN113221105B (zh) | 一种基于部分参数聚合的鲁棒性联邦学习算法 | |
CN113850272A (zh) | 基于本地差分隐私的联邦学习图像分类方法 | |
CN110071798B (zh) | 一种等效密钥获取方法、装置及计算机可读存储介质 | |
CN113240129A (zh) | 一种面向多类型任务图像分析的联邦学习系统 | |
CN113947211A (zh) | 联邦学习模型的训练方法、装置、电子设备和存储介质 | |
CN114362948B (zh) | 一种联邦衍生特征逻辑回归建模方法 | |
CN115795406A (zh) | 一种可逆的人脸匿名化处理系统 | |
CN116562366A (zh) | 一种基于特征选择和特征对齐的联邦学习方法 | |
CN115481415A (zh) | 基于纵向联邦学习的通信成本优化方法、系统、设备及介质 | |
CN111259264A (zh) | 一种基于生成对抗网络的时序评分预测方法 | |
CN113962286A (zh) | 一种基于分段函数的去中心化逻辑回归分类预测方法 | |
CN117391816A (zh) | 一种异质图神经网络推荐方法、装置及设备 | |
CN116758379B (zh) | 一种图像处理方法、装置、设备及存储介质 | |
Zhai et al. | Identity-preserving conditional generative adversarial network | |
CN110175283B (zh) | 一种推荐模型的生成方法及装置 | |
CN116383470A (zh) | 一种具有隐私保护的图像搜索方法 | |
CN116091891A (zh) | 图像识别方法及系统 | |
CN111737688A (zh) | 基于用户画像的攻击防御系统 | |
CN115936961A (zh) | 基于少样本对比学习网络的隐写分析方法、设备及介质 | |
CN115130568A (zh) | 支持多参与方的纵向联邦Softmax回归方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |