CN114662155A - 面向联邦学习的数据隐私安全机制评估方法、设备及介质 - Google Patents

面向联邦学习的数据隐私安全机制评估方法、设备及介质 Download PDF

Info

Publication number
CN114662155A
CN114662155A CN202210559255.6A CN202210559255A CN114662155A CN 114662155 A CN114662155 A CN 114662155A CN 202210559255 A CN202210559255 A CN 202210559255A CN 114662155 A CN114662155 A CN 114662155A
Authority
CN
China
Prior art keywords
sample
reconstructed
original
gradient
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210559255.6A
Other languages
English (en)
Other versions
CN114662155B (zh
Inventor
郑飞州
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Zhongping Intelligent Technology Co ltd
Original Assignee
Guangzhou Zhongping Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Zhongping Intelligent Technology Co ltd filed Critical Guangzhou Zhongping Intelligent Technology Co ltd
Priority to CN202210559255.6A priority Critical patent/CN114662155B/zh
Publication of CN114662155A publication Critical patent/CN114662155A/zh
Application granted granted Critical
Publication of CN114662155B publication Critical patent/CN114662155B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及数据隐私保护领域,具体公开了一种面向联邦学习的数据隐私安全机制评估方法、设备及介质,包括对用于训练本地模型的样本数据集进行采样,得到原始样本;通过重构模型,重构一组与原始样本相关的重构样本;计算原始样本与重构样本的梯度差异,并依据梯度差异迭代重构样本,获得最终重构样本;计算最终重构样本与原始样本的相似度和匹配率,作为所述样本数据集的监测值;比较所述监测值是否大于等于预设值时,如是,则发出梯度泄露风险告警;否则,提示安全。本发明根据重构样本与输入样本的相似度来制定风险评估指标,不依赖于预训练的统计模型。

Description

面向联邦学习的数据隐私安全机制评估方法、设备及介质
技术领域
本发明涉及数据隐私保护领域,尤其涉及一种面向联邦学习的数据隐私安全机制评估方法、设备及介质。
背景技术
联邦学习是一种有效解决数据孤岛问题的框架:参与联邦学习的实体,可以实现数据不离本地,通过交换和聚合模型梯度的方式实现联合构建模型,促成多方数据价值的融合。在传统联邦学习中,模型梯度被认为不会泄露参与方的本地数据,然而事实上,有研究表明,模型梯度存在泄露出输入数据信息的可能性;因此众多围绕联邦学习隐私保护技术相继被提出,如差分隐私、同态加密等。针对联邦学习中模型梯度会泄露哪些参与方的本地数据,这些隐私保护方式是否能够有效保护参与方的数据隐私,急需一种风险评估方法进行评估,为进一步改进面向联邦学习的数据隐私安全机制提供依据。
参见中国发明专利(公开号:CN112765559A),具体公开了一种联邦学习的过程中模型参数的处理方法、装置及相关设备,该发明主要思路为:一、对联邦学习中某一参与方选择待训练的本地数据;二、利用所选的数据对全局模型进行训练得到对应的模型梯度;三、利用预先训练的统计模型计算所选数据与其模型梯度的互信息值;四、当该互信息值大于等于预设阈值时,发出该模型梯度隐私泄露风险提醒,否则将该模型梯度上传至参数服务器。该方案存在两个主要缺陷:一是该方案通过预先训练好的统计模型发送至参与方端,计算待训练数据与其模型梯度的互信息值,据此衡量样本的梯度隐私泄露风险,但该技术要求预先训练的统计模型这一先决条件,且模型效能会影响互信息计算的准确性,针对不同的参与方可能需要训练不同的模型,而训练用的数据如何获取是一个问题;二是互信息值的调节难度较大,即便获得了互信息值,此单一数值也难以让参与方具体地理解到梯度泄露数据风险的程度。
导致上述问题的原因在于两个方面:一是需要预先训练互信息计算统计模型,这降低了技术的构建和应用效率,且在深度学习模型的构建环境中,此类统计模型的构建方法是难以适用的;二是互信息值缺乏一定的可理解性,当联邦学习各参与方的数据存在非独立同分布时,不同数据对应的合适的互信息值的阈值可能有较大差异,而阈值的调节缺少依据。
发明内容
为了克服上述现有技术中存在的问题,本发明提供一种面向联邦学习的数据隐私安全机制评估方法、设备及介质。
本发明提供了一种面向联邦学习的数据隐私安全机制评估方法,包括:
对用于训练本地模型的样本数据集进行采样,得到原始样本;
通过重构模型,重构一组与原始样本相关的重构样本;
计算原始样本与重构样本的梯度差异,并依据梯度差异迭代重构样本,获得最终重构样本;
计算最终重构样本与原始样本的相似度和匹配率,作为所述样本数据集的监测值;
当所述监测值大于等于预设值时,发出梯度泄露风险告警;
当所述监测值小于所述预设值时,提示安全。
作为优选地,所述通过重构模型,重构一组与原始样本相关的重构样本,具体为:
依据原始样本,通过正态分布随机初始化,获得一组与原始样本相同维度的重构样本。
优选地,所述计算原始样本与重构样本的梯度差异,并依据梯度差异迭代重构样本,获得最终重构样本,具体为:
通过公式(1)计算原始样本与重构样本的梯度差异;并通过公式(2),迭代更新重构样本
Figure 279029DEST_PATH_IMAGE001
,获得最终重构样本;
Figure 801277DEST_PATH_IMAGE002
Figure 313161DEST_PATH_IMAGE003
(1)
Figure 528242DEST_PATH_IMAGE004
Figure 758366DEST_PATH_IMAGE005
Figure 57541DEST_PATH_IMAGE006
(2)
其中,
Figure 892773DEST_PATH_IMAGE007
为最终重构样本的特征-标签对,
Figure 747596DEST_PATH_IMAGE008
为更新步长,
Figure 996175DEST_PATH_IMAGE009
为由重构样本
Figure 624340DEST_PATH_IMAGE010
计算而得的重构模型梯度,
Figure 907554DEST_PATH_IMAGE011
为由原始样本(x,y)计算而得的原始模型梯度,F为待训练的神经网络模型,其模型参数为W。
优选地,所述计算最终重构样本与原始样本的相似度和匹配率,作为所述样本数据集的监测值,具体为:
将重构样本特征
Figure 402120DEST_PATH_IMAGE012
和欲保护的输入样本特征
Figure 606837DEST_PATH_IMAGE013
采用MSE相似度算法,获得最终重构样本与原始样本的相似度值,采用匹配率
Figure 274579DEST_PATH_IMAGE014
算法计算最终重构样本与原始样本的匹配率;将相似度值和匹配率作为所述样本数据集的监测值。
优选地,所述MSE相似度算法,具体为公式(3):
Figure 677878DEST_PATH_IMAGE015
(3)
所述匹配率Match算法,具体为公式(4):
Figure 638619DEST_PATH_IMAGE016
(4)
优选地,还包括:
输出相似度和匹配率,以及最终重构样本。
本发明提供了一种终端设备,包括处理器和存储装置,所述存储装置用于存储一个或多个程序;当所述一个或多个程序被所述处理器执行时,所述处理器实现上述面向联邦学习的数据隐私安全机制评估方法。
本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述面向联邦学习的数据隐私安全机制评估方法。
本发明的有益效果是:
(1)本发明提出了一种新的梯度泄露数据的评估方法,评估联邦学习参与方梯度泄露数据的风险;通过梯度优化的方法来高效地模拟数据偷窃者,并根据重构样本与输入样本的相似度来制定风险评估指标,不依赖于预训练的统计模型;
(2)本发明不仅能输出具体的风险指标,即相似度指标,还可以输出重构样本,让参与方能够更准确地把握哪些输入样本的信息被泄露,并根据泄露的数据重要程度,设定合理的指标阈值。
附图说明
下文将结合说明书附图对本发明进行进一步的描述说明,其中:
图1为本发明其中一个实施例的方法流程图;
图2为本发明又一个实施例的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1和图2,作为本发明的其中一个实施,公开了一种面向联邦学习的数据隐私安全机制评估方法,其具体实现步骤如下:
S1、对用于训练本地模型的样本数据集进行采样,得到原始样本;
S2、通过重构模型,重构一组与原始样本相关的重构样本;
S3、计算原始样本与重构样本的梯度差异,并依据梯度差异迭代重构样本,获得最终重构样本;
S4、计算最终重构样本与原始样本的相似度和匹配率,作为所述样本数据集的监测值;
S51、当所述监测值大于等于预设值时,发出梯度泄露风险告警;
S52、当所述监测值小于所述预设值时,提示安全。
优选地,还包括:
S6、输出相似度和匹配率,以及最终重构样本。
本实施例通过模拟数据偷窃者,实现从梯度中重构出输入数据的模拟,使得参与方能够具体地了解到输入数据会被梯度数据泄露多少信息,让参与方能够更加具体地了解梯度泄露数据的风险,由此可以有效地实现对隐私泄露风险的把控和对防御方法有效性的验证,使风险指标具备更清晰的可理解性。
作为本发明的另一实施例,通过模拟数据偷窃者通过模型参数来逆向窃取数据隐私的能力,验证本方案能否提高对数据隐私安全机制的保护能力;本实施例的具体实现思路如下:
首先,将数据偷窃者从梯度逆向出输入数据的方法转换为一个优化问题,其对应优化解的形式如公式(1)所示;并通过梯度下降的方法来迭代更新重构样本
Figure 65052DEST_PATH_IMAGE017
,如公式(2)所示。
Figure 536484DEST_PATH_IMAGE002
Figure 528711DEST_PATH_IMAGE003
(1)
Figure 427397DEST_PATH_IMAGE018
Figure 137864DEST_PATH_IMAGE005
Figure 881829DEST_PATH_IMAGE019
(2)
数据偷窃者通过重构样本
Figure 492677DEST_PATH_IMAGE007
获取参与方的数据隐私,其中,
Figure 296685DEST_PATH_IMAGE007
为最终重构样本的特征-标签对,
Figure 494448DEST_PATH_IMAGE008
为更新步长,
Figure 42104DEST_PATH_IMAGE020
为由重构样本
Figure 477765DEST_PATH_IMAGE010
计算而得的重构模型梯度,
Figure 718253DEST_PATH_IMAGE011
为由原始样本(x,y)计算而得的原始模型梯度,F为待训练的神经网络模型,其模型参数为W。
本实施例的主要思路是,通过一组重构样本方法来解决上述优化问题,使重构样本计算得的梯度
Figure 137733DEST_PATH_IMAGE020
与欲保护的参与方输入数据计算得到的梯度
Figure 185018DEST_PATH_IMAGE021
的差异尽可能小,来实现重构样本逼近于输入样本。
因为梯度矩阵是高维的,因此具备幅值大小和方向两种性质,如公式(1),本实施例采用L2范数来衡量梯度之间的幅值大小,对应
Figure 6344DEST_PATH_IMAGE022
Figure 417733DEST_PATH_IMAGE023
为该项的调节权重;用负余弦相似度来衡量梯度之间的方向差异,对应
Figure 324509DEST_PATH_IMAGE024
为该项的条件权重;另外还引入了重构样本计算而得的模型预测向量
Figure 213968DEST_PATH_IMAGE025
与输入样本标签y的L2范数差异,是为了模拟数据偷窃者可能会通过模型参数来逆向出输入数据的能力。
本实施例通过公式(1)来模拟数据偷窃者通过梯度来逆向出输入数据的能力,并将重构样本特征
Figure 155379DEST_PATH_IMAGE026
和欲保护的输入样本特征x采用MSE相似度来衡量梯度泄露数据的风险,MSE相似度的计算方法如公式(3)所示。由MSE相似度来指示梯度泄露输入数据特征的风险程度,本实施例采用匹配率Match算法,以衡量梯度泄露输入数据标签的风险程度,如公式(4)所示。
Figure 3250DEST_PATH_IMAGE015
(3)
Figure 630278DEST_PATH_IMAGE016
(4)
参见图2,是本发明的又一实施例的方法流程图,本实施例的具体实施步骤如下:
A1、选取出一组参与方待训练数据的原始样本(x,y),并计算原始样本对应的原始模型梯度
Figure 323427DEST_PATH_IMAGE027
A2、以正态分布随机初始化一组与原始样本(x,y)相同维度的重构样本
Figure 853766DEST_PATH_IMAGE017
A3、计算重构样本
Figure 872537DEST_PATH_IMAGE017
对应的重构模型梯度
Figure 753906DEST_PATH_IMAGE020
A4、计算原始模型梯度
Figure 250746DEST_PATH_IMAGE027
和重构模型梯度
Figure 901170DEST_PATH_IMAGE028
的梯度差异
Figure 559685DEST_PATH_IMAGE029
A5、依据梯度差异
Figure 426884DEST_PATH_IMAGE030
,通过梯度下降的方法来迭代重构样本
Figure 461836DEST_PATH_IMAGE017
,直至满足指定的迭代次数为止;
A6、当满足迭代次数时,获得最终重构样本;
A7、计算最终重构样本与原始样本(x,y)的相似度值和匹配率,输出相似度值、匹配率和最终重构样本;
A8、在初次配置指标阈值时(即预设值),依据最终重构样本,获得参与方待训练数据的指标阈值;
A9、定期计算模型的相似度值和匹配率,一旦模型的相似度值和匹配率超过指标阈值,则发出存在梯度泄露数据隐私风险的警告。
其中,步骤A4对应于公式(1),步骤A5对应于公式(2),MSE相似度值和匹配率计算分别对应公式(3)和(4)。本实施例不仅能输出具体的风险指标,即相似度值,还可以输出重构样本,让参与方能够更准确地把握哪些输入样本的信息被泄露,并根据泄露的数据重要程度,设定合理的指标阈值。
本发明还公开了一种终端设备,包括处理器和存储装置,存储装置用于存储一个或多个程序;当一个或多个程序被处理器执行时,处理器实现上述的面向联邦学习的数据隐私安全机制评估方法。所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所称处理器是测试设备的控制中心,利用各种接口和线路连接整个测试设备的各个部分。
存储装置可用于存储计算机程序和/或模块,处理器通过运行或执行存储在存储装置内的计算机程序和/或模块,以及调用存储在存储装置内的数据,实现终端设备的各种功能。存储装置可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储装置可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,面向联邦学习的数据隐私安全机制评估设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于至少一个计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需说明的是,以上所描述的设备及装置的实施例仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种面向联邦学习的数据隐私安全机制评估方法,其特征在于,包括:
对用于训练本地模型的样本数据集进行采样,得到原始样本;
通过重构模型,重构一组与原始样本相关的重构样本;
计算原始样本与重构样本的梯度差异,并依据梯度差异迭代重构样本,获得最终重构样本;
计算最终重构样本与原始样本的相似度和匹配率,作为所述样本数据集的监测值;
当所述监测值大于等于预设值时,发出梯度泄露风险告警;
当所述监测值小于所述预设值时,提示安全。
2.根据权利要求1所述的一种面向联邦学习的数据隐私安全机制评估方法,其特征在于,所述通过重构模型,重构一组与原始样本相关的重构样本,具体为:
依据原始样本,通过正态分布随机初始化,获得一组与原始样本相同维度的重构样本。
3.根据权利要求2所述的一种面向联邦学习的数据隐私安全机制评估方法,其特征在于,所述计算原始样本与重构样本的梯度差异,并依据梯度差异迭代重构样本,获得最终重构样本,具体为:
通过公式(1)计算原始样本与重构样本的梯度差异;并通过公式(2),迭代更新重构样本
Figure 161346DEST_PATH_IMAGE001
,获得最终重构样本;
Figure 427243DEST_PATH_IMAGE002
Figure 504920DEST_PATH_IMAGE003
(1)
Figure 881675DEST_PATH_IMAGE004
Figure 361198DEST_PATH_IMAGE005
Figure 797995DEST_PATH_IMAGE006
(2)
其中,
Figure 861504DEST_PATH_IMAGE007
为最终重构样本的特征-标签对,
Figure 41950DEST_PATH_IMAGE008
为更新步长,
Figure 172717DEST_PATH_IMAGE009
为由重构样本
Figure 983678DEST_PATH_IMAGE010
计算而得的重构模型梯度,
Figure 35947DEST_PATH_IMAGE011
为由原始样本(x,y)计算而得的原始模型梯度,F为待训练的神经网络模型,其模型参数为W。
4.根据权利要求3所述的一种面向联邦学习的数据隐私安全机制评估方法,其特征在于,所述计算最终重构样本与原始样本的相似度和匹配率,作为所述样本数据集的监测值,具体为:
将重构样本特征
Figure 20084DEST_PATH_IMAGE012
和欲保护的输入样本特征x采用MSE相似度算法,获得最终重构样本与原始样本的相似度值,采用匹配率Match算法计算最终重构样本与原始样本的匹配率;将相似度值和匹配率作为所述样本数据集的监测值。
5.根据权利要求4所述的一种面向联邦学习的数据隐私安全机制评估方法,其特征在于,所述MSE相似度算法,具体为公式(3):
Figure 5357DEST_PATH_IMAGE013
(3)
所述匹配率Match算法,具体为公式(4):
Figure 783958DEST_PATH_IMAGE014
(4)。
6.根据权利要求1所述的一种面向联邦学习的数据隐私安全机制评估方法,其特征在于,还包括:
输出相似度和匹配率,以及最终重构样本。
7.一种终端设备,其特征在于,包括:处理器和存储装置,所述存储装置用于存储一个或多个程序;当所述一个或多个程序被所述处理器执行时,所述处理器实现根据权利要求1至6中任意一项所述的面向联邦学习的数据隐私安全机制评估方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至6中任意一项所述的面向联邦学习的数据隐私安全机制评估方法。
CN202210559255.6A 2022-05-23 2022-05-23 面向联邦学习的数据隐私安全机制评估方法、设备及介质 Active CN114662155B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210559255.6A CN114662155B (zh) 2022-05-23 2022-05-23 面向联邦学习的数据隐私安全机制评估方法、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210559255.6A CN114662155B (zh) 2022-05-23 2022-05-23 面向联邦学习的数据隐私安全机制评估方法、设备及介质

Publications (2)

Publication Number Publication Date
CN114662155A true CN114662155A (zh) 2022-06-24
CN114662155B CN114662155B (zh) 2022-09-02

Family

ID=82037041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210559255.6A Active CN114662155B (zh) 2022-05-23 2022-05-23 面向联邦学习的数据隐私安全机制评估方法、设备及介质

Country Status (1)

Country Link
CN (1) CN114662155B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115048676A (zh) * 2022-08-12 2022-09-13 深圳市洞见智慧科技有限公司 隐私计算应用中的安全智能校验方法及相关装置
CN115270192A (zh) * 2022-09-26 2022-11-01 广州优刻谷科技有限公司 样本标签隐私风险评估方法、系统及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、系统及存储介质
CN110874484A (zh) * 2019-10-16 2020-03-10 众安信息技术服务有限公司 基于神经网络和联邦学习的数据处理方法和系统
CN112380572A (zh) * 2021-01-14 2021-02-19 之江实验室 一种多方数据协同场景下的隐私保护量化评估方法和系统
CN112765559A (zh) * 2020-12-29 2021-05-07 平安科技(深圳)有限公司 联邦学习的过程中模型参数的处理方法、装置及相关设备
CN113094758A (zh) * 2021-06-08 2021-07-09 华中科技大学 一种基于梯度扰动的联邦学习数据隐私保护方法及系统
CN113409134A (zh) * 2021-06-30 2021-09-17 中国工商银行股份有限公司 基于联邦学习的企业融资授信方法及装置
CN113988312A (zh) * 2021-11-02 2022-01-28 贵州大学 一种面向机器学习模型的成员推理隐私攻击方法及系统
CN114239860A (zh) * 2021-12-07 2022-03-25 支付宝(杭州)信息技术有限公司 基于隐私保护的模型训练方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、系统及存储介质
CN110874484A (zh) * 2019-10-16 2020-03-10 众安信息技术服务有限公司 基于神经网络和联邦学习的数据处理方法和系统
CN112765559A (zh) * 2020-12-29 2021-05-07 平安科技(深圳)有限公司 联邦学习的过程中模型参数的处理方法、装置及相关设备
CN112380572A (zh) * 2021-01-14 2021-02-19 之江实验室 一种多方数据协同场景下的隐私保护量化评估方法和系统
CN113094758A (zh) * 2021-06-08 2021-07-09 华中科技大学 一种基于梯度扰动的联邦学习数据隐私保护方法及系统
CN113409134A (zh) * 2021-06-30 2021-09-17 中国工商银行股份有限公司 基于联邦学习的企业融资授信方法及装置
CN113988312A (zh) * 2021-11-02 2022-01-28 贵州大学 一种面向机器学习模型的成员推理隐私攻击方法及系统
CN114239860A (zh) * 2021-12-07 2022-03-25 支付宝(杭州)信息技术有限公司 基于隐私保护的模型训练方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ADRIAN NILSSON: "A Performance Evaluation of Federated Learning Algorithms", 《DISTRIBUTED INFRASTRUCTURES FOR DEEP LEARNING》 *
王坤庆 等: "联邦学习安全威胁综述", 《信息安全研究》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115048676A (zh) * 2022-08-12 2022-09-13 深圳市洞见智慧科技有限公司 隐私计算应用中的安全智能校验方法及相关装置
CN115048676B (zh) * 2022-08-12 2022-11-18 深圳市洞见智慧科技有限公司 隐私计算应用中的安全智能校验方法及相关装置
CN115270192A (zh) * 2022-09-26 2022-11-01 广州优刻谷科技有限公司 样本标签隐私风险评估方法、系统及存储介质
CN115270192B (zh) * 2022-09-26 2022-12-30 广州优刻谷科技有限公司 样本标签隐私风险评估方法、系统及存储介质

Also Published As

Publication number Publication date
CN114662155B (zh) 2022-09-02

Similar Documents

Publication Publication Date Title
CN114662155B (zh) 面向联邦学习的数据隐私安全机制评估方法、设备及介质
CN110490128B (zh) 一种基于加密神经网络的手写识别方法
US11836572B2 (en) Quantum inspired convolutional kernels for convolutional neural networks
EP3863003B1 (en) Hidden sigmoid function calculation system, hidden logistic regression calculation system, hidden sigmoid function calculation device, hidden logistic regression calculation device, hidden sigmoid function calculation method, hidden logistic regression calculation method, and program
Fan et al. Deep adversarial canonical correlation analysis
Baggenstoss Uniform manifold sampling (UMS): Sampling the maximum entropy pdf
CN114548428A (zh) 基于实例重构的联邦学习模型智能攻击检测方法及装置
US11238345B2 (en) Legendre memory units in recurrent neural networks
Sankaranarayanan et al. Semantic uncertainty intervals for disentangled latent spaces.
CN115292728A (zh) 一种基于生成对抗网络的图像数据隐私保护方法
Lian et al. Transfer orthogonal sparsifying transform learning for phase retrieval
CN115409095B (zh) 多方泊松回归隐私计算模型训练方法、装置和存储介质
CN112001865A (zh) 一种人脸识别方法、装置和设备
Sørensen Simulated likelihood approximations for stochastic volatility models
CN113837294B (zh) 模型训练及调用方法、装置、计算机设备、存储介质
Sergides et al. Bootstrapping the local periodogram of locally stationary processes
CN111368337B (zh) 保护隐私的样本生成模型构建、仿真样本生成方法及装置
Roberts Neural networks for Lorenz map prediction: A trip through time
Del Moral et al. Sharp propagation of chaos estimates for Feynman–Kac particle models
CN113223493A (zh) 语音看护方法、装置、系统及存储介质
Mousazadeh et al. Out-of-sample extension of band-limited functions on homogeneous manifolds using diffusion maps
Ward et al. Variational bridge constructs for grey box modelling with Gaussian processes
Matthews Spatio-Temporal Cluster Detection and Local Moran Statistics of Point Processes
Robeyns et al. Fast Estimation of Physical Galaxy Properties using Simulation-Based Inference
Wang et al. A Computational Model for Combinatorial Generalization in Physical Perception from Sound

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant