CN117853194A - 一种基于对抗网络和Byrd-SAGA的联邦推荐方法 - Google Patents
一种基于对抗网络和Byrd-SAGA的联邦推荐方法 Download PDFInfo
- Publication number
- CN117853194A CN117853194A CN202311712790.1A CN202311712790A CN117853194A CN 117853194 A CN117853194 A CN 117853194A CN 202311712790 A CN202311712790 A CN 202311712790A CN 117853194 A CN117853194 A CN 117853194A
- Authority
- CN
- China
- Prior art keywords
- model
- user
- saga
- client
- recommendation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 78
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000004220 aggregation Methods 0.000 claims description 9
- 230000002776 aggregation Effects 0.000 claims description 9
- 230000003993 interaction Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000000586 desensitisation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000000246 remedial effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于对抗网络和Byrd‑SAGA的联邦推荐方法,方法步骤包括S1:客户端w搭建推荐模型Rw、攻击模型Aw,利用终端数据源进行本地训练,推荐模型Rw包括用户向量编码器UEw、物品向量编码器IEw和分类器Cw和S2:服务端聚合所有客户端用户向量编码器UEw梯度,使用Byrd‑SAGA算法更新全局模型。本发明有效提升了客户端隐私保护能力,用户特征属于敏感信息,使用对抗学习,在不影响原有推荐系统性能的情况下,对私有信息进行模糊、脱敏处理后,增加了攻击者窥探信息的难度,提升了模型对于机密性及未知攻击的鲁棒性,此外,对抗学习还可以促进模型的理解,增强特征的可解释性。
Description
技术领域
本发明涉及大数据AI技术领域,特别是一种基于对抗网络和Byrd-SAGA的联邦推荐方法。
背景技术
联邦推荐算法是一种基于联邦学习范式的推荐算法,它能够在保护用户隐私的前提下为用户提供精准的个性化服务,联邦推荐算法可以在各类个性化推荐场景中应用,根据用户行为、历史记录,提供个性化的内容、服务、商品等,帮助提高用户体验和业务收益,如在电子商务领域推荐个性化商品、社交媒体领域推荐可能感兴趣的社交圈子等。
联邦推荐算法作为一种使用分布式数据进行推荐的算法,用户的隐私数据存储在各参与方本地,从而提高了数据隐私安全性。但是,联邦推荐算法在实际应用中仍然面临许多隐私安全挑战,例如不同节点进行联合计算时,可能导致用户隐私的泄露问题;以及可能存在的攻击者试图通过攻击算法模型,以影响推荐结果。
基于此,本发明提出一种基于对抗网络和Byrd-SAGA的联邦推荐方法来解决上述问题。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本发明的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于上述和/或现有的联邦推荐方法中存在的问题,提出了本发明。
因此,本发明其中的一个目的是提供一种基于对抗网络和Byrd-SAGA的联邦推荐方法,其面向横向联邦推荐算法,整体为保护数据隐私和模型安全,同时抵御可能存在的拜占庭攻击的方案,使用对抗训练的方式保护用户私有属性,并在服务端采用Byrd-SAGA稳健聚合规则的方法。
为达到上述效果,本发明提供如下技术方案:一种基于对抗网络和Byrd-SAGA的联邦推荐方法,所述方法实现步骤包括:
S1:客户端w搭建推荐模型Rw、攻击模型Aw,利用终端数据源进行本地训练,推荐模型Rw包括用户向量编码器UEw、物品向量编码器IEw和分类器Cw;
S2:服务端聚合所有客户端用户向量编码器UEw梯度,使用Byrd-SAGA算法更新全局模型。
作为本发明的一种优选方案,其中:所述S1还包括步骤:
S101:下载服务端共享的全局用户向量编码器UEg权重,初始化本地用户向量编码器UEw;
S102:客户端w搭建推荐模型Rw;
S103:客户端w搭建攻击模型Aw;
S104:客户端w训练对抗网络,由本地推荐模型Rw和攻击模型组成Aw;
S105:发送用户向量编码器梯度UEw至服务端。
作为本发明的一种优选方案,其中:所述S102包括步骤:
S102a:推荐模型Rw将使用当前客户端中,用户对物品的隐式反馈数据作为输入。
作为本发明的一种优选方案,其中:所述S102还包括步骤:
S102b:构建pointwise误差,推荐模型Rw利用本地数据与标签得到的分类损失,即通过二分类分类器Cw,预测特定的用户与商品是否有交互行为。
作为本发明的一种优选方案,其中:所述S103包括步骤:
S103a:攻击模型Aw将使用当前客户端中,用户与物品存在交互的数据作为输入。
作为本发明的一种优选方案,其中:所述S103还包括步骤:
S103b:构建重构误差,将用户与物品的稀疏向量分别输入用户向量编码器UEi与物品向量编码器IEw,使用输出的商品特征输入到攻击模型Aw获得重构的用户特征,与真实用户特征构建的重构误差作为损失函数。
作为本发明的一种优选方案,其中:所述S104包括步骤:
S104a:优化推荐模型Rw的pointwise误差与攻击模型Aw的重构误差,将用户与物品的稀疏向量分别输入用户向量编码器UEi与物品向量编码器IEw,获得的隐向量经过拼接或尺寸调整后,分别输入推荐模型Rw和攻击模型Aw。
作为本发明的一种优选方案,其中:所述所述S104还包括步骤:
S104b:更新推荐模型Rw和攻击模型Aw参数,直到对抗网络收敛,令推荐模型Rw具备基于本地数据进行个性推荐的能力,攻击模型Aw具备将用户属性脱敏的能力。
作为本发明的一种优选方案,其中:所述S2包括步骤:
S201:服务端搭建同客户端用户向量编码器架构相同的全局用户向量编码器UEg,接收从各客户端上传的已完成训练的向量编码器UEw梯度;
S202:服务端使用所有客户端梯度的几何中位数作为聚合梯度,进行全局用户向量编码器权重更新。
作为本发明的一种优选方案,其中:所述S2还包括步骤:
S203:将完成迭代后的全局用户向量编码器UEg权重分发到所有客户端。
本发明的有益效果:
1.本发明有效提升了客户端隐私保护能力,用户特征属于敏感信息,若客户端直接传递提取的原始特征,存在用户隐私泄露的风险,即通过机密性攻击,攻击者将可能利用建模中传递的模型信息重构出用户个人信息,从而造成个人隐私与商业机密的泄露,而使用对抗学习,在不影响原有推荐系统性能的情况下,对私有信息进行模糊、脱敏处理后,增加了攻击者窥探信息的难度,提升了模型对于机密性及未知攻击的鲁棒性,此外,对抗学习还可以促进模型的理解,增强特征的可解释性;
2.本发明有效增强了服务端抵抗拜占庭攻击能力,常用的优化算法SGD,由于其迭代方向的随机性,噪声产生的梯度方差,对于可能的拜占庭攻击识别造成了困难。本方案使用弹性的分布式SAGA优化器,能够在维持原有算法性能的情况下,通过削弱噪声带来的负面影响,增强区分恶意数据的能力;
3.本发明有效降低了模型训练计算成本,用户属性信息经过脱敏后,即使被攻击者窃取,也无法还原得到原始数据,便无需使用密文进行加密传输,因此本方案使用明文进行梯度共享,加解密过程的省略,将节约计算资源和传输时间,以及回避了由于密文规模增大,导致的通信成本增大问题。这将直接提高分布式框架中各方吞吐量,进而提升模型迭代的效率。同时避免了加解密可能导致的模型失真问题,最大程度保证了模型的性能,以及服务端的Byrd-SAGA聚合方式,在模型更快的收敛速度,进一步降低计算成本,更少的通信轮数将进而提升整体联邦推荐模型的参数聚合效率和模型鲁棒性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明客户端训练流程示意图;
图2为本发明服务端训练流程示意图;
图3为本发明客户端模型结构示意图;
图4为本发明客户端推荐模型训练示意图;
图5为本发明客户端攻击模型训练示意图;
图6为本发明服务端全局模型训练示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
实施例1
参照图1~图2,为本发明第一个实施例,该实施例提供了一种基于对抗网络和Byrd-SAGA的联邦推荐方法,所述方法实现步骤包括:
S1:客户端w搭建推荐模型Rw、攻击模型Aw,利用终端数据源进行本地训练,推荐模型Rw包括用户向量编码器UEw、物品向量编码器IEw和分类器Cw;
S101:下载服务端共享的全局用户向量编码器UEg权重,初始化本地用户向量编码器UEw;
S102:客户端w搭建推荐模型Rw;
S102a:推荐模型Rw将使用当前客户端中,用户对物品的隐式反馈数据作为输入;
S102b:构建pointwise误差,推荐模型Rw利用本地数据与标签得到的分类损失,即通过二分类分类器Cw,预测特定的用户与商品是否有交互行为;
S103:客户端w搭建攻击模型Aw;
S103a:攻击模型Aw将使用当前客户端中,用户与物品存在交互的数据作为输入;
S103b:构建重构误差,将用户与物品的稀疏向量分别输入用户向量编码器UEi与物品向量编码器IEw,使用输出的商品特征输入到攻击模型Aw获得重构的用户特征,与真实用户特征构建的重构误差作为损失函数;
S104:客户端w训练对抗网络,由本地推荐模型Rw和攻击模型组成Aw;
S104a:优化推荐模型Rw的pointwise误差与攻击模型Aw的重构误差,将用户与物品的稀疏向量分别输入用户向量编码器UEi与物品向量编码器IEw,获得的隐向量经过拼接或尺寸调整后,分别输入推荐模型Rw和攻击模型Aw;
S104b:更新推荐模型Rw和攻击模型Aw参数,直到对抗网络收敛,令推荐模型Rw具备基于本地数据进行个性推荐的能力,攻击模型Aw具备将用户属性脱敏的能力;
S105:发送用户向量编码器梯度UEw至服务端;
S2:服务端聚合所有客户端用户向量编码器UEw梯度,使用Byrd-SAGA算法更新全局模型;
S201:服务端搭建同客户端用户向量编码器架构相同的全局用户向量编码器UEg,接收从各客户端上传的已完成训练的向量编码器UEw梯度;
S202:服务端使用所有客户端梯度的几何中位数作为聚合梯度,进行全局用户向量编码器权重更新;
S203:将完成迭代后的全局用户向量编码器UEg权重分发到所有客户端。
实施例2
参照图1~图6,为本发明第二个实施例,该实施例基于上一个实施例。
本实施例以客户端与服务端使用神经网络,训练进行商品推荐任务为例:
客户端训练本地模型:
各客户端构建本地模型:本地模型包括推荐模型Rw和攻击模型Aw,推荐模型Rw使用NCF推荐系统,攻击模型Aw采用Resnet模型,使用下载自服务端的全局用户向量编码器UEg初始化本地用户向量编码器UEw;
构建推荐模型Rw:客户端训练推荐模型Rw,推荐模型Rw由用户向量编码器UEw、物品向量编码器IEw和分类器Cw组成,使用用户与物品的隐向量作为输入分类器数据,将隐式反馈作为标签,与模型输出的预测交互行为做pointwise优化,即单个用户与物品分别输入经过one-hot编码后的用户向量u和物品向量i至用户向量编码器、物品向量编码器,获得特征编码UEw(u)与IEw(i),将两特征编码输入到分类器,输出的预测类别与标签yui计算交叉熵得到分类损失LR,具体公式为:LR=CE(yui,Cw(UEw(u),IEw(i)));
构建攻击模型Aw:客户端训练攻击模型Aw,使用与某用户产生交互的物品隐向量作为攻击模型Aw输入,获得的特征向量作为对该用户属性的特征表达,与真实的用户隐向量UEw(u)计算误差,即首先在物品集中,采样特定数量的与某用户产生交互的物品,其one-hot编码in批量经过物品向量编码器后得到固定尺寸的物品隐向量矩阵Mi,输入到攻击模型Aw获得该用户的重构隐向量,与用户的真实私有属性向量计算平均均方误差得到属性偏差损失LA,具体公式为:LA=MSE(UEw(c),Aw(Mi));
优化对抗模型:对抗模型由推荐模型Rw和攻击模型Aw构成,推荐模型Rw利用本地数据,通过学习用户与物品的交互行为偏好搭建推荐系统,攻击模型Aw则企图利用目标用户交互物品推断出用户的私有属性信息,推荐模型Rw与攻击模型Aw的博弈过程,令推荐模型Rw能够拟合用户-物品交互情况的同时,攻击模型Aw无法通过给定物品信息推断出用户属性,即最小化推理损失LR和最大化用户信息重构损失LA,并使用超参数α平衡分类损失LR与重构损失LA的影响,具体公式为:L=LR-αLA;
各个客户端并行进行以上步骤,将用户向量编码器梯度gw上传至服务端;
服务器端采用Byrd-SAGA算法进行参数聚合与模型迭代,服务端与客户端的数据进行交互;
聚合所有客户端用户向量编码器梯度gw:使用几何中值对客户端随机梯度进行聚合,获得全局损失梯度g,具体公式为:g=geomed{gw};
更新全局用户向量编码器UEg参数:在与客户端用户向量编码器具有相同架构的全局用户向量编码器上进行一次权重迭代,具体公式为:x←x-ηg;
将更新后的全局用户向量编码器UEg参数同步至所有客户端。
本发明中,客户端采用对抗模型对用户隐私信息进行保护,即在各客户端加入攻击模型,令其与推荐模型相互博弈,这种变相注入对抗样本数据的方式,使主任务模型能够适应更多样的输入变化,迫使推荐模型的用户与物品编码器学习到更鲁棒的特征,同时发现并识别特征中可能存在的其中的漏洞和弱点,进而采取补救措施,一定程度上提高推荐的准确性,在数据隐私保护方面,引入对抗学习技术帮助在训练模型时使用加密和脱敏的数据,从而防止未经授权的访问或者窥探,此外,对抗学习保证了模型的隐私性,抵御可能的机密性攻击,以保护模型不被攻击者破解和重构,保护客户端数据的类别、分布、特征等私有属性信息;
服务端采用抗拜占庭攻击Byrd-SAGA聚合算法进行模型优化:采用更稳健与高效的梯度聚合策略,一方面,较好的抗噪性可平衡各个客户端的非独立同分布数据,提高模型整体精度,同时能够降低和平滑处理恶意梯度的影响,防止恶意客户端因为篡改训练数据或局部模型而给全局模型带来负面作用,使推荐系统无法达到最佳性能,进一步结合检测规则,通过计算梯度与中位数的偏差,可识别并拒接异常客户端,另一方面,在保证模型精度的同时加快收敛速度,相应地整体的联邦任务的迭代次数将减少,降低的传输数据将影响所消耗的带宽,从而节约了计算资源、通信与存储的成本,带来训练效率与效益的提升。
重要的是,应注意,在多个不同示例性实施方案中示出的本申请的构造和布置仅是例示性的。尽管在此公开内容中仅详细描述了几个实施方案,但参阅此公开内容的人员应容易理解,在实质上不偏离该申请中所描述的主题的新颖教导和优点的前提下,许多改型是可能的(例如,各种元件的尺寸、尺度、结构、形状和比例、以及参数值(例如,温度、压力等)、安装布置、材料的使用、颜色、定向的变化等)。例如,示出为整体成形的元件可以由多个部分或元件构成,元件的位置可被倒置或以其它方式改变,并且分立元件的性质或数目或位置可被更改或改变。因此,所有这样的改型旨在被包含在本发明的范围内。可以根据替代的实施方案改变或重新排序任何过程或方法步骤的次序或顺序。在权利要求中,任何“装置加功能”的条款都旨在覆盖在本文中所描述的执行所述功能的结构,且不仅是结构等同而且还是等同结构。在不背离本发明的范围的前提下,可以在示例性实施方案的设计、运行状况和布置中做出其他替换、改型、改变和省略。因此,本发明不限制于特定的实施方案,而是扩展至仍落在所附的权利要求书的范围内的多种改型。
此外,为了提供示例性实施方案的简练描述,可以不描述实际实施方案的所有特征(即,与当前考虑的执行本发明的最佳模式不相关的那些特征,或与实现本发明不相关的那些特征)。
应理解的是,在任何实际实施方式的开发过程中,如在任何工程或设计项目中,可做出大量的具体实施方式决定。这样的开发努力可能是复杂的且耗时的,但对于那些得益于此公开内容的普通技术人员来说,不需要过多实验,所述开发努力将是一个设计、制造和生产的常规工作
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于,所述方法实现步骤包括:
S1:客户端w搭建推荐模型Rw、攻击模型Aw,利用终端数据源进行本地训练,推荐模型Rw包括用户向量编码器UEw、物品向量编码器IEw和分类器Cw;
S2:服务端聚合所有客户端用户向量编码器UEw梯度,使用Byrd-SAGA算法更新全局模型。
2.如权利要求1所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S1还包括步骤:
S101:下载服务端共享的全局用户向量编码器UEg权重,初始化本地用户向量编码器UEw;
S102:客户端w搭建推荐模型Rw;
S103:客户端w搭建攻击模型Aw;
S104:客户端w训练对抗网络,由本地推荐模型Rw和攻击模型组成Aw;
S105:发送用户向量编码器梯度UEw至服务端。
3.如权利要求2所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S102包括步骤:
S102a:推荐模型Rw将使用当前客户端中,用户对物品的隐式反馈数据作为输入。
4.如权利要求3所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S102还包括步骤:
S102b:构建pointwise误差,推荐模型Rw利用本地数据与标签得到的分类损失,即通过二分类分类器Cw,预测特定的用户与商品是否有交互行为。
5.如权利要求4所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S103包括步骤:
S103a:攻击模型Aw将使用当前客户端中,用户与物品存在交互的数据作为输入。
6.如权利要求5所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S103还包括步骤:
S103b:构建重构误差,将用户与物品的稀疏向量分别输入用户向量编码器UEi与物品向量编码器IEw,使用输出的商品特征输入到攻击模型Aw获得重构的用户特征,与真实用户特征构建的重构误差作为损失函数。
7.如权利要求6所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S104包括步骤:
S104a:优化推荐模型Rw的pointwise误差与攻击模型Aw的重构误差,将用户与物品的稀疏向量分别输入用户向量编码器UEi与物品向量编码器IEw,获得的隐向量经过拼接或尺寸调整后,分别输入推荐模型Rw和攻击模型Aw。
8.如权利要求7所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述所述S104还包括步骤:
S104b:更新推荐模型Rw和攻击模型Aw参数,直到对抗网络收敛,令推荐模型Rw具备基于本地数据进行个性推荐的能力,攻击模型Aw具备将用户属性脱敏的能力。
9.如权利要求8所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S2包括步骤:
S201:服务端搭建同客户端用户向量编码器架构相同的全局用户向量编码器UEg,接收从各客户端上传的已完成训练的向量编码器UEw梯度;
S202:服务端使用所有客户端梯度的几何中位数作为聚合梯度,进行全局用户向量编码器权重更新。
10.如权利要求9所述的基于对抗网络和Byrd-SAGA的联邦推荐方法,其特征在于:所述S2还包括步骤:
S203:将完成迭代后的全局用户向量编码器UEg权重分发到所有客户端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311712790.1A CN117853194A (zh) | 2023-12-13 | 2023-12-13 | 一种基于对抗网络和Byrd-SAGA的联邦推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311712790.1A CN117853194A (zh) | 2023-12-13 | 2023-12-13 | 一种基于对抗网络和Byrd-SAGA的联邦推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117853194A true CN117853194A (zh) | 2024-04-09 |
Family
ID=90528058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311712790.1A Pending CN117853194A (zh) | 2023-12-13 | 2023-12-13 | 一种基于对抗网络和Byrd-SAGA的联邦推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117853194A (zh) |
-
2023
- 2023-12-13 CN CN202311712790.1A patent/CN117853194A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160004874A1 (en) | A method and system for privacy preserving matrix factorization | |
Du et al. | Federated matrix factorization for privacy-preserving recommender systems | |
JP2016510912A (ja) | プライバシーを保護する行列因子分解のための方法及びシステム | |
CN113420232B (zh) | 一种面向隐私保护的图神经网络联邦推荐方法 | |
Niu et al. | Toward verifiable and privacy preserving machine learning prediction | |
CN113051557A (zh) | 基于纵向联邦学习的社交网络跨平台恶意用户检测方法 | |
CN112766514B (zh) | 一种联合训练机器学习模型的方法、系统及装置 | |
CN116529730A (zh) | 使用安全多方计算的隐私保护机器学习 | |
WO2021106077A1 (ja) | ニューラルネットワークの更新方法、端末装置、計算装置及びプログラム | |
JP7361928B2 (ja) | 勾配ブースティングを介したプライバシーを守る機械学習 | |
Lin et al. | A generic federated recommendation framework via fake marks and secret sharing | |
Niu et al. | Secure federated submodel learning | |
CN113298268A (zh) | 一种基于对抗噪声注入的垂直联邦学习方法和装置 | |
Li et al. | A new image encryption algorithm based on optimized Lorenz chaotic system | |
Minelli | Fully homomorphic encryption for machine learning | |
Zhou et al. | Securing federated learning enabled NWDAF architecture with partial homomorphic encryption | |
Ge et al. | A review of secure federated learning: Privacy leakage threats, protection technologies, challenges and future directions | |
Lu et al. | Privacy-preserving decentralized federated learning over time-varying communication graph | |
Aldin et al. | Quad-color image encryption based on Chaos and Fibonacci Q-matrix | |
CN116743342A (zh) | 基于自编码器的智能物联网设备密文数据异常检测方法 | |
CN117853194A (zh) | 一种基于对抗网络和Byrd-SAGA的联邦推荐方法 | |
Xu et al. | FedG2L: a privacy-preserving federated learning scheme base on “G2L” against poisoning attack | |
CN113407860A (zh) | 一种基于隐私保护的多社交平台用户推荐方法和系统 | |
Kaliyamoorthy et al. | Enhancing data security using global mutation based novel artificial immune network optimization in public cloud storage system | |
Hong et al. | FedHD: A Privacy-Preserving Recommendation System with Homomorphic Encryption and Differential Privacy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |