CN114510646A - 一种基于联邦学习的神经网络协同过滤推荐方法 - Google Patents

一种基于联邦学习的神经网络协同过滤推荐方法 Download PDF

Info

Publication number
CN114510646A
CN114510646A CN202210108891.7A CN202210108891A CN114510646A CN 114510646 A CN114510646 A CN 114510646A CN 202210108891 A CN202210108891 A CN 202210108891A CN 114510646 A CN114510646 A CN 114510646A
Authority
CN
China
Prior art keywords
training
model
neural network
collaborative filtering
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210108891.7A
Other languages
English (en)
Inventor
肖甫
顾怡
金诚
程凡恺
陈小柏
周剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210108891.7A priority Critical patent/CN114510646A/zh
Publication of CN114510646A publication Critical patent/CN114510646A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。

Description

一种基于联邦学习的神经网络协同过滤推荐方法
技术领域
本发明涉及联邦学习技术领域,具体涉及一种基于联邦学习的神经网络协同过滤推荐方法。
背景技术
推荐系统已被广泛用于创建个性化预测模型,以帮助个人识别感兴趣的内容。此类系统收集个人的各种特征,例如人口学特征、项目相关的评分数据(显式反馈)或用户与特定项目的交互数据(隐式反馈)。它们的目标是根据过去的交互数据为用户提供其未来的偏好推荐,推荐系统目前被广泛应用于电子商务和在线流媒体服务等各个领域。在传统的推荐系统中,用户的偏好和学习的特征向量可以揭示敏感信息。此外,复杂的技术可以导致数据集的去匿名化。因此,需要在不泄露用户私人数据的情况下构建强大的推荐系统的方法。
随着云端中计算设备的不断增加,例如手机和可穿戴设备,机器学习的使用也越来越广泛。然而,传统的机器学习方法需要从那些由于传感器和丰富的用户交互而保存大量私人信息的设备传输数据。为了克服将此类信息存储在中央服务器中的挑战并增强用户的隐私,谷歌在2016年提出了一种新技术,名为联邦学习(FL),其中的联合设置允许在不需要传输用户数据的情况下促进机器学习,因此对于隐私和快速分布式计算都有很大的优势。
联邦学习(FL)是一种机器学习设置,它允许在分布式的环境中训练模型。这种学习技术背后的主要思想是,不同的实体可以在中央服务器的协调下共同训练模型,而无需共享它们的数据。与传统的机器学习不同,传统的机器学习要求用户传输他们的数据,而FL支持更高级别的隐私,因为模型在每个设备上进行本地训练,客户端操作后,仅将参数发送回中央服务器,而不上传其训练数据数据。
发明内容
本发明旨在解决推荐系统中隐私泄漏问题,同时不影响推荐效果,提供一种基于联邦学习的神经网络协同过滤推荐方法。
一种基于联邦学习的神经网络协同过滤推荐方法,包含以下步骤:
步骤1,中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,…,PN;参与方将收到的训练配置中的全局参数w0作为本地神经网络协同过滤模型的第0轮模型参数;
步骤2,中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型;
步骤3,第t轮训练的各参与方使用本地训练数据集Dc以及本地步骤localepochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数
Figure BDA0003494370240000021
得到本地神经网络协同过滤模型的第t轮各参与方的模型参数
Figure BDA0003494370240000022
c∈C,C为训练参与方的个数,t为训练轮数;
步骤4,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数
Figure BDA0003494370240000023
上传给服务器,并进行加入高斯噪声的差分隐私处理;
步骤5,服务器基于FedAvg算法对步骤4各参与方上传的模型参数
Figure BDA0003494370240000024
进行聚合,得到新的全局参数wt
步骤6,服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2;
步骤7,各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估,并输出推荐结果。
进一步地,步骤1中服务器发送的训练配置具体内容包括:对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息;当前模型的全局参数w0;常数C,表示在聚合前本地参与方的数量。
进一步地,步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间(latent space)的维度;该框架包括数据输入层、嵌入层、神经协同过滤层、输出层;通过对输入数据使用one-hot编码转化为二值化稀疏向量作为输入特征,然后经过嵌入层将输入层的稀疏表示映射为一个稠密向量,然后送入神经协同过滤层,将潜在向量映射为预测分数;最终输出层是预测分数
Figure BDA0003494370240000031
训练通过最小化交叉熵进行;其中,预测值公式为:
Figure BDA0003494370240000032
其中P∈RA×K,Q∈RB×K,分别表示用户和项目的潜在因素矩阵;特征向量
Figure BDA0003494370240000033
Figure BDA0003494370240000034
分别用来描述用户u和项目i,Θf表示交互函数f的模型参数,函数f被定义为多层神经网络。
进一步地,步骤4中,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数
Figure BDA0003494370240000041
上传给服务器前,对其进行差分隐私处理,加入高斯噪声,保护模型的隐私安全,高斯机制满足(∈,δ)-差分隐私;根据高斯机制,对于返回数字的函数f(x),以下F(x)定义满足(∈,δ)-差分隐私:
F(x)=f(x)+N(σ2)
Figure BDA0003494370240000042
其中s是f的敏感度,而N(σ2)表示从中心为0且方差σ2的高斯分布抽样。
进一步地,步骤5中,FedAvg算法具体公式如下:
Figure BDA0003494370240000043
其中,c∈C,C是该轮训练中中选定的参与方总数,nc是参与方的本地训练实例数,
Figure BDA0003494370240000044
是该轮训练的总实例数,
Figure BDA0003494370240000045
是参与方更新后的模型参数。
进一步地,步骤6中,参与方的本地神经网络协同模型的收敛是指本地神经网络协同过滤模型的损失函数值不再变化或变化量小于设定的变化阈值。
进一步地,步骤7中命中率@10计算公式为:
Figure BDA0003494370240000046
其中,分母GT是所有的测试集合,分子表示每个参与方前十个推荐项列表中属于测试集合的个数的总和;HR@10值越高则证明该推荐系统效果越好。
与现有技术相比,本发明具有如下有益效果:
1、本方法基于深度学习的推荐系统,能够取得更好的推荐效果;
2、在传统的推荐系统中存在数据隐私安全的问题,而采用联邦学习,可以保护数据不进行与中心服务器交互,仅在本地进行训练,且本方法对更新的模型参数进行差分隐私加噪处理,进一步保护了推荐系统的数据安全。
附图说明
图1为本发明实施例中的一种基于联邦学习的神经网络协同过滤推荐方法的系统原理及神经网络协同过滤模型框架。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
在联邦学习推荐系统的准备工作中,需要协调中心服务器和若干参与的客户端,组建整个联邦学习训练环境。中心服务器端需要准备初次下发的神经网络训练模型,参与的客户端要准备响应的数据集。
以数据集MovieLens的电影推荐为例,参与方可以为x86或者arm架构的物联网设备或服务器,本数据集提供是用户、电影、评分三者之间的信息,为显式反馈。而显式反馈具有特征较少,一般构建隐式反馈来丰富数据特征,提高整体训练效果。为此先按比例对数据集进行训练集和测试集的切分,数据集中评级进行二进制化处理,把参与评分的用户和电影的评级设为“1”,并按一定比例构建负样本(假设用户与该电影无交互)数据集即为隐式反馈数据集。通过构建神经协同过滤通用框架NCF,输入one-hot编码用户和项目向量,将原来的二值稀疏向量输入到嵌入层后得到更小、更密集的向量(稠密向量),通过一系列完全连接的层之前被连接起来,这些层将连接的嵌入映射到一个预测向量中作为输出。神经协同过滤NCF通用框架可以以不同线性建模方式如GMF、非线性建模方式如MLP、融合加强建模如NeuMF等来模拟用户-项目之间的交互。并且对于最终输出层,采用训练时最小化预测值与真实值之间的差值的策略为逐点损失而不是成对损失。在输出层,应用一个Sigmoid函数来获得最可能类,最后并对上传更新的权重进行差分隐私加噪。联邦学习更新模型的过程中我们采用经典的FedAvg算法,对模型参数进行平均优化。通过命中率@10(HitRatio@10)来评估推荐的效果。
参见图1,一种基于联邦学习的神经网络协同过滤推荐系统及方法,包括步骤如下:
步骤1、中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,…,PN;参与方将收到的训练配置中的全局参数w0(含模型权重
Figure BDA0003494370240000061
项目配置权重I0等)作为本地神经网络协同过滤模型的第0轮模型参数。
步骤2、中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型。
在数据集MovieLens的电影推荐实例中,将第0轮原始模型参数w0广播给全部的参与联邦训练的C个物联网设备(服务器)。
步骤3、第t轮训练的各参与方使用本地训练数据集Dc以及一些本地步骤,一般称这个步骤为local epochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数
Figure BDA0003494370240000071
得到本地神经网络协同过滤模型的第t轮各参与方的模型参数
Figure BDA0003494370240000072
(含模型权重
Figure BDA0003494370240000073
项目配置权重
Figure BDA0003494370240000074
等)。
步骤4、第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数
Figure BDA0003494370240000075
上传给服务器。
步骤5、服务器基于FedAvg算法对步骤4各参与方上传的模型参数
Figure BDA0003494370240000076
进行聚合,得到新的全局参数wt
步骤6、服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2。
步骤7、各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10(HitRatio@10)评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估。
上述c∈C,C为训练参与方的个数;t为训练轮数。
上述步骤1中服务器发送的训练配置具体内容为(1)对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息,例如,本地mini-batch大小B;(2)当前模型的全局参数w0;(3)常数C,表示在聚合前本地参与方的数量。
上述步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间(latent space)的维度。该NCF框架包括依次连接的数据输入层、嵌入层、神经协同过滤层、输出层。数据输入层中通过对用户u和项目i使用one-hot编码将它们转化为二值化稀疏向量作为输入特征,然后经过嵌入层(EmbeddingLayer)将输入层的稀疏表示映射为一个稠密向量(densevector),然后将用户嵌入和项目嵌入送入被称为神经协同过滤层的多层神经网络结构,将潜在向量映射为预测分数。最终输出层是预测分数
Figure BDA0003494370240000081
训练通过最小化交叉熵进行。其中,预测值公式为:
Figure BDA0003494370240000082
其中P∈RA×K,Q∈RB×K,分别表示用户和项目的潜在因素矩阵;特征向量
Figure BDA0003494370240000083
Figure BDA0003494370240000084
分别用来描述用户u和项目i,Θf表示交互函数f的模型参数,函数f被定义为多层神经网络。
上述步骤4的第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数
Figure BDA0003494370240000085
上传给服务器前,对其进行差分隐私处理,加入高斯噪声,保护模型的隐私安全,高斯机制满足(∈,δ)-差分隐私。根据高斯机制,对于返回数字的函数f(x),以下F(x)定义满足(∈,δ)-差分隐私:
F(x)=f(x)+N(σ2)
Figure BDA0003494370240000086
其中s是f的敏感度,而N(σ2)表示从中心为0且方差σ2的高斯(正态)分布抽样。
上述步骤5的FedAvg算法具体公式如下:
Figure BDA0003494370240000091
其中,c∈C,C是该轮训练中中选定的参与方总数,nc是参与方的本地训练实例数,
Figure BDA0003494370240000092
是该轮训练的总实例数,
Figure BDA0003494370240000093
是参与方更新后的模型参数。
上述步骤6中参与方的本地神经网络协同模型的收敛是指本地神经网络协同过滤模型的损失函数值不再变化或变化量小于设定的变化阈值。
上述步骤7中命中率@10(HitRatio@10)计算公式为:
Figure BDA0003494370240000094
其中,分母GT是所有的测试集合,分子表示每个参与方前十个推荐项列表中属于测试集合的个数的总和。HR@10值越高则证明该推荐系统效果越好。
在数据集MovieLens的电影推荐实例中,各训练参与端得到训练好的电影推荐神经网络模型,将用户和项目向量作为电影推荐神经网络模型的输入值,电影推荐神经网络模型的输出值为预测推荐给用户的电影效果是否参与交互。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。

Claims (7)

1.一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:包含以下步骤:
步骤1,中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,...,PN;参与方将收到的训练配置中的全局参数w0作为本地神经网络协同过滤模型的第0轮模型参数;
步骤2,中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型;
步骤3,第t轮训练的各参与方使用本地训练数据集Dc以及本地步骤local epochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数
Figure FDA0003494370230000011
得到本地神经网络协同过滤模型的第t轮各参与方的模型参数
Figure FDA0003494370230000012
c∈C,C为训练参与方的个数,t为训练轮数;
步骤4,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数
Figure FDA0003494370230000013
上传给服务器,并进行加入高斯噪声的差分隐私处理;
步骤5,服务器基于FedAvg算法对步骤4各参与方上传的模型参数
Figure FDA0003494370230000014
进行聚合,得到新的全局参数wt
步骤6,服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2;
步骤7,各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估,并输出推荐结果。
2.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤1中服务器发送的训练配置具体内容包括:对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息;当前模型的全局参数w0;常数C,表示在聚合前本地参与方的数量。
3.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间latent space的维度;该框架包括数据输入层、嵌入层、神经协同过滤层、输出层;通过对输入数据使用one-hot编码转化为二值化稀疏向量作为输入特征,然后经过嵌入层将输入层的稀疏表示映射为一个稠密向量,然后送入神经协同过滤层,将潜在向量映射为预测分数;最终输出层是预测分数
Figure FDA0003494370230000021
训练通过最小化交叉熵进行;其中,预测值公式为:
Figure FDA0003494370230000022
其中P∈RA×K,Q∈RB×K,分别表示用户和项目的潜在因素矩阵;特征向量
Figure FDA0003494370230000023
Figure FDA0003494370230000024
分别用来描述用户u和项目i,Θf表示交互函数f的模型参数,函数f被定义为多层神经网络。
4.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤4中,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数
Figure FDA0003494370230000025
上传给服务器前,对其进行差分隐私处理,加入高斯噪声,保护模型的隐私安全,高斯机制满足(∈,δ)-差分隐私;根据高斯机制,对于返回数字的函数f(x),以下F(x)定义满足(∈,δ)-差分隐私:
F(x)=f(x)+N(σ2)
Figure FDA0003494370230000031
其中s是f的敏感度,而N(σ2)表示从中心为0且方差σ2的高斯分布抽样。
5.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤5中,FedAvg算法具体公式如下:
Figure FDA0003494370230000032
其中,c∈C,C是该轮训练中中选定的参与方总数,nc是参与方的本地训练实例数,
Figure FDA0003494370230000033
是该轮训练的总实例数,
Figure FDA0003494370230000034
是参与方更新后的模型参数。
6.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤6中,参与方的本地神经网络协同模型的收敛是指本地神经网络协同过滤模型的损失函数值不再变化或变化量小于设定的变化阈值。
7.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤7中命中率@10计算公式为:
Figure FDA0003494370230000035
其中,分母GT是所有的测试集合,分子表示每个参与方前十个推荐项列表中属于测试集合的个数的总和;HR@10值越高则证明该推荐系统效果越好。
CN202210108891.7A 2022-01-28 2022-01-28 一种基于联邦学习的神经网络协同过滤推荐方法 Pending CN114510646A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210108891.7A CN114510646A (zh) 2022-01-28 2022-01-28 一种基于联邦学习的神经网络协同过滤推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210108891.7A CN114510646A (zh) 2022-01-28 2022-01-28 一种基于联邦学习的神经网络协同过滤推荐方法

Publications (1)

Publication Number Publication Date
CN114510646A true CN114510646A (zh) 2022-05-17

Family

ID=81552301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210108891.7A Pending CN114510646A (zh) 2022-01-28 2022-01-28 一种基于联邦学习的神经网络协同过滤推荐方法

Country Status (1)

Country Link
CN (1) CN114510646A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115061909A (zh) * 2022-06-15 2022-09-16 哈尔滨理工大学 一种基于联邦强化学习的异构软件缺陷预测算法研究
CN115775010A (zh) * 2022-11-23 2023-03-10 国网江苏省电力有限公司信息通信分公司 基于横向联邦学习的电力数据共享方法
CN116720005A (zh) * 2023-08-10 2023-09-08 四川大学 一种自适应噪声的数据协同对比推荐模型
CN117371046A (zh) * 2023-12-07 2024-01-09 清华大学 一种面向多方协同优化的数据隐私增强方法及装置
CN117494191A (zh) * 2023-10-17 2024-02-02 南昌大学 一种信息物理安全的兴趣点微服务系统及其方法
WO2024117821A1 (ko) * 2022-11-30 2024-06-06 삼성전자 주식회사 전자 장치 및 데이터 압축 및 분석 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210150269A1 (en) * 2019-11-18 2021-05-20 International Business Machines Corporation Anonymizing data for preserving privacy during use for federated machine learning
CN112836130A (zh) * 2021-02-20 2021-05-25 四川省人工智能研究院(宜宾) 一种基于联邦学习的上下文感知推荐系统及方法
CN113420232A (zh) * 2021-06-02 2021-09-21 杭州电子科技大学 一种面向隐私保护的图神经网络联邦推荐方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210150269A1 (en) * 2019-11-18 2021-05-20 International Business Machines Corporation Anonymizing data for preserving privacy during use for federated machine learning
CN112836130A (zh) * 2021-02-20 2021-05-25 四川省人工智能研究院(宜宾) 一种基于联邦学习的上下文感知推荐系统及方法
CN113420232A (zh) * 2021-06-02 2021-09-21 杭州电子科技大学 一种面向隐私保护的图神经网络联邦推荐方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MUHAMMAD AMMAD-UD-DIN 等: "FEDERATED COLLABORATIVE FILTERING FOR PRIVACY-PRESERVING PERSONALIZED RECOMMENDATION SYSTEM", ARXIV, 29 January 2019 (2019-01-29), pages 1 - 12 *
王健宗 等: "联邦推荐系统的协同过滤冷启动解决方法", 智能系统学报, vol. 16, no. 1, 31 January 2021 (2021-01-31), pages 1 - 8 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115061909A (zh) * 2022-06-15 2022-09-16 哈尔滨理工大学 一种基于联邦强化学习的异构软件缺陷预测算法研究
CN115061909B (zh) * 2022-06-15 2024-08-16 哈尔滨理工大学 一种基于联邦强化学习的异构软件缺陷预测算法研究
CN115775010A (zh) * 2022-11-23 2023-03-10 国网江苏省电力有限公司信息通信分公司 基于横向联邦学习的电力数据共享方法
CN115775010B (zh) * 2022-11-23 2024-03-19 国网江苏省电力有限公司信息通信分公司 基于横向联邦学习的电力数据共享方法
WO2024117821A1 (ko) * 2022-11-30 2024-06-06 삼성전자 주식회사 전자 장치 및 데이터 압축 및 분석 방법
CN116720005A (zh) * 2023-08-10 2023-09-08 四川大学 一种自适应噪声的数据协同对比推荐模型
CN116720005B (zh) * 2023-08-10 2023-10-20 四川大学 一种基于自适应噪声的数据协同对比推荐模型的系统
CN117494191A (zh) * 2023-10-17 2024-02-02 南昌大学 一种信息物理安全的兴趣点微服务系统及其方法
CN117371046A (zh) * 2023-12-07 2024-01-09 清华大学 一种面向多方协同优化的数据隐私增强方法及装置
CN117371046B (zh) * 2023-12-07 2024-03-01 清华大学 一种面向多方协同优化的数据隐私增强方法及装置

Similar Documents

Publication Publication Date Title
CN114510646A (zh) 一种基于联邦学习的神经网络协同过滤推荐方法
CN110162703B (zh) 内容推荐方法、训练方法、装置、设备及存储介质
CN111881350B (zh) 一种基于混合图结构化建模的推荐方法与系统
CN110955829B (zh) 融合信任度和度量因子矩阵分解的兴趣点推荐方法及系统
CN108920503A (zh) 一种基于社交网络信任度的微视频个性化推荐算法
CN114817663B (zh) 一种基于类别感知图神经网络的服务建模与推荐方法
CN113128701A (zh) 面向样本稀疏性的联邦学习方法及系统
WO2023071626A1 (zh) 一种联邦学习方法、装置、设备、存储介质及产品
Zhang et al. Towards data-independent knowledge transfer in model-heterogeneous federated learning
Rashid et al. Lecturer performance system using neural network with Particle Swarm Optimization
Tasaka Bayesian hierarchical regression models for QoE estimation and prediction in audiovisual communications
CN111210002A (zh) 一种基于生成对抗网络模型的多层学术网络社区发现方法、系统
Arafeh et al. Data independent warmup scheme for non-IID federated learning
Jagtap et al. Homogenizing social networking with smart education by means of machine learning and Hadoop: A case study
CN115409203A (zh) 一种基于模型无关元学习的联邦推荐方法及系统
Liu et al. Multilevel federated learning-based intelligent traffic flow forecasting for transportation network management
Shi et al. Cross-domain variational autoencoder for recommender systems
Peng et al. TCDABCF: A Trust‐Based Community Detection Using Artificial Bee Colony by Feature Fusion
CN106991496B (zh) 一种面向移动社交环境的用户行为分层关联预测方法
Kalloori et al. Horizontal cross-silo federated recommender systems
CN113849725B (zh) 一种基于图注意力对抗网络的社会化推荐方法及系统
CN115270004A (zh) 一种基于场因子分解的教育资源推荐方法
Wang et al. Mitigating poor data quality impact with federated unlearning for human-centric metaverse
Yang et al. Lstm network-based adaptation approach for dynamic integration in intelligent end-edge-cloud systems
CN116506302A (zh) 基于反事实推断的网络对齐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination