CN114510646A - 一种基于联邦学习的神经网络协同过滤推荐方法 - Google Patents
一种基于联邦学习的神经网络协同过滤推荐方法 Download PDFInfo
- Publication number
- CN114510646A CN114510646A CN202210108891.7A CN202210108891A CN114510646A CN 114510646 A CN114510646 A CN 114510646A CN 202210108891 A CN202210108891 A CN 202210108891A CN 114510646 A CN114510646 A CN 114510646A
- Authority
- CN
- China
- Prior art keywords
- training
- model
- neural network
- collaborative filtering
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 46
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 75
- 239000013598 vector Substances 0.000 claims abstract description 23
- 230000001537 neural effect Effects 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 210000005036 nerve Anatomy 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 6
- 238000013499 data model Methods 0.000 abstract 1
- 238000000354 decomposition reaction Methods 0.000 abstract 1
- 238000010801 machine learning Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。
Description
技术领域
本发明涉及联邦学习技术领域,具体涉及一种基于联邦学习的神经网络协同过滤推荐方法。
背景技术
推荐系统已被广泛用于创建个性化预测模型,以帮助个人识别感兴趣的内容。此类系统收集个人的各种特征,例如人口学特征、项目相关的评分数据(显式反馈)或用户与特定项目的交互数据(隐式反馈)。它们的目标是根据过去的交互数据为用户提供其未来的偏好推荐,推荐系统目前被广泛应用于电子商务和在线流媒体服务等各个领域。在传统的推荐系统中,用户的偏好和学习的特征向量可以揭示敏感信息。此外,复杂的技术可以导致数据集的去匿名化。因此,需要在不泄露用户私人数据的情况下构建强大的推荐系统的方法。
随着云端中计算设备的不断增加,例如手机和可穿戴设备,机器学习的使用也越来越广泛。然而,传统的机器学习方法需要从那些由于传感器和丰富的用户交互而保存大量私人信息的设备传输数据。为了克服将此类信息存储在中央服务器中的挑战并增强用户的隐私,谷歌在2016年提出了一种新技术,名为联邦学习(FL),其中的联合设置允许在不需要传输用户数据的情况下促进机器学习,因此对于隐私和快速分布式计算都有很大的优势。
联邦学习(FL)是一种机器学习设置,它允许在分布式的环境中训练模型。这种学习技术背后的主要思想是,不同的实体可以在中央服务器的协调下共同训练模型,而无需共享它们的数据。与传统的机器学习不同,传统的机器学习要求用户传输他们的数据,而FL支持更高级别的隐私,因为模型在每个设备上进行本地训练,客户端操作后,仅将参数发送回中央服务器,而不上传其训练数据数据。
发明内容
本发明旨在解决推荐系统中隐私泄漏问题,同时不影响推荐效果,提供一种基于联邦学习的神经网络协同过滤推荐方法。
一种基于联邦学习的神经网络协同过滤推荐方法,包含以下步骤:
步骤1,中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,…,PN;参与方将收到的训练配置中的全局参数w0作为本地神经网络协同过滤模型的第0轮模型参数;
步骤2,中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型;
步骤3,第t轮训练的各参与方使用本地训练数据集Dc以及本地步骤localepochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数得到本地神经网络协同过滤模型的第t轮各参与方的模型参数c∈C,C为训练参与方的个数,t为训练轮数;
步骤6,服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2;
步骤7,各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估,并输出推荐结果。
进一步地,步骤1中服务器发送的训练配置具体内容包括:对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息;当前模型的全局参数w0;常数C,表示在聚合前本地参与方的数量。
进一步地,步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间(latent space)的维度;该框架包括数据输入层、嵌入层、神经协同过滤层、输出层;通过对输入数据使用one-hot编码转化为二值化稀疏向量作为输入特征,然后经过嵌入层将输入层的稀疏表示映射为一个稠密向量,然后送入神经协同过滤层,将潜在向量映射为预测分数;最终输出层是预测分数训练通过最小化交叉熵进行;其中,预测值公式为:
进一步地,步骤4中,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数上传给服务器前,对其进行差分隐私处理,加入高斯噪声,保护模型的隐私安全,高斯机制满足(∈,δ)-差分隐私;根据高斯机制,对于返回数字的函数f(x),以下F(x)定义满足(∈,δ)-差分隐私:
F(x)=f(x)+N(σ2)
其中s是f的敏感度,而N(σ2)表示从中心为0且方差σ2的高斯分布抽样。
进一步地,步骤5中,FedAvg算法具体公式如下:
进一步地,步骤6中,参与方的本地神经网络协同模型的收敛是指本地神经网络协同过滤模型的损失函数值不再变化或变化量小于设定的变化阈值。
进一步地,步骤7中命中率@10计算公式为:
其中,分母GT是所有的测试集合,分子表示每个参与方前十个推荐项列表中属于测试集合的个数的总和;HR@10值越高则证明该推荐系统效果越好。
与现有技术相比,本发明具有如下有益效果:
1、本方法基于深度学习的推荐系统,能够取得更好的推荐效果;
2、在传统的推荐系统中存在数据隐私安全的问题,而采用联邦学习,可以保护数据不进行与中心服务器交互,仅在本地进行训练,且本方法对更新的模型参数进行差分隐私加噪处理,进一步保护了推荐系统的数据安全。
附图说明
图1为本发明实施例中的一种基于联邦学习的神经网络协同过滤推荐方法的系统原理及神经网络协同过滤模型框架。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
在联邦学习推荐系统的准备工作中,需要协调中心服务器和若干参与的客户端,组建整个联邦学习训练环境。中心服务器端需要准备初次下发的神经网络训练模型,参与的客户端要准备响应的数据集。
以数据集MovieLens的电影推荐为例,参与方可以为x86或者arm架构的物联网设备或服务器,本数据集提供是用户、电影、评分三者之间的信息,为显式反馈。而显式反馈具有特征较少,一般构建隐式反馈来丰富数据特征,提高整体训练效果。为此先按比例对数据集进行训练集和测试集的切分,数据集中评级进行二进制化处理,把参与评分的用户和电影的评级设为“1”,并按一定比例构建负样本(假设用户与该电影无交互)数据集即为隐式反馈数据集。通过构建神经协同过滤通用框架NCF,输入one-hot编码用户和项目向量,将原来的二值稀疏向量输入到嵌入层后得到更小、更密集的向量(稠密向量),通过一系列完全连接的层之前被连接起来,这些层将连接的嵌入映射到一个预测向量中作为输出。神经协同过滤NCF通用框架可以以不同线性建模方式如GMF、非线性建模方式如MLP、融合加强建模如NeuMF等来模拟用户-项目之间的交互。并且对于最终输出层,采用训练时最小化预测值与真实值之间的差值的策略为逐点损失而不是成对损失。在输出层,应用一个Sigmoid函数来获得最可能类,最后并对上传更新的权重进行差分隐私加噪。联邦学习更新模型的过程中我们采用经典的FedAvg算法,对模型参数进行平均优化。通过命中率@10(HitRatio@10)来评估推荐的效果。
参见图1,一种基于联邦学习的神经网络协同过滤推荐系统及方法,包括步骤如下:
步骤1、中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,…,PN;参与方将收到的训练配置中的全局参数w0(含模型权重项目配置权重I0等)作为本地神经网络协同过滤模型的第0轮模型参数。
步骤2、中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型。
在数据集MovieLens的电影推荐实例中,将第0轮原始模型参数w0广播给全部的参与联邦训练的C个物联网设备(服务器)。
步骤3、第t轮训练的各参与方使用本地训练数据集Dc以及一些本地步骤,一般称这个步骤为local epochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数得到本地神经网络协同过滤模型的第t轮各参与方的模型参数(含模型权重项目配置权重等)。
步骤6、服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2。
步骤7、各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10(HitRatio@10)评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估。
上述c∈C,C为训练参与方的个数;t为训练轮数。
上述步骤1中服务器发送的训练配置具体内容为(1)对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息,例如,本地mini-batch大小B;(2)当前模型的全局参数w0;(3)常数C,表示在聚合前本地参与方的数量。
上述步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间(latent space)的维度。该NCF框架包括依次连接的数据输入层、嵌入层、神经协同过滤层、输出层。数据输入层中通过对用户u和项目i使用one-hot编码将它们转化为二值化稀疏向量作为输入特征,然后经过嵌入层(EmbeddingLayer)将输入层的稀疏表示映射为一个稠密向量(densevector),然后将用户嵌入和项目嵌入送入被称为神经协同过滤层的多层神经网络结构,将潜在向量映射为预测分数。最终输出层是预测分数训练通过最小化交叉熵进行。其中,预测值公式为:
上述步骤4的第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数上传给服务器前,对其进行差分隐私处理,加入高斯噪声,保护模型的隐私安全,高斯机制满足(∈,δ)-差分隐私。根据高斯机制,对于返回数字的函数f(x),以下F(x)定义满足(∈,δ)-差分隐私:
F(x)=f(x)+N(σ2)
其中s是f的敏感度,而N(σ2)表示从中心为0且方差σ2的高斯(正态)分布抽样。
上述步骤5的FedAvg算法具体公式如下:
上述步骤6中参与方的本地神经网络协同模型的收敛是指本地神经网络协同过滤模型的损失函数值不再变化或变化量小于设定的变化阈值。
上述步骤7中命中率@10(HitRatio@10)计算公式为:
其中,分母GT是所有的测试集合,分子表示每个参与方前十个推荐项列表中属于测试集合的个数的总和。HR@10值越高则证明该推荐系统效果越好。
在数据集MovieLens的电影推荐实例中,各训练参与端得到训练好的电影推荐神经网络模型,将用户和项目向量作为电影推荐神经网络模型的输入值,电影推荐神经网络模型的输出值为预测推荐给用户的电影效果是否参与交互。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。
Claims (7)
1.一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:包含以下步骤:
步骤1,中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,...,PN;参与方将收到的训练配置中的全局参数w0作为本地神经网络协同过滤模型的第0轮模型参数;
步骤2,中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型;
步骤3,第t轮训练的各参与方使用本地训练数据集Dc以及本地步骤local epochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数得到本地神经网络协同过滤模型的第t轮各参与方的模型参数c∈C,C为训练参与方的个数,t为训练轮数;
步骤6,服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2;
步骤7,各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估,并输出推荐结果。
2.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤1中服务器发送的训练配置具体内容包括:对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息;当前模型的全局参数w0;常数C,表示在聚合前本地参与方的数量。
3.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间latent space的维度;该框架包括数据输入层、嵌入层、神经协同过滤层、输出层;通过对输入数据使用one-hot编码转化为二值化稀疏向量作为输入特征,然后经过嵌入层将输入层的稀疏表示映射为一个稠密向量,然后送入神经协同过滤层,将潜在向量映射为预测分数;最终输出层是预测分数训练通过最小化交叉熵进行;其中,预测值公式为:
6.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤6中,参与方的本地神经网络协同模型的收敛是指本地神经网络协同过滤模型的损失函数值不再变化或变化量小于设定的变化阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210108891.7A CN114510646A (zh) | 2022-01-28 | 2022-01-28 | 一种基于联邦学习的神经网络协同过滤推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210108891.7A CN114510646A (zh) | 2022-01-28 | 2022-01-28 | 一种基于联邦学习的神经网络协同过滤推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114510646A true CN114510646A (zh) | 2022-05-17 |
Family
ID=81552301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210108891.7A Pending CN114510646A (zh) | 2022-01-28 | 2022-01-28 | 一种基于联邦学习的神经网络协同过滤推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114510646A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115061909A (zh) * | 2022-06-15 | 2022-09-16 | 哈尔滨理工大学 | 一种基于联邦强化学习的异构软件缺陷预测算法研究 |
CN115775010A (zh) * | 2022-11-23 | 2023-03-10 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
CN116720005A (zh) * | 2023-08-10 | 2023-09-08 | 四川大学 | 一种自适应噪声的数据协同对比推荐模型 |
CN117371046A (zh) * | 2023-12-07 | 2024-01-09 | 清华大学 | 一种面向多方协同优化的数据隐私增强方法及装置 |
CN117494191A (zh) * | 2023-10-17 | 2024-02-02 | 南昌大学 | 一种信息物理安全的兴趣点微服务系统及其方法 |
WO2024117821A1 (ko) * | 2022-11-30 | 2024-06-06 | 삼성전자 주식회사 | 전자 장치 및 데이터 압축 및 분석 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150269A1 (en) * | 2019-11-18 | 2021-05-20 | International Business Machines Corporation | Anonymizing data for preserving privacy during use for federated machine learning |
CN112836130A (zh) * | 2021-02-20 | 2021-05-25 | 四川省人工智能研究院(宜宾) | 一种基于联邦学习的上下文感知推荐系统及方法 |
CN113420232A (zh) * | 2021-06-02 | 2021-09-21 | 杭州电子科技大学 | 一种面向隐私保护的图神经网络联邦推荐方法 |
-
2022
- 2022-01-28 CN CN202210108891.7A patent/CN114510646A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150269A1 (en) * | 2019-11-18 | 2021-05-20 | International Business Machines Corporation | Anonymizing data for preserving privacy during use for federated machine learning |
CN112836130A (zh) * | 2021-02-20 | 2021-05-25 | 四川省人工智能研究院(宜宾) | 一种基于联邦学习的上下文感知推荐系统及方法 |
CN113420232A (zh) * | 2021-06-02 | 2021-09-21 | 杭州电子科技大学 | 一种面向隐私保护的图神经网络联邦推荐方法 |
Non-Patent Citations (2)
Title |
---|
MUHAMMAD AMMAD-UD-DIN 等: "FEDERATED COLLABORATIVE FILTERING FOR PRIVACY-PRESERVING PERSONALIZED RECOMMENDATION SYSTEM", ARXIV, 29 January 2019 (2019-01-29), pages 1 - 12 * |
王健宗 等: "联邦推荐系统的协同过滤冷启动解决方法", 智能系统学报, vol. 16, no. 1, 31 January 2021 (2021-01-31), pages 1 - 8 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115061909A (zh) * | 2022-06-15 | 2022-09-16 | 哈尔滨理工大学 | 一种基于联邦强化学习的异构软件缺陷预测算法研究 |
CN115061909B (zh) * | 2022-06-15 | 2024-08-16 | 哈尔滨理工大学 | 一种基于联邦强化学习的异构软件缺陷预测算法研究 |
CN115775010A (zh) * | 2022-11-23 | 2023-03-10 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
CN115775010B (zh) * | 2022-11-23 | 2024-03-19 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
WO2024117821A1 (ko) * | 2022-11-30 | 2024-06-06 | 삼성전자 주식회사 | 전자 장치 및 데이터 압축 및 분석 방법 |
CN116720005A (zh) * | 2023-08-10 | 2023-09-08 | 四川大学 | 一种自适应噪声的数据协同对比推荐模型 |
CN116720005B (zh) * | 2023-08-10 | 2023-10-20 | 四川大学 | 一种基于自适应噪声的数据协同对比推荐模型的系统 |
CN117494191A (zh) * | 2023-10-17 | 2024-02-02 | 南昌大学 | 一种信息物理安全的兴趣点微服务系统及其方法 |
CN117371046A (zh) * | 2023-12-07 | 2024-01-09 | 清华大学 | 一种面向多方协同优化的数据隐私增强方法及装置 |
CN117371046B (zh) * | 2023-12-07 | 2024-03-01 | 清华大学 | 一种面向多方协同优化的数据隐私增强方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114510646A (zh) | 一种基于联邦学习的神经网络协同过滤推荐方法 | |
CN110162703B (zh) | 内容推荐方法、训练方法、装置、设备及存储介质 | |
CN111881350B (zh) | 一种基于混合图结构化建模的推荐方法与系统 | |
CN110955829B (zh) | 融合信任度和度量因子矩阵分解的兴趣点推荐方法及系统 | |
CN108920503A (zh) | 一种基于社交网络信任度的微视频个性化推荐算法 | |
CN114817663B (zh) | 一种基于类别感知图神经网络的服务建模与推荐方法 | |
CN113128701A (zh) | 面向样本稀疏性的联邦学习方法及系统 | |
WO2023071626A1 (zh) | 一种联邦学习方法、装置、设备、存储介质及产品 | |
Zhang et al. | Towards data-independent knowledge transfer in model-heterogeneous federated learning | |
Rashid et al. | Lecturer performance system using neural network with Particle Swarm Optimization | |
Tasaka | Bayesian hierarchical regression models for QoE estimation and prediction in audiovisual communications | |
CN111210002A (zh) | 一种基于生成对抗网络模型的多层学术网络社区发现方法、系统 | |
Arafeh et al. | Data independent warmup scheme for non-IID federated learning | |
Jagtap et al. | Homogenizing social networking with smart education by means of machine learning and Hadoop: A case study | |
CN115409203A (zh) | 一种基于模型无关元学习的联邦推荐方法及系统 | |
Liu et al. | Multilevel federated learning-based intelligent traffic flow forecasting for transportation network management | |
Shi et al. | Cross-domain variational autoencoder for recommender systems | |
Peng et al. | TCDABCF: A Trust‐Based Community Detection Using Artificial Bee Colony by Feature Fusion | |
CN106991496B (zh) | 一种面向移动社交环境的用户行为分层关联预测方法 | |
Kalloori et al. | Horizontal cross-silo federated recommender systems | |
CN113849725B (zh) | 一种基于图注意力对抗网络的社会化推荐方法及系统 | |
CN115270004A (zh) | 一种基于场因子分解的教育资源推荐方法 | |
Wang et al. | Mitigating poor data quality impact with federated unlearning for human-centric metaverse | |
Yang et al. | Lstm network-based adaptation approach for dynamic integration in intelligent end-edge-cloud systems | |
CN116506302A (zh) | 基于反事实推断的网络对齐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |