CN110189192B - 一种信息推荐模型的生成方法及装置 - Google Patents

一种信息推荐模型的生成方法及装置 Download PDF

Info

Publication number
CN110189192B
CN110189192B CN201910391535.9A CN201910391535A CN110189192B CN 110189192 B CN110189192 B CN 110189192B CN 201910391535 A CN201910391535 A CN 201910391535A CN 110189192 B CN110189192 B CN 110189192B
Authority
CN
China
Prior art keywords
matrix
server
model
gradient information
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910391535.9A
Other languages
English (en)
Other versions
CN110189192A (zh
Inventor
刘博�
郑文琛
杨强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN201910391535.9A priority Critical patent/CN110189192B/zh
Publication of CN110189192A publication Critical patent/CN110189192A/zh
Application granted granted Critical
Publication of CN110189192B publication Critical patent/CN110189192B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/06Asset management; Financial planning or analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • Mathematical Optimization (AREA)
  • Economics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Technology Law (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及金融科技领域,尤其涉及一种信息推荐模型的生成方法及装置,适用于矩阵分解模型;包括:第一服务器获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;所述第一服务器根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;所述第一服务器根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述第二特征梯度信息及所述第二特征梯度信息至少用于更新所述第二矩阵分解模型。

Description

一种信息推荐模型的生成方法及装置
技术领域
本发明涉及金融科技领域,尤其涉及一种信息推荐模型的生成方法及装置。
背景技术
随着互联网技术的发展,网络平台上信息大量而多样,如何实现为用户推荐个性化和感兴趣的信息服务,是非常重要的。
然而,现有的推荐系统在用户数据融合过程中无法提供有效的数据保护和用户隐私保护。因此,中如何保护用户数据隐私的同时,提高用户覆盖率和推荐信息的多样性,是一个亟待解决的问题。
发明内容
本发明实施例提供一种信息推荐模型的生成方法及装置,以解决现有技术中信息推荐多样性和用户覆盖率较低的问题。
本发明实施例提供的具体技术方案如下:
本发明一个实施例提供了一种信息推荐模型的生成方法,适用于矩阵分解模型;包括:
第一服务器获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第一矩阵分解模型为根据第一数据训练得到的;所述第二矩阵分解模型为根据第二数据训练得到的;所述第二特征参数和所述第二相似矩阵是通过所述第二矩阵分解模型确定的;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;
所述第一服务器根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;
所述第一服务器根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述第二特征梯度信息及所述第二特征梯度信息至少用于更新所述第二矩阵分解模型。
本发明实施例中,通过第二服务器根据第二矩阵分解模型确定的对象的特征参数,确定相似矩阵,可以确定每个对象的相似对象,进而使得第一服务器根据第二特征参数及所述第二相似矩阵,可以更新重叠对象及相似对象的特征参数,以通过更新后的第一矩阵分解模型,确定出所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;更好的利用了双方的重叠对象及相似对象的数据;另外,通过增加相似矩阵,增加了第一服务器通过重叠对象获取重叠对象的特征数据的难度,在保证数据安全的前提下,以获得更准确的信息推荐。
为提高用户数据的安全性,一种可能的实现方式,所述方法还包括:
所述第一服务器根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵;
所述第一服务器将所述重叠对象的第一特征参数和所述第一相似矩阵经过同态加密后发送给第二服务器,所述第二服务器用于通过所述第一特征参数和所述第一相似矩阵更新所述第二矩阵分解模型,从而确定第一特征梯度信息;所述第一特征梯度信息至少用于更新所述第一矩阵分解模型。
为提高模型的收敛速度,一种可能的实现方式,所述第一服务器确定第二特征梯度信息之后,还包括:
所述第一服务器将所述第二特征梯度信息发送给第三服务器;
所述第一服务器接收所述第三服务器发送的第三特征梯度信息;
所述第三特征梯度信息是通过所述第二特征梯度信息和/或所述第一特征梯度信息确定的;
所述第二特征梯度信息至少用于更新所述第二矩阵分解模型,包括:
所述第一服务器根据所述第三特征梯度信息重新训练更新前的所述第一矩阵分解模型。
为提高传输过程中用户数据的安全性,一种可能的实现方式,所述第三特征梯度信息是通过所述第一特征梯度信息和所述第二特征梯度信息确定的,包括:
所述第三特征梯度信息为所述第三服务器对所述第一特征梯度信息和所述第二特征梯度信息解密后确定的。
为提高模型的训练效果,一种可能的实现方式,所述重新训练更新前的所述第一矩阵分解模型之前,还包括:
确定所述第一矩阵分解模型的损失函数未收敛;
确定所述第二矩阵分解模型的损失函数未收敛;
确定所述第一矩阵分解模型中确定的所述重叠对象的相似对象的特征参数与所述第二矩阵分解模型中确定的所述重叠对象的相似对象的特征参数的相似度小于预设阈值。
本发明实施例提供一种信息推荐模型的生成装置,适用于矩阵分解模型;包括:
收发单元,用于获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第一矩阵分解模型为根据第一数据训练得到的;所述第二矩阵分解模型为根据第二数据训练得到的;所述第二特征参数和所述第二相似矩阵是通过所述第二矩阵分解模型确定的;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;
处理单元,用于根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述第二特征梯度信息及所述第二特征梯度信息至少用于更新所述第二矩阵分解模型。
一种可能的实现方式,所述处理单元,还用于:
根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵;
所述收发单元,还用于将所述重叠对象的第一特征参数和所述第一相似矩阵经过同态加密后发送给第二服务器,所述第二服务器用于通过所述第一特征参数和所述第一相似矩阵更新所述第二矩阵分解模型,从而确定第一特征梯度信息;所述第一特征梯度信息至少用于更新所述第一矩阵分解模型。
一种可能的实现方式,所述收发单元,还用于:
将所述第二特征梯度信息发送给第三服务器;接收所述第三服务器发送的第三特征梯度信息;所述第三特征梯度信息是通过所述第二特征梯度信息和/或所述第一特征梯度信息确定的;
所述处理单元,还用于根据所述第三特征梯度信息重新训练更新前的所述第一矩阵分解模型。
本发明另一个实施例提供了一种电子设备,包括:
至少一个存储器,用于存储程序指令;
至少一个处理器,用于调用所述存储器中存储的程序指令,按照获得的程序指令执行上述任一种信息推荐方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种信息推荐方法的步骤。
附图说明
图1为本发明实施例中一种信息推荐方法的应用架构示意图;
图2为本发明实施例中一种信息推荐模型的生成方法的流程图;
图3为本发明实施例中一种信息推荐模型的生成装置结构示意图;
图4为本发明实施例中一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于对本发明实施例的理解,下面先对几个概念进行简单介绍:
“机器学习”是人工智能的核心研究领域之一,而如何在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,是机器学习领域现在关注的一个趋势,在此背景下,人们研究提出了“联邦学习”的概念。
联邦学习为利用技术算法加密建造的模型,联邦双方在不用给出己方数据的情况下,也可进行模型训练得到模型参数,联邦学习通过加密机制下的参数交换方式保护用户数据隐私,数据和模型本身不会进行传输,也不能反猜对方数据,因此在数据层面不存在泄露的可能,也不违反更严格的数据保护法案如GDPR(General Data ProtectionRegulation,《通用数据保护条例》)等,能够在较高程度保持数据完整性的同时,保障数据隐私。
目前,在联邦双方A、B样本的特征空间相同的情况下,现有的基于联邦建模的方法可以基于A、B样本均有标注的情况下交换双方参数联合建模,而对于A方有标注,B方标注缺失的情况,例如,横向联邦学习,横向联邦学习是指在两个数据集(即可以是本发明实施例中所述的第一样本和第二样本)的用户特征重叠较多,而用户重叠较少的情况下,把数据集按照横向(即用户维度)切分,并取出双方用户特征相同而用户不完全相同的那部分数据进行训练。这种方法叫做横向联邦学习。比如有两家不同地区的银行,它们的用户群体分别来自各自所在的地区,相互的交集很小。但是,它们的业务很相似,因此,记录的用户特征是相同的。
在两个数据集的用户重叠较多而用户特征重叠较少的情况下,可以把数据集按照纵向(即特征维度)切分,并取出双方用户相同而用户特征不完全相同的那部分数据进行训练。这种方法叫做纵向联邦学习。比如有两个不同的机构,一家是某地的银行,另一家是同一个地方的电商。它们的用户群体很有可能包含该地的大部分居民,因此用户的交集较大。但是,由于银行记录的都是用户的收支行为与信用评级,而电商则保有用户的浏览与购买历史,因此它们的用户特征交集较小。纵向联邦学习就是将这些不同特征在加密的状态下加以聚合,以增强模型能力。
在两个数据集的用户与用户特征重叠都较少的情况下,可以利用迁移学习来克服数据或标签不足的情况。这种方法叫做联邦迁移学习。比如有两个不同机构,一家是位于中国的银行,另一家是位于美国的电商。由于受地域限制,这两家机构的用户群体交集很小。同时,由于机构类型的不同,二者的数据特征也只有小部分重合。在这种情况下,要想进行有效的联邦学习,就必须引入迁移学习,来解决单边数据规模小和标签样本少的问题,从而提升模型的效果。
本发明实施例中涉及的联邦学习可以根据实际的应用场景确定,在此不做限定。
值得说明的是,本发明实施例中的应用架构图是为了更加清楚地说明本发明实施例中的技术方案,并不构成对本发明实施例提供的技术方案的限制,并且,本发明实施例中主要以应用于信息推荐场景为例,但是对于其它的应用架构和业务场景应用,本发明实施例提供的技术方案对于类似的问题同样适用。
参阅图1所示,为本发明实施例中信息推荐方法的应用架构示意图,至少包括服务器和终端。
终端可以是智能手机、平板电脑、便携式个人计算机、智能电视等任何智能设备,可以包括多个终端,终端上可以安装各种应用程序(Application,APP),用户可以通过终端上安装的APP来使用所需的服务,例如,用户可以基于信息APP来浏览信息。
终端与服务器之间通过互联网相连,实现相互之间的通信。可选地,上述的互联网使用标准通信技术和/或协议。互联网通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible Markup Language,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet Protocol Security,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
服务器可以为终端提供各种网络服务,对于不同的终端或终端上的应用程序,服务器可以认为是提供相应网络服务的后台服务器。例如,在信息推荐系统中,服务器可以为某信息APP的后台服务器。
其中,服务器可以是一台服务器、若干台服务器组成的服务器集群或云计算中心。
本发明实施例中在服务器端,可以采用分布式计算平台来收集和计算各用户的历史行为数据,从而可以根据各用户的点击信息序列和对信息的浏览时长,进行统计计算,建立矩阵分解模型。
值得说明的是,本发明实施例中的应用架构图是为了更加清楚地说明本发明实施例中的技术方案,并不构成对本发明实施例提供的技术方案的限制,并且,本发明实施例中主要以应用于信息推荐场景为例,但是对于其它的应用架构和业务场景应用,本发明实施例提供的技术方案对于类似的问题同样适用。
本发明各个实施例中,以信息推荐方法用于图1所示的应用架构图为例进行示意性说明。
基于上述实施例,本发明实施例中的信息推荐模型的生成方法的实现过程,可以分为以下两部分进行介绍:
一、矩阵分解模型中的样本的获取。
具体参阅图2所示,为本发明实施例中历史行为数据收集过程示意图,例如,针对信息推荐场景,本发明实施例中,用户可以基于终端上的APP或浏览器浏览信息,APP可以将用户对信息操作的历史行为数据上传到相应的服务器。终端上的APP上报用户的历史行为数据,上报到对应的服务器,服务器存储用户行为日志,即历史行为数据,采用分布式计算平台,从服务器中获取各用户的历史行为数据,进行处理后,得到各用户的点击信息序列和对信息的浏览时长,并分别进行存储,其中,点击信息序列中包括点击的各信息以及对应的点击时间,点击信息序列可以存储在相应的数据库中。
进一步地,为了避免过热的信息和过多点击的用户干扰相关性的计算,本发明实施例中,在获得各用户的历史行为数据时,还提供了一种可能的实施方式,具体包括:
1)分别确定各用户在预设时间段内操作的信息的数目,以及分别确定每条信息被操作的次数。
其中,对信息的操作,例如为点击、查看等操作,并不进行限制。
2)若确定各用户中任一用户在预设时间段内操作的信息的数目大于预设数目,则从评分矩阵中采样其中的预设数目条信息。
3)若确定任一信息被操作的次数大于预设次数,则从评分矩阵中采样其中的预设次数条信息。
也就是说,本发明实施例中,还需要对建立的行为矩阵进行采样,包括对过多点击的用户进行采样和对被过多点击的信息进行采样,其中,将预设时间段内操作的信息数目大于预设数目的用户,认为是过多点击的用户,将预设时间段内被操作的次数大于预设次数的信息,认为是被过多点击的信息。
例如,预设时间段为最近7天,预设数目为100,预设次数为10万,操作为点击,则若某用户在最近7天内点击的信息数量大于100条,则采样其中的100条,若某信息7天内被点击的次数大于10万,则采样其中的10万次。
其中,采样时,可以随机进行采样,本发明实施例中并不进行限制。
第二部分:服务器根据矩阵分解模型训练。
对采样后的行为矩阵,通过矩阵分解模型,获得各用户的用户参数。
例如,可以采用WALS算法进行矩阵分解,本发明实施例中并不进行限制,将评分矩阵进行矩阵分解后,可以获得所有产品的产品特征参数和所有用户的用户特征参数。举例来说,可以根据用户兴趣和商品属性来对行为矩阵进行矩阵分解,即根据矩阵分解模型,可以确定行为矩阵RA对应的用户兴趣矩阵UA,以及估计的商品属性矩阵VA;确定行为矩阵RB对应的用户兴趣矩阵UB,以及估计的商品属性矩阵VB
本发明实施例中还可以设置用户参数的固定维度,例如为50维,例如,可以将一个1000*10万大小的行为矩阵分解为一个1000*50大小的矩阵和一个50*10万大小的矩阵,其中,以用户兴趣矩阵为例,1000*50大小的矩阵表示各用户的用户特征参数的矩阵,每个用户可以对应一个50维的用户特征参数,经过矩阵分解后,得到的用户特征参数为稠密参数,并且得到的用户特征参数可以更加准确表示用户的兴趣特征,提高计算的准确性。
第三部分:参与联邦学习的各参与方通过联邦学习训练各自的矩阵分解模型。
如图2所示,以包含两个参与方(第一服务器A标识第一参与方,第二服务器B表示第二参与方)的场景为例介绍联邦学习的系统构架。该构架可扩展至包含多个参与方的场景。
本发明实施例提供一种联邦学习的系统构架,假设参与方A和B联合训练一个机器学习模型,举例来说,参与方A拥有第一数据,参与方B拥有第二数据。例如,第一数据A包含参与方A的用户对参与方A方的商品的历史行为数据,例如评分、点击、喜欢等,可以用行为矩阵RA表示。同理,第二数据包含参与方B获得的用户的历史行为数据,以行为矩阵RB表示。其中,RA和RB为稀疏矩阵,稀疏矩阵中的非零元素,可以表示特定用户对特定商品的行为。A方(对应第一服务器)和B方(对应第二服务器)都可以在其各自的行为数据上进行各种运算。A和B两方希望在不暴露第一数据和第二数据及其中用户隐私的前提下,更准确地预测矩阵RA和RB中的未知部分,以实现更准确的推荐。
需要说明的是,由于两个参与方的用户或商品并非完全重合,系统利用基于加密的样本对齐技术,在A和B不公开各自数据的前提下确认双方的重叠对象,并且不暴露不互相重叠的对象,以便联合这些对象的特征进行建模。假设A和B两方拥有重叠用户,或A和B两方拥有重叠商品。若A和B两方不拥有任何重叠用户或重叠商品,则第一服务器和第二服务器仅利用自身的数据训练的各自的信息推荐模型。
进一步地,本发明信息推荐模型的生成方法中,通过独立的第三方的服务器与同态加密的方式(RSA)确定A和B两方的重叠对象。具体的确定重叠对象的方法,包括:
步骤一,所述第一服务器采用预存的第一公钥加密第一标识,并将加密后的第一标识发送给所述第二服务器,并检测是否接收到所述第二服务器发送的,采用预存的第二公钥加密后的第二标识。
当需要得到待训练模型的模型参数后,第一服务器采用预先存储的第一公钥加密第一标识,得到加密后的第一标识,并将加密后的第一标识发送给第二服务器。第一服务器检测是否接收到第二服务器发送的,采用预存的第二公钥加密后的第二标识。
当需要得到待训练模型的模型参数后,第二服务器采用预先存储的第二公钥加密第二标识,得到加密后的第二标识,并将加密后的第二标识发送给第一服务器。
需要说明的是,加密后的第一标识为第一服务器加密其所持有的数据对应的数据标识后所得到的,第二标识为第二服务器数据对应的数据标识。具体地,第一服务器可采用其预先生成的公钥加密第一标识。第一服务器和第二服务器加密所用的公钥是通过非对称加密算法生成的。
步骤二,当接收到加密后的第二标识后,采用所述第一公钥对所述第二标识进行二次加密,得到第二加密值,并检测是否接收到所述第二服务器发送的第一加密值。
当第一服务器接收到第二服务器发送的加密后的第二标识后,第一服务器采用其公钥,即采用第一公钥对第二标识进行二次加密,将经过二次加密后的第二标识记为第二加密值,并检测是否接收到第二服务器发送的第一加密值。其中,当第二服务器接收到第一服务器发送的加密后的第一标识后,第二服务器采用其公钥,即采用第二公钥对加密后的第二标识进行二次加密,将经过二次加密后的第一标识记为第一加密值,并将第一加密值发送给第一服务器。
当接收到所述加密值后,判断所述第一加密值与所述第二加密值是否相等。
具体的,若所述第一加密值与所述第二加密值相等,则确定所述第一标识与所述第二标识相同,并将所述第一标识对应的数据确定为与所述第二服务器的重叠对象数据。
需要说明的是,此处的重叠对象数据可以为第一服务器和第二服务器、第一服务器和第三服务器间交互的任何数据,例如,可以为第一服务器向第二服务器发送的第一加密参数,也可以为第二服务器向第一服务器发送的第二加密参数,也可以为第一服务器获取的第三服务器发送的第一梯度参数等等,在此不做限定。
当第一服务器接收到第一服务器发送的第二加密值后,第一服务器判断第一加密值与第二加密值是否相等。若确定第一加密值与第二加密值相等,第一服务器则确定对应携带第一标识的数据为重叠对象数据;若确定第一加密值与第二加密值不相等,第一服务器则确定携带第一标识的数据不是重叠对象数据。可以理解的是,当第一加密值与第二加密值相等时,表明第一加密值对应的第一标识与第二加密值对应的第二标识是相同的。
需要说明的是,第二服务器确定其与第一服务器中携带相同标识的重叠对象数据的过程,与第一服务器确定其与第二服务器中携带相同标识的重叠对象数据的过程一致,在本实施例中不再详细赘述。
在确定模型参数的过程中,当得到第一服务器对应的重叠对象数据和第二服务器对应的重叠对象数据后,第一服务器可将其重叠对象数据划分成若干份,然后第二服务器根据第一服务器划分数据的划分结果,通过标识对进行匹配,以对自己的重叠对象数据进行划分。
本发明实施例通过在第一服务器和第二服务器不泄露自己所拥有数据的情况下,得到第一服务器和第二服务器数据的重叠对象数据,提高了计算过程中,第一服务器和第二服务器数据的安全性。
本发明实施例提供一种信息推荐模型的训练方法,包括:
步骤一、第一服务器根据第一服务器的第一样本训练得到第一矩阵分解模型的初始参数,第一服务器采用联邦学习中的加密算法对初始参数进行加密得到第一加密参数,并将第一加密参数发送至第二服务器。
步骤二、第二服务器接收到所述第一服务器发送的第一加密参数后,第二服务器将第一加密参数作为其第二矩阵分解模型的初始参数,并根据第二服务器中的第二数据进行模型训练,计算得到第一梯度参数,及第一加密损失值。
步骤三、第三方对应的服务器解密所述第一加密损失值,并根据解密后的第一损失值检测所述第一矩阵分解模型是否处于收敛状态;若未收敛,则根据第二服务器返回的第一梯度参数发送至第一服务器;
步骤四、第一服务器可以根据所述第一梯度参数更新所述第一矩阵分解模型,直至确定模型处于收敛状态,停止更新所述第一矩阵分解模型。
进一步地,所述根据解密后的第一损失值检测模型是否处于收敛状态的步骤包括:
获取所述第二服务器前一次发送的第一损失值记为历史第一损失值;
计算所述第一损失值和所述历史第一损失值之间的差值,并判断所述差值是否小于或者等于预设阈值;
当确定所述差值小于或者等于所述预设阈值时,确定所述待训练模型处于收敛状态;
当确定所述差值大于所述预设阈值时,确定所述待训练模型未处于收敛状态。
当第三服务器获取到第一损失值和历史第一损失值后,第三服务器计算第一损失值和历史第一损失值之间的差值,并判断该差值是否小于或者等于预设阈值。当确定该差值小于或者等于预设阈值时,第三服务器确定待训练模型处于收敛状态;当确定该差值大于预设阈值时,第三服务器确定待训练模型未处于收敛状态。其中,预设阈值的具体数值可根据具体需要而设置,在本实施例中对预设阈值对应的数值不做具体限制。
当然,第一服务器还可以根据第一梯度参数和第二梯度参数对第一矩阵分解模型进行更新。一种可能的实现方式,可以通过将第一梯度参数和第二梯度参数的加权平均,也可以根据第一梯度参数作为更新第一矩阵分解模型的梯度参数;根据第二梯度参数作为更新第二矩阵分解模型的梯度参数。
其中,第二梯度参数为对应的第二服务器根据第二样本训练得到第二矩阵分解模型的初始参数,第二服务器采用联邦学习中的加密算法对初始参数进行加密得到第二加密参数,并将第二加密参数发送至第一服务器;第一服务器将第二加密参数作为其第一矩阵分解模型的初始参数,并根据第一服务器中的第一数据进行模型训练,计算得到第二梯度参数,及第二加密损失值。
对应的第二服务器训练第二矩阵分解模型的方式可以参考第一服务器,在此不再赘述。
迭代上述步骤直至损失函数收敛,这样就完成了整个训练过程。在样本对齐及模型训练过程中,第一服务器和第二服务器各自的数据均保留在本地,且训练中的数据交互也不会导致数据隐私泄露。因此,双方在联邦学习的帮助下得以实现模型的训练。
进一步的,为提高用户数据的安全性,本发明实施例提供一种信息推荐模型的生成方法,如图2所示,包括:
步骤201:第一服务器获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第一矩阵分解模型为根据第一数据训练得到的;所述第二矩阵分解模型为根据第二数据训练得到的;所述第二特征参数和所述第二相似矩阵是通过所述第二矩阵分解模型确定的;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;
其中,为保证数据的隐私性,重叠对象的第二特征参数及所述重叠对象的第二相似矩阵为第二服务器通过所述第二矩阵分解模型确定的重叠对象的第二特征参数,第二相似矩阵;通过同态加密的方式,将所述重叠对象的第二特征参数及所述重叠对象的第二相似矩阵发送至第一服务器。
具体的,第二相似矩阵可以通过以下方式确定:
例如,根据各用户的特征参数,分别计算各用户之间的相似度。根据各产品的特征参数,分别计算各产品之间的相似度。可以通过k近邻计算,分别计算每个用户的k近邻用户,即用户对应的相似用户。其中,考虑到用户数目较多,而数据库存储资源有限,并且结合信息推荐效果,k取值可以为100,即分别针对每个用户,选取其中相似度最大的前100个用户,作为相似用户,将100个相似用户及相应的相似度通过相似矩阵的方式标识。例如,以信息推荐为例,确定重叠用户的用户特征参数Ui时,可以根据预先存储的重叠用户Ui的近邻用户获取该重叠用户的相似用户的特征参数,进而确定相似矩阵。根据相似矩阵和重叠用户的特征参数,可以确定相似用户的特征参数。
进一步的,第二相似矩阵可以通过引入噪音,以增强相似矩阵的隐私性,以对双方的数据实现更强的保护。
步骤202:第一服务器根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;
步骤203:第一服务器根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述第二特征梯度信息至少用于更新所述第二矩阵分解模型。
本发明实施例中,通过第二服务器根据第二矩阵分解模型确定的对象的特征参数,确定相似矩阵,可以确定每个对象的相似对象,进而使得第一服务器根据第二特征参数及所述第二相似矩阵,可以更新重叠对象及相似对象的特征参数,以通过更新后的第一矩阵分解模型,确定出所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;更好的利用了双方的重叠对象及相似对象的数据,并且通过增加相似矩阵,增加了第一服务器通过重叠对象获取重叠对象的特征数据的难度,在保证数据安全的前提下,以获得更准确的信息推荐。
针对第二服务器获取第二特征梯度信息,以更新第二矩阵分解模型,包括:
步骤一、第一服务器根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵;
步骤二、第一服务器将所述重叠对象的第一特征参数和所述第一相似矩阵经过同态加密后发送给第二服务器;
通过同态加密,使得第一特征参数和第一相似矩阵确定出的重叠对象和相似对象的特征参数都是加密的,尤其是相似对象的特征参数,是经过加密的重叠对象的特征参数和加密的相似矩阵的2次加密确定的,因此,提高了数据的隐私性。
步骤三、第二服务器通过所述第一特征参数和所述第一相似矩阵更新所述第二矩阵分解模型,从而确定第一特征梯度信息;
其中,所述第一特征梯度信息至少用于更新所述第一矩阵分解模型。
一种可能的实现方式,至少通过第二特征梯度信息更新所述第二矩阵分解模型的方法,所述方法还包括:
步骤一、第一服务器将所述第一特征梯度信息发送给第三服务器;
具体的,第一服务器可以通过同态加密的方式,将所述第一特征梯度信息发送给第三服务器;
步骤二、第一服务器接收所述第三服务器发送的第三特征梯度信息;
其中,所述第三特征梯度信息是第三服务器通过所述第二特征梯度信息和/或所述第一特征梯度信息确定的;
具体的,第三服务器根据第一服务器的私钥对所述第一特征梯度信息进行解密;第三服务器根据第二服务器的私钥对所述第二特征梯度信息进行解密;
步骤三、第二服务器根据所述第三特征梯度信息重新训练更新前的所述第二矩阵分解模型。
一种可能的实现方式,第一服务器重新训练更新前的所述第一矩阵分解模型之前,还包括:
若确定所述第一矩阵分解模型的损失函数未收敛;所述第二矩阵分解模型的损失函数未收敛;
所述第一矩阵分解模型中确定的所述重叠对象的相似对象的特征参数与所述第二矩阵分解模型中确定的所述重叠对象的相似对象的特征参数的相似度小于预设阈值。
结合上述实施例,一种可能的实现方式,包括:
步骤一、若检测到第一矩阵分解模型未处于所述收敛状态,则获取所述第二服务器发送的第一特征梯度信息;
步骤二、解密第一特征梯度信息;
步骤三、将所述第一特征梯度信息发送给所述第一服务器,以供所述第一服务器根据第一特征梯度信息对应更新第一矩阵分解模型的参数。
结合上述实施例,一种可能的实现方式,包括:
步骤一、若检测到第一矩阵分解模型未处于所述收敛状态,则获取所述第二服务器发送的第一特征梯度信息和所述第一服务器发送的第二特征梯度信息;
步骤二、根据第一服务器和第二服务器对应的私钥,分别解密第一特征梯度信息和第二特征梯度信息;
步骤三、根据解密后的第一特征梯度信息和第二特征梯度信息,确定第三梯度信息。
步骤四、将所述第三梯度信息发送给所述第一服务器,以供所述第一服务器根据第三梯度信息对应更新第一矩阵分解模型的参数。
本实施例中,确定第一矩阵分解模型未处于收敛状态的设备可以为第一服务器,也可以为第三服务器,在此不做限定。确定第矩阵分解模型未处于收敛状态的设备可以为第二服务器,也可以为第三服务器,在此不做限定。以第三服务器为例,若第三服务器确定第一矩阵分解模型未处于收敛状态,则通过第三服务器确定对应的矩阵分解模型需要更新的梯度信息,并将解密后确定的梯度信息发送给对应服务器,以供第一服务器和第二服务器更新对应的矩阵分解模型的参数,直到模型处于收敛状态,以提高各自的矩阵分解模型分析数据的准确性。
本实施例通过根据第一服务器的第一数据和第二服务器的第二数据,以及第二数据对应的样本标签计算损失值,并采用同态加密算法加密计算损失值所需的数据,使第二服务器在计算损失值过程中,并不能获取第一服务器的具体数据,实现了在联合第一服务器的第一数据和第二服务器的第二数据计算模型参数过程中,可在不暴露第一服务器的第一数据和第二服务器的第二数据的基础上计算出计算模型参数所需的损失值,提高了计算模型参数过程中第一服务器的第一数据和第二服务器的第二数据的隐私性。
本发明实施例提供一种信息推荐方法,所述方法包括:
步骤一,第一服务器接收到信息推荐请求;
步骤二、第一服务器根据所述信息推荐请求对应的用户j对应的Uj A和产品属性矩阵VA,确定第一预测值;
步骤三、第一服务器根据第一预测值,确定所述信息推荐请求的推荐结果。
本实施例通过第一服务器接收到信息推荐请求后,通过联邦学习后的第一矩阵分解模型分析该信息推荐请求,以确定该信息推荐请求的推荐数据,提高了第一服务器推送数据的准确性。
为进一步提高推荐信息的准确性,本发明实施例提供一种信息推荐方法,所述方法包括:
步骤一,第一服务器接收到信息推荐请求;
步骤二、第一服务器根据所述信息推荐请求对应的用户j对应的Uj A和产品属性矩阵VA,确定第一预测值;
步骤三、第一服务器将所述信息推荐请求发送给所述第二服务器;
步骤四、第二服务器在接收到所述信息推荐请求后,根据对应的第二矩阵分解模型和所述信息推荐请求对应用户j,确定Uj B和产品属性VB
步骤五、第二服务器根据Uj B和产品属性VB确定第二预测值;并将返回第而预测值发送至第一服务器。
步骤六、第一服务器将所述第一预测值和所述第二预测值,确定综合预测值;
一种可能的实现方式,综合预测值可以通过第一预测值和第二预测值加权确定。
步骤七、第一服务器根据综合预测值,确定所述信息推荐请求的推荐结果。
例如,若计算所得的模型对应的产品对象的推荐值大于或者等于预设分数,第一服务器则确定产品对象作为该信息推荐请求的推荐数据。
本实施例通过第一服务器接收到信息推荐请求后,通过模型分析该信息推荐请求,以确定该信息推荐请求的推荐数据,提高了第一服务器推送数据的准确性。
基于上述实施例,参阅图3所示,本发明实施例中,信息推荐模型的生成装置具体包括:
收发单元301,用于获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第一矩阵分解模型为根据第一数据训练得到的;所述第二矩阵分解模型为根据第二数据训练得到的;所述第二特征参数和所述第二相似矩阵是通过所述第二矩阵分解模型确定的;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;
处理单元302,用于根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述第二特征梯度信息及所述第二特征梯度信息至少用于更新所述第二矩阵分解模型。
一种可能的实现方式,处理单元302,还用于:
根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵;
收发单元301,还用于将所述重叠对象的第一特征参数和所述第一相似矩阵经过同态加密后发送给第二服务器,所述第二服务器用于通过所述第一特征参数和所述第一相似矩阵更新所述第二矩阵分解模型,从而确定第一特征梯度信息;所述第一特征梯度信息至少用于更新所述第一矩阵分解模型。
一种可能的实现方式,收发单元301,还用于:
将所述第二特征梯度信息发送给第三服务器;接收所述第三服务器发送的第三特征梯度信息;所述第三特征梯度信息是通过所述第二特征梯度信息和/或所述第一特征梯度信息确定的;
处理单元302,还用于根据所述第三特征梯度信息重新训练更新前的所述第一矩阵分解模型。
一种可能的实现方式,所述第三特征梯度信息为所述第三服务器对所述第一特征梯度信息和所述第二特征梯度信息解密后确定的。
一种可能的实现方式,处理单元302,还用于:
确定所述第一矩阵分解模型的损失函数未收敛;确定所述第二矩阵分解模型的损失函数未收敛;确定所述第一矩阵分解模型中确定的所述重叠对象的相似对象的特征参数与所述第二矩阵分解模型中确定的所述重叠对象的相似对象的特征参数的相似度小于预设阈值。
基于上述实施例,参阅图4所示,本发明实施例中,一种电子设备的结构示意图。本领域技术人员可以理解,图4中示出的结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及信息推荐模型的生成程序。其中,操作系统是管理和控制模型参数获取系统硬件和软件资源的程序,支持信息推荐模型的生成程序以及其它软件或程序的运行。
用户接口1003主要用于连接第一服务器、第二服务器和第三服务器等,与各个服务器进行数据通信;网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;而处理器1001可以用于调用存储器1005中存储的信息推荐模型的生成程序,并执行以下操作:
处理器1001,用于根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述第二特征梯度信息及所述第二特征梯度信息至少用于更新所述第二矩阵分解模型。
一种可能的实现方式,处理器1001,还用于:根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵。
一种可能的实现方式,处理器1001,还用于根据所述第三特征梯度信息重新训练更新前的所述第一矩阵分解模型。
一种可能的实现方式,所述第三特征梯度信息为所述第三服务器对所述第一特征梯度信息和所述第二特征梯度信息解密后确定的。
一种可能的实现方式,处理器1001,还用于:
确定所述第一矩阵分解模型的损失函数未收敛;确定所述第二矩阵分解模型的损失函数未收敛;确定所述第一矩阵分解模型中确定的所述重叠对象的相似对象的特征参数与所述第二矩阵分解模型中确定的所述重叠对象的相似对象的特征参数的相似度小于预设阈值。
基于上述实施例,本发明实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意方法实施例中的信息推荐方法。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种信息推荐模型的生成方法,其特征在于,适用于矩阵分解模型;包括:
第一服务器获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第一矩阵分解模型为根据第一数据训练得到的;所述第二矩阵分解模型为根据第二数据训练得到的;所述第二特征参数和所述第二相似矩阵是通过所述第二矩阵分解模型确定的;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;
所述第一服务器根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;
所述第一服务器根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息至少用于更新所述第二矩阵分解模型。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
所述第一服务器根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵;
所述第一服务器将所述重叠对象的第一特征参数和所述第一相似矩阵经过同态加密后发送给第二服务器,所述第二服务器用于通过所述第一特征参数和所述第一相似矩阵更新所述第二矩阵分解模型,从而确定第一特征梯度信息;所述第一特征梯度信息至少用于更新所述第一矩阵分解模型。
3.如权利要求2所述的方法,其特征在于,所述第一服务器确定第二特征梯度信息之后,还包括:
所述第一服务器将所述第二特征梯度信息发送给第三服务器;
所述第一服务器接收所述第三服务器发送的第三特征梯度信息;
所述第三特征梯度信息是通过所述第二特征梯度信息和/或所述第一特征梯度信息确定的;所述第一特征梯度信息为所述第二服务器发送给所述第三服务器的;
所述第二特征梯度信息至少用于更新所述第二矩阵分解模型,包括:
所述第一服务器根据所述第三特征梯度信息重新训练更新前的所述第一矩阵分解模型。
4.如权利要求3所述的方法,其特征在于,所述第三特征梯度信息是通过所述第一特征梯度信息和所述第二特征梯度信息确定的,包括:
所述第三特征梯度信息为所述第三服务器对所述第一特征梯度信息和所述第二特征梯度信息解密后确定的。
5.如权利要求3所述的方法,其特征在于,所述重新训练更新前的所述第一矩阵分解模型之前,还包括:
确定所述第一矩阵分解模型的损失函数未收敛;
确定所述第二矩阵分解模型的损失函数未收敛;
确定所述第一矩阵分解模型中确定的所述重叠对象的相似对象的特征参数与所述第二矩阵分解模型中确定的所述重叠对象的相似对象的特征参数的相似度小于预设阈值。
6.一种信息推荐模型的生成装置,其特征在于,适用于矩阵分解模型;包括:
收发单元,用于获取重叠对象的第二特征参数及所述重叠对象的第二相似矩阵;所述重叠对象为第一矩阵分解模型和第二矩阵分解模型中相同的对象;所述第一矩阵分解模型为根据第一数据训练得到的;所述第二矩阵分解模型为根据第二数据训练得到的;所述第二特征参数和所述第二相似矩阵是通过所述第二矩阵分解模型确定的;所述第二相似矩阵用于表示所述第二矩阵分解模型中的各对象与所述重叠对象的相似度;
处理单元,用于根据所述第二特征参数及所述第二相似矩阵,更新所述第一矩阵分解模型;根据更新后的第一矩阵分解模型,确定所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息;所述重叠对象的第二特征梯度信息及所述重叠对象的相似对象的第二特征梯度信息至少用于更新所述第二矩阵分解模型。
7.如权利要求6所述的装置,其特征在于,所述处理单元,还用于:
根据更新前的所述第一矩阵分解模型,确定所述重叠对象的第一特征参数和第一相似矩阵;
所述收发单元,还用于将所述重叠对象的第一特征参数和所述第一相似矩阵经过同态加密后发送给第二服务器,所述第二服务器用于通过所述第一特征参数和所述第一相似矩阵更新所述第二矩阵分解模型,从而确定第一特征梯度信息;所述第一特征梯度信息至少用于更新所述第一矩阵分解模型。
8.如权利要求7所述的装置,其特征在于,所述收发单元,还用于:
将所述第二特征梯度信息发送给第三服务器;接收所述第三服务器发送的第三特征梯度信息;所述第三特征梯度信息是通过所述第二特征梯度信息和/或所述第一特征梯度信息确定的;所述第一特征梯度信息为所述第二服务器发送给所述第三服务器的;
所述处理单元,还用于根据所述第三特征梯度信息重新训练更新前的所述第一矩阵分解模型。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5任一项方法的步骤。
10.一种电子设备,其特征在于,包括:
至少一个存储器,用于存储程序指令;
至少一个处理器,用于调用所述存储器中存储的程序指令,按照获得的程序指令执行上述权利要求1-5任一项所述的方法。
CN201910391535.9A 2019-05-10 2019-05-10 一种信息推荐模型的生成方法及装置 Active CN110189192B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910391535.9A CN110189192B (zh) 2019-05-10 2019-05-10 一种信息推荐模型的生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910391535.9A CN110189192B (zh) 2019-05-10 2019-05-10 一种信息推荐模型的生成方法及装置

Publications (2)

Publication Number Publication Date
CN110189192A CN110189192A (zh) 2019-08-30
CN110189192B true CN110189192B (zh) 2021-04-13

Family

ID=67716023

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910391535.9A Active CN110189192B (zh) 2019-05-10 2019-05-10 一种信息推荐模型的生成方法及装置

Country Status (1)

Country Link
CN (1) CN110189192B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110795631B (zh) * 2019-10-29 2022-09-06 支付宝(杭州)信息技术有限公司 一种基于因子分解机的推送模型优化、预测方法和装置
CN110851786B (zh) * 2019-11-14 2023-06-06 深圳前海微众银行股份有限公司 基于纵向联邦学习的企业间数据交互方法、装置、设备及存储介质
CN111291273A (zh) * 2020-02-20 2020-06-16 深圳前海微众银行股份有限公司 推荐系统优化方法、装置、设备及可读存储介质
CN111324812B (zh) * 2020-02-20 2021-02-19 深圳前海微众银行股份有限公司 基于迁移学习的联邦推荐方法、装置、设备及介质
CN111339412A (zh) * 2020-02-20 2020-06-26 深圳前海微众银行股份有限公司 纵向联邦推荐召回方法、装置、设备及可读存储介质
CN111340614B (zh) * 2020-02-28 2021-05-18 深圳前海微众银行股份有限公司 基于联邦学习的样本采样方法、设备及可读存储介质
CN111488995B (zh) * 2020-04-08 2021-12-24 北京字节跳动网络技术有限公司 用于评估联合训练模型的方法、装置和系统
CN111553742A (zh) * 2020-05-08 2020-08-18 深圳前海微众银行股份有限公司 联邦产品推荐方法、装置、设备及计算机存储介质
CN111553745A (zh) * 2020-05-08 2020-08-18 深圳前海微众银行股份有限公司 基于联邦的模型更新方法、装置、设备及计算机存储介质
CN111553743A (zh) * 2020-05-08 2020-08-18 深圳前海微众银行股份有限公司 联邦产品推荐方法、装置、设备及计算机存储介质
CN111553744A (zh) * 2020-05-08 2020-08-18 深圳前海微众银行股份有限公司 联邦产品推荐方法、装置、设备及计算机存储介质
CN111800411B (zh) * 2020-07-02 2021-04-02 支付宝(杭州)信息技术有限公司 保护隐私的业务预测模型联合更新方法及装置
CN111859155A (zh) * 2020-08-04 2020-10-30 深圳前海微众银行股份有限公司 物品推荐方法、设备及计算机可读存储介质
CN112287231B (zh) * 2020-11-05 2024-04-05 深圳大学 一种联邦推荐梯度获取方法、装置、智能终端及存储介质
CN112492586B (zh) * 2020-11-23 2023-05-23 中国联合网络通信集团有限公司 加密传输方案优化方法及装置
CN112766312B (zh) * 2020-11-26 2023-05-30 上海嗨普智能信息科技股份有限公司 用户信息获取方法、电子设备和介质
CN112532627B (zh) * 2020-11-27 2022-03-29 平安科技(深圳)有限公司 冷启动推荐方法、装置、计算机设备及存储介质
CN114417138B (zh) * 2021-12-27 2024-04-02 海信集团控股股份有限公司 一种健康信息推荐方法和设备
CN114401154B (zh) * 2022-03-24 2022-06-07 华控清交信息科技(北京)有限公司 一种数据处理方法、装置、密文计算引擎和用于数据处理的装置
CN115795174B (zh) * 2023-02-08 2023-04-25 富算科技(上海)有限公司 一种信息推荐方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8655939B2 (en) * 2007-01-05 2014-02-18 Digital Doors, Inc. Electromagnetic pulse (EMP) hardened information infrastructure with extractor, cloud dispersal, secure storage, content analysis and classification and method therefor
CN109002861B (zh) * 2018-08-10 2021-11-09 深圳前海微众银行股份有限公司 联邦建模方法、设备及存储介质
CN109492420B (zh) * 2018-12-28 2021-07-20 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、终端、系统及介质

Also Published As

Publication number Publication date
CN110189192A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
CN110189192B (zh) 一种信息推荐模型的生成方法及装置
CN110399742B (zh) 一种联邦迁移学习模型的训练、预测方法及装置
CN111814985B (zh) 联邦学习网络下的模型训练方法及其相关设备
CN110110229B (zh) 一种信息推荐方法及装置
US20230078061A1 (en) Model training method and apparatus for federated learning, device, and storage medium
US20230023520A1 (en) Training Method, Apparatus, and Device for Federated Neural Network Model, Computer Program Product, and Computer-Readable Storage Medium
CN113159327B (zh) 基于联邦学习系统的模型训练方法、装置、电子设备
WO2020134704A1 (zh) 基于联邦学习的模型参数训练方法、终端、系统及介质
WO2022247576A1 (zh) 一种数据处理方法、装置、设备及计算机可读存储介质
CN110245510A (zh) 用于预测信息的方法和装置
CN111784001B (zh) 一种模型训练方法、设备及计算机可读存储介质
CN112329073A (zh) 分布式数据处理方法、装置、计算机设备及存储介质
CN112347500B (zh) 分布式系统的机器学习方法、装置、系统、设备及存储介质
CN111428887B (zh) 一种基于多个计算节点的模型训练控制方法、装置及系统
CN111081337B (zh) 一种协同任务预测方法及计算机可读存储介质
CN112132198A (zh) 数据处理方法、装置、系统和服务器
CN112039702B (zh) 基于联邦学习和相互学习的模型参数训练方法及装置
CN110837653A (zh) 标签预测方法、装置以及计算机可读存储介质
CN115765965A (zh) 基于联邦学习和双联盟区块链的医疗数据安全共享方法
CN116502732B (zh) 基于可信执行环境的联邦学习方法以及系统
CN111914281B (zh) 基于区块链和同态加密的贝叶斯模型训练方法及装置
CN112734050A (zh) 文本模型的训练方法、识别方法、装置、设备及存储介质
CN117521102A (zh) 一种基于联邦学习的模型训练方法及装置
CN117094773A (zh) 基于区块链隐私计算的在线迁移学习方法及系统
CN113032838B (zh) 基于隐私计算的标签预测模型生成方法、预测方法、模型生成装置、系统及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant