CN111814048A - 一种信息推荐方法及装置 - Google Patents
一种信息推荐方法及装置 Download PDFInfo
- Publication number
- CN111814048A CN111814048A CN202010636805.0A CN202010636805A CN111814048A CN 111814048 A CN111814048 A CN 111814048A CN 202010636805 A CN202010636805 A CN 202010636805A CN 111814048 A CN111814048 A CN 111814048A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- sample
- node
- represented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 253
- 238000012549 training Methods 0.000 claims description 78
- 238000002372 labelling Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 52
- 239000011159 matrix material Substances 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 235000005118 dietary health Nutrition 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 239000001257 hydrogen Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000003208 petroleum Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 235000013311 vegetables Nutrition 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 229940088594 vitamin Drugs 0.000 description 2
- 229930003231 vitamin Natural products 0.000 description 2
- 235000013343 vitamin Nutrition 0.000 description 2
- 239000011782 vitamin Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000008821 health effect Effects 0.000 description 1
- 150000002431 hydrogen Chemical class 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000004006 olive oil Substances 0.000 description 1
- 235000008390 olive oil Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供了一种信息推荐方法及装置,所述方法包括:获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量;基于用户向量表示的兴趣偏好、信息向量表示的内容特点及信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。应用本发明实施例,可以更加准确地向用户推荐用户感兴趣的信息。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种信息推荐方法及装置。
背景技术
随着互联网相关技术的高速发展,网络中的信息的数量呈现出爆炸性增长的趋势,与此同时,用户在大量的信息中获取所需的信息的难度越来越大。为了向用户提供所需的信息,信息推荐方法应运而生。
目前的信息推荐方法中,通常是基于用户浏览信息的历史数据为用户推荐信息的。具体来说,可以确定用户历史数据中信息的内容与待推荐信息的内容之间的相似度,然后基于相似度确定用户可能浏览待推荐信息的概率,作为预测概率,进而基于预测概率向用户推荐信息。
由于用户的历史数据只能表示用户浏览过哪些信息,不能表示用户出于哪些因素浏览了信息,所以历史数据并不能全面地体现用户对于信息的喜好特点,导致根据历史数据及信息的内容向用户推荐的信息很可能是用户并不感兴趣的,无法准确地向用户推荐用户感兴趣的信息。
发明内容
本发明实施例的目的在于提供一种信息推荐方法及装置,以更加准确地向用户推荐用户感兴趣的信息。具体技术方案如下:
第一方面,本发明实施例提供了一种信息推荐方法,所述方法包括:
获取待推荐二部图的拓扑信息、所述待推荐二部图中每个用户节点对应的用户信息及所述待推荐二部图中每个信息节点对应的内容信息,其中,所述待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,所述拓扑信息用于表示所述待推荐二部图中的用户节点与信息节点之间的历史浏览关系;
将所述拓扑信息、所述用户信息及所述内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,所述用户向量表示对应的用户对于各预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,所述信息推荐模型为基于预设训练集训练得到的,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本;
基于所述用户向量表示的兴趣偏好和所述信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,所述候选信息节点为与该用户节点不存在历史浏览关系的信息节点;
基于所述预测概率,向所述二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
第二方面,本发明实施例提供了一种信息推荐装置,所述装置包括:
信息获取模块,用于获取待推荐二部图的拓扑信息、所述待推荐二部图中每个用户节点对应的用户信息及所述待推荐二部图中每个信息节点对应的内容信息,其中,所述待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,所述拓扑信息用于表示所述待推荐二部图中的用户节点与信息节点之间的历史浏览关系;
向量确定模块,用于将所述拓扑信息、所述用户信息及所述内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,所述用户向量表示对应的用户对于各预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,所述信息推荐模型为模型训练模块基于预设训练集训练得到的,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本;
概率预测模块,用于基于所述用户向量表示的兴趣偏好和所述信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,所述候选信息节点为与该用户节点不存在历史浏览关系的信息节点;
信息推荐模块,用于基于所述预测概率,向所述二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
本发明实施例提供的方案中,电子设备可以获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息,其中,待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,拓扑信息用于表示待推荐二部图中的用户节点与信息节点之间的历史浏览关系;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,用户向量表示对应的用户对于预设信息类型的信息的兴趣偏好,信息向量表示对应的信息属于各预设信息类型时对应的语义信息,预设信息类型为预先基于二部图中信息节点所表示的信息的内容设置的,信息推荐模型为基于预设训练集训练得到的,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点对应的用户信息样本及二部图样本中每个信息节点对应的内容信息样本;基于用户向量表示的兴趣偏好和信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,候选信息节点为与该用户节点不存在历史浏览关系的信息节点;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
电子设备通过预先训练完成的信息推荐模型可以确定待推荐二部图中每个用户节点对应的用户向量及每个信息节点对应的信息向量,由于用户向量和信息向量可以更加全面的表征用户对于信息的喜好特点,所以基于用户向量和信息向量进行可以更加准确地预测用户浏览候选信息节点所表示的信息的概率,从而更加准确地向用户推荐用户感兴趣的信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为二部图的一种示意图;
图2为本发明实施例所提供的一种信息推荐方法的流程图;
图3为基于图1所示实施例的信息推荐模型的训练方法的流程图;
图4为图3所示实施例中用户向量及信息向量的确定方式的具体流程图;
图5(a)为本发明实施例所提供的待推荐二部图的一种示意图;
图5(b)为图5(a)中用户节点u2的邻居节点的示意图;
图6为本发明实施例所提供的信息推荐模型的结构示意图;
图7为本发明实施例所提供的预设信息类型与信息内容之间关系的示意图;
图8为本发明实施例中预设信息类型的数量与信息推荐模型的F1评分之间关系的趋势图;
图9为本发明实施例中预设迭代次数与信息推荐模型的F1评分之间关系的趋势图;
图10为本发明实施例所提供的一种信息推荐模型的结构示意图;
图11为本发明实施例所提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了更加准确地向用户推荐用户感兴趣的信息,本发明实施例提供了一种信息推荐方法、装置、电子设备及计算机可读存储介质。下面首先对本发明实施例所提供的一种信息推荐方法进行介绍。
本发明实施例所提供的一种信息推荐方法可以应用于任意需要向用户推荐信息的电子设备,例如,可以为电脑、手机、服务器等。
为了方便描述本发明实施例所提供的信息推荐方法,首先介绍本发明实施例中的二部图。如图1所示,图1为二部图的一种示意图,二部图包括多个用户节点及多个信息节点,用户节点包括用户节点1、用户节点2及用户节点3,信息节点包括信息节点1、信息节点2、信息节点3及信息节点4。每个用户节点表示一个用户,每个信息节点表示一条信息,信息为用户在网络中能够浏览的信息,例如,可以为新闻信息、商品信息等。用户节点和信息节点之间以边连接表示用户节点与信息节点之间存在历史浏览关系,也就是说,该用户浏览过该信息。
如图2所示,一种信息推荐方法,所述方法包括:
S201,获取待推荐二部图的拓扑信息、所述待推荐二部图中每个用户节点对应的用户信息及所述待推荐二部图中每个信息节点对应的内容信息;
其中,所述待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,所述拓扑信息用于表示所述待推荐二部图中的用户节点与信息节点之间的历史浏览关系。
S202,将所述拓扑信息、所述用户信息及所述内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量;
其中,所述用户向量表示对应的用户对于各预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,所述信息推荐模型为基于预设训练集训练得到的,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本。
S203,基于所述用户向量表示的兴趣偏好和所述信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率;
其中,针对每个用户节点,所述候选信息节点为与该用户节点不存在历史浏览关系的信息节点。
S204,基于所述预测概率,向所述二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
可见,本发明实施例所提供的方案中,电子设备可以获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息,其中,待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,拓扑信息用于表示待推荐二部图中的用户节点与信息节点之间的历史浏览关系;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,用户向量表示对应的用户对于预设信息类型的信息的兴趣偏好,信息向量表示对应的信息属于各预设信息类型时对应的语义信息,预设信息类型为预先基于二部图中信息节点所表示的信息的内容设置的,信息推荐模型为基于预设训练集训练得到的,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点对应的用户信息样本及二部图样本中每个信息节点对应的内容信息样本;基于用户向量表示的兴趣偏好和信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,候选信息节点为与该用户节点不存在历史浏览关系的信息节点;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
电子设备通过预先训练完成的信息推荐模型可以确定待推荐二部图中每个用户节点对应的用户向量及每个信息节点对应的信息向量,由于用户向量和信息向量可以更加全面的表征用户对于信息的喜好特点,所以基于用户向量和信息向量进行可以更加准确地预测用户浏览候选信息节点所表示的信息的概率,从而更加准确地向用户推荐用户感兴趣的信息。
为了向用户推荐其感兴趣的信息,在上述步骤S201中,电子设备可以获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息。其中,待推荐二部图即为需要推荐的信息和被推荐信息的用户所组成的二部图,可以包括多个用户节点及多个信息节点。
上述用户信息为表示用户的身份、性质等的信息,例如,可以包括用户的性别、住址、爱好等。上述内容信息即为可以表示信息内容的信息,例如,可以包括信息的标题、关键词等。上述拓扑信息用于表示待推荐二部图中的用户节点与信息节点之间的历史浏览关系,若某用户节点表示的用户浏览过某信息节点所表示的信息,那么该用户节点与该信息节点之间也就存在历史浏览关系。
在一种实施方式中,可以预先获取待推荐二部图中信息节点所表示的信息的标题词汇序列、信息内容中实体的实体序列及实体序列对应的实体类型序列。其中,实体类型为预先基于信息内容设置的,实体可以为信息内容中的人物、地点、物品等。例如,信息内容为“演员yy1前往城市CT1”,预设的实体类型为人物实体类型、地点实体类型及物品实体类型,那么该信息内容中的实体即为“演员yy1”及“城市CT1”,实体“演员yy1”的实体类型即为人物实体类型,实体“城市CT1”的实体类型即为地点实体类型。
上述标题词汇序列记为T,T={w1,w2,…,wm},w1,w2,…,wm分别表示信息的标题中的每个词汇,m为标题词汇序列包括的词汇的数量。上述实体序列记为E,E={e1,e2,…,ep},e1,e2,…,ep分别表示信息内容中的实体,p为信息内容中的实体的数量。上述实体类型序列记为C,C={c1,c2,…,cp},c1,c2,…,cp分别为实体e1,e2,…,ep对应的实体类型。
在获得标题序列T、实体序列E及实体类型序列C之后,可以通过大语料预训练的方式或者随机初始化的方式,将标题序列T中的词汇w1,w2,…,wm分别转化为对应的词汇向量w1,w2,…,wm,将实体序列E中的实体e1,e2,…,ep分别转化为对应的实体向量e1,e2,…,ep,将实体类型序列C中的实体类型分别转化为对应的实体类型向量c1,c2,…,cp,得到标题序列T对应的标题矩阵实体序列E对应的实体矩阵 实体类型序列C对应的实体类型矩阵其中,n1为词汇向量及实体向量的维度,n2为实体类型向量的维度。
在获得实体矩阵E及实体类型矩阵C之后,可以定义内容概要矩阵P=[e1,g(c1),e2,g(c2),…,ep,g(cp)]T,其中g(c)为预设的转换函数,g(c)=Mcc,Mc为可训练的转换矩阵。进而,可以将信息的标题矩阵T输入并行卷积神经网络PCNN(Parallel Convolutional Neural Network),并将信息的内容概要矩阵P输入并行卷积神经网络PCNN,得到标题矩阵T对应的输出值及内容概要矩阵P对应的输出值然后通过并行卷积神经网络PCNN的全连接层,得到输出值作为内容信息,输出值记为
在另一种实施方式中,可以预先获取待推荐二部图中每个用户节点对应的用户标识,将每个用户节点对应的用户标识分别通过随机初始化的方式转化为对应的向量,分别作为每个用户节点对应的用户信息。
由于上述拓扑信息只能表示用户节点与信息节点之间的历史浏览关系,上述用户信息只能表示用户的性质及特点,上述内容信息只能表示信息的内容,均无法更加全面地体现用户对于信息的喜好特点。因此,为了获得更多能够体现用户对于信息的喜好特点的信息,在获得上述拓扑信息、用户信息及内容信息之后,电子设备可以将拓扑信息、用户信息及内容信息输入预先训练完成的信息推荐模型,通过信息推荐模型确定每个用户节点对应的用户向量和每个信息节点对应的信息向量。
其中,用户向量可以表示对应的用户对于各预设信息类型的信息的兴趣偏好;用户向量还可以表示对应的用户的身份、性质;用户向量还可以表示对应的用户浏览过的信息的内容。信息向量可以表示对应的信息属于各预设信息类型时对应的被浏览信息,被浏览信息可以表示信息被哪些用户浏览过;信息向量还可以表示对应的信息的内容;信息向量还可以表示浏览对应的信息的用户的身份及性质。浏览对应的信息的用户的身份及性质、对应的信息属于各预设信息类型时对应的被浏览信息、对应的信息的内容可以记作语义信息,也就是说,信息向量可以表示对应的信息属于各预设信息类型时对应的语义信息。由于信息的内容可能涉及不同方面,所以同一信息可能属于多种不同的预设信息类型。
上述预设信息类型为预先基于待推荐二部图中的信息节点所表示的信息的内容设置的。例如,待推荐二部图中的信息节点所表示的信息包括信息1、信息2、信息3及信息4,信息1、信息4的内容为体育方面、音乐方面的内容,信息2的内容为军事方面的内容,信息3的内容为音乐方面的内容,那么预设信息类型便可以包括体育类型、军事类型及音乐类型。
例如,预设信息类型包括类型L1及类型L2,信息X1为属于类型L1的信息,信息X1被用户Y1及用户Y2浏览过,那么信息X1对应的信息向量也就可以表示信息X1属于类型L1时被用户Y1及用户Y2浏览过。
上述信息推荐模型为预先基于预设训练集训练得到的,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点对应的用户信息样本及二部图样本中每个信息节点对应的内容信息样本,在训练过程中可以不断调整信息推荐模型的参数,以使其逐渐学习到输入信息与每个用户节点对应的用户向量和每个信息节点对应的信息向量之间的关系。其中,信息推荐模型可以为卷积神经网络等深度学习模型,在此不做具体限定。
在确定用户向量及信息向量后,电子设备便可以执行上述步骤S203,也就是基于用户向量表示的兴趣偏好和信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率。其中,针对每个用户节点,候选信息节点即为与该用户节点不存在历史浏览关系的信息节点。
例如,如图1所示,对于用户节点1,信息节点1与信息节点4与用户节点1不存在历史浏览关系,那么信息节点1与信息节点4即为用户节点1对应的候选信息节点。
当用户向量表示对应的用户对于某预设信息类型的信息的兴趣偏好较高,且候选信息节点对应的信息向量表示该候选信息节点所对应的信息因该预设信息类型被较多的用户浏览过时,说明该候选信息节点所表示的信息很可能为该预设信息类型的信息,那么该用户向量所对应的用户浏览该候选信息节点所对应的信息的概率也就较高。
当用户向量表示对应的用户对于某预设信息类型的信息的兴趣偏好较低,且候选信息节点对应的信息向量表示该候选信息节点所对应的信息因该预设信息类型被较少的用户浏览过时,说明该候选信息节点所表示的信息很可能并不是该预设信息类型的信息,那么该用户向量所对应的用户浏览该候选信息节点所对应的信息的概率也就较低。
由于用户向量及信息向量可以更加全面地表示用户对于各预设信息类型的信息的喜好特点,所以基于用户向量和信息向量进行可以更加准确地预测用户浏览候选信息节点所表示的信息的概率,这样也就可以更加准确地向用户推荐用户感兴趣的信息。
在确定预测概率之后,电子设备便可以执行上述步骤S204,当用户节点所表示的用户可能浏览某个与该用户节点不存在历史浏览关系的信息节点所表示的信息的预测概率较高时,说明该用户对于该信息的兴趣偏好较高,也就是说该用户浏览该信息的可能性较高,那么电子设备便可以向该用户推荐该信息。
当用户节点所表示的用户可能浏览某个与该用户节点不存在历史浏览关系的信息节点所表示的信息的预测概率较低时,说明该用户对于该信息的兴趣偏好较低,也就是说该用户浏览该信息的可能性较低,那么电子设备也就无需向该用户推荐该信息。
作为本发明实施例的一种实施方式,如图3所示,上述信息推荐模型的训练方法,可以包括:
S301,获取初始信息推荐模型及预设训练集;
为了生成能够准确确定用户向量及信息向量的信息推荐模型,在上述步骤S301中,电子设备可以获取初始信息推荐模型及预设训练集。其中,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点样本对应的用户信息样本及二部图样本中每个信息节点样本对应的内容信息样本,初始信息推荐模型可以为GCN(GraphConvolutional Network,图卷积神经网络)等深度学习模型,其参数可以随机初始化。对于初始信息推荐模型的结构在此不做具体限定。
S302,从所述二部图样本中选取多个用户节点样本及多个信息节点样本,并标记每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为标记概率;
在获取上述预设训练集之后,电子设备可以从预设训练集中的二部图样本中选取多个用户节点样本及多个信息节点样本,根据二部图样本的拓扑信息样本,标记每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为标记概率。
上述拓扑信息样本可以表示二部图样本中的用户节点样本与信息节点样本之间的历史浏览关系。在一种实施方式中,当某个被选取的用户节点样本所表示的用户浏览过某个被选取的信息节点样本所表示的信息时,可以标记该用户节点样本所表示的用户浏览该被选取的信息节点样本所表示的信息的概率为1;当某个被选取的用户节点样本所表示的用户没有浏览过某个被选取的信息节点样本所表示的信息时,可以标记该用户节点样本所表示的用户浏览该被选取的信息节点样本所表示的信息的概率为0。
S303,将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入所述初始信息推荐模型,确定每个用户节点样本对应的用户向量和每个信息节点样本对应的信息向量;
由于训练生成的信息推荐模型需要基于用户向量及信息向量准确确定待推荐二部图中的每个用户节点表示的用户浏览每个信息节点表示的信息的概率,因此,电子设备可以将拓扑信息样本、用户信息样本及内容信息样本输入初始信息推荐模型,确定二部图样本中的每个用户节点样本对应的用户向量和二部图样本中的每个信息节点样本对应的信息向量。
S304,基于每个被选取的用户节点样本对应的用户向量和每个被选取的信息节点样本对应的信息向量,确定每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为模型预测概率;
在确定二部图样本中的每个用户节点样本对应的用户向量和二部图样本中的每个信息节点样本对应的信息向量之后,可以基于每个被选取的用户节点样本对应的用户向量和每个被选取的信息节点样本对应的信息向量,确定每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为模型预测概率。
其中,上述模型预测概率即为对初始信息推荐模型进行训练时,确定的每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率。
S305,基于所述模型预测概率与所述标记概率之间的差异,调整所述初始信息推荐模型的参数,直至所述初始信息推荐模型收敛,停止训练,得到信息推荐模型。
由于当前阶段的信息推荐模型可能还无法准确确定待推荐二部图中的每个用户节点表示的用户浏览每个信息节点表示的信息的概率,所以得到上述模型预测概率及标记概率之后,电子设备可以基于模型预测概率与标记概率之间的差异,调整初始信息推荐模型的参数,直至初始信息推荐模型收敛,停止训练,得到信息推荐模型。
电子设备可以将模型预测概率与标记概率进行对比,进而根据模型预测概率与标记概率之间的差异,调整初始信息推荐模型的参数,以使初始信息推荐模型的参数更加合适。
为了确定上述初始信息推荐模型是否收敛,电子设备可以判断初始信息推荐模型的迭代次数是否达到预设次数,或,模型预测概率的准确率是否达到预设值。
如果初始信息推荐模型的迭代次数未达到预设次数,或,模型预测概率的准确率未达到预设值,说明当前的初始信息推荐模型还未收敛,也就是说,当前的初始信息推荐模型还无法准确确定二部图样本中的每个用户节点样本表示的用户浏览每个信息节点样本表示的信息的概率,那么电子设备需要继续训练初始信息推荐模型。
如果初始信息推荐模型的迭代次数达到预设次数,或,模型预测概率的准确率达到预设值,说明当前的初始信息推荐模型已经收敛,也就是说,当前的初始信息推荐模型可以准确确定二部图样本中的每个用户节点样本表示的用户浏览每个信息节点样本表示的信息的概率,所以此时可以停止训练,得到信息推荐模型。
上述预设次数可以根据预测概率的准确度、模型结构等因素设定,例如,可以为10000次、20000次、50000次等,在此不做具体限定。预设值可以根据预测概率的准确度、模型结构等因素设定,例如可以为0.75、0.8、0.95等,在此不做具体限定。调整初始信息推荐模型的参数的方式可以为反向传播算法等模型参数调整方式,在此不做具体限定及说明。
可见,本发明实施例所提供的方案中,电子设备可以通过上述方式训练初始信息推荐模型,得到符合要求的信息推荐模型。这样,训练生成的信息推荐模型的参数更加合适,可以更加准确地确定预测概率。
作为本发明实施例的一种实施方式,上述初始信息推荐模型可以包括图卷积层。
初始信息模型可以通过图卷积层,对用户节点样本表示的用户对于各预设信息类型的信息的兴趣偏好进行解耦。初始信息模型还可以通过图卷积层,对信息节点样本所表示的信息属于哪种预设信息类型进行解耦。因此,上述图卷积层也可以称为解耦图卷积层。
如图4所示,上述将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入所述初始信息推荐模型,确定每个用户节点样本对应的用户向量和每个信息节点样本对应的信息向量的步骤,可以包括:
S401,将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入初始信息推荐模型的图卷积层,基于所述用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值;
为了准确地确定每个用户节点样本对应的用户向量,电子设备可以将拓扑信息样本、用户信息样本及内容信息样本输入初始信息推荐模型的图卷积层,基于用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值。其中,兴趣偏好初始值可以表示对应的用户的身份、性质等。
其中,每种预设信息类型对应的参数可以随机初始化,在训练过程中可以不断调整每种预设信息类型对应的参数以使其更加合适。
S402,基于所述内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值;
为了准确确定每个信息节点样本对应的信息向量,可以基于内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值。其中,语义信息初始值可以表示对应的信息的内容特点。
S403,基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于所述兴趣偏好目标值确定每个用户节点样本对应的用户向量;
由于上述用户信息样本只能表示用户的性质、特点,并不能全面地表示用户的喜好特点,因此,在确定了上述兴趣偏好初始值及上述语义信息初始值之后,电子设备可以基于拓扑信息样本、上述兴趣偏好初始值及语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于兴趣偏好目标值确定每个用户节点样本对应的用户向量。
针对每种预设信息类型,上述兴趣偏好目标值可以表示用户对于该预设信息类型的信息的兴趣偏好。当用户浏览某种预设信息类型的信息的次数较多时,该用户关于该预设信息类型的信息的兴趣偏好目标值也就较高,说明该用户对于该预设信息类型的信息的兴趣偏好较高;当用户浏览某种预设信息类型的信息的次数较少时,该用户关于该预设信息类型的兴趣偏好目标值也就较低,说明该用户对于该预设信息类型的信息的兴趣偏好较低。
拓扑信息样本可以表示用户节点样本与信息节点样本之间的历史浏览关系,针对每个用户,为了准确确定该用户对于各预设信息类型的信息的兴趣偏好,可以基于拓扑信息样本,确定该用户浏览过的信息对应的信息节点。进而根据该用户的兴趣偏好初始值及该用户浏览过的信息对应的语义信息初始值,确定该用户分别关于每种预设信息类型的兴趣偏好目标值,并基于兴趣偏好目标值确定该用户对应的用户向量,这样用户向量也就可以准确表示该用户对于预设信息类型的信息的兴趣偏好。其中,确定用户对于各预设信息类型的信息的兴趣偏好目标值的过程,也就是对用户对于各预设信息类型的信息的兴趣偏好进行解耦的过程。
S404,基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于所述语义信息目标值确定每个信息节点样本对应的信息向量。
初始信息推荐模型可以基于拓扑信息样本、兴趣偏好初始值及语义信息初始值,确定每个信息节点所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于语义信息目标值确定每个信息节点样本对应的信息向量。
针对每种预设信息类型,上述语义信息目标值可以表示信息属于该预设信息类型时被哪些用户浏览过。当信息属于某种预设信息类型时被较多的用户浏览过时,该信息属于该预设信息类型时对应的语义信息目标值也就较高,说明该信息为该预设信息类型的信息的可能性较高;当信息属于某种预设信息类型时被较少的用户浏览过时,该信息属于该预设信息类型时对应的语义信息目标值也就较低,说明该信息为该预设信息类型的信息的可能性较低。其中,确定上述信息属于各预设信息类型时对应的语义信息目标值的过程,也就是对信息属于哪种预设信息类型进行解耦的过程。
针对每个信息节点,电子设备可以基于上述拓扑信息样本,确定浏览过该信息的用户对应的用户节点,进而根据拓扑信息样本对于该信息的兴趣偏好及该信息的语义信息初始值,确定该信息对应的语义信息目标值,进而基于语义信息目标值确定该信息对应的信息向量,这样信息向量也就可以准确表示该信息属于各预设信息类型时对应的语义信息。
可见,本发明实施例所提供的方案中,电子设备可以通过信息推荐模型准确确定每个用户节点对应的用户向量及每个信息节点对应的信息向量,保证后续向用户推荐信息的准确性。
作为本发明实施例的一种实施方式,上述初始信息推荐模型还可以包括偏好正则层,该偏好正则层即为初始信息推荐模型中的一个正则项。在这种情况下,上述信息推荐模型的训练方法还可以包括:
基于偏好正则层对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值的置信度,作为用户解耦置信度;基于偏好正则层对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值的置信度,作为信息解耦置信度。
为了保证每两个兴趣偏好目标值之间互不相关,也就是保证每个兴趣偏好目标值可以更加准确地表示其对应的用户,对于该兴趣偏好目标值对应的预设信息类型的信息的兴趣偏好,在得到兴趣偏好目标值之后,初始信息推荐模型可以根据互信息最大化原则,基于偏好正则层对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值的置信度,也就是确定上述每个兴趣偏好目标值的置信度,作为用户解耦置信度。
为了保证每两个语义信息目标值之间互不相关,也就是保证每个语义信息目标值可以更加准确地表示其对应的信息属于该语义信息目标值对应的预设信息类型时,被哪些用户浏览过,在得到语义信息目标值之后,初始信息推荐模型可以根据互信息最大化原则,基于偏好正则层对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值的置信度,也就是确定上述每个语义信息目标值的置信度,作为信息解耦置信度。
其中,上述偏好正则层对应的参数可以随机初始化,在训练过程中可以不断对偏好正则层对应的参数进行调整以使其更加合适。
相应的,上述基于所述模型预测概率与所述标记概率之间的差异,调整所述初始信息推荐模型的参数的步骤,可以包括:
基于模型预测概率与标记概率之间的差异,确定第一损失函数;基于用户解耦置信度及信息解耦置信度,确定第二损失函数;基于第一损失函数及第二损失函数,确定目标损失函数;基于目标损失函数,调整初始信息推荐模型的参数。
在得到上述模型预测概率与上述标记概率之后,初始信息推荐模型可以基于模型预测概率与标记概率之间的差异,确定第一损失函数。为了调整初始信息推荐模型中的偏好正则层对应的参数,在得到上述用户解耦置信度及上述信息解耦置信度之后,电子设备可以基于用户解耦置信度和信息解耦置信度,确定第二损失函数。
为了确定初始信息推荐模型输出的模型预测概率的整体准确程度,初始信息推荐模型可以根据上述第一损失函数及上述第二损失函数,确定表示上述整体准确程度的损失函数,也就是目标损失函数。
在确定目标损失函数后,由于初始信息推荐模型的参数与上述目标损失函数存在关联,为了使初始信息推荐模型的参数更加合适,电子设备可以基于上述目标损失函数,调整初始信息推荐模型的参数。
可见,本发明实施例所提供的方案中,电子设备可以根据目标损失函数调整初始信息推荐模型的参数,可以使初始信息推荐模型的参数更加合适,最终获得符合要求的信息推荐模型。
作为本发明实施例的一种实施方式,上述基于所述用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值的步骤,可以包括:
根据如下所示公式(1),计算用户节点样本u所表示的用户关于第k种预设信息类型的兴趣偏好初始值su,k:
其中,hu为用户节点样本u所对应的用户信息样本,Wk为第k种预设信息类型对应的投影参数,bk为第k种预设信息类型对应的偏置参数,每种预设信息类型对应的投影参数及每种预设信息类型对应的偏置参数均可以随机初始化,在训练过程中可以不断调整以使其更加合适。
可以将用户节点样本u所对应的用户信息样本hu及用户节点样本u所表示的用户浏览过的信息所对应的信息节点样本d的内容信息样本hd输入图卷积层,得到用户节点样本u对应的用户向量yu及信息节点样本d对应的信息向量yd:
yu=Conv(hu,{hd:(u,d)∈ε})
yd=Conv(hd,{hu:(u,d)∈ε})
其中,(u,d)∈ε表示在上述二部图样本中,用户节点样本u与信息节点样本d之间存在边,也就是说,用户节点样本u与信息节点样本d之间存在历史浏览关系,Conv(hu,{hd:(u,d)∈ε}表示图卷积层以用户信息样本hu及内容信息样本hd为输入,得到的输出值,也就是用户节点样本u对应的用户向量yu;Conv(hd,{hu:(u,d)∈ε}表示图卷积层以内容信息样本hd及用户信息样本hu为输入,得到的输出值,也就是信息节点样本d对应的信息向量yd。
可以假设存在K种预设信息类型,其中K的取值可以根据经验值进行设置,例如可以为3、4、5、6、7等。这样,用户向量yu及信息向量yd也就分别可以表示为如下所示的由K个元素组成的向量:
yu=[zu,1,zu,2,…,zu,K]
yd=[zd,1,zd,2,…,zd,K]
为了方便确定每个用户节点样本所表示的用户关于每种预设信息类型的兴趣偏好初始值,电子设备可以根据上述公式(1),计算用户节点样本u所表示的用户关于第k种预设信息类型的兴趣偏好初始值su,k。其中,lin为内容信息样本hd及用户信息样本hu的维度。
上述基于所述内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值的步骤,包括:
根据如下所示公式(2),计算信息节点样本d所表示的信息属于第k种预设信息类型时对应的语义信息初始值sd,k:
其中,hd为信息节点样本d所对应的内容信息样本;
为了方便确定每个信息节点样本所表示的信息分别属于每种预设信息类型时对应的语义信息初始值,可以根据上述公式(2),确定信息节点样本d所表示的信息属于第k种预设信息类型时对应的语义信息初始值sd,k。
上述基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于所述兴趣偏好目标值确定每个用户节点样本对应的用户向量的步骤,可以包括:
其中,k′=1,2…K,K为预设信息类型的种类数量,为用户节点样本u所表示的用户关于第k种预设信息类型的兴趣偏好初始值对应的第t次迭代输出值,对应的初始值t=0,1,…T-1,T为预设的迭代次数,可以根据经验值进行设置。
一个信息的内容可能包括多方面的内容,例如,信息X3的内容既涉及体育方面,又涉及音乐方面,那么浏览信息X3的用户可能是因为对于体育方面的偏好浏览了信息X3,也有可能因为对于音乐方面的偏好浏览了信息X3。
为了确定用户因为对于哪一种预设信息类型的偏好浏览了信息,在确定上述兴趣偏好初始值及语义信息初始值之后,可以根据邻域路由算法,确定用户节点样本u所表示的用户由于对第k种预设信息类型的信息的偏好浏览信息样本d的概率
可以根据邻域路由算法,也就是通过上述公式(3)及公式(4),迭代计算用户节点样本u所表示的用户由于对第k种预设信息类型的信息的偏好,浏览信息节点样本d所表示的信息的概率并不断迭代计算用户节点样本u所表示的用户关于第k种预设信息类型的兴趣偏好初始值对应的迭代输出值,并将最后一次迭代输出值作为兴趣偏好目标值,基于兴趣偏好目标值确定用户向量
上述基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于所述语义信息目标值确定每个信息节点样本对应的信息向量的步骤,可以包括:
根据如下所示公式(6),计算信息节点样本d所表示的信息属于第k种预设信息类型时对应的语义信息初始值对应的第t+1次迭代输出值并将最后一次迭代输出值作为语义信息目标值,基于语义信息目标值确定信息向量yd:
为了确定信息节点样本所表示的信息属于哪种预设信息类型,在确定上述兴趣偏好初始值及语义信息初始值之后,可以根据邻域路由算法,确定信息节点样本d所表示的信息属于第k种预设信息类型的信息时,被用户节点样本u所表示的用户浏览的概率
可以根据邻域路由算法,也就是通过上述公式(5)及公式(6),迭代计算上述概率并不断迭代计算信息节点样本d所表示的信息属于第k种预设信息类型时的语义信息初始值对应的迭代输出值,并将最后一次迭代输出值作为语义信息目标值,基于语义信息目标值确定信息向量
可见,本发明实施例所提供的方案中,电子设备可以根据上述公式(1)-(6)确定用户向量及信息向量,这样可以准确地确定用户向量及信息向量。
作为本发明实施例的一种实施方式,上述初始信息推荐模型可以包括全连接层。
上述基于每个被选取的用户节点样本对应的用户向量和每个被选取的信息节点样本对应的信息向量,确定每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为模型预测概率的步骤,可以包括:
其中, 为最后一个图卷积层输出的用户向量,KΔn=lout,Δn为上述兴趣偏好目标值及上述语义信息目标值的维度。W(L+1)为上述全连接层对应的预测投影参数,b(L+1)为全连接层对应的预测偏置参数, 为最后一个图卷积层输出的信息向量。
在获得上述用户向量及上述信息向量之后,电子设备便可以将用户向量及信息向量输入上述全连接层,基于全连接层对应的预测投影参数W(L+1)及全连接层对应的预测偏置参数b(L+1),计算预测概率其中,全连接层对应的预测投影参数W(L+1)及全连接层对应的预测偏置参数b(L+1)均可以随机初始化,在训练过程中可以不断调整W(L+1)及b(L +1)的参数值直至合适。
可见,本发明实施例所提供的方案中,电子设备可以通过上述公式(7)准确地确定每个被选取的用户节点所表示的用户浏览每个被选取的信息节点所表示的信息的概率。
作为本发明实施例的一种实施方式,上述基于所述偏好正则层对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值的置信度,作为用户解耦置信度的步骤,可以包括:
在确定每个用户节点样本对应的兴趣偏好目标值zu,k之后,电子设备可以将兴趣偏好目标值输入偏好正则层,根据上述公式(8),计算每个兴趣偏好目标值的置信度作为用户解耦置信度。其中,Wp为偏好正则层对应的投影参数,bp为偏好正则层对应的偏置参数,Wp及bp均可以随机初始化,在训练过程中可以不断调整Wp及bp的参数值直至合适。
上述基于所述偏好正则层对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值的置信度,作为信息解耦置信度的步骤,可以包括:
上述基于所述预测概率与所述标记概率之间的差异,确定第一损失函数的步骤,可以包括:
上述基于所述用户解耦置信度及所述信息解耦置信度,确定第二损失函数的步骤,可以包括:
上述基于所述第一损失函数及所述第二损失函数,确定目标损失函数的步骤,可以包括:
在确定第一损失函数及第二损失函数后,便可以根据上述公式(12),计算目标损失函数其中,λ为第一超参数,η为第二超参数,λ的参数值及η的参数值可以根据经验值进行设置;‖Θ‖为初始信息推荐模型中所有参数的模,表示预设训练集,表示预设训练集中的所有用户节点样本及所有信息节点样本。
可见,本发明实施例所提供的方案中,电子设备可以根据上述公式(8)-(12)计算目标损失函数,可以准确确定目标损失函数,进而可以根据目标损失函数对初始信息推荐模型的参数进行调整。
下面结合具体的实施例对本发明实施例所提供的信息推荐方法进行说明。
首先结合图5(a)及图5(b)对本发明实施例所提供的待推荐二部图进行介绍。在如图5(a)所示的二部图示意图中,用户节点u1与信息节点d1、信息节点d2及信息节点d3分别存在历史浏览关系,用户节点u2与信息节点d1、信息节点d2及信息节点d4分别存在历史浏览关系,用户节点u3与信息节点d2及信息节点d4分别存在历史浏览关系。如图5(b)所示,针对用户节点u2,用户节点u2与信息节点d1、信息节点d2及信息节点d4分别存在历史浏览关系,信息节点d1、信息节点d2及信息节点d4可以称为用户节点u2的一阶邻居节点;用户节点u3与信息节点d2及信息节点d4分别存在历史浏览关系,且用户节点u1与信息节点d1、信息节点d2分别存在历史浏览关系,因此用户节点u1及用户节点u3可以称为用户节点u2的二阶邻居节点。
下面结合图6对本发明实施例所提供的信息推荐模型进行介绍。如图6所示,信息推荐模型可以根据用户u对于预设信息类型的信息的兴趣偏好,确定用户u对应的用户向量。
如图6所示,用户u由于对预设信息类型Ys1的偏好浏览了信息d1、信息d2及信息d4,那么信息推荐模型便可以根据信息d1的内容信息601、信息d2的内容信息602及信息d4对应的内容信息603,确定用户节点u对于预设信息类型Ys1的信息的兴趣偏好目标值604。
信息推荐模型还可以根据信息d属于各预设信息类型时对应的语义信息,确定信息d对应的信息向量。如图6所示,信息d属于预设信息类型Ys1时被用户u1、用户u4及用户u5浏览过,那么信息推荐模型便可以用户u1对应的用户信息605、用户u4对应的用户信息606及用户u5对应的用户信息607,确定信息d属于预设信息类型Ys1时的语义信息目标值608,进而确定信息d对应的信息向量。这样,信息推荐模型便可以基于用户u对应的用户向量及信息d对应的信息向量,预测用户u浏览信息d的概率。
信息推荐模型还包括偏好正则层。在对信息推荐模型进行训练过程中,可以通过偏好正则层确定用户解耦置信度及信息解耦置信度,基于用户解耦置信度及信息解耦置信度对信息推荐模型的参数进行调整。
在图6中,信息d1仅被用户u浏览过,信息d2及信息d4被用户u以外的用户浏览过,用户u1仅浏览过信息d,用户u4及用户u5浏览过信息d以外的其他信息。
下面结合图7及表1对本发明实施例中的预设信息类型进行介绍。如图7所示,用户u浏览过信息d1、信息d2、信息d3及信息d4,其中,用户u因对预设信息类型Ys2的信息的喜好浏览了信息d1及信息d2,用户u因对预设信息类型Ys3的信息的喜好浏览了信息d4。如表1所示,信息d1及信息d2的内容包含“石油工业”、“氢”、“风能”等涉及能源方面的关键词,因此可以确定预设信息类型Ys2是基于能源方面设定的预设信息类型,信息d4的内容包含“健康”,“维生素”和“蔬菜”等涉及饮食健康方面的关键词,因此可以确定预设信息类型Ys3是基于饮食健康方面设定的预设信息类型。
信息 | 关键词 |
d1 | 石油工业、氢、能源、城市 |
d2 | 风能、能源 |
d3 | 花园、家、房子 |
d4 | 维生素、橄榄油、蔬菜、健康 |
表1
通过某在线新闻数据集Adressa评估本发明实施例所提供的信息推荐模型。数据集Adressa包括名为Adressa-1week的数据集和名为Adressa-10week的数据集,其中Adressa-1week数据集收集了1周的新闻点击日志,Adressa-10week数据集收集了10周的新闻点击日志。Adressa-1week数据集及Adressa-10week数据集中包括用户ID,新闻ID,时间戳,新闻标题和新闻内容概要,并通过删除新闻内容中的停用词的方式对数据进行预处理。数据集中的用户数量、新闻数量、浏览数量、词表中单词数量、实体类型数量、平均词数及平均实体数如表2所示。
数据集 | Adressa-1week | Adressa-10week |
用户数量 | 537629 | 590674 |
新闻数量 | 14732 | 49994 |
浏览数量 | 2107312 | 15127204 |
词表中单词数量 | 116603 | 279214 |
实体类型数量 | 11 | 11 |
平均词数 | 4.03 | 4.10 |
平均实体数 | 22.11 | 21.29 |
表2
对于Adressa-1week数据集,使用前5天的历史数据,用于构建二部图,第6天的历史数据用于建立训练样本{(u,d)},从最后一天随机抽取20%的用户节点及信息节点进行验证,其余的作为测试集。在测试过程中,将使用前6天的所有历史数据来重新构建二部图。对于Adressa-10week的数据集,使用前50天的历史数据构图,随后10天的历史数据用于建立训练样本,最后10天随机抽取20%的用户节点及信息节点进行验证,其余的80%用于测试。
为了评估本发明实施例所提供的信息推荐模型,本发明实施例将目前的其他9种用于信息推荐的算法模型与本发明实施例所提供的信息推荐模型进行对比。对于该9种算法模型,采用Adressa-1week数据集前5天的数据及Adressa-10week前50天的数据集构建历史数据,采用Adressa-1week数据集第6天的历史数据及Adressa-10week数据集第51-第60天的数据用于建立训练样本。对于所有模型,采用相同的测试集进行测试。
在实验中,将单词向量、实体向量的维度n1及实体类型向量的维度n2分别设置为50,将用户信息及内容信息的维度lin设置为128。单词向量、实体向量、实体类型向量及用户向量采用高斯分布N(0,0.1)随机初始化。由于数据集的规模较大,根据用户和新闻的平均度,与每个用户节点存在历史浏览关系的新闻节点数量设置为30,与每个新闻节点存在历史浏览关系的用户节点数量设置为30。预设信息类型的数量K设置为7,Δn设置为16。图卷积层的数量设置为2。Dropout设置为0.5。第一超参数λ设置为0.004。采用步长0.001的不同λ值测试模型,发现在[0.001,0.02]内均不敏感。采用Adam算法优化模型,学习率设为0.0005。批量训练大小为128,模型的超参数根据验证集调优。
上述9种算法模型分别为LibFM、CNN、DSSM、Wide&Deep、DeepFM、DMF、DKN、DAN及GNewsRec。其中,LibFM(Factorization Machine Library)为基于特征的矩阵分解方法,将新闻标题和内容概要的TF-IDF(term frequency–inverse document frequency)向量拼接起来作为输入值;CNN(Convolutional neural network,卷积神经网络)采用两个并行的CNN分别将新闻标题和内容概要的单词序列拼接起来得到新闻的内容信息,并基于用户的历史数据确定用户信息。DSSM(Deep Structured Semantic Models,深度结构化语义模型)将用户浏览的新闻建模为query,将待推荐的新闻建模为documents。Wide&Deep(jointlytrained wide linear models and deep neural networks)为深度推荐模型,结合了宽线性模型和深前馈神经网络,使用新闻标题和内容概要作为新闻的内容信息。DeepFM(Deepfactorization machine)结合了共享输入的矩阵分解和深度神经网络,使用新闻标题和内容概要作为新闻的内容信息。DMF(Deep matrix factorization)为一种基于协同过滤的深度矩阵分解模型,不考虑新闻内容。DKN(Deep knowledge-aware network)为基于内容的新闻推荐深度模型,融合了语义级别和知识级别的表示,分别将新闻标题和内容概要建模为语义级别和知识级别的表示。DAN(Deep attention neural network)为一种用于新闻推荐的注意力神经网络,可以捕获新闻的动态多样性和用户的兴趣,并考虑用户的浏览顺序信息。GnewsRec(Graph Neural News Recommendation)为一种基于图神经网络的方法,结合了用户的长期兴趣特点和短期兴趣特点建模来进行新闻推荐。
以上9种算法模型均根据相应的论文初始化,就神经网络模型而言,使用相同的词嵌入维度进行比较,然后进行细调,以达到最佳性能。将每个实验独立重复10次,并报告平均效果,得到如表3所示的实验数据。
表3
根据表3可知,GNUD(Graph Neural News Recommendation model withUnsupervised Preference Disentanglement,无监督偏好解耦的图神经新闻推荐模型)在采用上述两种数据集进行训练和测试时的准确率AUC和F1评分均高于上述9种算法模型。其中,GNUD即为本发明实施例所提供的信息推荐模型。与DKN和DAN相比,采用GNUD进行信息推荐的准确率至少提高了6.45%,F1评分至少提高了7.79%。其原因是GNUD模型充分利用了待推荐二部图的拓扑信息。与GNewsRec相比,GNUD模型在在采用上述两种数据集进行训练和测试时的准确率AUC分别提高了2.85%和4.59%,F1评分分别提高了1.05%和0.08%。这是因为GNUD模型考虑了导致用户点击新闻的预设信息类型。
从表3中还可以看到,基于协同过滤的模型DMF的准确率及F1评分均为最低,这是因为基于CF(Collaborative Filtering,协同过滤)的方法受到冷启动问题的影响,因为大多数新闻都是新出现的。除了DMF之外,所有深度神经网络算法模型都优于LibFM,例如CNN、DSSM、Wide&Deep、DeepFM等。这表明深度模型可以捕获更多隐含但有用的用户和新闻表示特征。DKN和DAN通过结合外部知识并运用动态注意力机制来进一步提升性能。
为了进一步证明GNUD模型的有效性,我们在模型的变体之间进行比较。由表3可知,GNUD w/o Disen(GNUD without disentanglement,不具有偏好解耦的GNUD)与GNUD模型相比,在采用上述两种数据集进行训练和测试时的准确率分别下降5.68%、4.97%,F1评分分别下降4.81%、0.51%。这表明偏好解耦的有效性和必要性。GNUD w/o PR(GNUDwithout preference regularizer,不具有偏好正则器的GNUD)与GNUD模型相比,在采用上述两种数据集进行训练和测试时的准确率分别下降0.89%、2.6%,F1评分分别下降2.23%、0.17%。其中,上述偏好解耦即为本发明实施例中通过信息推荐模型的图卷积层确定用户向量及信息向量的过程,上述偏好正则器即为本发明实施例中信息推荐模型的偏好正则层。
下面结合图8对本发明实施例中的预设信息类型的数量的作用进行说明。通过图8可知,随着预设信息类型的数量K的增加,F1评分首先增长,在K=7时达到最佳,然后开始缓慢下降。因此,在实验中可以设置K=7。
下面结合图9对本发明实施例中的预设迭代次数的作用进行说明。通过图9可知,随着预设迭代次数的增加,F1评分逐渐增加,在7次迭代后最终实现收敛。因此,预设代次数可以设置为7。
下面结合表4对本发明实施例中信息推荐模型的图卷积层的层数对于预测概率的准确度进行说明。在表4中,GNUD-1表示信息推荐模型的图卷积层的层数为1层,GNUD-2表示信息推荐模型的图卷积层的层数为2层,GNUD-3表示信息推荐模型的图卷积层的层数为3层。由表4可知,当信息推荐模型的图卷积层的层数为2层时,准确率AUC及F1评分较高,原因是图卷积层的层数为1层时仅考虑二部图中1阶邻居节点,并不能全面表示用户的喜好特点,而图卷积层的层数为3层时可能会导致过拟合,这表明利用过深的结构可能会给用户向量及信息向量带来噪音。因此,GNUD-2可以视为最合适的选择。
表4
相应于上述信息推荐方法,本发明实施例还提供了一种信息推荐装置。下面对本发明实施例所提供的一种信息推荐装置进行介绍。
如图10所示,一种信息推荐装置,所述装置包括:
信息获取模块1001,用于获取待推荐二部图的拓扑信息、所述待推荐二部图中每个用户节点对应的用户信息及所述待推荐二部图中每个信息节点对应的内容信息;
其中,所述待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,所述拓扑信息用于表示所述待推荐二部图中的用户节点与信息节点之间的历史浏览关系。
向量确定模块1002,用于将所述拓扑信息、所述用户信息及所述内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量;
其中,所述用户向量表示对应的用户对于各预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,所述信息推荐模型为模型训练模块基于预设训练集训练得到的,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本。
概率预测模块1003,用于基于所述用户向量表示的兴趣偏好和所述信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率;
其中,针对每个用户节点,所述候选信息节点为与该用户节点不存在历史浏览关系的信息节点。
信息推荐模块1004,用于基于所述预测概率,向所述二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
可见,本发明实施例所提供的方案中,电子设备可以获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息,其中,待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,拓扑信息用于表示待推荐二部图中的用户节点与信息节点之间的历史浏览关系;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,用户向量表示对应的用户对于预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息的内容特点及对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,信息推荐模型为基于预设训练集训练得到的,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点对应的用户信息样本及二部图样本中每个信息节点对应的内容信息样本;基于用户向量表示的兴趣偏好和信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,候选信息节点为与该用户节点不存在历史浏览关系的信息节点;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
电子设备通过预先训练完成的信息推荐模型可以确定待推荐二部图中每个用户节点对应的用户向量及每个信息节点对应的信息向量,由于用户向量和信息向量可以更加全面的表征用户对于信息的喜好特点,所以基于用户向量和信息向量进行可以更加准确地预测用户浏览候选信息节点所表示的信息的概率,从而更加准确地向用户推荐用户感兴趣的信息。
作为本发明实施例的一种实施方式,上述模型训练模块(图10中未示出)可以包括:
信息获取子模块(图10中未示出),用于获取初始信息推荐模型及预设训练集;
其中,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本。
标记子模块(图10中未示出),用于从所述二部图样本中选取多个用户节点样本及多个信息节点样本,并标记每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为标记概率;
向量确定子模块(图10中未示出),用于将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入所述初始信息推荐模型,确定每个用户节点样本对应的用户向量和每个信息节点样本对应的信息向量;
概率预测子模块(图10中未示出),用于基于每个被选取的用户节点样本对应的用户向量和每个被选取的信息节点样本对应的信息向量,确定每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为模型预测概率;
参数调整子模块(图10中未示出),用于基于所述模型预测概率与所述标记概率之间的差异,调整所述初始信息推荐模型的参数,直至所述初始信息推荐模型收敛,停止训练,得到信息推荐模型。
作为本发明实施例的一种实施方式,上述初始信息推荐模型可以包括图卷积层;
上述向量确定子模块可以包括:
兴趣偏好初始值确定单元(图10中未示出),用于将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入初始信息推荐模型的图卷积层,基于所述用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值;
语义信息初始值确定单元(图10中未示出),用于基于所述内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值;
用户向量确定单元(图10中未示出),用于基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于所述兴趣偏好目标值确定每个用户节点样本对应的用户向量;
信息向量确定单元(图10中未示出),用于基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于所述语义信息目标值确定每个信息节点样本对应的信息向量。
作为本发明实施例的一种实施方式,上述初始信息推荐模型还可以包括偏好正则层;
上述模型训练模块还包括:
用户解耦置信度确定子模块(图10中未示出),用于基于所述偏好正则层对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值的置信度,作为用户解耦置信度;
信息解耦置信度确定子模块(图10中未示出),用于基于所述偏好正则层对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值的置信度,作为信息解耦置信度;
上述参数调整子模块可以包括:
第一损失函数确定单元(图10中未示出),用于基于所述模型预测概率与所述标记概率之间的差异,确定第一损失函数;
第二损失函数确定单元(图10中未示出),用于基于所述用户解耦置信度及所述信息解耦置信度,确定第二损失函数;
目标损失函数确定单元(图10中未示出),用于基于所述第一损失函数及所述第二损失函数,确定目标损失函数;
参数调整单元(图10中未示出),用于基于所述目标损失函数,调整所述初始信息推荐模型的参数。
作为本发明实施例的一种实施方式,上述兴趣偏好初始值确定单元可以包括:
其中,hu为用户节点样本u所表示的用户对应的用户信息样本,Wk为第k种预设信息类型对应的投影参数,bk为第k种预设信息类型对应的偏置参数;
上述语义信息初始值确定单元可以包括:
其中,hd为信息节点样本d所表示的信息对应的内容信息样本;
上述用户向量确定单元可以包括:
用户向量确定子单元(图10中未示出),用于根据公式计算用户节点样本u所表示的用户关于第k种预设信息类型的兴趣偏好初始值对应的第t+1次迭代输出值并将最后一次迭代输出值作为兴趣偏好目标值,基于兴趣偏好目标值确定用户向量yu;
上述信息向量确定单元可以包括:
信息向量确定子单元(图10中未示出),用于根据公式计算信息节点样本d所表示的信息属于第k种预设信息类型时对应的语义信息初始值对应的第t+1次迭代输出值并将最后一次迭代输出值作为语义信息目标值,基于语义信息目标值确定信息向量yd;
作为本发明实施例的一种实施方式,上述初始信息推荐模型可以包括全连接层;
上述概率预测子模块可以包括:
作为本发明实施例的一种实施方式,上述用户解耦置信度确定子模块可以包括:
其中,Wp为偏好正则层对应的投影参数,bp为偏好正则层对应的偏置参数。
上述信息解耦置信度确定子模块可以包括:
上述第一损失函数确定单元可以包括:
上述第二损失函数确定单元可以包括:
上述目标损失函数确定单元可以包括:
本发明实施例还提供了一种电子设备,如图11所示,包括处理器1101、通信接口1102、存储器1103和通信总线1104,其中,处理器1101,通信接口1102,存储器1103通过通信总线1104完成相互间的通信,
存储器1103,用于存放计算机程序;
处理器1101,用于执行存储器1103上所存放的程序时,实现上述任一实施例所述的信息推荐方法的步骤。
可见,本发明实施例所提供的方案中,电子设备可以获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息,其中,待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,拓扑信息用于表示待推荐二部图中的用户节点与信息节点之间的历史浏览关系;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,用户向量表示对应的用户对于预设信息类型的信息的兴趣偏好,信息向量表示对应的信息属于各预设信息类型时对应的语义信息,预设信息类型为预先基于二部图中信息节点所表示的信息的内容设置的,信息推荐模型为基于预设训练集训练得到的,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点对应的用户信息样本及二部图样本中每个信息节点对应的内容信息样本;基于用户向量表示的兴趣偏好和信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,候选信息节点为与该用户节点不存在历史浏览关系的信息节点;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
电子设备通过预先训练完成的信息推荐模型可以确定待推荐二部图中每个用户节点对应的用户向量及每个信息节点对应的信息向量,由于用户向量和信息向量可以更加全面的表征用户对于信息的喜好特点,所以基于用户向量和信息向量进行可以更加准确地预测用户浏览候选信息节点所表示的信息的概率,从而更加准确地向用户推荐用户感兴趣的信息。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一实施例所述的信息推荐方法的步骤。
可见,本发明实施例所提供的方案中,计算机可读存储介质内存储的计算机程序被执行时,可以获取待推荐二部图的拓扑信息、待推荐二部图中每个用户节点对应的用户信息及待推荐二部图中每个信息节点对应的内容信息,其中,待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,拓扑信息用于表示待推荐二部图中的用户节点与信息节点之间的历史浏览关系;将拓扑信息、用户信息及内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,用户向量表示对应的用户对于预设信息类型的信息的兴趣偏好,信息向量表示对应的信息属于各预设信息类型时对应的语义信息,预设信息类型为预先基于二部图中信息节点所表示的信息的内容设置的,信息推荐模型为基于预设训练集训练得到的,预设训练集包括二部图样本的拓扑信息样本、二部图样本中每个用户节点对应的用户信息样本及二部图样本中每个信息节点对应的内容信息样本;基于用户向量表示的兴趣偏好和信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,候选信息节点为与该用户节点不存在历史浏览关系的信息节点;基于预测概率,向二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
电子设备通过预先训练完成的信息推荐模型可以确定待推荐二部图中每个用户节点对应的用户向量及每个信息节点对应的信息向量,由于用户向量和信息向量可以更加全面的表征用户对于信息的喜好特点,所以基于用户向量和信息向量进行可以更加准确地预测用户浏览候选信息节点所表示的信息的概率,从而更加准确地向用户推荐用户感兴趣的信息。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种信息推荐方法,其特征在于,所述方法包括:
获取待推荐二部图的拓扑信息、所述待推荐二部图中每个用户节点对应的用户信息及所述待推荐二部图中每个信息节点对应的内容信息,其中,所述待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,所述拓扑信息用于表示所述待推荐二部图中的用户节点与信息节点之间的历史浏览关系;
将所述拓扑信息、所述用户信息及所述内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,所述用户向量表示对应的用户对于各预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,所述信息推荐模型为基于预设训练集训练得到的,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本;
基于所述用户向量表示的兴趣偏好和所述信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,所述候选信息节点为与该用户节点不存在历史浏览关系的信息节点;
基于所述预测概率,向所述二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
2.根据权利要求1所述的方法,其特征在于,所述信息推荐模型的训练方法,包括:
获取初始信息推荐模型及预设训练集,其中,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本;
从所述二部图样本中选取多个用户节点样本及多个信息节点样本,并标记每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为标记概率;
将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入所述初始信息推荐模型,确定每个用户节点样本对应的用户向量和每个信息节点样本对应的信息向量;
基于每个被选取的用户节点样本对应的用户向量和每个被选取的信息节点样本对应的信息向量,确定每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为模型预测概率;
基于所述模型预测概率与所述标记概率之间的差异,调整所述初始信息推荐模型的参数,直至所述初始信息推荐模型收敛,停止训练,得到信息推荐模型。
3.根据权利要求2所述的方法,其特征在于,所述初始信息推荐模型包括图卷积层;
所述将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入所述初始信息推荐模型,确定每个用户节点样本对应的用户向量和每个信息节点样本对应的信息向量的步骤,包括:
将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入初始信息推荐模型的图卷积层,基于所述用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值;
基于所述内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值;
基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于所述兴趣偏好目标值确定每个用户节点样本对应的用户向量;
基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于所述语义信息目标值确定每个信息节点样本对应的信息向量。
4.根据权利要求3所述的方法,其特征在于,所述初始信息推荐模型还包括偏好正则层;
所述训练方法还包括:
基于所述偏好正则层对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值的置信度,作为用户解耦置信度;
基于所述偏好正则层对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值的置信度,作为信息解耦置信度;
所述基于所述模型预测概率与所述标记概率之间的差异,调整所述初始信息推荐模型的参数的步骤,包括:
基于所述模型预测概率与所述标记概率之间的差异,确定第一损失函数;
基于所述用户解耦置信度及所述信息解耦置信度,确定第二损失函数;
基于所述第一损失函数及所述第二损失函数,确定目标损失函数;
基于所述目标损失函数,调整所述初始信息推荐模型的参数。
5.根据权利要求3或4任一项所述的方法,其特征在于,所述基于所述用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值的步骤,包括:
其中,hu为用户节点样本u所表示的用户对应的用户信息样本,Wk为第k种预设信息类型对应的投影参数,bk为第k种预设信息类型对应的偏置参数;
所述基于所述内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值的步骤,包括:
其中,hd为信息节点样本d所表示的信息对应的内容信息样本;
所述基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于所述兴趣偏好目标值确定每个用户节点样本对应的用户向量的步骤,包括:
所述基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于所述语义信息目标值确定每个信息节点样本对应的信息向量的步骤,包括:
7.根据权利要求6所述的方法,其特征在于,所述基于所述偏好正则层对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值的置信度,作为用户解耦置信度的步骤,包括:
其中,Wp为偏好正则层对应的投影参数,bp为偏好正则层对应的偏置参数;
所述基于所述偏好正则层对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值的置信度,作为信息解耦置信度的步骤,包括:
所述基于所述模型预测概率与所述标记概率之间的差异,确定第一损失函数的步骤,包括:
所述基于所述用户解耦置信度及所述信息解耦置信度,确定第二损失函数的步骤,包括:
所述基于所述第一损失函数及所述第二损失函数,确定目标损失函数的步骤,包括:
8.一种信息推荐装置,其特征在于,所述装置包括:
信息获取模块,用于获取待推荐二部图的拓扑信息、所述待推荐二部图中每个用户节点对应的用户信息及所述待推荐二部图中每个信息节点对应的内容信息,其中,所述待推荐二部图包括多个用户节点及多个信息节点,每个用户节点表示一个用户,每个信息节点表示一条信息,所述拓扑信息用于表示所述待推荐二部图中的用户节点与信息节点之间的历史浏览关系;
向量确定模块,用于将所述拓扑信息、所述用户信息及所述内容信息输入信息推荐模型,确定每个用户节点对应的用户向量和每个信息节点对应的信息向量,其中,所述用户向量表示对应的用户对于各预设信息类型的信息的兴趣偏好,所述信息向量表示对应的信息属于各预设信息类型时对应的语义信息,所述预设信息类型为预先基于所述二部图中信息节点所表示的信息的内容设置的,所述信息推荐模型为模型训练模块基于预设训练集训练得到的,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本;
概率预测模块,用于基于所述用户向量表示的兴趣偏好和所述信息向量表示的语义信息,确定每个用户节点所表示的用户浏览候选信息节点所表示的信息的概率,作为预测概率,其中,针对每个用户节点,所述候选信息节点为与该用户节点不存在历史浏览关系的信息节点;
信息推荐模块,用于基于所述预测概率,向所述二部图中的每个用户节点所表示的用户推荐与该用户节点不存在历史浏览关系的信息节点所表示的信息。
9.根据权利要求8所述的装置,其特征在于,所述模型训练模块包括:
信息获取子模块,用于获取初始信息推荐模型及预设训练集,其中,所述预设训练集包括二部图样本的拓扑信息样本、所述二部图样本中每个用户节点样本对应的用户信息样本及所述二部图样本中每个信息节点样本对应的内容信息样本;
标记子模块,用于从所述二部图样本中选取多个用户节点样本及多个信息节点样本,并标记每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为标记概率;
向量确定子模块,用于将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入所述初始信息推荐模型,确定每个用户节点样本对应的用户向量和每个信息节点样本对应的信息向量;
概率预测子模块,用于基于每个被选取的用户节点样本对应的用户向量和每个被选取的信息节点样本对应的信息向量,确定每个被选取的用户节点样本所表示的用户浏览每个被选取的信息节点样本所表示的信息的概率,作为模型预测概率;
参数调整子模块,用于基于所述模型预测概率与所述标记概率之间的差异,调整所述初始信息推荐模型的参数,直至所述初始信息推荐模型收敛,停止训练,得到信息推荐模型。
10.根据权利要求9所述的装置,其特征在于,所述初始信息推荐模型包括图卷积层;
所述向量确定子模块包括:
兴趣偏好初始值确定单元,用于将所述拓扑信息样本、所述用户信息样本及所述内容信息样本输入初始信息推荐模型的图卷积层,基于所述用户信息样本及每种预设信息类型对应的参数,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好初始值;
语义信息初始值确定单元,用于基于所述内容信息样本及每种预设信息类型对应的参数,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息初始值;
用户向量确定单元,用于基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个用户节点样本所表示的用户分别关于每种预设信息类型的兴趣偏好目标值,并基于所述兴趣偏好目标值确定每个用户节点样本对应的用户向量;
信息向量确定单元,用于基于所述拓扑信息样本、所述兴趣偏好初始值及所述语义信息初始值,确定每个信息节点样本所表示的信息属于各预设信息类型时对应的语义信息目标值,并基于所述语义信息目标值确定每个信息节点样本对应的信息向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010636805.0A CN111814048B (zh) | 2020-07-03 | 2020-07-03 | 一种信息推荐方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010636805.0A CN111814048B (zh) | 2020-07-03 | 2020-07-03 | 一种信息推荐方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111814048A true CN111814048A (zh) | 2020-10-23 |
CN111814048B CN111814048B (zh) | 2023-01-17 |
Family
ID=72856139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010636805.0A Active CN111814048B (zh) | 2020-07-03 | 2020-07-03 | 一种信息推荐方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111814048B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112559878A (zh) * | 2020-12-24 | 2021-03-26 | 山西大学 | 一种基于图神经网络的序列推荐系统及推荐方法 |
CN112765477A (zh) * | 2021-03-05 | 2021-05-07 | 北京百度网讯科技有限公司 | 信息处理、信息推荐的方法和装置、电子设备和存储介质 |
WO2023087914A1 (zh) * | 2021-11-19 | 2023-05-25 | 腾讯科技(深圳)有限公司 | 推荐内容的选择方法、装置、设备、存储介质及程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011141666A (ja) * | 2010-01-06 | 2011-07-21 | Nippon Telegr & Teleph Corp <Ntt> | 興味情報推薦装置、興味情報推薦方法および興味情報推薦プログラム |
CN110442788A (zh) * | 2019-07-23 | 2019-11-12 | 北京奇艺世纪科技有限公司 | 一种信息推荐方法及装置 |
CN110647683A (zh) * | 2019-09-17 | 2020-01-03 | 北京邮电大学 | 一种信息推荐方法、装置 |
CN111310056A (zh) * | 2020-03-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 基于人工智能的信息推荐方法、装置、设备及存储介质 |
-
2020
- 2020-07-03 CN CN202010636805.0A patent/CN111814048B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011141666A (ja) * | 2010-01-06 | 2011-07-21 | Nippon Telegr & Teleph Corp <Ntt> | 興味情報推薦装置、興味情報推薦方法および興味情報推薦プログラム |
CN110442788A (zh) * | 2019-07-23 | 2019-11-12 | 北京奇艺世纪科技有限公司 | 一种信息推荐方法及装置 |
CN110647683A (zh) * | 2019-09-17 | 2020-01-03 | 北京邮电大学 | 一种信息推荐方法、装置 |
CN111310056A (zh) * | 2020-03-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 基于人工智能的信息推荐方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
曾义夫等: "基于图表示学习的会话感知推荐模型", 《计算机研究与发展》 * |
王兆凯等: "基于深度信念网络的个性化信息推荐", 《计算机工程》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112559878A (zh) * | 2020-12-24 | 2021-03-26 | 山西大学 | 一种基于图神经网络的序列推荐系统及推荐方法 |
CN112559878B (zh) * | 2020-12-24 | 2022-09-23 | 山西大学 | 一种基于图神经网络的序列推荐系统及推荐方法 |
CN112765477A (zh) * | 2021-03-05 | 2021-05-07 | 北京百度网讯科技有限公司 | 信息处理、信息推荐的方法和装置、电子设备和存储介质 |
CN112765477B (zh) * | 2021-03-05 | 2022-03-25 | 北京百度网讯科技有限公司 | 信息处理、信息推荐的方法和装置、电子设备和存储介质 |
WO2023087914A1 (zh) * | 2021-11-19 | 2023-05-25 | 腾讯科技(深圳)有限公司 | 推荐内容的选择方法、装置、设备、存储介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN111814048B (zh) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Raza et al. | Progress in context-aware recommender systems—An overview | |
La Gatta et al. | Music recommendation via hypergraph embedding | |
Zhang et al. | Collaborative knowledge base embedding for recommender systems | |
CN111814048B (zh) | 一种信息推荐方法及装置 | |
Liu et al. | Representing conditional preference by boosted regression trees for recommendation | |
Liu et al. | News Graph: An Enhanced Knowledge Graph for News Recommendation. | |
CN112464100B (zh) | 信息推荐模型训练方法、信息推荐方法、装置及设备 | |
CN111639696B (zh) | 一种用户分类方法及装置 | |
CN112417313A (zh) | 一种基于知识图卷积网络的模型混合推荐方法 | |
Su et al. | Research on personalized recommendation algorithm based on ontological user interest model | |
Wang et al. | SDDRS: stacked discriminative denoising auto-encoder based recommender system | |
CN112632984A (zh) | 基于描述文本词频的图模型移动应用分类方法 | |
Ianina et al. | Regularized multimodal hierarchical topic model for document-by-document exploratory search | |
Dai et al. | Low-rank and sparse matrix factorization for scientific paper recommendation in heterogeneous network | |
CN109344319B (zh) | 一种基于集成学习的线上内容热度预测方法 | |
CN117171440A (zh) | 基于新闻事件和新闻风格联合建模的新闻推荐方法和系统 | |
Marie et al. | Composite interests' exploration thanks to on-the-fly linked data spreading activation | |
Jeon et al. | Data context adaptation for accurate recommendation with additional information | |
Zhao et al. | A Hierarchical Attention Recommender System Based on Cross‐Domain Social Networks | |
Meng et al. | Variational Bayesian representation learning for grocery recommendation | |
Li et al. | Recommender Systems: Frontiers and Practices | |
Liu et al. | Collaborative social deep learning for celebrity recommendation | |
Singh et al. | Building an effective recommender system using machine learning based framework | |
Wang et al. | Stacked discriminative denoising auto-encoder based recommender system | |
Li et al. | Double attention-based deformable convolutional network for recommendation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |