CN113076475B - 信息推荐方法、模型训练方法及相关设备 - Google Patents
信息推荐方法、模型训练方法及相关设备 Download PDFInfo
- Publication number
- CN113076475B CN113076475B CN202110325529.0A CN202110325529A CN113076475B CN 113076475 B CN113076475 B CN 113076475B CN 202110325529 A CN202110325529 A CN 202110325529A CN 113076475 B CN113076475 B CN 113076475B
- Authority
- CN
- China
- Prior art keywords
- data
- vector
- input
- user
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种信息推荐方法、模型训练方法及相关设备。该方法包括:将对象数据以及用户数据分别进行向量转换,获得对象数据对应的第一输入向量集以及用户数据对应的第二输入向量集;将第一输入向量集及第二输入向量集输入到评分模型,获得用户数据的第一评分矩阵;基于第一评分矩阵确定对象数据中的待推荐对象;评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,分层因子分解机网络的输入为第二输入向量集,输出为用于表示用户数据的第一多维用户向量,双向长短记忆网络的输入为第一输入向量集,输出为用于表示对象信息的第一文本向量,S型函数的输入为第一多维用户向量和第一文本向量,输出为第一评分矩阵。
Description
技术领域
本申请属于人工智能领域,具体涉及一种信息推荐方法、模型训练方法及相关设备。
背景技术
互联网的出现和持续发展,带来信息和资讯的指数型增长。这给用户带来了大量的信息,但随着网上信息量的大幅增长,用户在面对大量信息时无法获得对自己真正有价值的部分,对信息的使用效率反而下降了。
为了提高信息推送的针对性,现有技术中,通常神经网络模型进行深度学习,以实现信息的推荐。由于传统的模型中通常采用单个通道进行信息特征的抽取,因此无法准确获取用户的喜好,导致模型的预测能力较差。
发明内容
本申请实施例的目的是提供一种信息推荐方法、模型训练方法及相关设备,能够解决模型的预测能力较差的问题。
第一方面,本申请实施例提供了一种信息推荐方法,包括:
将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;
将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;
基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
第二方面,本申请实施例提供了一种评分模型训练方法,包括:
将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与物品样本的相关度。
第三方面,本申请实施例提供了一种信息推荐装置,包括:
第一转换模块,用于将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;
输入模块,用于将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;
确定模块,用于基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
第四方面,本申请实施例提供了一种评分模型训练装置,包括:
第二转换模块,用于将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
训练模块,用于利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与对象样本的相关度。
第五方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤,或者,所述程序或指令被所述处理器执行时实现如第二方面所述的方法的步骤。
第六方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤,或者,所述程序或指令被所述处理器执行时实现如第二方面所述的方法的步骤。
第七方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面或第二方面所述的方法。
本申请实施例通过将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。这样,相对于现有技术,本申请实施例加入了多维用户向量作为辅助信息,分别将对象数据对应的第一输入向量集和用户数据对应的第二输入向量集通过不同的网络进行特征挖掘,对应得到的向量特征更加精准且得到的向量特征信息更加丰富,也即,通过挖掘更多的用户信息与待推荐信息(对象数据)的关联情况,从而实现在进行对象数据推荐时,提高了模型预测的准确性,进而提升了对象数据推荐的效果。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的信息推荐方法的流程图;
图2是本申请实施例提供的信息推荐方法中评分模型的结构图;
图3是本申请实施例提供的信息推荐方法中评分模型内分层因子分解机网络的结构图;
图4是本申请实施例提供的信息推荐方法中评分模型内双向长短记忆网络的结构图;
图5是本申请实施例提供的评分模型训练方法的流程图;
图6是本申请实施例提供的信息推荐装置的结构图;
图7是本申请实施例提供的评分模型训练装置的结构图;
图8是本申请实施例提供的一种电子设备的结构图;
图9是本申请实施例提供的另一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的信息推荐方法、模型训练方法及相关设备进行详细地说明。
参见图1,图1是本申请实施例提供的一种信息推荐方法的流程图,如图1所示,包括以下步骤:
步骤101,将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据可以包括多个对象的对象信息。
本申请实施例中,上述对象信息可以包括对象标识和对象描述,例如,可以通过以下表一表示。
表一:
上述第一输入向量集包括多个输入向量,其中每一输入向量可以表示一个对象信息。
上述用户数据可以理解为用户的行为数据,可以包括用户的个人信息、爱好、对一些对象的评分信息等,例如,可以通过以下表二表示。
表二:
用户标识 | 身高 | 体重 | 爱好 | 年龄 | 对象标识 | 评分 |
张三 | 180 | 80 | 打篮球、跑步 | 25 | 篮球 | 5 |
张三 | 180 | 80 | 打篮球、跑步 | 25 | 足球 | 2 |
李四 | 172 | 70 | 足球、看电影 | 22 | 足球 | 4 |
上述用户数据可以包括一个或者多个用户的行为数据,上述第二输入向量集包括多个输入向量,每一输入向量可以表示一个用户的行为数据中一个特征数据。例如,身高180为一个特征数据,体重80为一个特征数据。
应理解,上述对象可以理解为物品、食物和虚拟服务等,物品可以理解为商品,具体可以包括虚拟物品,例如游戏礼包、Q币等,也可以包括实际物品,例如可以为背包、衣服和手势等物品。上述虚拟服务可以包括旅游服务等。也就是说,本申请实施例提供的信息推荐方法可以应用于物品推荐、食物推荐和虚拟服务推荐等,当然还可以应用于其他信息推荐的场景中,在此不再一一列举。
步骤102,将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵。
其中,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;本申请实施例中,上述评分模型也可以称之为卷积矩阵因式分解模型。如图2所示,所述评分模型包括分层因子分解机网络、双向长短记忆(Bi-directional Long Short TermMemory,BLSTM)网络和S型函数,所述分层因子分解机(Stratificate FactorizationMachine,SFM)网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
本申请实施例中,上述S型函数可以理解为sigmod激活函数。上述第一评分矩阵可以为一个用户对应的评分矩阵,用于表示该用户与各对象之间的相关度,也可以为多个用户对应的评分矩阵,用于表示每一用户与各对象之间的相关度。假设用户数量为N,对象数量为P,则第一评分矩阵S∈SP,或者第一评分矩阵S∈SNXP,SNXP表示了N个用户与P个对象之间的相关度矩阵。其中,一个用户对应所有对象的评分可以通过以下表三表示。
表三:
用户标识 | 对象标识 | 用户评分 |
3 | 101 | 2 |
3 | 102 | 0 |
3 | 103 | 0 |
3 | 104 | 4 |
3 | 105 | 4.5 |
3 | 106 | 0 |
3 | 107 | 5 |
步骤103,基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据。
应理解,上述第一评分矩阵可以进一步表示某一用户与部分对象数据之间的相关度,该部分对象数据可以为与该用户之间的相关度大于预设值的对象数据,或者,可以为与该用户之间的相关度从大到小排序的前面多个对象数据。
本申请实施例中,可以将第一评分矩阵包含的对象数据确定为待推荐的对象数据,向对应的用户进行推荐,也可以将第一评分矩阵包含的对象数据与用户的相关度大于预设值的对象数据确定为待推荐的对象数据,或者将与用户的相关度按照从大到小排序的前一个或者多个对象数据确定为待推荐的对象数据。
本申请实施例通过将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。这样,相对于现有技术,本申请实施例加入了多维用户向量作为辅助信息,分别将对象数据对应的第一输入向量集和用户数据对应的第二输入向量集通过不同的网络进行特征挖掘,对应得到的向量特征更加精准且得到的向量特征信息更加丰富,也即,通过挖掘更多的用户信息与待推荐信息(对象数据)的关联情况,从而实现在进行对象数据推荐时,提高了模型预测的准确性,进而提升了对象数据推荐的效果。
可选地,如图3所示,在一些实施例中,所述用户数据包括M组数据信息,每一组所述数据信息包括N个数据组,每一个所述数据组包括至少两个第一特征数据,所述第二输入向量集包括对每一所述第一特征数据进行向量转换得到的对应的输入向量;所述第二输入向量集包括N个数据组对应的向量组;所述分层因子分解机网络包括第一网络层和第二网络层,所述第一网络层的输入为所述第二输入向量集,所述第一网络层的输出包括基于所述第二输入向量集输出的线性向量集和N个组合向量集,每一所述组合向量集用于表示对应的数据组内的第一特征数据的输入向量进行组合得到的向量矩阵,所述第二网络层的输入为所述线性项向量集和所述N个组合项向量集,所述第二网络层的输出为基于所述线性项向量集和N个组合项向量集进行组合得到的所述第一多维用户向量。
本申请实施例中,可以将多个用户数据对应的第一特征数据划分为M组数据信息,其中,不同组数据信息之间可以包括部分相同的第一特征数据,也可以完全不同,在此不做进一步的限定。应理解,每一组数据信息中可以包括N个数据组,每一个数据组可以包括每一用户对应的第一特征数据。可选地,第一组数据中的N个数据组与第二组数据中的N个数据组一一对应,第一组数据和第二组数据为M组数据中的任意两组数据。也就是说,在本申请实施例中,任意两组数据均包括:数据组1、数据组2···数据组N-1、数据组N。任意两组数据中至少一个数据组包含不同的第一特征数据。
应理解,每一数据组内的第一特征数据的数量大于2个。其中,对数据组内所有第一特征数据向量转换后得到的输入向量进行组合的形式可以采用多种,例如,可以采用对数据组内的两个第一特征数据进行向量转换后的输入向量进行组合,也可以采用对数据组内的三个第一特征数据进行向量转换后的输入向量进行组合,还可以对数据组内的部分采用两个第一特征数据进行向量转换后的输入向量进行组合,对数据组内的部分采用三个第一特征数进行向量转换后的输入向量进行组合,在此不做进一步的限定。具体地,可以将具有一定相关性的第一特征数据的输入向量进行组合。例如,在一实施例中,某一个数据组的第一特征数据包括“男人”、“女人”、“化妆品”和“篮球”时,可以将“男人”和“篮球”两个第一特征数据进行向量转换后的输入向量进行组合,将“女人”与“化妆品”两个第一特征数据进行向量转换后的输入向量进行组合。
当然在一可选实施例中,还可以设置对数据组内的两两第一特征数据进行向量转换后的输入向量进行交叉组合。例如,第一特征数据包括数据1、数据2和数据3时,可以将数据1进行向量转换后的输入向量与数据2进行向量转换后的输入向量进行组合,将数据1进行向量转换后的输入向量与数据3进行向量转换后的输入向量进行组合,将数据2进行向量转换后的输入向量和数据3进行向量转换后的输入向量进行组合。
可选地,上述线性项向量集是指将每组数据信息对应的N个数据组的第一特征数据进行向量转换后的输入向量进行线性项处理,得到的向量集合。上述N个组合项向量集与N个数据组一一对应,例如,将每一个数据组内的两个第一特征数据进行向量转换后的输入向量进行2阶组合后,利用S型函数得到的每一个数据组对应的向量矩阵。换句话说,在第一网络层网络中包括线性项和Field的组内组合项,其中,线性项用于将输入向量进行1阶线性变换获得线性项向量集,该线性项向量集包括每一第一特征数据进行向量转换后的输入向量进行1阶线性变换得到的向量矩阵;Field的组内组合项用于将同一数据组内所述第一特征数据进行向量转换后的输入向量进行特征组合输出。上述第二网络层用于将每一组合项向量集与线性项向量集进行组合,从而可以得到3阶组合。
应理解,在第一网络层中将数据组内的第一特征数据进行向量转换后的输入向量进行组合时,通常是将具有一定相关度的第一特征数据进行组合,这样可以在进行组合时过滤掉无用的特征组合,减少网络的参数,进而提升模型运行的速度。在第二网络层中,由于利用线性项向量集与N个组合项向量集进行全特征的间接组合,从而提升模型的特征学习能力,提升模型的预测精确度。
可选地,在一些实施例中,所述线性项向量集yF满足:
其中,bF是线性项的偏置量,wn表示N个数据组中第n个数据组对应的第一特征数据的权重向量;xn表示N个数据组中第n个数据组对应的第一特征数据的输入向量。
本申请实施例中,上述线性项向量集yF还可以表示为:yF=bF+WFX,其中,X=[x1,x2,x3,…xN]T,xi表示Field中第i个子field的输入向量,是线性项的权重向量,每个用户具体包括n个输入向量xi。本申请实施例中,一个Field可以表示一组数据,Field内的子field可以表示一个数据组内所有的第一特征数据。
可选地,在一些实施例中,所述N个组合项向量集满足:
本申请实施例中,本申请实施例中,M组数据信息中所有第一特征数据的输入向量的排列顺序可以参照图3所示,第m组数据信息中所有第一特征数据的输入向量位于第m-1组数据信息中所有第一特征数据的输入向量之前,每一个组数据信息中各数据组对应的第一特征数据的输入向量按照数据组的排序进行排列,即第i个数据组对应的第一特征数据的输入向量位于第i+1个数据组对应的第一特征数据的输入向量之前。在图3中field 1用于表示第1个第一个数据组对应的第一特征数据的输入向量,field 2用于表示第2个数据组对应的第一特征数据的输入向量,field n用于表示第n个数据组对应的第一特征数据的输入向量。
可选地,在一种实施例中,在第一网络层中设置有添加函数(addition)、内积函数(inner product)和S型函数(sigmoid function)。可以通过addition实现线性项,获得线性项向量集yF;通过inner product实现2阶组合,并将一个数据组对应的所有组合的输出输入到sigmoid function中,通过sigmoid function获得该数据组对应的组合项向量集yn,n的取值为1到N。其中,上述yn进一步可以表示为:
应理解,本申请实施例中,上述inner product用于将同一组数据信息中任意两个数据组对应的第一特征数据的输入向量进行组合,以三个数据组为例进行说明,则对应的第一特征数据的输入向量可以表示field 1、field 2和field 3,此时,组合则有field 1与field 2组合,field 1与field 3组合,以及field 2与field 3组合。
可选地,上述yF和yn应满足y:
其中,表示yF和yn的特征组合权重(相当于整个第二网络层的权重),vi,k表示第k个组合项向量集对应的矩阵,i=1时,yi等于yF,i>1时,yi表示第i-1个用户对应的组合特征用户向量,i-1的取值为1到n,最后,将上述线性项向量集和N个组合项向量集合并到得到一组输出向量SN×K=[yF,y1,y2,y3,…yN],即上述第一多维用户向量。
可选地,在一些实施例中,所述第一多维用户向量包括N个用户的对应的K维向量,其中一个用户对应的K维向量u满足:
其中,SK表示K维的评分矩阵,vi,k表示第k个组合项向量集对应的矩阵,xi表示第i个数据组对应的第一特征数据的输入向量。
可选地,如图4所示,在一些实施例中,所述对象数据包括多个第二特征数据,每一所述第二特征数据用于表示一个所述对象信息,所述第一输入向量集包括每一所述第二特征数据的输入向量,所述双向长短记忆网络包括嵌入层、循环层和合并层,所述嵌入层的输入为所述第一输入向量集,所述嵌入层的输出为用于表示所述对象信息的第一矩阵;所述循环层的输入为所述第一矩阵,所述循环层的输出为第一目标向量和第二目标向量,所述第一目标向量和所述第二目标向量为所述对象信息按照不同方向挖掘得到的向量表示;所述合并层的输入为所述第一目标向量和所述第二目标向量,所述合并层的输出为所述对象数据的第一文本向量。
本申请实施例中,上述嵌入层输出的第一矩阵有文本词汇的向量表达构成,文本的向量化表达方式是灵活的,常用的方法有one-hot、tf-idf、n-gram、word2vec等,每种方法的侧重点有所不同,如词的频率、词的重要性、词的顺序、词向量的计算方式等,可依据应用场景的文本特点进行选择。在图4中,word1~wordn表示不同的词向量,每一个词向量表示一个对象信息。
在循环层中,包括两个长短记忆网络,其中一个用于一个方向读取输入的由嵌入层输入的对象信息对应的矩阵,一个用于从另一个方向读取由嵌入层输入的对象信息的矩阵,长短记忆网络在循环神经网络(Recurrent Neural Network,RNN)的基础上增加了控制单元和隐藏状态单元,可以控制之前信息和当前信息的记忆和遗忘程度,从而使该网络具备了长期记忆功能,解决了梯度消失的问题。与此同时,通过BLSTM网络可以从左右两个方向更充分的挖掘对象信息的文本信息。
上述合并层可以包括级联网络和全连接网络,可以首先将第一目标向量和第二目标向量进行级联,最终得到K维的对象向量,即上述第一文本向量。其中,一个对象的输出向量v=WI[IL,IR],v∈SK;M个对象对应的最终输出VT∈SM×K。
可选地,在一些实施例中,所述第一目标向量IL满足:
IL=σ(Wh[IL-1,XL]+bh)tanh(CL);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XL表示第一长短记忆网络当前的输入,IL-1表示所述第一长短记忆网络前一时刻的输出,CL表示所述第一长短记忆网络的状态隐藏单元,所述第一长短记忆网络为所述双向长短记忆网络中用于输出所述第一目标向量的长短记忆网络。
所述第二目标向量IR满足:
IR=σ(Wh[IR-1,XR]+bh)tanh(CR);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XR表示第二长短记忆网络当前的输入,IR-1表示所述第二长短记忆网络前一时刻的输出,CR表示所述第二长短记忆网络的状态隐藏单元,所述第二长短记忆网络为所述双向长短记忆网络中用于输出所述第二目标向量的长短记忆网络。
以第一长短记忆网络为例进行说明,如图4所示,第一长短记忆网络为循环层左侧的长短记忆网络,在该第一长短记忆网络中包括两个控制单元和一个状态隐藏单元,其中第一长短记忆网络的状态隐藏单元CL满足:
CL=CL-1σ(Wf[IL-1,XL]+bf)+σ(Wi[IL-1,XL]+bi)(tanh(Wc[IL-1,XL]+bc)+bi);
其中,CL-1σ(Wf[IL-1,XL]+bf)表示前一个时刻的输出与一个控制单元的权重Wf的乘积,即代表要选择遗忘的信息,Wf也可以称之为遗忘系数,σ(Wi[IL-1,XL]+bi)表示输入的权重Wi与输入的乘积,Wi也可以称之为输入门系数,XL表示当前的输入,IL-1表示前一时刻的输出。
需要说明的是,在本申请实施例中,SMF网络相当于一个通道,用于对用户信息进行挖掘,其中,每一用户可以通过一个K维的用户向量表示,BLSTM网络相当于一个通道用于对对象信息进行挖掘,其中每一对象信息可以通过一个K维的对象向量表示,最后将SMF通道和BLSTM通道的输出进行计算得到每一个用户和对象对的评分矩阵。
可选地,第i个用户对应的K维用户向量可以表示为:
可选地,第j个对象对应的K维对象向量可以表示为:
可选地,第i个用户与第j个对象对应的评分矩阵可以表示为:
其中,Ai,j是指示函数。如果用户i和对象j有关联,则Ai,j=1,否则为Ai,j=0。
进一步的,本申请实施例还提供一种评分模型训练方法,如图5所示,该评分模型训练方法包括以下步骤:
步骤501,将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
本申请实施例中,上述对象样本信息可以包括对象标识和对象描述。上述第三输入向量集包括多个输入向量,其中每一输入向量可以表示一个对象信息。
上述用户数据可以理解为用户的行为数据,可以包括用户的个人信息、爱好、对一些对象的评分信息等。上述用户数据可以包括一个或者多个用户的行为数据,上述第四输入向量集包括多个输入向量,每一输入向量可以表示一个用户的行为数据中一个的特征数据。
步骤502,利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与对象样本的相关度。
本申请实施例中,上述S型函数可以理解为sigmod激活函数。上述第一评分矩阵可以为一个用户对应的评分矩阵,用于表示该用户与各对象之间的相关度,也可以为多个用户对应的评分矩阵,用于表示每一用户与各对象之间的相关度。假设用户数量为N,对象数量为P,则第一评分矩阵S∈SP,或者第一评分矩阵S∈SNXP,SNXP表示了N个用户与P个对象之间的相关度矩阵。
本申请实施例中,通过将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;利用所述第三输入向量集和所述第四输入向量集对待训练评分模型进行迭代训练得到评分模型;其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与对象样本的相关度。这样,相对于现有技术,本申请实施例加入了多维用户向量作为辅助信息,将对象样本数据和用户样本数据通过不同的网络进行特征挖掘,从而提高了模型预测的准确性,进而提升了对象数据推荐的效果。
需要说明的是,在对待训练评分模型进行迭代训练时,可以采用期望最大化(Expectation Maximization,EM)形式的优化算法进行训练,也可以采用其他方式进行训练,例如,可以将分层因子分解机网络和双向长短记忆网络的损失函数映射到一个整体的损失函数,然后使用梯度下降法进行训练,还可以采用马尔科夫链蒙特卡洛方法进行训练,或者也可以采用牛顿迭代法、最小二乘法、隐马尔科夫等算法对待训练评分模型进行训练,以下将以EM形式的优化算法进行训练为例说明。
可选地,待训练评分模型的参数主要包括三个部分:分层因子分解机网络的参数、双向长短记忆网络的参数以及用户样本数据和对象样本数据的潜在表达向量,为了优化模型,可以采用结构风险最小方法。具体的,不同的参数耦合在一起,无法采取直接优化参数的方法,本申请实施例可以采用EM形式的优化算法,结合交替最小二乘(alternatingleast squares,ALS)和对比散度(Contrastive Divergence,CD)的思想形成的一种新的方法。
例如,当优化一个参数时,固定其他所有的参数。在一个运算周期内,首先认定分层因子分解机网络的参数和双向长短记忆网络的参数为常数,然后利用ALS算法对用户样本数据和对象样本数据对应的嵌入向量进行更新,损失函数转化成一个单耦合方程,达到在生成用户样本数据对应的嵌入向量(即上述第二多维用户向量)时,融入分层因子分解机网络从用户行为数据中抽取的知识,在生成对象样本数据对应的嵌入向量(即上述第二文本向量)时,融入双向长短记忆网络从对象样本数据中抽取的辅助知识。随后在此训练周期内,用于表示用户样本数据的用户矩阵和用于表示对象样本数据的物品矩阵被固定,两者作为标签指导分层因子分解机网络的参数和双向长短记忆网络的优化从而进一步提取有效辅助知识。最后,通过交替更新用户样本数据和对象样本数据对应的嵌入向量以及网络的参数,使得待训练评分模型趋于稳定,评分矩阵得以重构。
可选地,在一些实施例中,所述用户样本数据包括M组数据信息,每一组数据信息包括N个数据组,每一个数据组包括至少两个第三特征数据,所述第四输入向量集包括对每一所述第三特征数据进行向量转换得到的对应的输入向量;所述第四输入向量集包括N个数据组对应的向量组;所述分层因子分解机网络包括第一网络层和第二网络层,所述第一网络层的输入为所述第四输入向量集,所述第一网络层的输出包括基于所述第四输入向量集输出的线性向量集和N个组合向量集,每一所述组合向量集用于表示对应的数据组内的第三特征数据的输入向量进行组合得到的向量矩阵,所述第二网络层的输入为所述线性项向量集和所述N个组合项向量集,所述第二网络层的输出为基于所述线性项向量集和N个组合项向量集进行组合得到的所述第二多维用户向量。
本申请实施例中,上述第一网络层和第二网络层对用户样本数据的处理流程与上述实施例中对用户数据的处理流程一致,具体处理过程可以参照上述实施例中用户数据的处理流程,在此不再赘述。
需要说明的是,本申请实施例可以采用N个用户数据对双层网络的待训练的评分模型中分层因子分解机网络模型训练,通过第一网络层实现组内的特征数据组合,可以减少网络的参数,降低模型的时间复杂度,提升训练效率;通过第二网络层进行全特征的间接组合,从而提升模型的特征学习能力,提升模型的预测精确度。
可选地,所述线性项向量集yF满足:
其中,bF是线性项的偏置量,wn表示N个数据组中第n个数据组对应的第三特征数据的权重向量;xn表示N个数据组中第n个数据组对应的第三特征数据的输入向量。
可选地,所述第二多维用户向量包括N个用户的对应的K维向量,其中一个用户对应的K维向量u满足:
其中,SK表示K维的评分矩阵,vi,k表示第k个组合项向量集对应的矩阵,xi表示第i个数据组对应的第三特征数据的输入向量。
可选地,所述对象样本数据包括多个第四特征数据,每一所述第四特征数据用于表示一个所述对象样本信息,所述第一输入向量集包括每一所述第四特征数据的输入向量,所述双向长短记忆网络包括嵌入层、循环层和合并层,所述嵌入层的输入为所述第一输入向量集,所述嵌入层的输出为用于表示所述对象信息的第一矩阵;所述循环层的输入为所述第一矩阵,所述循环层的输出为第一目标向量和第二目标向量,所述第一目标向量和所述第二目标向量为所述对象信息按照不同方向挖掘得到的向量表示;所述合并层的输入为所述第一目标向量和所述第二目标向量,所述合并层的输出为所述对象样本数据的第一文本向量。
本申请实施例中,上述嵌入层、循环层和合并层对对象样本数据的处理流程与上述实施例中对对象数据的处理流程一致,具体处理过程可以参照上述实施例中对象数据的处理流程,在此不再赘述。
可选地,所述第一目标向量IL满足:
IL=σ(Wh[IL-1,XL]+bh)tanh(CL);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XL表示第一长短记忆网络当前的输入,IL-1表示所述第一长短记忆网络前一时刻的输出,CL表示所述第一长短记忆网络的状态隐藏单元,所述第一长短记忆网络为所述双向长短记忆网络中用于输出所述第一目标向量的长短记忆网络。
可选地,所述第二目标向量IR满足:
IR=σ(Wh[IR-1,XR]+bh)tanh(CR);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XR表示第二长短记忆网络当前的输入,IR-1表示所述第二长短记忆网络前一时刻的输出,CR表示所述第二长短记忆网络的状态隐藏单元,所述第二长短记忆网络为所述双向长短记忆网络中用于输出所述第二目标向量的长短记忆网络。
需要说明的是,本申请实施例提供的信息推荐方法,执行主体可以为信息推荐装置,或者该信息推荐装置中的用于执行加载信息推荐方法的控制模块。本申请实施例中以信息推荐装置执行加载信息推荐方法为例,说明本申请实施例提供的信息推荐方法。
参见图6,图6是本申请实施例提供的信息推荐装置的结构图,如图6所示,信息推荐装置600包括:
第一转换模块601,用于将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;
输入模块602,用于将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;
确定模块603,用于基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
可选地,所述用户数据包括M组数据信息,每一组数据信息包括N个数据组,每一个所述数据组包括至少两个第一特征数据,所述第二输入向量集包括对每一所述第一特征数据进行向量转换得到的对应的输入向量;所述第二输入向量集包括N个数据组对应的向量组;所述分层因子分解机网络包括第一网络层和第二网络层,所述第一网络层的输入为所述第二输入向量集,所述第一网络层的输出包括基于所述第二输入向量集输出的线性向量集和N个组合向量集,每一所述组合向量集用于表示对应的数据组内的第一特征数据的输入向量进行组合得到的向量矩阵,所述第二网络层的输入为所述线性项向量集和所述N个组合项向量集,所述第二网络层的输出为基于所述线性项向量集和N个组合项向量集进行组合得到的所述第一多维用户向量。
可选地,所述线性项向量集yF满足:
其中,bF是线性项的偏置量,wn表示N个数据组中第n个数据组对应的第一特征数据的权重向量;xn表示N个数据组中第n个数据组对应的第一特征数据的输入向量。
可选地,所述第一多维用户向量包括N个用户的对应的K维向量,其中一个用户对应的K维向量u满足:
其中,SK表示K维的评分矩阵,vi,k表示第k个组合项向量集对应的矩阵,xi表示第i个数据组对应的第一特征数据的输入向量。
可选地,所述对象数据包括多个第二特征数据,每一所述第二特征数据用于表示一个所述对象信息,所述第一输入向量集包括对每一所述第二特征数据向量转换后得到的输入向量,所述双向长短记忆网络包括嵌入层、循环层和合并层,所述嵌入层的输入为所述第一输入向量集,所述嵌入层的输出为用于表示所述对象信息的第一矩阵;所述循环层的输入为所述第一矩阵,所述循环层的输出为第一目标向量和第二目标向量,所述第一目标向量和所述第二目标向量为所述对象信息按照不同方向挖掘得到的向量表示;所述合并层的输入为所述第一目标向量和所述第二目标向量,所述合并层的输出为所述对象数据的第一文本向量。
可选地,所述第一目标向量IL满足:
IL=σ(Wh[IL-1,XL]+bh)tanh(CL);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XL表示第一长短记忆网络当前的输入,IL-1表示所述第一长短记忆网络前一时刻的输出,CL表示所述第一长短记忆网络的状态隐藏单元,所述第一长短记忆网络为所述双向长短记忆网络中用于输出所述第一目标向量的长短记忆网络。
可选地,所述第二目标向量IR满足:
IR=σ(Wh[IR-1,XR]+bh)tanh(CR);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XR表示第二长短记忆网络当前的输入,IR-1表示所述第二长短记忆网络前一时刻的输出,CR表示所述第二长短记忆网络的状态隐藏单元,所述第二长短记忆网络为所述双向长短记忆网络中用于输出所述第二目标向量的长短记忆网络。
需要说明的是,本申请实施例提供的评分模型训练方法,执行主体可以为评分模型训练装置,或者该评分模型训练装置中的用于执行加载评分模型训练方法的控制模块。本申请实施例中以评分模型训练装置执行加载评分模型训练方法为例,说明本申请实施例提供的评分模型训练方法。
参见图7,图7是本申请实施例提供的评分模型训练装置的结构图,如图7所示,评分模型训练装置700包括:
第二转换模块701,用于将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
训练模块702,用于利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与对象样本的相关度。
可选地,所述用户样本数据包括M组数据信息,每一组数据信息包括N个数据组,每一个数据组包括至少两个第三特征数据,所述第二输入向量集包括每一所述第三特征数据对应的输入向量;所述分层因子分解机网络包括第一网络层和第二网络层,所述第一网络层的输入为所述第四输入向量集,所述第一网络层的输出包括基于所述第四输入向量集输出的线性向量集和N个组合向量集,每一所述组合向量集用于表示对应的数据组内的第三特征数据的输入向量进行组合得到的向量矩阵,所述第二网络层的输入为所述线性项向量集和所述N个组合项向量集,所述第二网络层的输出为基于所述线性项向量集和N个组合项向量集进行组合得到的所述第二多维用户向量。
可选地,所述线性项向量集yF满足:
其中,bF是线性项的偏置量,wn表示N个数据组中第n个数据组对应的第三特征数据的权重向量;xn表示N个数据组中第n个数据组对应的第三特征数据的输入向量。
可选地,所述第二多维用户向量包括N个用户的对应的K维向量,其中一个用户对应的K维向量u满足:
其中,SK表示K维的评分矩阵,vi,k表示第k个组合项向量集对应的矩阵,xi表示第i个数据组对应的第三特征数据的输入向量。
可选地,所述对象样本数据包括多个第四特征数据,每一所述第四特征数据用于表示一个所述对象样本信息,所述第一输入向量集包括每一所述第四特征数据的输入向量,所述双向长短记忆网络包括嵌入层、循环层和合并层,所述嵌入层的输入为所述第一输入向量集,所述嵌入层的输出为用于表示所述对象信息的第一矩阵;所述循环层的输入为所述第一矩阵,所述循环层的输出为第一目标向量和第二目标向量,所述第一目标向量和所述第二目标向量为所述对象信息按照不同方向挖掘得到的向量表示;所述合并层的输入为所述第一目标向量和所述第二目标向量,所述合并层的输出为所述对象样本数据的第一文本向量。
可选地,所述第一目标向量IL满足:
IL=σ(Wh[IL-1,XL]+bh)tanh(CL);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XL表示第一长短记忆网络当前的输入,IL-1表示所述第一长短记忆网络前一时刻的输出,CL表示所述第一长短记忆网络的状态隐藏单元,所述第一长短记忆网络为所述双向长短记忆网络中用于输出所述第一目标向量的长短记忆网络。
可选地,所述第二目标向量IR满足:
IR=σ(Wh[IR-1,XR]+bh)tanh(CR);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XR表示第二长短记忆网络当前的输入,IR-1表示所述第二长短记忆网络前一时刻的输出,CR表示所述第二长短记忆网络的状态隐藏单元,所述第二长短记忆网络为所述双向长短记忆网络中用于输出所述第二目标向量的长短记忆网络。
本申请实施例中的信息推荐装置或评分模型训练装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的信息推荐装置或评分模型训练装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的信息推荐装置能够实现图1或图5的方法实施例中的各个过程,为避免重复,这里不再赘述。
可选的,本申请实施例还提供一种电子设备,包括处理器810,存储器809,存储在存储器809上并可在所述处理器810上运行的程序或指令,该程序或指令被处理器810执行时实现上述信息推荐方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图9为实现本申请各个实施例的一种电子设备的硬件结构示意图。
该电子设备900包括但不限于:射频单元901、网络模块902、音频输出单元903、输入单元904、传感器905、显示单元906、用户输入单元907、接口单元908、存储器909、以及处理器910等部件。
本领域技术人员可以理解,电子设备900还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器910逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图9中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器910,用于执行以下操作:
将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;
将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;
基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
或者,处理器910,用于执行以下操作:
将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与对象样本的相关度。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述信息推荐方法或评分模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述信息推荐方法或评分模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (11)
1.一种信息推荐方法,其特征在于,包括:
将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;
将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;
基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
2.根据权利要求1所述的方法,其特征在于,所述用户数据包括M组数据信息,每一组数据信息包括N个数据组,每一个所述数据组包括至少两个第一特征数据,所述第二输入向量集包括对每一所述第一特征数据进行向量转换得到的对应的输入向量;
所述分层因子分解机网络包括第一网络层和第二网络层,所述第一网络层的输入为所述第二输入向量集,所述第一网络层的输出包括基于所述第二输入向量集输出的线性项向量集和N个组合项向量集,每一所述组合项向量集用于表示对对应的数据组内的第一特征数据的输入向量进行组合得到的向量矩阵,所述第二网络层的输入为所述线性项向量集和所述N个组合项向量集,所述第二网络层的输出为基于所述线性项向量集和N个组合项向量集进行组合得到的所述第一多维用户向量。
5.根据权利要求1所述的方法,其特征在于,所述对象数据包括多个第二特征数据,每一所述第二特征数据用于表示一个所述对象信息,所述第一输入向量集包括对每一所述第二特征数据进行转换得到的对应的输入向量;
所述双向长短记忆网络包括嵌入层、循环层和合并层,所述嵌入层的输入为所述第一输入向量集,所述嵌入层的输出为用于表示所述对象信息的第一矩阵;所述循环层的输入为所述第一矩阵,所述循环层的输出为第一目标向量和第二目标向量,所述第一目标向量和所述第二目标向量为所述对象信息按照不同方向挖掘得到的向量表示;所述合并层的输入为所述第一目标向量和所述第二目标向量,所述合并层的输出为所述对象数据的第一文本向量。
6.根据权利要求5所述的方法,其特征在于,所述第一目标向量IL满足:
IL=σ(Wh[IL-1,XL]+bh)tanh(CL);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XL表示第一长短记忆网络当前的输入,IL-1表示所述第一长短记忆网络前一时刻的输出,CL表示所述第一长短记忆网络的状态隐藏单元,所述第一长短记忆网络为所述双向长短记忆网络中用于输出所述第一目标向量的长短记忆网络;
所述第二目标向量IR满足:
IR=σ(Wh[IR-1,XR]+bh)tanh(CR);
其中,σ为S型函数,Wh为所述双向长短记忆网络输出的权重,bh表示所述双向长短记忆网络输出的偏置,XR表示第二长短记忆网络当前的输入,IR-1表示所述第二长短记忆网络前一时刻的输出,CR表示所述第二长短记忆网络的状态隐藏单元,所述第二长短记忆网络为所述双向长短记忆网络中用于输出所述第二目标向量的长短记忆网络。
7.一种评分模型训练方法,其特征在于,包括:
将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与物品样本的相关度。
8.一种信息推荐装置,其特征在于,包括:
第一转换模块,用于将对象数据以及用户数据分别进行向量转换,获得所述对象数据对应的第一输入向量集以及所述用户数据对应的第二输入向量集,所述对象数据包括多个对象的对象信息;
输入模块,用于将所述第一输入向量集以及第二输入向量集输入到评分模型,获得所述用户数据的第一评分矩阵,所述第一评分矩阵用于表示所述用户数据关联的用户与对象的相关度;
确定模块,用于基于所述第一评分矩阵确定所述对象数据中的待推荐对象数据;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第二输入向量集,输出为用于表示所述用户数据的第一多维用户向量,所述双向长短记忆网络的输入为所述第一输入向量集,输出为用于表示所述对象信息的第一文本向量,所述S型函数的输入为所述第一多维用户向量和所述第一文本向量,输出为所述第一评分矩阵。
9.一种评分模型训练装置,其特征在于,包括:
第二转换模块,用于将对象样本数据以及用户样本数据分别进行向量转换,获得所述对象样本数据对应的第三输入向量集以及所述用户样本数据对应的第四输入向量集,所述对象样本数据包括多个对象样本的对象样本信息;
训练模块,用于利用所述第三输入向量集和所述第四输入向量集,对待训练评分模型进行迭代训练得到评分模型;
其中,所述评分模型包括分层因子分解机网络、双向长短记忆网络和S型函数,所述分层因子分解机网络的输入为所述第四输入向量集,输出为用于表示所述用户样本数据的第二多维用户向量,所述双向长短记忆网络的输入为所述第三输入向量集,输出为用于表示所述对象样本信息的第二文本向量,所述S型函数的输入为所述第二多维用户向量和所述第二文本向量,输出为第二评分矩阵,所述第二评分矩阵用于表示所述用户样本数据对应的用户与对象样本的相关度。
10.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至6中任一项所述的信息推荐方法的步骤,或者,所述程序或指令被所述处理器执行时实现如权利要求7所述的信息推荐方法的步骤。
11.一种可读存储介质,其上存储有程序或指令,其特征在于,所述程序或指令被处理器执行时实现如权利要求1至6中任一项所述的信息推荐方法的步骤,或者,所述程序或指令被所述处理器执行时实现如权利要求7所述的信息推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110325529.0A CN113076475B (zh) | 2021-03-26 | 2021-03-26 | 信息推荐方法、模型训练方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110325529.0A CN113076475B (zh) | 2021-03-26 | 2021-03-26 | 信息推荐方法、模型训练方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113076475A CN113076475A (zh) | 2021-07-06 |
CN113076475B true CN113076475B (zh) | 2022-02-08 |
Family
ID=76610483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110325529.0A Active CN113076475B (zh) | 2021-03-26 | 2021-03-26 | 信息推荐方法、模型训练方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113076475B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343117B (zh) * | 2021-07-09 | 2022-05-17 | 马上消费金融股份有限公司 | 对抗网络模型的训练方法、信息推荐方法及相关设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111695024A (zh) * | 2019-03-11 | 2020-09-22 | 北京京东尚科信息技术有限公司 | 对象评估值的预测方法及系统、推荐方法及系统 |
CN112364236A (zh) * | 2019-07-24 | 2021-02-12 | 阿里巴巴集团控股有限公司 | 目标对象推荐系统、方法、装置、数据处理方法及装置 |
CN110851713B (zh) * | 2019-11-06 | 2023-05-30 | 腾讯科技(北京)有限公司 | 信息处理方法、推荐方法及相关设备 |
CN112100511B (zh) * | 2020-11-18 | 2021-03-12 | 浙江口碑网络技术有限公司 | 一种偏好程度数据获得方法、装置以及电子设备 |
-
2021
- 2021-03-26 CN CN202110325529.0A patent/CN113076475B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113076475A (zh) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kosinski et al. | Mining big data to extract patterns and predict real-life outcomes. | |
CN106776673B (zh) | 多媒体文档概括 | |
CN108846077B (zh) | 问答文本的语义匹配方法、装置、介质及电子设备 | |
CN108363790A (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
KR20180091043A (ko) | 사용자 포트레이트를 획득하는 방법 및 장치 | |
CN111539197B (zh) | 文本匹配方法和装置以及计算机系统和可读存储介质 | |
CN108388608B (zh) | 基于文本感知的情感反馈方法、装置、计算机设备和存储介质 | |
CN109446430A (zh) | 产品推荐的方法、装置、计算机设备及可读存储介质 | |
CN113627447B (zh) | 标签识别方法、装置、计算机设备、存储介质及程序产品 | |
WO2015165372A1 (en) | Method and apparatus for classifying object based on social networking service, and storage medium | |
CN109766557A (zh) | 一种情感分析方法、装置、存储介质及终端设备 | |
US20220172260A1 (en) | Method, apparatus, storage medium, and device for generating user profile | |
CN112380453B (zh) | 物品推荐方法、装置、存储介质及设备 | |
CN110321473B (zh) | 基于多模态注意力的多样性偏好信息推送方法、系统、介质及设备 | |
CN110428295A (zh) | 商品推荐方法和系统 | |
CN111400615B (zh) | 一种资源推荐方法、装置、设备及存储介质 | |
CN113722583A (zh) | 推荐方法、推荐模型训练方法及相关产品 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN109670161A (zh) | 商品相似度计算方法及装置、存储介质、电子设备 | |
CN113392317A (zh) | 一种标签配置方法、装置、设备及存储介质 | |
CN111931516A (zh) | 一种基于强化学习的文本情感分析方法及系统 | |
CN116108267A (zh) | 一种推荐方法及相关设备 | |
CN113076475B (zh) | 信息推荐方法、模型训练方法及相关设备 | |
CN112148994B (zh) | 信息推送效果评估方法、装置、电子设备及存储介质 | |
CN117251619A (zh) | 一种数据处理方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |