CN112528141A - 一种基于多任务学习的个性化评论文本推荐方法 - Google Patents
一种基于多任务学习的个性化评论文本推荐方法 Download PDFInfo
- Publication number
- CN112528141A CN112528141A CN202011396078.1A CN202011396078A CN112528141A CN 112528141 A CN112528141 A CN 112528141A CN 202011396078 A CN202011396078 A CN 202011396078A CN 112528141 A CN112528141 A CN 112528141A
- Authority
- CN
- China
- Prior art keywords
- user
- comment
- personalized
- representation
- comments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012552 review Methods 0.000 claims abstract description 21
- 239000013598 vector Substances 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 8
- 230000003993 interaction Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008451 emotion Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 abstract description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明提供一种基于多任务学习的个性化评论文本推荐方法,该方法利用了评论的文本信息,大大的缓解了只依靠交互信息的方法所需要的数据量。其次,本专利考虑了用户对评论在不同物品下的偏好。属于个性化的方法,能够更加有效的针对不同的用户提供不同的评论推荐。最后,本工作首次在个性化评论推荐当中使用评论文本的深度语义信息。在拥有丰富语义的情况下,更好的建模用户对评论的偏好。
Description
技术领域
本发明涉及互联网用户偏好推荐算法领域,更具体地,涉及一种基于多任务学习的个性化评论文本推荐方法。
背景技术
现今,很多网络服务提供商如亚马逊,淘宝,Taptap手机游戏商城等都提供了评论服务。在评论的功能中,用户通过撰写评论与他人分享物品的使用体验。与此同时,用户通过浏览其他人的评论,也能获取到更多物品相关的主观信息,而不仅仅是物品描述所提供的客观信息。利用这些信息,用户能够更好的获取物品相关的信息,更快做出购买判断。但是,随着用户社区的越来越活跃,一些热门商品的评论出现爆炸性增长,用户很难在海量的评论中寻找到自己感兴趣的评论。因此,一个能够筛选出符合用户偏好的评论的算法亟待开发。
目前网站主要使用基于用户反馈的方式对评论进行初步的排序,大部分网络服务一般都会提供由用户点赞数,用户提供的评论有用性(Helpfulness)评分进行排序。这些排序更多的是针对大众化偏好排序,缺乏个性化。而在学术领域,更多的研究主要针对于如何利用评论的文本来对评论的有用性进行预测,又或者选取一个最能表示物品各方面特性的评论的集合。在个性化的评论推荐方面,相关的工作则少很多。主要集中在利用协同过滤的方法,通过寻找相似的用户来进行相关的评论推荐,而缺乏利用评论本身的文本信息来进行推荐。
发明内容
本发明提供一种基于多任务学习的个性化评论文本推荐方法,该算法能够大大提高用户的决策效率。
为了达到上述技术效果,本发明的技术方案如下:
一种基于多任务学习的个性化评论文本推荐方法,包括以下步骤:
S1:构建用户评论个性化变换器;
S2:利用步骤S1得到的个性化变换器获取用户历史评论和待排评论的表示;
S3:利用步骤S1得到的个性化变换器对待排序评论进行语义信息的提取,利用语义向量获取对评论本身的质量的预测;
S4:利用步骤S1得到的个性化变换器将用户和物品表示为稠密的向量,并利用用户和物品之间的交互行为对用户和物品向量进行建模。
进一步地,所述个性化变换器包括个性化嵌入层、多层叠加的变换器块和输出层;所述变换器块包括多头自注意模块、Dropout模块、加权以及归一化模块和前向传播模块
进一步地,所述个性化嵌入层个性化变换器的输入层,将评论文本通过词嵌入的方式表示为稠密的向量t,为了加入个性化的信息,把用户的特征表示u′作为第一个单词加入到文本序列当中;
用户的特征表示首先由用户的独热ID编码通过嵌入层得到,为了和词嵌入的维度一致,将该用户的表示通过线性变换,得到最后加入到个性化嵌入层的用户表示;
为了让个性化变换器能够感知到物品,将物品的表示v′加入到每个词的表示当中,物品的表示和用户的表示一样,首先使用嵌入矩阵将物品的独热编码转换为稠密编码,然后使用线性变换得到与词嵌入相同维度的表示v′,最后,因为输入的词是有次序性特征的,在个性化的编码当中加入位置编码;输入编码可以表示为
其中,hi表示第i个输入。
进一步地,所述步骤S2的具体过程是:
利用个性化变换器得到用户历史评论和待排评论的表示:
ou=PT(Hu,u,VH)
or=PT(rc,u,vc)
其中,Hu是用户u的历史评论集,VH={v|v=φ(r)∧r∈Hu}是历史评论集对应的物品,rc∈R是待排序的评论,vc是待排序评论对应的物品,用户u对评论rc的偏好度评分通过如下给出:
其中,·是点乘计算。
进一步地,所述步骤S3的具体过程是:
利用个性化变换器以及多层感知机来通过评论的文本来预测评论本身的质量,因为物品-评论任务中,并不存在用户;在原本用户-评论任务当中所使用的用户输入将代替为一个特殊的词[CLS],将这个词替代原本的用户表示,输入到个性化变换器中,评论的评分由下给出:
其中,Nvr是物品-评论任务的样本数。
进一步地,所述步骤S4的具体过程是:
用户在相似的物品上,他们对评论的偏好更为相似,将用户所交互过的评论所对应的物品也视为所交互过的物品,即,只要用户交互过该物品下的任意一条评论,都认为该用户交互过该物品,利用矩阵分解的方法对用户与物品的交互进行建模:
其中,u是用户的独热编码通过嵌入矩阵得到的稠密向量表示,v是物品的独热编码通过嵌入矩阵得到的稠密向量表示,这个任务使用交叉熵来优化用户与物品的之间的嵌入表示:
进一步地,在通过用户-评论任务得到用户对待排评论的估计以及物品-评论任务得到待排评论的质量分数时,使用一个超参数α来平衡这两边的预测的分数,而一个待排序评论的最终分数由如下公式给出:
对于模型的训练,利用配对损失函数进行训练,具体表示如下:
与现有技术相比,本发明技术方案的有益效果是:
本发明利用了评论的文本信息,大大的缓解了只依靠交互信息的方法所需要的数据量。其次,本专利考虑了用户对评论在不同物品下的偏好。属于个性化的方法,能够更加有效的针对不同的用户提供不同的评论推荐。最后,本工作首次在个性化评论推荐当中使用评论文本的深度语义信息。在拥有丰富语义的情况下,更好的建模用户对评论的偏好。
附图说明
图1为本发明方法逻辑框图;
图2(a)为个性化变换器的整体结构;
图2(b)为变换器块的具体结构;
图2(c)为个性化嵌入层在用户-评论任务中的输入表示;
图2(d)为物品-评论任务中的表示。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1所示,一种分基于多任务学习的个性化评论文本推荐方法,为三个任务:用户对于评论的偏好预测主任务,评论质量预测辅助任务以及用户与物品关系建模任务,在接下来的叙述中,三个任务将简写成用户-评论任务,物品-评论任务,以及用户-物品任务。
用户-评论任务主要目的是要在给定的物品下,计算用户对待排序评论的偏好度。这个任务主要将用户的历史,待排序评论作为输入。其中,用户的历史是用户之前所交互过的评论。这些评论文本以及用户/物品的表示分别输入到个性化变换器(Transformer)中,提取他们的语义信息。分别得到用户的表示输出以及评论的表示输出。这两个输出最后做点积得到用户对评论的偏好度预测。物品-评论任务则主要利用个性化变换器对待排序评论进行语义信息的提取,将得到的语义向量输入进多层感知机中,最后得到对评论本身的质量的预测。用户-物品任务则主要利用嵌入层将用户和物品表示为稠密的向量,并利用用户和物品之间的交互行为对用户和物品向量进行建模。接下来,首先介绍个性化变换器,其次,在分别详细介绍每个任务。
1.个性化变换器
如图2所示,在本节主要介绍个性化变换器,个性化变换器的整体结构如图2(a)所示,其中包括个性化嵌入层,多层叠加的变换器块,以及最后的输出层。其中,变换器块的具体结构如图2(b)所示,具体包括多头自注意模块,Dropout模块,加权以及归一化模块,前向传播模块等。
1.1个性化嵌入层
个性化嵌入层是个性化变换器的输入层,这层主要的结构是如图2(c)(d)所展示,图2(c)是个性化嵌入层在用户-评论任务中的输入表示,图2(d)是物品-评论任务中的表示,二者差别十分细微,因此,只介绍图2(c)。
如图2(c)所示,首先将一系列文本通过词嵌入的方式表示为稠密的向量t,为了加入个性化的信息,把用户的特征表示u′作为第一个单词加入到文本序列当中。用户的特征表示首先由用户的独热ID编码通过嵌入层得到。为了和词嵌入的维度一致,再将该用户的表示通过线性变换,得到最后加入到个性化嵌入层的用户表示。知道,每一个评论都有对应的物品,为了让个性化变换器能够感知到物品,将物品的表示v′加入到每个词的表示当中。物品的表示和用户的表示一样,首先使用嵌入矩阵将物品的独热编码转换为稠密编码。然后使用线性变换得到与词嵌入相同维度的表示v′。最后,因为输入的词是有次序性特征的,在个性化的编码当中加入位置编码。最后,的输入编码可以表示为:
其中,hi表示第i个输入。
1.2变换器块以及输出
构建完的变换器块,使用多头自注意等机制加强词向量的表示。最后,取第一个词在最后一层的变换器块中的输出作为个性化变换器的输出。并把这个输出通过一个多层感知机得到这个个性化变换器的最终输出o
2.用户-评论任务
利用个性化变换器得到用户历史评论和待排评论的表示:
ou=PT(Hu,u,VH)
or=PT(rc,u,vc)
其中,Hu是用户u的历史评论集,VH={v|v=φ(r)∧r∈Hu}是历史评论集对应的物品。rc∈R是待排序的评论。vc是待排序评论对应的物品。最后,用户u对评论rc的偏好度评分通过如下给出:
其中,·是点乘计算。
3.物品-评论任务
利用个性化变换器以及多层感知机来通过评论的文本来预测评论本身的质量。因为物品-评论任务中,并不存在用户。所以,在原本用户-评论任务当中所使用的用户输入将代替为一个特殊的词[CLS],将这个词替代原本的用户表示,输入到个性化变换器中,具体的输入如图2(d)所示。最后,评论的评分由下给出:
其中,Nvr是物品-评论任务的样本数。
4.用户-物品任务
知道,用户在相似的物品上,他们对评论的偏好更为相似,例如都是衣服类的物品,他们对这些物品的偏好也会比较相似。这里,将用户所交互过的评论所对应的物品也视为所交互过的物品。即,只要用户交互过该物品下的任意一条评论,都认为该用户交互过该物品。利用矩阵分解的方法对用户与物品的交互进行建模
其中,u是用户的独热编码通过嵌入矩阵得到的稠密向量表示,v是物品的独热编码通过嵌入矩阵得到的稠密向量表示。这个任务使用交叉熵来优化用户与物品的之间的嵌入表示:
5.偏好估计与参数优化
在通过用户-评论任务得到用户对待排评论的估计以及物品-评论任务得到待排评论的质量分数时,使用一个超参数α来平衡这两边的预测的分数。而一个待排序评论的最终分数由如下公式给出:
对于模型的训练,利用配对损失函数进行训练,具体表示如下:
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (8)
1.一种基于多任务学习的个性化评论文本推荐方法,其特征在于,包括以下步骤:
S1:构建用户评论个性化变换器;
S2:利用步骤S1得到的个性化变换器获取用户历史评论和待排评论的表示;
S3:利用步骤S1得到的个性化变换器对待排序评论进行语义信息的提取,利用语义向量获取对评论本身的质量的预测;
S4:利用步骤S1得到的个性化变换器将用户和物品表示为稠密的向量,并利用用户和物品之间的交互行为对用户和物品向量进行建模。
2.根据权利要求1所述的基于多任务学习的个性化评论文本推荐方法,其特征在于,所述个性化变换器包括个性化嵌入层、多层叠加的变换器块和输出层。
3.根据权利要求2所述的基于多任务学习的个性化评论文本推荐方法,其特征在于,所述变换器块包括多头自注意模块、Dropout模块、加权以及归一化模块和前向传播模块。
4.根据权利要求3所述的基于多任务学习的个性化评论文本推荐方法,其特征在于,所述个性化嵌入层个性化变换器的输入层,将评论文本通过词嵌入的方式表示为稠密的向量t,为了加入个性化的信息,把用户的特征表示u′作为第一个单词加入到文本序列当中;
用户的特征表示首先由用户的独热ID编码通过嵌入层得到,为了和词嵌入的维度一致,将该用户的表示通过线性变换,得到最后加入到个性化嵌入层的用户表示;
为了让个性化变换器能够感知到物品,将物品的表示v′加入到每个词的表示当中,物品的表示和用户的表示一样,首先使用嵌入矩阵将物品的独热编码转换为稠密编码,然后使用线性变换得到与词嵌入相同维度的表示v′,最后,因为输入的词是有次序性特征的,在个性化的编码当中加入位置编码;输入编码可以表示为
其中,hi表示第i个输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011396078.1A CN112528141B (zh) | 2020-12-03 | 2020-12-03 | 一种基于多任务学习的个性化评论文本推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011396078.1A CN112528141B (zh) | 2020-12-03 | 2020-12-03 | 一种基于多任务学习的个性化评论文本推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112528141A true CN112528141A (zh) | 2021-03-19 |
CN112528141B CN112528141B (zh) | 2024-10-15 |
Family
ID=74997092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011396078.1A Active CN112528141B (zh) | 2020-12-03 | 2020-12-03 | 一种基于多任务学习的个性化评论文本推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112528141B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100251094A1 (en) * | 2009-03-27 | 2010-09-30 | Nokia Corporation | Method and apparatus for providing comments during content rendering |
US20170142044A1 (en) * | 2015-11-16 | 2017-05-18 | Facebook, Inc. | Ranking and Filtering Comments Based on Impression Calculations |
CN107577759A (zh) * | 2017-09-01 | 2018-01-12 | 安徽广播电视大学 | 用户评论自动推荐方法 |
CN108090206A (zh) * | 2017-12-28 | 2018-05-29 | 北京小米移动软件有限公司 | 评论信息的排序方法及装置、电子设备 |
CN111680151A (zh) * | 2020-05-06 | 2020-09-18 | 华东师范大学 | 一种基于层次化transformer的个性化商品评论摘要生成方法 |
CN111859946A (zh) * | 2019-04-22 | 2020-10-30 | 百度在线网络技术(北京)有限公司 | 对评论进行排序的方法和装置及机器可读存储介质 |
-
2020
- 2020-12-03 CN CN202011396078.1A patent/CN112528141B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100251094A1 (en) * | 2009-03-27 | 2010-09-30 | Nokia Corporation | Method and apparatus for providing comments during content rendering |
US20170142044A1 (en) * | 2015-11-16 | 2017-05-18 | Facebook, Inc. | Ranking and Filtering Comments Based on Impression Calculations |
CN107577759A (zh) * | 2017-09-01 | 2018-01-12 | 安徽广播电视大学 | 用户评论自动推荐方法 |
CN108090206A (zh) * | 2017-12-28 | 2018-05-29 | 北京小米移动软件有限公司 | 评论信息的排序方法及装置、电子设备 |
CN111859946A (zh) * | 2019-04-22 | 2020-10-30 | 百度在线网络技术(北京)有限公司 | 对评论进行排序的方法和装置及机器可读存储介质 |
CN111680151A (zh) * | 2020-05-06 | 2020-09-18 | 华东师范大学 | 一种基于层次化transformer的个性化商品评论摘要生成方法 |
Non-Patent Citations (1)
Title |
---|
SAMANEH MOGHADDAM 等: ""Review Recommendation: Personalized Prediction of the Quality of Online Reviews"", 《CIKM’11》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112528141B (zh) | 2024-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046304B (zh) | 一种用户推荐方法和装置 | |
CN109785062B (zh) | 一种基于协同过滤模型的混合神经网络推荐系统 | |
Forouzandeh et al. | A hybrid method for recommendation systems based on tourism with an evolutionary algorithm and topsis model | |
Abdollahi et al. | Explainable restricted boltzmann machines for collaborative filtering | |
CN112232925A (zh) | 一种融合知识图谱对商品进行个性化推荐的方法 | |
CN111199458B (zh) | 一种基于元学习与强化学习的推荐系统 | |
CN110781319B (zh) | 跨媒体大数据的公共语义表示、搜索方法和装置 | |
CN108470075A (zh) | 一种面向排序预测的社会化推荐方法 | |
CN111241394A (zh) | 数据处理方法、装置、计算机可读存储介质及电子设备 | |
CN112100485A (zh) | 一种基于评论的评分预测物品推荐方法及系统 | |
Patro et al. | Knowledge-based preference learning model for recommender system using adaptive neuro-fuzzy inference system | |
Jin et al. | RACRec: Review aware cross-domain recommendation for fully-cold-start user | |
CN114298783A (zh) | 基于矩阵分解融合用户社交信息的商品推荐方法及系统 | |
Xu et al. | Emerging Synergies Between Large Language Models and Machine Learning in Ecommerce Recommendations | |
Hssina et al. | Recommendation system using the k-nearest neighbors and singular value decomposition algorithms | |
Tso et al. | Attribute-aware collaborative filtering | |
CN108830680B (zh) | 基于离散分解机的个性化推荐方法、系统及存储介质 | |
CN112528141B (zh) | 一种基于多任务学习的个性化评论文本推荐方法 | |
Eyjolfsdottir et al. | Moviegen: A movie recommendation system | |
Benfares et al. | Recommendation semantic of services in smart city | |
CN113010796A (zh) | 用于项目推荐的方法 | |
CN111400602A (zh) | 一种基于个性化推荐的在线学习系统和方法 | |
Almalis et al. | Handling the crowd avoidance problem in job recommendation systems integrating FoDRA | |
Wang et al. | BERT-based aggregative group representation for group recommendation | |
Xia et al. | Multi-interest network based on double attention for click-through rate prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |