CN109241424B - 一种推荐方法 - Google Patents

一种推荐方法 Download PDF

Info

Publication number
CN109241424B
CN109241424B CN201810999367.7A CN201810999367A CN109241424B CN 109241424 B CN109241424 B CN 109241424B CN 201810999367 A CN201810999367 A CN 201810999367A CN 109241424 B CN109241424 B CN 109241424B
Authority
CN
China
Prior art keywords
user
project
feature
attention
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810999367.7A
Other languages
English (en)
Other versions
CN109241424A (zh
Inventor
王小明
庞光垚
郝飞
谢杰航
王新燕
林亚光
秦雪洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN201810999367.7A priority Critical patent/CN109241424B/zh
Publication of CN109241424A publication Critical patent/CN109241424A/zh
Application granted granted Critical
Publication of CN109241424B publication Critical patent/CN109241424B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Computing arrangements based on biological models using neural network models
    • G06N3/04Architectures, e.g. interconnection topology
    • G06N3/0454Architectures, e.g. interconnection topology using a combination of multiple neural nets

Abstract

一种推荐方法,包括如下步骤:S100:使用词嵌入单元将关于用户和项目的自然语言形式的文本转化为数值型的训练数据;S200:采用注意力机制在所述训练数据中增加用户与项目的相互影响力;S300:采用基于注意力机制的卷积神经网络模型提取训练数据的局部特征和核心特征,最终得出可以表达全局的特征的隐藏特征;S400:使用因子分解机对上述隐藏特征进行分析,得到用户与项目的关联,据所述关联完成用户对项目的评分预测,最终完成向用户推荐项目。该方法相较于现有方法,提高了推荐的精度和准确度,提高了数据利用率。

Description

一种推荐方法
技术领域
本公开属于人工神经网络及个性化推荐技术领域,特别涉及一种推荐方法。
背景技术
随着云计算、大数据、物联网等技术的快速发展,互联网和信息行业涌现了大量的诸如购物、教育和娱乐等应用平台,使得多源异构数据的规模也急速增长,预计到2020年全球数据总量将达到35.2ZB。这些大数据蕴含着丰富的价值,能够指导人们将行为决策模式从经验主义为主转变为数据驱动为主。然而,人们在享受大数据带来便利的同时,难以从大数据中提取有价值的信息,由此引发了“信息过载”的问题。因此,如何从大数据中根据用户的需求和兴趣挖掘出有效信息是至关重要的。
推荐方法是解决互联网等平台中信息过载问题的有效解决方案,包括基于协同过滤的推荐方法、基于内容的推荐方法和混合推荐方法。此外,近年来随着深度学习成为互联网大数据和人工智能的研究热点,涌现了一类基于深度学习的新型混合推荐方法。虽然基于深度学习的混合推荐方法能够自动提取特征,但特征提取的精度仍需进一步提升。为了提高神经网络特征提取的精度,当前多使用注意力机制对神经网络进行拓展,其中神经网络主要包括卷积神经网络CNN和循环神经网络RNN。卷积神经网络的汇聚操作会遗失一些词汇的位置信息,也无法考虑权重高的历史词汇的影响度,降低了其在自然语言处理中提取特征的精度;循环神经网络虽能考虑动态信息并在自然语言的特征提取有较好效果,但是与CNN相比,其对静态数据的特征表达效果较差且运算速度过慢。
综上所述,在大数据环境下进行推荐仍然面临三个挑战:一是如何提高从异构多源的数据中提取特征的精度;二是如何把传统推荐方法中特征提取的方式由人工提取转向自动提取;三是如何将深度学习与传统推荐方法融合成一个可高度协作的混合模型。
发明内容
为了解决上述问题,本公开提供了一种推荐方法,包括如下步骤:
S100:使用词嵌入单元将关于用户和项目的自然语言形式的文本转化为数值型的训练数据;
S200:采用注意力机制在所述训练数据中增加用户与项目的相互影响力;
S300:采用基于注意力机制的卷积神经网络模型提取训练数据的局部特征和核心特征,最终得出可以表达全局的特征的隐藏特征;
S400:使用因子分解机对上述隐藏特征进行分析,得到用户与项目的关联,据所述关联完成用户对项目的评分预测,最终完成向用户推荐项目。
上述技术方案提出了一种基于自然语言处理的注意力机制。该机制在保持卷积神经网络具有较好特征提取性能的同时,对卷积神经网络进行了拓展,增加了多源异构的文本中每个词和目标特征的影响度。该机制解决了卷积神经网络在自然语言处理当中丢失记忆的问题,使得卷积神经网络在自然语言处理环境中的特征提取精度得到了明显提升。
本方法引入基于注意力机制的卷积神经网络模型。该模型具有深层次和非线性网络结构的特点,可以将多源异构数据映射到一个相同的隐空间,例如从基于自然语言形式的评论信息中自动提取用户和项目的隐藏特征。自动提取特征的方式解决了基于内容的推荐方法过度依赖人工提取特征的问题,使得推荐领域的特征提取的方式能够适应大数据的环境,拓展了推荐系统的适用范围。
本方法提出一种融合了基于注意力机制的卷积神经网络模型和因子分解机的混合推荐方法。该方法首先自动提取隐藏特征,其次通过考虑多个隐藏特征的组合得到更多有效的辅助信息,最后利用这些有效的辅助信息建立了关联关系,完成了较高精度的推荐。该方法改进了传统推荐模型存在的数据稀疏、冷启动难、推荐性能差、可解释性差和适用性差等缺陷,实质性提升了推荐的效率以及推荐精确度。
附图说明
图1是本公开一个实施例中所提供的一种基于注意力机制的卷积神经网络和因子分解机的混合推荐方法的流程图;
图2是本公开一个实施例中所提供的一种基于注意力机制的卷积神经网络和因子分解机的混合推荐方法的框架图;
图3是本公开一个实施例中注意力机制原理图;
图4是本公开一个实施例中数据集详细统计信息;
图5是本公开一个实施例中不同的卷积核数量下的RMSE指标;
图6是本公开一个实施例中不同的隐因子数量下的RMSE指标;
图7(a)是本公开一个实施例中全部数据集的RMSE指标对比结果图;
图7(b)是本公开一个实施例中全部数据集的MAE指标对比结果图;
图8(a)是本公开一个实施例中冷启动用户数据集的RMSE指标对比结果图;
图8(b)是本公开一个实施例中冷启动用户数据集的MAE指标对比结果图;
图9(a)是本公开一个实施例中长尾项目数据集的RMSE指标对比结果图;
图9(b)是本公开一个实施例中长尾项目数据集的MAE指标对比结果图;
图10(a)是本公开一个实施例中新用户的RMSE指标对比结果图;
图10(b)是本公开一个实施例中新用户的MAE指标对比结果图;
图11(a)至图11(d)是本公开一个实施例中在不同字符串长度下的评论数量分布图(使用Log-Log Scaling):图11(a)Books数据集;图11(b)Movies and TV数据集;图11(c)Home and Kitchen数据集;图11(d)Tools and Home Improvement数据集;
图12是本公开一个实施例中评论信息的字符串长度分析图;
图13(a)是本公开一个实施例中不同字符串长度用户组的Books数据集对比结果图;
图13(b)是本公开一个实施例中不同字符串长度用户组的Movies and TV数据集对比结果图;
图13(c)是本公开一个实施例中不同字符串长度用户组的Home and Kitchen数据集对比结果图;
图13(d)是本公开一个实施例中不同字符串长度用户组的Tools and HomeImprovement数据集对比结果图;
图14是本公开一个实施例中性能对比结果图。
具体实施方式
参看图1,在一个实施例中,公开了提供了一种推荐方法,包括如下步骤:
S100:使用词嵌入单元将关于用户和项目的自然语言形式的文本转化为数值型的训练数据;
S200:采用注意力机制在所述训练数据中增加用户与项目的相互影响力;
S300:采用基于注意力机制的卷积神经网络模型提取训练数据的局部特征和核心特征,最终得出可以表达全局的特征的隐藏特征;
S400:使用因子分解机对上述隐藏特征进行分析,得到用户与项目的关联,据所述关联完成用户对项目的评分预测,最终完成向用户推荐项目。
该方法提出拓展卷积神经网络的注意力机制,在保证CNN在静态特征提取优点的同时,参考RNN的运行机理,增强CNN在自然语言处理中的记忆能力;其次使用基于注意力的卷积神经网络进行特征提取,提升数据利用率;最后研究基于注意力的卷积神经网络与因子分解机的融合完成高精度推荐。
在另一个实施例中,采用评论信息作为训练数据,基于注意力机制的卷积神经网络和因子分解机的混合推荐方法(Attention-based Convolutional Neural Networkwith Factorization Machines,ACNN-FM)的总体框架如图2所示,主要包括以下几个功能模块:
(1)词嵌入模型:利用多维的分布向量(n-dimensional distributed vectors),将基于自然语言的评论信息转化为CNN模型能够识别的数值型数据。
(2)注意力机制:我们提出的注意力机制,增加了用户评论以及项目评论之间的关联度,能够改进CNN模型在NLP领域缺乏记忆的缺陷。
(3)CNN模型:卷积神经网络能够利用评论文本提取用户和项目的隐藏特征,主要操作包括卷积、池化和全连接。
(4)因子分解机模型:主要利用用户和项目的隐藏特征构建用户与项目的关联,完成推荐。
其中,用户对项目的评价信息用四元组P=(u,m,c,r)来表示,u为用户,m为项目,c为用户u对项目m的评论文本,r为用户u对项目m的评分。同一个用户对不同项目的评论用集合来表示,不同用户对同一个项目的评论用集合来表示。其中,表示用户u对项目m的评论,k为用户u评论过的项目数量,N为评论过项目m的用户数量。用来表示根据用户的隐藏特征和项目的隐藏特征构建关联,并预测出用户u对项目m的评分。其中,Hu表示用户u从cu中学习到的隐藏特征,Hm表示项目m从cm中学习到的隐藏特征;使用二元组R=(Hu,Hm)表达用户u与项目m的关联;表示根据R完成用户u对项目m的预测评分。
在另一个实施例中,所述向用户推荐项目包括向信息的使用者推荐商品、知识、电影和音乐。
在另一个实施例中,构建词嵌入模型。深度学习方法只能处理数值型数据,无法直接处理自然语言等文本形式的数据,因此,我们改进了词嵌入模型,以数值化自然语言。词嵌入包括规格化和数值化两个步骤,即先对自然语言进行分词、去除停用词和无用词等规格化操作,再使用多维分布向量对评论信息进行数值化操作。
首先,已知为用户u对项目m的评论,假设有其中表示用户u对项目m评论的第i个句子;再假设句子其中,Wij表示第i个句子的第j个单词,n为每个句子的单词数;为了建立单词与数值的对应关系,建立映射函数φ(wij):wij→Z,Z∈N+,该函数表示从单词Wij到数值Z的映射关系;在此基础上,构建出以数值表达的用户u评论的多维分布向量Vu
其中,Vu中的任一个元素表示词嵌入单元对用户u评论中单词Wij进行处理之后的数值化结果,q表示用户u所有评论的句子数量;同理构建出以数值表达的项目m评论的多维分布向量Vm,且Vm=Vu,以及同理得到Vm中任一个元素Vm,kq为项目m评论单词Wij(第i个句子第j个单词)对应的数值化值(第k个句子第q个单词所对应的数值化值);
其次,假设词嵌入单元表示某个训练批次数据的表达特征向量为Fi,r∈Rd×n,i∈{0,1},其中i等于0为用户的表达特征向量,i等于1为项目的表达特征向量,n为前面已定义的句子长度,d为每一个训练批次的数据维度;如果用户评论的句子数量q大于批次d,则需要划分多个批次,如果q小于批次d,则需要增加(d-q)行值为零的数据;即有用户特征表达向量F0,r
与公式(1)和(2)同理,可得项目特征表达向量F1,r
至此,经过上述步骤的处理,构建了使用多维分布向量数值化评论信息的词嵌入模型,最终得到用户的表达特征向量F0,r和项目的表达特征向量F1,r
在另一个实施例中,构建注意力机制模型。提出了一种注意力机制对CNN进行了拓展,该机制主要在训练数据中增加用户和项目评论信息之间的影响程度,以提升CNN模型对历史词汇的记忆能力。
具体来说,注意力机制在上文定义的用户和项目的表达特征向量F0,r以及F1,r的基础上,假设有注意力矩阵A∈Rd×d表示集合cu的句子与集合cm的句子之间单词的相互影响程度。如图3为迭代训练过程中某一次注意力机制的运算细节,从中可以看出注意力机制包括以下三个阶段:
阶段一:采用欧几里得距离公式来计算注意力矩阵A,A∈Rd×d,对任一元素akj∈A,其中为欧式距离范式,为用户u的词向量,k:指k行的所有值,vm,j:为项目m的词向量,j:指第j行的所有值,Rd×d为维度为d×d的实数;
阶段二:我们假设用户注意力特征向量为F0,a∈Rd×n,项目注意力特征向量为F1,a∈Rd×n,均表示从评论信息挖掘到的用户与项目之间的关联关系,其中Rd×n为维度为d×n的实数,d为批次,n为句子长度(包含的单词数)。我们利用机器学习相关理论中的权重矩阵来构建该关联关系,即先假设用户的注意力权重为W0∈Rd×n以及项目的注意力权重为W1∈Rd×n,接着在训练初期随机初始化以W0以及W1,再在后续的迭代训练中,根据预测结果与训练数据结果的误差情况,反向微调W0以及W1,在多次迭代之后得到W0以及W1的最优值。该最优值与注意力矩阵A可以快速构建出最佳的F0,a和最佳的F1,a,详细的计算过程如下所示:
(Fi,a)d×n=(Wi)d×n·(A)d×d,i∈{0,1}, (5)
阶段三:构造融合了用户与项目之间相互影响度的新表达特征向量。已知用户的表达特征向量F0,r(或者项目的表现特征向量F1,r)与用户的注意力特征向量F0,a(或者项目的注意力特征向量F1,a)维度均为d×n,通过直接拼接构建出融合用户注意力的新表达特征向量F0,nr以及融合项目注意力的新表达特征向量F1,nr
Fi,nr=concat(Fi,r,Fi,a),i∈{0,1}. (6)
总体来说,构建注意力机制模型,主要有两个核心策略,一是先利用评论信息构建用户与项目的相互影响力,即注意力特征向量F0,a和F1,a。二是构建新的用户与项目相互影响力的表达特征向量F0,nr和F0,nr
在另一个实施例中,构建卷积神经网络模型。卷积神经网络主要通过卷积层和池化层来提取训练数据的局部特征和核心特征。卷积神经网络包括卷积、池化以及全连接操作,以下分别描述:
首先,CNN以用户与项目新表达特征向量F0,nr和F1,nr作为输入进行卷积操作,包括特征提取以及特征选择。特征提取指利用卷积核以固定步长扫描输入数据,提取代表局部数据的低纬度特征值。假设卷积核为xj∈Rd×n,低纬度特征值为C=[c1,c2,...,cj,...,cn],C∈Rn,则有以下提取过程:
cj=f(F0,nr*xj+bj),(7)
其中,运算符*表示卷积操作,bj为偏置变量(bj∈R),f为激活函数。本文的f采用ReLU激活函数,该函数与其他激活函数相比,运算量更少和执行速度更快。接着从通过卷积核xj扫描到的数据中聚合出核心特征:
f(cj)=maX{0,cj},(8)
其次,在池化层对卷积操作之后得到的特征向量图进行下采样操作,选取局部中具有代表意义的特征信息。本文使用ReLU激活函数,在各个局部数据当中选取最大值,组合成表达重要特征信息:
oj=maX{c1,c2,...,ci,...,cn-t+1},(9)
公式(9)描述了从一个卷积核中提取核心特征的过程,为了加快运算速度,我们以并行的方式使用多个卷积核对数据进行特征提取,得到总特征O∈R的值为:
o={o1,o2,...,oj,...,onl} (10)
其中n1为卷积核的数量,t为卷积核的步长。
最后,我们在全连接操作中对总特征集合0重新组合,得到可以表达全局的特征的用户特征Hu
Hu=f(W·O+g). (11)
整体来说,CNN模型能够从用户的新表达特征向量F0,nr中提取到表达用户的隐藏特征Hu;其中g为卷积神经网路模型中全连接层的偏置变量,w为全连接层的权重矩阵。同理,与之并列运行和具有相同结构的CNN模型从项目的新表达特征向量F1,nr中提取到项目的隐藏特征Hm
在另一个实施例中,构建因子分解机模型。因子分解机模型(FactorizationMachines,FM)是一种由线性回归(linear regression)和奇异值分解(Singular valuedecomposition,SVD)扩展而来的通用预测器,通过分析由特征工程得到的实值特征向量的内在联系,预测出与用户关联性很高的项目。
已知在ACNN-FM方法当中主要有两个部分:一是使用两个并列的基于注意力机制的卷积神经网络,同步从评论信息中提取用户隐藏特征Hu和项目隐藏特征Hm;二是使用因子分解机对Hu和Hm进行分析,得到用户与项目的关联模型并根据预测出用户对项目的评分具体计算过程如下:
其中,w0∈R,w={w1,w2,…,wn},w∈Rn,v∈Rn×k为模型参数,n为用户R为实数,Rn为n维实数,Rnxk为nxk维实数,k属于正整数,是一个超参数,和评论的特征维度,n<<p表示因子分解机的维度,vi表示矩阵v的向量(v∈Rn,k),w0为全局偏量,Wi为第i个变量的权重。<Vi,Vj>表示Hu和Hm向量之间的点积,表示如下:
其中,Vi,f和Vj,f是点积<Vi,Vj>拆分的2个矩阵,是为了利用更多的数据来解决数据稀疏问题。
经过公式(12)以及(13)的运算,利用用户的隐藏特征Hu以及项目的隐藏特征Hm构建出了用户与项目的关联程度,最终完成用户对项目的评分预测。
下面实施例结合附图4至图14进行阐述。
以下所用的4组数据均来自于亚马逊不同行业产生的评价信息,其中,在4组数据中用户对项目的评论信息真实地反映了用户对项目的喜好程度。Books数据集是用户关于书本的评价信息,Movies&TV数据集是用户关于电影以及电视节目的评价信息,Home &Kitchen数据集是用户关于居家用品以及厨房用品的评价信息,Tools & HomeImprovement数据集是用户关于工具以及家装用品的评价信息。
4组数据集的相关统计信息如图4所示,不仅包括不同的数据量级,还包括不同的领域以及不同的稀疏程度,整体而言数据集的选取能够全面地和客观地模拟信息过载场景。其中,数据集的统计参数中,有用户数量为Nuser,有项目数量为Nitem,评价数量为Nreview,数据的稀疏程度为d=1-(Nreview/(Nuser·Nitem)),单个用户的平均评论数为有单个项目的平均评论数有总单词数为Nword
在推荐模型的训练与测试的过程中,采用能够较好解决过拟合问题的Holdout验证方法,该方法将每一个数据集随机拆分为训练集(training set)、验证集(validationset)和测试集(test set)三个部分,且三个部分所占总数量的比例为80%、10%和10%。其中,使用训练集(training set)训练各个推荐模型的参数,使用验证集(validation set)评估经训练后得到的推荐模型参数的性能,最终在测试集(test set)上评估模型的泛化误差。
在ACNN-FM方法的评测过程中,需要针对模型的特点选取合适的评价指标、具有代表意义的对比算法以及经过反复试验确定各种对比模型影响较大的运行参数,以下分别描述:
首先,结合模型的特征提取精度以及推荐效果这两个核心关注点,采用2种常用的评价指标:平均绝对误差(mean absolute error,MAE)以及均方根误差(root meansquared error,RMSE)。两种指标通过计算真实评分与预测评分间的误差来衡量推荐结果的准确性,其值越小,推荐精度越高。
其中,N表示测试集评分的总记录数,yi表示真实评分值,表示预测评分值。
其次,选取了以下三种对比方法:
(1)非负矩阵分解(Non-negative Matrix Factorization,NMF)是一种所有矩阵元素均符合非负约束的矩阵分解方法,其参照人类思维中“局部构成整体”的概念,将原始非均匀的复杂数据矩阵拆分为两个简化的非负子矩阵,再以简单的迭代方法分别求解拆解后的子矩阵。求解方法具有收敛速度快、左右非负矩阵存储空间小的特点,适合处理较大规模数据。例如对“用户-项目”评分矩阵进行分解,得到一个用户隐向量矩阵和一个项目隐向量矩阵来构建隐语义的模型,最终得到更好的推荐效果。
(2)SVD++是引入隐式反馈,使用用户的历史浏览数据、历史评分数据、电影的历史浏览数据、电影的历史评分数据等作为新的参数改进SVD的一种算法。可以根据已有的评分情况,分析出评分者对各个因子的喜好程度以及电影包含各个因子的程度,再反向分析数据得出预测结果。
(3)DeepCoNN是一种先进的基于深度学习的混合推荐方法。该方法主要分为两个部分,第一部分通过深度学习的方法利用评分以外的信息构建用户和项目的特征,第二部分利用基于内容的推荐模型融合特征完成推荐,是当前效果非常好的一种深度学习与传统推荐模型结合的混合推荐方法。
最后,通过反复测试确定各个算法的最优超参数。NMF推荐方法在隐因子个数(number of latent factors)为{25,50,100,150,200}、正则化参数为{0.001,0.01,0.1,1.0}以及学习率为{0.006,0.005,0.004,0.003,0.002,0.001}的范围中可以取得最优推荐效果。SVD++模型方法使用Topic K的方式进行验证,当隐因子的个数(number of latentfactors)为{25,50,100,150,200}的范围中可以得到最优值。图5为ACNN-FM方法与DeepCoNN方法的卷积核数量取值为{10,50,100,150,200,400}的RMSE值,其中,DeepCoNN方法在卷积核数量为20的时候效果最佳,ACNN-FM方法在卷积核数量为50的时候效果最佳;图6所示是ACNN-FM方法与DeepCoNN方法的隐因子个数取值为{10,20,40,60,80,100}的RMSE值,其中两种方法均在隐因子个数为30时,取得最佳推荐效果。此外,在ACNN-FM方法以及DeepCoNN方法在迭代次数(epochs)取值为40的训练过程中,模型在测试集(test set)上的损失函数(Loss)均趋于平稳。
推荐多样性评测
考虑到推荐系统的应用场景存在差异性,从三个不同的角度进行评测:全部数据集、冷启动用户数据集和长尾项目数据集。其中,全部数据集是指待评测的数据为全部数据集;冷启动用户数据集是指待评测的数据是评价数量为1至5的用户数据集;长尾项目数据集是指带评测的数据为所有库存项目的数据集(按使用次数倒序,冷门项目的数量约占总数的80%)。具体结果如下所示:
图7(a)至图7(b)为全部数据集的对比结果。结果显示ACNN-FM方法以及DeepCoNN方法的RMSE值均远低于NMF方法以及SVD++方法的RMSE值,ACNN-FM方法与DeepCoNN方法相比,在4个不同数据集的评测结果中RMSE值平均提升了12%以及MAE值平均提升了8%。此外,ACNN-FM方法在数据集Books和Movies and TV具有较高稀疏度(其稀疏度分别为99.996%和99.973%)的环境下,误差率也仍然小于DeepCoNN方法。说明ACNN-FM方法在大数据环境下,能够在自然语言形式的评论中自动提取有效特征,提高数据利用率,最终取得了最好的推荐效果。
图8(a)至图8(b)为冷启动用户数据集的对比结果。4个数据集Books、Movies&TV、Home&Kitchen和Tools&Home Improvement在训练集中的平均冷启动用户数为140680、31759、5768和1519,分别占总用户数的23.3%,25.6%,34.7%和27.4%。结果表明,随着用户评价数据的减少,所有方法的推荐效果均出现下滑,其中NMF方法以及SVD++方法的推荐精确度下滑严重,ACNN-FM方以及DeepCoNN方法的推荐精度轻微下滑。而ACNN-FM方法的误差率小于DeepCoNN方法的误差率。由此可得,基于深度学习的混合推荐方法解决冷启动问题的能力优于传统推荐方法,ACNN-FM方法由于具有更高的特征提取精度,与DeepCoNN方法相比能够更好缓解冷启动问题。
图9(a)至图9(b)为长尾项目数据集的对比结果。长尾现象是幂律分布的通俗提法,表现为在电商平台中销量占主导的产品只占少数,而多数产品则被人遗忘。与冷启动不同,长尾项目可能存在评价数量较多但是销售量却很低的情况。将销售最少的70%的项目设为长尾项目的数据占比(低于长尾分布的80%,更能体现算法的性能),最后表明:与其他推荐方法相比,ACNN-FM方法在Books、Movies&TV、Home & Kitchen和Tools &HomeImprovement数据集上取得了最好的推荐性能。说明ACNN-FM方法在具备较高数据利用率的情况下,在长尾现象组上取得了最好的推荐效果。
新用户推荐效果评测
能否为新用户推荐准确的项目是衡量推荐系统冷启动处理能力的重要性能指标之一。假设用户在初次进入系统的时候选择了某几项系统推荐的大众热门项目,针对该场景,使用项目的标题和描述作为用户对项目的评价文本,从而构造出了与元组P类似的数据集。
图10(a)至图(b)为新用户推荐结果,结果表明ACNN-FM方法的RMSE值比DeepCoNN方法提升了7.5%,比SVD++方法提升了51%,比NMF方法提升了60.5%。评价文本由于使用标题以及描述进行构造,所以所蕴含的隐藏特征比较丰富,更有利于建立用户与项目之间的关联关系。即随着ACNN-FM方法从自然语言形式评论文本中提取有效特征的精确度的提升,相比其他3种方法,有更高的数据利用率,在解决数据稀疏问题以及处理新用户的冷启动问题中具有更高的效率。
字符长度对推荐效果的影响
ACNN-FM方法的主要特点是通过在训练过程当中增加用户评论文本与项目评论文本之间的关联以提升卷积神经网络特征提取的精度,由此可预测,评论信息的字符串长度对该方法的推荐效果有影响。为了分析该特点,如图11(a)、图11(b)、图11(c)和图11(d)所示,针对4个不同领域的数据集,分析了不同字符串长度下的评论数量的分布,其中,使用对数对坐标值进行了处理。从图中可以看出不同字符串长度下的评论数量的分布符合长尾分布,即大部分评论信息的字符长度集中在某一个区间。
为了进一步分析评论信息的字符长度的分布区间,针对每个字符长度下的评论数量进行统计。其中,每个字符长度下的评论数量进行按倒序的方式排序,从高至低取一定量数据的比率为数据占比,具体字符长度分布情况如图12所示。
由图12可知,大部分评论信息的字符串长度介于58-885之间,在该区间评测不同算法的效果最具有说服力,此外,为了尽量保证每个分组有相同的数据量,使用评论信息的字符长度作为刻度将用户划分为5组:0-500、501-1000、1001-1500、1501-2000、2001-3500以及>3500。图13(a)至图13(d)展示了4种推荐方法在4个数据集下的评测结果,即传统的NMF方法与SVD++方法无论处于哪一个用户组,预测结果基本一致,其结果不受字符串长度的影响;ACNN-FM方法优于DeepCoNN方法,尤其在0~1000的区间ACNN-FM方法显著优于DeepCoNN方法,说明ACNN-FM方法在增加了历史词汇之间的影响度之后取得了最好的推荐效果,并且推荐的精度随着评论信息长度的增加而增加。
时间成本评测
在实际应用当中,时间成本是衡量推荐方法可用性的重要指标。针对模型训练时间以及执行时间两个指标进行对比。如图14所示,随着数据量的增加,传统推荐算法的执行时间会越来越长,远超2秒(注:用户能承受的互联网响应时间不超2秒,最佳响应时间为1秒内);基于机器学习的混合推荐方法模型训练时间远高于传统推荐方法,但是执行时间始终保持在1秒以内。与DeepCoNN方法相比,虽然ACNN-FM方法增加注意力机制导致训练时间变长,但是执行时间基本保持不变。相对于最终推荐效果的提升度,时间损耗在可接受范围之内。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下和在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。

Claims (6)

1.一种推荐方法,包括如下步骤:
S100:使用词嵌入单元将关于用户和项目的自然语言形式的文本转化为数值型的训练数据;
S200:采用注意力机制在所述训练数据中增加用户与项目的相互影响力;
S300:采用基于注意力机制的卷积神经网络模型提取训练数据的局部特征和核心特征,最终得出可以表达全局的特征的隐藏特征;
S400:使用因子分解机对上述隐藏特征进行分析,得到用户与项目的关联,据所述关联完成用户对项目的评分预测,最终完成向用户推荐项目;
步骤S100进一步包括,
所述词嵌入单元包括规格化和数值化两个步骤,其中,规格化是指对自然语言形式的文本进行分词、去除停用词和无用词,数值化是指使用多维分布向量对文本进行数值化操作;
采用评论信息作为训练数据,则该方法具体为:
S101:使用词嵌入单元将自然语言形式的用户评论信息和项目评论信息数值化为用户的表达特征向量和项目的表达特征向量;
S201:通过计算用户评论信息与项目评论信息之间的相似度,得到表达用户评论与项目评论之间影响度的注意力矩阵;将注意力矩阵与用户的权值矩阵进行运算,得到用户的注意力特征向量,将注意力矩阵与项目的权值矩阵进行运算,得到项目的注意力特征向量;把用户的表达特征向量与用户的注意力特征向量进行拼接形成带记忆能力的新的用户的表达特征向量;把项目的表达特征向量与项目的注意力特征向量进行拼接形成带记忆能力的新的项目的表达特征向量;
S301:使用基于注意力机制的卷积神经网络对上述新的用户表达特征向量和新的项目表达特征向量进行卷积、池化和全连接操作,从中提取用户隐藏特征以及项目隐藏特征;
S401:使用因子分解机从用户隐藏特征及项目隐藏特征中构建出用户及项目之间的关联,并且根据所述关联完成用户对项目的评分预测,最终完成向用户推荐项目;
所述步骤S201进一步包括:
S2001:采用欧几里得距离公式来计算注意力矩阵A,A∈Rd×d,其中,Rd×d为维度为d×d的实数,d为每一个训练批次的数据维度;
S2002:假设用户的注意力特征向量为F0,a∈Rd×n,项目的注意力特征向量为F1,a∈Rd×n,用户的注意力权重为W0∈Rd×n以及项目的注意力权重为W1∈Rd×n,在训练初期随机初始化W0以及W1,再在后续的迭代训练中,根据预测结果与训练数据结果的误差情况,反向微调W0以及W1,在多次迭代之后得到W0以及W1的最优值;最优值与注意力矩阵A可以快速构建出最佳的F0,a和最佳的F1,a,详细的计算过程如下所示:(Fi,a)d×n=(Wi)d×n·(A)d×d,i∈{0,1},其中Rd×n为维度为d×n的实数,d为每一个训练批次的数据维度,n为句子长度;
S2003:已知用户的表达特征向量F0,r和项目的表达特征向量F1,r,用户的注意力特征向量F0,a和项目的注意力特征向量F1,a,维度均为d×n,通过公式Fi,nr=concat(Fi,r,Fi,a),i∈{0,1},直接拼接构建出融合用户注意力的新的表达特征向量F0,nr以及融合项目注意力的新的表达特征向量F1,nr
2.根据权利要求1的方法,步骤S300进一步包括:
所述卷积神经网络包括卷积、池化以及全连接操作。
3.根据权利要求1的方法,其中,
用户的权值矩阵以及项目的权值矩阵初期是直接随机初始化,并利用深度学习的后向传播方法进行更新。
4.根据权利要求1的方法,步骤S101进一步包括:
S1001,已知为用户u对项目m的评论,假设有其中表示用户u对项目m评论的第i个句子;再假设句子其中,wij表示第i个句子的第j个单词,n为每个句子的单词数;为了建立单词与数值的对应关系,建立映射函数φ(wij):wij→Z,Z∈N*,该函数表示从单词wij到数值Z的映射关系,其中N*为正整数集合;在此基础上,构建出以数值表达的用户u评论的多维分布向量Vu
其中,Vu中的任一个元素表示词嵌入单元对用户u评论中单词wij进行处理之后的数值化结果,q表示用户u所有评论的句子数量;同理构建出以数值表达的项目m评论的多维分布向量Vm,且Vm=Vu,以及同理得到Vm中任一个元素Vm,kq为项目m评论第k个句子第q个单词所对应的数值化值;
S1002,假设词嵌入单元表示某个训练批次数据的表达特征向量为Fi,r∈Rd×n,i∈{0,1},其中i等于0为用户的表达特征向量,i等于1为项目的表达特征向量,n为句子长度,d为每一个训练批次的数据维度,Rd×n为维度为d×n的实数;如果用户评论的句子数量q大于批次的数据维度d,则需要划分多个批次,如果q小于批次的数据维度d,则需要增加(d-q)行值为零的数据;据此可得用户的表达特征向量和项目的表达特征向量
5.根据权利要求1的方法,步骤S301进一步包括:
S3001,以用户的新的表达特征向量与项目的新的表达特征向量F0,nr和F1,nr作为输入进行卷积操作,包括特征提取以及特征选择;假设卷积核为xj∈Rd×n,低纬度特征值为C=[c1,c2,...,cj,...,cn],C∈Rn,其中,cj=f(F0,nr*xj+bj),运算符*表示卷积操作,bj为偏置变量,bj∈R,f采用ReLU激活函数,其中Rd×n为维度为d×n的实数,其中Rn为维度为n的实数,R为实数;接着从通过卷积核xj扫描到的数据中聚合出核心特征:f(cj)=max{0,cj};
S3002,使用ReLU激活函数,在各个局部数据当中选取最大值,从一个卷积核中提取核心特征oj=max{c1,c2,...,ci,...,cn-t+1},然后以并行的方式使用多个卷积核对数据进行特征提取,得到总特征O={o1,o2,...,oj,...,on1},其中n1为卷积核的数量,t为卷积核的步长;
S3003,在全连接操作中对总特征集合0重新组合,采用公式Hu=f(W·O+g)计算得到可以表达全局的特征的用户隐藏特征Hu,其中g为卷积神经网路中全连接层的偏置变量,w为全连接层的权重矩阵;同理,从项目的新的表达特征向量F1,nr中提取到项目的隐藏特征Hm
6.根据权利要求1的方法,其中,
使用两个并列的基于注意力机制的卷积神经网络,同步从评论信息中提取用户隐藏特征以及项目隐藏特征。
CN201810999367.7A 2018-08-29 2018-08-29 一种推荐方法 Active CN109241424B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810999367.7A CN109241424B (zh) 2018-08-29 2018-08-29 一种推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810999367.7A CN109241424B (zh) 2018-08-29 2018-08-29 一种推荐方法

Publications (2)

Publication Number Publication Date
CN109241424A CN109241424A (zh) 2019-01-18
CN109241424B true CN109241424B (zh) 2019-08-27

Family

ID=65068714

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810999367.7A Active CN109241424B (zh) 2018-08-29 2018-08-29 一种推荐方法

Country Status (1)

Country Link
CN (1) CN109241424B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111563783B (zh) * 2019-02-14 2021-03-16 上海游昆信息技术有限公司 一种物品推荐方法及装置
CN110019758B (zh) * 2019-04-11 2021-07-06 北京百度网讯科技有限公司 一种核心要素提取方法、装置及电子设备
CN110163716B (zh) * 2019-04-12 2022-03-11 淮阴工学院 一种基于卷积神经网络的红酒推荐方法
CN110245285B (zh) * 2019-04-30 2021-07-13 中国科学院信息工程研究所 一种基于异构信息网络的个性化推荐方法
CN110321473B (zh) * 2019-05-21 2021-05-25 山东省计算中心(国家超级计算济南中心) 基于多模态注意力的多样性偏好信息推送方法、系统、介质及设备
CN110196946B (zh) * 2019-05-29 2021-03-30 华南理工大学 一种基于深度学习的个性化推荐方法
CN110288878B (zh) * 2019-07-01 2021-10-08 科大讯飞股份有限公司 自适应学习方法及装置
CN110443574A (zh) * 2019-07-25 2019-11-12 昆明理工大学 多项目卷积神经网络评审专家推荐方法
CN111026858B (zh) * 2019-11-29 2021-06-11 腾讯科技(深圳)有限公司 基于项目推荐模型的项目信息处理方法及装置
CN111259133B (zh) * 2020-01-17 2021-02-19 成都信息工程大学 一种融合多信息的个性化推荐方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105577197A (zh) * 2016-02-01 2016-05-11 中国科学院国家天文台 射电天文望远镜高速数据采集系统
CN105868317A (zh) * 2016-03-25 2016-08-17 华中师范大学 一种数字教育资源推荐方法及系统
CN107330115A (zh) * 2017-07-12 2017-11-07 广东工业大学 一种信息推荐方法及装置
CN107665254A (zh) * 2017-09-30 2018-02-06 济南浪潮高新科技投资发展有限公司 一种基于深度学习的菜谱推荐方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105577197A (zh) * 2016-02-01 2016-05-11 中国科学院国家天文台 射电天文望远镜高速数据采集系统
CN105868317A (zh) * 2016-03-25 2016-08-17 华中师范大学 一种数字教育资源推荐方法及系统
CN107330115A (zh) * 2017-07-12 2017-11-07 广东工业大学 一种信息推荐方法及装置
CN107665254A (zh) * 2017-09-30 2018-02-06 济南浪潮高新科技投资发展有限公司 一种基于深度学习的菜谱推荐方法

Also Published As

Publication number Publication date
CN109241424A (zh) 2019-01-18

Similar Documents

Publication Publication Date Title
CN109241424B (zh) 一种推荐方法
Chen et al. Learning to rank features for recommendation over multiple categories
Rudolph et al. Exponential family embeddings
Ming et al. Understanding hidden memories of recurrent neural networks
Fouss et al. Algorithms and models for network data and link analysis
CN110462612A (zh) 使用在网络节点处具有软件代理的网络进行机器学习并然后对网络节点进行排名的方法和装置
CN110674407B (zh) 基于图卷积神经网络的混合推荐方法
Akerkar et al. Intelligent techniques for data science
Misaghian et al. An approach for requirements prioritization based on tensor decomposition
CN106971200A (zh) 一种基于自适应迁移学习的图像记忆度预测方法
Chaganty et al. How much is 131 million dollars? putting numbers in perspective with compositional descriptions
CN110874439A (zh) 一种基于评论信息的推荐方法
Roads et al. Obtaining psychological embeddings through joint kernel and metric learning
Tommasi et al. Combining multiple cues for visual madlibs question answering
Garbero et al. Spatial dynamics across food systems transformation in IFAD investments: a machine learning approach
Li et al. Understanding and predicting users’ rating behavior: A cognitive perspective
Ge et al. Helpfulness-aware review based neural recommendation
Huynh et al. Joint age estimation and gender classification of Asian faces using wide ResNet
Upadhya et al. Deep neural network models for question classification in community question-answering forums
CN112488355A (zh) 基于图神经网络预测用户评级的方法和装置
TW201820172A (zh) 對話模式分析系統、方法及非暫態電腦可讀取記錄媒體
Garbero et al. Harnessing the power of machine learning analytics to understand food systems dynamics across development projects
Hong et al. Probabilistic reliable linguistic term sets applied to investment project selection with the gained and lost dominance score method
Shen et al. Reconciling predictive and interpretable performance in repeat buyer prediction via model distillation and heterogeneous classifiers fusion
Sangani et al. Comparing Deep Sentiment Models using Quantified Local Explanations

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant