CN110134868A - 一种基于用户偏好异构性分析的推荐方法 - Google Patents

一种基于用户偏好异构性分析的推荐方法 Download PDF

Info

Publication number
CN110134868A
CN110134868A CN201910399992.2A CN201910399992A CN110134868A CN 110134868 A CN110134868 A CN 110134868A CN 201910399992 A CN201910399992 A CN 201910399992A CN 110134868 A CN110134868 A CN 110134868A
Authority
CN
China
Prior art keywords
data
user
text
network
preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910399992.2A
Other languages
English (en)
Other versions
CN110134868B (zh
Inventor
张全贵
靳赫
李鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Technical University
Original Assignee
Liaoning Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Technical University filed Critical Liaoning Technical University
Priority to CN201910399992.2A priority Critical patent/CN110134868B/zh
Publication of CN110134868A publication Critical patent/CN110134868A/zh
Application granted granted Critical
Publication of CN110134868B publication Critical patent/CN110134868B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于用户偏好异构性分析的推荐方法,步骤为:对Amazon公开数据集及进行数据筛选,得到符合要求的数据集;对处理好的文本数据进行分词分句并对文本数据进行词向量训练和名词短语提取;使用深度学习框架构建推荐系统模型;把预先处理好的文本数据分成训练集和测试集,使用构建好的模型对训练集进行训练,并对训练好的模型应用于测试集进行评价得到最优的推荐模型。本发明采用联合学习网络结构,分别处理文本多粒度信息的特征学习网络,还有用来学习用户和项目关联信息的协同过滤网络,数据处理中使用Spacy来提取名词性短语,并通过Word2Vec学习词语特征向量,减少输入网络的数据维度增强网络的推荐精度。

Description

一种基于用户偏好异构性分析的推荐方法
技术领域
本发明属于计算机深入学习和推荐系统的技术领域,尤其涉及一种基于用户偏好异构性分析的推荐方法。
背景技术
到2020年全球产生的数据量将达到惊人的35.2ZB,这意味着数据对人们生活的影响越来越大,人们无时无刻在产生数据。其中隐藏的信息量非常巨大。如果能拿到相关行业的数据加以分析并应用一定会对相关行业的发展产生很大的影响。可是如何提取其中有用的信息就成了一个很大的问题。因此推荐系统应运而生,其核心是通过借助用户交互数据来对用户的偏好特征进行分析,然后预测用户对其他物品的喜好程度。可是由于交互数据的稀疏性,有很多预测数据并不能很好的体现用户的真实偏好。所以如何增加推荐系统的推荐精度,并且如何解决冷启动问题等一系列问题正在成为推荐系统领域的热点研究方向。
基于短文本分析的推荐方法以其能够直接反映用户主观喜好的特点受到了很多研究人员的关注。目前,利用短文本信息做推荐主要有两方面的研究,一是使用短文本进行情感识别,通过对短文本的极性判别来预测用户对项目的偏好的极性(如喜欢/不喜欢)。另外一种研究是使用短文本进行用户评分的预测。近些年,针对短文本的研究有了很大进展。其中有人利用word2vec词向量来改进词性特征,也有人人使用LDA主题模型对文本进行分类。还有人利用贝叶斯网络对文本进行层次化话题构建,在保证准确率的情况下扩充了原内容。近几年,随着深度学习的发展,出现了基于深度学习的短文本分析方法。比如有人把word2vec和CNN网络相结合来挖掘不同层次的语义信息从而发现句子中更高抽象级别的特征。一些热把情感分析和传统推荐方法结合发现用户的兴趣特征。另一些研究人员使用元数据结合深度学习模型来改善推荐系统性能。但是以上方法虽然使用了评论文本却仅仅是把文本转变成单一向量来进行训练分析没有考虑到本身文本结构和词性的影响。这些方法均是基于独立同分布的假设,即假设文本对于反映每个用户的偏好所起的作用是一样的,其很难通过短文本充分挖掘用户的个性化偏好。
发明内容
基于以上现有技术的不足,本发明所解决的技术问题在于提供一种基于用户偏好异构性分析的推荐方法,通过考虑文本结构和词性的不同,来发现用户评论文本中隐藏的用户的异构性偏好,提升推荐性能。
为了解决上述技术问题,本发明通过以下技术方案来实现:
本发明提供一种基于用户偏好异构性分析的推荐方法,包括以下步骤:
步骤1:对Amazon公开数据集及进行数据筛选,得到符合要求的数据集;
步骤2:对处理好的文本数据进行分词分句并对文本数据进行词向量训练和名词短语提取;
步骤3:使用深度学习框架构建推荐系统模型;
步骤4:把预先处理好的文本数据分成训练集和测试集,使用步骤3构建的模型对训练集进行训练,并对训练好的模型应用于测试集进行评价得到最优的推荐模型。
优选的,在步骤1中对数据筛选的步骤如下:
步骤1.1:利用Python读取原始json数据文件并转换成CSV文件;
步骤1.2:然后从中筛选用户评论总数大于10条的数据,同时去除文本数据过长的数据。
在步骤2中的词向量训练和名词性短语提取步骤如下:
步骤2.1:利用Gensim的Word2Vec方法来进行词向量的训练;
步骤2.2:使用Spacy库进行句子的名词性短语提取。
进一步的,步骤3中的深度学习框架构建步骤如下:
步骤3.1:对步骤1和步骤2.2处理的词语,名词性短语,句子进行分通道,学习其中用户对于不同粒度的偏好特征,然后把不同粒度的文本通道连接起来学习用户对评论物品的个性化偏好特征;
步骤3.2:对步骤1.2处理之后的UserId和ItemId进行初步学习并使用深度学习协同过滤分析用户对所评论项目的偏好特征公式如下:
fu=WuU+bu
fi=WiI+bi
其中W表示模型训练UserId和ItemId所对应的权重,b对应相应的偏置项,然后进行整体特征的学习,然后把fu和fi的结果连接起来作为一个整体作为整体协同过滤子网络的输出,其中代表fu和fi的输出结果按照行连接在一起,最后模型左边的输出为:
步骤3.3:把步骤3.2所生成的两部分神经网络综合在一起进行联合学习最终输出用户对项目的个性化偏好,预测公式如下:
其中predict是输出的用户的偏好结果,Sigmoid是用户情感二分类函数,Wp是联合学习的网络权重,fui是协同过滤的学习结果,ftext是文本特异性偏好,bp是预测偏置项。
可选的,步骤4中模型应用于测试集评价的步骤如下:
步骤4.1:在步骤3的测试集中,一个UserId选取一条标签正例的数据并依照数据的每一个属性给它增加99个负例样本产生一个新的测试集;
步骤4.2:在步骤3.3已经训练好的推荐模型中输入步骤4.1中新生成的测试集。
可选的,步骤3中深度学习框架构建还包括:
步骤5.1:使用Keras框架搭建神经网络构建输入层,输入层包括五个输入内容;
步骤5.2:搭建文本特征处理子网络,使用步骤2.1训练好的词向量作为文本特征学习网络的嵌入层的初始化权重,并固定权重不做训练;
步骤5.3:搭建协同过滤子网络,使用嵌入层来让数字Userid和Itemid进行向量化操作;
步骤5.4:联合学习,把文本特征处理子网络和协同过滤子网络的输出通过Concatenate层连接起来送入全连接层进行学习然后使用Sigmoid作为激活函数输出user通过短文本评论对于物品item的偏好结果。
由上,本发明的基于用户偏好异构性分析的推荐方法至少具有如下有益效果:
(1)通过对短文本进行词语,短语,句子三种粒度的分析从而可以从中得到用户的异构性偏好。
(2)将情感分析和基于深度学习的协同过滤组成联合推荐系统提高了推荐系统的推荐质量。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下结合优选实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍。
图1为本发明的基于用户偏好异构性分析的推荐方法的模型结构图;
图2为本发明中的Spacy库解析句子树样例图;
图3为本发明中的Gensim的Word2Vec的CBOW模型图;
图4为本发明的评价结果图,随着推荐列表大小K的增大命中率HR的变化;
图5为本发明中的评价结果图,随着推荐列表大小K的增大归一化折损累计增益的变化;
图6为本发明和其他模型结果对比图,随着推荐列表大小K的增大命中率HR的变化;
图7为本发明和其他模型结果对比图,随着推荐列表大小K的增大归一化折损累计增益的变化。
具体实施方式
下面结合附图详细说明本发明的具体实施方式,其作为本说明书的一部分,通过实施例来说明本发明的原理,本发明的其他方面、特征及其优点通过该详细说明将会变得一目了然。在所参照的附图中,不同的图中相同或相似的部件使用相同的附图标号来表示。
如图1至图7所示,本发明的基于用户偏好异构性分析的推荐方法,包括如下步骤:
步骤1:对Amazon公开数据集及进行数据筛选,得到符合要求的数据集,其中,对数据筛选的步骤如下:
步骤1.1:从网上下载Amazon数据集,利用Python读取原始json数据文件并转换成CSV文件;
步骤1.2:然后从中筛选用户评论总数大于10条的数据,同时去除文本数据过长的数据。也就是用Python读取数据条目中UserId大于10的数据并另存为CSV文件,如果小于10条就跳过。
步骤2:对处理好的文本数据进行分词分句并对文本数据进行词向量训练和名词短语提取,其中,词向量训练和名词性短语提取步骤如下:
步骤2.1:利用Gensim的Word2Vec方法来进行词向量的训练,如附图3所示为本发明使用的CBOW方法。
短文本数据原始语料例子如下:
The cable is very wobbly and sometimes disconnects itself.The priceis completely unfair and only works with the Nook HD and HD+……。
经过Word2Vec训练之后的词向量例子如下:
the 4.2791667 2.2556083 -4.743311 -2.1742291 0.4321679 0.34792212 -1.0501866 -2.8685815 -1.7227448 1.6996621 0.33059555 1.471537 -0.3039655 -1.786196 1.6700985 4.762954 -0.9809836 -0.87618196 -2.0489473 0.5477355 -1.4884084 1.2543355 0.6668861 2.668589 -2.2519014 -5.1369605 0.98586833 -0.402295 0.77107465 0.32987687 0.7500346 2.7211926 -1.8434006 1.2330314 -0.94349587 0.25308713 -2.8201354 -2.257605 -2.8037086 -0.4010564 -0.24289921.4629673 -0.9636666 -1.8354031 -1.0654441 -0.60826033 2.71833 -0.50063281.9647481 -1.4020698
i-3.5152304 -2.1650405 -7.245691 3.6289215 -2.3772628 3.38186480.094712555 -6.40483 2.2442386 2.2873344 0.12847 3.4640203 -0.17056510.46115306 -2.7090662 3.696657 -4.592037 0.32361296 -2.7544985 1.0226178 -1.4941045 -1.5931389 -0.70121896 0.711505 8.415213 -3.433592 -1.0511217 -0.7114878 3.8104775 2.1726208 5.042425 -1.5526702 1.8239245 3.491039 -2.4117312 -5.165328 0.4756929 -1.7569257 2.4582508 -3.6364934 0.26751211.7055091 -2.6723769 -1.9799885 3.349063 -0.3100949 -1.4537231 -2.1457840.48378903 1.0621636
and 1.9252056 0.5643848 0.81622034 0.07531359 -1.0205541 2.16144560.5990402 -3.2473364 -0.833534 3.5909874 2.1582916 2.5185304 1.84577630.29273406 -1.167632 0.6700316 -0.14828452 1.7328572 -2.2286973 2.16239480.13199387 -0.19812892 1.3821719 0.8441746 0.1553333 -1.4192909 -1.33716080.15448438 -2.3001518 -0.57216036 0.49944866 2.820292 -4.0334487 0.62032220.44221312 0.8245318 0.11593819 -4.0870886 -0.17047818 1.8874853 -2.73509241.3254955 -0.09433418 -2.9528508 0.11423697 -0.15159053 1.8039546 0.17590083-1.3097358 -0.70908576……
这里可以选择训练词向量的长度,本发明选择的是训练50维的词向量。可以作为推荐模型中的Embedding层的初始化权重大大减少网络训练的难度和训练速度。
步骤2.2:使用Spacy库进行句子的名词性短语提取,具体步骤如下:
如图2所示例子,This is a beautiful television.这一句英文句子经过Spacy库的分析之后会得到各个词语的词性和词语词之间相互依赖关系,利用词语的依赖关系来分析短语的构成情况。
本发明中分词和分句操作具体由Keras数据预处理函数进处理。由于本发明中使用的是英文数据集,因此分词操作就是把评论文本按照空格进行分割,变成词语。分句操作即按照英文逗号进行分割分成相应的句子。在通过Keras映射为数字id矩阵可以送入神经网络进行学习。
由于单词,短语,句子映射关系相似这里举例短语映射关系,具体如下:
I,the Vitality canned dog food products,them,good quality,Theproduct,a stew,a processed meat,it,My Labrador,she,this product,
Product,Jumbo Salted Peanuts,the peanuts,an error,the vendor,theproduct,Jumbo,
a confection,around a few centuries,It,"a light,pillowy citrusgelatin",nuts,this case,Filberts,it,tiny squares,powdered sugar,it,a tinymouthful,heaven,I,this yummy treat,you,the story,C.S.Lewis,"""The Lion",TheWitch,The Wardrobe,the treat,Edmund,his Brother,Sisters,the Witch,
会被映射成为:
1,363050,5,941,23,10427,363051,2,15203,10,12,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0
33,363052,2719,9419,1470,23,37903,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0
42607,363053,2,2167,363054,219,724,29782,2,238831,5542,2,363055,540,1,67474,3,3113,769,254,177476,28562,61339,85067,365,74313,16806,22915,61339,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0
这样的id数字向量。由于文本长短不一因此如果向量长度不够,在后面补充相应数目的0以补全矩阵。
步骤3:使用深度学习框架构建推荐系统模型,按照单词短语的映射关系对UserId和ItemId也照样映射成为数字相应的数字,在输入模型中每一条数据格式如下:
UserId ItemId Word Phrase Sentence Label
输入数据最后一项是当前数据的标签,即用户对当前评论的Item的态度。为0则不喜欢,为1则喜欢。然后对推荐模型的输入层进行相应的改动保证处理好的数据可以正常送入神经网络进行训练。
其中,深度学习框架构建步骤如下:
步骤3.1:对步骤1和步骤2.2处理的词语,名词性短语,句子进行分通道,学习其中用户对于不同粒度的偏好特征,然后把不同粒度的文本通道连接起来学习用户对评论物品的个性化偏好特征;
步骤3.2:对步骤1.2处理之后的UserId和ItemId进行初步学习并使用深度学习协同过滤分析用户对所评论项目的偏好特征公式如下:
fu=WuU+bu
fi=WiI+bi
其中W表示模型训练UserId和ItemId所对应的权重,而b则对应相应的偏置项,然后进行整体特征的学习,然后把fu和fi的结果连接起来作为一个整体作为整体协同过滤子网络的输出,其中代表fu和fi的输出结果按照行连接在一起,最后模型左边的输出为:
步骤3.3:把步骤3.2所生成的两部分神经网络综合在一起进行联合学习最终输出用户对项目的个性化偏好,预测公式如下:
其中predict是输出的用户的偏好结果,Sigmoid是用户情感二分类函数,Wp是联合学习的网络权重,fui是协同过滤的学习结果,ftext是文本特异性偏好,bp是预测偏置项。
步骤4:把预先处理好的文本数据分成训练集和测试集,使用步骤3构建的模型对训练集进行训练,并对训练好的模型应用于测试集进行评价得到最优的推荐模型。模型应用于测试集评价的步骤如下:
对原始数据进行拆分处理按照总数的前百分之八十设置为训练集,总数的后百分之二十为测试集。然后在网络训练时设置训练集的百分之十为验证集。
步骤4.1:在步骤3的测试集中,一个UserId选取一条标签正例的数据并依照数据的每一个属性给它增加99个负例作为一组,测试集中所有的UserId都进行如此操作,把所有的组样本合起来产生一个新的测试集;
步骤4.2:在步骤3.3已经训练好的推荐模型中输入步骤4.1中新生成的测试集。随着推荐列表的大小而分析UserId标签为正例的ItemId是否在推荐列表之中,并分析ItemId的排名情况,模型结果如图4和图5所示;如图6和图7所示是模型和当前已有模型进行推荐结果对此,经过运行对比均体现出良好的推荐效果。评测公式如下:
HR的含义是给当前用户推荐的列表中用户喜欢的项目所占有的比例。比如当前待推荐的项目数为K个,其中如果得到用户喜好反馈的数目为Khit,则当前推荐的命中率为Khit/K。
而NDCG是用以评价当前列表排序质量的参数。体现用户喜好的待推荐项目在推荐列表中的排名情况。如果参数越大则代表项目在推荐列表中的排名越靠前。更加容易得到用户的关注和交互。其中,ZK是正规化,保证推荐列表中存在一个值1,ri是第i个项目的评级相关性。在评价过程中经常使用二值化处理:如果项目在测试集中则ri=1,否则ri=0。
另外,本发明的步骤3中深度学习框架构建还包括:
步骤5.1:使用Keras框架搭建神经网络构建输入层,输入层包括五个输入内容,分别为small(词语),med(短语),sent(句子),user_input(用户Id),item_input(物品Id);
步骤5.2:搭建文本特征处理子网络,使用步骤2.1训练好的词向量作为文本特征学习网络的嵌入层的初始化权重,并固定权重不做训练。把嵌入层输出的结果连接到LSTM网络层中学习不同粒度的特征和各自粒度的个性化特征。其中每一个LSTM神经元中就会有三个控制门,每一条先上传输一整个特征向量,LSTM层定义式如下:
ft=σ(Wf·[ht-1,xt]+bf)x∈(Sm,M,Se)
it=σ(Wi·[ht-1,xt]+bt)x∈(Sm,M,Se)
ot=σ(Wo[ht-1,xt]+bo)x∈(Sm,M,Se)
ht=ot*tanh(Ct)
其中,xt是当前时刻该神经元的输入元素,ht-1为上一个神经元的输出权重。σ门是用来控制和保持神经元的活动状态,σ1是忘记门用来对上一个神经元记忆的信息Ct-1进行选择如果输出结果,ft为1则表示接受上一个神经元的信息如果输出结果,为0则表示忘记上一个神经元的信息。Wf为神经元输入权重,bf为输入偏置项。然后通过σ2输入门用来筛选当前神经元需要更新记忆中的信息it,Wi为记忆权重,bt为记忆偏置项。tanh是用来生成一个新的待更新向量WC为候选权重,bC为候选偏置项。最后信息经过σ3更新门进行当前层最后的更新信息,ot然后和新的记忆信息Ct向量进行运算输出ht,Wo为更新权重,bo为更新偏置项。
经过LSTM网络处理之后连接到全连接层进行单个粒度特征学习,全连接层的输出连接Dropout层防止过拟合出现。
把三个不同粒度通道的输出特征使用Concatenate层合在一起送入一个全连接层学习文本的整体特征之后连接Dropout层防止过拟合。文本特征处理子网络搭建完毕。
步骤5.3:搭建协同过滤子网络,使用嵌入层来让数字Userid和Itemid进行向量化操作。输出送入Flatten层降维然后连接全连接层学习各自特征。输出连接Dropout层防止过拟合。把user通道和item通道输出使用Multiply层合并为协同过滤。协同过滤子网络搭建完毕。
步骤5.4:联合学习,把文本特征处理子网络和协同过滤子网络的输出通过Concatenate层连接起来送入全连接层进行学习然后使用Sigmoid作为激活函数输出user通过短文本评论对于物品item的偏好结果。
本发明要解决的技术问题为如何通过对短文本多粒度的分析从不同层次挖掘用户的个性化偏好,并利用用户与项目的交互历史建立的协同过滤深度学习推荐模型来实现个性化推荐,并在一定程度上解决数据的稀疏性。本发明采用联合学习网络结构,分别处理文本多粒度信息的特征学习网络,还有用来学习用户和项目关联信息的协同过滤网络,数据处理中使用Spacy来提取名词性短语,并通过Word2Vec学习词语特征向量,减少输入网络的数据维度增强网络的推荐精度。
以上所述是本发明的优选实施方式而已,当然不能以此来限定本发明之权利范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变动,这些改进和变动也视为本发明的保护范围。

Claims (6)

1.一种基于用户偏好异构性分析的推荐方法,其特征在于,包括以下步骤:
步骤1:对Amazon公开数据集及进行数据筛选,得到符合要求的数据集;
步骤2:对处理好的文本数据进行分词分句并对文本数据进行词向量训练和名词短语提取;
步骤3:使用深度学习框架构建推荐系统模型;
步骤4:把预先处理好的文本数据分成训练集和测试集,使用步骤3构建的模型对训练集进行训练,并对训练好的模型应用于测试集进行评价得到最优的推荐模型。
2.如权利要求1所述的基于用户偏好异构性分析的推荐方法,其特征在于,在步骤1中对数据筛选的步骤如下:
步骤1.1:利用Python读取原始json数据文件并转换成CSV文件;
步骤1.2:然后从中筛选用户评论总数大于10条的数据,同时去除文本数据过长的数据。
3.如权利要求1所述的基于用户偏好异构性分析的推荐方法,其特征在于,在步骤2中的词向量训练和名词性短语提取步骤如下:
步骤2.1:利用Gensim的Word2Vec方法来进行词向量的训练;
步骤2.2:使用Spacy库进行句子的名词性短语提取。
4.如权利要求1所述的基于用户偏好异构性分析的推荐方法,其特征在于,步骤3中的深度学习框架构建步骤如下:
步骤3.1:对步骤1和步骤2.2处理的词语,名词性短语,句子进行分通道,学习其中用户对于不同粒度的偏好特征,然后把不同粒度的文本通道连接起来学习用户对评论物品的个性化偏好特征;
步骤3.2:对步骤1.2处理之后的UserId和ItemId进行初步学习并使用深度学习协同过滤分析用户对所评论项目的偏好特征公式如下:
fu=WuU+bu
fi=WiI+bi
其中W表示模型训练UserId和ItemId所对应的权重,b对应相应的偏置项,然后进行整体特征的学习,然后把fu和fi的结果连接起来作为一个整体作为整体协同过滤子网络的输出,其中代表fu和fi的输出结果按照行连接在一起,最后模型左边的输出为:
步骤3.3:把步骤3.2所生成的两部分神经网络综合在一起进行联合学习最终输出用户对项目的个性化偏好,预测公式如下:
其中predict是输出的用户的偏好结果,Sigmoid是用户情感二分类函数,Wp是联合学习的网络权重,fui是协同过滤的学习结果,ftext是文本特异性偏好,bp是预测偏置项。
5.如权利要求1所述的基于用户偏好异构性分析的推荐方法,其特征在于,步骤4中模型应用于测试集评价的步骤如下:
步骤4.1:在步骤3的测试集中,一个UserId选取一条标签正例的数据并依照数据的每一个属性给它增加99个负例样本产生一个新的测试集;
步骤4.2:在步骤3.3已经训练好的推荐模型中输入步骤4.1中新生成的测试集。
6.如权利要求4所述的基于用户偏好异构性分析的推荐方法,其特征在于,步骤3中深度学习框架构建还包括:
步骤5.1:使用Keras框架搭建神经网络构建输入层,输入层包括五个输入内容;
步骤5.2:搭建文本特征处理子网络,使用步骤2.1训练好的词向量作为文本特征学习网络的嵌入层的初始化权重,并固定权重不做训练;
步骤5.3:搭建协同过滤子网络,使用嵌入层来让数字Userid和Itemid进行向量化操作;
步骤5.4:联合学习,把文本特征处理子网络和协同过滤子网络的输出通过Concatenate层连接起来送入全连接层进行学习然后使用Sigmoid作为激活函数输出user通过短文本评论对于物品item的偏好结果。
CN201910399992.2A 2019-05-14 2019-05-14 一种基于用户偏好异构性分析的推荐方法 Active CN110134868B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910399992.2A CN110134868B (zh) 2019-05-14 2019-05-14 一种基于用户偏好异构性分析的推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910399992.2A CN110134868B (zh) 2019-05-14 2019-05-14 一种基于用户偏好异构性分析的推荐方法

Publications (2)

Publication Number Publication Date
CN110134868A true CN110134868A (zh) 2019-08-16
CN110134868B CN110134868B (zh) 2023-04-07

Family

ID=67573894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910399992.2A Active CN110134868B (zh) 2019-05-14 2019-05-14 一种基于用户偏好异构性分析的推荐方法

Country Status (1)

Country Link
CN (1) CN110134868B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079022A (zh) * 2019-12-20 2020-04-28 深圳前海微众银行股份有限公司 基于联邦学习的个性化推荐方法、装置、设备及介质
CN111402004A (zh) * 2020-03-17 2020-07-10 昆明理工大学 一种用于电信运营商的个性化电信套餐推荐方法
CN111625718A (zh) * 2020-05-19 2020-09-04 辽宁工程技术大学 一种基于用户搜索关键词数据的用户画像构建方法
CN111767982A (zh) * 2020-05-20 2020-10-13 北京大米科技有限公司 用户转换预测模型的训练方法、装置、存储介质以及电子设备
CN112084415A (zh) * 2020-09-17 2020-12-15 辽宁工程技术大学 一种基于用户和项目长短期时间耦合关系分析的推荐方法
CN112257806A (zh) * 2020-10-30 2021-01-22 福建师范大学 一种面向异构用户的迁移学习方法
CN112256971A (zh) * 2020-10-29 2021-01-22 清华大学深圳国际研究生院 一种序列推荐方法及计算机可读存储介质
CN112269927A (zh) * 2020-10-22 2021-01-26 辽宁工程技术大学 一种基于会话序列动态行为偏好耦合关系分析的推荐方法
CN113704618A (zh) * 2021-08-31 2021-11-26 中国平安人寿保险股份有限公司 基于深度学习模型的数据处理方法、装置、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100268661A1 (en) * 2009-04-20 2010-10-21 4-Tell, Inc Recommendation Systems
WO2014146265A1 (en) * 2013-03-20 2014-09-25 Nokia Corporation Method and apparatus for personalized resource recommendations
WO2015192655A1 (zh) * 2014-06-20 2015-12-23 华为技术有限公司 社交网络中用户推荐模型的建立及应用方法和装置
CN107038609A (zh) * 2017-04-24 2017-08-11 广州华企联信息科技有限公司 一种基于深度学习的商品推荐方法及系统
CN108536856A (zh) * 2018-04-17 2018-09-14 重庆邮电大学 基于双边网络结构的混合协同过滤电影推荐模型
CN108573411A (zh) * 2018-04-17 2018-09-25 重庆理工大学 基于用户评论的深度情感分析和多源推荐视图融合的混合推荐方法
CN108920641A (zh) * 2018-07-02 2018-11-30 北京理工大学 一种信息融合个性化推荐方法
WO2019025601A1 (en) * 2017-08-03 2019-02-07 Koninklijke Philips N.V. HIERARCHICAL NEURAL NETWORKS WITH ATTENTION GRANULARIZED

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100268661A1 (en) * 2009-04-20 2010-10-21 4-Tell, Inc Recommendation Systems
WO2014146265A1 (en) * 2013-03-20 2014-09-25 Nokia Corporation Method and apparatus for personalized resource recommendations
WO2015192655A1 (zh) * 2014-06-20 2015-12-23 华为技术有限公司 社交网络中用户推荐模型的建立及应用方法和装置
CN107038609A (zh) * 2017-04-24 2017-08-11 广州华企联信息科技有限公司 一种基于深度学习的商品推荐方法及系统
WO2019025601A1 (en) * 2017-08-03 2019-02-07 Koninklijke Philips N.V. HIERARCHICAL NEURAL NETWORKS WITH ATTENTION GRANULARIZED
CN108536856A (zh) * 2018-04-17 2018-09-14 重庆邮电大学 基于双边网络结构的混合协同过滤电影推荐模型
CN108573411A (zh) * 2018-04-17 2018-09-25 重庆理工大学 基于用户评论的深度情感分析和多源推荐视图融合的混合推荐方法
CN108920641A (zh) * 2018-07-02 2018-11-30 北京理工大学 一种信息融合个性化推荐方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LUIS MARTÍNEZ 等: "A Knowledge Based Recommender System with Multigranular Linguistic Information", 《INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE SYSTEMS 》 *
王伟 等: "协同过滤推荐算法研究:考虑在线评论情感倾向" *
邬登峰 等: "基于多粒度特征和混合算法的文档推荐系统", 《计算机系统应用》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079022B (zh) * 2019-12-20 2023-10-03 深圳前海微众银行股份有限公司 基于联邦学习的个性化推荐方法、装置、设备及介质
CN111079022A (zh) * 2019-12-20 2020-04-28 深圳前海微众银行股份有限公司 基于联邦学习的个性化推荐方法、装置、设备及介质
CN111402004A (zh) * 2020-03-17 2020-07-10 昆明理工大学 一种用于电信运营商的个性化电信套餐推荐方法
CN111625718A (zh) * 2020-05-19 2020-09-04 辽宁工程技术大学 一种基于用户搜索关键词数据的用户画像构建方法
CN111767982A (zh) * 2020-05-20 2020-10-13 北京大米科技有限公司 用户转换预测模型的训练方法、装置、存储介质以及电子设备
CN112084415A (zh) * 2020-09-17 2020-12-15 辽宁工程技术大学 一种基于用户和项目长短期时间耦合关系分析的推荐方法
CN112084415B (zh) * 2020-09-17 2024-02-02 辽宁工程技术大学 一种基于用户和项目长短期时间耦合关系分析的推荐方法
CN112269927A (zh) * 2020-10-22 2021-01-26 辽宁工程技术大学 一种基于会话序列动态行为偏好耦合关系分析的推荐方法
CN112256971A (zh) * 2020-10-29 2021-01-22 清华大学深圳国际研究生院 一种序列推荐方法及计算机可读存储介质
CN112256971B (zh) * 2020-10-29 2023-06-20 清华大学深圳国际研究生院 一种序列推荐方法及计算机可读存储介质
CN112257806B (zh) * 2020-10-30 2023-06-20 福建师范大学 一种面向异构用户的迁移学习方法
CN112257806A (zh) * 2020-10-30 2021-01-22 福建师范大学 一种面向异构用户的迁移学习方法
CN113704618B (zh) * 2021-08-31 2023-07-25 中国平安人寿保险股份有限公司 基于深度学习模型的数据处理方法、装置、设备及介质
CN113704618A (zh) * 2021-08-31 2021-11-26 中国平安人寿保险股份有限公司 基于深度学习模型的数据处理方法、装置、设备及介质

Also Published As

Publication number Publication date
CN110134868B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN110134868A (zh) 一种基于用户偏好异构性分析的推荐方法
CN110956497B (zh) 一种电子商务平台用户重复购买行为预测方法
CN107608956B (zh) 一种基于cnn-grnn的读者情绪分布预测算法
CN110287320B (zh) 一种结合注意力机制的深度学习多分类情感分析模型
TWI754033B (zh) 關注點文案的生成
CN106919951B (zh) 一种基于点击与视觉融合的弱监督双线性深度学习方法
CN109145112A (zh) 一种基于全局信息注意力机制的商品评论分类方法
CN108460619B (zh) 一种提供融合显隐式反馈的协同推荐模型的方法
CN109977413A (zh) 一种基于改进cnn-lda的情感分析方法
CN109508375A (zh) 一种基于多模态融合的社交情感分类方法
CN109753566A (zh) 基于卷积神经网络的跨领域情感分析的模型训练方法
CN111125530B (zh) 一种基于多类型特征深度学习的信息流推荐方法
CN108920641A (zh) 一种信息融合个性化推荐方法
CN110728541A (zh) 信息流媒体广告创意推荐方法及装置
CN111797321A (zh) 一种面向不同场景的个性化知识推荐方法及系统
CN111143705B (zh) 一种基于图卷积网络的推荐方法
CN110413769A (zh) 场景分类方法、装置、存储介质及其电子设备
CN109783794A (zh) 文本分类方法及装置
He et al. Collaborative additional variational autoencoder for top-N recommender systems
CN112131469A (zh) 一种基于评论文本的深度学习推荐方法
CN109325120A (zh) 一种分离用户和产品注意力机制的文本情感分类方法
CN110955826A (zh) 基于改进型循环神经网络单元的推荐系统
CN110210027A (zh) 基于集成学习的细粒度情感分析方法、装置、设备及介质
CN109189919B (zh) 文本多视角情感分类的方法、系统、终端及存储介质
CN110781401A (zh) 一种基于协同自回归流实现的Top-n项目推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant