CN112131469A - 一种基于评论文本的深度学习推荐方法 - Google Patents
一种基于评论文本的深度学习推荐方法 Download PDFInfo
- Publication number
- CN112131469A CN112131469A CN202011001987.0A CN202011001987A CN112131469A CN 112131469 A CN112131469 A CN 112131469A CN 202011001987 A CN202011001987 A CN 202011001987A CN 112131469 A CN112131469 A CN 112131469A
- Authority
- CN
- China
- Prior art keywords
- comment
- vector
- text
- user
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于评论文本的深度学习推荐方法,运用BERT模型得到用户和物品语义特征和特征向量矩阵;运用BLSTM模型,结合CNN对向量矩阵进行卷积、最大池化和全连接操作,分别得到用户特征和物品特征的最终表示;通过MLP全连接网络将得到的用户特征和物品特征表示的拼接作为输入,运用Top‑N排序,生成推荐列表。本发明运用BERT模型进行词嵌入特征提取,避免了一词多义的失配问题,BLSTM模型避免了单向LSTM无法获取从后向前的语义信息和对句子的表述缺乏完整性的问题,分别从正向和逆向进行句子的语义编码,获得更精准的句子向量表示,获得更精确的隐表示,通过CNN提取局部语义特征,进行有效的推荐。
Description
技术领域
本发明涉及文本分类推荐系统技术领域,尤其涉及一种基于文本分类的深度学习的个性化推荐方法。
背景技术
随着互联网技术的不断发展,用户对个性化推荐服务的要求越来越高。如何根据用户已有的评论及行为数据,挖掘用户喜好,成为互联网发展前景中的一大热门领域。
传统的基于评分的推荐算法已经无法满足用户的购物需求,在电商平台选购物品时,用户对物品的评论更能体现出用户的购物体验。评论文本包含了很多有价值的信息,很大程度上刻画了物品特征和用户体验感,电商平台可以利用推荐系统将物品特征和用户体验感匹配,产生质量高的推荐效果。本发明运用BERT模型分别对目标用户评论文本和待推荐物品评论文本做词嵌入处理,生成各自特征向量,将BLSTM学习的目标用户和待推荐物品的序列语义信息,并结合CNN对向量矩阵进行卷积、最大池化和全连接操作,分别得到用户特征和物品特征的最终表示;最后,通过MLP全连接网络将最终得到的用户特征和物品特征表示的拼接作为输入,经过多层映射后获取目标用户对物品的预测评分,根据得到的预测评分,生成推荐列表。在此基础上发明了基于评论文本的深度学习推荐方法。
在现有的推荐系统的特征提取中,一般没有考虑到一词多义的问题,另外也没有考虑词语在句子中的前后顺序,LSTM虽然可以实现对长文本的编码,但是无法编码到从后到前的信息,目前推荐系统中的特征提取主要面临以下几个问题:
(1)特征提取时一词多义的失配问题;
(2)单向LSTM无法获取从后向前的语义信息,对句子的表述缺乏完整性的问题。
发明内容
本发明目的就是为了弥补已有技术的缺陷,提供一种基于文本分类的深度学习的个性化推荐方法,通过BERT模型进行词嵌入特征提取,BLSTM模型分别从正向和逆向进行句子的语义编码,从而获得更精准的句子向量表示,通过那多层感知机得到用户对物品的偏好程度,进行个性化推荐,提高了分类的准确率和召回率。
本发明是通过以下技术方案实现的:
一种基于评论文本的深度学习推荐方法,具体包括以下步骤:
步骤1、使用BERT模型分别提取用户评论文本和物品评论文本的语义特征;
步骤2、使用BLSTM模型分别提取目标用户评论文本及待推荐物品特征向量的序列,并各自与CNN提取的特征,分别作为目标用户和待推荐物品的最终特征表示;
步骤3、使用MLP进行评分预测:将得到的用户特征和物品特征进行拼接,将得到的向量使用多层感知机网络将合向量作为输入,通过多层映射得到目标用户对待推荐物品的偏好程度;
步骤4、使用Top-N算法排序推荐:基于Top-N算法,根据目标用户对每个待推荐物品的偏好程度进行排序,排除用户已经购买物品,选择偏好程度高的生成推荐列表。
步骤1所述的使用BERT模型分别提取用户评论文本和物品评论文本的语义特征,具体步骤如下:
步骤1.1、从数据集中分别获取目标用户的所有评论文本和待推荐物品的所有评论文本,通过BERT模型自带的字典vocab.txt,将对应文本中每一个文字转换成字典索引,得到词语向量token embedding,多句话文本使用分段向量segment embedding区分每句话,并用[SEP]作为隔开的标志符号;
步骤1.2、构建位置标注position embedding,得到序列的位置信息,即BERT模型的输入input=token embedding+segment embedding+position embedding;
步骤1.3、经过大量语料的无监督学习,分别得到目标用户和待推荐物品评论文本的特征向量,输出均表示为同等维度的评论文本特征向量。
步骤2所述的使用BLSTM模型分别提取目标用户评论文本及待推荐物品特征向量的序列,并各自与CNN提取的特征,分别作为目标用户和待推荐物品的最终特征表示,具体步骤如下:
步骤2.1、使用BLSTM分别对用户和物品特征进行一次提取;
xi=σ(WxCi+bx),1≤i≤n (1)
评论文本输入BERT模型训练过后的评论文本特征向量:其中n是文本长度,dx是特征向量维度,bx是维度为dx的偏置向量,运用的激活函数是sigmoid函数,权重σ为参数,i门为评论文本条数,Ci表示输出的评论文本特征向量,R代表维度参数;
步骤2.1.2、LSTM的输入门为xt,输出门it,遗忘门ft具体表达式如式(1)、(2)、(3);
输出门it,Wih、Wix、bi为权重矩阵:
it=σ(Wihht-1+Wixxt+bi) (2)
遗忘门ft,Wfh、Wfx、bf为权重矩阵:
ft=σ(Wfhht-1+Wfxxt+bf) (3)
记忆单元中存储的为Ct具体表达式如式(4)、(5);
ht-1为上一时刻LSTM单元的输出,Ct-1为上一时刻的记忆单元中的存储,tanh为激活函数;
最后输出门输出记忆改变后的状态,具体表达式如式(6)、(7):
ot=σ(WOhht-1+WOxxt+bO) (6)
ht=ot·tanh(Ct) (7);
步骤2.1.3、BLSTM包含两层方向相反的神经网络结构,对于句子向量S,正序的网络学习是从x1到xn,逆序的网络学习是从xn到x1,具体表达式如式(8)、(9):
对于每一个输入的词向量xn,将正序网络学习的输出hL和逆序网络学习的输出hR进行拼接得到输出评论文本的语序特征向量hB,具体表达式如式(10):
步骤2.1.4、将相同用户ID的评论特征向量进行拼接得到特征向量hBU',将相同物品ID的评论特征向量进行拼接得到特征向量hBI';
步骤2.2、使用CNN分别对用户和物品特征进行二次提取:
步骤2.2.2、以h×dx的卷积核对文本信息进行特征提取,经过卷积运算得到特征值c=(c1,c2,...,cn),为减小全连接层的参数的影响,在池化层做最大池化操作,即提取特征值中的最大值为最主要的特征即即分别得到对应用户U的特征向量hCU,对应物品I的特征向量hCI;
步骤3所述的使用MLP进行评分预测,具体步骤如下:将得到的用户特征和物品特征,hU和hI进行拼接,得到向量使用多层感知机网络将合向量作为输入,通过多层映射得到目标用户对待推荐物品的偏好程度yi′,具体表达式如式(11):
nn表示多层感知机MLP。
本发明的优点是:1、本发明运用BERT模型进行词嵌入特征提取,避免了一词多义的失配问题;
2、本发明运用BLSTM模型避免了单向LSTM无法获取从后向前的语义信息,对句子的表述缺乏完整性的问题,分别从正向和逆向进行句子的语义编码,从而获得更精准的句子向量表示,获得更精确的隐表示;
3、本发明所通过CNN进行局部特征的提取处理,避免了语义丢失问题;
4、用户和物品特征的提取进行了并行处理,提高了模型的运行效率。
附图说明
图1为本发明BERT模型图。
图2为本发明BLSTM模型图。
图3为本发明MLP结构图。
图4为本发明基于评论文本的深度学习推荐模型图。
图5为本发明流程图。
具体实施方式
如图5所示,一种基于评论文本的深度学习推荐方法。运用BERT模型分别对用户评论文本和物品评论进行语义特征提取,得到用户和物品语义特征和特征向量矩阵;然后运用BLSTM模型,对用户与物品评论文本的语义特征进行序列化处理,并结合CNN对向量矩阵进行卷积、最大池化和全连接操作,分别得到用户特征和物品特征的最终表示;最后,通过MLP全连接网络将最终得到的用户特征和物品特征表示的拼接作为输入,经过多层映射后获取目标用户对物品的预测评分,针对得到的预测评分,运用Top-N排序,生成推荐列表。
如图4所示,本实施例中,一种基于评论文本的深度学习推荐方法,是按照如下步骤进行:
步骤1、使用BERT模型分别提取用户评论文本和物品评论文本的语义特征,BERT模型如图1所示:
步骤1.1、从数据集中分别获取目标用户的所有评论文本和待推荐物品的所有评论文本,通过BERT模型自带的字典vocab.txt,将对应文本中每一个文字转换成字典索引,得到词语向量token embedding,多句话文本使用分段向量segment embedding区分每句话,并用[SEP]作为隔开的标志符号;
步骤1.2、构建位置标注position embedding,得到序列的位置信息,即BERT模型的输入input=token embedding+segment embedding+position embedding;
步骤1.3、经过大量语料的无监督学习,分别得到目标用户和待推荐物品评论文本的特征向量,输出均表示为同等维度的评论文本特征向量(不同维度的向量参照最大维度进行补齐,一般用0填充)。
步骤2、使用BLSTM模型分别提取目标用户评论文本及待推荐物品特征向量的序列,并各自与CNN提取的特征,分别作为目标用户和待推荐物品的最终特征表示,BLSTM模型如图2所示:
步骤2.1、使用BLSTM分别对用户和物品特征进行一次提取
xi=σ(WxCi+bx),1≤i≤n (1)
步骤2.1.2、LSTM的输入门为xt,输出门it,遗忘门ft具体表达式如式(1)、(2)、(3);
输出门it,Wih、Wix、bi为权重矩阵:
it=σ(Wihht-1+Wixxt+bi) (2)
遗忘门ft,Wfh、Wfx、bf为权重矩阵:
ft=σ(Wfhht-1+Wfxxt+bf) (3)
记忆单元中存储的为Ct具体表达式如式(4)、(5);
ht-1为上一时刻LSTM单元的输出,Ct-1为上一时刻的记忆单元中的存储,tanh为激活函数;
最后输出门输出记忆改变后的状态,具体表达式如式(6)、(7):
ot=σ(WOhht-1+WOxxt+bO) (6)
ht=ot·tanh(Ct) (7)
步骤2.1.3、BLSTM包含两层方向相反的神经网络结构,对于句子向量S,正序的网络学习是从x1到xn,逆序的网络学习是从xn到x1,具体表达式如式(8)、(9):
对于每一个输入的词向量xn,将正序网络学习的输出hL和逆序网络学习的输出hR进行拼接得到输出评论文本的语序特征向量hB,具体表达式如式(10):
步骤2.1.4、将相同用户ID的评论特征向量进行拼接得到特征向量hBU',将相同物品ID的评论特征向量进行拼接得到特征向量hBI'。
步骤2.2、使用CNN分别对用户和物品特征进行二次提取:
步骤2.2.2、以h×dx的卷积核对文本信息进行特征提取,经过卷积运算得到特征值c=(c1,c2,...,cn)。为减小全连接层的参数的影响,在池化层做最大池化操作,即提取特征值中的最大值为最主要的特征即即可分别得到对应用户U的特征向量hCU,对应物品I的特征向量hCI;
步骤3、使用MLP进行评分预测,MLP模型如图3所示:
nn表示多层感知机(MLP)。
步骤4、使用Top-N算法排序推荐:
基于Top-N算法,根据目标用户对每个待推荐物品(排除用户已经购买物品)的偏好程度进行排序,选择偏好程度高的前n个生成推荐列表。
Claims (4)
1.一种基于评论文本的深度学习推荐方法,其特征在于:具体包括以下步骤:
步骤1、使用BERT模型分别提取用户评论文本和物品评论文本的语义特征;
步骤2、使用BLSTM模型分别提取目标用户评论文本及待推荐物品特征向量的序列,并各自与CNN提取的特征,分别作为目标用户和待推荐物品的最终特征表示;
步骤3、使用MLP进行评分预测:将得到的用户特征和物品特征进行拼接,将得到的向量使用多层感知机网络将合向量作为输入,通过多层映射得到目标用户对待推荐物品的偏好程度;
步骤4、使用Top-N算法排序推荐:基于Top-N算法,根据目标用户对每个待推荐物品的偏好程度进行排序,排除用户已经购买物品,选择偏好程度高的生成推荐列表。
2.根据权利要求1所述的一种基于评论文本的深度学习推荐方法,其特征在于:步骤1所述的使用BERT模型分别提取用户评论文本和物品评论文本的语义特征,具体步骤如下:
步骤1.1、从数据集中分别获取目标用户的所有评论文本和待推荐物品的所有评论文本,通过BERT模型自带的字典vocab.txt,将对应文本中每一个文字转换成字典索引,得到词语向量token embedding,多句话文本使用分段向量segment embedding区分每句话,并用[SEP]作为隔开的标志符号;
步骤1.2、构建位置标注position embedding,得到序列的位置信息,即BERT模型的输入input=token embedding+segment embedding+position embedding;
步骤1.3、经过大量语料的无监督学习,分别得到目标用户和待推荐物品评论文本的特征向量,输出均表示为同等维度的评论文本特征向量。
3.根据权利要求2所述的一种基于评论文本的深度学习推荐方法,其特征在于:步骤2所述的使用BLSTM模型分别提取目标用户评论文本及待推荐物品特征向量的序列,并各自与CNN提取的特征,分别作为目标用户和待推荐物品的最终特征表示,具体步骤如下:
步骤2.1、使用BLSTM分别对用户和物品特征进行一次提取;
xi=σ(WxCi+bx),1≤i≤n (1)
评论文本输入BERT模型训练过后的评论文本特征向量:其中n是文本长度,dx是特征向量维度,bx是维度为dx的偏置向量,运用的激活函数是sigmoid函数,权重σ为参数,i门为评论文本条数,Ci表示输出的评论文本特征向量,R代表维度参数;
步骤2.1.2、LSTM的输入门为xt,输出门it,遗忘门ft具体表达式如式(1)、(2)、(3);
输出门it,Wih、Wix、bi为权重矩阵:
it=σ(Wihht-1+Wixxt+bi) (2)
遗忘门ft,Wfh、Wfx、bf为权重矩阵:
ft=σ(Wfhht-1+Wfxxt+bf) (3)
记忆单元中存储的为Ct具体表达式如式(4)、(5);
ht-1为上一时刻LSTM单元的输出,Ct-1为上一时刻的记忆单元中的存储,tanh为激活函数;
最后输出门输出记忆改变后的状态,具体表达式如式(6)、(7):
ot=σ(WOhht-1+WOxxt+bO) (6)
ht=ot·tanh(Ct) (7);
步骤2.1.3、BLSTM包含两层方向相反的神经网络结构,对于句子向量S,正序的网络学习是从x1到xn,逆序的网络学习是从xn到x1,具体表达式如式(8)、(9):
对于每一个输入的词向量xn,将正序网络学习的输出hL和逆序网络学习的输出hR进行拼接得到输出评论文本的语序特征向量hB,具体表达式如式(10):
步骤2.1.4、将相同用户ID的评论特征向量进行拼接得到特征向量hBU’,将相同物品ID的评论特征向量进行拼接得到特征向量hBI’;
步骤2.2、使用CNN分别对用户和物品特征进行二次提取:
步骤2.2.2、以h×dx的卷积核对文本信息进行特征提取,经过卷积运算得到特征值c=(c1,c2,...,cn),为减小全连接层的参数的影响,在池化层做最大池化操作,即提取特征值中的最大值为最主要的特征即即分别得到对应用户U的特征向量hCU,对应物品I的特征向量hCI;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001987.0A CN112131469A (zh) | 2020-09-22 | 2020-09-22 | 一种基于评论文本的深度学习推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001987.0A CN112131469A (zh) | 2020-09-22 | 2020-09-22 | 一种基于评论文本的深度学习推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112131469A true CN112131469A (zh) | 2020-12-25 |
Family
ID=73842333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011001987.0A Pending CN112131469A (zh) | 2020-09-22 | 2020-09-22 | 一种基于评论文本的深度学习推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112131469A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112650929A (zh) * | 2020-12-31 | 2021-04-13 | 安徽农业大学 | 一种融入评论信息的图神经网络推荐方法 |
CN112836520A (zh) * | 2021-02-19 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 基于用户特征生成用户描述文本的方法和装置 |
CN112948677A (zh) * | 2021-02-26 | 2021-06-11 | 上海携旅信息技术有限公司 | 基于点评美感度的推荐理由确定方法、系统、设备及介质 |
CN112989187A (zh) * | 2021-02-25 | 2021-06-18 | 平安科技(深圳)有限公司 | 创作素材的推荐方法、装置、计算机设备及存储介质 |
CN113516533A (zh) * | 2021-06-24 | 2021-10-19 | 平安科技(深圳)有限公司 | 基于改进bert模型的产品推荐方法、装置、设备及介质 |
CN113743081A (zh) * | 2021-09-03 | 2021-12-03 | 西安邮电大学 | 技术服务信息的推荐方法 |
CN115238671A (zh) * | 2022-09-22 | 2022-10-25 | 四川大学 | 一种基于语法特征和集成策略的抗干扰检测方法 |
CN117195890A (zh) * | 2023-11-07 | 2023-12-08 | 成都航空职业技术学院 | 一种基于机器学习的文本推荐方法 |
CN117194652A (zh) * | 2023-11-08 | 2023-12-08 | 泸州友信达智能科技有限公司 | 一种基于深度学习的信息推荐系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704563A (zh) * | 2017-09-29 | 2018-02-16 | 广州多益网络股份有限公司 | 一种问句推荐方法及系统 |
CN109885756A (zh) * | 2018-12-18 | 2019-06-14 | 湖南大学 | 基于cnn和rnn的序列化推荐方法 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
US20190392815A1 (en) * | 2018-06-22 | 2019-12-26 | Genesys Telecommunications Laboratories, Inc. | System and method for f0 transfer learning for improving f0 prediction with deep neural network models |
CN110795944A (zh) * | 2019-10-11 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 推荐内容处理方法及装置、情感属性确定方法及装置 |
CN111221939A (zh) * | 2019-11-22 | 2020-06-02 | 华中师范大学 | 评分方法、装置和电子设备 |
CN111582443A (zh) * | 2020-04-22 | 2020-08-25 | 成都信息工程大学 | 一种基于Mask机制和层次注意力机制的推荐方法 |
CN111581401A (zh) * | 2020-05-06 | 2020-08-25 | 西安交通大学 | 一种基于深度相关性匹配的局部引文推荐系统及方法 |
-
2020
- 2020-09-22 CN CN202011001987.0A patent/CN112131469A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704563A (zh) * | 2017-09-29 | 2018-02-16 | 广州多益网络股份有限公司 | 一种问句推荐方法及系统 |
US20190392815A1 (en) * | 2018-06-22 | 2019-12-26 | Genesys Telecommunications Laboratories, Inc. | System and method for f0 transfer learning for improving f0 prediction with deep neural network models |
CN109885756A (zh) * | 2018-12-18 | 2019-06-14 | 湖南大学 | 基于cnn和rnn的序列化推荐方法 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN110795944A (zh) * | 2019-10-11 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 推荐内容处理方法及装置、情感属性确定方法及装置 |
CN111221939A (zh) * | 2019-11-22 | 2020-06-02 | 华中师范大学 | 评分方法、装置和电子设备 |
CN111582443A (zh) * | 2020-04-22 | 2020-08-25 | 成都信息工程大学 | 一种基于Mask机制和层次注意力机制的推荐方法 |
CN111581401A (zh) * | 2020-05-06 | 2020-08-25 | 西安交通大学 | 一种基于深度相关性匹配的局部引文推荐系统及方法 |
Non-Patent Citations (2)
Title |
---|
ACHKAR R: "Comparison of BPA-MLP and LSTM-RNN for Stocks Prediction", 《2018 6TH INTERNATIONAL SYMPOSIUM ON COMPUTATION AND BUSINESS INTELLIGENCE》 * |
韩思宇: "基于评论数据的情感强度研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112650929A (zh) * | 2020-12-31 | 2021-04-13 | 安徽农业大学 | 一种融入评论信息的图神经网络推荐方法 |
CN112836520A (zh) * | 2021-02-19 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 基于用户特征生成用户描述文本的方法和装置 |
CN112989187A (zh) * | 2021-02-25 | 2021-06-18 | 平安科技(深圳)有限公司 | 创作素材的推荐方法、装置、计算机设备及存储介质 |
CN112948677A (zh) * | 2021-02-26 | 2021-06-11 | 上海携旅信息技术有限公司 | 基于点评美感度的推荐理由确定方法、系统、设备及介质 |
CN112948677B (zh) * | 2021-02-26 | 2023-11-03 | 上海携旅信息技术有限公司 | 基于点评美感度的推荐理由确定方法、系统、设备及介质 |
CN113516533A (zh) * | 2021-06-24 | 2021-10-19 | 平安科技(深圳)有限公司 | 基于改进bert模型的产品推荐方法、装置、设备及介质 |
CN113743081A (zh) * | 2021-09-03 | 2021-12-03 | 西安邮电大学 | 技术服务信息的推荐方法 |
CN115238671A (zh) * | 2022-09-22 | 2022-10-25 | 四川大学 | 一种基于语法特征和集成策略的抗干扰检测方法 |
CN117195890A (zh) * | 2023-11-07 | 2023-12-08 | 成都航空职业技术学院 | 一种基于机器学习的文本推荐方法 |
CN117195890B (zh) * | 2023-11-07 | 2024-01-26 | 成都航空职业技术学院 | 一种基于机器学习的文本推荐方法 |
CN117194652A (zh) * | 2023-11-08 | 2023-12-08 | 泸州友信达智能科技有限公司 | 一种基于深度学习的信息推荐系统 |
CN117194652B (zh) * | 2023-11-08 | 2024-01-23 | 泸州友信达智能科技有限公司 | 一种基于深度学习的信息推荐系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112131469A (zh) | 一种基于评论文本的深度学习推荐方法 | |
CN110162636B (zh) | 基于d-lstm的情绪原因识别方法 | |
CN107291693B (zh) | 一种改进词向量模型的语义计算方法 | |
CN109933664B (zh) | 一种基于情感词嵌入的细粒度情绪分析改进方法 | |
CN108363695B (zh) | 一种基于双向依赖语法树表征的用户评论属性抽取方法 | |
CN108009148B (zh) | 基于深度学习的文本情感分类表示方法 | |
CN109977413A (zh) | 一种基于改进cnn-lda的情感分析方法 | |
JP2020520505A (ja) | 文脈固有の単語ベクトルを用いた自然言語処理 | |
CN111027595B (zh) | 双阶段语义词向量生成方法 | |
Wen et al. | Dynamic interactive multiview memory network for emotion recognition in conversation | |
CN108959482A (zh) | 基于深度学习的单轮对话数据分类方法、装置和电子设备 | |
CN111078833B (zh) | 一种基于神经网络的文本分类方法 | |
CN110826338B (zh) | 一种单选择门与类间度量的细粒度语义相似识别的方法 | |
Li et al. | Sentiment infomation based model for chinese text sentiment analysis | |
CN111274398A (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
Hrga et al. | Deep image captioning: An overview | |
CN111325571A (zh) | 一种多任务学习的商品评论标签自动生成方法、装置及系统 | |
Huang et al. | C-Rnn: a fine-grained language model for image captioning | |
CN112231478A (zh) | 基于bert和多层注意力机制的方面级情感分类方法 | |
Chaudhuri | Visual and text sentiment analysis through hierarchical deep learning networks | |
CN111985548A (zh) | 一种标签引导的跨模态深度哈希方法 | |
Senthilkumar et al. | An AI-based chatbot using deep learning | |
CN113947074A (zh) | 一种深度协同交互的情感原因联合抽取方法 | |
CN112364236A (zh) | 目标对象推荐系统、方法、装置、数据处理方法及装置 | |
CN113627550A (zh) | 一种基于多模态融合的图文情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201225 |