CN106383815B - 结合用户和产品信息的神经网络情感分析方法 - Google Patents
结合用户和产品信息的神经网络情感分析方法 Download PDFInfo
- Publication number
- CN106383815B CN106383815B CN201610835712.4A CN201610835712A CN106383815B CN 106383815 B CN106383815 B CN 106383815B CN 201610835712 A CN201610835712 A CN 201610835712A CN 106383815 B CN106383815 B CN 106383815B
- Authority
- CN
- China
- Prior art keywords
- vector
- sentence
- text
- semantic
- text chunk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 46
- 238000004458 analytical method Methods 0.000 title claims abstract description 32
- 239000013598 vector Substances 0.000 claims abstract description 138
- 230000002996 emotional effect Effects 0.000 claims abstract description 45
- 230000002708 enhancing effect Effects 0.000 claims abstract description 33
- 230000007787 long-term memory Effects 0.000 claims abstract description 15
- 230000008451 emotion Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 9
- 230000017105 transposition Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 2
- 238000013145 classification model Methods 0.000 abstract description 6
- 238000010276 construction Methods 0.000 abstract 1
- 238000005034 decoration Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 235000004348 Perilla frutescens Nutrition 0.000 description 1
- 244000124853 Perilla frutescens Species 0.000 description 1
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种结合用户和产品信息的神经网络情感分析方法,包括:获取待分析的文本段信息、用户信息和待评目标信息;根据文本段信息和长短期记忆神经网络模型构建句子、文本段的语义向量;根据句子和文本段的语义向量,以及用户信息和待评目标信息获得句子和文本段的增强向量;根据文本段的增强向量获得文本段的情感分类。本发明提供的结合用户和产品信息的神经网络情感分析方法,通过结合用户和产品的信息,提出了一个有效的神经网络情感分类模型。在文本的词语层级和句子层级分别结合了用户和产品的特征信息引入注意力机制,使得情感分类性能大大提升。
Description
技术领域
本发明涉及自然语言处理以及情感分析领域,尤其涉及一种基于注意力机制结合用户和产品信息的神经网络情感分析模型。
背景技术
情感分析任务旨在通过人们的语言文字分析人们所表达的情感或者挖掘“用户”的意见,是数据挖掘领域和自然语言处理领域的一项重要任务。近年来,由于互联网评论网站的快速成长,评论文本数据海量出现,情感分析任务吸引了越来越多研究者的注意。
本发明解决的重点问题是情感分析任务中的情感分类任务。情感分类任务从文本的结构角度划分,可以分为三个级别:词语级别、句子级别、文本段级别。词语级别的情感分类主要是对给定词语的情感极性划分,例如“积极”、“消极”或者不同等级情感强度;句子级别情感分类是对给定的一句话预测其情感倾向;文本段级别情感分类是对用户所表达的完整文本段进行情感倾向预测。文本段级别情感分类是情感分类任务中至关重要的一个环节,因为“用户”表达的“评论”经常是以文本段的形式出现,所以文本段级别的情感分类具有更广阔的应用价值;同时大量词语级别和句子级别情感分类研究的最终目的也是为了预测文本段级别的情感倾向。文本段级别的情感分类任务假设一段“评论”是一个特定“用户”表达的对一个特定“产品”的情感,同时,这里所提及的“评论”、“用户”、“产品”都是一个形象化的称呼,“评论”可以指任意类型文本段,“用户”指文本段的生成者,“产品”指文本段描述的目标。
现阶段大多数工作都把情感分类任务看作文本分类任务的一个特殊任务。这些工作把不同的情感极性或者情感强度视为不同的分类,随后采用机器学习算法提取相应特征如“词袋”向量,训练分类器对文本段进行情感分类。由于分类器的性能强烈依赖于所提取特征的质量,所以这类研究的重心基本都放在如何从文本或者外部的情感词典提取更行之有效的特征。
近些年来深度神经网络模型在计算机视觉、语音识别和自然语言处理领域得到了成功的应用,一些研究者受此启发,将神经网络应用到了情感分析领域,提出了基于神经网络的情感分析模型,这种模型能够自主学习文本的低维特征向量,不需要额外的特征提取环节。目前的大多数此类神经网络情感分析模型把一句话或者一段文本作为事先构建好的神经网络的输入,随之即生成这句话或者这段文本的语义特征向量。但是这样的神经网络情感分类模型只利用了文本信息,忽略了重要的用户和产品特征信息,而用户和产品的特征属性往往对预测文本的情感强度具有重大的意义。
为了在情感分类任务中吸收用户和产品的信息,现有工作在神经网络中把每个用户和产品表示成一个文本修饰矩阵和表示向量,在词向量输入层利用用户和产品的文本修饰矩阵修正每个词语的向量表示,在文本表示输出层将文本表示向量与用户、产品表示向量级联生成新的文本表示向量,作为文本特征向量进行分类。这种策略一定程度上提升了预测文本段情感分类任务的性能,但是依然存在着一些问题:(1)每个用户和产品的文本修饰矩阵在有限的数据下很难被训练完全。尽管网络上拥有着海量评论数据,但对于单一的用户而言,用户的评论数据往往只有几十条左右,这种小量级的数据很容易导致文本修饰矩阵训练得不充分。(2)这种方法只在词语层的情感倾向判断上利用了用户和产品信息的特征属性,而用户和产品的特征属性往往不仅反映在词语层面,也反映在句子层面。例如,在Yelp数据上的一条两星商铺评论(Yelp评论打分为五星制,星级越高表示越满意),“一个很好的吃牛排的地方,我是这里夏威夷披萨的忠实粉丝…但是我不想为两个人的晚餐花费100美元”,我们可以发现,这条评论收获两星差评的主要原因来源于后一句“但是我不想为两个人的晚餐花费100美元”的情感倾向,而与前一句的情感倾向相关性不大。
综上所述,神经网络模型在情感分析领域,尤其是情感分类任务上取得了良好的效果,但是如何在神经网络情感分类模型中更行之有效地吸收用户和产品特征信息,以得到更准确的情感分类结果依然是一个十分重要的待解决问题。
发明内容
本发明提供一种结合用户和产品信息的神经网络情感分析方法,用于解决现有技术中不能很好的在神经网络情感分类模型中更行之有效地吸收用户和产品特征信息,以得到更准确的情感分类结果的问题。
本发明提供一种结合用户和产品信息的神经网络情感分析方法,包括:
获取待分析的文本段信息、用户信息和待评目标信息;
根据所述文本段信息和长短期记忆神经网络模型在词语层面、句子层面上构建句子、文本段的语义向量;根据所述句子和文本段的语义向量,以及用户信息和待评目标信息获得句子和文本段的增强向量;
根据文本段的增强向量获得文本段的情感分类。
优选地,所述根据所述文本段信息和长短期记忆神经网络模型在词语层面、句子层面上构建句子、文本段的语义向量,包括:
采用文本深度表示模型在相应领域文本语料库中训练语言模型获得词向量;
根据所述词向量和语义分析算式获得句子的语义向量,所述语义分析算法为:
每一步给定当前输入词向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,i,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmoid函数,W和b表示待训练的参数;为词向量,将得到的隐状态通过一个平均池化层得到当前句子的语义向量;
根据所述句子的语义向量和语义分析算式获得文本段的语义向量,所述语义分析算法为:
每一步给定当前输入句子的语义向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,i,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmoid函数,W和b表示待训练的参数;为句子的语义向量,将得到的隐状态通过一个平均池化层得到文本段的语义向量。
优选地,所述根据所述句子和文本段的语义向量,以及用户信息和待评目标信息获得句子和文本段的增强向量,包括:
根据用户信息和待评目标信息分别映射获得用户特征向量和目标特征向量;
根据用户特征向量和目标特征向量和关键词语的重要性参数值获得句子的增强向量,具体为:
其中,表示句子中第j个词的重要性参数值;表示词向量的隐状态;si表示句子的增强向量;
根据用户特征向量和目标特征向量、关键句子的重要性参数值和句子的增强向量获得文本段的增强向量,具体为:
其中,βi表示句子中第j个句子的重要性参数值;si表示句子增强向量的隐状态;d表示文本段的增强向量
优选地,
其中,WH、WU和WP是词语层级神经网络的权重矩阵,v是权重向量,vT表示v的转置;用户特征向量和目标特征向量u、p;b表示待训练的参数。
优选地,
e(si,u,p)=vTtanh(WHsi+WUu+WPp+b)
其中,WH、WU和WP是句子层级神经网络的权重矩阵,v是权重向量,vT表示v的转置;用户特征向量和目标特征向量u、p;b表示待训练的参数。
优选地,所述根据文本段的增强向量获得文本段的情感分类并输出显示,包括:
将获得的文本段的增强向量作为情感分类特征,并映射到预测目标空间的多个预设情感分类上:
其中,为情感分类映射特征,Wc为线性矩阵,bc为偏移向量;
采用softmax层计算文本段在每个情感分类上的概率:
其中pc为文本段在情感分类c上的预测概率,C为情感分类类别的数量。
优选地,还包括:通过随机梯度下降,最小化评价函数,对所有参数进行学习与更新;
所述评价函数为预测情感分布和实际情感分布之间的交叉熵,
其中为实际情感分布,当文本段的实际情感恰为分类c时,其值为1,否则为0,D表示训练文本语料库。
由上述技术方案可知,本发明提供的一种结合用户和产品信息的神经网络情感分析方法,通过结合用户和产品的信息,提出了一个有效的神经网络情感分类模型。在文本的词语层级和句子层级分别结合了用户和产品的特征信息引入注意力机制,使得情感分类性能大大提升。
附图说明
图1为本发明一实施例提供的结合用户和产品信息的神经网络情感分析方法的流程示意图;
图2为本发明一实施例提供的结合用户和产品信息的神经网络情感分析方法的层次结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
图1示出了本发明实施例提供一种结合用户和产品信息的神经网络情感分析方法,包括:
S11、获取待分析的文本段信息、用户信息和待评目标信息。
在本步骤中,需要说明的是,用户信息为对待评目标进行评价的用户的基本信息。可包括注册信息、评价历史信息、兴趣爱好信息等。待评目标信息为用户所进行评价的目标的基本信息。待评目标可为产品,基本信息可为产品名称、产品类型、产品质量等。待分析的文本段信息为用户对待评目标的评价语句。
S12、根据所述文本段信息和长短期记忆神经网络模型在词语层面、句子层面上构建句子、文本段的语义向量。
在本步骤中,需要说明的是,如图2所示,首先定义一个文本段d包含n个句子{S1,S2,…,Sn}。li表示文本段中第i个句子的长度。第i个句子Si包括li个单词,分别为
在词语层级,首先把文本段中每一个句子的每一个词映射为一个低维连续向量。采用文本深度表示模型(如word2vec)将文本段中的句子进行表征获得词向量。word2vec是一个将单词转换成向量形式的工具。可以把对文本内容的处理简化为向量空间中的向量运算,计算出向量空间上的相似度,来表示文本语义上的相似度。
根据词向量和语义分析算式获得句子的语义向量。把文本段中的每一句话中的词向量当作一个长短期记忆神经网络的输入,得到每一句话的语义向量表示。语义分析算式具体为:
每一步给定当前输入词向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,i,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmoid函数,W和b表示待训练的参数;为词向量,将得到的隐状态通过一个平均池化层得到当前句子的语义向量。
根据所述句子的语义向量和语义分析算式获得文本段的语义向量。把句子的语义向量当作句子层级长短期神经网络的输入,在得到每一步的隐状态输出之后同样通过一个池化层得到文本段的语义向量表示d。具体如下:
每一步给定当前输入句子的语义向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,i,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmoid函数,W和b表示待训练的参数;为句子的语义向量,将得到的隐状态通过一个平均池化层得到文本段的语义向量。
S13、根据所述句子和文本段的语义向量,以及用户信息和待评目标信息获得句子和文本段的增强向量。
在本步骤中,需要说明的是,对于不同的用户和不同的产品,很直观地可以想到,在词语层级,每一个单词对构建句子表示的贡献是不同的,在句子层级,每一个句子对构建文本段表示的贡献也是不同的,因此,使用注意力机制来得到每一个词语对句子表示的重要程度,每一个句子对文本段表示的重要程度。首先,根据用户信息和待评目标信息分别映射获得用户特征向量和目标特征向量,把每一个用户和产品分别映射为一个低维连续向量u和p,初始化为随机向量,并在训练过程中不断对其进行更新。
在词语层级,根据用户特征向量和目标特征向量、关键词语的重要性参数值获得句子的增强向量。用表示对于当前用户、产品,句子中第j个词的重要性参数值,则句子的增强向量表示通过词语层相应句子的长短期神经网络的所有隐状态加权平均得到:
结合用户和产品特征向量u和p,对组成句子的每一个单词定义一个打分函数以衡量每个单词的重要程度,打分函数具体形式如下:
这里WH、WU和WP是神经网络的权重矩阵,v是权重向量,vT表示v的转置。那么通过选择注意力机制可定义词语层长短期记忆神经网络每一个隐状态的权重如下:
由此,便可根据上述的加权平均策略获得每一个句子的增强向量表示。
在句子层级,根据用户特征向量和目标特征向量、关键句子的重要性参数值和句子的增强向量获得文本段的增强向量,具体为:
其中,βi表示句子中第j个句子的重要性参数值;si表示句子增强向量的隐状态;d表示文本段的增强向量。
结合用户和产品特征向量u和p,对组成句子的每一个单词定义一个打分函数以衡量每个单词的重要程度,打分函数具体形式如下:
e(si,u,i)=vTtanh(WHsi+WUu+WPp+b)
这里WH、WU和WP是神经网络的权重矩阵,v是权重向量,vT表示v的转置。那么通过选择注意力机制可定义词语层长短期记忆神经网络每一个隐状态的权重βi如下:
由此,便可根据上述的加权平均策略获得每一个文本段的增强向量表示。
S15、根据文本段的增强向量获得文本段的情感分类。
所述根据文本段的增强向量获得文本段的情感分类,包括:
将获得的文本段的增强向量d作为情感分类特征,使用一个非线性层将d映射到预测目标空间C个情感分类上,如下所示:
之后使用一个softmax层计算文本段在每个情感分类上的概率,如下所示:
其中pc为文本段在情感分类c上的预测概率,C为情感分类类别的数量。由此,我们获得了待分类文本段的情感分布。
通过随机梯度下降,最小化评价函数,对所有参数进行学习与更新。
具体地,通过最小化评价函数学习所有的参数,定义评价函数为预测情感分布和实际情感分布(即答案)之间的交叉熵,如下所示:
其中为实际情感分布,当文本段的实际情感恰为分类c时,其值为1,否则为0,D表示训练文本语料库。我们采用随机梯度下降算法对模型中的所有参数进行更新优化。
本发明实施例提供的一种结合用户和产品信息的神经网络情感分析方法,通过结合用户和产品的信息,提出了一个有效的神经网络情感分类模型。在文本的词语层级和句子层级分别结合了用户和产品的特征信息引入注意力机制,使得情感分类性能大大提升。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
本领域普通技术人员可以理解:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (5)
1.一种结合用户和产品信息的神经网络情感分析方法,其特征在于,包括:
获取待分析的文本段信息、用户信息和待评目标信息;
根据所述文本段信息和长短期记忆神经网络模型在词语层面、句子层面上构建句子和文本段的语义向量;
根据所述句子和文本段的语义向量,以及用户信息和待评目标信息获得句子和文本段的增强向量;
根据文本段的增强向量获得文本段的情感分类并输出显示;
其中,所述根据所述文本段信息和长短期记忆神经网络模型在词语层面、句子层面上构建句子和文本段的语义向量,包括:
采用文本深度表示模型在相应领域文本语料库中训练语言模型获得词向量;
根据所述词向量和语义分析算式获得句子的语义向量,所述语义分析算式为:
每一步给定当前输入词向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,i,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmoid函数,W和b表示待训练的参数;为词向量,将得到的隐状态通过一个平均池化层得到当前句子的语义向量;
根据所述句子的语义向量和语义分析算式获得文本段的语义向量,所述语义分析算式为:
每一步给定当前输入句子的语义向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,i,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmoid函数,W和b表示待训练的参数;为句子的语义向量,将得到的隐状态通过一个平均池化层得到文本段的语义向量。
2.根据权利要求1所述的方法,其特征在于,所述根据所述句子和文本段的语义向量,以及用户信息和待评目标信息获得句子和文本段的增强向量,包括:
根据用户信息和待评目标信息分别映射获得用户特征向量和目标特征向量;
根据用户特征向量和目标特征向量和关键词语的重要性参数值获得句子的增强向量,具体为:
其中,表示句子中第j个词的重要性参数值;表示词向量的隐状态;si表示句子的增强向量;
根据用户特征向量和目标特征向量、关键句子的重要性参数值和句子的增强向量获得文本段的增强向量,具体为:
其中,βi表示句子中第j个句子的重要性参数值;si表示句子增强向量;d表示文本段的增强向量。
3.根据权利要求2所述的方法,其特征在于,
其中,WH、WU和WP是词语层级神经网络的权重矩阵,v是权重向量,vT表示v的转置;用户特征向量和目标特征向量u、p;b表示待训练的参数;
e(si,u,p)=vTtanh(WHsi+WUu+WPp+b)
其中,WH、WU和WP是句子层级神经网络的权重矩阵,v是权重向量,vT表示v的转置;u、p分别表示用户特征向量和目标特征向量;b表示待训练的参数。
4.根据权利要求3所述的方法,其特征在于,所述根据文本段的增强向量获得文本段的情感分类并输出显示,包括:
将获得的文本段的增强向量作为情感分类特征,并映射到预测目标空间的多个预设情感分类上:
其中,为情感分类映射特征,Wc为线性矩阵,bc为偏移向量;
采用softmax层计算文本段在每个情感分类上的概率:
其中pc为文本段在情感分类c上的预测概率,C为情感分类类别的数量。
5.根据权利要求4所述的方法,其特征在于,还包括:通过随机梯度下降,最小化评价函数,对所有参数进行学习与更新;
所述评价函数为预测情感分布和实际情感分布之间的交叉熵,
其中为实际情感分布,当文本段的实际情感恰为分类c时,其值为1,否则为0,D表示训练文本语料库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610835712.4A CN106383815B (zh) | 2016-09-20 | 2016-09-20 | 结合用户和产品信息的神经网络情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610835712.4A CN106383815B (zh) | 2016-09-20 | 2016-09-20 | 结合用户和产品信息的神经网络情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106383815A CN106383815A (zh) | 2017-02-08 |
CN106383815B true CN106383815B (zh) | 2019-03-01 |
Family
ID=57936651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610835712.4A Active CN106383815B (zh) | 2016-09-20 | 2016-09-20 | 结合用户和产品信息的神经网络情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106383815B (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733666B (zh) * | 2017-04-13 | 2022-03-08 | 腾讯科技(深圳)有限公司 | 服务器信息推送方法、终端信息发送方法及装置、系统 |
CN108733675B (zh) * | 2017-04-14 | 2021-04-09 | 北大方正集团有限公司 | 基于大量样本数据的情感评价方法及装置 |
CN107133224B (zh) * | 2017-04-25 | 2020-11-03 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN107133211B (zh) * | 2017-04-26 | 2020-06-16 | 中国人民大学 | 一种基于注意力机制的作文评分方法 |
CN107256228A (zh) * | 2017-05-02 | 2017-10-17 | 清华大学 | 基于结构化注意力机制的答案选择系统及方法 |
CN107368524B (zh) | 2017-06-07 | 2020-06-02 | 创新先进技术有限公司 | 一种对话生成方法、装置以及电子设备 |
RU2020109236A (ru) * | 2017-08-03 | 2021-09-03 | Конинклейке Филипс Н.В. | Иерархические нейронные сети с грануляризированным вниманием |
CN107515855B (zh) * | 2017-08-18 | 2021-02-12 | 武汉红茶数据技术有限公司 | 一种结合表情符的微博情感分析方法和系统 |
CN110019788A (zh) * | 2017-09-30 | 2019-07-16 | 北京国双科技有限公司 | 文本分类方法及装置 |
CN107766506A (zh) * | 2017-10-20 | 2018-03-06 | 哈尔滨工业大学 | 一种基于层次化注意力机制的多轮对话模型构建方法 |
CN107944915B (zh) * | 2017-11-21 | 2022-01-18 | 北京字节跳动网络技术有限公司 | 一种游戏用户行为分析方法及计算机可读存储介质 |
CN108388554B (zh) * | 2018-01-04 | 2021-09-28 | 中国科学院自动化研究所 | 基于协同过滤注意力机制的文本情感识别系统 |
CN108460015A (zh) * | 2018-02-08 | 2018-08-28 | 合肥工业大学 | 文本情感分类数据增强分析方法 |
CN108460019A (zh) * | 2018-02-28 | 2018-08-28 | 福州大学 | 一种基于注意力机制的新兴热点话题检测系统 |
CN108595629B (zh) * | 2018-04-24 | 2021-08-06 | 北京慧闻科技发展有限公司 | 用于答案选择系统的数据处理方法及应用 |
CN108614815A (zh) * | 2018-05-07 | 2018-10-02 | 华东师范大学 | 句子交互方法和装置 |
CN108829672A (zh) * | 2018-06-05 | 2018-11-16 | 平安科技(深圳)有限公司 | 文本的情感分析方法、装置、计算机设备和存储介质 |
CN110209806B (zh) * | 2018-06-05 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 文本分类方法、文本分类装置及计算机可读存储介质 |
CN109241993B (zh) * | 2018-07-26 | 2021-10-26 | 中国科学院自动化研究所 | 融合用户和整体评价信息的评价对象情感分类方法及装置 |
CN109145112B (zh) * | 2018-08-06 | 2021-08-06 | 北京航空航天大学 | 一种基于全局信息注意力机制的商品评论分类方法 |
CN109491641B (zh) * | 2018-10-25 | 2021-09-17 | 广西大学 | 一种产品运行管理数据模型的构建方法 |
CN109901896A (zh) * | 2018-12-06 | 2019-06-18 | 华为技术有限公司 | 一种人机交互系统及人机交互系统中多任务处理方法 |
CN109801706B (zh) * | 2018-12-12 | 2020-11-10 | 清华大学 | 心理压力问题的感知方法及装置 |
CN109697657A (zh) * | 2018-12-27 | 2019-04-30 | 厦门快商通信息技术有限公司 | 一种餐饮推荐方法、服务器及存储介质 |
CN109829168A (zh) * | 2018-12-29 | 2019-05-31 | 深兰科技(上海)有限公司 | 一种情感分析方法、装置、电子设备及存储介质 |
CN109858034B (zh) * | 2019-02-25 | 2023-02-03 | 武汉大学 | 一种基于注意力模型和情感词典的文本情感分类方法 |
CN110147452B (zh) * | 2019-05-17 | 2022-03-01 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN110287326A (zh) * | 2019-07-03 | 2019-09-27 | 上海冰鉴信息科技有限公司 | 一种带背景描述的企业情感分析方法 |
CN110717325B (zh) * | 2019-09-04 | 2020-11-13 | 北京三快在线科技有限公司 | 文本的情感分析方法、装置、电子设备及存储介质 |
CN111222344B (zh) * | 2020-01-03 | 2023-07-18 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN111767740A (zh) * | 2020-06-23 | 2020-10-13 | 北京字节跳动网络技术有限公司 | 音效添加方法和装置、存储介质和电子设备 |
CN112836520A (zh) * | 2021-02-19 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 基于用户特征生成用户描述文本的方法和装置 |
CN113191155B (zh) * | 2021-04-27 | 2023-10-31 | 西安热工研究院有限公司 | 基于门控深度记忆网络的电厂运行日志情感分析处理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512687A (zh) * | 2015-12-15 | 2016-04-20 | 北京锐安科技有限公司 | 训练情感分类模型和文本情感极性分析的方法及系统 |
US9336268B1 (en) * | 2015-04-08 | 2016-05-10 | Pearson Education, Inc. | Relativistic sentiment analyzer |
-
2016
- 2016-09-20 CN CN201610835712.4A patent/CN106383815B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9336268B1 (en) * | 2015-04-08 | 2016-05-10 | Pearson Education, Inc. | Relativistic sentiment analyzer |
CN105512687A (zh) * | 2015-12-15 | 2016-04-20 | 北京锐安科技有限公司 | 训练情感分类模型和文本情感极性分析的方法及系统 |
Non-Patent Citations (3)
Title |
---|
Context-Dependent Pre-Trained Deep Neural Networks for Large-Vocabulary Speech Recognition;George E. Dahl et al.;《IEEE Transactions on Audio, Speech, and Language Processing》;20120131;第20卷(第1期);第30-42页 |
Modeling User Leniency and Product Popularity for Sentiment Classification;Wenliang Gao et al.;《International Joint Conference on Natural Language Processing》;20131014;第1107-1111页 |
Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank;Richard Socher et al.;《Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing》;20131018;第1631页,第1634页 |
Also Published As
Publication number | Publication date |
---|---|
CN106383815A (zh) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106383815B (zh) | 结合用户和产品信息的神经网络情感分析方法 | |
CN111858945B (zh) | 基于深度学习的评论文本方面级情感分类方法及系统 | |
McKelvey | Organizational systematics: Taxonomy, evolution, classification | |
Pawar et al. | Calculating the similarity between words and sentences using a lexical database and corpus statistics | |
CN107038480A (zh) | 一种基于卷积神经网络的文本情感分类方法 | |
CN110516245A (zh) | 细粒度情感分析方法、装置、计算机设备及存储介质 | |
CN109740154A (zh) | 一种基于多任务学习的在线评论细粒度情感分析方法 | |
CN104484815B (zh) | 基于模糊本体面向产品方面的情感分析方法及系统 | |
CN108763216A (zh) | 一种基于中文数据集的文本情感分析方法 | |
CN108710680A (zh) | 一种利用深度学习进行基于情感分析的电影推荐方法 | |
CN109145112A (zh) | 一种基于全局信息注意力机制的商品评论分类方法 | |
CN110008338A (zh) | 一种融合gan和迁移学习的电商评价情感分析方法 | |
CN107025284A (zh) | 网络评论文本情感倾向的识别方法及卷积神经网络模型 | |
CN107967318A (zh) | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 | |
CN106372058A (zh) | 一种基于深度学习的短文本情感要素抽取方法及装置 | |
CN107544957A (zh) | 一种面向商品目标词的情感倾向分析方法 | |
CN110134765A (zh) | 一种基于情感分析的餐厅用户评论分析系统及方法 | |
CN110096575B (zh) | 面向微博用户的心理画像方法 | |
CN109726745A (zh) | 一种融入描述知识的基于目标的情感分类方法 | |
CN109325120A (zh) | 一种分离用户和产品注意力机制的文本情感分类方法 | |
CN109190126A (zh) | 词嵌入模型的训练方法及装置 | |
CN109635207A (zh) | 一种基于中文文本分析的社交网络用户人格预测方法 | |
CN106506327A (zh) | 一种垃圾邮件识别方法及装置 | |
CN109933782A (zh) | 用户情绪预测方法和装置 | |
Rajagede et al. | Stacking neural network models for automatic short answer scoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |