CN107451118A - 基于弱监督深度学习的句子级情感分类方法 - Google Patents
基于弱监督深度学习的句子级情感分类方法 Download PDFInfo
- Publication number
- CN107451118A CN107451118A CN201710602699.2A CN201710602699A CN107451118A CN 107451118 A CN107451118 A CN 107451118A CN 201710602699 A CN201710602699 A CN 201710602699A CN 107451118 A CN107451118 A CN 107451118A
- Authority
- CN
- China
- Prior art keywords
- sentence
- layer
- classification
- neural network
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明提出了一种基于弱监督深度学习的句子级情感分类的方法,主要解决了现有技术不能准确的预测句子情感语义和分类准确率低的问题。其方案是:1.设计能够利用大量弱标注的评论句子进行句子情感分类的深度神经网络WDE‑LSTM;2.对深度神经网络模型WDE‑LSTM进行粗调,即使用句子三元组的训练准则,使相同标注的句子相互靠近,不同标注的句子相互远离,减少句子在训练过程中出现的错误移动;3.对深度神经网络WDE‑LSTM进行精调;4.对训练好的深度神经网络模型进行测试,输出句子的分类结果,本发明设计的深度神经网络稳定性强,能更自然的处理时间序列数据,提高了对句子情感语义分类的准确率,可用于电子商务。
Description
技术领域
本发明属于计算机处理技术领域,特别涉及一种句子级情感分类方法,可用于电子商务。
背景技术
随着电子商务的快速发展,人们习惯了在网上消费并且在商家的评论网站上面写下他们关于购物经验的评论,这些评论的内容对于未来的顾客做决定和商家提高他们的产品质量来说都是非常有价值的资源。然而,随着评论的数量快速增长,人们面临着一个严重的信息过载的问题。为了缓解这个问题,人们提出了许多意见挖掘技术,例如观点摘要,民意调查和比较分析。关键的挑战在于如何准确的预测评论句子的情感倾向。
所谓的情感分类是指对用户发出的主观性文本进行分析和挖掘,判断文本中所包含的情感信息。流行的情感分类方法一般归为两类:(1)基于词典的方法,(2)机器学习方法。基于词典的方法通常首先构造观点词的情感词典,例如喜欢或讨厌,然后在出现意见单词和现有的句法知识的基础上设计分类规则。抛开效率不谈,这种方法需要在词典构建和规则设计上面进行大量的工作。此外,基于词典的方法不能很好的处理隐含的意见,即客观的陈述例如“一周前我买了个床垫,今天塌陷了”,这也是一种很重要的意见形式。事实信息通常比主观感受更有帮助。基于词典的方法只能以特殊的方法处理隐含的意见。
最初的基于机器学习的情感分类工作应用了流行的机器学习算法,例如朴素贝叶斯。之后,为了获得更好的分类性能,在此方向的大多数研究都是围绕着特征工程开展,并且已经探索出了不同种的特征,例如N-Gram,Part-of-speech(POS)信息和句子关系等。但是特征工程也十分耗费人力成本,并要求设计者有丰富的领域知识,而且适合一个领域的特征集可能无法在其他领域获得最优的效果。
近年来,深度学习已经成为解决情感分类问题的一种有效的方法。深度神经网络本质上学习的是一个高层次的数据表示,从而避免了大量的繁琐工作,例如特征工程。然而,深度学习非常依赖大规模的训练数据,而标注很大数量的句子是非常繁琐的工作。幸运的是,大多数的商家评论网站允许顾客通过评论的星级来总结意见。评级反映的是顾客评论的总体倾向,而且已经被用作情感分析。然而,评论级别不一定能代表部分句子的情感,比如,有些五星级的评论里面就可能包含一些消极负面的句子,有些一星级的评论里面也能发现有积极正面的词汇。因此,将评级信息二值化作为句子标签会包含一些错误的标注,影响分类器的训练。这种二值化后的评级信息称为弱标注信息。
流行的情感分类方法一般都需要非常繁琐的工作,基于词典的方法不能很好的处理隐晦的意见,而一般的机器学习方法可能只适用于某一特定领域,扩展性不强。因此这两种方法都不能很好的预测句子的情感语义,得不到准确的分类结果。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于弱监督深度学习的句子级情感分类方法,以准确的预测句子的情感语义,获得准确的分类结果。
为实现上述目的,本发明的技术方案包括如下:
(1)设计能够利用大量弱标注的评论句子来进行句子情感分类的深度神经网络WDE-LSTM,其中:第一层为输入层,第二层为长短期记忆层,第三层为最大池化层,第四层为隐藏层,第五层为嵌入层,第六层为分类层;
(2)对设计好的深度神经网络模型WDE-LSTM进行训练:
2a)定义评级信息二值化后的句子为弱标注句子,并根据句子的情感语义人工标注了一些句子,再通过弱标注句子从输入层训练到嵌入层,实现对深度神经网络WDE-LSTM的粗调;
2b)用弱标注句子训练了一个能捕捉数据情感分布的嵌入层之后,在嵌入层上加入分类层,再用人工标注的句子从输入层训练到分类层,以实现对深度神经网络WDE-LSTM的精调,最终得到一个二分类模型,即分类的句子情感语义分为积极和消极两类;
(3)将步骤(2)训练好的深度神经网络模型,用20%的人工标注的句子生成的数据集作为测试集,把该测试集输入到二分类模型中,即从输入层输入直到分类层,分类层最后输出的结果即为句子的情感语义类别。
本发明与现有技术相比具有如下优点:
1.本发明使用了弱标注的句子而不全是人工标注的句子,与人工标注的句子不同的是,由于弱标注的句子中包含错误标记的句子,所以使用弱标注的句子训练好的深度神经网络模型的稳定性更强,准确率也更高;
2.本发明设计的深度神经网络模型中包含两层长短期记忆网络,相较于卷积神经网络,能够更自然的处理时间序列数据,而现有卷积神经网络并不完全适用于学习时间序列数据,因此会需要各种辅助性处理,且效果也不一定好,因而面对时间序列敏感的问题和任务,采用长短期记忆网络通常会比较合适;
3.本发明提出了句子三元组的训练准则而不是句子二元组的训练准则,使用句子二元组的训练准则时,当采样了两个错误标注的句子后,两个句子会有相对较高的几率做出错误的移动,而使用句子三元组的训练准则时,会使相同标注的句子相互靠近,不同标注的句子相互远离,减少了句子在训练过程中出现的错误移动。
附图说明
图1是本发明的实现流程图;
图2是本发明中的深度神经网络模型WDE-LSTM结构图;
图3是本发明句子三元组和现有句子二元组对深度神经网络模型进行训练的效果图。
具体实施方式
参照图1,本发明的实现步骤如下:
步骤1,设计深度神经网络WDE-LSTM。
1.1)设置参数:
用大写字母例如W来表示矩阵,小写字母例如x来表示列向量,x(i)表示向量x的第i项;
1.2)设计一个六层结构的深度神经网络WDE-LSTM,其中:第一层为输入层,第二层为长短期记忆层,第三层为最大池化层,第四层为隐藏层,第五层为嵌入层,第六层为分类层,如图2所示;
1.3)设置每一层的功能:
1.3.1)输入层的功能:
将一个长度为m的句子用s=<w1w2...wm>的单词序列表示,每个单词w都通过一个词向量x表示,用k表示词向量x的长度,用n表示单词表中单词总数,由词向量组成的k×n矩阵组成单词查询表Y;
对单词查询表Y由公开可用的300维的词向量进行初始化,该300维的词向量是通过word2vec训练来自谷歌新闻的1000亿个单词得到;
输入层简单的将单词序列s=<w1w2...wm>通过单词查询表Y映射生成其对应的词向量<x1x2...xm>;
1.3.2)长短期记忆层的功能:
长短期记忆网络LSTM是循环神经网络RNN的一种流行方法,用于捕捉变长序列数据中的特征,长短期记忆层包含两个长短期记忆网络,构成了一个双向的循环神经网络;
长短期记忆网络拥有称为记忆细胞的结构,记忆细胞通过输出门,输入门和遗忘门控制着其内部状态的读,写和复位,在时刻t,所有记忆细胞的正演计算如下:
dt=g(Wdxt+Udzt-1+bd) <1>
it=σ(Wixt+Uizt-1+bi) <2>
ft=σ(Wfxt+Ufzt-1+bf) <3>
ot=σ(Woxt+Uozt-1+bo) <4>
ct=it⊙dt+ft⊙ct-1 <5>
zt=ot⊙g(ct) <6>
其中:
向量元素dt,it,ft,ot分别对应于在时刻t的记忆细胞的输入单元d,输入门i,遗忘门f和输出门o的一个结果值;
Wd,Wi,Wf和Wo分别代表输入单元,输入门,遗忘门和输出门的加权矩阵;
Ud,Ui,Uf和Uo分别代表将上一轮长短期记忆网络输出的zt-1作为这一轮输入时在输入单元,输入门,遗忘门和输出门的参数;
bd,bi,bf和bo分别代表输入单元,输入门,遗忘门和输出门的偏差向量;
xt表示在时刻t输入的词向量,ct表示记忆细胞的内部状态,zt表示记忆细胞在时刻t的输出,σ(·)是sigmoid激活函数,g(·)是输入和输出的激活函数,该激活函数通常是双曲正切函数;
由式<1>——<6>可以得出:
LSTMf和LSTMb分别代表向前和向后的长短期记忆网络,是向前的长短期记忆网络在时刻t的输出,是向后的长短期记忆网络在时刻t的输出,concat函数表示和的级联;
这种双向结构通过从整个句子编码文本信息生成了每个单词更全面的特征表示,因此,长短期记忆网络中的记忆细胞可作为检测句子序列模式的特征提取器,通过长短期记忆层提取句子更高层次的特征向量;
1.3.3)最大池化层的功能:
将长短期记忆层输出的zt输入最大池化层来提取长短期记忆层中每个特征提取器最突出的特征,形成固定长度的特征向量v:
最大池化层保持了句子最突出的特征;
1.3.4)隐藏层的功能:
将最大池化层输出的定长的特征向量v输入到隐藏层中,提取非线性的高层次的特征向量h:
h=f(Whv+bh) <9>
其中Wh是隐藏层的加权矩阵,bh是隐藏层的偏差向量;f(·)是非线性的激活函数,本实例使用的是双曲正切函数;
1.3.5)嵌入层的功能:
句子情感语义的先验知识代表句子的低层次特征,用上下文向量as表示,所有句子的上下文向量构成了上下文查询表A;
将隐藏层输出的特征向量h和句子s的上下文向量as输入到嵌入层中,获得足够好的句子的特征向量y:
其中We代表嵌入层的加权矩阵,be代表嵌入层的偏差向量;
1.3.6)分类层的功能:
将嵌入层输出的特征向量y作为分类层的输入,并进行仿射变换后,再输入到softmax激活函数中产生最终的分类结果。
步骤2,对步骤1设计的深度神经网络WDE-LSTM进行粗调。
2.1)定义评级信息二值化的句子称为弱标注句子,即将评级高于三星的句子标注为积极,将评级低于三星的句子标注为消极,忽略评级为三星的句子;
2.2)将弱标注的句子分为两组,第一组为P={s|l(s)=pos},第二组为N={s|l(s)=neg},其中f(S)表示句子的情感语义类别,pos表示积极,neg表示消极;由于P和N中可能包含错误标注的句子,不能直接用来训练模型,因此,需要先用弱标注的句子对深度神经网络WDE-LSTM的前五层进行训练;
2.3)设计训练方案:
2.3.1)传统的句子二元组的训练方案是:采样句子对,即对于两个句子标注相同则减少句子之间在训练中的距离,对于标注不同的句子则增加距离,然而,如果采样了错误标记的句子时,会有相对较高的机率做出错误的移动;
2.3.2)对深度神经网络WDE-LSTM进行粗调时采用句子三元组的训练方案,以对传统的句子二元组的训练方案进行改善,这种方案是先随机选择P或N为焦点,假设选择P为焦点,则从P中随机选择两个句子s1和s2,再从N中随机选择句子s3;假设选择N为焦点,则从N中随机选择两个句子s1和s2,再从P中随机选择句子s3,用<s1,s2,s3>表示这个完整的三元组,其中l(s1)=l(s2)≠l(s3);
将句子三元组的训练方案的最终目标定义为排名损失Lweak:
其中是句子si在嵌入层的输出,是句子sj在嵌入层的输出,dst(·)表示句子间的欧氏距离,λ是边缘参数;
式<11>和<12>表示在训练中需要保持相同标注的句子s1和s2之间的欧氏距离比不同标注的句子s1和s3之间的欧氏距离更短,且欧氏距离差值至少为λ,如果差值超过边缘参数λ,句子将不会移动;
2.3.3)通过图3这个简单的例子说明了句子三元组相较于句子二元组的优势:
用圆圈表示P中的句子,三角形表示N中的句子,黑色结点表示错误标注的句子;
为了清楚起见,对每种方法列举三种情况:其中:
在图3(a)中这三种情况的结果都是错误的移动,即不同类别的句子靠得更近,如情况1和情况2;相同类别的句子离得更远,如情况3;
在图3(b)的情况1中,由于s3离s1比s2更近,此方法将拖动s3远离s1,拖动s2靠近s1,因此情况1是错误的移动,情况2中句子的移动是正确的,而情况3中句子的移动却是错误的;
对于这两种训练方法,当选择错误标记的句子作为样本时,都可能会产生错误的移动,但是很明显,句子二元组所示的3种情况中句子都出现了错误移动,而句子三元组所示3种情况中只有情况2的句子出现的是正确的移动,因此,句子三元组相较于句子二元组能减少句子在训练过程中出现的错误移动,以实现对深度神经网络WDE-LSTM的粗调。
步骤3,对步骤1设计的深度神经网络WDE-LSTM进行精调。
在用弱标注句子训练嵌入层获得了一个足够好的句子的特征向量后,在顶部添加一个分类层,用人工标记的句子进一步训练深度神经网络,即将句子从输入层训练到分类层,以实现对深度神经网络WDE-LSTM的精调;
图2展示的是一个二分类的模型,对于二分类问题,分类层相当于是逻辑回归模型,本实例也可通过适应性修改深度神经网络WDE-LSTM的结构,以用于多类预测问题。
步骤4,测试训练好的深度神经网络模型。
将30%的人工标注的句子随机生成的数据集作为测试集,输入到步骤2和步骤3训练好的深度神经网络模型WDE-LSTM中,深度神经网络模型WDE-LSTM输出分类;
将深度神经网络模型WDE-LSTM输出分类结果的精度和宏F1作为评估标准,对本发明和传统的分类方法进行比较,结果如表1。
传统方法包括:
基于词典的方法:Lexicon;
机器学习的方法:SVM,SBSVM,SSWE,SentiWV,CNN-rand,CNN-weak和LSTM-rand;
表1
由表1可以看出,对于句子情感语义的分类结果,除了基于词典的方法Lexicon,其他所有机器学习的方法都达到了可接受的结果表现;而所有机器学习的方法中CNN-weak的性能最差;
由于应用了神经网络模型,SSWE比传统的机器学习的方法SVM和NBSVM更好;
CNN-rand和LSTM-rand这两种神经网络方法最后的结果表现差不多,但总体上LSTM-rand的结果表现略逊于CNN-rand;
而本发明所述的深度神经网络WDE-LSTM在结果表现上明显优于表1中其他的方法。
Claims (4)
1.一种基于弱监督深度学习的句子级情感分类方法,其特征在于,包括:
(1)设计能够利用大量弱标注的评论句子来进行句子情感分类的深度神经网络WDE-LSTM,其中:第一层为输入层,第二层为长短期记忆层,第三层为最大池化层,第四层为隐藏层,第五层为嵌入层,第六层为分类层;
(2)对设计好的深度神经网络模型WDE-LSTM进行训练:
2a)定义评级信息二值化后的句子为弱标注句子,并根据句子的情感语义人工标注了一些句子,再通过弱标注句子从输入层训练到嵌入层,实现对深度神经网络WDE-LSTM的粗调;
2b)用弱标注句子训练了一个能捕捉数据情感分布的嵌入层之后,在嵌入层上加入分类层,再用人工标注的句子从输入层训练到分类层,以实现对深度神经网络WDE-LSTM的精调,最终得到一个二分类模型,即将分类的句子情感语义分为积极和消极两类;
(3)将步骤(2)训练好的深度神经网络模型,用30%的人工标注的句子生成的数据集作为测试集,把该测试集输入到二分类模型中,即从输入层输入直到分类层,分类层最后输出的结果即为句子的情感语义类别。
2.根据权利要求1所述的方法,其特征在于,步骤(1)设计的深度神经网络WDE-LSTM,其各层的功能如下:
输入层,用于将输入的句子用单词序列表示,再将单词序列中的每个单词用一个词向量表示;
长短期记忆层,用于将长短期记忆网络中的记忆细胞作为检测句子的特征提取器,输入的词向量通过两个长短期记忆网络来获得更高层次的特征向量;
最大池化层,用于通过比较长短期记忆层中每个提取器的向量值来获得每个提取器的最大值,再将这些最大值组成定长的特征向量;
隐藏层,用于将定长的特征向量输入激活函数中,得到非线性的高层次特征向量;
嵌入层,用于将隐藏层输出的特征向量与输入句子的低层次特征向量组成新的矩阵输入到这层的激活函数中,最后得到足够好的句子的特征向量;
分类层,将嵌入层的输出作为输入,进行仿射变换,然后输入到softmax激活函数中,最后输出的结果即为句子的情感语义类别。
3.根据权利要求1所述的方法,其特征在于,步骤2a)中通过弱标注句子从输入层训练到嵌入层,是采用句子三元组的训练准则,即将两个相同弱标注的句子和一个不同弱标注的句子组成样本输入到模型中,并保持相同弱标注的句子相互靠近,不同弱标注的句子相互远离,以实现对深度神经网络WDE-LSTM的粗调。
4.根据权利要求1所述的方法,其特征在于,步骤2b)中用人工标注的句子从输入层训练到分类层,是在模型中加入分类层,直接将人工标注的句子从输入层输入模型中,一直训练到分类层,以实现对深度神经网络WDE-LSTM的精调,最终得到一个二分类模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710602699.2A CN107451118A (zh) | 2017-07-21 | 2017-07-21 | 基于弱监督深度学习的句子级情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710602699.2A CN107451118A (zh) | 2017-07-21 | 2017-07-21 | 基于弱监督深度学习的句子级情感分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107451118A true CN107451118A (zh) | 2017-12-08 |
Family
ID=60487309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710602699.2A Pending CN107451118A (zh) | 2017-07-21 | 2017-07-21 | 基于弱监督深度学习的句子级情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107451118A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108460427A (zh) * | 2018-03-29 | 2018-08-28 | 国信优易数据有限公司 | 一种分类模型训练方法、装置以及分类方法及装置 |
CN108647191A (zh) * | 2018-05-17 | 2018-10-12 | 南京大学 | 一种基于有监督情感文本和词向量的情感词典构建方法 |
CN108681532A (zh) * | 2018-04-08 | 2018-10-19 | 天津大学 | 一种面向中文微博的情感分析方法 |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109241993A (zh) * | 2018-07-26 | 2019-01-18 | 中国科学院自动化研究所 | 融合用户和整体评价信息的评价对象情感分类方法及装置 |
CN109992663A (zh) * | 2019-03-11 | 2019-07-09 | 出门问问信息科技有限公司 | 意向评级模型及其构建方法、计算机设备及存储介质 |
CN110275953A (zh) * | 2019-06-21 | 2019-09-24 | 四川大学 | 人格分类方法及装置 |
CN110457674A (zh) * | 2019-06-25 | 2019-11-15 | 西安电子科技大学 | 一种主题指导的文本预测方法 |
CN110555343A (zh) * | 2018-06-01 | 2019-12-10 | 北京师范大学 | 典型资源要素中林、灌、草三要素提取方法和系统 |
CN112214661A (zh) * | 2020-10-12 | 2021-01-12 | 西华大学 | 一种面向视频常规评论的情感不稳定用户检测方法 |
CN117590944A (zh) * | 2023-11-28 | 2024-02-23 | 上海源庐加佳信息科技有限公司 | 实体人对象和数字虚拟人对象的绑定系统 |
-
2017
- 2017-07-21 CN CN201710602699.2A patent/CN107451118A/zh active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108363753B (zh) * | 2018-01-30 | 2020-05-19 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108460427A (zh) * | 2018-03-29 | 2018-08-28 | 国信优易数据有限公司 | 一种分类模型训练方法、装置以及分类方法及装置 |
CN108681532A (zh) * | 2018-04-08 | 2018-10-19 | 天津大学 | 一种面向中文微博的情感分析方法 |
CN108647191A (zh) * | 2018-05-17 | 2018-10-12 | 南京大学 | 一种基于有监督情感文本和词向量的情感词典构建方法 |
CN110555343A (zh) * | 2018-06-01 | 2019-12-10 | 北京师范大学 | 典型资源要素中林、灌、草三要素提取方法和系统 |
CN110555343B (zh) * | 2018-06-01 | 2022-04-05 | 北京师范大学 | 典型资源要素中林、灌、草三要素提取方法和系统 |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN108829683B (zh) * | 2018-06-29 | 2022-06-10 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109241993A (zh) * | 2018-07-26 | 2019-01-18 | 中国科学院自动化研究所 | 融合用户和整体评价信息的评价对象情感分类方法及装置 |
CN109992663A (zh) * | 2019-03-11 | 2019-07-09 | 出门问问信息科技有限公司 | 意向评级模型及其构建方法、计算机设备及存储介质 |
CN110275953A (zh) * | 2019-06-21 | 2019-09-24 | 四川大学 | 人格分类方法及装置 |
CN110275953B (zh) * | 2019-06-21 | 2021-11-30 | 四川大学 | 人格分类方法及装置 |
CN110457674A (zh) * | 2019-06-25 | 2019-11-15 | 西安电子科技大学 | 一种主题指导的文本预测方法 |
CN110457674B (zh) * | 2019-06-25 | 2021-05-14 | 西安电子科技大学 | 一种主题指导的文本预测方法 |
CN112214661B (zh) * | 2020-10-12 | 2022-04-08 | 西华大学 | 一种面向视频常规评论的情感不稳定用户检测方法 |
CN112214661A (zh) * | 2020-10-12 | 2021-01-12 | 西华大学 | 一种面向视频常规评论的情感不稳定用户检测方法 |
CN117590944A (zh) * | 2023-11-28 | 2024-02-23 | 上海源庐加佳信息科技有限公司 | 实体人对象和数字虚拟人对象的绑定系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107451118A (zh) | 基于弱监督深度学习的句子级情感分类方法 | |
Li et al. | Imbalanced text sentiment classification using universal and domain-specific knowledge | |
CN109376242B (zh) | 基于循环神经网络变体和卷积神经网络的文本分类方法 | |
Vateekul et al. | A study of sentiment analysis using deep learning techniques on Thai Twitter data | |
CN107943784B (zh) | 基于生成对抗网络的关系抽取方法 | |
CN111401061A (zh) | 基于BERT及BiLSTM-Attention的涉案新闻观点句识别方法 | |
CN109145112A (zh) | 一种基于全局信息注意力机制的商品评论分类方法 | |
CN110502753A (zh) | 一种基于语义增强的深度学习情感分析模型及其分析方法 | |
CN110765260A (zh) | 一种基于卷积神经网络与联合注意力机制的信息推荐方法 | |
CN110929034A (zh) | 一种基于改进lstm的商品评论细粒度情感分类方法 | |
CN110489523B (zh) | 一种基于网购评价的细粒度情感分析方法 | |
CN109726745B (zh) | 一种融入描述知识的基于目标的情感分类方法 | |
CN111368086A (zh) | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 | |
CN109902177A (zh) | 基于双通道卷积记忆神经网络的文本情感分析方法 | |
CN110825850B (zh) | 一种自然语言主题分类方法及装置 | |
CN111078833A (zh) | 一种基于神经网络的文本分类方法 | |
CN109101490B (zh) | 一种基于融合特征表示的事实型隐式情感识别方法和系统 | |
CN113360582B (zh) | 基于bert模型融合多元实体信息的关系分类方法及系统 | |
CN110472244B (zh) | 一种基于Tree-LSTM和情感信息的短文本情感分类方法 | |
CN112070139A (zh) | 基于bert与改进lstm的文本分类方法 | |
Niu et al. | An Improved Method for Web Text Affective Cognition Computing Based on Knowledge Graph. | |
CN114492423A (zh) | 基于特征融合及筛选的虚假评论检测方法、系统及介质 | |
CN110851593A (zh) | 一种基于位置与语义的复值词向量构建方法 | |
CN115630156A (zh) | 一种融合Prompt和SRU的蒙古语情感分析方法与系统 | |
Ma et al. | Deformable self-attention for text classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171208 |