CN107515856A - 一种基于局部信息表示的细粒度情感元素抽取方法 - Google Patents

一种基于局部信息表示的细粒度情感元素抽取方法 Download PDF

Info

Publication number
CN107515856A
CN107515856A CN201710763500.4A CN201710763500A CN107515856A CN 107515856 A CN107515856 A CN 107515856A CN 201710763500 A CN201710763500 A CN 201710763500A CN 107515856 A CN107515856 A CN 107515856A
Authority
CN
China
Prior art keywords
word
vector
model
representation
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710763500.4A
Other languages
English (en)
Inventor
秦兵
赵妍妍
刘挺
袁建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201710763500.4A priority Critical patent/CN107515856A/zh
Publication of CN107515856A publication Critical patent/CN107515856A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明为了解决现有的细粒度情感元素抽取方法当抽取评价对象时,不能很好地利用紧随其后的单词,导致短语词性判断错误、抽取结果缺漏较多,并且难以判断当前词是否是评价对象一部分的缺点,而提出一种基于局部信息表示的细粒度情感元素抽取方法,包括:将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将得到的词向量组合为一个向量输入至前馈神经网络模型中;将LSTM模型隐层特征表示以及前馈神经网络模型的局部上下文特征表示进行拼接,得到拼接后的结果;将送入输出层使用softmax函数作标签分类。本发明适用于细粒度情感元素抽取工具。

Description

一种基于局部信息表示的细粒度情感元素抽取方法
技术领域
本发明涉及细粒度情感元素抽取,具体涉及一种基于局部信息表示的细粒度情感元素抽取方法。
背景技术
细粒度情感元素抽取旨在从文本中抽取出评价持有者、评价对象和评价表达(如图1)。评价持有者是文本中发出观点的实体;评价表达是指文本中代表情绪、情感、意见或其他个人状态的主观表述,通常以形容词或形容词短语形式出现,如“漂亮”,“不大高兴”;评价对象是指文本中被讨论的主题,具体表现为文本中评价表达所修饰的对象。
由于产品评论和社交网络文本中大多带有明确的用户ID信息,因而对评价持有者抽取研究相对淡化,学术界将更多的精力放到评价对象抽取和评价表达抽取任务上。
目前用来抽取评价对象和评价表达的方法主要分为两类:
(1)基于句法规则匹配的方法。例如:Qiu等人[1]采用了一种称为双向传播的算法(double propagation),通过使用依存句法分析器获取情感词与评价对象的关系,并在两者之间传播信息,在迭代过程中对种子情感词进行Bootstraping来扩充情感词集并抽取出评价对象。
(2)基于有指导的机器学习算法。在基于机器学习的算法中,细粒度情感元素抽取通常被当作字符级别序列标注问题。具有代表性的机器学习算法包括基于特征的CRF算法[2]和基于神经网络的序列标注算法[3][4][5]。由于前者较为依赖专家编写的特征模板和手工情感词典等外部特征,并且领域通用性弱,基于神经网络的表示学习算法受到了更多的青睐,例如Irosy等人[3]将词向量特征应用到深层循环神经网络结构,用来抽取评价表达。Liu等人[4]在基于LSTM的循环神经网络中实验了多种类型的词向量特征,证明了其在评价对象抽取任务上的有效性。
通过观察LSTM循环神经网络的评价对象抽取结果,我们发现:一方面,它在抽取类似“set up”等存在一词多义的短语时,不能很好地利用紧随其后的单词信息(如“is”等be动词),导致短语词性判断错误、抽取结果缺漏较多;另一方面,由于评价对象一般较短,相邻词表征的局部信息对判断当前词是否是评价对象的一部分至关重要。
发明内容
本发明的目的是为了解决现有的细粒度情感元素抽取方法当抽取评价对象时,不能很好地利用紧随其后的单词,导致短语词性判断错误、抽取结果缺漏较多,并且难以判断当前词是否是评价对象一部分的缺点,而提出一种基于局部信息表示的细粒度情感元素抽取方法。
一种基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将LSTM模型隐层特征表示ht以及前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类。
本发明还提供了另一种基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至含有双向循环结构的BLSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成隐层特征表示ht,并将隐层特征表示ht与前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类。
本发明的有益效果为:1、当抽取一词多义的短语时,考虑到短语的上下文,能够更为准确地判断词性,抽取结果的准确度更高;2、能够更准确地判断当前词是否是评价对象一部分;3、本发明当使用LSTM模型时,在Laptop数据集的F1值能够达到73.49;本发明当使用BLSTM模型时,在Restaurant数据集的F1值能够达到80.62。
附图说明
图1为针对例句“软粉告诉我,这次Win10创意者更新很酷”的抽取结果;
图2为具体实施方式一的基于局部信息表示的细粒度情感元素抽取方法的示意图;其中softmax表示用于作标签分类的函数;“Hidden”、“Linear”、“Lookup”、“Tanh”为LSTM模型和前馈神经网络中的相应层,属于领域内常用的表达形式;“Creator update is”是选用的英文例句中的连续三个单词。
图3为具体实施方式四的基于局部信息表示的细粒度情感元素抽取方法的示意图;
图4为具体实施方式一的流程图。
具体实施方式
具体实施方式一:本实施方式的基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将LSTM模型隐层特征表示ht以及前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
本文的方法也将评价对象抽取看作一个序列标注任务,即对每一个单词预测其是否为一个评价对象的一部分。模型首先使用一个LSTM循环网络来计算长距离文本依赖信息,对于每一个单词输入,获得其隐层输出的特征表示ht。同时,我们用一个单独的前馈神经网络来计算局部上下文特征表示hlr。模型的结构框图如图2所示:
最终,将两部分的隐层表示拼接为hcon
hcon=[ht,hlr]
hcon作为充分考虑局部信息的当前词特征表示,被送入输出层使用softmax函数作标签分类。
需要说明的是,这里ht和hlr的过程可以分别独立进行,只在输出层结合,这意味着在训练过程中,当误差从输出层传播到前馈神经网络结构和LSTM神经网络结构时,可以对两种网络结构独立进行误差反向传播。
具体实施方式二:本实施方式与具体实施方式一不同的是:softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:预设窗口的大小为3。对于用来学习局部信息的前馈神经网络,试验了不同窗口大小的词向量输入,发现窗口大小为3(上一个词,当前词,下一个词)时抽取效果最优。所以对于局部信息表示模型,窗口大小统一设置为3。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式提供一种基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至含有双向循环结构的BLSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成隐层特征表示ht,并将隐层特征表示ht与前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
本实施方式与具体实施方式一的不同之处在于,将LSTM模型替代为含有双向循环结构的BLSTM模型,相应地,其中,隐层特征表示ht是由BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成的。而前馈神经网络模型的部分不做改变。如图3所示。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:
softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
其它步骤及参数与具体实施方式四相同。
具体实施方式六:本实施方式与具体实施方式四或五不同的是:预设窗口的大小为3。
其它步骤及参数与具体实施方式四或五相同。
<实施例>
一、实验数据及评价标准
本文使用 SemEval2014Aspect BasedSentimentAnalysis[6]提供的 Laptop 和
Restaurant数据集作为实验数据。数据集的大小如下表1所示:
表1:SemEval2014 ABSA任务数据集
我们采用了与SemEval2014评测任务相同的评价方法, 即根据评价对象标记完全匹配的情况时的F1值来评价抽取结果。候选评价对象只有与人工标注评价对象完全匹配时才算正确。
二、训练参数设置
实验中,我们使用了50维的Senna词向量和300维的Google词向量作为输入,并在训练过程中更新词向量。我们用UNKNOWN代替在训练数据中出现次数少于5次的单词,用DIGIT代替数字。对于用来学习局部信息的前馈神经网络,我们试验了不同窗口大小的词向量输入,发现窗口大小为3(上一个词,当前词,下一个词)时抽取效果最优。所以对于局部信息表示模型,窗口大小统一设置为3。
我们从训练集中随机匀出10%的数据作为验证集,我们选择在验证集上表现最好的模型分类测试数据。
三、实验结果
表2:基于LSTM的模型和CRF基准模型在SemEval2014 ABSA数据集的抽取结果的F1值
从表中可以看出,考虑了局部信息的LSTM+LR和BLSTM+LR的模型相比一般的LSTM模型在Laptop数据集上提升了0.09~0.77,在Restaurant数据集上提升了0.73~1.1不等。表3:普通LSTM模型(LSTM)和融合局部信息表示的LSTM模型(LSTM+LR)抽取结果。[]表示抽取出的评价对象
通过观察对比不同模型的抽取结果,我们发现考虑了局部信息表示的模型能很好地解决上文提到的“set up”、“track pad”类型的问题。
本文针对评价对象抽取任务,提出了基于局部信息表示的LSTM循环神经网络的序列标注模型,通过额外使用一个前馈神经网络自动学习局部信息表示来提升抽取效果,并在SemEval2014数据集上验证了模型的有效性。
虽然本发明只在评价对象抽取任务上进行了实验,但是本发明的模型同样可以应用在评价表达抽取任务上。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
参考文献
[1]Qiu G, Liu B, Bu J, et al. Opinion word expansion and targetextraction throughdouble propagation[J]. Computational linguistics, 2011, 37(1): 9-27.
[2]Choi Y, Cardie C, Rilo E, et al. Identifying sources of opinionswith conditionalrandom fields and extraction patterns[C]//Proceedings of theconference on Human
Language Technology and Empirical Methods in Natural LanguageProcessing.Association for Computational Linguistics, 2005: 355-362.
[3]Irsoy O, and Claire C. Opinion Mining with Deep Recurrent NeuralNetworks[C]//Conference on Empirical Methods in Natural Language Processing(EMNLP 2014). 2014.
[4]Liu P, Joty S, Meng H. Fine-grained opinion mining with recurrentneural networksand word embeddings[C]//Conference on Empirical Methods inNatural Language Processing (EMNLP 2015). 2015.
[5]Mesnil G, He X, Deng L, et al. Investigation of recurrent-neural-network architectures and learning methods for spoken language understanding[C]//INTERSPEECH. 2013: 3771-3775.
[6]Pontiki M, Galanis D, Pavlopoulos J, et al. Semeval-2014 task 4:Aspect basedsentiment analysis[C]//Proceedings of the 8th internationalworkshop on semantic evaluation (SemEval 2014). 2014: 27-35.

Claims (6)

1.一种基于局部信息表示的细粒度情感元素抽取方法,其特征在于,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将LSTM模型隐层特征表示ht以及前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
2.根据权利要求1所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>t</mi> </msub> <mo>=</mo> <mi>k</mi> <mo>|</mo> <mi>s</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>exp</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mi>k</mi> <mi>t</mi> </msubsup> <msub> <mi>h</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </msubsup> <mi>exp</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mi>k</mi> <mi>t</mi> </msubsup> <msub> <mi>h</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
3.根据权利要求1或2所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,所述预设窗口的大小为3。
4.一种基于局部信息表示的细粒度情感元素抽取方法,其特征在于,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至含有双向循环结构的BLSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成隐层特征表示ht,并将隐层特征表示ht与前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
5.根据权利要求4所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>t</mi> </msub> <mo>=</mo> <mi>k</mi> <mo>|</mo> <mi>s</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>exp</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mi>k</mi> <mi>t</mi> </msubsup> <msub> <mi>h</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </msubsup> <mi>exp</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mi>k</mi> <mi>t</mi> </msubsup> <msub> <mi>h</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
6.根据权利要求4或5所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,所述预设窗口的大小为3。
CN201710763500.4A 2017-08-30 2017-08-30 一种基于局部信息表示的细粒度情感元素抽取方法 Pending CN107515856A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710763500.4A CN107515856A (zh) 2017-08-30 2017-08-30 一种基于局部信息表示的细粒度情感元素抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710763500.4A CN107515856A (zh) 2017-08-30 2017-08-30 一种基于局部信息表示的细粒度情感元素抽取方法

Publications (1)

Publication Number Publication Date
CN107515856A true CN107515856A (zh) 2017-12-26

Family

ID=60724663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710763500.4A Pending CN107515856A (zh) 2017-08-30 2017-08-30 一种基于局部信息表示的细粒度情感元素抽取方法

Country Status (1)

Country Link
CN (1) CN107515856A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108121823A (zh) * 2018-01-11 2018-06-05 哈尔滨工业大学 Babbling情感对话生成系统及方法
CN108520530A (zh) * 2018-04-12 2018-09-11 厦门大学 基于长短时记忆网络的目标跟踪方法
CN108628834A (zh) * 2018-05-14 2018-10-09 国家计算机网络与信息安全管理中心 一种基于句法依存关系的词语表示学习方法
CN109271627A (zh) * 2018-09-03 2019-01-25 深圳市腾讯网络信息技术有限公司 文本分析方法、装置、计算机设备和存储介质
CN109815996A (zh) * 2019-01-07 2019-05-28 北京首钢自动化信息技术有限公司 一种基于循环神经网络的场景自适配方法及装置
CN110083836A (zh) * 2019-04-24 2019-08-02 哈尔滨工业大学 一种文本预测结果的关键证据抽取方法
CN110991161A (zh) * 2018-09-30 2020-04-10 北京国双科技有限公司 相似文本确定方法、神经网络模型获得方法及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103995803A (zh) * 2014-04-25 2014-08-20 西北工业大学 一种细粒度文本情感分析方法
CN106599933A (zh) * 2016-12-26 2017-04-26 哈尔滨工业大学 一种基于联合深度学习模型的文本情感分类方法
US20170150235A1 (en) * 2015-11-20 2017-05-25 Microsoft Technology Licensing, Llc Jointly Modeling Embedding and Translation to Bridge Video and Language
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103995803A (zh) * 2014-04-25 2014-08-20 西北工业大学 一种细粒度文本情感分析方法
US20170150235A1 (en) * 2015-11-20 2017-05-25 Microsoft Technology Licensing, Llc Jointly Modeling Embedding and Translation to Bridge Video and Language
CN106599933A (zh) * 2016-12-26 2017-04-26 哈尔滨工业大学 一种基于联合深度学习模型的文本情感分类方法
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
哈工大SCIR 袁建华: "基于局部信息表示的细粒度情感元素抽取", 《机器之心网站:HTTPS://WWW.JIQIZHIXIN.COM/ARTICLES/2017-05-08-5》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108121823A (zh) * 2018-01-11 2018-06-05 哈尔滨工业大学 Babbling情感对话生成系统及方法
CN108520530A (zh) * 2018-04-12 2018-09-11 厦门大学 基于长短时记忆网络的目标跟踪方法
CN108520530B (zh) * 2018-04-12 2020-01-14 厦门大学 基于长短时记忆网络的目标跟踪方法
CN108628834A (zh) * 2018-05-14 2018-10-09 国家计算机网络与信息安全管理中心 一种基于句法依存关系的词语表示学习方法
CN108628834B (zh) * 2018-05-14 2022-04-15 国家计算机网络与信息安全管理中心 一种基于句法依存关系的词语表示学习方法
CN109271627A (zh) * 2018-09-03 2019-01-25 深圳市腾讯网络信息技术有限公司 文本分析方法、装置、计算机设备和存储介质
CN109271627B (zh) * 2018-09-03 2023-09-05 深圳市腾讯网络信息技术有限公司 文本分析方法、装置、计算机设备和存储介质
CN110991161A (zh) * 2018-09-30 2020-04-10 北京国双科技有限公司 相似文本确定方法、神经网络模型获得方法及相关装置
CN109815996A (zh) * 2019-01-07 2019-05-28 北京首钢自动化信息技术有限公司 一种基于循环神经网络的场景自适配方法及装置
CN109815996B (zh) * 2019-01-07 2021-05-04 北京首钢自动化信息技术有限公司 一种基于循环神经网络的场景自适配方法及装置
CN110083836A (zh) * 2019-04-24 2019-08-02 哈尔滨工业大学 一种文本预测结果的关键证据抽取方法

Similar Documents

Publication Publication Date Title
CN107609132B (zh) 一种基于语义本体库中文文本情感分析方法
CN107515856A (zh) 一种基于局部信息表示的细粒度情感元素抽取方法
US9373075B2 (en) Applying a genetic algorithm to compositional semantics sentiment analysis to improve performance and accelerate domain adaptation
CN111241294A (zh) 基于依赖解析和关键词的图卷积网络的关系抽取方法
Wu et al. Infusing finetuning with semantic dependencies
Bartle et al. Gender classification with deep learning
CN112434164B (zh) 一种兼顾话题发现和情感分析的网络舆情分析方法及系统
CN113312922B (zh) 一种改进的篇章级三元组信息抽取方法
CN112818698B (zh) 一种基于双通道模型的细粒度的用户评论情感分析方法
Gosai et al. A review on a emotion detection and recognization from text using natural language processing
Li et al. A method for resume information extraction using bert-bilstm-crf
Wang et al. Sentiment analysis of MOOC reviews via ALBERT-BiLSTM model
Kotelnikova et al. Lexicon-based methods and BERT model for sentiment analysis of Russian text corpora
Samih et al. Enhanced sentiment analysis based on improved word embeddings and XGboost.
Fei et al. GFMRC: A machine reading comprehension model for named entity recognition
Sharma et al. Lexicon a linguistic approach for sentiment classification
Cui et al. Zero-shot domain adaptation for natural language inference by projecting superficial words out
Fanoon et al. Part of speech tagging for Twitter conversations using Conditional Random Fields model
Quan et al. Automatic Annotation of Word Emotion in Sentences Based on Ren-CECps.
CN110069703B (zh) 一种基于特征增强的微博话题检测方法
CN108694165A (zh) 面向产品评论的跨领域对偶情感分析方法
Türkmen et al. A novel method for extracting feature opinion pairs for Turkish
Ameer et al. Hybrid Deep Neural Networks for Improved Sentiment Analysis in Social Media
Kannan et al. Aspect Based Sentiment Aware Word Embedding for Cross Domain Sentiment Analysis
Sadanandan et al. Improving accuracy in sentiment analysis for Malay language

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171226