CN112926337A - 一种结合重构句法信息的端到端方面级情感分析方法 - Google Patents
一种结合重构句法信息的端到端方面级情感分析方法 Download PDFInfo
- Publication number
- CN112926337A CN112926337A CN202110163081.7A CN202110163081A CN112926337A CN 112926337 A CN112926337 A CN 112926337A CN 202110163081 A CN202110163081 A CN 202110163081A CN 112926337 A CN112926337 A CN 112926337A
- Authority
- CN
- China
- Prior art keywords
- reconstructed
- syntax
- syntactic
- tree
- dependency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 28
- 230000008451 emotion Effects 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000002372 labelling Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000013138 pruning Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 4
- 230000004927 fusion Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000007634 remodeling Methods 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 5
- 239000010410 layer Substances 0.000 description 25
- 244000141353 Prunus domestica Species 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种结合重构句法信息的端到端方面级情感分析方法,属于自然语言处理技术领域。本发明包括步骤:通过Bert预训练模型对文本编码,获得具有上下文表征的词向量表征;使用双仿射模型Biaffine获得最初的句法树;将最初的句法树通过句法规则重塑修剪获得新的依赖树;使用注意力神经网络对新的依赖树编码得到重构的句法特征;使用分别得到的词向量表征和重构的句法特征进行特征拼接融合后输入至下游序列标注模型;通过下游序列标注模型的输出结果得到方面级情感分析的结果。本发明能够获得方面词和观点词之间的有效的句法依赖关系,提升方面级情感分析任务的性能。
Description
技术领域
本发明涉及一种结合重构句法信息的端到端方面级情感分析方法,属于自然语言处理技术领域。
背景技术
传统上,基于方面的情感分析(ABSA)任务可以分为两个子任务,即方面词提取任务和方面级情感分析任务。方面词提取的目的是检测评论文本中提到的观点目标,并且对其进行广泛的研究。方面级情感分类的目的是通过方面词寻找到对应的意见表达词,可以帮助模型预测给定方面目标的情感极性。目前关于ABSA的工作大多旨在解决其中的某一个子任务。为了将这些现有方法应用于实际环境中,即,不仅提取评价对象,而且预测其情感极性,一种典型的方法是将两个子任务以流水线的方法连接在一起。但是通过对其他一些任务的观察可以发现,如果两个子任务具有很强的关联性,例如命名实体识别(NER)和关系提取任务,集成度更高的模型通常比流水线的解决方案更有效。
在最新的研究中,Li等人研究了BERT的建模能力,将深层上下文词嵌入层与下游神经模型耦合以完成原始ABSA任务,并建立了新的最新技术成果。但以上模型仅考虑了方面词本身,没有考虑到评论句子中观点词对方面词情感极性的影响,判断情感极性是基于当前的方面词信息,这样做会丢失对判断情感有用的远距离的依赖。针对以上问题,提出了一种面向短语表达的句法依赖树结构,增强方面词和观点词之间的关联感知能力,获取方面词和观点词之间的有效的句法依赖关系。
发明内容
为了解决上述问题,本发明提供了一种结合重构句法信息的端到端方面级情感分析方法,本发明能增强方面词和观点词之间的关联感知能力,获取方面词和观点词之间的有效的句法依赖关系。
本发明的技术方案是:一种结合重构句法信息的端到端方面级情感分析方法,所述方法的具体步骤如下:
步骤1、通过Bert预训练模型对文本编码,获得具有上下文表征的词向量表征;
步骤2、使用双仿射模型Biaffine获得最初的句法树;
步骤3、将最初的句法树通过句法规则重塑修剪获得新的依赖树;
步骤4、使用注意力神经网络对新的依赖树编码得到重构的句法特征;
步骤5、使用步骤1与步骤4分别得到的词向量表征和重构的句法特征,进行特征拼接融合后输入至下游序列标注模型;
步骤6、通过下游序列标注模型的输出结果得到方面级情感分析的结果。
作为本发明的进一步方案,所述步骤1中,Bert嵌入层将句子作为输入,利用整个句子的信息来计算词级特征,词向量表征通过公式Hl=Transformerl(Hl-1)计算,其中Hl表第l层的特征表示。
作为本发明的进一步方案,所述步骤3中,将最初的句法树通过句法规则重塑修剪获得新的依赖树的具体步骤如下:
步骤3.1、对最初的句法树进行深度优先遍历,得出从root→children的各个带有单词、依赖信息和词性信息的枝节;
步骤3.2、按句法规则顺序依次进行查询,并设置大小为2步进为1的滑动窗口进行切分;并对窗口内的数据进行处理,若符合句法规则,则将窗口内两个单词间的依赖关系改为第一个单词与其父节点的依赖关系;
步骤3.3、将处理后的句法树的依赖关系和词性信息按原句子顺序排列,并通过随机生成的方式获取依赖关系向量表征D和词性向量表征T。
作为本发明的进一步方案,所述步骤4中,使用注意力神经网络来编码以向量表示的依赖关系,从而计算包含更简洁的句法依赖信息。
特定于任务的向量HDT采用以下公式进行计算
Hdt=[D:T]
Q,K,V=HdtWQ,HdtWK,HdtWV
HDT=LN(Hdt+SLF-ATT(Q,K,V))
HDT=LN(HDT+FFN(HDT))
其中SLF-ATT为点乘注意力机制。
作为本发明的进一步方案,所述步骤5中,在步骤1中的BERT嵌入层之后设计了一个神经网络层,让通过预训练模型获得的词向量表征和重构的句法特征进行拼接融合,经过公式HF=Hl+HDT计算获得下游序列标注模型的输入。
所述步骤3将最初的句法树通过句法规则将原始依赖树剪枝重塑形状以使其更多关注句子中的相关短语,然后修剪该树以丢弃不必要的关系,以获得更加简洁的、面向短语的、特定于任务的表达。
本发明可以通过对原数据集进行观察分析总结出句法规则,并依据观察得出的句法规则对原句法树进行重塑和修剪。
本发明的有益效果是:
1、本发明使用了外部句法解析工具,根据任务重构了句法树,并通过注意力机制将句法信息引入到Bert模型中。重构后的句法树能够通过注意力机制,直接得到方面词和观点词之间的依赖关系,这有助于模型对方面词进行情感分类任务;
2、本发明还引入了单词的词性信息,方面词的表达跟词性有很大关联性,其中大多数方面词往往是由数个名词的组合、名词和形容词的组合以及副词和名词的组合构成,通过词性分析能够浅层次的识别出一些方面词,通过词性信息也对方面词的边界有一定的指导作用。
附图说明
图1为本发明中的流程图;
图2为本发明的最初句法树及经过修剪重塑得到新依赖树的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:如图1-2所示,一种结合重构句法信息的端到端方面级情感分析方法,所述方法的具体步骤如下:
步骤1、通过Bert预训练模型对文本编码,获得具有上下文表征的词向量表征;
作为本发明的进一步方案,所述步骤1中,Bert嵌入层将句子作为输入,利用整个句子的信息来计算词级特征,词向量表征通过公式Hl=Transformerl(Hl-1)计算,其中Hl表第l层的特征表示。
步骤2、使用AllenNLP工具设计Biaffine模型,使用双仿射模型Biaffine获得最初的句法树;
进一步地,步骤2中使用的AllenNLP工具是一个用于构建自然语言处理的深度学习模型,它建立在PyTorch之上,为NLP中的通用组件和模型提供高级抽象和API以及可扩展的框架,便于运行和管理NLP实验。
步骤3、将最初的句法树通过句法规则重塑修剪获得新的依赖树;
作为本发明的进一步方案,所述步骤3中,将最初的句法树通过句法规则重塑修剪获得新的依赖树的具体步骤如下:
步骤3.1、对最初的句法树进行深度优先遍历,得出从root→children的各个带有单词、依赖信息和词性信息的枝节;
步骤3.2、按句法规则顺序依次进行查询,并设置大小为2步进为1的滑动窗口进行切分;并对窗口内的数据进行处理,若符合句法规则,则将窗口内两个单词间的依赖关系改为第一个单词与其父节点的依赖关系;
步骤3.3、将处理后的句法树的依赖关系和词性信息按原句子顺序排列,并通过随机生成的方式获取依赖关系向量表征D和词性向量表征T。
所述步骤3将最初的句法树通过句法规则将原始依赖树剪枝重塑形状以使其更多关注句子中的相关短语,然后修剪该树以丢弃不必要的关系,以获得更加简洁的、面向短语的、特定于任务的表达。
本发明可以通过对原数据集进行观察分析总结出句法规则,并依据观察得出的句法规则对原句法树进行重塑和修剪。
步骤4、使用注意力神经网络对新的依赖树编码得到重构的句法特征;
作为本发明的进一步方案,所述步骤4中,使用注意力神经网络来编码以向量表示的依赖关系,从而计算包含更简洁的句法依赖信息。
特定于任务的向量HDT采用以下公式进行计算
Hdt=[D:T]
Q,K,V=HdtWQ,HdtWK,HdtWV
HDT=LN(Hdt+SLF-ATT(Q,K,V))
HDT=LN(HDT+FFN(HDT))
其中SLF-ATT为点乘注意力机制。
步骤5、使用步骤1与步骤4分别得到的词向量表征和重构的句法特征,进行特征拼接融合后输入至下游序列标注模型;
作为本发明的进一步方案,所述步骤5中,在步骤1中的BERT嵌入层之后设计了一个神经网络层,让通过预训练模型获得的词向量表征和重构的句法特征进行拼接融合,经过公式HF=Hl+HDT计算获得下游序列标注模型的输入。
步骤6、通过下游序列标注模型的输出结果得到方面级情感分析的结果。
本发明的步骤6中,在TFM层上使用softmax与线性层通过公式p(yt|wt)=softmax(WoH+bo)计算预测结果。
实施例2:如图1-2所示,一种结合重构句法信息的端到端方面级情感分析方法,
步骤一:输入文本到bert层编码。输入特定领域的评论文本wn,表示为w=(w1,...,wN),其中N是句子的长度。然后将输入特征打包为H0=(x1,...,xT),其中xn(t∈[1,N])是输入wn对应的单词嵌入、位置嵌入和段嵌入的组合;
第L层的特征表示计算如下:
Hl=Transformerl(Hl-1)
步骤三:预测标签,将Hl作为输入单词的上下文表示,并使用它们来执行下游任务的预测。本发明基于序列化标注的方法对多个词同时标记,使用“整体标签方案”(BIOES)标注模式,即标签yt的可能的结果值是B-{POS,NEG,NEU},I-{POS,NEG,NEU},E-{POS,NEG,NEU},S-{POS,NEG,NEU}或0,分别表示由多个单词构成的方面词的开始、内部和结尾,以及由单个单词构成的方面词,括号内表明该方面词的情感极性,0表示其他词;
步骤四:获取最初的句法树:使用AllenNLP工具设计Biaffine模型,使句子的句法结构可以通过依存关系解析来发现,单词之间的关系用有向边来表示;
步骤五:重塑依赖关系树:首先,观察分析大量的原数据,总结句法规则;然后,对原句法树进行深度优先遍历,得出从root→children的各个带有单词、依赖信息和词性信息的枝节;本发明设置了大小为2步进为1的滑动窗口进行切分,对窗口内数据的处理依据列出规则顺序依次查询,符合规则就将窗口内两个单词间的依赖关系改为第一个单词与其父节点的依赖关系。为了保证句法树处理的准确性,对窗口内数据的处理依据规则顺序依次查询;最后,将处理后的句法树的依赖关系和词性信息按原句子顺序排列,并通过随机生成的方式获取依赖关系向量表征D=(d1,...,dN)和词性向量表征T=(t1,...,tN),并设置D与T的纬度均为384。
步骤六:对新的依赖树进行编码:为了对新的依赖树进行编码以进行E2E-ABSA任务,通过自注意力神经网络的变体构建特定于任务的向量表示HDT=(p1,...,pN),具体的计算过程如下:
Hdt=[D:T]
Q,K,V=HdtWQ,HdtWK,HdtWV
HDT=LN(Hdt+SLF-ATT(Q,K,V))
HDT=LN(HDT+FFN(HDT))
其中SLF-ATT为点乘注意力机制,Hdt=(dt1,...,dtN)由D=(d1,...,dN)和T=(t1,...,tN)拼接得到,所以HDT维度为768。
步骤七:构建神经网络层。首先,将由Bert层获得的具有上下文表征的词嵌入与句法信息表示直接相加,获得下游网络的输入H,计算过程如下:
HF=Hl+HDT
最后,在设计的Transformer层上使用softmax与线性层以输出预测结果p(yt|wt),计算过程如下:
p(yt|wt)=softmax(WoH+bo)
对于ABSA任务实现更集成的解决方案需要对数据进行标注,本发明采用“整体标签方案”,即BIES,表示正,负或中性的单词舆论目标的开始,内部,结尾和单个目标情感,O表示NULL情感;对应表1的“整体”行:
表1数据标注描述
对原数据集进行了大量的分析,总结句法规则,如表2所示:
表2为句法规则总结
单词词性 | 单词间的依赖关系 |
NOUN→NOUN | dep,nn,pobj,amod,dobj,nsubj |
PROPN→PROPN | dep,amod,pobj,nn,dobj,pcomp |
NOUN→PROPN | dep,nusbj,amod,nn,pobj |
ADJ→ADJ | amod,advmod,dep,num,nsubj,npadvmod |
ADJ→ADV | nsubj,advmod,dep |
ADV→ADV | advmod,dep,neg,prep |
NUM→ADJ | dep,amod |
采用精确率P、召回率R和F1分数来评价模型的性能。
首先,在现存的深度学习框架中,选择与任务相关且具有代表性的模型作为baseline对比,对比结果如表3所示:
表3 F1值比较结果
其中有CRF以及NN-CRF,LSTM-unified及LSTM-CNN-CRF,HAST-TNet,DOER,BG-CS-OE及IMN、Bert-TFM。显然本发明提出的方法在所有数据集下,相对于所有的基线模型P,R,F1值均取得最优结果。在Laptop数据集上,本发明方法F1达到了61.57%,在Rest数据集上,F1值达到了75.26%,与NN-CRF相比在L安排top数据集和Test数据集上分别取得了1.5%和1.13%的提升;与Bert-TFM相比,在F1值上获得0.77%和0.84%提升,在召回率和准确率略有提升。
其次,进行了消融分析,以验证提出方法中多种E2E-ABSA层设计以及句法信息和词性信息的有效性,在Rest数据集上进了实验与分析,结果如表4所示:
表4为消融实验结果
Model | P | R | F |
Bert-TFM | 72.39 | 76.64 | 74.41 |
Bert-TFM+dep_tree | 72.77 | 76.04 | 74.37 |
Bert-TFM+new_dep_tree | 73.06 | 76.67 | 74.82 |
Bert-TFM+tag | 71.95 | 77.32 | 74.54 |
Bert-TFM+dep_tree+tag | 72.74 | 77.20 | 74.90 |
FullModel | 73.45 | 77.25 | 75.25 |
用“bert-base-uncased”模型进行预训练,transformer layer层数为12,隐藏层的维度为768。对于下游任务的E2E-ABSA组件,本发明使用单层架构,学习率是2e-5。对于Laptop数据集,batch size设置为32,对于REST数据集,batch size设置为16,模型的最大迭代次数为1500步。按照这些设置,本文训练了5个具有不同随机种子的模型,并报告了平均结果。
本发明结合重构句法信息的端到端方面级情感分析方法具有较好的性能,主要有以下几方面的原因:1、本发明的方法使用了外部句法解析工具,根据任务重构了句法树,并通过注意力机制将句法信息引入到Bert模型中。重构后的句法树能够通过注意力机制,直接得到大致的方面词和观点词之间的依赖关系,这有助于模型对方面词进行情感分类任务;2、本发明还引入了单词的词性信息,方面词的表达跟词性有很大关联性,其中大多数方面词往往是由数个名词的组合、名词和形容词的组合以及副词和名词的组合构成,通过词性分析能够浅层次的识别出一些方面词,通过词性信息也对方面词的边界有一定的指导作用。
综上所述,本发明在结合重构句法信息的端到端方面级情感分析任务上有较好性能;本发明增强了方面词和观点词之间的关联感知能力,能够获取方面词和观点词之间的有效的句法依赖关系。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (5)
1.一种结合重构句法信息的端到端方面级情感分析方法,其特征在于:所述方法的具体步骤如下:
步骤1、通过Bert预训练模型对文本编码,获得具有上下文表征的词向量表征;
步骤2、使用双仿射模型Biaffine获得最初的句法树;
步骤3、将最初的句法树通过句法规则重塑修剪获得新的依赖树;
步骤4、使用注意力神经网络对新的依赖树编码得到重构的句法特征;
步骤5、使用步骤1与步骤4分别得到的词向量表征和重构的句法特征,进行特征拼接融合后输入至下游序列标注模型;
步骤6、通过下游序列标注模型的输出结果得到方面级情感分析的结果。
2.根据权利要求1所述的结合重构句法信息的端到端方面级情感分析方法,其特征在于:所述步骤1中,Bert嵌入层将句子作为输入,利用整个句子的信息来计算词级特征,词向量表征通过公式Hl=Transformerl(Hl-1)计算,其中Hl表第l层的特征表示。
3.根据权利要求1所述的结合重构句法信息的端到端方面级情感分析方法,其特征在于:所述步骤3中,将最初的句法树通过句法规则重塑修剪获得新的依赖树的具体步骤如下:
步骤3.1、对最初的句法树进行深度优先遍历,得出从root→children的各个带有单词、依赖信息和词性信息的枝节;
步骤3.2、按句法规则顺序依次进行查询,并设置大小为2步进为1的滑动窗口进行切分;并对窗口内的数据进行处理,若符合句法规则,则将窗口内两个单词间的依赖关系改为第一个单词与其父节点的依赖关系;
步骤3.3、将处理后的句法树的依赖关系和词性信息按原句子顺序排列,并通过随机生成的方式获取依赖关系向量表征D和词性向量表征T。
4.根据权利要求1所述的结合重构句法信息的端到端方面级情感分析方法,其特征在于:所述步骤4中,使用注意力神经网络来编码以向量表示的依赖关系,从而计算包含更简洁的句法依赖信息。
5.根据权利要求1所述的结合重构句法信息的端到端方面级情感分析方法,其特征在于:所述步骤5中,在步骤1中的BERT嵌入层之后设计了一个神经网络层,让通过预训练模型获得的词向量表征和重构的句法特征进行拼接融合,获得下游序列标注模型的输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110163081.7A CN112926337B (zh) | 2021-02-05 | 2021-02-05 | 一种结合重构句法信息的端到端方面级情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110163081.7A CN112926337B (zh) | 2021-02-05 | 2021-02-05 | 一种结合重构句法信息的端到端方面级情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112926337A true CN112926337A (zh) | 2021-06-08 |
CN112926337B CN112926337B (zh) | 2022-05-17 |
Family
ID=76170870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110163081.7A Active CN112926337B (zh) | 2021-02-05 | 2021-02-05 | 一种结合重构句法信息的端到端方面级情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112926337B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392190A (zh) * | 2021-08-17 | 2021-09-14 | 财付通支付科技有限公司 | 一种文本识别方法、相关设备及装置 |
CN114969318A (zh) * | 2022-01-21 | 2022-08-30 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于多图稀疏交互网络的多任务立场检测方法 |
CN115269837A (zh) * | 2022-07-19 | 2022-11-01 | 江南大学 | 融合位置信息的三元组抽取方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646088A (zh) * | 2013-12-13 | 2014-03-19 | 合肥工业大学 | 基于CRFs和SVM的产品评论细粒度情感要素提取 |
CN108363695A (zh) * | 2018-02-23 | 2018-08-03 | 西南交通大学 | 一种基于双向依赖语法树表征的用户评论属性抽取方法 |
US20200159830A1 (en) * | 2018-11-21 | 2020-05-21 | International Business Machines Corporation | Unsupervised targeted sentiment analysis using dependency parsing and linguistic heuristics |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111488734A (zh) * | 2020-04-14 | 2020-08-04 | 西安交通大学 | 基于全局交互和句法依赖的情感特征表示学习系统及方法 |
CN111611393A (zh) * | 2020-06-29 | 2020-09-01 | 支付宝(杭州)信息技术有限公司 | 一种文本分类方法、装置及设备 |
CN112115700A (zh) * | 2020-08-19 | 2020-12-22 | 北京交通大学 | 一种基于依存句法树和深度学习的方面级情感分析方法 |
CN112199504A (zh) * | 2020-10-30 | 2021-01-08 | 福州大学 | 一种融合外部知识与交互注意力机制的视角级文本情感分类方法及系统 |
-
2021
- 2021-02-05 CN CN202110163081.7A patent/CN112926337B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646088A (zh) * | 2013-12-13 | 2014-03-19 | 合肥工业大学 | 基于CRFs和SVM的产品评论细粒度情感要素提取 |
CN108363695A (zh) * | 2018-02-23 | 2018-08-03 | 西南交通大学 | 一种基于双向依赖语法树表征的用户评论属性抽取方法 |
US20200159830A1 (en) * | 2018-11-21 | 2020-05-21 | International Business Machines Corporation | Unsupervised targeted sentiment analysis using dependency parsing and linguistic heuristics |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111488734A (zh) * | 2020-04-14 | 2020-08-04 | 西安交通大学 | 基于全局交互和句法依赖的情感特征表示学习系统及方法 |
CN111611393A (zh) * | 2020-06-29 | 2020-09-01 | 支付宝(杭州)信息技术有限公司 | 一种文本分类方法、装置及设备 |
CN112115700A (zh) * | 2020-08-19 | 2020-12-22 | 北京交通大学 | 一种基于依存句法树和深度学习的方面级情感分析方法 |
CN112199504A (zh) * | 2020-10-30 | 2021-01-08 | 福州大学 | 一种融合外部知识与交互注意力机制的视角级文本情感分类方法及系统 |
Non-Patent Citations (2)
Title |
---|
YUNLONG LIANG: "A Dependency Syntactic Knowledge Augmented Interactive Architecture for End-to-End Aspect-based Sentiment Analysis", 《ARXIV:2004.01951V1》 * |
张健: "基于深度学习的情感分析研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392190A (zh) * | 2021-08-17 | 2021-09-14 | 财付通支付科技有限公司 | 一种文本识别方法、相关设备及装置 |
CN113392190B (zh) * | 2021-08-17 | 2022-02-08 | 财付通支付科技有限公司 | 一种文本识别方法、相关设备及装置 |
CN114969318A (zh) * | 2022-01-21 | 2022-08-30 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于多图稀疏交互网络的多任务立场检测方法 |
CN115269837A (zh) * | 2022-07-19 | 2022-11-01 | 江南大学 | 融合位置信息的三元组抽取方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112926337B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108519890B (zh) | 一种基于自注意力机制的鲁棒性代码摘要生成方法 | |
CN111177394B (zh) | 基于句法注意力神经网络的知识图谱关系数据分类方法 | |
CN112926337B (zh) | 一种结合重构句法信息的端到端方面级情感分析方法 | |
CN111931506B (zh) | 一种基于图信息增强的实体关系抽取方法 | |
CN110929030A (zh) | 一种文本摘要和情感分类联合训练方法 | |
CN113641822B (zh) | 一种基于图神经网络的细粒度情感分类方法 | |
CN111611814B (zh) | 一种基于相似度感知的神经机器翻译方法 | |
CN109783806A (zh) | 一种利用语义解析结构的文本匹配方法 | |
CN112183059A (zh) | 一种中文结构化事件抽取方法 | |
CN113657123A (zh) | 基于目标模板指导和关系头编码的蒙语方面级情感分析方法 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
Qin et al. | A survey on text-to-sql parsing: Concepts, methods, and future directions | |
CN114528398A (zh) | 一种基于交互双重图卷积网络的情感预测方法及系统 | |
CN115759119A (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN115510863A (zh) | 一种面向问句匹配任务的数据增强方法 | |
CN114238636A (zh) | 一种基于翻译匹配的跨语言属性级情感分类方法 | |
CN114332519A (zh) | 一种基于外部三元组和抽象关系的图像描述生成方法 | |
CN112287119B (zh) | 一种在线资源相关信息抽取的知识图谱生成方法 | |
Zhang et al. | A contrastive learning framework with tree-LSTMs for aspect-based sentiment analysis | |
CN111382333B (zh) | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 | |
CN117609421A (zh) | 基于大语言模型的电力专业知识智能问答系统构建方法 | |
CN115204143B (zh) | 一种基于prompt的文本相似度计算方法及系统 | |
CN116340507A (zh) | 一种基于混合权重和双通道图卷积的方面级情感分析方法 | |
WO2023077562A1 (zh) | 一种基于图扰动策略的事件检测方法及装置 | |
CN114943216A (zh) | 基于图注意力网络的案件微博属性级观点挖掘方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |