CN111488734A - 基于全局交互和句法依赖的情感特征表示学习系统及方法 - Google Patents

基于全局交互和句法依赖的情感特征表示学习系统及方法 Download PDF

Info

Publication number
CN111488734A
CN111488734A CN202010292143.XA CN202010292143A CN111488734A CN 111488734 A CN111488734 A CN 111488734A CN 202010292143 A CN202010292143 A CN 202010292143A CN 111488734 A CN111488734 A CN 111488734A
Authority
CN
China
Prior art keywords
word
representation
evaluation object
weight
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010292143.XA
Other languages
English (en)
Other versions
CN111488734B (zh
Inventor
饶元
冯聪
吴连伟
赵永强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202010292143.XA priority Critical patent/CN111488734B/zh
Publication of CN111488734A publication Critical patent/CN111488734A/zh
Application granted granted Critical
Publication of CN111488734B publication Critical patent/CN111488734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于全局交互和句法依赖的情感特征表示学习系统及方法,通过上下文和评价对象的信息交互、单词句法依赖关系的引入以及特征联合学习;本发明使用预训练的多层语言模型对单词进行嵌入表示,获取了单词更加语境化的表示;同时利用BERT结构的优越性使用期双句任务模式解决以往方法上下文和评价对象独立建模导致的交互不充分问题;本发明提出了图依赖注意力网络,解决了图注意力网络没有区分不同依赖关系影响的问题,同时合理的将评论的句法关系建模进模型中,使得单词表示带有句法依赖信息;本发明使用了特征联合学习方法,充分的使评论的交互信息和句法依赖信息相结合,从而提升了评价对象情感分析的准确性。

Description

基于全局交互和句法依赖的情感特征表示学习系统及方法
【技术领域】
本发明属于自然语言处理技术与情感判断领域,涉及一种基于全局交互和句法依赖的情感特征表示学习系统及方法。
【背景技术】
随着互联网的迅速发展,网络购物已经成为人们生活不可或缺的一部分,同时因网络购物而产生的网络产品在线评论数据也呈现指数性增长。这些评论数据大都是消费者使用产品后的真实感受与客观评价,不仅可以引导或促进其它消费者的购买兴趣,而且也可以帮助产品提供者获取产品存在的问题缺陷与不足,推动产品设计与服务的优化,因此,对在线评论数据的挖掘和利用蕴含着重要的商业价值。具体而言,从消费者角度来说,针对某位消费者想要关注的可能是产品的具体属性和特征,例如手机中的续航、分辨率、拍照质量等特征,或者是电脑的性能、故障率以及外观等特征,通过了解其他消费者对于这些属性或特征的情感极性分析从而可以分辨出哪款商品更好,可以有效的指导消费者购买产品;从商家角度来说,获取消费者对于产品的情感极性也是必要的,相比于积极的评论,商家更关注于消费者发表消极评论的方面,因为这样可以有效指导商家发现产品的不足和缺陷,确定下一步的产品改进方向。因此,面对海量的在线商品以及商品的在线评论信息,如何获取消费者针对这些商品的细粒度属性特征进行情感极性和观点倾向的深入挖掘,已成为亟需解决的重要问题。
基于评价对象的情感分析目前主要分为基于模板匹配、情感词典以及深度学习这三类方法。其中,模板匹配的方法是指根据单词之间的依赖关系,将常见的评价对象和评价词的的出现方式归类为不同的模板,使用模板从评论中抽取候选评价搭配<评价对象,评价词>,并根据评价词的情感极性来确定评价对象的情感极性,这类方法是无监督的方法,虽然取得了一定的效果,但是很难处理比较复杂的句子,同时会引入大量的噪声。基于情感词典的方法是指通过情感词典将评论中带有情感极性的单词全部提取出来,为每个情感词分配不同的分值,最后将评论的情感词总分作为区分情感极性的标准,这种方法无法处理句子中同时有相反情感极性评价对象的情况,从而导致准确率较低。基于深度学习的方法主要是利用深度神经网络自动特征工程的能力,分别对评论的上下文和评价对象建模,并使用两者的交互获取最终的情感特征,同时使用相对位置权重进行特征筛选,这种方法是目前基于评价对象的情感分析主流方法,虽然取得了很多成就,但是目前仍存在注意力机制噪声、相对位置权重导致的信息衰减、上下文和评价对象交互不充分、单词依赖关系没有得到充分利用等问题,这在很大程度上影响到产品的评价对象情感分析的准确性。
【发明内容】
本发明的目的在于解决现有技术中的问题,提供一种基于全局交互和句法依赖的情感特征表示学习系统及方法,通过上下文和评价对象的信息交互、单词句法依赖关系的引入以及特征联合学习,实现了对网络产品在线评论中的细粒度评价对象的情感与倾向分析。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于全局交互和句法依赖的情感特征表示学习系统,包括:
全局交互表示模块,所述全局交互表示模块利用预训练语言模型BERT的双句任务模式对评论上下文和所需要分析的评价对象进行语境化嵌入,并利用BERT本身结构进行上下文和评价对象的交互计算;同时,通过采用动态位置权重层来计算评价对象的相对语义距离;最后,使用多头自注意力机制实现信息的交互获取评论的全局交互特征表示;
句法依赖表示模块,句法依赖表示模块用于学习句子中的句法结构信息,使用依赖关系发现单词间的长距离影响或直接影响,从而生成评论的句法依赖特征表示;
特征联合学习模块,所述特征联合学习模块使用注意力机制计算评价对象的情感特征,并使用特征联合学习以融合全局交互特征表示、评价对象情感特征表示和句法依赖特征表示,从而完成评价对象情感分析的最佳优化。
一种基于全局交互和句法依赖的情感特征表示学习方法,包括以下步骤:
阶段0:数据预处理与标记
步骤0:将在线评论数据利用分词工具将句子分解为单词序列,并给出每条评论所对应的标签;
步骤1:给定长度为n的评论S,其中;评论S中评价对象为长度为m的短语Sa以及情感极性Y,其中,S={w1,w2,w3,...,wn},
Figure BDA0002450804800000031
上标a为单词输入评价对象短语,wn为评论中的一个单词,Y为该条评论对应情感极性,且Y={Positive,Negative,Neutral};Positive、Negative和Neutral分别表示积极、消极和中立;
阶段1:全局交互特征表示学习
步骤2:采用预训练的语言模型BERT作为单词嵌入工具;
步骤3:使用BERT的双句任务模式输入当前评论的完整上下文以及需要进行情感分析的评价对象;通过BERT自身的多头自注意力机制计算上下文以及评价对象之间的初级交互表示:
Figure BDA0002450804800000041
其中,
Figure BDA0002450804800000042
为句子中第i个单词的输入,BERTg为全局交互表示学习阶段所使用的语言模型,
Figure BDA0002450804800000043
为句子中第i个单词通过BERT生成的嵌入表示,上标g为全局交互特征模块的标记;
步骤4:将上下文和评价对象的嵌入表示输入到Bi-LSTM层中获取句子的序列信息,经过Bi-LSTM建模之后的单词隐藏层状态表示为:
Figure BDA0002450804800000044
其中,
Figure BDA0002450804800000045
为单词隐藏层状态;
步骤5:设置动态位置的权重,将句子分为权重保持窗口和权重衰减窗口,且在权重保持窗口内的单词都被认为是与评价对象相关的,即位置权重Li为1;
定义语义相关距离SRD和权重保持阈值WKT来确定一个单词是否在该评价对象的权重保持窗口内;
针对评价对象短语,其权重设为1;经过位置权重加权的单词特征表示为:
Figure BDA0002450804800000046
其中,
Figure BDA0002450804800000047
为单词特征表示;
步骤6:计算深度全局交互表示,更新上下文与评价对象的相互影响来获取情感特征;采用多头自注意力机制,基于多头执行多个注意力操作,从不同的角度获取单词之间的联系,多头自注意力的计算方法如下:
Figure BDA0002450804800000048
其中,
Figure BDA0002450804800000049
分别是将
Figure BDA00024508048000000410
映射到不同向量空间中的权重矩阵得到的Qh,Kh,Vh,每个注意力头的矩阵不共享参数,其中Qh,Kh,Vh分别为第h个注意力头的Query,Key和Value;WO为可训练的权重矩阵;headh,1≤h≤H代表第h个注意力头的输出;
对于给定的
Figure BDA0002450804800000051
自注意力的计算方法如下:
Figure BDA0002450804800000052
其中,
Figure BDA0002450804800000053
为Kh的转置,上标T为转置操作,dk为注意力头的输入维度;
获取全局交互的特征表示
Figure BDA0002450804800000054
其中包含了上下文在评价对象影响下的表示和评价对象在上下文影响下的表示;
阶段2:学习句法依赖特征表示
步骤7:基于上下文的初始表示,使用BERT作为词嵌入工具,只对评论内容进行嵌入;上下文嵌入被计算为:
Figure BDA0002450804800000055
其中,
Figure BDA0002450804800000056
为句子中第i个单词的输入,BERTd为全局交互表示学习阶段使用的语言模型,在此步骤中,
Figure BDA0002450804800000057
Figure BDA0002450804800000058
为两模块同一单词的不同输入,BERTd与BERTg为不共享参数的两个不同BERT模型,
Figure BDA0002450804800000059
为句子中第i个单词通过BERTd生成的嵌入表示,上标d为句法依赖表示模块;
步骤8:强化序列特征,使用Bi-LSTM强化上下文序列特征:
Figure BDA00024508048000000510
其中,
Figure BDA00024508048000000511
为强化后的上下文序列特征;
步骤9:生成句法依赖树,首先使用依存语法解析工具将评论句子处理成句法依赖树结构,采用StanfordCoreNlp作为依存句法解析工具;
步骤10:构成句法邻接矩阵Aij,使用句法依赖树的无向图矩阵;若Aij=0,则表示节点i和节点j之间不存在句法依赖关系;若Aij=k,则节点i和节点j之间存在序号为k的依赖关系;
步骤11:依赖信息建模,采用基于图注意力网络改进的图依赖注意力网络进行计算;
阶段3:特征联合学习
步骤12:采用特征联合学习的方法,通过两种特征的交互融合来获取评价对象的情感特征表示;
步骤13:获取评价对象表示,全局交互特征中包括:上下文表示和评价对象表示,使用context mask机制掩盖上下文部分只保留评价对象部分,来获取评价对象的表示;
步骤14:获取评价对象情感特征,使用步骤13中获取的评价对象表示,并与句法依赖特征进行交互注意力计算获取注意力权重:
Figure BDA0002450804800000061
其中,Wr为权重矩阵,br为偏置项,
Figure BDA0002450804800000062
为评价对象短语中第i个单词的表示,
Figure BDA0002450804800000063
为上下文中第j个单词的句法依赖特征表示,
Figure BDA0002450804800000064
为单词i和单词j的注意力权重;
通过注意力权重加权获得评价对象第i个单词融合句法依赖信息的表示,并将整个短语进行均值池化后,获取最终的评价对象特征表示:
Figure BDA0002450804800000065
其中,
Figure BDA0002450804800000066
为评价对象短语中第i个单词的特征表示,αij为单词i和单词j的注意力权重,σ为非线性激活函数,M为评价对象短语的长度;
步骤15:最终情感特征表示,将全局交互特征及句法依赖特征均采用均值池化处理,并将其与评价对象情感特征表示拼接,获取最终用于分类的情感特征表示:
h=(h′g:ha:h′d) (10)
其中,h′g为经过池化后的全局交互特征表示,h′d为经过池化后的句法依赖特征表示;
步骤16:获取情感类别,将评价对象在当前上下文中的最终情感特征表示用于情感分类;然后,将h输入全连接层,并使用Softmax激活函数获取最终的预测情感标签:
Figure BDA0002450804800000071
其中,Wp和bp为全连接层的参数矩阵,
Figure BDA0002450804800000072
为最终预测的情感标签;
使用交叉熵损失函数来迭代与更新参数,使用L2正则化避免梯度消失:
Figure BDA0002450804800000073
其中,
Figure BDA0002450804800000074
为评论的的真实情感标签,N为评论的长度,C为标签的种类,
Figure BDA0002450804800000075
为模型预测的情感标签,θ为模型的参数,λ为L2正则化的参数。
本发明进一步的改进在于:
所述步骤3中,输入格式表示为“[CLS]上下文[SEP]评价对象[SEP]”。
所述步骤5中,句子中的第i单词和评价对象的SRDi计算方法如下:
Figure BDA0002450804800000076
Figure BDA0002450804800000077
其中,
Figure BDA0002450804800000078
Figure BDA0002450804800000079
分别为评价对象短语开头单词和结尾单词所在的位置,Pa为评价对象短语的中心位置,m为评价对象短语的长度;对于设定好的权重保持阈值WKT,若单词i的SRDi小于或等于WKT,则单词位于权重保持窗口内,否则单词就位于权重衰减窗口内,并且单词的具体位置权重Li能够分区间的表示为:
Figure BDA0002450804800000081
所述步骤7中,输入格式表示为“[CLS]上下文[SEP]”。
所述步骤11中,采用基于图注意力网络改进的图依赖注意力网络进行计算的具体方法如下:
步骤11-1,对于节点i,找出句法依赖树中其邻居节点集合
Figure BDA0002450804800000082
节点i属于邻居节点集合
Figure BDA0002450804800000083
步骤11-2,计算邻居节点集合
Figure BDA0002450804800000084
中节点j对于节点i的语义相似度eij
Figure BDA0002450804800000085
其中,
Figure BDA0002450804800000086
为第j个节点的特征表示,公式(16)中使用的计算方法为加性注意力,且节点j的语义权重计算为:
Figure BDA0002450804800000087
初始化依赖权重矩阵C,初始化值均为1,在模型学习过程中不断更新依赖权重;所以能够根据邻接矩阵Aij的值获取依赖权重C[Aij];
步骤11-3,根据语义权重、依赖权重以及节点i自身的特征加权和生成句法依赖相关的特征:
Figure BDA0002450804800000088
其中,
Figure BDA0002450804800000089
为经过图依赖注意力网络计算过后的第i个节点的表示,Wa为可训练的参数矩阵;使用K个不同注意力同时计算句法依赖特征,然后将获得的特征拼接起来取平均值:
Figure BDA0002450804800000091
其中,
Figure BDA0002450804800000092
为第k个注意力头计算出的权重,
Figure BDA0002450804800000093
为为第k个注意力头的参数矩阵;
步骤11-4,使用2层图依赖注意力网络以发现单词长距离依赖。
与现有技术相比,本发明具有以下有益效果:
本发明通过上下文和评价对象的信息交互、单词句法依赖关系的引入以及特征联合学习,克服了现有技术在实现网络产品评论中针对评价对象情感分析的缺点与不足;本发明使用预训练的多层语言模型对单词进行嵌入表示,获取了单词更加语境化的表示,解决了以往方法单词嵌入表示不够丰富,无法解决一词多义的问题;同时利用BERT结构的优越性使用期双句任务模式解决以往方法上下文和评价对象独立建模导致的交互不充分问题;本发明提出了动态位置权重层,为评论划分权重保持窗口和权重衰减窗口,从而解决了传统相对位置权重带来的有益信息衰减问题;本发明创新性地提出了图依赖注意力网络,解决了图注意力网络没有区分不同依赖关系影响的问题,同时合理的将评论的句法关系建模进模型中,使得单词表示带有句法依赖信息;本发明使用了特征联合学习方法,充分的使评论的交互信息和句法依赖信息相结合,从而提升了评价对象情感分析的准确性。
【附图说明】
图1为本发明的架构图;
图2为本发明中使用的BERT-SPC双句输入格式;
图3为本发明中动态位置权重示例图;
图4为本发明中使用的BERT单句输入格式;
图5为本发明中涉及到的句法依赖树示例图;
图6为本发明中涉及到的句法依赖树的无向图矩阵。
【具体实施方式】
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,不是全部的实施例,而并非要限制本发明公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要的混淆本发明公开的概念。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
在附图中示出了根据本发明公开实施例的各种结构示意图。这些图并非是按比例绘制的,其中为了清楚表达的目的,放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
本发明公开的上下文中,当将一层/元件称作位于另一层/元件“上”时,该层/元件可以直接位于该另一层/元件上,或者它们之间可以存在居中层/元件。另外,如果在一种朝向中一层/元件位于另一层/元件“上”,那么当调转朝向时,该层/元件可以位于该另一层/元件“下”。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
参见图1,本发明基于全局交互和句法依赖的情感特征表示学习系统,包括全局交互表示模块,句法依赖表示模块,以及特征联合学习模块。
全局交互表示模块:利用预训练语言模型BERT的双句任务模式对评论上下文和所需要分析的评价对象进行语境化嵌入,从而解决了传统预训练语言模型方法无法区分单词的多义特征的问题,并利用BERT本身结构进行上下文和评价对象的交互计算。同时,通过采用动态位置权重层来计算评价对象的相对语义距离,从而减少情感无关特征的噪声影响;最后,使用多头自注意力机制来进一步实现信息的交互获取评论的全局交互特征表示。
句法依赖表示模块:提出了一种基于图依赖注意力网络的特征抽取器,该特征抽取器的作用是学习句子中的句法结构信息,使用依赖关系发现单词间的长距离影响或直接影响,从而生成评论的句法依赖特征表示。
特征联合学习模块:使用注意力机制计算评价对象的情感特征,并使用特征联合学习以融合全局交互特征表示、评价对象情感特征表示和句法依赖特征表示,从而完成评价对象情感分析的最佳优化。
如图2所示,本发明还公开了一种利用上述系统的基于全局交互和句法依赖的情感特征表示学习方法,包括以下步骤:
阶段0:数据预处理与标记
步骤0:将在线评论数据利用分词工具将句子分解为单词序列,并给出每条评论所对应的标签;
步骤1:给定长度为n的评论S={w1,w2,w3,...,wn},评论中评价对象为长度为m的短语
Figure BDA0002450804800000121
以及情感极性Y,其中wi代表评论中的一个单词,Y代表该条评论对应情感极性,且Y={Positive,Negative,Neutral},分别代表积极、消极和中立。
阶段1:全局交互特征表示学习
步骤2:嵌入层是模型的基础层,目的是将每个单词通过嵌入层映射到向量空间中,采用预训练的语言模型BERT作为单词嵌入工具,相较传统的词嵌入方法可以获取单词情境化的嵌入语义表示;
步骤3:为了对上下文和评价对象进行建模,使用BERT的双句任务模式来输入当前评论的完整上下文以及需要进行情感分析的评价对象,输入格式可以表示为“[CLS]上下文[SEP]评价对象[SEP]”,具体样例如图2所示。通过BERT自身的多头自注意力机制计算上下文以及评价对象之间的初级交互表示:
Figure BDA0002450804800000122
其中,
Figure BDA0002450804800000123
表示句子中第i个单词的输入,BERTg表示全局交互表示学习阶段所使用的语言模型,
Figure BDA0002450804800000124
表示句子中第i个单词通过BERT生成的嵌入表示;
步骤4:在获取上下文和评价对象的嵌入表示之后,将其输入到Bi-LSTM层中获取句子的序列信息,同时由于上下文和评价对象的联合输入,该层可以进一步加强两者之间的交互影响。经过Bi-LSTM建模之后的单词隐藏层状态可以表示为:
Figure BDA0002450804800000131
步骤5:动态位置的权重设置,此步骤将句子分为权重保持窗口和权重衰减窗口,且在权重保持窗口内的单词都被认为是与评价对象高度相关的,含有更加丰富的情感信息,所以会保留其全部表示,即位置权重为1;而在权重衰减窗口内单词由于其距离评价对象较远(具体样例如图3所示),所以他们的特征会通过加权衰减来降低对评价对象的影响。
为了确定一个单词是否在该评价对象的权重保持窗口内,同时定义了语义相关距离(Semantic-Relative Distance,SRD)和权重保持阈值(Weight-Keep Threshold,WKT)。句子中的第i单词和评价对象的SRDi计算方法如下:
Figure BDA0002450804800000132
Figure BDA0002450804800000133
其中,
Figure BDA0002450804800000134
Figure BDA0002450804800000135
分别表示评价对象短语开头单词和结尾单词所在的位置,Pa代表了评价对象短语的中心位置,m是评价对象短语的长度。对于设定好的WKT,若单词i的SRDi小于或等于WKT,则单词位于权重保持窗口内,否则单词就位于权重衰减窗口内。并且单词的具体位置权重Li可以分区间的表示为:
Figure BDA0002450804800000136
通过计算已经获取到了单词的位置权重,但是这些权重都是针对于上下文部分,而针对评价对象短语,本发明不对其特征进行改变,这是因为评价对象短语中一般都是名词,且这些名词不会因为所在位置不同而有显著的重要度区分,所以针对评价对象短语其权重直接设为1。经过位置权重加权的单词特征可以表示为:
Figure BDA0002450804800000141
步骤6:深度全局交互表示计算,经过动态位置权重层变换的单词特征表示已发生了变化,上下文中对于情感极性贡献较多的特征得到保留,贡献较少或者无关的特征被衰减,但是评价对象的表示没有发生变化,因此,再次更新上下文与评价对象的相互影响来获取更好的情感特征。
另外,此步骤采用多头自注意力机制实现,基于多头执行多个注意力操作,可以从不同的角度获取单词之间的联系,从而获得较普通注意力性能更好的效果,且多头自注意力的计算如下:
Figure BDA0002450804800000142
其中,
Figure BDA0002450804800000143
分别是将vi映射到不同向量空间中的权重矩阵得到的Qh,Kh,Vh,每个注意力头的矩阵不共享参数。WO也是可训练的权重矩阵。
对于给定的
Figure BDA0002450804800000144
自注意力的计算方法如下:
Figure BDA0002450804800000145
经过本步骤的操作,获取了全局交互的特征表示
Figure BDA0002450804800000146
其中包含了上下文在评价对象影响下的表示和评价对象在上下文影响下的表示。
阶段2:句法依赖特征表示学习
步骤7:基于上下文的初始表示,在本步骤中仍使用BERT作为词嵌入工具,区别于步骤3,本步骤只对评论内容进行嵌入,输入格式可以表示为“[CLS]上下文[SEP]”,具体样例如图4所示。上下文嵌入被计算为:
Figure BDA0002450804800000147
其中,
Figure BDA0002450804800000151
代表句子中第i个单词的输入,BERTd代表了全局交互表示学习阶段使用的语言模型,本步骤中使用的BERT与步骤3不共享参数,
Figure BDA0002450804800000152
代表句子中第i个单词通过BERT生成的嵌入表示;
步骤8:序列特征强化,使用Bi-LSTM强化上下文序列特征,为句法依赖信息的学习做准备:
Figure BDA0002450804800000153
步骤9:句法依赖树生成,为了合理的引入单词间的依赖关系,首先使用依存语法解析工具将评论句子处理成句法依赖树结构,具体样例如图5所示。在本步骤采用StanfordCoreNlp作为依存句法解析工具,并获得较高的解析准确率。
步骤10:句法邻接矩阵构成,句法依赖树也是一种特殊的图,且图中的每个节点是句子中的一个单词,图中的边是单词间的句法依赖关系,即可将句法依赖树使用图的邻接矩阵来表示。邻接矩阵一般分为有向图矩阵和无向图矩阵,考虑到句法依赖树的结构,使用有向图矩阵仅能对子节点对父节点的影响建模,而无法考虑父节点对子节点的影响,所以本步骤使用句法依赖树的无向图矩阵,且矩阵样例如图6所示。若Aij=0,则表示节点i和节点j之间不存在句法依赖关系;若Aij=n,则节点i和节点j之间存在序号为n的依赖关系。在本发明中使用了StanfordCoreNlp中出现的84种依赖关系,加上单词本身的关系,共85种,并为其标记序号。
步骤11:依赖信息建模,本步骤采用了基于图注意力网络改进的图依赖注意力网络进行计算。图注意力网络为每个邻居节点分配权重,但是忽略了节点之间的边(即节点间依赖关系)的影响。本步骤同样为不同的依赖关系分配了权重。
首先,对于节点i,找出句法依赖树中其邻居节点集合
Figure BDA0002450804800000154
在步骤中节点i同样属于
Figure BDA0002450804800000161
其次,计算
Figure BDA0002450804800000162
中节点j对于节点i的语义相似度:
Figure BDA0002450804800000163
其中,式中使用的计算方法为加性注意力。且节点j的语义权重可以计算为:
Figure BDA0002450804800000164
考虑到语义相似度没有引入不同依赖关系的影响,本发明在此步骤初始化84维可学习的依赖权重矩阵C,初始化值均为1,在模型学习过程中不断更新依赖权重。所以可根据邻接矩阵Aij的值获取依赖权重C[Aij]。
第三步,根据语义权重、依赖权重以及节点i自身的特征加权和生成句法依赖相关的特征:
Figure BDA0002450804800000165
其中,Wa是可训练的参数矩阵,σ是非线性激活函数。由于多头注意力机制具有丰富模型特征与稳定训练过程的能力,具体而言,使用K个不同注意力同时计算句法依赖特征,然后将获得的特征拼接起来取平均值:
Figure BDA0002450804800000166
最后,考虑到采用单层图依赖注意力网络可以捕获单词的直接依赖关系,而通过堆叠图依赖注意力网络的层数可以使得模型具有捕获长距离依赖关系的能力。因此,本发明中使用了2层图依赖注意力网络以发现单词长距离依赖。
阶段3:特征联合学习
步骤12:通过阶段2和阶段3已经获得了全局交互特征以及句法依赖特征,但由于两种特征之间彼此相对独立,因此,本阶段采用特征联合学习的方法,通过两种特征的交互融合来获取评价对象的情感特征表示。
步骤13:获取评价对象表示,全局交互特征中包括:上下文表示和评价对象表示,本发明使用context mask机制掩盖上下文部分只保留评价对象部分,来获取评价对象的表示。
步骤14:获取评价对象情感特征,使用步骤13中获取的评价对象表示,并与句法依赖特征进行交互注意力计算获取注意力权重:
Figure BDA0002450804800000171
其中,Wr是权重矩阵,br是偏置项,
Figure BDA0002450804800000172
代表评价对象短语中第i个单词的表示,
Figure BDA0002450804800000173
代表上下文中第j个单词的句法依赖特征表示。
然后,通过注意力权重加权获得评价对象第i个单词融合句法依赖信息的表示,并进一步将整个短语进行均值池化后,获取最终的评价对象特征表示。
Figure BDA0002450804800000174
步骤15:最终情感特征表示,将全局交互特征及句法依赖特征均采用均值池化处理,并将其与评价对象情感特征表示拼接,获取最终用于分类的情感特征表示:
h=(h′g:ha:h′d) (17)
步骤16:情感类别获取,通过步骤15已经获取评价对象在当前上下文中的最终情感特征表示,将其用于情感分类。然后,将h输入全连接层,并使用Softmax激活函数获取最终的预测标签:
Figure BDA0002450804800000175
其中,Wp和bp是全连接层的参数矩阵,
Figure BDA0002450804800000176
代表最终预测的情感标签;
考虑到在本发明中评价对象挖掘过程中所有结构的参数都是可微的,因此使用交叉熵损失函数来迭代与更新参数,使用L2正则化避免梯度消失:
Figure BDA0002450804800000181
其中,
Figure BDA0002450804800000182
为评论的的真实情感标签,N代表评论的长度,C代表标签的种类,θ代表模型的参数,λ是L2正则化的参数。
本发明适用于网络环境,尤其是电商网站中的各类商品的在线评论中,能够准确、高效地从评论中自动化地为所评论的评价对象进行情感分析。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (6)

1.一种基于全局交互和句法依赖的情感特征表示学习系统,其特征在于,包括:
全局交互表示模块,所述全局交互表示模块利用预训练语言模型BERT的双句任务模式对评论上下文和所需要分析的评价对象进行语境化嵌入,并利用BERT本身结构进行上下文和评价对象的交互计算;同时,通过采用动态位置权重层来计算评价对象的相对语义距离;最后,使用多头自注意力机制实现信息的交互获取评论的全局交互特征表示;
句法依赖表示模块,句法依赖表示模块用于学习句子中的句法结构信息,使用依赖关系发现单词间的长距离影响或直接影响,从而生成评论的句法依赖特征表示;
特征联合学习模块,所述特征联合学习模块使用注意力机制计算评价对象的情感特征,并使用特征联合学习以融合全局交互特征表示、评价对象情感特征表示和句法依赖特征表示,从而完成评价对象情感分析的最佳优化。
2.一种采用权利要求1所述系统的基于全局交互和句法依赖的情感特征表示学习方法,其特征在于,包括以下步骤:
阶段0:数据预处理与标记
步骤0:将在线评论数据利用分词工具将句子分解为单词序列,并给出每条评论所对应的标签;
步骤1:给定长度为n的评论S,其中;评论S中评价对象为长度为m的短语Sa以及情感极性Y,其中,S={w1,w2,w3,...,wn},
Figure FDA0002450804790000011
上标a为单词输入评价对象短语,wn为评论中的一个单词,Y为该条评论对应情感极性,且Y={Positive,Negative,Neutral};Positive、Negative和Neutral分别表示积极、消极和中立;
阶段1:全局交互特征表示学习
步骤2:采用预训练的语言模型BERT作为单词嵌入工具;
步骤3:使用BERT的双句任务模式输入当前评论的完整上下文以及需要进行情感分析的评价对象;通过BERT自身的多头自注意力机制计算上下文以及评价对象之间的初级交互表示:
Figure FDA0002450804790000021
其中,
Figure FDA0002450804790000022
为句子中第i个单词的输入,BERTg为全局交互表示学习阶段所使用的语言模型,
Figure FDA0002450804790000023
为句子中第i个单词通过BERT生成的嵌入表示,上标g为全局交互特征模块的标记;
步骤4:将上下文和评价对象的嵌入表示输入到Bi-LSTM层中获取句子的序列信息,经过Bi-LSTM建模之后的单词隐藏层状态表示为:
Figure FDA0002450804790000024
其中,
Figure FDA0002450804790000027
为单词隐藏层状态;
步骤5:设置动态位置的权重,将句子分为权重保持窗口和权重衰减窗口,且在权重保持窗口内的单词都被认为是与评价对象相关的,即位置权重Li为1;
定义语义相关距离SRD和权重保持阈值WKT来确定一个单词是否在该评价对象的权重保持窗口内;
针对评价对象短语,其权重设为1;经过位置权重加权的单词特征表示为:
Figure FDA0002450804790000025
其中,
Figure FDA0002450804790000026
为单词特征表示;
步骤6:计算深度全局交互表示,更新上下文与评价对象的相互影响来获取情感特征;采用多头自注意力机制,基于多头执行多个注意力操作,从不同的角度获取单词之间的联系,多头自注意力的计算方法如下:
Figure FDA0002450804790000031
其中,
Figure FDA0002450804790000032
分别是将
Figure FDA0002450804790000033
映射到不同向量空间中的权重矩阵得到的Qh,Kh,Vh,每个注意力头的矩阵不共享参数,其中Qh,Kh,Vh分别为第h个注意力头的Query,Key和Value;WO为可训练的权重矩阵;headh,1≤h≤H代表第h个注意力头的输出;
对于给定的
Figure FDA0002450804790000034
自注意力的计算方法如下:
Figure FDA0002450804790000035
其中,
Figure FDA0002450804790000036
为Kh的转置,上标T为转置操作,dk为注意力头的输入维度;
获取全局交互的特征表示
Figure FDA0002450804790000037
其中包含了上下文在评价对象影响下的表示和评价对象在上下文影响下的表示;
阶段2:学习句法依赖特征表示
步骤7:基于上下文的初始表示,使用BERT作为词嵌入工具,只对评论内容进行嵌入;上下文嵌入被计算为:
Figure FDA0002450804790000038
其中,
Figure FDA0002450804790000039
为句子中第i个单词的输入,BERTd为全局交互表示学习阶段使用的语言模型,在此步骤中,
Figure FDA00024508047900000310
Figure FDA00024508047900000311
为两模块同一单词的不同输入,BERTd与BERTg为不共享参数的两个不同BERT模型,
Figure FDA00024508047900000312
为句子中第i个单词通过BERTd生成的嵌入表示,上标d为句法依赖表示模块;
步骤8:强化序列特征,使用Bi-LSTM强化上下文序列特征:
Figure FDA0002450804790000041
其中,hi λ为强化后的上下文序列特征;
步骤9:生成句法依赖树,首先使用依存语法解析工具将评论句子处理成句法依赖树结构,采用StanfordCoreNlp作为依存句法解析工具;
步骤10:构成句法邻接矩阵Aij,使用句法依赖树的无向图矩阵;若Aij=0,则表示节点i和节点j之间不存在句法依赖关系;若Aij=k,则节点i和节点j之间存在序号为k的依赖关系;
步骤11:依赖信息建模,采用基于图注意力网络改进的图依赖注意力网络进行计算;
阶段3:特征联合学习
步骤12:采用特征联合学习的方法,通过两种特征的交互融合来获取评价对象的情感特征表示;
步骤13:获取评价对象表示,全局交互特征中包括:上下文表示和评价对象表示,使用context mask机制掩盖上下文部分只保留评价对象部分,来获取评价对象的表示;
步骤14:获取评价对象情感特征,使用步骤13中获取的评价对象表示,并与句法依赖特征进行交互注意力计算获取注意力权重:
Figure FDA0002450804790000043
其中,Wr为权重矩阵,br为偏置项,
Figure FDA0002450804790000044
为评价对象短语中第i个单词的表示,
Figure FDA0002450804790000045
为上下文中第j个单词的句法依赖特征表示,
Figure FDA0002450804790000046
为单词i和单词j的注意力权重;
通过注意力权重加权获得评价对象第i个单词融合句法依赖信息的表示,并将整个短语进行均值池化后,获取最终的评价对象特征表示:
Figure FDA0002450804790000051
其中,
Figure FDA0002450804790000052
为评价对象短语中第i个单词的特征表示,αij为单词i和单词j的注意力权重,σ为非线性激活函数,M为评价对象短语的长度;
步骤15:最终情感特征表示,将全局交互特征及句法依赖特征均采用均值池化处理,并将其与评价对象情感特征表示拼接,获取最终用于分类的情感特征表示:
h=(h′g:ha:h′d) (10)
其中,h′g为经过池化后的全局交互特征表示,h′d为经过池化后的句法依赖特征表示;
步骤16:获取情感类别,将评价对象在当前上下文中的最终情感特征表示用于情感分类;然后,将h输入全连接层,并使用Softmax激活函数获取最终的预测情感标签:
Figure FDA0002450804790000053
其中,Wp和bp为全连接层的参数矩阵,
Figure FDA0002450804790000054
为最终预测的情感标签;
使用交叉熵损失函数来迭代与更新参数,使用L2正则化避免梯度消失:
Figure FDA0002450804790000055
其中,
Figure FDA0002450804790000056
为评论的的真实情感标签,N为评论的长度,C为标签的种类,
Figure FDA0002450804790000057
为模型预测的情感标签,θ为模型的参数,λ为L2正则化的参数。
3.根据权利要求2所述的基于全局交互和句法依赖的情感特征表示学习方法,其特征在于,所述步骤3中,输入格式表示为“[CLS]上下文[SEP]评价对象[SEP]”。
4.根据权利要求2所述的基于全局交互和句法依赖的情感特征表示学习方法,其特征在于,所述步骤5中,句子中的第i单词和评价对象的SRDi计算方法如下:
Figure FDA0002450804790000061
Figure FDA0002450804790000062
其中,
Figure FDA0002450804790000063
Figure FDA0002450804790000064
分别为评价对象短语开头单词和结尾单词所在的位置,Pa为评价对象短语的中心位置,m为评价对象短语的长度;对于设定好的权重保持阈值WKT,若单词i的SRDi小于或等于WKT,则单词位于权重保持窗口内,否则单词就位于权重衰减窗口内,并且单词的具体位置权重Li能够分区间的表示为:
Figure FDA0002450804790000065
5.根据权利要求2所述的基于全局交互和句法依赖的情感特征表示学习方法,其特征在于,所述步骤7中,输入格式表示为“[CLS]上下文[SEP]”。
6.根据权利要求2所述的基于全局交互和句法依赖的情感特征表示学习方法,其特征在于,所述步骤11中,采用基于图注意力网络改进的图依赖注意力网络进行计算的具体方法如下:
步骤11-1,对于节点i,找出句法依赖树中其邻居节点集合
Figure FDA0002450804790000066
节点i属于邻居节点集合
Figure FDA0002450804790000067
步骤11-2,计算邻居节点集合
Figure FDA0002450804790000068
中节点j对于节点i的语义相似度eij
Figure FDA0002450804790000069
其中,
Figure FDA0002450804790000071
为第j个节点的特征表示,公式(16)中使用的计算方法为加性注意力,且节点j的语义权重计算为:
Figure FDA0002450804790000072
初始化依赖权重矩阵C,初始化值均为1,在模型学习过程中不断更新依赖权重;所以能够根据邻接矩阵Aij的值获取依赖权重C[Aij];
步骤11-3,根据语义权重、依赖权重以及节点i自身的特征加权和生成句法依赖相关的特征:
Figure FDA0002450804790000073
其中,
Figure FDA0002450804790000074
为经过图依赖注意力网络计算过后的第i个节点的表示,Wa为可训练的参数矩阵;使用K个不同注意力同时计算句法依赖特征,然后将获得的特征拼接起来取平均值:
Figure FDA0002450804790000075
其中,
Figure FDA0002450804790000076
为第k个注意力头计算出的权重,
Figure FDA0002450804790000077
为为第k个注意力头的参数矩阵;
步骤11-4,使用2层图依赖注意力网络以发现单词长距离依赖。
CN202010292143.XA 2020-04-14 2020-04-14 基于全局交互和句法依赖的情感特征表示学习系统及方法 Active CN111488734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010292143.XA CN111488734B (zh) 2020-04-14 2020-04-14 基于全局交互和句法依赖的情感特征表示学习系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010292143.XA CN111488734B (zh) 2020-04-14 2020-04-14 基于全局交互和句法依赖的情感特征表示学习系统及方法

Publications (2)

Publication Number Publication Date
CN111488734A true CN111488734A (zh) 2020-08-04
CN111488734B CN111488734B (zh) 2022-02-22

Family

ID=71812782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010292143.XA Active CN111488734B (zh) 2020-04-14 2020-04-14 基于全局交互和句法依赖的情感特征表示学习系统及方法

Country Status (1)

Country Link
CN (1) CN111488734B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111950298A (zh) * 2020-08-31 2020-11-17 苏州思必驰信息科技有限公司 Bert模型的优化方法及系统
CN111950296A (zh) * 2020-08-21 2020-11-17 桂林电子科技大学 一种基于bert微调模型的评论目标情感分析
CN112100337A (zh) * 2020-10-15 2020-12-18 平安科技(深圳)有限公司 交互对话中的情绪识别方法及装置
CN112115700A (zh) * 2020-08-19 2020-12-22 北京交通大学 一种基于依存句法树和深度学习的方面级情感分析方法
CN112417170A (zh) * 2020-11-23 2021-02-26 南京大学 面向不完备知识图谱的关系链接方法
CN112597306A (zh) * 2020-12-24 2021-04-02 电子科技大学 一种基于bert的旅游评论意见挖掘方法
CN112613314A (zh) * 2020-12-29 2021-04-06 国网江苏省电力有限公司信息通信分公司 基于bert模型的电力通信网络知识图谱构建方法
CN112733866A (zh) * 2021-01-27 2021-04-30 西安理工大学 一种提高可控图像文本描述正确性的网络构建方法
CN112926337A (zh) * 2021-02-05 2021-06-08 昆明理工大学 一种结合重构句法信息的端到端方面级情感分析方法
CN113128237A (zh) * 2021-04-09 2021-07-16 青岛海大新星软件咨询有限公司 一种服务资源的语义表征模型构建方法
CN113157872A (zh) * 2021-05-27 2021-07-23 东莞心启航联贸网络科技有限公司 基于云计算的在线互动话题意图分析方法、服务器及介质
CN113158644A (zh) * 2021-05-13 2021-07-23 山西大学 一种基于多任务学习的修辞格及隐式情绪识别方法
CN113157919A (zh) * 2021-04-07 2021-07-23 山东师范大学 语句文本方面级情感分类方法及系统
CN113255366A (zh) * 2021-05-28 2021-08-13 西安交通大学 一种基于异构图神经网络的方面级文本情感分析方法
CN113378545A (zh) * 2021-06-08 2021-09-10 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质
CN113408636A (zh) * 2021-06-30 2021-09-17 北京百度网讯科技有限公司 预训练模型获取方法、装置、电子设备及存储介质
CN113536773A (zh) * 2021-07-20 2021-10-22 北京明略软件系统有限公司 商品评论情感分析方法、系统、电子设备及存储介质
CN113609846A (zh) * 2021-08-06 2021-11-05 首都师范大学 一种语句中实体关系的抽取方法及装置
CN113704460A (zh) * 2021-03-25 2021-11-26 腾讯科技(深圳)有限公司 一种文本分类方法、装置、电子设备和存储介质
CN113762716A (zh) * 2021-07-30 2021-12-07 国网山东省电力公司营销服务中心(计量中心) 基于深度学习和注意力的台区运行状态评估方法及系统
CN113869034A (zh) * 2021-09-29 2021-12-31 重庆理工大学 基于强化依赖图的方面情感分类方法
CN114492387A (zh) * 2022-04-18 2022-05-13 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于句法结构的领域自适应方面术语抽取方法及系统
CN114756681A (zh) * 2022-04-28 2022-07-15 西安交通大学 一种基于多注意力融合的评教文本细粒度建议挖掘方法
CN114943216A (zh) * 2022-05-12 2022-08-26 昆明理工大学 基于图注意力网络的案件微博属性级观点挖掘方法
CN115910345A (zh) * 2022-12-22 2023-04-04 广东数业智能科技有限公司 一种心理健康测评智能预警方法及存储介质
CN116578613A (zh) * 2023-07-13 2023-08-11 合肥尚创信息技术有限公司 一种用于大数据分析的数据挖掘系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543039A (zh) * 2018-11-23 2019-03-29 中山大学 一种基于深度网络的自然语言情感分析方法
CN109582764A (zh) * 2018-11-09 2019-04-05 华南师范大学 基于依存句法的交互注意力情感分析方法
CN110362817A (zh) * 2019-06-04 2019-10-22 中国科学院信息工程研究所 一种面向产品属性的观点倾向性分析方法及系统
CN110866542A (zh) * 2019-10-17 2020-03-06 西安交通大学 一种基于特征可控融合的深度表示学习方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582764A (zh) * 2018-11-09 2019-04-05 华南师范大学 基于依存句法的交互注意力情感分析方法
CN109543039A (zh) * 2018-11-23 2019-03-29 中山大学 一种基于深度网络的自然语言情感分析方法
CN110362817A (zh) * 2019-06-04 2019-10-22 中国科学院信息工程研究所 一种面向产品属性的观点倾向性分析方法及系统
CN110866542A (zh) * 2019-10-17 2020-03-06 西安交通大学 一种基于特征可控融合的深度表示学习方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CONG FENG等: "Pre-trained Language Embedding-based Contextual Summary and Multi-scale Transmission Network for Aspect Extraction", 《INTERNATIONAL CONFERENCE ON IDENTIFICATION, INFORMATION AND KNOWLEDGE IN THE INTERNET OF 》 *
李卫疆等: "基于多通道双向长短期记忆网络的情感分析", 《中文信息学报》 *
饶元等: "基于语义分析的情感计算技术研究进展", 《软件学报》 *

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115700B (zh) * 2020-08-19 2024-03-12 北京交通大学 一种基于依存句法树和深度学习的方面级情感分析方法
CN112115700A (zh) * 2020-08-19 2020-12-22 北京交通大学 一种基于依存句法树和深度学习的方面级情感分析方法
CN111950296A (zh) * 2020-08-21 2020-11-17 桂林电子科技大学 一种基于bert微调模型的评论目标情感分析
CN111950296B (zh) * 2020-08-21 2023-10-20 湖南马兰数字教育科技有限公司 一种基于bert微调模型的评论目标情感分析
CN111950298A (zh) * 2020-08-31 2020-11-17 苏州思必驰信息科技有限公司 Bert模型的优化方法及系统
CN111950298B (zh) * 2020-08-31 2023-06-23 思必驰科技股份有限公司 Bert模型的优化方法及系统
CN112100337A (zh) * 2020-10-15 2020-12-18 平安科技(深圳)有限公司 交互对话中的情绪识别方法及装置
CN112100337B (zh) * 2020-10-15 2024-03-05 平安科技(深圳)有限公司 交互对话中的情绪识别方法及装置
CN112417170A (zh) * 2020-11-23 2021-02-26 南京大学 面向不完备知识图谱的关系链接方法
CN112417170B (zh) * 2020-11-23 2023-11-14 南京大学 面向不完备知识图谱的关系链接方法
CN112597306A (zh) * 2020-12-24 2021-04-02 电子科技大学 一种基于bert的旅游评论意见挖掘方法
CN112613314A (zh) * 2020-12-29 2021-04-06 国网江苏省电力有限公司信息通信分公司 基于bert模型的电力通信网络知识图谱构建方法
CN112733866A (zh) * 2021-01-27 2021-04-30 西安理工大学 一种提高可控图像文本描述正确性的网络构建方法
CN112733866B (zh) * 2021-01-27 2023-09-26 湖南千里云医疗科技有限公司 一种提高可控图像文本描述正确性的网络构建方法
CN112926337A (zh) * 2021-02-05 2021-06-08 昆明理工大学 一种结合重构句法信息的端到端方面级情感分析方法
CN113704460B (zh) * 2021-03-25 2024-05-17 腾讯科技(深圳)有限公司 一种文本分类方法、装置、电子设备和存储介质
CN113704460A (zh) * 2021-03-25 2021-11-26 腾讯科技(深圳)有限公司 一种文本分类方法、装置、电子设备和存储介质
CN113157919A (zh) * 2021-04-07 2021-07-23 山东师范大学 语句文本方面级情感分类方法及系统
CN113157919B (zh) * 2021-04-07 2023-04-25 山东师范大学 语句文本方面级情感分类方法及系统
CN113128237A (zh) * 2021-04-09 2021-07-16 青岛海大新星软件咨询有限公司 一种服务资源的语义表征模型构建方法
CN113158644A (zh) * 2021-05-13 2021-07-23 山西大学 一种基于多任务学习的修辞格及隐式情绪识别方法
CN113157872B (zh) * 2021-05-27 2021-12-28 西藏凯美信息科技有限公司 基于云计算的在线互动话题意图分析方法、服务器及介质
CN113157872A (zh) * 2021-05-27 2021-07-23 东莞心启航联贸网络科技有限公司 基于云计算的在线互动话题意图分析方法、服务器及介质
CN113255366A (zh) * 2021-05-28 2021-08-13 西安交通大学 一种基于异构图神经网络的方面级文本情感分析方法
CN113378545A (zh) * 2021-06-08 2021-09-10 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质
CN113408636A (zh) * 2021-06-30 2021-09-17 北京百度网讯科技有限公司 预训练模型获取方法、装置、电子设备及存储介质
CN113408636B (zh) * 2021-06-30 2023-06-06 北京百度网讯科技有限公司 预训练模型获取方法、装置、电子设备及存储介质
US11989516B2 (en) 2021-06-30 2024-05-21 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for acquiring pre-trained model, electronic device and storage medium
CN113536773A (zh) * 2021-07-20 2021-10-22 北京明略软件系统有限公司 商品评论情感分析方法、系统、电子设备及存储介质
CN113762716A (zh) * 2021-07-30 2021-12-07 国网山东省电力公司营销服务中心(计量中心) 基于深度学习和注意力的台区运行状态评估方法及系统
CN113609846A (zh) * 2021-08-06 2021-11-05 首都师范大学 一种语句中实体关系的抽取方法及装置
CN113869034A (zh) * 2021-09-29 2021-12-31 重庆理工大学 基于强化依赖图的方面情感分类方法
CN114492387A (zh) * 2022-04-18 2022-05-13 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于句法结构的领域自适应方面术语抽取方法及系统
CN114492387B (zh) * 2022-04-18 2022-07-19 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于句法结构的领域自适应方面术语抽取方法及系统
CN114756681A (zh) * 2022-04-28 2022-07-15 西安交通大学 一种基于多注意力融合的评教文本细粒度建议挖掘方法
CN114756681B (zh) * 2022-04-28 2024-04-02 西安交通大学 一种基于多注意力融合的评教文本细粒度建议挖掘方法
CN114943216A (zh) * 2022-05-12 2022-08-26 昆明理工大学 基于图注意力网络的案件微博属性级观点挖掘方法
CN114943216B (zh) * 2022-05-12 2024-04-19 昆明理工大学 基于图注意力网络的案件微博属性级观点挖掘方法
CN115910345A (zh) * 2022-12-22 2023-04-04 广东数业智能科技有限公司 一种心理健康测评智能预警方法及存储介质
CN116578613B (zh) * 2023-07-13 2023-09-08 合肥尚创信息技术有限公司 一种用于大数据分析的数据挖掘系统
CN116578613A (zh) * 2023-07-13 2023-08-11 合肥尚创信息技术有限公司 一种用于大数据分析的数据挖掘系统

Also Published As

Publication number Publication date
CN111488734B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN111488734B (zh) 基于全局交互和句法依赖的情感特征表示学习系统及方法
CN110825881B (zh) 一种建立电力知识图谱的方法
CN108984724B (zh) 利用高维表示提高特定属性情感分类准确率方法
CN111488474B (zh) 基于增强注意力的细粒度手绘草图图像检索方法
CN111291556B (zh) 基于实体义项的字和词特征融合的中文实体关系抽取方法
CN112347268A (zh) 一种文本增强的知识图谱联合表示学习方法及装置
CN112966127A (zh) 一种基于多层语义对齐的跨模态检索方法
CN113065577A (zh) 一种面向目标的多模态情感分类方法
CN110866542B (zh) 一种基于特征可控融合的深度表示学习方法
CN113191357B (zh) 基于图注意力网络的多层次图像-文本匹配方法
CN109783666A (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN110245238B (zh) 基于规则推理和句法模式的图嵌入方法及系统
CN111522965A (zh) 一种基于迁移学习的实体关系抽取的问答方法及系统
WO2024032096A1 (zh) 反应物分子的预测方法、训练方法、装置以及电子设备
CN113515632B (zh) 基于图路径知识萃取的文本分类方法
CN107688870A (zh) 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置
CN112988917A (zh) 一种基于多种实体上下文的实体对齐方法
CN115391570A (zh) 一种基于方面的情感知识图谱构建方法及装置
CN113065012B (zh) 一种基于多模态动态交互机制的图文解析方法
CN117033609B (zh) 文本视觉问答方法、装置、计算机设备和存储介质
CN114116974A (zh) 一种基于注意力机制的情感原因提取方法
CN116258147A (zh) 一种基于异构图卷积的多模态评论情感分析方法及系统
CN116910190A (zh) 多任务感知模型获取方法、装置、设备及可读存储介质
Yu Analysis of task degree of English learning based on deep learning framework and image target recognition
CN115859963A (zh) 一种面向新词义原推荐的相似性判别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant