CN110263333B - 一种基于树模型的情感分析处理方法及装置 - Google Patents
一种基于树模型的情感分析处理方法及装置 Download PDFInfo
- Publication number
- CN110263333B CN110263333B CN201910490092.9A CN201910490092A CN110263333B CN 110263333 B CN110263333 B CN 110263333B CN 201910490092 A CN201910490092 A CN 201910490092A CN 110263333 B CN110263333 B CN 110263333B
- Authority
- CN
- China
- Prior art keywords
- channel
- tree model
- node
- calculating
- gate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 57
- 238000004458 analytical method Methods 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000013598 vector Substances 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 9
- 125000004122 cyclic group Chemical group 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003068 static effect Effects 0.000 claims description 7
- 230000003993 interaction Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2246—Trees, e.g. B+trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例公开了一种基于树模型的情感分析处理方法及装置,方法包括:根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;根据所述输入门、所述输出门和所述遗忘门计算得到循环向量;根据所述循环向量计算得到所述树模型的情感分析值;其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道。本发明实施例通过自我叠加通道、自底向上通道和自顶向下通道计算输入门、输出门和遗忘门,并进一步计算树模型的情感分析值,能够实现树结构中信息自顶向下的传递,也使得树结构的各个结点之间能够进行信息交互,实现信息的充分传递。
Description
技术领域
本发明涉及计算机技术领域,具体涉及一种基于树模型的情感分析处理方法及装置。
背景技术
随着互联网的发展,用户发布的文本信息越来越多,如新闻、博客文章、产品评论、论坛帖子等等。为了及时了解用户的反馈,可以对用户文本进行情感分析。情感分析是对文本信息进行有效的分析和挖掘,识别出其情感趋向——高兴、悲伤,或得出其观点是“赞同”还是“反对”,甚至情感随时间的演化规律,便于理解用户的消费习惯,分析热点事件的舆情,为企业和政府等机构提供重要的决策依据。但是随着互联网文本数据的海量增长,通过人工来分析数据已越来越困难,于是引入机器学习方法,对这些或长、或短文本,通过机器对这些文本所表达的信息进行情感分析,进而对用户的情感做出精确的判断。
现有技术中的情感分析算法有基于语义的,基于统计的,有监督式,非监督式,还有半监督式,有基于随机森林算法,也有基于深度学习的;有专于短文本,也有专于长文本的,但现有技术的分析结果并不如意。如现有的短文本情感分析引擎,其准确度也仅在75%左右,即当下所采用的通过机器识别文本情感倾向的技术,其对互联网上文本的情感判断的准确率,还距离人工判断较远,甚至不超过80%,这个结果相比于视频识别领域的机器AI技术的准确率要低很多。
现有技术中通过tree-LSTM结构进行情感分析时的效果较好,该方法主要是在sequence-LSTM的基础上,通过循环状态转移过程对成分句法树结构上的左右子结点进行分析。Tree-LSTM在每个时刻主要利用输入门、输出门、两个遗忘门计算细胞状态。但是,tree-LSTM的主要缺陷是无法在树结构中实现信息自顶向下的传递,也无法在树结构的各个结点之间进行信息的往复交互,无法实现信息的充分传递。
发明内容
由于现有方法存在上述问题,本发明实施例提出一种基于树模型的情感分析处理方法及装置。
第一方面,本发明实施例提出一种基于树模型的情感分析处理方法,包括:
根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;
根据所述输入门、所述输出门和所述遗忘门计算得到当前结点的循环向量;
根据所述循环向量计算得到所述树模型的情感分析值;
其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道。
可选地,所述根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门,具体包括:
bi和bo为常数量。
其中,ht-1,j为t-1层循环的树模型中第j个结点的通道值,ht-1,left(j)为t-1层循环的树模型中第j个结点的左孩子结点的通道值,ht-1,right(j)为t-1层循环的树模型中第j个结点的右孩子结点的通道值,ht-1,prt(j)为t-1层循环的树模型中第j个结点的父结点的通道值。
可选地,所述根据所述输入门、所述输出门和所述遗忘门计算得到当前结点的循环向量,具体包括:
可选地,所述根据所述循环向量计算得到所述树模型的情感分析值,具体包括:
计算结点j在t层循环的权重wj,t:
T为循环的总层数;
计算最终的隐状态hj:
根据所述最终的隐状态hj计算得到所述树模型的情感分析值。
第二方面,本发明实施例还提出一种基于树模型的情感分析处理装置,包括:
门计算模块,用于根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;
循环向量计算模块,用于根据所述输入门、所述输出门和所述遗忘门计算得到循环向量;
情感分析计算模块,用于根据所述循环向量计算得到所述树模型的情感分析值;
其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道。
可选地,所述门计算模块具体用于:
bi和bo为常数量。
其中,ht-1,j为t-1层循环的树模型中第j个结点的通道值,ht-1,left(j)为t-1层循环的树模型中第j个结点的左孩子结点的通道值,ht-1,right(j)为t-1层循环的树模型中第j个结点的右孩子结点的通道值,ht-1,prt(j)为t-1层循环的树模型中第j个结点的父结点的通道值。
可选地,所述循环向量计算模块具体用于:
可选地,情感分析计算模块具体用于:
计算结点j在t层循环的权重wj,t:
T为循环的总层数;
计算最终的隐状态hj:
根据所述最终的隐状态hj计算得到所述树模型的情感分析值。
第三方面,本发明实施例还提出一种电子设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行上述方法。
第四方面,本发明实施例还提出一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机程序,所述计算机程序使所述计算机执行上述方法。
由上述技术方案可知,本发明实施例通过自我叠加通道、自底向上通道和自顶向下通道计算输入门、输出门和遗忘门,并进一步计算树模型的情感分析值,能够实现树结构中信息自顶向下的传递,也使得树结构的各个结点之间能够进行信息交互,实现信息的充分传递。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1为本发明一实施例提供的一种基于树模型的情感分析处理方法的流程示意图;
图2为本发明一实施例提供的一种基于树模型的情感分析处理装置的结构示意图;
图3为本发明一实施例提供的电子设备的逻辑框图。
具体实施方式
下面结合附图,对本发明的具体实施方式作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
图1示出了本实施例提供的一种基于树模型的情感分析处理方法的流程示意图,包括:
S101、根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门。
其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道。
所述自我叠加通道是对当前结点的通道值进行叠加运算,更新的通道值即为当前结点新的通道值。
所述自底向上通道是根据当前结点的左右孩子结点的通道值,计算得到当前结点的通道值。
所述自顶向下通道是根据当前结点的父结点的通道值,计算得到当前结点的通道值。
其中,ht-1,j为t-1层循环的树模型中第j个结点的通道值,ht-1,left(j)为t-1层循环的树模型中第j个结点的左孩子结点的通道值,ht-1,right(j)为t-1层循环的树模型中第j个结点的右孩子结点的通道值,ht-1,prt(j)为t-1层循环的树模型中第j个结点的父结点的通道值。
所述输入门、输出门和遗忘门为树模型的四种门运算,其中包括两种遗忘门。
S102、根据所述输入门、所述输出门和所述遗忘门计算得到循环向量。
其中,所述循环向量为对所述输入门、所述输出门和所述遗忘门进行计算得到一个中间量,该循环向量用于计算最终树模型的情感分析值。
S103、根据所述循环向量计算得到所述树模型的情感分析值。
其中,所述情感分析值是根据当前树模型中输入的文本计算得到的该文本所代表的用户的情感值。
具体地,现有技术采用如下结构表示:
左右子结点的输出门可以分别表示为:
现有技术仅通过左右孩子结点进行计算,仅能够实现自底向上的传递;而本实施例通过自我叠加通道、自底向上通道和自顶向下通道计算输入门、输出门和遗忘门,并进一步计算树模型的情感分析值,能够实现树结构中信息自顶向下的传递,也使得树结构的各个结点之间能够进行信息交互,实现信息的充分传递。
进一步地,在上述方法实施例的基础上,所述根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门,具体包括:
bi和bo为常数量。
本实施例提出了recurrent tree commutation model,主要由循环图神经网络和time-wise attention两部分构成。在循环图神经网络中,对于树模型中的每个结点j,前一时刻的隐状态可以分成三个通道:self-to-self通道自底向上通道自顶向下通道根据上一时刻的三个通道进而计算门和状态值。
进一步地,在上述方法实施例的基础上,所述根据所述输入门、所述输出门和所述遗忘门计算得到循环向量,具体包括:
进一步地,在上述方法实施例的基础上,所述根据所述循环向量计算得到所述树模型的情感分析值,具体包括:
计算结点j在t层循环的权重wj,t:
T为循环的总层数;
计算最终的隐状态hj:
根据所述最终的隐状态hj计算得到所述树模型的情感分析值。
具体地,本实施例使用Time-wise attention动态控制隐层表示的不同层级的抽象。
首先,用位置向量编码隐向量,形成step敏感的隐向量:
最终的隐状态可以表示成不同循环时刻(step)的隐状态的加权和:
最终的情感分类值可以由下式计算:
o=softmax(Mhj+b)
其中,M和b是模型参数。
本实施例通过定义三个通道,在整体准确率方面,效果优于tree-LSTM模型以及大部分主流模型;在句级别的情感分类方面,效果优于TreeLSTM和BiTreeLSTM。
句级别短语准确率SPAcc,指的是在一句文本中,情感分类正确的短语数占总短语数的比例,句级别短语准确率SPAcc高的句子为高整体正确分类的句子,并用整体正确分类的句子占测试集合中句子的总数的比例来衡量句级别的情感分类效果。
根据定义的不同程度的高整体性正确分类,在两个数据集下,本实施例提供的方法在句级别分类的性能优于Tree-LSTM模型;在结点分类的一致性方面,本实施例提供的方法效果优于Tree-LSTM和BiTreeLSTM;从各个句子的PEDev的均值和中位数来看,本实施例提供的方法的句子分类误差标准差的平均值和中位值均有降低,说明标准差在整个测试集上降低,本实施例提供的方法相比TreeLSTM在结点分类上更加一致;另外本实施例提供的方法在句子分类误差标准差的平均值和中位值均有降低,说明标准差在整个测试集上降低,本实施例提供的方法相比BiTreeLSTM在结点分类上更加一致。
图2示出了本实施例提供的一种基于树模型的情感分析处理装置的结构示意图,所述装置包括:门计算模块201、循环向量计算模块202和情感分析计算模块203,其中:
所述门计算模块201用于根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;
所述循环向量计算模块202用于根据所述输入门、所述输出门和所述遗忘门计算得到当前结点的循环向量;
所述情感分析计算模块203用于根据所述循环向量计算得到所述树模型的情感分析值;
其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道。
具体地,所述门计算模块201根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;所述循环向量计算模块202根据所述输入门、所述输出门和所述遗忘门计算得到当前结点的循环向量;所述情感分析计算模块203根据所述循环向量计算得到所述树模型的情感分析值。
本实施例通过自我叠加通道、自底向上通道和自顶向下通道计算输入门、输出门和遗忘门,并进一步计算树模型的情感分析值,能够实现树结构中信息自顶向下的传递,也使得树结构的各个结点之间能够进行信息交互,实现信息的充分传递。
进一步地,在上述装置实施例的基础上,所述门计算模块201具体用于:
bi和bo为常数量。
其中,ht-1,j为t-1层循环的树模型中第j个结点的通道值,ht-1,left(j)为t-1层循环的树模型中第j个结点的左孩子结点的通道值,ht-1,right(j)为t-1层循环的树模型中第j个结点的右孩子结点的通道值,ht-1,prt(j)为t-1层循环的树模型中第j个结点的父结点的通道值。
进一步地,在上述装置实施例的基础上,所述循环向量计算模块202具体用于:
进一步地,在上述装置实施例的基础上,情感分析计算模块203具体用于:
计算结点j在t层循环的权重wj,t:
T为循环的总层数;
计算最终的隐状态hj:
根据所述最终的隐状态hj计算得到所述树模型的情感分析值。
本实施例所述的基于树模型的情感分析处理装置可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。
参照图3,所述电子设备,包括:处理器(processor)301、存储器(memory)302和总线303;
其中,
所述处理器301和存储器302通过所述总线303完成相互间的通信;
所述处理器301用于调用所述存储器302中的程序指令,以执行上述各方法实施例所提供的方法。
本实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法。
本实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述各方法实施例所提供的方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (6)
1.一种基于成分句法树模型的文本情感分析处理方法,其特征在于,包括:
根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;
根据所述输入门、所述输出门和所述遗忘门计算得到当前结点的循环向量;
根据所述循环向量计算得到所述树模型的情感分析值;
其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道;
所述根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门,具体包括:
其中,Wi self、Wi up和Wi down分别为输入门中自我叠加通道、自底向上通道和自顶向下通道的权重;
bi和bo为常数量;
所述根据所述输入门、所述输出门和所述遗忘门计算得到循环向量,具体包括:
所述根据所述循环向量计算得到所述树模型的情感分析值,具体包括:
计算结点j在t层循环的权重wj,t:
T为循环的总层数;
计算最终的隐状态hj:
根据所述最终的隐状态hj计算得到所述树模型的情感分析值;
所述情感分析值是根据当前树模型中输入的文本计算得到的该文本所代表的用户的情感值。
3.一种基于成分句法树模型的文本情感分析处理装置,其特征在于,包括:
门计算模块,用于根据上一时刻树模型中各结点的三个通道计算当前结点的输入门、输出门和遗忘门;
循环向量计算模块,用于根据所述输入门、所述输出门和所述遗忘门计算得到当前结点的循环向量;
情感分析计算模块,用于根据所述循环向量计算得到所述树模型的情感分析值;
其中,所述三个通道包括自我叠加通道、自底向上通道和自顶向下通道;
所述门计算模块具体用于:
其中,Wi self、Wi up和Wi down分别为输入门中自我叠加通道、自底向上通道和自顶向下通道的权重;
bi和bo为常数量;
所述根据所述输入门、所述输出门和所述遗忘门计算得到循环向量,具体包括:
所述根据所述循环向量计算得到所述树模型的情感分析值,具体包括:
计算结点j在t层循环的权重wj,t:
T为循环的总层数;
计算最终的隐状态hj:
根据所述最终的隐状态hj计算得到所述树模型的情感分析值;
所述情感分析值是根据当前树模型中输入的文本计算得到的该文本所代表的用户的情感值。
5.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1或2所述的基于成分句法树模型的文本情感分析处理方法。
6.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1或2所述的基于成分句法树模型的文本情感分析处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910490092.9A CN110263333B (zh) | 2019-06-06 | 2019-06-06 | 一种基于树模型的情感分析处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910490092.9A CN110263333B (zh) | 2019-06-06 | 2019-06-06 | 一种基于树模型的情感分析处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110263333A CN110263333A (zh) | 2019-09-20 |
CN110263333B true CN110263333B (zh) | 2022-11-15 |
Family
ID=67917130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910490092.9A Active CN110263333B (zh) | 2019-06-06 | 2019-06-06 | 一种基于树模型的情感分析处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110263333B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930368A (zh) * | 2016-04-13 | 2016-09-07 | 深圳大学 | 一种情感分类方法及系统 |
CN105955959A (zh) * | 2016-05-06 | 2016-09-21 | 深圳大学 | 一种情感分类方法及系统 |
CN108399158A (zh) * | 2018-02-05 | 2018-08-14 | 华南理工大学 | 基于依存树和注意力机制的属性情感分类方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140078312A (ko) * | 2012-12-17 | 2014-06-25 | 한국전자통신연구원 | 텍스트 기반 감성 분석 결과를 제공하기 위한 장치, 시스템 및 그 방법 |
US10628528B2 (en) * | 2017-06-29 | 2020-04-21 | Robert Bosch Gmbh | System and method for domain-independent aspect level sentiment detection |
-
2019
- 2019-06-06 CN CN201910490092.9A patent/CN110263333B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930368A (zh) * | 2016-04-13 | 2016-09-07 | 深圳大学 | 一种情感分类方法及系统 |
CN105955959A (zh) * | 2016-05-06 | 2016-09-21 | 深圳大学 | 一种情感分类方法及系统 |
CN108399158A (zh) * | 2018-02-05 | 2018-08-14 | 华南理工大学 | 基于依存树和注意力机制的属性情感分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110263333A (zh) | 2019-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11687728B2 (en) | Text sentiment analysis method based on multi-level graph pooling | |
CN107391760B (zh) | 用户兴趣识别方法、装置及计算机可读存储介质 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN110390017B (zh) | 基于注意力门控卷积网络的目标情感分析方法及系统 | |
US8954316B2 (en) | Systems and methods for categorizing and moderating user-generated content in an online environment | |
CN108363790A (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
Peng et al. | Human–machine dialogue modelling with the fusion of word-and sentence-level emotions | |
US20170322923A1 (en) | Techniques for determining textual tone and providing suggestions to users | |
Chang et al. | Research on detection methods based on Doc2vec abnormal comments | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
US10891539B1 (en) | Evaluating content on social media networks | |
CN103544246A (zh) | 互联网多种情感词典构建方法及系统 | |
CN106649603A (zh) | 一种基于网页文本数据情感分类的指定信息推送方法 | |
CN113094596A (zh) | 一种基于双向传播图的多任务谣言检测方法 | |
CN111523319B (zh) | 基于情景lstm结构网络的微博情感分析方法 | |
CN111538841A (zh) | 基于知识互蒸馏的评论情感分析方法、装置及系统 | |
CN114818682A (zh) | 基于自适应实体路径感知的文档级实体关系抽取方法 | |
KR102344804B1 (ko) | 인공지능 기반 모니터링 기술을 이용한 유저 피드백 정보 관리방법 | |
CN114722832A (zh) | 一种摘要提取方法、装置、设备以及存储介质 | |
CN114429135A (zh) | 一种基于对抗训练和多注意力的CNN-BiLSTM方面情感分析方法 | |
CN113761193A (zh) | 日志分类方法、装置、计算机设备和存储介质 | |
Liu | Usability of Computer‐Aided Translation Software Based on Deep Learning Algorithms | |
CN110263333B (zh) | 一种基于树模型的情感分析处理方法及装置 | |
CN115906824A (zh) | 一种文本细粒度情感分析方法、系统、介质和计算设备 | |
CN113722477B (zh) | 基于多任务学习的网民情绪识别方法、系统及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |