CN112231478A - 基于bert和多层注意力机制的方面级情感分类方法 - Google Patents
基于bert和多层注意力机制的方面级情感分类方法 Download PDFInfo
- Publication number
- CN112231478A CN112231478A CN202011142297.7A CN202011142297A CN112231478A CN 112231478 A CN112231478 A CN 112231478A CN 202011142297 A CN202011142297 A CN 202011142297A CN 112231478 A CN112231478 A CN 112231478A
- Authority
- CN
- China
- Prior art keywords
- word
- datacontext
- layer
- matrix
- dataaspect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于BERT和多层注意力机制的方面级情感分类方法,包括以下步骤:S1、对训练语料进行预处理;S2、建立基于多层attention的方面级别情感分类模型;S3、使用训练好的分类模型对待预测的数据进行情感分类。本发明使用多层Attention机制,充分挖掘aspcet词与DataContext词的相关性,能够有效提高方面级情感分类的精度。
Description
技术领域
本发明涉及一种基于BERT和多层注意力机制的方面级情感分类方法。
背景技术
随着社交网络和电商平台的兴起与发展,人们更喜欢在网上发表自己的评论,例如在京东、淘宝上对商品的评价,美团、饿了吗上对食品的评价,这些评价信息对于商家具有宝贵的价值。一条评论中可能包含对多个方面的评价,如何快速得到方面词的情感极性,成为目前自然语言处理领域的一个重要研究方向。
目前主要有以下两种处理方法:
1、基于传统机器学习的方法,例如支持向量机(SVM)、logistic回归,是通过提取依赖于语料库实现方面的特征提取,需要人工针对数据设计特征,模型的质量取决于特征设计的质量。而且这类方法并没有考虑单词的语义信息及上下文信息,还会造成数据维度灾难,准确性也不高。
2、基于深度学习的方法,这类方法将深度学习,例如全连接神经网络、卷积神经网络(CNN)、循环神经网络(RNN)、长短时记忆网络(LSTM)等应用到方面级情感分类中。使用深度学习的方法弥补了传统机器学习方法的缺点,比如:不需要人工设计特征。但这些方法未能充分提取语义信息。另外注意力机制(Attention)在方面级情感分析中也得到了广泛应用,取得了不错的效果,但对于具有多个单词组成的方面(Aspect)词,Aspect词中的不同单词对于结果的贡献也是不一样的,而这类方法却忽略了这一点。
现有技术主要存在以下缺点:
(1)基于传统机器学习的方法需要人工设计复杂的特征,非常耗费时间。
(2)现有的基于深度学习的方法大多采用RNN来提取语义信息,例如:LSTN、CNN,虽然取得了不错的效果,但相比BERT来提取语义信息,还是具有一定的差距。
(3)目前采用Attention机制的模型是计算Aspect整体对于Context词的attention,没有考虑Aspect中单个词对Context词的attention,容易导致信息丢失。
发明内容
本发明的目的在于克服现有技术的不足,提供一种使用多层Attention机制,充分挖掘aspcet词与DataContext词的相关性,能够有效提高方面级情感分类的精度的基于BERT和多层注意力机制的方面级情感分类方法。
本发明的目的是通过以下技术方案来实现的:基于BERT和多层注意力机制的方面级情感分类方法,包括以下步骤:
S1、对训练语料进行预处理;
S2、建立基于多层attention的方面级别情感分类模型;
S3、使用训练好的分类模型对待预测的数据进行情感分类。
进一步地,所述步骤S1包括以下子步骤:
S11、从训练语料数据中提取每一条评论中的Aspect词,得到Aspect词集合DataAspect;
S12、从训练语料数据中提取每一个Aspect词对应的一条评论,得到集合DataContext;
S13、统计Aspect词与对应语料的情感极性,1代表积极,0代表中性,-1代表消极,得到标签集合LableSet;
S14、对DataContext进行位置符号处理,在每一条语料的Aspect词左边加入位置符号<a>,右边加入位置符号</a>,然后作为训练数据并保存。
进一步地,所述多层attention的方面级别情感分类模型包括依次连接的词向量层、语义编码层、多层注意力层和输出层;
词向量层:使用预训练的词向量Gensim,将语料转化为神经网络能够处理的词向量;
语义编码层:本层使用Google预训练好的BERT-Base,Cased模型,得到语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵;
多层注意力层:使用两层注意力机制:
第一层注意力机制用于捕捉DataAspect中单词与DataContext中每个单词的相关性,以及DataContext中单词与DataAspect中每个单词的相关性;
具体实现方法为:通过语义编码层输出的语义编码向量Hc和语义编码矩阵Ht,计算交互矩阵U:U=HcHtT,其中HtT表示对Ht的转置;U矩阵中的一个元素Uij表示DataContext中第i个单词和DataAspect中的第j个单词的相关度;
给U矩阵乘以一个矩阵Wac∈Rm×m,Wac是一个随机初始化的权重矩阵,参数待训练矩阵,Rm×m表示Wac矩阵的维度大小,表示Wac矩阵有m行m列;然后再用激活函数relu进行处理,具体操作方法为:由于采用固定长度的DataContext和DataAspect词序列,当序列不够时用0进行补位,为了消除补0操作对计算注意力权重带来的影响,进行mask操作,将矩阵中补0位置的值全部赋值为负无穷大,消除softmax函数操作带来的误差;mask操作计算方式如下:
Aac=mask(relu(UWac));
为了关注DataAspect词中对DataContext中第i个单词的重要程度,按Aac矩阵的第二维来做softmax操作,计算如下:
然后将相关性权重和对应位置的Uij相乘并相加,得到表示DataAspect词和DataContext中第i个单词的相关性,最终得到DataAspect关于DataContext中每个单词的相关性得分向量Mac∈Rn,计算如下:
第二次层注意力机制用于根据DataAspect关于DataContext中每个单词的相关性得分向量Mac,找出DataContext中对于情感极性预测更重要的词;根据DataContext关于DataAspect中每个单词的相关性得分向量Mca,找出DataAspect中对于情感极性预测更重要的词;
首先对Mca进行mask处理,消除补0对结果的影响,再对mask处理过的Mac进行softmax操作,得到DataContext中各个单词的注意力权重再将和Hc的第i个向量相乘再叠加,得到DataContext对于情感极性预测的最终向量表示计算如下:
mask(Mac)
mask(Mca)
m=[mc,ma]
p=soft max(W*m+b)
本发明的有益效果是:本发明使用多层Attention机制,充分挖掘aspcet词与DataContext词的相关性,能够有效提高方面级情感分类的精度;无需人工设计特征,能够提高分类结果的准确性。
附图说明
图1为本发明的方面级情感分类方法的流程图;
图2为本发明的多层attention的方面级别情感分类模型的结构示意图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的基于BERT和多层注意力机制的方面级情感分类方法,包括以下步骤:
S1、对训练语料进行预处理;包括以下子步骤:
S11、从训练语料数据中提取每一条评论中的Aspect词(一条语料中可能含有多个Aspect词),得到Aspect词集合DataAspect;
S12、从训练语料数据中提取每一个Aspect词对应的一条评论,得到集合DataContext;
S13、统计Aspect词与对应语料的情感极性,1代表积极(positive),0代表中性(neutral),-1代表消极(negative),得到标签集合LableSet;
S14、对DataContext进行位置符号处理,在每一条语料的Aspect词左边加入位置符号<a>,右边加入位置符号</a>,然后作为训练数据并保存。
S2、建立基于多层attention的方面级别情感分类模型;
如图2所示,本发明的多层attention的方面级别情感分类模型包括依次连接的词向量层、语义编码层、多层注意力层和输出层;
词向量层:使用预训练的词向量Gensim,将语料转化为神经网络能够处理的词向量;例如训练数据中的某一条评论的DataContext表示为与之对应的DataAspect表示为经过Input Embedding Layer分别将两个向量转化为其中n为DataContext的长度,m为DataAspect的长度,dv为词向量维度。
语义编码层(即图中Bert层):本层使用Google预训练好的BERT-Base,Cased模型,得到语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵;将 输入到语义编码层中,得到n个单词的语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵其中dh为语义编码层的隐单元个数,本层中dh=768。同样的,我们可以得到的语义编码矩阵
多层注意力层:使用两层注意力机制:
第一层注意力机制用于捕捉DataAspect中单词与DataContext中每个单词的相关性,以及DataContext中单词与DataAspect中每个单词的相关性;
具体实现方法为:通过语义编码层输出的语义编码向量Hc和语义编码矩阵Ht,计算交互矩阵U:U=HcHtT,其中HtT表示对Ht的转置;U矩阵中的一个元素Uij表示DataContext中第i个单词和DataAspect中的第j个单词的相关度;
给U矩阵乘以一个矩阵Wac∈Rm×m,Wac是一个随机初始化的权重矩阵,参数待训练矩阵,Rm×m表示Wac矩阵的维度大小,表示Wac矩阵有m行m列;然后再用激活函数relu进行处理,具体操作方法为:由于采用固定长度的DataContext和DataAspect词序列,当序列不够时用0进行补位,为了消除补0操作对计算注意力权重带来的影响,进行mask操作,将矩阵中补0位置的值全部赋值为负无穷大,消除softmax函数操作带来的误差;mask操作计算方式如下:
Aac=mask(relu(UWac));
为了关注DataAspect词中对DataContext中第i个单词的重要程度,按Aac矩阵的第二维来做softmax操作,计算如下:
然后将相关性权重和对应位置的Uij相乘并相加,得到表示DataAspect词和DataContext中第i个单词的相关性,最终得到DataAspect关于DataContext中每个单词的相关性得分向量Mac∈Rn,计算如下:
第二次层注意力机制用于根据DataAspect关于DataContext中每个单词的相关性得分向量Mac,找出DataContext中对于情感极性预测更重要的词;根据DataContext关于DataAspect中每个单词的相关性得分向量Mca,找出DataAspect中对于情感极性预测更重要的词;
首先对Mca进行mask处理,消除补0对结果的影响,再对mask处理过的Mac进行softmax操作,得到DataContext中各个单词的注意力权重再将和Hc的第i个向量相乘再叠加,得到DataContext对于情感极性预测的最终向量表示计算如下:
mask(Mac)
mask(Mca)
m=[mc,ma]
p=soft max(W*m+b)
训练模型参数:
将步骤S1中得到的数据训练数据作为模型的输入,并使用交叉熵函数作为损失函数,采用Adam算法训练模型参数,当模型产生的损失值满足设定要求或者达最大迭代次数时,终止模型训练。
S3、使用训练好的分类模型对待预测的数据进行情感分类,将预测数据中的context和aspect输入到训练好的模型中,进行情感分类。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (3)
1.基于BERT和多层注意力机制的方面级情感分类方法,其特征在于,包括以下步骤:
S1、对训练语料进行预处理;
S2、建立基于多层attention的方面级别情感分类模型;
S3、使用训练好的分类模型对待预测的数据进行情感分类。
2.根据权利要求1所述的基于BERT和多层注意力机制的方面级情感分类方法,其特征在于,所述步骤S1包括以下子步骤:
S11、从训练语料数据中提取每一条评论中的Aspect词,得到Aspect词集合DataAspect;
S12、从训练语料数据中提取每一个Aspect词对应的一条评论,得到集合DataContext;
S13、统计Aspect词与对应语料的情感极性,1代表积极,0代表中性,-1代表消极,得到标签集合LableSet;
S14、对DataContext进行位置符号处理,在每一条语料的Aspect词左边加入位置符号<a>,右边加入位置符号</a>,然后作为训练数据并保存。
3.根据权利要求2所述的基于BERT和多层注意力机制的方面级情感分类方法,其特征在于,所述多层attention的方面级别情感分类模型包括依次连接的词向量层、语义编码层、多层注意力层和输出层;
词向量层:使用预训练的词向量Gensim,将语料转化为神经网络能够处理的词向量;
语义编码层:本层使用Google预训练好的BERT-Base,Cased模型,得到语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵;
多层注意力层:使用两层注意力机制:
第一层注意力机制用于捕捉DataAspect中单词与DataContext中每个单词的相关性,以及DataContext中单词与DataAspect中每个单词的相关性;
具体实现方法为:通过语义编码层输出的语义编码向量Hc和语义编码矩阵Ht,计算交互矩阵U:U=HcHtT,其中HtT表示对Ht的转置;U矩阵中的一个元素Uij表示DataContext中第i个单词和DataAspect中的第j个单词的相关度;
给U矩阵乘以一个矩阵Wac∈Rm×m,Wac是一个随机初始化的权重矩阵,参数待训练矩阵,Rm ×m表示Wac矩阵的维度大小,表示Wac矩阵有m行m列;然后再用激活函数relu进行处理,具体操作方法为:由于采用固定长度的DataContext和DataAspect词序列,当序列不够时用0进行补位,为了消除补0操作对计算注意力权重带来的影响,进行mask操作,将矩阵中补0位置的值全部赋值为负无穷大,消除softmax函数操作带来的误差;mask操作计算方式如下:
Aac=mask(relu(UWac));
为了关注DataAspect词中对DataContext中第i个单词的重要程度,按Aac矩阵的第二维来做softmax操作,计算如下:
然后将相关性权重和对应位置的Uij相乘并相加,得到表示DataAspect词和DataContext中第i个单词的相关性,最终得到DataAspect关于DataContext中每个单词的相关性得分向量Mac∈Rn,计算如下:
第二次层注意力机制用于根据DataAspect关于DataContext中每个单词的相关性得分向量Mac,找出DataContext中对于情感极性预测更重要的词;根据DataContext关于DataAspect中每个单词的相关性得分向量Mca,找出DataAspect中对于情感极性预测更重要的词;
首先对Mca进行mask处理,消除补0对结果的影响,再对mask处理过的Mac进行softmax操作,得到DataContext中各个单词的注意力权重再将和Hc的第i个向量相乘再叠加,得到DataContext对于情感极性预测的最终向量表示计算如下:
mask(Mac)
mask(Mca)
m=[mc,ma]
p=soft max(W*m+b)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011142297.7A CN112231478B (zh) | 2020-10-22 | 2020-10-22 | 基于bert和多层注意力机制的方面级情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011142297.7A CN112231478B (zh) | 2020-10-22 | 2020-10-22 | 基于bert和多层注意力机制的方面级情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112231478A true CN112231478A (zh) | 2021-01-15 |
CN112231478B CN112231478B (zh) | 2022-06-24 |
Family
ID=74110732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011142297.7A Active CN112231478B (zh) | 2020-10-22 | 2020-10-22 | 基于bert和多层注意力机制的方面级情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112231478B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507628A (zh) * | 2021-02-03 | 2021-03-16 | 北京淇瑀信息科技有限公司 | 基于深度双向语言模型的风险预测方法、装置和电子设备 |
CN113032570A (zh) * | 2021-04-12 | 2021-06-25 | 武汉工程大学 | 一种基于ATAE-BiGRU的文本方面情感分类方法及系统 |
CN113468292A (zh) * | 2021-06-29 | 2021-10-01 | 中国银联股份有限公司 | 方面级情感分析方法、装置及计算机可读存储介质 |
CN113705238A (zh) * | 2021-06-17 | 2021-11-26 | 梧州学院 | 基于bert和方面特征定位模型的方面级情感分析方法及模型 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100250497A1 (en) * | 2007-01-05 | 2010-09-30 | Redlich Ron M | Electromagnetic pulse (EMP) hardened information infrastructure with extractor, cloud dispersal, secure storage, content analysis and classification and method therefor |
CN109597997A (zh) * | 2018-12-07 | 2019-04-09 | 上海宏原信息科技有限公司 | 基于评论实体、方面级情感分类方法和装置及其模型训练 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN111310474A (zh) * | 2020-01-20 | 2020-06-19 | 桂林电子科技大学 | 基于激活-池化增强bert模型的在线课程评论情感分析方法 |
CN111428039A (zh) * | 2020-03-31 | 2020-07-17 | 中国科学技术大学 | 一种方面级别的跨领域情感分类方法及系统 |
-
2020
- 2020-10-22 CN CN202011142297.7A patent/CN112231478B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100250497A1 (en) * | 2007-01-05 | 2010-09-30 | Redlich Ron M | Electromagnetic pulse (EMP) hardened information infrastructure with extractor, cloud dispersal, secure storage, content analysis and classification and method therefor |
CN109597997A (zh) * | 2018-12-07 | 2019-04-09 | 上海宏原信息科技有限公司 | 基于评论实体、方面级情感分类方法和装置及其模型训练 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN111310474A (zh) * | 2020-01-20 | 2020-06-19 | 桂林电子科技大学 | 基于激活-池化增强bert模型的在线课程评论情感分析方法 |
CN111428039A (zh) * | 2020-03-31 | 2020-07-17 | 中国科学技术大学 | 一种方面级别的跨领域情感分类方法及系统 |
Non-Patent Citations (2)
Title |
---|
LEI SHI 等: "Multi-Layer Content Interaction Through Quaternion Product for Visual Question Answering", 《ICASSP 2020 - 2020 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
王昆 等: "基于文本筛选和改进BERT的长文本方面级情感分析", 《计算机应用》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507628A (zh) * | 2021-02-03 | 2021-03-16 | 北京淇瑀信息科技有限公司 | 基于深度双向语言模型的风险预测方法、装置和电子设备 |
CN113032570A (zh) * | 2021-04-12 | 2021-06-25 | 武汉工程大学 | 一种基于ATAE-BiGRU的文本方面情感分类方法及系统 |
CN113705238A (zh) * | 2021-06-17 | 2021-11-26 | 梧州学院 | 基于bert和方面特征定位模型的方面级情感分析方法及模型 |
CN113468292A (zh) * | 2021-06-29 | 2021-10-01 | 中国银联股份有限公司 | 方面级情感分析方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112231478B (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112231478B (zh) | 基于bert和多层注意力机制的方面级情感分类方法 | |
CN109284506B (zh) | 一种基于注意力卷积神经网络的用户评论情感分析系统及方法 | |
CN110442707B (zh) | 一种基于seq2seq的多标签文本分类方法 | |
Xu et al. | Investigation on the Chinese text sentiment analysis based on convolutional neural networks in deep learning. | |
CN111401061A (zh) | 基于BERT及BiLSTM-Attention的涉案新闻观点句识别方法 | |
CN110609897A (zh) | 一种融合全局和局部特征的多类别中文文本分类方法 | |
Zhang et al. | Sentiment Classification Based on Piecewise Pooling Convolutional Neural Network. | |
Yu et al. | Attention-based LSTM, GRU and CNN for short text classification | |
CN109766557B (zh) | 一种情感分析方法、装置、存储介质及终端设备 | |
Zhang et al. | Ynu-hpcc at semeval-2018 task 1: Bilstm with attention based sentiment analysis for affect in tweets | |
CN112667818B (zh) | 融合gcn与多粒度注意力的用户评论情感分析方法及系统 | |
CN111274398A (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
CN112131469A (zh) | 一种基于评论文本的深度学习推荐方法 | |
CN112131886A (zh) | 一种文本的方面级别情感分析方法 | |
CN111914553B (zh) | 一种基于机器学习的金融信息负面主体判定的方法 | |
CN110619045A (zh) | 一种基于卷积神经网络和自注意力的文本分类模型 | |
CN113987167A (zh) | 基于依赖感知图卷积网络的方面级情感分类方法及系统 | |
Rauf et al. | Using bert for checking the polarity of movie reviews | |
CN112231476A (zh) | 一种改进的图神经网络科技文献大数据分类方法 | |
Ermatita et al. | Sentiment Analysis of COVID-19 using Multimodal Fusion Neural Networks. | |
Li et al. | Dual-channel attention model for text sentiment analysis | |
CN111523319B (zh) | 基于情景lstm结构网络的微博情感分析方法 | |
CN114020901A (zh) | 一种结合主题挖掘和情感分析的金融舆情分析方法 | |
Purba et al. | Document level emotion detection from bangla text using machine learning techniques | |
Gupta et al. | Bennettnlp at semeval-2020 task 8: Multimodal sentiment classification using hybrid hierarchical classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |