CN110347831A - 基于自注意力机制的情感分类方法 - Google Patents
基于自注意力机制的情感分类方法 Download PDFInfo
- Publication number
- CN110347831A CN110347831A CN201910573709.3A CN201910573709A CN110347831A CN 110347831 A CN110347831 A CN 110347831A CN 201910573709 A CN201910573709 A CN 201910573709A CN 110347831 A CN110347831 A CN 110347831A
- Authority
- CN
- China
- Prior art keywords
- layer
- attention mechanism
- model
- vector
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 65
- 238000010276 construction Methods 0.000 claims abstract description 8
- 230000002996 emotional effect Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- 230000008451 emotion Effects 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 15
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 5
- 238000007635 classification algorithm Methods 0.000 abstract description 2
- 230000007787 long-term memory Effects 0.000 abstract 1
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于自注意力机制的情感分类方法,以双向长短期记忆神经网络模型为基础,结合自注意力机制构建SA‑BiLSTM模型,SA‑BiLSTM模型共包含五层结构:第一层为输入层,将句子输入到模型中;第二层为词向量构造层,将每个词映射到低维向量;第三层为Bi‑LSTM网络层,使用Bi‑LSTM从词向量层获取高级特征;第四层为自注意力机制层,生成一个权重向量,通过与这个权重向量相乘,使每一次迭代中的词汇级的特征合并为句子级的特征;第五层为输出层,将句子级的特征向量用于情感分类任务。本发明解决了现有技术中传统情感分类算法大多存在耗时长、训练难、人工成本高的问题。
Description
技术领域
本发明属于自然语言处理、数据挖掘技术领域,具体涉及一种基于自注意力机制的情感分类方法。
背景技术
注意力机制源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类往往根据需求忽略部分可见信息,只关注信息特定的一部分。为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它,从而筛选出有价值的信息,视觉注意力机制极大的提高了人类处理视觉信息的效率。深度学习中的注意力机制借鉴了人类视觉注意力机制的思维方式,核心目标是从大量数据中快速筛选出高价值的信息。近年来,注意力模型在图像处理、语音识别、自然语言处理等领域被广泛使用。2017年谷歌提出的自注意力机制为人们提供了一种用注意力机制完全替代传统卷积神经网络和循环神经网络结构的新思路。之后自注意力机制开始成为神经网络注意力机制的研究热点。自注意力机制可以看作是注意力机制的一种特殊情况,能够把输入序列上不同位置的信息联系起来,然后计算出整条序列的表达。在文本情感分类任务中引入自注意力机制能够学习到句子内部的词依赖关系,捕获句子的内部结构。
发明内容
本发明的目的是提供一种基于自注意力机制的情感分类方法,解决了现有技术中传统情感分类算法大多基于浅层的机器学习,采用人工设计的特征选择方法进行特征提取,存在耗时长、训练难、人工成本高的问题。
本发明所采用的技术方案是,基于自注意力机制的情感分类方法,具体按照以下步骤实施:以双向长短期记忆神经网络模型为基础,结合自注意力机制构建SA-BiLSTM模型,SA-BiLSTM模型共包含五层结构:第一层为输入层,将句子输入到模型中;第二层为词向量构造层,将每个词映射到低维向量;第三层为Bi-LSTM网络层,使用Bi-LSTM从词向量层获取高级特征;第四层为自注意力机制层,生成一个权重向量,通过与这个权重向量相乘,使每一次迭代中的词汇级的特征合并为句子级的特征;第五层为输出层,将句子级的特征向量用于情感分类任务。
本发明的特点还在于,
SA-BiLSTM模型的为词向量构造层具体功能如下:
对于给定包含T个词的句子S:S=X1,X2,...,XT,每个词Xi都转换为实数向量wi,对于S中的每个词,首先存在词向量矩阵:其中V为固定大小的词汇表,dw表示词向量维度,Wk表示通过训练学习得到的参数矩阵,使用词向量矩阵Wk将每个词转化为词向量表示如下:
ci=Wkvi
其中,vi表示大小为|V|的one-hot向量,
最终句子S将被转化为一个实数矩阵,并传递给模型的下一层。
SA-BiLSTM模型的Bi-LSTM网络层具体功能如下:
本模型使用的Bi-LSTM网络层包含三种门机制,分别如下:
a.遗忘门ft,决定丢弃多少旧信息:
ft=σ(Wfxt+Ufht-1+bf)
b.输入门ct,决定单元状态中存储哪些新信息:
it=σ(Wixt+Uiht+bi)
ct=ftct-1+it·Tanh(Wcxt+Ucht-1+bc)
c.输出门ot,决定哪些信息被输出:
ot=σ(Woxt+Uoht-1+bo)
最后,由当前单元状态乘以输出门的权重矩阵ot得到输出值ht:
ht=otthanh(ct)
由于本模型采用的是双向LSTM,在原有正向LSTM网络层上添加一层反向LSTM层表示为:
hi表示Bi-LSTM网络层的输出。
SA-BiLSTM模型的自注意力机制层具体功能如下:
将上一层输入的向量集合表示为H:[h1,h2,...,hT],其自注意力机制层的权重矩阵r由下面公式得到:
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,dw为词向量维度,wT是一个训练学习得到的参数向量的转置,最终用以分类的句子将表示为:
h*=tanh(r)。
SA-BiLSTM模型的输出层具体功能如下:使用softmax分类器来预测标签该分类器将上一层得到的状态h*作为输入,最终得到文本情感极性分类类别,
其中,y表示真实类别的概率,表示预测类别的概率,的值大于50%为积极情感倾向,的值小于50%为消极情感倾向。
本发明的有益效果是,基于自注意力机制的情感分类方法,以Bi-LSTM模型为基础,结合自注意力机制设计的SA-BiLSTM模型来解决情感分类问题。SA-BiLSTM模型共包含五层结构:第一层为输入层,将句子输入到模型中;第二层为词向量构造层,将每个词映射到低维向量;第三层为Bi-LSTM网络层,使用Bi-LSTM从词向量层获取高级特征;第四层为自注意力机制层,生成一个权重向量,通过与这个权重向量相乘,使每一次迭代中的词汇级的特征合并为句子级的特征;第五层为输出层,将句子级的特征向量用于情感分类任务。
附图说明
图1是本发明基于自注意力机制的情感分类方法中注意力机制三阶段计算过程图;
图2是本发明基于自注意力机制的情感分类方法中SA-BiLSTM网络模型框架图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于自注意力机制的情感分类方法,具体按照以下步骤实施:以双向长短期记忆神经网络模型为基础,结合自注意力机制构建SA-BiLSTM模型,SA-BiLSTM模型共包含五层结构:第一层为输入层,将句子输入到模型中;第二层为词向量构造层,将每个词映射到低维向量;第三层为Bi-LSTM网络层,使用Bi-LSTM从词向量层获取高级特征;第四层为自注意力机制层,生成一个权重向量,通过与这个权重向量相乘,使每一次迭代中的词汇级的特征合并为句子级的特征;第五层为输出层,将句子级的特征向量用于情感分类任务。
其中,SA-BiLSTM模型的为词向量构造层具体功能如下:
对于给定包含T个词的句子S:S=X1,X2,...,XT,每个词Xi都转换为实数向量wi,对于S中的每个词,首先存在词向量矩阵:其中V为固定大小的词汇表,dw表示词向量维度,Wk表示通过训练学习得到的参数矩阵,使用词向量矩阵Wk将每个词转化为词向量表示如下:
ci=Wkvi
其中,vi表示大小为|V|的one-hot向量,
最终句子S将被转化为一个实数矩阵,并传递给模型的下一层。
SA-BiLSTM模型的Bi-LSTM网络层具体功能如下:
为解决循环神经网络中梯度消失问题,LSTM模型引入门机制,能控制每一个LSTM单元保留历史信息的程度并记忆当前的输入,提取重要特征,本模型使用的Bi-LSTM网络层包含三种门机制,分别如下:
a.遗忘门ft,决定丢弃多少旧信息:
ft=σ(Wfxt+Ufht-1+bf)
b.输入门ct,决定单元状态中存储哪些新信息:
it=σ(Wixt+Uiht+bi)
ct=ftct-1+it·Tanh(Wcxt+Ucht-1+bc)
c.输出门ot,决定哪些信息被输出:
ot=σ(Woxt+Uoht-1+bo)
最后,由当前单元状态乘以输出门的权重矩阵ot得到输出值ht:
ht=otthanh(ct)
由于本模型采用的是双向LSTM,在原有正向LSTM网络层上添加一层反向LSTM层表示为:
hi表示Bi-LSTM网络层的输出。
SA-BiLSTM模型的自注意力机制层具体功能如下:
将上一层输入的向量集合表示为H:[h1,h2,...,hT],其自注意力机制层的权重矩阵r由下面公式得到:
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,dw为词向量维度,wT是一个训练学习得到的参数向量的转置,最终用以分类的句子将表示为:
h*=tanh(r)。
SA-BiLSTM模型的输出层具体功能如下:使用softmax分类器来预测标签该分类器将上一层得到的状态h*作为输入,最终得到文本情感极性分类类别,
其中,y表示真实类别的概率,表示预测类别的概率,的值大于50%为积极情感倾向,的值小于50%为消极情感倾向。
本发明基于自注意力机制的情感分类方法中注意力机制的具体计算过程可抽象为图1展示的三个阶段:
其中K(Key)表示关键字,Q(Query)表示查询,F表示函数,V(Value)表示权重数值,Sim表示相似性,a表示权重系数,A(Attention Value)表示注意力数值。
第一阶段:通过计算每一个Query和各个Key的相关性得到每个Key对应Value的权重系数,常用的计算机制和相似度函数有点积法,Cosine相似性法和神经网络(MLP)求值:
Sim(Q,Ki)=Q·Ki
Sim(Q,Ki)=MLP(Q,Ki)
第二阶段:引入类似Softmax函数对权重进行归一化处理,可以更加突出重要元素的权重。ai即为Value对应的权重系数:
第三阶段:将权重ai和相应的键值value进行加权求和得到最后的注意力数值:
自注意力机制是注意力机制的一个特例,也被称为内部注意力机制(IntraAttention)。在一般任务的Encoder-Decoder框架中,Source和Target是不一样的,如在英-中机器翻译中,Source是英文句子,Target是对应的翻译出的中文句子,注意力机制发生在Target的元素Query和Source的所有元素之间。而自注意力机制指的不是Target和Source之间的注意力计算机制,而是Source内部元素之间或者Target内部元素之间发生的注意力计算机制,也可以理解为Target=Source这种特殊情况下的注意力计算机制。因此,自注意力机制善于捕获同一句子中词之间的句法特征或语义特征。
本发明以Bi-LSTM模型为基础,结合自注意力机制设计如图2所示SA-BiLSTM模型来解决情感分类问题。SA-BiLSTM模型共包含五层结构:第一层为输入层,将句子输入到模型中;第二层为词向量构造层,将每个词映射到低维向量;第三层为Bi-LSTM网络层,使用Bi-LSTM从词向量层获取高级特征;第四层为自注意力机制层,生成一个权重向量,通过与这个权重向量相乘,使每一次迭代中的词汇级的特征合并为句子级的特征;第五层为输出层,将句子级的特征向量用于情感分类任务。
Claims (5)
1.基于自注意力机制的情感分类方法,其特征在于,具体按照以下步骤实施:
以双向长短期记忆神经网络模型为基础,结合自注意力机制构建SA-BiLSTM模型,SA-BiLSTM模型共包含五层结构:第一层为输入层,将句子输入到模型中;第二层为词向量构造层,将每个词映射到低维向量;第三层为Bi-LSTM网络层,使用Bi-LSTM从词向量层获取高级特征;第四层为自注意力机制层,生成一个权重向量,通过与这个权重向量相乘,使每一次迭代中的词汇级的特征合并为句子级的特征;第五层为输出层,将句子级的特征向量用于情感分类任务。
2.根据权利要求1所述的基于自注意力机制的情感分类方法,其特征在于,所述SA-BiLSTM模型的为词向量构造层具体功能如下:
对于给定包含T个词的句子S:S=X1,X2,...,XT,每个词Xi都转换为实数向量wi,对于S中的每个词,首先存在词向量矩阵:其中V为固定大小的词汇表,dw表示词向量维度,Wk表示通过训练学习得到的参数矩阵,使用词向量矩阵Wk将每个词转化为词向量表示如下:
ci=Wkvi
其中,vi表示大小为|V|的one-hot向量,
最终句子S将被转化为一个实数矩阵,并传递给模型的下一层。
3.根据权利要求2所述的基于自注意力机制的情感分类方法,其特征在于,所述SA-BiLSTM模型的Bi-LSTM网络层具体功能如下:
本模型使用的Bi-LSTM网络层包含三种门机制,分别如下:
a.遗忘门ft,决定丢弃多少旧信息:
ft=σ(Wfxt+Ufht-1+bf)
b.输入门ct,决定单元状态中存储哪些新信息:
it=σ(Wixt+Uiht+bi)
ct=ftct-1+it·Tanh(Wcxt+Ucht-1+bc)
c.输出门ot,决定哪些信息被输出:
ot=σ(Woxt+Uoht-1+bo)
最后,由当前单元状态乘以输出门的权重矩阵ot得到输出值ht:
ht=otthanh(ct)
由于本模型采用的是双向LSTM,在原有正向LSTM网络层上添加一层反向LSTM层表示为:
hi表示Bi-LSTM网络层的输出。
4.根据权利要求3所述的基于自注意力机制的情感分类方法,其特征在于,所述SA-BiLSTM模型的自注意力机制层具体功能如下:
将上一层输入的向量集合表示为H:[h1,h2,...,hT],其自注意力机制层的权重矩阵r由下面公式得到:
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,dw为词向量维度,wT是一个训练学习得到的参数向量的转置,最终用以分类的句子将表示为:
h*=tanh(r)。
5.根据权利要求4所述的基于自注意力机制的情感分类方法,其特征在于,所述SA-BiLSTM模型的输出层具体功能如下:使用softmax分类器来预测标签该分类器将上一层得到的状态h*作为输入,最终得到文本情感极性分类类别,
其中,y表示真实类别的概率,表示预测类别的概率,的值大于50%为积极情感倾向,的值小于50%为消极情感倾向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910573709.3A CN110347831A (zh) | 2019-06-28 | 2019-06-28 | 基于自注意力机制的情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910573709.3A CN110347831A (zh) | 2019-06-28 | 2019-06-28 | 基于自注意力机制的情感分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110347831A true CN110347831A (zh) | 2019-10-18 |
Family
ID=68177010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910573709.3A Pending CN110347831A (zh) | 2019-06-28 | 2019-06-28 | 基于自注意力机制的情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110347831A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991190A (zh) * | 2019-11-29 | 2020-04-10 | 华中科技大学 | 文档主题增强的自注意力网络、文本情绪预测系统和方法 |
CN111259153A (zh) * | 2020-01-21 | 2020-06-09 | 桂林电子科技大学 | 一种完全注意力机制的属性级情感分析方法 |
CN111488739A (zh) * | 2020-03-17 | 2020-08-04 | 天津大学 | 基于多粒度生成图像增强表示的隐式篇章关系识别方法 |
CN112131888A (zh) * | 2020-09-23 | 2020-12-25 | 平安科技(深圳)有限公司 | 分析语义情感的方法、装置、设备及存储介质 |
CN113254592A (zh) * | 2021-06-17 | 2021-08-13 | 成都晓多科技有限公司 | 基于门机制的多级注意力模型的评论方面检测方法及系统 |
CN113535928A (zh) * | 2021-08-05 | 2021-10-22 | 陕西师范大学 | 基于注意力机制下长短期记忆网络的服务发现方法及系统 |
CN116151479A (zh) * | 2023-04-04 | 2023-05-23 | 中国民航大学 | 一种航班延误预测方法及预测系统 |
CN116719930A (zh) * | 2023-04-28 | 2023-09-08 | 西安工程大学 | 基于视觉方面注意的多模态情感分析方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635109A (zh) * | 2018-11-28 | 2019-04-16 | 华南理工大学 | 基于lstm并结合词性及多注意力机制的句子分类方法 |
CN109710761A (zh) * | 2018-12-21 | 2019-05-03 | 中国标准化研究院 | 基于注意力增强的双向lstm模型的情感分析方法 |
CN109871538A (zh) * | 2019-02-18 | 2019-06-11 | 华南理工大学 | 一种中文电子病历命名实体识别方法 |
-
2019
- 2019-06-28 CN CN201910573709.3A patent/CN110347831A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635109A (zh) * | 2018-11-28 | 2019-04-16 | 华南理工大学 | 基于lstm并结合词性及多注意力机制的句子分类方法 |
CN109710761A (zh) * | 2018-12-21 | 2019-05-03 | 中国标准化研究院 | 基于注意力增强的双向lstm模型的情感分析方法 |
CN109871538A (zh) * | 2019-02-18 | 2019-06-11 | 华南理工大学 | 一种中文电子病历命名实体识别方法 |
Non-Patent Citations (1)
Title |
---|
ZHOUHAN LIN ET AL.: "A STRUCTURED SELF-ATTENTIVE SENTENCE EMBEDDING", 《ICLR》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991190A (zh) * | 2019-11-29 | 2020-04-10 | 华中科技大学 | 文档主题增强的自注意力网络、文本情绪预测系统和方法 |
CN111259153A (zh) * | 2020-01-21 | 2020-06-09 | 桂林电子科技大学 | 一种完全注意力机制的属性级情感分析方法 |
CN111488739A (zh) * | 2020-03-17 | 2020-08-04 | 天津大学 | 基于多粒度生成图像增强表示的隐式篇章关系识别方法 |
CN111488739B (zh) * | 2020-03-17 | 2023-07-18 | 天津大学 | 基于多粒度生成图像增强表示的隐式篇章关系识别方法 |
CN112131888A (zh) * | 2020-09-23 | 2020-12-25 | 平安科技(深圳)有限公司 | 分析语义情感的方法、装置、设备及存储介质 |
CN112131888B (zh) * | 2020-09-23 | 2023-11-14 | 平安科技(深圳)有限公司 | 分析语义情感的方法、装置、设备及存储介质 |
CN113254592A (zh) * | 2021-06-17 | 2021-08-13 | 成都晓多科技有限公司 | 基于门机制的多级注意力模型的评论方面检测方法及系统 |
CN113254592B (zh) * | 2021-06-17 | 2021-10-22 | 成都晓多科技有限公司 | 基于门机制的多级注意力模型的评论方面检测方法及系统 |
CN113535928A (zh) * | 2021-08-05 | 2021-10-22 | 陕西师范大学 | 基于注意力机制下长短期记忆网络的服务发现方法及系统 |
CN116151479A (zh) * | 2023-04-04 | 2023-05-23 | 中国民航大学 | 一种航班延误预测方法及预测系统 |
CN116151479B (zh) * | 2023-04-04 | 2023-06-30 | 中国民航大学 | 一种航班延误预测方法及预测系统 |
CN116719930A (zh) * | 2023-04-28 | 2023-09-08 | 西安工程大学 | 基于视觉方面注意的多模态情感分析方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110347831A (zh) | 基于自注意力机制的情感分类方法 | |
CN110083705B (zh) | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 | |
CN109902293B (zh) | 一种基于局部与全局互注意力机制的文本分类方法 | |
CN108363753B (zh) | 评论文本情感分类模型训练与情感分类方法、装置及设备 | |
CN109597997B (zh) | 基于评论实体、方面级情感分类方法和装置及其模型训练 | |
CN107832400B (zh) | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 | |
CN108733792B (zh) | 一种实体关系抽取方法 | |
CN108984745B (zh) | 一种融合多知识图谱的神经网络文本分类方法 | |
CN111144448B (zh) | 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 | |
CN108829677B (zh) | 一种基于多模态注意力的图像标题自动生成方法 | |
CN109918671A (zh) | 基于卷积循环神经网络的电子病历实体关系抽取方法 | |
CN109344288A (zh) | 一种基于多模态特征结合多层注意力机制的结合视频描述方法 | |
CN108830287A (zh) | 基于残差连接的Inception网络结合多层GRU的中文图像语义描述方法 | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
CN109902750A (zh) | 基于双向单注意力机制图像描述方法 | |
CN110516530A (zh) | 一种基于非对齐多视图特征增强的图像描述方法 | |
CN110888980A (zh) | 基于知识增强的注意力神经网络的隐式篇章关系识别方法 | |
CN111222338A (zh) | 基于预训练模型和自注意力机制的生物医学关系抽取方法 | |
CN111291556A (zh) | 基于实体义项的字和词特征融合的中文实体关系抽取方法 | |
CN110046353B (zh) | 一种基于多语言层次机制的方面级情感分析方法 | |
CN112232087A (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN113255366B (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
CN116610778A (zh) | 基于跨模态全局与局部注意力机制的双向图文匹配方法 | |
Wang et al. | Cross-lingual image caption generation based on visual attention model | |
CN114462420A (zh) | 一种基于特征融合模型的虚假新闻检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |
|
RJ01 | Rejection of invention patent application after publication |