CN115630156A - 一种融合Prompt和SRU的蒙古语情感分析方法与系统 - Google Patents

一种融合Prompt和SRU的蒙古语情感分析方法与系统 Download PDF

Info

Publication number
CN115630156A
CN115630156A CN202211152077.1A CN202211152077A CN115630156A CN 115630156 A CN115630156 A CN 115630156A CN 202211152077 A CN202211152077 A CN 202211152077A CN 115630156 A CN115630156 A CN 115630156A
Authority
CN
China
Prior art keywords
vector
prompt
sru
mongolian
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211152077.1A
Other languages
English (en)
Inventor
苏依拉
李啸峰
仁庆道尔吉
吉亚图
乌尼尔
路敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Technology
Original Assignee
Inner Mongolia University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Technology filed Critical Inner Mongolia University of Technology
Priority to CN202211152077.1A priority Critical patent/CN115630156A/zh
Publication of CN115630156A publication Critical patent/CN115630156A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种融合Prompt和SRU的蒙古语情感分析方法,在BERT模型训练中引入Prompt,利用数据集训练;将蒙古语输入到训练好的BERT模型中对应的单词嵌入、分段嵌入和位置嵌入,生成处理后的向量T;将向量T输入到内置Attention的SRU中进行全局特征提取,同时输入到CNN中进行局部特征提取;将SRU和CNN提取到的特征通过神经网络进行特征融合;将融合后的特征进行最大池化操作;将最大池化操作得到的向量输入至朴素贝叶斯分类器进行情感判别。本发明还提供了相应的蒙古语情感分析系统,本发明利用Prompt训练BERT模型,使得预处理模型适配下游任务。

Description

一种融合Prompt和SRU的蒙古语情感分析方法与系统
技术领域
本发明属于人工智能技术领域,涉及情感分类,特别涉及一种融合Prompt和SRU的蒙古语情感分析方法。
背景技术
情感分析又称为意见挖掘,是指对带有感情色彩的文本进行感情色彩分析,挖掘出其中包含的情感倾向,对情感态度进行划分。
情感分析按照处理文本粒度的大小可大致分为三类:篇章级情感分析,句子级情感分析和方面级情感分析三个层次。篇章级和句子级情感分析分别将文章和句子作为一个数据样本进行分析,属于粗粒度的情感分析任务,而方面级情感分析则属于细粒度的任务,它能够分析句子中不同方面所表达的不同情感极性。所有粒度的情感分析任务都包含三类分类结果,即“积极”、“消极”或“中性”,通常使用数组[-1,0,1]分别对应。方面级情感分析的重点在于对方面信息的提取和学习,尤其是在处理包含多个方面的句子时,不同方面可能表达相反的情感极性,特定方面的情感修饰词可能对其他方面造成负面影响,从而导致算法判断错误,因此需要模型学习到与方面相关的局部上下文信息。
目前情感分析领域有几种主要的主流方法。首先是基于情感词典的情感分析,是指根据现有的已构的情感词典对待分析的文本进行情感词抽取,计算文本的情感倾向,分类结果十分依赖情感词典的完整性。随着技术的发展出现了基于机器学习的情感分析,它是指将情感词作为特征词将文本矩阵化,使用机器学习相关技术进行分类,但是某些领域文本没有标注或情感词典的不完善则需要消耗大量的成本,例如对于蒙古语而言,其情感词典尚不完善。目前主流的做法是基于深度学习的情感分析,深度学习具有深层次的非线性网络结构,能够学习数据低维到高维的特征,在自然语言处理领域体现在能够学习数据样本的内在联系以及依赖关系,形成抽象的、高层的表示形式,从而有效克服传统机器学习的约束。
主流的BERT模型等采用下游任务适应预训练模型的方式,不仅参数量相对较多,而且BERT严重依赖标注数据,近年来,预训练语言模型通过预测被MASK的词可以获得实体间高置信度的关系,但是预训练和微调之间存在gap使得不能充分利用预训练模型所有的优势。传统RNN存在训练速度慢、梯度爆炸等情况,在情感分析的应用领域中存在一些需要克服的缺点。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种融合Prompt和SRU的蒙古语情感分析方法与系统,使用Prompt将预BERT训练模式转换为预训练模型适应下游任务,使得预训练语言模型能够发挥更大的效用,且SRU的速度相较于RNN有了明显的提升、在解决梯度爆炸方面也有了很好的改进效果。
为了实现上述目的,本发明采用的技术方案是:
一种融合Prompt和SRU的蒙古语情感分析方法,包括如下步骤:
步骤1,在BERT模型训练中引入Prompt,利用数据集训练;
步骤2,将蒙古语输入到训练好的BERT模型中对应的单词嵌入、分段嵌入和位置嵌入,生成处理后的向量T;
步骤3,将向量T输入到内置Attention的SRU中进行全局特征提取,同时输入到CNN中进行局部特征提取;
步骤4,将SRU和CNN提取到的特征通过神经网络进行特征融合;
步骤5,将融合后的特征进行最大池化操作;
步骤6,将最大池化操作得到的向量输入至朴素贝叶斯分类器进行情感判别。
本发明还提供了一种融合Prompt和SRU的蒙古语情感分析系统,包括:
数据预处理模块,采用Prompt-BERT模块进行数据预处理,用于将输入的蒙古语转换为可数据处理的向量T;所述Prompt-BERT模块是在BERT模型训练中引入Prompt;
特征提取模块,包括全局特征提取单元和局部特征提取单元,所述全局特征提取单元采用Attention的SRU,用于对所述向量T进行全局特征提取,所述局部特征提取单元采用CNN,用于对所述向量T进行局部特征提取;
特征融合模块,用于将所述特征提取模块提取的全局特征和局部特征进行特征融合,并进行最大池化操作;
情感分析模块,采用朴素贝叶斯分类器,输入最大池化操作得到的向量,实现蒙古语情感分类。
与现有技术相比,本发明的有益效果是:
利用Prompt训练BERT模型,使得预处理模型适配下游任务,预处理模型会发挥出更强的优势,插入Attention的SRU模型和CNN模型双重提取特征并进行融合,在特征提取的任务中更加全面,最后朴素贝叶斯模型具有稳定的分类效率并且对缺失数据不太敏感,选择此方式可以很好地判别蒙古语的情感。
附图说明
图1为本发明总体流程图。
图2为Prompt-BERT模型图。
图3为Prompt流程图。
图4为BERT模型图。
图5为Attention-SRU模型图。
图6为CNN模型图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
如图1所示,本发明为一种融合Prompt和SRU的蒙古语情感分析方法,包括如下步骤:
步骤1,在BERT模型训练中引入Prompt,利用数据集训练。
如图2,本发明中,通过引入Prompt,将数据输入Prompt,Prompt对输入的数据添加MASK标签,之后输入至BERT模型,BERT模型通过对MASK标签预测进行训练。
通过将Prompt与BERT相结合,改变了BERT模型的训练方式。Prompt能够给BERT模型一个提示,帮助其更好地理解任务,Prompt将下游任务的输入改造成预训练任务中的形式,即MLM(Masked Language Model)的形式,不需要为下游任务新增分类器,因为任务形式与预训练模型本身相适应,只需要建立一个简单的映射。Prompt目的是为了更好挖掘与预训练语言模型的能力,通过在输入端添加文本的方式实现。
在一个实施例中,其具体步骤可参考图3,分为四步:
第一步,对Prompt模板进行构造,定义一个模板,包含两处待填入的slots:[z]和[y],slots:[z]和[y]指添加MASK标签操作。例如输入:
Figure BDA0003857333360000041
意思是:我非常喜欢这本书。模板:
Figure BDA0003857333360000042
意思是:[z]总而言之,它是本[y]的书,接下来是带入(Prompting操作),句子变为意思是:我非常喜欢这本书,总而言之,他是个[y]的书。蒙古语为:
Figure BDA0003857333360000043
Figure BDA0003857333360000044
第二步,对于Prompt,需要知道预测词y和词典标签label之间的关系,但是不可能让y对应任意的词语,所以就需要设置一个对应的映射函数,将BERT模型输出的词与词典标签label映射。就如当前的例子,根据句意假定输出的label为两个,一个是有趣
Figure BDA0003857333360000045
一个是无聊
Figure BDA0003857333360000046
第三步,通过BERT模型对待填入的空位slots:[y]进行预测,通过模型训练,得到结果(上述例子中,结果为有趣
Figure BDA0003857333360000047
),并将结果带入[y]中。
第四步,将预测得到的[y]的结果Answer映射回Prompt原本的标签label,并观察是否结果与标签属性与之相对应,以比较预测是否准确。
通过这四步,能够改变BERT原有的下游任务适应模型的特点,生成新的BERT预训练模型。
另外,由于蒙古语存在语料库不足、且语料库噪声较大的缺点。而采用Prompt可以使用其他语言预训练模型,训练好的模型通过微调便可以直接应用于蒙古语的数据预处理。
步骤2,将蒙古语输入到训练好的BERT模型中对应的单词嵌入、分段嵌入和位置嵌入,生成处理后的向量T。
如图4,BERT模型的输入由三部分组成,一是单词的位置嵌入,用于表示单词在句子中的相对位置;二是分段嵌入,将句子分割为两段或多段分别表示;三是单词嵌入,即单词的词向量表示当输入蒙古语文本时。训练后的BERT预训练模型将文本加入对应的TokenEmbeddings、Segment Embeddings和Position Embeddings,输出处理后的向量T。
步骤3,将向量T输入到内置Attention的SRU中进行全局特征提取,同时输入到CNN中进行局部特征提取。
本步骤中,向量T分别进行SRU和CNN的特征提取,SRU对蒙古语文本进行全局特征提取,其中的Attention在SRU特征提取前计算相关内容的注意力分布,SRU对全局特征提取容易忽略其中某个局部的特征,所以采用并行加入CNN对文本进行局部特征提取。由于蒙古语语料库存在比较大的噪音,所以采用两种不同的神经网络对蒙古语进行特征提取可以有效避免因噪声导致的偏差。
内置Attention的SRU模型如图5所示,利用其进行全局特征提取的步骤如下:
向量T输入到内置Attention的SRU中,先通过Attention计算注意力分布,采用如下加性模型进行注意力打分:
s(Ti,q)=VTtanh(Wti+Uq)
其中,s(Ti,q)表示注意力得分,Ti表示向量T中第i个索引位置的向量,ti为Attention中解码器层的一个输出向量,q为任务相关的所要查询的向量,是Attention中编码器层的输出,W、U和V是神经网络学习的网络参数;
完成计算后,进入到SRU模型,SRU模型表达公式为:
Figure BDA0003857333360000051
fn=sigmoid(wf(y*)Xn+bf
rn=sigmoid(wr(y*)Xt+br)
Figure BDA0003857333360000061
Figure BDA0003857333360000062
Figure BDA0003857333360000063
其中,
Figure BDA0003857333360000064
是t时刻的特征Xt经过Attention处理后的向量,(y*)是Attention层的算子,⊙代表哈达马乘积,Xn表示n时刻的输入特征,w、wf、wr是在模型训练过程中可自动学习的权重参数,bf、br是在模型训练过程中可自动学习的偏置量;fn、rn表示遗忘门与重置门,
Figure BDA0003857333360000065
表示细胞状态与原始隐藏状态,hn是通过SRU的隐藏状态输出,其中fb是一种注意力引导网络,能够自适应调节SRU神经网络注意力关注点,使其具有更强的鲁棒性。
CNN模型如图6所示,利用其进行局部特征提取的步骤如下:
首先通过映射函数f:T→Vp,将向量T映射为p维向量,并转化为长度为L的向量矩阵;
然后,在卷积层对向量矩阵中的向量进行卷积运算。卷积层包含e个神经元,每个神经元对应的卷积核K∈Vl*p用于对向量进行卷积运算提取特征,假设O1:L是文本长度为L的词嵌入矩阵,第j个神经元产生的特征为:
Zj=ReLU(O1:L*Kj+bj)
其中bj为偏移项,*为卷积操作,RELU是非线性激活函数。
并在滑动窗口的作用下,得到第j个神经元产生的特征Z1,Z2,…,Zj,对所得特征进行最大池化运算,表示为Gj=max(Z1,Z2,…,Zj),用于捕获拥有最大值的特征;卷积层最终输出为e个神经元输出的拼接的结构E,其定义为:
E=[G1,G2,...,Gk,...,Ge]
最后,E进入全连接层得到如下输出:
H=ReLU(CE+I)
其中C为向量权重矩阵,C∈Ve*s,I为偏置项,I∈Rs,S是全连接层输出的维度。
至此CNN局部特征提取工作结束。
步骤4,将SRU和CNN提取到的特征通过神经网络进行特征融合。
本步骤采用神经网络的concat方法进行特征融合,公式如下:
Figure BDA0003857333360000071
通过Concat进行特征融合,输入为双通道,输入的特征分别是hi和Hi,其中c代表每个通道中的向量个数,将第二个通道的输入特征Hi拼接在第一个通道的输入特征hi后,K代表向量融合索引,第一个通道至Ki,融合拼接第二个通道的特征,索引位置从Ki至Ki+c
步骤5,将融合后的特征进行最大池化(MaxPooling)操作。
concat会将向量进行张量拼接,会扩充两个张量的维度。因此在特征融合之后,通过最大池化操作对不同位置的特征进行聚合统计,以防止出现过拟合现象,池化结果为:
Pool=Maxpooling(Zconcat)
步骤6,将最大池化操作得到的向量输入至朴素贝叶斯分类器进行情感判别。
朴素贝叶斯分类器是一种简单强大的算法,朴素贝叶斯分类法是基于独立性假设的前提,并且结合了贝叶斯定理的概率分类方法,通过学习和总结输入和输出变量之间的文本特征,从而对新数据输出变量值进行分类预测,首先将向量按照一定比例分为训练集和测试集,首先将向量全部作为训练集Q={Q1,Q2,...,Qn},以上向量分属于不同类别积极或是消极,类别C={C1,C2},其中C1对应积极情感倾向,C2对应消极情感倾向。计算向量的先验概率为:
Figure BDA0003857333360000072
计算某个向量Qk在类别Cj中的条件概率估计:
Figure BDA0003857333360000073
输出类别:通过对测试集每个特征向量在文本的所属类别,最后按照最大后验概率进行分类:
Figure BDA0003857333360000081
按照上述步骤操作便可以得出蒙古语对应的类别,至此完成并得到最终对蒙古语判别的结果。
本发明还提供了相应的情感分析系统,包括:
数据预处理模块,采用加入Prompt-BERT模块进行数据预处理,用于将输入的蒙古语转换为可数据处理的向量,方便后续特征提取。具体地,首先将数据输入进Prompt,Prompt会构建一个模板,模板的作用就是将输入进Prompt以及后续输出的文本转换为带有MSAK的文本,令预训练模型进行训练并补全MASK。定义一个label词典,将构建好的带有MASK标签的语句输入到BERT中,使得BERT对MASK标签进行预测,预测MASK的内容,检查预测后的内容与label中哪一类标签相对应,然后将对应的标签映射回带MASK的语句,使得语句完整。Prompt将输入的内容按照BERT模型的输入格式进行添加MASK的操作,让BERT节省了一步操作,提高了预训练模型的效率。通过训练好的模型最终将输入的内容转化为后续所需要的向量格式。在实际应用中,可以首先采用汉语或是英语对Prompt-BERT模型进行预训练,克服蒙古语语料库不足可能导致的预训练模型训练不充分的问题。然后将训练好的模型微调用于蒙古语的预处理任务中。
特征提取模块,主要采用SRU和CNN实现对数据的特征提取,其中在SRU中加入Attention,Attention首先对向量进行初步的注意力计算,再输入至SRU。SRU中也包含相应的神经门控制信息流防止梯度爆炸,并且SRU门计算只依赖于当前输入的循环,使得模型只有逐点相乘的计算是依赖于之前时间步的,从而使得网络能够容易的并行化,SRU在全局特征提取时,存在一些对局部特征提取方面的不足,因此采用双通道,另取CNN对局部特征进行提取,最终将SRU和CNN提取到的特征进行特征融合,并进行最大池化操作令融合后的特征向量降维。
特征融合模块,用于将所述特征提取模块提取的全局特征和局部特征进行特征融合,并进行最大池化操作;
情感分析模块,用于实现蒙古语情感判别功能。具体为,将处理后的向量输入至朴素贝叶斯模型,朴素贝叶斯分类器最终对文本进行情感判别。

Claims (8)

1.一种融合Prompt和SRU的蒙古语情感分析方法,其特征在于,包括如下步骤:
步骤1,在BERT模型训练中引入Prompt,利用数据集训练;
步骤2,将蒙古语输入到训练好的BERT模型中对应的单词嵌入、分段嵌入和位置嵌入,生成处理后的向量T;
步骤3,将向量T输入到内置Attention的SRU中进行全局特征提取,同时输入到CNN中进行局部特征提取;
步骤4,将SRU和CNN提取到的特征通过神经网络进行特征融合;
步骤5,将融合后的特征进行最大池化操作;
步骤6,将最大池化操作得到的向量输入至朴素贝叶斯分类器进行情感判别。
2.根据权利要求1所述融合Prompt和SRU的蒙古语情感分析方法,其特征在于,所述步骤1,将数据输入Prompt,Prompt对输入的数据添加MASK标签,之后输入至BERT模型,BERT模型通过对MASK标签预测进行训练。
3.根据权利要求1或2所述融合Prompt和SRU的蒙古语情感分析方法,其特征在于,所述步骤1,包括如下步骤:
第一步,对Prompt模板进行构造,定义一个模板,包含两处待填入的slots:[z]和[y],所述slots:[z]和[y]指添加MASK标签操作;
第二步,设置一个对应的映射函数,将BERT模型输出的词与词典标签映射;
第三步,通过BERT模型对待填入的空位slots:[y]进行预测,通过模型训练,得到结果,并将结果带入[y]中;
第四步,将预测得到的[y]的结果Answer映射回Prompt原本的标签并观察是否结果与标签属性与之相对应,以比较预测是否准确。
4.根据权利要求1所述融合Prompt和SRU的蒙古语情感分析方法,其特征在于,所述步骤3,进行全局特征提取的步骤如下:
向量T输入到内置Attention的SRU中,先通过Attention计算注意力分布,采用如下加性模型进行注意力打分:
s(Ti,q)=Vttanh(Wti+Uq)
其中,s(Ti,q)表示注意力得分,Ti表示向量T中第i个索引位置的向量,ti为Attention中解码器层的一个输出向量,q为任务相关的所要查询的向量,是Attention中编码器层的输出,W、U和V是神经网络学习的网络参数;
完成计算后,进入到SRU网络,SRU模型表达公式为:
Figure FDA0003857333350000021
fn=sigmoid(wf(y*)Xn+bf
rn=sigmoid(wr(y*)Xt+br)
Figure FDA0003857333350000022
Figure FDA0003857333350000023
Figure FDA0003857333350000024
其中,
Figure FDA0003857333350000025
是t时刻的特征Xt经过Attention处理后的向量,(y*)是Attention层的算子,⊙代表哈达马乘积,Xn表示n时刻的输入特征,w、wf、wr是在模型训练过程中可自动学习的权重参数,bf、br是在模型训练过程中可自动学习的偏置量;fn、rn表示遗忘门与重置门,cn
Figure FDA0003857333350000026
表示细胞状态与原始隐藏状态,hn是通过SRU的隐藏状态输出,其中fb是一种注意力引导网络,能够自适应调节SRU神经网络注意力关注点,使其具有更强的鲁棒性。
5.根据权利要求1所述融合Prompt和SRU的蒙古语情感分析方法,其特征在于,所述局部特征提取的步骤如下:
首先通过映射函数f:T→Vp,将向量T映射为p维向量,并转化为长度为L的向量矩阵;
然后,在卷积层对向量矩阵中的向量进行卷积运算,并在滑动窗口的作用下,得到第j个神经元产生的特征Z1,Z2,…,Zj,对所得特征进行最大池化运算,表示为Gj=max(Z1,Z2,…,Zj);卷积层最终输出为e个神经元输出的拼接的结构E,其定义为:
E=[G1,G2,...,Gj,...,Ge]
最后,E进入全连接层得到如下输出:
H=ReLU(CE+I)
其中C为向量权重矩阵,C∈Ve*s,I为偏置项,I∈Rs,S是全连接层输出的维度。
6.根据权利要求1所述融合Prompt和SRU的蒙古语情感分析方法,其特征在于,所述步骤4,采用神经网络的concat方法进行特征融合,公式如下:
Figure FDA0003857333350000031
通过Concat进行特征融合,输入为双通道,输入的特征分别是hi和Hi,其中c代表每个通道中的向量个数,将第二个通道的输入特征Hi拼接在第一个通道的输入特征hi后,K代表向量融合索引,第一个通道至Ki,融合拼接第二个通道的特征,索引位置从Ki至Ki+c
7.根据权利要求1所述融合Prompt和SRU的蒙古语情感分析方法,其特征在于,在特征融合之后,通过最大池化操作对不同位置的特征进行聚合统计,以防止出现过拟合现象,池化结果为:
Pool=Maxpooling(Zconcat)。
8.一种融合Prompt和SRU的蒙古语情感分析系统,包括:
数据预处理模块,采用Prompt-BERT模块进行数据预处理,用于将输入的蒙古语转换为可数据处理的向量T;所述Prompt-BERT模块是在BERT模型训练中引入Prompt;
特征提取模块,包括全局特征提取单元和局部特征提取单元,所述全局特征提取单元采用Attention的SRU,用于对所述向量T进行全局特征提取,所述局部特征提取单元采用CNN,用于对所述向量T进行局部特征提取;
特征融合模块,用于将所述特征提取模块提取的全局特征和局部特征进行特征融合,并进行最大池化操作;
情感分析模块,采用朴素贝叶斯分类器,输入最大池化操作得到的向量,实现蒙古语情感分类。
CN202211152077.1A 2022-09-21 2022-09-21 一种融合Prompt和SRU的蒙古语情感分析方法与系统 Pending CN115630156A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211152077.1A CN115630156A (zh) 2022-09-21 2022-09-21 一种融合Prompt和SRU的蒙古语情感分析方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211152077.1A CN115630156A (zh) 2022-09-21 2022-09-21 一种融合Prompt和SRU的蒙古语情感分析方法与系统

Publications (1)

Publication Number Publication Date
CN115630156A true CN115630156A (zh) 2023-01-20

Family

ID=84903706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211152077.1A Pending CN115630156A (zh) 2022-09-21 2022-09-21 一种融合Prompt和SRU的蒙古语情感分析方法与系统

Country Status (1)

Country Link
CN (1) CN115630156A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304063A (zh) * 2023-05-19 2023-06-23 吉林大学 一种简单的情感知识增强提示调优的方面级情感分类方法
CN116595181A (zh) * 2023-07-07 2023-08-15 湖南师范大学 一种结合情感分析的个性化对话方法及系统
CN116821333A (zh) * 2023-05-30 2023-09-29 重庆邮电大学 一种基于大数据的互联网视频剧本角色情感识别方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304063A (zh) * 2023-05-19 2023-06-23 吉林大学 一种简单的情感知识增强提示调优的方面级情感分类方法
CN116304063B (zh) * 2023-05-19 2023-07-21 吉林大学 一种简单的情感知识增强提示调优的方面级情感分类方法
CN116821333A (zh) * 2023-05-30 2023-09-29 重庆邮电大学 一种基于大数据的互联网视频剧本角色情感识别方法
CN116595181A (zh) * 2023-07-07 2023-08-15 湖南师范大学 一种结合情感分析的个性化对话方法及系统
CN116595181B (zh) * 2023-07-07 2023-10-03 湖南师范大学 一种结合情感分析的个性化对话方法及系统

Similar Documents

Publication Publication Date Title
CN110502749B (zh) 一种基于双层注意力机制与双向gru的文本关系抽取方法
CN113254599B (zh) 一种基于半监督学习的多标签微博文本分类方法
CN110569508A (zh) 融合词性和自注意力机制的情感倾向性分类方法及系统
CN110532557B (zh) 一种无监督的文本相似度计算方法
WO2018028077A1 (zh) 一种基于深度学习的中文语义分析的方法及装置
KR102008845B1 (ko) 비정형 데이터의 카테고리 자동분류 방법
CN109858041B (zh) 一种半监督学习结合自定义词典的命名实体识别方法
CN112001185A (zh) 一种结合中文句法和图卷积神经网络的情感分类方法
CN110609897A (zh) 一种融合全局和局部特征的多类别中文文本分类方法
CN110502753A (zh) 一种基于语义增强的深度学习情感分析模型及其分析方法
CN110929030A (zh) 一种文本摘要和情感分类联合训练方法
CN115630156A (zh) 一种融合Prompt和SRU的蒙古语情感分析方法与系统
CN111522956A (zh) 基于双通道和层次化注意力网络的文本情感分类方法
CN107451118A (zh) 基于弱监督深度学习的句子级情感分类方法
CN110580287A (zh) 基于迁移学习和on-lstm的情感分类方法
CN112395417A (zh) 基于深度学习的网络舆情演化仿真方法及系统
CN112818698B (zh) 一种基于双通道模型的细粒度的用户评论情感分析方法
CN111949790A (zh) 基于lda主题模型与分层神经网络的情感分类方法
Zhang et al. A BERT fine-tuning model for targeted sentiment analysis of Chinese online course reviews
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
CN116579347A (zh) 一种基于动态语义特征融合的评论文本情感分析方法、系统、设备及介质
CN114444481B (zh) 一种新闻评论的情感分析与生成方法
CN111813939A (zh) 一种基于表征增强与融合的文本分类方法
Zhao et al. Knowledge-aware bayesian co-attention for multimodal emotion recognition
CN112199503B (zh) 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination