CN111144448A - 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 - Google Patents

基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 Download PDF

Info

Publication number
CN111144448A
CN111144448A CN201911250369.7A CN201911250369A CN111144448A CN 111144448 A CN111144448 A CN 111144448A CN 201911250369 A CN201911250369 A CN 201911250369A CN 111144448 A CN111144448 A CN 111144448A
Authority
CN
China
Prior art keywords
attention
vector
distribution
sample
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911250369.7A
Other languages
English (en)
Inventor
宋威
温子健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201911250369.7A priority Critical patent/CN111144448A/zh
Publication of CN111144448A publication Critical patent/CN111144448A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

基于多尺度注意力卷积编码网络的视频弹幕情感分析方法,属于自然语言处理、情感分析领域。将多层次结构的注意力机制与卷积神经网络相结合,弥补卷积神经网络难以提取文本的长依赖信息的不足的缺陷。输入的样本与目标词分别进行卷积神经网络的多通道特征学习进行编码,再利用注意力机制提取出句子中与目标词相关部分,将最后的各个部分编码的特征向量拼接得到多尺度的综合特征向量,作为最后的向量输入分类器进行情感分类。

Description

基于多尺度注意力卷积编码网络的视频弹幕情感分析方法
技术领域
本发明属于深度学习、情感分析领域,提出一种使用多尺度注意力机制的卷积编码网络 (Hierarchical Attention Convolution Neural Network,HACNN)模型,可以有效分析复杂视频 弹幕中目标词对应的情感信息,从而能对视频弹幕样本进行情感分析。
背景技术
随着互联网的高速发展,视频弹幕作为一种新型的评论交流方式应运而生,观众可以在 互联网上观看视频时同步地发表自己的观点。由于弹幕是一种新兴的评论方式,所以目前对 这方面的研究较少,但弹幕中包含了大量对视频的实时情感信息,与视频反馈用户对视频每 一部分的态度情感。根据弹幕情感对视频关键帧进行情感标注,可以方便用户根据关键帧情感 来选择该帧进行视频播放,也可以方便作者对视频意见的收集、改进。因此,提出一个高效、 智能、准确的视频弹幕情感分析方法是非常必要的。
卷积循环神经网络(Convolutional Recurrent Neural Network,CRNN)采用了自动编码机 的思想,对视频中每一帧图像中的弹幕进行识别。CRNN的前半部分使用了卷积神经网络 (Convolutional Neural Networks,CNN)对每一帧图像进行特征提取,起到编码部分的作用, 再将得到的特征图利用循环神经网络(Recurrent Neural Network,RNN)对特征图中含有文 字的部分进行解码,从而达到对图像中弹幕识别的目的。
一般来说RNN也可直接用于对样本进行情感分析,但传统的RNN网络存在梯度弥散、梯 度消失问题,而且不能并行计算,时间开销太大。近年来,Kim提出将CNN用于文本分类之 后,卷积神经网络在深度学习的应用越来越被重视。这种深度学习网络能有效提取样本特征, 并能突出样本中各个词之间的关联信息。利用CNN能提取相关词信息的优势,可以对视频弹 幕进行有效的特征提取,从而可以对弹幕的整体含义、表达情感倾向进行有效的状态描述。
但是,如果样本中含有多个目标词且这些目标词有着多种不同的情感极性时,单用CNN 来处理样本是远远不能达到需要的效果的。CNN虽然能提取窗口內样本信息及关联信息,但 不能对整个样本进行处理,这就导致CNN可能会对样本的情感极性提取不够充分甚至会产生 错误。而且现有的CNN模型与传统的RNN模型相比,在提取样本特征上还略处劣势。因此, 需要提出一种新结构的CNN模型,使得CNN能提取更加丰富的样本特征,能更好地捕捉到样 本中多目标词对应情感。
发明内容
针对上述存在问题,本发明提出了一种基于多尺度注意力卷积编码网络(Hierarchical Attention Convolution Neural Network,HACNN)的模型来进行视频弹幕的情感分析。将多层 次结构的注意力机制与卷积神经网络相结合,弥补卷积神经网络难以提取样本的长依赖信息 的不足的缺陷。输入的样本与目标词分别进行卷积神经网络的多通道特征学习进行编码,再 利用注意力机制提取出句子中与目标词相关部分,将最后的各个部分编码的特征向量拼接得 到多尺度的综合特征向量,作为最后的向量输入分类器进行情感分类。
本发明的技术方案:
本发明提出的基于多尺度注意力卷积编码网络的视频弹幕情感分析方法,主要步骤如下:
步骤1、从互联网上的视频网站收集带有弹幕的视频文件,利用CRNN模型提取出视频 中的弹幕样本,将视频的每一帧的视频图片转化为RGB三通道的像素矩阵,并输入到CNN模型中提取特征:
F=CNN(X) (1)
其中F为提取出的中间特征图,X为图片的输入像素矩阵。
特征图F经过RNN模型的解码翻译出弹幕样本:
S=RNN(F) (2)
将样本中的目标词和情感标记出来作为数据集,并将其划分为训练集和测试集。对数据 集进行样本预处理,即词嵌入向量操作。本发明使用的是GloVe的词嵌入向量方法:根据已 有的语料库,构建一个由Xij个元素构成的共现矩阵X,将单词i和其上下文单词j在固定窗 口大小的上下中共同出现的次数与权重的乘积定义为Xij。权重是由GloVe自身的衰减函数 来计算:
wd=1/d (3)
其中d为上下文单词之间的距离。
GloVe词嵌入向量的训练损失函数为:
Figure BDA0002308855570000021
其中,
Figure BDA0002308855570000022
Figure BDA0002308855570000023
为最终求解词向量,f(Xij)为权重函数
进一步的,f(Xij)定义为:
Figure BDA0002308855570000031
其中,α取值为0.75,xmax取值为100。
步骤2、构建HACNN模型,设置HACNN模型的各项超参数数值。将步骤1中GloVe 处理之后得到的句子样本和目标词向量输入到HACNN模型,进行第一重注意力机制处理。 对句子样本和目标词向量同时做多头自注意力,初步提炼出向量中最相关的信息部分,完成 粗编码过程。k={k1,k2,…,kn}和q={q1,q2,…,qm}分别为注意力的一组键值序列和查询序列, 自注意力公式为:
Attention(k,q)=softmax(fs(k,q))k (6)
fs(ki,qj)=tanh([ki;qj]·Watt) (7)
则多头注意力公式可定义为:
Figure BDA0002308855570000032
oh=Attentionh(k,q) (9)
其中,Watt和Wmh为模型可训练的变量,“;”代表向量直接拼接,
Figure BDA0002308855570000033
为第 h头的注意力输出,且h∈[1,nhead]。
样本进行自我自注意力,即k与q的值相等;目标词进行交互自注意力,即k与q的值不等。
进一步可以得到句子和目标词的向量表示:
c=MHA(context,context) (10)
t=MHA(context,target) (11)
其中,c为句子的向量表示,t为目标词的向量表示。
步骤3、将得到的句子和目标词的初步向量表示再输入进多通道卷积转换(Multi-Channels ConvolutionTransformation,MCCT)模块中,MCCT能将输入的特征通道维度升高,能从不 同的角度学习到输入的特征。再利用第二重注意力——通道间的注意力,降低CNN的通道维 度,去除掉多个通道中冗余的部分,提取多通道中收集的不同特征。MCCT模块的计算方法 如下:
fr=ReLU(L) (12)
其中,L为:
L=Wcx (13)
Wc为可训练的权重,x为MCCT模块的输入。则通道注意力Attentionl可用以下公式表 示:
Attentionl=Sigmoid(Wrfr) (14)
其中,Wr为可训练的权重。用卷积网络将输入展开到不同通道进行学习:
Tc=Conv1d(input) (15)
去除冗余通道信息:
MCCT(c)=Attentionl(Tc) (16)
其中Tc为卷积收集到的信息,通道数channel和隐藏层reduction为超参数,在本发明中 为64和16。
则最终的特征表示hc可表示为:
hc=Conv1d(MCCT(c)) (17)
同样可得到ht的表示:
ht=Conv1d(MCCT(t)) (18)
得到的样本表示特征序列为
Figure BDA0002308855570000041
目标词序列为
Figure BDA0002308855570000042
步骤4、第三重注意力为样本与目标词之间的注意力。在网络在多通道进一步提取了样 本句子与目标词的高维信息后,再一次提取句子中与目标词最相关的部分,即在hc与ht之间 再做一次注意力。将句子向量与目标词向量做乘积作为注意力权重,进而将此注意力权重与 目标词向量做点积得到句子中与目标词相关信息的特征向量表示。此注意力过程使用了公式 (6)中的自注意力公式:
htc=MHA(hc,ht) (19)
其中htc为与目标词最相关的句子表示。
步骤5、将得到的三个特征表示hc、ht与htc进行平均池化后拼接。将拼接之后的向量表 示H输入到最后的分类器分类,平均池化操作为:
Figure BDA0002308855570000043
其中,H是向量长度。
则hc、ht与htc进行平均池化后可得到hc avg、ht avg与htc avg
将三个池化后的特征表示拼接得H:
Figure BDA0002308855570000051
其中,“;”为拼接操作。
步骤6、将最后得到的H向量特征表示,输入到softmax分类器中进行最后的分类,得 到的一个三维向量y为最后的预测分布,每个维度代表一个分类类别,分别为积极的、消极 的和中立的。使用argmax函数找到数值最大的维度标号,即模型预测的类别P,此过程的公 式为:
Figure BDA0002308855570000052
Figure BDA0002308855570000053
P=arg max(y) (24)
其中,
Figure BDA0002308855570000054
Figure BDA0002308855570000055
都是反向传播过程中可训练学习到的变量。C为分类的种类,本发明中 为3。
在网络中的收集的样本训练集标签有可能是不正确的,所以本发明使用了标签平滑 (Label SmoothingRegularization,LSR)的交叉熵函数代替了传统的交叉熵函数作为整个网络 的损失函数来获取更好的训练效果。LSR可以防止模型把预测值过度集中在概率较大类别上, 把一些概率分到其他概率较小类别上,即从一定程度上防止了网络对训练样本的过拟合。训 练样本x标签的真实分布可以表示为q(k|x),LSR将此分布重写为:
q(k|x)=(1-∈)q(k|x)+∈u(k) (25)
其中,u(k)为先验分布,∈为一个取[0,1]的平滑系数。在本发明中∈为0.2。
u(k)服从一个简单的均匀分布:
u(k)=1/C (26)
把标签的真实分布q(k|x)与固定的分布u(k)按照1-∈和∈的权重混合在一起,构成一个新 的分布。这相当于对标签分布中加入噪声,k值有∈的概率来自于分布u(k)。LSR交叉熵函数 相当于计算了先验分布u(k)与网络的预测分布pθ之间的KL散度,LSR可定义为:
Figure BDA0002308855570000056
再使用L2正则化对损失函数进行约束,则损失函数可定义为:
Figure BDA0002308855570000061
其中,yc为网络的预测C类的情感分布,
Figure BDA0002308855570000062
为yc的平均值。λ为L2正则化系数,θ为 设定的超参数。
本发明的有益效果:提出了一种智能的视频弹幕情感分析方法,不需要人为干预能对复 杂的视频弹幕进行情感分类。为了处理网络中的复杂句子样本,使用CNN与多层级注意力机 制的搭配,从多空间维度进行多尺度的特征学习,并去除冗余信息,完成细粒度分类任务, 即对句子中不同目标词的不同情感准确判断。针对于收集的网络样本标签准确率不高的特点, 使用了LSR对损失函数进行优化,训练出预测分布更真实的网络结构,得到更有效的预测效 果。利用以上优点,实现对视频弹幕准确地情感分析。
附图说明
图1为本发明整个网络的结构示意图;
图2为网络中MCCT模块的结构示意图
图3为HACNN模型训练流程图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,结合以上所给技术方案和附图,进一步说 明本发明的具体使用方式。
如图3所示,基于多尺度注意力卷积编码网络的视频弹幕情感分析方法,具体步骤如下:
步骤1、收集视频文件,用CRNN提取出视频的弹幕样本,整理出每个样本句子中的目 标词,并分别对每个目标词的情感偏向进行标注,得到弹幕样本数据集。数据集中的句子样 本与目标词分别进行GloVe预处理,使其变为神经网络易处理的向量形式,GloVe神经网络 的损失函数为:
Figure BDA0002308855570000063
其中,
Figure BDA0002308855570000064
Figure BDA0002308855570000065
为最终求解词向量,f(Xij)为权重函数。
步骤2、构建HACNN模型,设置HACNN模型的各参数值:词向量维度为300则网络 隐藏层维度也为300,学习率为0.001,一次训练所选取的样本数设置为16,训练迭代15次。 将处理好的句子和目标词向量作为两部分输入到HACNN模型中,利用多头自注意力机制对 两个部分做不同处理。句子样本部分对自身做自注意力,进一步抽取句子中的特征信息;目标词向量则对句子样本做自注意力,初步粗筛选出句子样本中与目标词相关的部分。样本和 目标词特征可表示为:
Attention(k,q)=softmax(fs(k,q))k (30)
fs(ki,qj)=tanh([ki;qj]·Watt) (31)
Figure BDA0002308855570000071
oh=Attentionh(k,q) (33)
c=MHA(context,context) (34)
t=MHA(context,target) (35)
步骤3、将经过多头自注意力的句子和目标词同时进行多尺度特征学习,通过神经网络 的反向传播更新网络参数,具体操作如下:
步骤3.1、如图2所示,自注意力处理的两部分内容分别作为MCCT模块的输入。利用卷积神经网络抽取特征并扩充输入的词向量提升到64通道维度进行训练,再利用通道注意力 去除冗余通道信息,使通道数降到16。多通道使整个网络能从多角度学习到不同维度的特征, 提取出的信息更加丰富,但不同通道的信息也会有重复部分,所以利用网络的反向传播训练 一个注意力权值,去除这部分冗余。再利用卷积层将提取的16通道特征信息整合成单通道的 词向量,作为样本句子与词向量的最终特征图。通道间注意力公式为:
Attentionl=Sigmoid(Wr Re LU(Wcx)) (36)
则整个MCCT模块训练过程可以以卷积公式表示为:
Tc=Conv1d(input) (37)
MCCT(c)=Attentionl(Tc) (38)
hc=Conv1d(MCCT(c)) (39)
同理,目标词的特征也可按此公式表示:
ht=Conv1d(MCCT(t)) (40)
步骤3.2、将提取的样本句子与目标词特征分别处理。句子特征再一次与目标词做注意力 操作,计算出高维句子特征与高维目标词相关系数,再与之间的目标词特征做点积操作,得 到一个混合特征表示。根据公式(4),混合特征的公式为:
htc=MHA(hc,ht) (41)
步骤4、从整个步骤3可提取出样本句子、词向量以及其混合特征的高维表示,将这三个 高维特征向量进行平均池化,压缩为一个向量送入最后的分类器进行分类,采用的方式为直 接拼接。平均池化计算公式为:
Figure BDA0002308855570000081
其中H为向量长度,hi为样本句子、词向量以及混合特征的维度信息。
由公式(14)计算出样本句子、目标词与混合特征池化后的向量表示hc avg、ht avg与htc avg。再 将其直接拼接压缩为一个向量:
Figure BDA0002308855570000082
其中,“;”为拼接操作。
步骤5、将最后得到的特征表示输入到softmax分类器中进行情感预测,到的一个三维向 量y为最后的预测分布,每个维度代表一个分类类别,分别为积极的、消极的和中立的。使 用argmax函数找到数值最大的维度标号,即模型预测的类别P,此过程的公式为:
Figure BDA0002308855570000083
Figure BDA0002308855570000084
P=arg max(y) (46)
其中,C为分类种类数,在本发明中为3,即“积极的”、“消极的”和“中立的”。y为 最后的预测分布。
步骤6、利用神经网络的反向传播训练公式中的权值W与偏置b。由于在网络中的收集的 样本训练集标签有可能是不正确的,使用标签平滑(Label SmoothingRegularization,LSR)的 交叉熵函数代替传统的交叉熵函数。LSR可以防止模型把预测值过度集中在概率较大类别上, 把一些概率分到其他概率较小类别上,即从一定程度上防止了网络对训练样本的过拟合。训 练样本x标签的真实分布可以表示为q(k|x),LSR将此分布重写为:
q(k|x)=(1-∈)q(k|x)+∈u(k) (47)
其中,u(k)为先验分布,∈为一个取[0,1]的平滑系数。在本发明中∈为0.2。
u(k)服从一个简单的均匀分布:
u(k)=1/C (48)
把标签的真实分布q(k|x)与固定的分布u(k)按照1-∈和∈的权重混合在一起,构成一个新 的分布。这相当于对标签分布中加入噪声,k值有∈的概率来自于分布u(k)。LSR交叉熵函数 相当于计算了先验分布u(k)与网络的预测分布pθ之间的KL散度,LSR可定义为:
Figure BDA0002308855570000091
再使用L2正则化对损失函数进行约束,则损失函数可定义为:
Figure BDA0002308855570000092
其中,y为网络的预测的情感分布,λ为L2正则化系数,θ为设定的超参数。
使用本发明提出的弹幕情感分析方法对网络收集的弹幕样本数据集进行预测,该数据集 从300个视频中收集了5000条弹幕样本,其中训练样本4000个,测试样本1000个。预测输 出有3类:0、1、2,分别代表“消极的”、“中立的”和“积极的”。
以下是预测实例:
Is obama trying to be just like jimmy carter?he's doing a pretty goodjob so far,he has passed jimmy!May he keep so instead of being MikhailGorbachev who made a mess of things.
当目标词为“obama”时,模型注意力关注部分为“prettygoodjob”,模型预测情感为“积 极的”;当目标词为“jimmy”时,模型注意力对整个句子的权重都很平均,预测情感为“中 立的”;当目标词为“Mikhail Gorbachev”时,模型注意力关注部分为“amessofthings”,模 型预测情感为“消极的”。
预测结果表明基于多尺度注意力卷积编码网络的视频弹幕情感分析方法相比于人工分类 节约了60%的时间,并分类的准确率也能达到预期要求。因此,本发明提出的方法可以有效 对视频弹幕进行情感分析,并能大大减少人力与时间耗费,实现高效的智能化处理。

Claims (1)

1.基于多尺度注意力卷积编码网络的视频弹幕情感分析方法,其特征在于,步骤如下:
步骤1、从互联网上的视频网站收集带有弹幕的视频文件,利用CRNN模型提取出视频中的弹幕样本,将视频的每一帧的视频图片转化为RGB三通道的像素矩阵,并输入到CNN模型中提取特征:
F=CNN(X) (1)
其中F为提取出的中间特征图,X为图片的输入像素矩阵;
特征图F经过RNN模型的解码翻译出弹幕样本:
S=RNN(F) (2)
将样本中的目标词和情感标记出来作为数据集,并将其划分为训练集和测试集;对数据集进行样本预处理,即词嵌入向量操作;
使用GloVe的词嵌入向量方法:根据已有的语料库,构建一个由Xij个元素构成的共现矩阵X,将单词i和其上下文单词j在固定窗口大小的上下中共同出现的次数与权重的乘积定义为Xij;权重是由GloVe自身的衰减函数来计算:
wd=1/d (3)
其中d为上下文单词之间的距离;
GloVe词嵌入向量的训练损失函数为:
Figure FDA0002308855560000011
其中,
Figure FDA0002308855560000012
Figure FDA0002308855560000013
为最终求解词向量,f(Xij)为权重函数
进一步的,f(Xij)定义为:
Figure FDA0002308855560000014
其中,α取值为0.75,xmax取值为100;
步骤2、构建HACNN模型,设置HACNN模型的各项超参数数值;将步骤1中GloVe处理之后得到的句子样本和目标词向量输入到HACNN模型,进行第一重注意力机制处理;对句子样本和目标词向量同时做多头自注意力,初步提炼出向量中最相关的信息部分,完成粗编码过程;k={k1,k2,…,kn}和q={q1,q2,…,qm}分别为注意力的一组键值序列和查询序列,自注意力公式为:
Attention(k,q)=softmax(fs(k,q))k (6)
fs(ki,qj)=tanh([ki;qj]·Watt) (7)
则多头注意力公式可定义为:
Figure FDA0002308855560000022
oh=Attentionh(k,q) (9)
其中,Watt和Wmh为模型可训练的变量,“;”代表向量直接拼接,
Figure FDA0002308855560000021
为第h头的注意力输出,且h∈[1,nhead];样本进行自我自注意力,即k与q的值相等;目标词进行交互自注意力,即k与q的值不等;
进一步得到句子和目标词的向量表示:
c=MHA(context,context) (10)
t=MHA(context,target) (11)
其中,c为句子的向量表示,t为目标词的向量表示;
步骤3、将得到的句子和目标词的初步向量表示再输入进多通道卷积转换模块MCCT中,MCCT能将输入的特征通道维度升高,能从不同的角度学习到输入的特征;再利用第二重注意力——通道间的注意力,降低CNN的通道维度,去除掉多个通道中冗余的部分,提取多通道中收集的不同特征;MCCT模块的计算方法如下:
fr=ReLU(L) (12)
其中,L为:
L=Wcx (13)
其中,Wc为可训练的权重,x为MCCT模块的输入;则通道注意力Attentionl用以下公式表示:
Attentionl=Sigmoid(Wrfr) (14)
其中,Wr为可训练的权重
用卷积网络将输入展开到不同通道进行学习:
Tc=Conv1d(input) (15)
去除冗余通道信息:
MCCT(c)=Attentionl(Tc) (16)
其中Tc为卷积收集到的信息,通道数channel和隐藏层reduction为超参数;则最终的特征表示hc表示为:
hc=Conv1d(MCCT(c)) (17)
同样得到ht的表示:
ht=Conv1d(MCCT(t)) (18)
得到的样本表示特征序列为
Figure FDA0002308855560000031
目标词序列为
Figure FDA0002308855560000032
步骤4、第三重注意力为样本与目标词之间的注意力;在网络在多通道进一步提取了样本句子与目标词的高维信息后,再一次提取句子中与目标词最相关的部分,即在hc与ht之间再做一次注意力;将句子向量与目标词向量做乘积作为注意力权重,进而将此注意力权重与目标词向量做点积得到句子中与目标词相关信息的特征向量表示;此注意力过程使用了公式(6)中的自注意力公式:
htc=MHA(hc,ht) (19)
其中htc为与目标词最相关的句子表示;
步骤5、将得到的三个特征表示hc、ht与htc进行平均池化后拼接;将拼接之后的向量表示H输入到最后的分类器分类,平均池化操作为:
Figure FDA0002308855560000033
其中,H是向量长度;
则hc、ht与htc进行平均池化后得到hc avg、ht avg与htc avg
将三个池化后的特征表示拼接得H:
Figure FDA0002308855560000034
其中,“;”为拼接操作;
步骤6、将最后得到的H向量特征表示,输入到softmax分类器中进行最后的分类,
得到的一个三维向量y为最后的预测分布,每个维度代表一个分类类别,分别为积极的、消极的和中立的;使用argmax函数找到数值最大的维度标号,即模型预测的类别P,此过程的公式为:
Figure FDA0002308855560000035
Figure FDA0002308855560000036
P=arg max(y) (24)
其中,
Figure FDA0002308855560000041
Figure FDA0002308855560000042
都是反向传播过程中可训练学习到的变量;C为分类的种类,得到的y为最后的预测分布;
使用了标签平滑的交叉熵函数LSR代替了传统的交叉熵函数作为整个网络的损失函数来获取更好的训练效果;训练样本x标签的真实分布表示为q(k|x),LSR将此分布重写为:
q(k|x)=(1-∈)q(k|x)+∈u(k) (25)
其中,u(k)为先验分布,∈为一个取[0,1]的平滑系数;
u(k)服从一个简单的均匀分布:
u(k)=1/C (26)
把标签的真实分布q(k|x)与固定的分布u(k)按照1-∈和∈的权重混合在一起,构成一个新的分布;即对标签分布中加入噪声,k值有∈的概率来自于分布u(k);LSR交叉熵函数计算了先验分布u(k)与网络的预测分布pθ之间的KL散度,LSR定义为:
Figure FDA0002308855560000043
再使用L2正则化对损失函数进行约束,则损失函数可定义为:
Figure FDA0002308855560000044
其中,yc为网络的预测C类的情感分布,
Figure FDA0002308855560000045
为yc的平均值;,λ为L2正则化系数,θ为设定的超参数。
CN201911250369.7A 2019-12-09 2019-12-09 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 Pending CN111144448A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911250369.7A CN111144448A (zh) 2019-12-09 2019-12-09 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911250369.7A CN111144448A (zh) 2019-12-09 2019-12-09 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法

Publications (1)

Publication Number Publication Date
CN111144448A true CN111144448A (zh) 2020-05-12

Family

ID=70517815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911250369.7A Pending CN111144448A (zh) 2019-12-09 2019-12-09 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法

Country Status (1)

Country Link
CN (1) CN111144448A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680159A (zh) * 2020-06-11 2020-09-18 华东交通大学 数据处理方法、装置及电子设备
CN111708864A (zh) * 2020-06-11 2020-09-25 兰州理工大学 一种用户评论文本情感分析方法及装置
CN111770357A (zh) * 2020-07-27 2020-10-13 深圳大学 一种基于弹幕的视频高光片段识别方法、终端及存储介质
CN112100371A (zh) * 2020-08-12 2020-12-18 北京工商大学 一种基于XLNet和BLS的弹幕情感分类方法
CN112131383A (zh) * 2020-08-26 2020-12-25 华南师范大学 特定目标的情感极性分类方法
CN112329867A (zh) * 2020-11-10 2021-02-05 宁波大学 一种基于任务驱动的层次注意力网络的mri图像分类方法
CN112348075A (zh) * 2020-11-02 2021-02-09 大连理工大学 一种基于情景注意力神经网络的多模态情感识别方法
CN112419321A (zh) * 2021-01-25 2021-02-26 长沙理工大学 X射线图像识别方法、装置、计算机设备及存储介质
CN113011920A (zh) * 2021-03-15 2021-06-22 北京百度网讯科技有限公司 转化率预估模型的训练方法、装置及电子设备
CN113077051A (zh) * 2021-04-14 2021-07-06 广东博智林机器人有限公司 网络模型训练方法、装置、文本分类模型及网络模型
CN113554131A (zh) * 2021-09-22 2021-10-26 四川大学华西医院 医学图像处理和分析方法、计算机设备、系统和存储介质
CN113642447A (zh) * 2021-08-09 2021-11-12 杭州弈胜科技有限公司 卷积神经网络级联的监控图像车辆检测方法及其系统
CN113762481A (zh) * 2021-09-13 2021-12-07 中国地震局地球物理研究所 一种基于深度学习的层析成像方法及系统
CN114358283A (zh) * 2022-01-12 2022-04-15 深圳大学 气体识别神经网络模型的优化方法及相关设备
WO2022134360A1 (zh) * 2020-12-25 2022-06-30 平安科技(深圳)有限公司 基于词嵌入的模型训练方法、装置、电子设备及存储介质
CN116384340A (zh) * 2023-05-22 2023-07-04 中国科学技术大学 一种基于变分跨模态表征的实时弹幕情感分析方法
CN117473400A (zh) * 2023-12-28 2024-01-30 中南大学 基于多通道层级变换网络结构的设备故障诊断方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680159A (zh) * 2020-06-11 2020-09-18 华东交通大学 数据处理方法、装置及电子设备
CN111708864A (zh) * 2020-06-11 2020-09-25 兰州理工大学 一种用户评论文本情感分析方法及装置
CN111680159B (zh) * 2020-06-11 2023-08-29 华东交通大学 数据处理方法、装置及电子设备
CN111770357B (zh) * 2020-07-27 2021-06-01 深圳大学 一种基于弹幕的视频高光片段识别方法、终端及存储介质
CN111770357A (zh) * 2020-07-27 2020-10-13 深圳大学 一种基于弹幕的视频高光片段识别方法、终端及存储介质
WO2022021304A1 (zh) * 2020-07-27 2022-02-03 深圳大学 一种基于弹幕的视频高光片段识别方法、终端及存储介质
CN112100371B (zh) * 2020-08-12 2023-10-03 北京工商大学 一种基于XLNet和BLS的弹幕情感分类方法
CN112100371A (zh) * 2020-08-12 2020-12-18 北京工商大学 一种基于XLNet和BLS的弹幕情感分类方法
CN112131383A (zh) * 2020-08-26 2020-12-25 华南师范大学 特定目标的情感极性分类方法
CN112348075A (zh) * 2020-11-02 2021-02-09 大连理工大学 一种基于情景注意力神经网络的多模态情感识别方法
CN112329867A (zh) * 2020-11-10 2021-02-05 宁波大学 一种基于任务驱动的层次注意力网络的mri图像分类方法
WO2022134360A1 (zh) * 2020-12-25 2022-06-30 平安科技(深圳)有限公司 基于词嵌入的模型训练方法、装置、电子设备及存储介质
CN112419321A (zh) * 2021-01-25 2021-02-26 长沙理工大学 X射线图像识别方法、装置、计算机设备及存储介质
CN113011920A (zh) * 2021-03-15 2021-06-22 北京百度网讯科技有限公司 转化率预估模型的训练方法、装置及电子设备
CN113011920B (zh) * 2021-03-15 2024-02-13 北京百度网讯科技有限公司 转化率预估模型的训练方法、装置及电子设备
CN113077051A (zh) * 2021-04-14 2021-07-06 广东博智林机器人有限公司 网络模型训练方法、装置、文本分类模型及网络模型
CN113077051B (zh) * 2021-04-14 2024-01-26 南京零洞数智科技有限公司 网络模型训练方法、装置、文本分类模型及网络模型
CN113642447A (zh) * 2021-08-09 2021-11-12 杭州弈胜科技有限公司 卷积神经网络级联的监控图像车辆检测方法及其系统
CN113642447B (zh) * 2021-08-09 2022-03-08 杭州弈胜科技有限公司 卷积神经网络级联的监控图像车辆检测方法及其系统
CN113762481A (zh) * 2021-09-13 2021-12-07 中国地震局地球物理研究所 一种基于深度学习的层析成像方法及系统
CN113762481B (zh) * 2021-09-13 2024-03-12 中国地震局地球物理研究所 一种基于深度学习的层析成像方法及系统
CN113554131A (zh) * 2021-09-22 2021-10-26 四川大学华西医院 医学图像处理和分析方法、计算机设备、系统和存储介质
CN114358283A (zh) * 2022-01-12 2022-04-15 深圳大学 气体识别神经网络模型的优化方法及相关设备
CN116384340A (zh) * 2023-05-22 2023-07-04 中国科学技术大学 一种基于变分跨模态表征的实时弹幕情感分析方法
CN116384340B (zh) * 2023-05-22 2023-08-29 中国科学技术大学 一种基于变分跨模态表征的实时弹幕情感分析方法
CN117473400A (zh) * 2023-12-28 2024-01-30 中南大学 基于多通道层级变换网络结构的设备故障诊断方法
CN117473400B (zh) * 2023-12-28 2024-03-26 中南大学 基于多通道层级变换网络结构的设备故障诊断方法

Similar Documents

Publication Publication Date Title
CN111144448A (zh) 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法
CN110334705B (zh) 一种结合全局和局部信息的场景文本图像的语种识别方法
CN109376242B (zh) 基于循环神经网络变体和卷积神经网络的文本分类方法
CN110442684B (zh) 一种基于文本内容的类案推荐方法
CN111382565B (zh) 基于多标签的情绪-原因对抽取方法及系统
CN108664632A (zh) 一种基于卷积神经网络和注意力机制的文本情感分类算法
CN110287323B (zh) 一种面向目标的情感分类方法
CN106980608A (zh) 一种中文电子病历分词和命名实体识别方法及系统
CN110750635B (zh) 一种基于联合深度学习模型的法条推荐方法
CN111274398A (zh) 一种方面级用户产品评论情感分析方法及系统
CN110516095A (zh) 基于语义迁移的弱监督深度哈希社交图像检索方法和系统
CN111581385A (zh) 一种不平衡数据采样的中文文本类别识别系统及方法
CN108427740B (zh) 一种基于深度度量学习的图像情感分类与检索算法
CN110046356B (zh) 标签嵌入的微博文本情绪多标签分类方法
CN112001166A (zh) 面向政务咨询服务的智能问答句子对语义匹配方法和装置
CN111104555A (zh) 基于注意力机制的视频哈希检索方法
CN111242033A (zh) 一种基于视频和文字对判别分析的视频特征学习方法
CN112732921B (zh) 一种虚假用户评论检测方法及系统
CN113065344A (zh) 一种基于迁移学习和注意力机制的跨语料库情感识别方法
CN110263174A (zh) —基于焦点关注的主题类别分析方法
CN113806547A (zh) 一种基于图模型的深度学习多标签文本分类方法
CN112100212A (zh) 一种基于机器学习和规则匹配的案件情节抽取方法
CN111428481A (zh) 一种基于深度学习的实体关系抽取方法
CN115062727A (zh) 一种基于多阶超图卷积网络的图节点分类方法及系统
CN114356990A (zh) 基于迁移学习的基地命名实体识别系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination