CN116189039A - 一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统 - Google Patents

一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统 Download PDF

Info

Publication number
CN116189039A
CN116189039A CN202211676172.1A CN202211676172A CN116189039A CN 116189039 A CN116189039 A CN 116189039A CN 202211676172 A CN202211676172 A CN 202211676172A CN 116189039 A CN116189039 A CN 116189039A
Authority
CN
China
Prior art keywords
modal
audio
feature
fusion
global audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211676172.1A
Other languages
English (en)
Inventor
周艳
李子明
虎嵩林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Information Engineering of CAS
Original Assignee
Institute of Information Engineering of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Information Engineering of CAS filed Critical Institute of Information Engineering of CAS
Priority to CN202211676172.1A priority Critical patent/CN116189039A/zh
Publication of CN116189039A publication Critical patent/CN116189039A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明提出一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统,具体为:设计了跨模态融合模块,先提取文本信息,再融合音频信息,最后加入视觉信息,从而得到模态融合特征;对整个视频提取全局的音频特征,以最大程度地保留视频整体音调变化等声学特征;最后将模态融合特征和全局音频特征进行融合。本发明一是通过顺序融合的方法,既充分提取了核心模态(文本、音频)的特征,又减少了视觉模态中噪声的影响;二是使用视频全局的音频信息加强对视频情感的获取,来提升情感分类的准确性。

Description

一种全局音频特征增强的模态顺序感知的多模态情感分类方 法及系统
技术领域
本发明涉及深度学习、自然语言处理、多模态融合等技术,具体涉及一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统。
背景技术
近年来,网络媒体中的信息呈爆炸式增长,这些信息中往往蕴含着丰富的情感。对这些信息的情感进行准确的分析,是许多场景的现实需求。比如,对一个商品的评论类信息进行情感分析,可以得知人们对该商品的满意度,这对商品设计、营销等具有重要意义。再比如,对某个事件的点评类信息进行分析,可以得知人们对该事件的主流态度和其它不同的态度,这对舆情分析和引导具有重要意义。另外,当前的许多信息不只是以文字的形式呈现,还会以视频的形式出现,比如自媒体中对某部电影的测评视频,以及对某个事件的点评视频。视频中包含了文字、音频、视觉三个模态,这三个模态对情感的判断都起着不可或缺的作用。有时候仅凭文字无法做出准确的情感分类,甚至有可能做出完全相反的分类。比如“我现在很好”这句话,只看文字可能会被认为是包含积极的情感,但是如果视频中说话者说这句话的时候带着阴阳怪气的语调或者悲伤的表情,那么整个视频就会表现出一种消极的情感。因此,如何融合不同模态的信息并且对视频的情感做出准确的判断,已经成为了一项非常实用且有意义的研究课题。
多模态情感分析技术就是一项针对一段视频,利用其中文本、音频、视觉等模态的信息,对整个视频表达的情感做出分类和判断的技术。当下该技术的对象一般为评论者发表的评论,故视频中三个模态的特征都是按照时间线对应的。该技术的核心在于如何有效融合三个模态的特征,目前绝大多数方法都是平等地对待三个模态,即将三个模态的特征视为同等重要、相同等级的信息,在融合时没有区分不同模态的重要程度。但是,根据生活经验和之前工作的结果,三个模态对情感的贡献是不一致的。文本往往占据核心地位,因为它提供了最基础的语义信息。音频提供了声调变化等特征,也在情感分析中发挥着重要作用。视觉模态中人脸表情变化等信息也对情感分类有帮助,但是表情的变化有时没有声调变化那样更容易被捕捉,而且画面中常常会出现其他无关人员,甚至没有人出镜的场景,这给情感分析带来了消极的噪声。因此,三个模态对情感的贡献并不是一致的,需要分层次、按顺序地融合。此外,目前的方法都是将视频分成若干帧,在帧等级上提取音频和视觉特征,再在与文本单词对应的时间段内合并。这样做损失了视频全局的声调变化信息,而这对视频的情感分类来说,是至关重要的。
发明内容
针对上述技术问题,本发明提出一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统,以解决之前方法中没有区分不同模态重要性和没有利用全局音频特征的问题。
为了解决上述技术问题,本发明的技术方案如下:
一种全局音频特征增强的模态顺序感知的多模态情感分类方法,包括如下步骤:
分别获得视频的文本、音频、视觉三个模态的信息;
将文本、音频、视觉三个模态的信息输入到全局音频特征增强的模态顺序感知的多模态情感分类模型AMOA(global Acoustic feature enhanced Modal-Order-Awarenetwork)中,进行分类预测;
根据预测结果,获取视频的情感类别。
进一步地,所述分别获得视频的文本、音频、视觉三个模态的信息,包括:分别获得视频的文本、音频和视觉的原始文件,其中文本为若干特征组成的句子,音频文件为视频转化而来的wav文件,视觉文件为原视频去掉声音的mp4文件。
进一步地,所述全局音频特征增强的模态顺序感知的多模态情感分类模型的构建方法,包括:
(1)分别对三个模态的信息进行编码,得到单模态嵌入向量,即单模态特征向量;
(2)将步骤(1)中得到的单模态特征向量输入到顺序感知的模态融合网络中,按照文本-音频-视觉的顺序先后融合三个模态的特征,得到模态融合特征向量;
(3)提取视频的全局音频特征,得到对应特征向量,并进行编码,得到全局音频特征向量;
(4)将步骤(2)得到的模态融合特征向量和步骤(3)得到的全局音频特征向量对齐并且融合后,输入到分类网络进行分类预测,之后和步骤(1)、(2)、(3)一起,通过反向传播算法进行训练;
(5)将需要情感分类的视频的三个模态的信息输入到训练完成的AMOA中,预测出对应的情感分类。
进一步地,所述模型AMOA的构建方法的步骤(1)的具体方法包括:
(1-1)对文本模态,使用已预训练好的语言模型BERT进行编码,得到文本特征向量,这里的BERT是可训练的;
(1-2)对音频模态,使用openSMILE工具包,以一定帧率逐帧提取音频特征,再根据文本的单词对应时间段,和文本进行对齐,之后使用Transformer编码端对特征进行编码,得到音频特征向量;
(1-3)对视觉模态,使用OpenFace2工具包,以一定帧率逐帧提取特征向量,再根据文本的单词对应时间段,和文本进行对齐,之后使用Transformer编码端对特征进行编码,得到视觉特征向量;
更进一步地,步骤(1)中得到的三个模态的特征向量,在对齐后的形状是一致的,即前两维都是批大小和序列长度,只有最后一维不同,分别是不同的嵌入长度。因此在进行下一步骤即步骤(2)前,需要经过一个前馈神经网络,将三个模态特征向量的嵌入长度进行统一,这样做有助于后面在模态顺序感知网络的融合。
进一步地,所述模型AMOA的构建方法的步骤(2)的具体方法包括:
(2-1)首先将文本和音频特征向量输入到一个N层的跨模态融合模块中,该跨模态融合模块是基于Transformer的编码段进行设计的;在跨模态融合模块的每一层,首先以文本为K和V,音频为Q,进行多头注意力的计算,之后经过残差和标准化,再经过一个前馈神经网络,最后再经过残差和标准化,将结果输入到下一层,最后得到文本和音频的融合特征向量;其中K表示注意力机制中的键,V表示注意力机制中的值,O表示注意力机制中的查询;
(2-2)类似步骤(2-1),将文本音频融合特征向量和视觉向量输入到一个N层的跨模态融合模块中,最后得到文本-音频-视觉的模态融合特征向量Ef
进一步地,所述模型AMOA的构建方法的步骤(3)的具体方法包括:
(3-1)使用openSMILE提取全局的音频特征,与步骤(1-2)不同的是,本步骤是直接对整个视频提取而不是在帧等级上提取;
(3-2)使用Transformer编码端对提取的音频特征进行编码,得到全局音频特征向量Eg
进一步地,因为步骤(2)得到的模态融合特征和步骤(3)得到的全局音频特征分别处在不同的语义空间,不能直接拼接,所以需要在拼接分类前进行对齐,步骤(4)中我们使用对比学习的方法将两者对齐。
进一步地,所述模型AMOA的构建方法的步骤(4)的具体方法包括:
(4-1)构建一个队列,用来存储模态融合特征和全局音频特征组成的特征对,即队列中每一个样例对为
Figure BDA0004017039650000031
其中/>
Figure BDA0004017039650000032
分别表示模态融合特征、全局音频特征,这个队列是用来构造负样本的;
(4-2)当需要对一个视频样例进行分类时,该样例经过步骤(1)、(2)、(3)后,得到了模态融合特征和全局音频特征,两者互为正样本,而该样例的模态融合特征与队列中的所有全局音频特征互为负样本,样例中的全局音频特征与队列中的所有模态融合特征互为负样本;
(4-3)使用余弦相似度,计算待处理样例与正样本、负样本之间的相似度分数,这里要注意,正样本对有一组,是待处理样例内的模态融合特征与对应的全局音频特征,而负样本有两组,是样例中的模态融合特征与队列中的全局音频特征,以及样例中的全局音频特征与队列中的模态融合特征,然后使用NCE损失函数计算损失值loss_c,该损失函数使正样本之间的相似度趋于增大,使样例与负样本之间的相似度趋于减小;
(4-4)处理完该样例后,将其变成一个新的
Figure BDA0004017039650000041
对加入到队列中。因为队列长度是有上限的,所以如果此时队列长度超过了上限值,则从队首弹出一定数量的样例对以保证队列长度的上限;
(4-5)将步骤(2)中得到的模态融合特征和步骤(3)中得到的全局音频特征拼接起来,输入到一个前馈神经网络,进行分类,并且使用MSE损失函数计算分类损失值loss_f;
(4-6)将loss_f和loss_c以一定比重相加,得到最终的损失值,并由这个损失值,根据反向传播算法进行模型的训练。
一种全局音频特征增强的模态顺序感知的多模态情感分类系统,包括:
单模态特征提取模块,用于提取视频的文本、音频、视觉三个模态的单模态特征向量;
模态顺序感知融合模块,用于将三个模态的单模态特征向量输入到顺序感知的模态融合模型中,得到模态融合特征向量;
全局音频增强模块,用于对整个视频提取全局的音频特征,再进行编码,得到全局音频特征向量,然后使用对比学习将其与模态融合特征进行对齐;
分类预测模块,用于将模态融合特征和全局音频特征拼接后输入前馈神经网络进行分类,获得视频的情感类别。
进一步地,所述单模态特征提取模块:对视频中的原始文本,使用BERT编码,得到文本嵌入词向量,作为文本特征向量;对原始音频文件,使用openSMILE工具提取特征后再使用Transformer编码端进行编码,作为音频特征向量;对原始视频文件,使用OpenFace2工具提取特征后再使用Transformer编码端进行编码,作为视觉特征向量。
进一步地,所述全局音频增强模块对整个视频使用openSMILE工具提取全局的音频特征,再使用Transformer编码端进行编码,得到全局音频特征向量,然后使用对比学习将其与模态融合特征进行对齐。
本发明的有益效果在于:针对多模态情感分类任务中的两个问题,一是不同模态对情感贡献不一致,二是传统多模态分类方法忽略了视频整体的音调变化,提出了全局音频特征增强的模态顺序感知的多模态情感分类模型来对视频进行情感分类,具体为:在提取三个模态的特征向量后,以文本-音频-视觉的顺序先后融合三个模态的特征,以充分利用文本和音频模态的信息,并且较少视觉模态中噪声的影响;提取视频的全局音频信息,以捕捉视频整体的音调变化;将模态融合特征和全局音频特征对齐后,进行拼接和分类。这样,本发明一是通过一定顺序的融合方式来解决不同模态贡献不一致的问题,二是通过利用全局的音频特征来捕捉整体的音调变化,从而提高了情感分类的准确率,具有良好的实用性。
附图说明
图1为本发明实施例提供的全局音频特征增强的模态顺序感知的多模态情感分类流程图;
图2为本发明实施例的神经网络模型结构图;
图3为图2的模型图中跨模态融合模块的具体结构图,其中T、A、V分别表示文本、音频和视觉,CMT表示跨模态融合模块,Encoder表示编码器,A(global)表示全局音频特征,MLP表示多层感知机。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施案例并结合附图,对本发明做进一步详细说明。
图1为全局音频特征增强的模态顺序感知的多模态情感分类方法的流程图,如图所示,该方法主要包括四个阶段,分别是单模态特征提取阶段、模态顺序感知融合阶段、全局音频特征提取阶段和最后的情感分类预测阶段。整个方法是需要先在训练数据上进行训练后,再被应用到实际的分类预测中。
(一)单模态特征提取阶段
步骤1,对文本,将原句直接输入到已经预训练好的BERT-base-uncased模型中,得到文本特征向量
Figure BDA0004017039650000051
其中nt是句子中token(分词)的数量,dt是BERT-base-uncased的隐藏层大小;/>
步骤2,对音频,使用openSMILE工具,以10ms的帧移和25ms的帧大小进行音频特征的提取,提取的特征中包含MFCC、PLP等低级特征描述符以及对它们应用不同函数后得到高级特征描述符,将这些特征值拼成向量,得到
Figure BDA0004017039650000052
其中/>
Figure BDA0004017039650000053
na是帧的数量,da是音频特征向量的维度,也就是音频特征描述符的数量,然后使用P2FA工具将音频特征与文本的token在时间上对齐,得到/>
Figure BDA0004017039650000061
然后将其输入到一个Transformer的编码端进行编码,得到音频特征向量/>
Figure BDA0004017039650000062
步骤3,对视觉,使用OpenFace2工具,以10ms的帧移和25ms的帧大小进行视觉特征的提取,然后像音频一样,使用P2FA进行对齐,然后使用Transformer编码端进行编码,得到视觉特征向量
Figure BDA0004017039650000063
其中dv是视觉特征向量的维度。
(二)模态顺序感知融合阶段
步骤1,首先融合文本和音频模态,这里以Transformer编码端为基础,设计了跨模态融合模块CMT,如图2、图3所示,CMT是一个多层结构,每一层接收base和addition两个输入,并且输出融合特征。其中用作K和V的输入称为base,用作Q的输入是新加入的信息,称为addition。进一步地,详细介绍CMT的内部结构:
步骤1-1,在CMT的第一层,输入的文本特征向量是base,音频特征向量是addition,首先是一个多头注意力模块,该模块以base作为K和V,以addition作为Q:
Z=MHA(addition,base,base)
MHA为多头自注意力模块,然后经过一个对Q的残差、相加和标准化模块:
Z′=Norm(Z+addition)
之后经过一个前馈神经网络:
Z″=FeedForward(Z′)
然后再经过一个对Z′的残差和标准化模块:
Figure BDA0004017039650000064
得到的
Figure BDA0004017039650000065
就是CMT中第一层的输出结果,以上步骤可以总结成:
Figure BDA0004017039650000066
步骤1-2,在CMT的第二层和后面各层中,输入的base仍然是初始的文本特征不变,而addition是上一层的输出,是不断更新的:
Figure BDA0004017039650000067
得到的
Figure BDA0004017039650000068
是CMT第i层的输出结果,如果CMT一共有N层,那么/>
Figure BDA0004017039650000069
就是步骤1所得到的文本音频融合特征向量。
步骤2,融合视觉模态,仍然使用跨模态融合模块CMT,在第一层以文本音频融合特征为base,以视觉模态特征为addition,在第二层及之后的的每层,仍然以文本音频融合特征为base不变,而addition是上一层的输出,不断更新,整个步骤可以表达为:
Et-a-v=CMT(Et-a,Ev)
之后经过一个dropout层和maxpooling层,得到模态融合特征:
Ef=Maxpooling(Dropout(Et-a-v))
其中
Figure BDA0004017039650000071
是该步骤最终得到的模态融合特征。
(三)全局音频特征提取阶段
步骤1,对音频,使用openSMILE工具,不分帧,直接提取整个视频的声学特征,这些特征与阶段(一)提取的单模态音频特征是相同的,得到一个一维的向量
Figure BDA0004017039650000072
步骤2,使用Transformer的编码端对Xg进行编码,得到全局音频特征
Figure BDA0004017039650000073
步骤3,因为模态融合特征Ef和全局音频特征Eg分别处在不同的语义空间,因此在拼接它们之前,需要进行对齐的操作,具体方法如下:
步骤3-1,构造一个队列,存储(Ef,Eg)对,用来构造负样本,为了便于之后的计算,队列中所有的Ef组合成一个矩阵
Figure BDA0004017039650000074
所有的Eg组合成一个矩阵/>
Figure BDA00040170396500000717
其中K是队列大小上限;
步骤3-2,在训练和预测时,为了加快速度,一般是同时处理一个批的样本,假设批大小为B,将这一批中的所有的Ef组合成一个矩阵
Figure BDA0004017039650000076
所有的Eg组合成一个矩阵
Figure BDA0004017039650000077
Figure BDA0004017039650000078
步骤3-3,待处理的一批样本中,每个样例的Ef和Tg互为正样本,使用余弦相似度计算正样本之间的相似度分数:
Figure BDA0004017039650000079
其中Spos∈RB×1是正样本的相似度分数矩阵;
步骤3-4,负样本有两组,分别是
Figure BDA00040170396500000710
与/>
Figure BDA00040170396500000711
以及/>
Figure BDA00040170396500000712
与/>
Figure BDA00040170396500000713
同样使用余弦相似度计算分数:
Figure BDA00040170396500000714
Figure BDA00040170396500000715
其中
Figure BDA00040170396500000716
步骤3-5,将三个相似度矩阵拼接成一个大矩阵:
Figure BDA0004017039650000081
其中S∈RB×(1+2×K),第一列是正样本的相似度分数,其余列是负样本相似度分数;
步骤3-6,使用NCE损失函数计算损失值,使S矩阵的第一列的值增大,其余列的值减小:
Figure BDA0004017039650000082
其中Si表示S矩阵的第i行;得到的loss_c就是对比学习的损失值,用于之后的模型训练,在实际应用时,不需要计算loss_c;
步骤3-7,将这一批的样本加入到队列中,如果此时队列大小超过了K,则从队首弹出一定数量的样本对使得队列大小不超过K。
(四)情感分类预测阶段
步骤1,将模态融合特征和全局音频特征拼接起来:
R=Concat(Ef,Eg)
步骤2,将R输入一个前馈神经网络,对输出结果进行分类:
Figure BDA0004017039650000083
其中
Figure BDA0004017039650000084
是预测的结果值,W1、W2、b2是参数矩阵;
步骤3,在训练时,使用MSE损失函数计算分类的损失值loss_f,和loss_c以一定权重α相加,得到最后总的损失值:
loss=(1-α)·loss_f+α·loss_c
由上述方案可以看出,本方案针对多模态情感分类任务中的两个问题,一是不同模态对情感贡献不一致,二是传统多模态分类方法忽略了视频整体的音调变化,提出了全局音频特征增强的模态顺序感知的多模态情感分类模型来对视频进行情感分类,可以提高模型预测的性能,具有良好的实用性。
本发明的另一实施例提供一种全局音频特征增强的模态顺序感知的多模态情感分类系统,包括:
单模态特征提取模块,用于提取视频的文本、音频、视觉三个模态的单模态特征向量;
模态顺序感知融合模块,用于将三个模态的单模态特征向量输入到顺序感知的模态融合模型中,得到模态融合特征向量;
全局音频增强模块,用于对整个视频提取全局的音频特征,再进行编码,得到全局音频特征向量,然后使用对比学习将其与模态融合特征进行对齐;
分类预测模块,用于将模态融合特征和全局音频特征拼接后输入前馈神经网络进行分类,获得视频的情感类别。
其中各模块的具体实施过程参见前文对本发明方法的描述。例如,单模态特征提取模块对视频中的原始文本,使用BERT编码,得到文本嵌入词向量,作为文本特征向量;对原始音频文件,使用openSMILE工具提取特征后再使用Transformer编码端进行编码,作为音频特征向量;对原始视频文件,使用OpenFace2工具提取特征后再使用Transformer编码端进行编码,作为视觉特征向量。全局音频增强模块对整个视频使用openSMILE工具提取全局的音频特征,再使用Transformer编码端进行编码,得到全局音频特征向量,然后使用对比学习将其与模态融合特征进行对齐。
本发明的另一实施例提供一种计算机设备(计算机、服务器、智能手机等),其包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行本发明方法中各步骤的指令。
本发明的另一实施例提供一种计算机可读存储介质(如ROM/RAM、磁盘、光盘),所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现本发明方法的各个步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明构思的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明保护范围内。

Claims (10)

1.一种全局音频特征增强的模态顺序感知的多模态情感分类方法,包括如下步骤:
分别获得视频的文本、音频、视觉三个模态的信息;
将文本、音频、视觉三个模态的信息输入到全局音频特征增强的模态顺序感知的多模态情感分类模型中,进行分类预测;
根据预测结果,获取视频的情感类别。
2.如权利要求1所述的一种全局音频特征增强的模态顺序感知的多模态情感分类方法,其特征在于,所述全局音频特征增强的模态顺序感知的多模态情感分类模型的构建方法,包括:
(1)分别对三个模态的信息进行编码,得到单模态嵌入向量,即单模态特征向量;
(2)将步骤(1)中得到的单模态特征向量输入到顺序感知的模态融合网络中,按照文本-音频-视觉的顺序先后融合三个模态的特征,得到模态融合特征向量;
(3)提取视频的全局音频特征,得到对应特征向量,并进行编码,,得到全局音频特征向量;
(4)将步骤(2)得到的模态融合特征向量和步骤(3)得到的全局音频特征向量对齐并且融合后,输入到分类网络进行分类预测,之后和步骤(1)、(2)、(3)一起,通过反向传播算法进行训练;
(5)将需要情感分类的视频的三个模态的信息输入到训练完成的AMOA中,预测出对应的情感分类。
3.如权利要求2所述的一种全局音频特征增强的模态顺序感知的多模态情感分类方法,其特征在于,步骤(1)包括:
(1-1)对文本模态,使用已预训练好的语言模型BERT进行编码,得到文本特征向量;
(1-2)对音频模态,使用openSMILE工具包,以一定帧率逐帧提取音频特征,再根据文本的单词对应时间段,和文本进行对齐,之后使用Transformer编码端对特征进行编码,得到音频特征向量;
(1-3)对视觉模态,使用OpenFace2工具包,以一定帧率逐帧提取特征向量,再根据文本的单词对应时间段,和文本进行对齐,之后使用Transformer编码端对特征进行编码,得到视觉特征向量。
4.如权利要求3所述的一种基于词块的观点目标抽取和目标情感分类联合方法,其特征在于,步骤(1)中得到的三个模态的特征向量,在对齐后的形状是一致的,即前两维都是批大小和序列长度,只有最后一维不同,分别是不同的嵌入长度;在进行步骤(2)前,经过一个前馈神经网络,将三个模态特征向量的嵌入长度进行统一。
5.如权利要求2所述的一种全局音频特征增强的模态顺序感知的多模态情感分类方法,其特征在于,步骤(2)包括:
(2-1)将文本和音频特征向量输入到一个N层的跨模态融合模块中,该跨模态融合模块是基于Transformer的编码段进行设计的;在跨模态融合模块的每一层,首先以文本为K和V,音频为Q,进行多头注意力的计算,之后经过残差和标准化,再经过一个前馈神经网络,最后再经过残差和标准化,将结果输入到下一层,最后得到文本和音频的融合特征向量;
(2-2)将文本音频融合特征向量和视觉向量输入到一个N层的跨模态融合模块中,最后得到文本-音频-视觉的模态融合特征向量Ef。
6.如权利要求2所述一种全局音频特征增强的模态顺序感知的多模态情感分类方法,其特征在于,步骤(3)包括:
(3-1)使用openSMILE对整个视频提取全局的音频特征;
(3-2)使用Transformer编码端对提取的音频特征进行编码,得到全局音频特征向量Eg
7.如权利要求2所述一种全局音频特征增强的模态顺序感知的多模态情感分类方法,其特征在于,步骤(4)包括:
(4-1)构建一个队列,用来存储模态融合特征和全局音频特征组成的特征对,即队列中每一个样例对为
Figure FDA0004017039640000021
其中/>
Figure FDA0004017039640000022
分别表示模态融合特征、全局音频特征,该队是用来构造负样本;
(4-2)当需要对一个视频样例进行分类时,该样例经过步骤(1)、(2)、(3)后,得到模态融合特征和全局音频特征,两者互为正样本,而该样例的模态融合特征与队列中的所有全局音频特征互为负样本,样例中的全局音频特征与队列中的所有模态融合特征互为负样本;
(4-3)使用余弦相似度,计算待处理样例与正样本、负样本之间的相似度分数;正样本对有一组,是待处理样例内的模态融合特征与对应的全局音频特征;负样本有两组,是样例中的模态融合特征与队列中的全局音频特征,以及样例中的全局音频特征与队列中的模态融合特征;然后使用NCE损失函数计算损失值loss_c,该损失函数使正样本之间的相似度趋于增大,使样例与负样本之间的相似度趋于减小;
(4-4)处理完该样例后,将其变成一个新的
Figure FDA0004017039640000023
对加入到队列中;如果此时队列长度超过上限值,则从队首弹出一定数量的样例对以保证队列长度的上限;
(4-5)将步骤(2)中得到的模态融合特征和步骤(3)中得到的全局音频特征拼接起来,输入到一个前馈神经网络,进行分类,并且使用MSE损失函数计算分类损失值loss_f;
(4-6)将loss_f和loss_c以一定比重相加,得到最终的损失值,并由这个损失值,根据反向传播算法进行模型的训练。
8.一种全局音频特征增强的模态顺序感知的多模态情感分类系统,包括:
单模态特征提取模块,用于提取视频的文本、音频、视觉三个模态的单模态特征向量;
模态顺序感知融合模块;用于将三个模态的单模态特征向量输入到顺序感知的模态融合模型中,得到模态融合特征向量;
全局音频增强模块,用于对整个视频提取全局的音频特征,再进行编码,得到全局音频特征向量,然后使用对比学习将其与模态融合特征进行对齐;
分类预测模块,用于将模态融合特征和全局音频特征拼接后输入前馈神经网络进行分类,获得视频的情感类别。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1~7中任一项所述方法的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现权利要求1~7中任一项所述的方法。
CN202211676172.1A 2022-12-26 2022-12-26 一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统 Pending CN116189039A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211676172.1A CN116189039A (zh) 2022-12-26 2022-12-26 一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211676172.1A CN116189039A (zh) 2022-12-26 2022-12-26 一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统

Publications (1)

Publication Number Publication Date
CN116189039A true CN116189039A (zh) 2023-05-30

Family

ID=86439431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211676172.1A Pending CN116189039A (zh) 2022-12-26 2022-12-26 一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统

Country Status (1)

Country Link
CN (1) CN116189039A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116452895A (zh) * 2023-06-13 2023-07-18 中国科学技术大学 基于多模态对称增强的小样本图像分类方法、装置及介质
CN116935889A (zh) * 2023-09-14 2023-10-24 北京远鉴信息技术有限公司 一种音频类别的确定方法、装置、电子设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116452895A (zh) * 2023-06-13 2023-07-18 中国科学技术大学 基于多模态对称增强的小样本图像分类方法、装置及介质
CN116452895B (zh) * 2023-06-13 2023-10-20 中国科学技术大学 基于多模态对称增强的小样本图像分类方法、装置及介质
CN116935889A (zh) * 2023-09-14 2023-10-24 北京远鉴信息技术有限公司 一种音频类别的确定方法、装置、电子设备及存储介质
CN116935889B (zh) * 2023-09-14 2023-11-24 北京远鉴信息技术有限公司 一种音频类别的确定方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN110751208B (zh) 一种基于自权重差分编码器进行多模态特征融合的服刑人员情感识别方法
CN108648746B (zh) 一种基于多模态特征融合的开放域视频自然语言描述生成方法
CN113255755B (zh) 一种基于异质融合网络的多模态情感分类方法
CN114694076A (zh) 基于多任务学习与层叠跨模态融合的多模态情感分析方法
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN116189039A (zh) 一种全局音频特征增强的模态顺序感知的多模态情感分类方法及系统
CN113723166A (zh) 内容识别方法、装置、计算机设备和存储介质
CN112863489B (zh) 语音识别方法、装置、设备及介质
CN112233680A (zh) 说话人角色识别方法、装置、电子设备及存储介质
CN113392265A (zh) 多媒体处理方法、装置及设备
CN113705315A (zh) 视频处理方法、装置、设备及存储介质
CN114417097A (zh) 一种基于时间卷积与自注意力的情感预测方法及系统
CN114091466A (zh) 一种基于Transformer和多任务学习的多模态情感分析方法及系统
CN113642536B (zh) 数据处理方法、计算机设备以及可读存储介质
CN114627868A (zh) 意图识别方法、装置、模型及电子设备
CN116611459B (zh) 翻译模型的训练方法、装置、电子设备及存储介质
CN116958343A (zh) 面部动画生成方法、装置、设备、介质及程序产品
CN116959417A (zh) 对话回合的检测方法、装置、设备、介质、程序产品
CN114360491A (zh) 语音合成方法、装置、电子设备及计算机可读存储介质
CN114121018A (zh) 语音文档分类方法、系统、设备及存储介质
CN117521674B (zh) 对抗信息的生成方法、装置、计算机设备和存储介质
CN115081459B (zh) 口语文本生成方法、装置、设备及存储介质
CN113762322B (zh) 基于多模态表示的视频分类方法、装置和设备及存储介质
CN117727288B (zh) 一种语音合成方法、装置、设备及存储介质
Kalita et al. Use of Bidirectional Long Short Term Memory in Spoken Word Detection with reference to the Assamese language

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination