CN118675552B - 一种基于语境信息增强和交叉注意力的语音情绪分类方法 - Google Patents
一种基于语境信息增强和交叉注意力的语音情绪分类方法 Download PDFInfo
- Publication number
- CN118675552B CN118675552B CN202410638236.1A CN202410638236A CN118675552B CN 118675552 B CN118675552 B CN 118675552B CN 202410638236 A CN202410638236 A CN 202410638236A CN 118675552 B CN118675552 B CN 118675552B
- Authority
- CN
- China
- Prior art keywords
- text
- speech
- feature
- representing
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000008451 emotion Effects 0.000 title claims abstract description 48
- 230000004927 fusion Effects 0.000 claims abstract description 69
- 238000000605 extraction Methods 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 51
- 239000013598 vector Substances 0.000 claims description 33
- 230000009466 transformation Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000008909 emotion recognition Effects 0.000 description 32
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000002679 ablation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Machine Translation (AREA)
Abstract
本发明提出一种基于语境信息增强和交叉注意力的语音情绪分类方法,包括获取包括语音信号的语音数据集,对语音数据集进行预处理,得到包括文本数据的文本数据集;将语音数据集输入音频模态编码器中进行上下文表示提取,得到语音特征;将文本数据集输入BERT预训练模型进行文本特征提取,得到文本特征;将语音特征和文本特征输入到跨模态融合模块,语音特征在音频模态特征学习时融入文本特征,得到语音多模态融合特征;文本特征在文本模态特征学习时融入语音特征,得到文本多模态融合特征;将语音多模态融合特征和文本多模态融合特征输入决策层中,进行平均池化、连接和分类,得到分类结果。本发明能够使语音情绪的分类结果更加准确。
Description
技术领域
本发明涉及语音情感识别领域,具体涉及一种基于语境信息增强和交叉注意力的语音情绪分类方法。
背景介绍
语音情感识别(Speech Emotion Recognition,SER)技术主要聚焦于从语音信号中识别和理解情感状态。该技术广泛应用于人机交互、智能客服等领域,增强机器对人类情绪的感知与响应能力。语音情感识别方法主要分为两个步骤:语音特征提取和模型识别。在语音特征提取阶段,常见的做法是从语音信号中提取诸如语谱图、Mel频率倒谱系数MFCC、音高及其谐波、或抖动等声学特征,然后使用GMM、HMM、SVM等传统分类器对其进行分类,但是这些声学特征难以准确捕捉到复杂的语音情感,因此效果有限。
随着深度学习的发展,基于深度学习的语音情感识别方法日益成为主流。例如,Yang等提出了利用波形和频谱图提取互补信息的方法,使用堆叠的BLSTM层进行唤醒和效价分类,改善了单一特征的语音情感识别效果。但这些描述特征难以全面捕捉情感信息,导致分类效果有限。近年来,通过构建综合多模态数据的深度学习模型,能够充分利用来自不同来源的有效信息,采用如卷积神经网络CNN或循环神经网络RNN等技术,用于同时编码和提取语音和文本数据的特征。现有研究证明,与传统的单模态方法相比,双模态情感识别方法在准确性和鲁棒性方面取得了显著的改进。例如,Yoon等提出采用双重递归神经网络RNNs编码音频和文本序列中的信息,然后结合这些来源的信息来预测情感类别,该模型同时利用文本数据和音频信号来更好地理解语音数据。此外,采用自注意力机制和跨模态注意力可以将语音和文本信息的注意力权重进行融合,以获得更精确的情感识别结果。例如,Xu等使用注意力网络来学习语音和文本之间的对齐,旨在产生更准确的多模态特征表示,然后使用Bi-LSTM网络来学习情绪。Zou等利用CNN、BiLSTM和wav2vec2.0提取多级声学信息,包括MFCC、声谱图和嵌入的高级声学信息。然后将这些提取的特征作为多模态输入,并通过所提出的共同注意机制进行融合。
尽管近年来在语音情绪识别领域取得了显著进步,但现有技术仍在充分利用上下文信息方面存在局限,现有方法在处理较长对话中的情感累积和变化时,往往无法有效地识别和利用关键时刻的情感信息。例如,Wu等提到的基于预训练模型的情感识别方法虽然在提取语音特征和文本的上下文表示方面取得了一定进展,但这类模型依赖当前语音之后的语音和脚本,而在在现实应用场景中,当前语音之后的信息是未知信息,因此并不适用于现实应用场景。此外,Chen等提出的基于连接注意机制的多尺度SER并行网络,融合了细粒度帧级手动特性和粗粒度话语级深度特性,虽然在捕获语音信号特征方面表现良好,但对于复杂的对话情境和语境演变的敏感度仍有待提高。现有技术在交叉注意力机制具有局限性,交叉注意力机制在整合多模态信息如音频和文本时显示出了潜力,但现有模型如Sun等提出的MCSAN和Zou等提出的共同注意力网络仍面临一些挑战。这些模型虽然能够处理音频和文本间的交互,但在处理对话中不断变化的情感动态和多方面交互时,其效果并不理想。此外,Xu等的研究虽然在对齐音频和文本信号方面取得了进展,但在捕捉对话中细粒度情感变化和复杂交互模式方面仍有限。此外,当前的技术还面临着在复杂对话环境下准确识别情绪的挑战,对话中的情感表达常常受到多种因素的影响,如说话者的个性、对话的环境背景以及说话者之间的互动关系等。现有技术在捕捉这些复杂因素对情感表达的影响方面还有很大的提升空间。针对上述存在的问题,研究设计一种新型的基于语境信息增强和交叉注意力的语音情绪分类方法,克服现有语音情绪分类方法中存在的问题是十分必要的。
发明内容
本发明为解决现有语音情绪分类方法难以准确捕捉到复杂的语音情感、上下文信息未充分利用以及交叉注意力机制存在局限性而导致分类准确性低的问题,提出了一种基于语境信息增强和交叉注意力的语音情绪分类方法。
本发明提供了一种基于语境信息增强和交叉注意力的语音情绪分类方法,包括如下步骤:
S1.获取包括语音信号的语音数据集,对所述语音数据集进行预处理,得到包括文本数据的文本数据集;
S2.将步骤S1中得到的所述语音数据集输入音频模态编码器中进行上下文表示提取,得到语音特征;将所述文本数据集输入BERT预训练模型进行文本特征提取,得到文本特征;
S3.将步骤S2中得到的所述语音特征和文本特征输入到跨模态融合模块,所述语音特征在音频模态特征学习时融入所述文本特征,得到语音多模态融合特征;所述文本特征在文本模态特征学习时融入所述语音特征,得到文本多模态融合特征;
S4.将步骤S3中得到的所述语音多模态融合特征和文本多模态融合特征输入决策层中,进行平均池化、连接和分类,得到分类结果。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S1中,对所述语音数据集进行预处理包括通过Wave2Vect2模型生成文本数据,如公式(1)所示:
其中,xt表示文本数据,X表示语音信号,ASR表示语音文本识别算法,Xn表示语音信号中的起始会话,n∈(0,1,2,3,4…)。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S2中,所述音频模态编码器包括特征编码器模块、Transformer上下文表示模块和量化模块;
所述特征编码器模块用于将输入的所述语音信号处理为低级特征;
所述Transformer上下文表示模块用于将输入的所述语音信号映射到更能代表数据特征的特征空间;
所述量化模块用于将低级特征离散到一个可训练的码本中。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S2中,所述音频模态编码器为Wav2vec2.0模型。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S2中,所述BERT预训练模型通过bert-base-uncased对所述文本数据集中的文本数据进行文本特征提取,如公式(2)所示:
hiddenTE=BERT(xt) (2)
其中,hiddenTE表示文本特征,xt表示文本数据,BERT表示bert-base-uncased。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S3中,所述跨模态融合模块包括交叉注意力层和模态特征对齐融合层;
所述交叉注意力层用于音频模态特征学习,所述交叉注意力层通过模态间多头交叉注意力对所述语音特征进行深层语义抽取,如公式(3)所示:
mhtA=Concat(headA1,headA2,headA3,...,headA8)WA O (3)
其中,mhtA表示语音特征的深层语义抽取结果,Concat表示模态间多头交叉注意力,headAi表示语音特征第i个头的注意力抽取,i∈(1,2,…8),WA O表示语音输出变换矩阵,
语音特征第i个头的注意力抽取headAi如公式(4)所示:
其中,AttentionA表示音频模态交叉注意力,QA表示语音特征的查询矩阵,表示语音特征第i个头的查询变换矩阵,KA表示语音特征的键矩阵,表示语音特征第i个头的键变换矩阵,VA表示语音特征的值矩阵,表示语音特征第i个头的值变换矩阵,
音频模态交叉注意力AttentionA的计算公式如(5)所示:
其中,KTE表示文本特征的键矩阵,VTE表示文本特征的值矩阵,T表示矩阵的转置操作,表示缩放因子,
所述交叉注意力层还用于文本模态特征学习,所述交叉注意力层通过模态间多头交叉注意力对所述文本特征进行深层语义抽取,如公式(6)所示:
mhtTE=Concat(headTE1,headTE2,headTE3,...,headTE8)WTE O (6)
其中,mhtTE表示文本特征的深层语义抽取结果,headTEi表示文本特征第i个头的注意力抽取,i∈(1,2,…8),WTE O表示文本输出变换矩阵,
文本特征第i个头的注意力抽取headTEi如公式(7)所示:
其中,AttentionTE表示文本模态交叉注意力,QTE表示文本特征的查询矩阵,表示文本特征第i个头的查询变换矩阵,KTE表示文本特征的键矩阵,表示文本特征第i个头的键变换矩阵,VTE表示文本特征的值矩阵,表示文本特征第i个头的值变换矩阵,
文本模态交叉注意力AttentionTE的计算公式如(8)所示:
所述模态特征对齐融合层用于将所述语音特征的深层语义抽取结果mhtA与语音特征进行拼接,得到语音多模态融合特征,如公式(9)所示:
CrossAttA=mhtA+hiddenA (9)
其中,CrossAttA表示语音多模态融合特征,hiddenA表示语音特征,
所述模态特征对齐融合层还用于将所述文本特征的深层语义抽取结果mhtTE与文本特征进行拼接,得到文本多模态融合特征,如公式(10)所示:
CrossAttTE=mhtTE+hiddenTE (10)
其中,CrossAttTE表示文本多模态融合特征,hiddenTE表示文本特征。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S3中,所述交叉注意力层通过8个头的模态间多头交叉注意力对所述语音特征进行深层语义抽取,所述交叉注意力层通过8个头的模态间多头交叉注意力对所述语音特征进行深层语义抽取。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S4中,所述语音多模态融合特征在所述决策层进行平均池化得到音频特征向量,如公式(11)所示:
其中,x'W表示音频特征向量,xW表示语音数据集中的语音片段,x'W-1为上一次语音片段生成的音频特征向量,
所述文本多模态融合特征在所述决策层进行平均池化得到文本特征向量,如公式(12)所示:
其中,xTE'W表示文本特征向量,xTEW表示文本数据集中的文本片段,xTE'W-1为上一次语音片段生成的文本特征向量,
将所述音频特征向量x'w和文本特征向量xTE'W连接起来得到连接特征向量,使用线性分类器将对所述连接特征向量进行多类别分类,得到分类结果,如公式(13)所示:
其中,表示分类结果,w表示待学习的权重,b表示待学习的偏置量。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S4中,损失函数为类别交叉熵损失函数。
根据本发明一些实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,所述步骤S4中,所述分类结果为快乐、中立、悲伤或愤怒中的一种。
本发明提出的一种基于语境信息增强和交叉注意力的语音情绪分类方法,能够充分的利用上下文信息,能够基于语境信息增强上下文语义信息,同时利用文本数据和音频数据的语境信息增强来更好地理解语音信号的累积情绪,此外,本方法能够通过语境信息增强的交叉注意力机制获得多模态信号之间的对齐和不同特征映射的权重,能够更加关注关键信息,从而使语音情绪的分类结果更加准确。
附图说明
图1本发明的一种基于语境信息增强和交叉注意力的语音情绪分类方法的流程示意图。
具体实施方式
下面结合附图和实施例对本发明的实施方式作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
实施例1
一种基于语境信息增强和交叉注意力的语音情绪分类方法,如图1所示,包括如下步骤:
S1.获取包括语音信号的语音数据集,对语音数据集进行预处理,得到包括文本数据的文本数据集;
具体的,对语音数据集进行预处理包括通过Wave2Vect2模型生成文本数据,如公式(1)所示:
其中,xt表示文本数据,X表示语音信号,ASR表示语音文本识别算法,Xn表示语音信号中的起始会话,n∈(0,1,2,3,4…)。本实施例中,预处理过程中采用的Wave2Vect2模型版本可以为wav2vec2-base-960h;
S2.将步骤S1中得到的语音数据集输入音频模态编码器中进行上下文表示提取,得到语音特征;将文本数据集输入BERT预训练模型进行文本特征提取,得到文本特征;
具体的,音频模态编码器包括特征编码器模块、Transformer上下文表示模块和量化模块;
其中,特征编码器模块用于将输入的语音信号处理为低级特征;Transformer上下文表示模块用于将输入的语音信号映射到更能代表数据特征的特征空间;量化模块用于将低级特征离散到一个可训练的码本中,在特征编码器模块训练过程中,部分低级特征被Transformer上下文表示模块掩码,目的是基于其上下文来识别掩码特征的数值向量,此外,本实施例的特征编码器模块可以包含12个Transformer上下文表示模块。
音频模态编码器可以为Wav2vec2.0模型,可以应用于各种任务目标。本实施例在训练Wav2vec2.0模型的过程中进行预训练微调,改进Wav2vec2.0以适应本实施例的语音情绪识别任务,语音数据集中的原始音频信号直接送到wav2vec2.0处理器生成wav2vec2.0模型预训练表示,使用的原始音频信号在16kHz处进行采样,将每个音频会话分割成若干语音片段,当一个语音片段的长度小于7.7秒时,通过padding以保持相同的长度。
步骤S2中,BERT预训练模型通过bert-base-uncased对文本数据集中的文本数据进行文本特征提取,如公式(2)所示:
hiddenTE=BERT(xt) (2)
其中,hiddenTE表示文本特征,xt表示文本数据,BERT表示bert-base-uncased。
S3.将步骤S2中得到的语音特征和文本特征输入到跨模态融合模块,语音特征在音频模态特征学习时融入文本特征,得到语音多模态融合特征;文本特征在文本模态特征学习时融入语音特征,得到文本多模态融合特征;
步骤S3中,跨模态融合模块包括交叉注意力层和模态特征对齐融合层;
交叉注意力层用于音频模态特征学习,交叉注意力层通过模态间多头交叉注意力对语音特征进行深层语义抽取,如公式(3)所示:
mhtA=Concat(headA1,headA2,headA3,...,headA8)WA O (3)
其中,mhtA表示语音特征的深层语义抽取结果,Concat表示模态间多头交叉注意力,headAi表示语音特征第i个头的注意力抽取,i∈(1,2,…8),WA O表示语音输出变换矩阵,
语音特征第i个头的注意力抽取headAi如公式(4)所示:
其中,AttentionA表示音频模态交叉注意力,QA表示语音特征的查询矩阵,表示语音特征第i个头的查询变换矩阵,KA表示语音特征的键矩阵,表示语音特征第i个头的键变换矩阵,VA表示语音特征的值矩阵,表示语音特征第i个头的值变换矩阵,
音频模态交叉注意力AttentionA的计算公式如(5)所示:
其中,KTE表示文本特征的键矩阵,VTE表示文本特征的值矩阵,T表示矩阵的转置操作,表示缩放因子,
交叉注意力层还用于文本模态特征学习,交叉注意力层通过模态间多头交叉注意力对文本特征进行深层语义抽取,如公式(6)所示:
mhtTE=Concat(headTE1,headTE2,headTE3,...,headTE8)WTE O (6)
其中,mhtTE表示文本特征的深层语义抽取结果,headTEi表示文本特征第i个头的注意力抽取,i∈(1,2,…8),WTE O表示文本输出变换矩阵,
文本特征第i个头的注意力抽取headTEi如公式(7)所示:
其中,AttentionTE表示文本模态交叉注意力,QTE表示文本特征的查询矩阵,表示文本特征第i个头的查询变换矩阵,KTE表示文本特征的键矩阵,表示文本特征第i个头的键变换矩阵,VTE表示文本特征的值矩阵,表示文本特征第i个头的值变换矩阵,
文本模态交叉注意力AttentionTE的计算公式如(8)所示:
模态特征对齐融合层用于将语音特征的深层语义抽取结果mhtA与语音特征进行拼接,得到语音多模态融合特征,如公式(9)所示:
CrossAttA=mhtA+hiddenA (9)
其中,CrossAttA表示语音多模态融合特征,hiddenA表示语音特征,
模态特征对齐融合层还用于将文本特征的深层语义抽取结果mhtTE与文本特征进行拼接,得到文本多模态融合特征,如公式(10)所示:
CrossAttTE=mhtTE+hiddenTE (10)
其中,CrossAttTE表示文本多模态融合特征,hiddenTE表示文本特征。
步骤S3中,交叉注意力层通过8个头的模态间多头交叉注意力对语音特征进行深层语义抽取,交叉注意力层通过8个头的模态间多头交叉注意力对语音特征进行深层语义抽取。
通过跨模态融合模块处理转换后的文本数据和语音信号时,能够同时关注语音信号和文本数据的关键特征,通过将音频特征和文本数据映射到另一种专门用于融合的高维表示,识别出音频特征和文本特征的原始数据及其之间的关键情感信息,并加强对这些信息的理解,减少信息损失。
S4.将步骤S3中得到的语音多模态融合特征和文本多模态融合特征输入决策层中,进行平均池化、连接和分类,得到分类结果。
步骤S4中,语音多模态融合特征在决策层进行平均池化得到音频特征向量,如公式(11)所示:
其中,x'W表示音频特征向量,xW表示语音数据集中的语音片段,x'W-1为上一次语音片段生成的音频特征向量,以最后一个语音片段的表示输出作为音频特征向量。通过语音片段增强的决策方式可以有效地获得捕捉对情绪识别有用的片段级信息的能力,有助于语音情绪识别和跨模态的注意力对齐。
文本多模态融合特征在决策层进行平均池化得到文本特征向量,如公式(12)所示:
其中,xTE'W表示文本特征向量,xTEW表示文本数据集中的文本片段,xTE'W-1为上一次语音片段生成的文本特征向量,以最后一个语音片段的表示输出作为文本特征向量,通过文本片段增强的决策方式可以有效地获得捕捉对情绪识别有用的片段级信息的能力,有助于语音情绪识别和跨模态的注意力对齐。
将音频特征向量x'w和文本特征向量xTE'W连接起来得到连接特征向量,使用线性分类器将对连接特征向量进行多类别分类,以类别交叉熵损失函数作为损失函数为,得到分类结果,如公式(13)所示:
其中,表示分类结果,w表示待学习的权重,b表示待学习的偏置量。
步骤S4中,分类结果为快乐、中立、悲伤或愤怒中的一种。
实施例2
本实施例的一种基于语境信息增强和交叉注意力的语音情绪分类方法,在语音情感分析公开数据集IEMOCAP(Interactive Emotional Dyadic Motion Capture)数据集上对本发明方法的有效性进行了验证,语音情感分析公开数据集IEMOCAP(InteractiveEmotional Dyadic Motion Capture)数据集是由南加州大学的Sail实验室收集的,内含语音、视觉、文本、动作姿势四种模态的信息。该数据集涵盖由五位男演员和五位女演员进行录制的大约为12小时的音视频文件,文件分为Session1至Session5,共5组。参与者使用英语进行对话表演,表演分为即兴表演和固定的脚本场景表演。数据集IEMOCAP中对话平均持续时间为4.5秒,平均单词数为11.4。选用数据集IEMOCAP中的语音信息和文本数据作为实验数据集,对数据集IEMOCAP中常见的四类情感标签进行识别,包括愤怒、悲伤、快乐和中立,共计5531条。本实施例实验中的IEMOCAP数据集样本分布情况如表1所示。
表1 IEMOCAP实验数据集样本分布
本实施例所使用的语音信号在16kHz处进行采样,将每个音频会话分成若干个长度为7.7秒的语音片段,当一个语音片段小于7.7秒时,将对该语音片段应用具有0的填充操作,以保持相同的长度。每个音频会话话语的最终预测结果将由该话语的所有分割片段来决定。本实施例的方法在PyTorch中实现,模型的优化器采用AdamW,学习率为1e-5。训练的Batch Size为36,设置训练早停周期为20个epoch。整个方法都在Nvidia V100 32G GPU上进行预训练和训练。为了与以前的方法进行公平的比较,本实施例所提出的方法基于Session独立的原则分割数据集进行五折交叉验证,即当一个Session作为测试集时,其他的四个Session作为训练集。
根据文献中的多类别语音情绪分类的通用评价指标,本实施例中语音情绪分类方法的评估指标采用加权精确率(Weight Accuracy,WA)和未加权精确率(UnweightAccuracy,UA)。加权精确率WA假设每个样本权重相等,对各个类别的预测结果进行加权平均后得到加权精确率,计算如公式(14)所示:
其中,TP表示正确分类为第i类情感的样本数,FP表示错误分类为第i类的样本数,N表示样本数,
未加权精确率UA是对所有类别的预测结果进行平均后的精确率,着重考察各类情感的综合平均识别性能,如公式(15)所示:
其中,Acci表示每个情感类别的分类精确率,如公式(16)所示:
本实施例选取六个先进的语音情绪分类方法,及其在IEMOCAP公开数据集上基于Session独立的数据集分割的五折交叉验证实验结果来与本发明的方法进行比较,六个先进的语音情绪分类方法包括:
CMAspec:于2021年提出的一种基于跨模态注意力和语音语谱图的卷积神经网络。
CMARawwaveform:于2021年提出的一种基于跨模态注意力和原始波形的卷积神经网络。
TSIN:于2021年提出的基于时间和语义一致性的多模态情感识别模型。
TSB&TAB ASR文本:于2021年提出的融合时间同步和时间异步表示的多模态情感识别模型,文本模态采用语音识别生成的文本作为输入,文本上下文窗口为[-3,+3]。
TSB&TAB原文本:于2021年提出的融合时间同步和时间异步表示的多模态情感识别模型,文本模态采用数据集中的原文本作为输入,文本上下文窗口为[-3,+3]。
Coattention&Fusion:于2022年提出的多模态共注意力多级融合的情感识别模型。
AuxiliaryTasks:于2022年提出的基于随机重组文本和音频输入的多模态情感识别模型。
实验结果如表3所示,其中“--”表示文献中只提供了UA结果,未提供WA结果。
表2与现有模型的对比实验结果
为公平起见,首先比较使用语音和原文本作为输入的对照组。从表2可以看出,与采用原文本的基于跨模态注意力和语音语谱图的卷积神经网络CMAspec机器改进方法,以及基于跨模态注意力和原始波形的卷积神经网络CMARawwaveform相比,本实施例方法的语音情感识别精确率有显著提升,未加权精确率UA分别提升10.26%和9.66%。与基于时间和语义一致性的多模态情感识别模型TSIN相比,本实施例方法的语音情感识别加权精确率WA和未加权精确率UA分别提高6.72%和5.86%。与使用语音和原文本作为输入的Coattention&Fusion和AuxiliaryTasks模型相比,本实施例方法的未加权精确率UA均有明显提高,分别提高了6.19%和2.79%。与使用语音和原文本作为输入的TSB&TAB模型相比,在TSB&TAB使用了更多的文本信息[-3,+3]作为输入的情况下,本实施例方法的未加权精确率UA高出1.28%。
然后比较使用语音和ASR文本作为输入的模型,TSB&TAB ASR文本模型采用了[-3,+3]的文本上下文窗口,使用的文本输入信息比本实施例方法多,但本实施例方法提出ASR模型的语音情感识别加权精确率WA和未加权精确率UA均高于TSB&TAB ASR文本模型,并且优势更为显著,加权精确率WA和未加权精确率UA分别高于TSB&TAB ASR文本模型5.42%和5.41%。
为了探究语音多模态融合特征和文本多模态融合特征对语音情绪分类的作用及影响,本实施例进行消融实验来进行比较,如表3所示。
表3模态消融实验结果
从表3中可以看出,当同时使用语音多模态融合特征和ASR文本多模态融合特征,即同时采用语音模态增强信息和自动识别ASR文本增强信息时,比单独采用语音多模态融合特征即语音增强信息的加权精确率WA和未加权精确率UA分别高出9.96%和10.3%,比单独采用ASR文本多模态融合特征即ASR文本增强信息的加权精确率WA和未加权精确率UA分别高出6.29%和6.01%,说明语音多模态融合特征和ASR文本多模态融合特征都对情感识别任务准确率的提高做出了显著贡献。当同时采用语音多模态融合特征和原文本的文本多模态融合特征,即同时采用语音模态增强信息和原文本增强信息时,比单独采用语音多模态融合特征即语音增强信息的加权精确率WA和未加权精确率UA分别高出15.22%和15.49%,比单独采用原文本的文本多模态融合特征即原文本增强信息的加权精确率WA和未加权精确率UA分别高出3.84%和3.03%,再次说明语音多模态融合特征和原文本的文本多模态融合特征都对情感识别任务准确率的提高做出了显著贡献的同时,也证明了原文本比ASR文本具有更好的情感识别能力,原因在于自动识别ASR文本的准确率达不到原文本的精准程度。
为了探究语境信息增强对情感识别任务的作用,在本实施例中比较了语境信息增强消融实验结果,如表4所示。
表4语境信息增强消融实验结果
从表4中可以看出,当同时采用语音多模态融合特征和原文本的文本多模态融合特征,即同时采用语音模态增强信息和原文本增强信息时,比使用原文本的加权精确率WA和未加权精确率UA分别高出4.83%和4.1%。再次消融语音增强信息,仅采用原语音和原文本信息,加权精确率WA和未加权精确率UA又分别下降2.23%和2.51%,说明语音多模态融合特征和原文本多模态融合特征,即语音模态的增强信息和文本增强信息,都对情感识别任务准确率的提高做出了显著贡献。
为了进一步探究语境信息增强对情感识别任务的作用,在本实施例中比较了文本增强信息的窗口长度对情感识别的影响实验,实验中采用IEMOCAP数据集的Session 1-4作为训练集,Session5作为测试集,实验结果如表5所示。
表5文本增强信息窗口长度对情感识别的影响实验结果
从表5中可以看出,当同时原文本增强信息的窗口长度从0增长到-3时,语音情感识别实验结果的加权精确率WA和未加权精确率UA逐步增高,说明文本增强信息窗口长度越长,对语音情绪分类的正向影响越显著。
本发明的实施例是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显而易见的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。
Claims (10)
1.一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,包括如下步骤:
S1. 获取包括语音信号的语音数据集,对所述语音数据集进行预处理,得到包括文本数据的文本数据集;
S2. 将步骤S1中得到的所述语音数据集输入音频模态编码器中进行上下文表示提取,得到语音特征;将所述文本数据集输入BERT预训练模型进行文本特征提取,得到文本特征;
S3. 将步骤S2中得到的所述语音特征和文本特征输入到跨模态融合模块,所述语音特征在音频模态特征学习时融入所述文本特征,得到语音多模态融合特征;所述文本特征在文本模态特征学习时融入所述语音特征,得到文本多模态融合特征;
S4. 将步骤S3中得到的所述语音多模态融合特征和文本多模态融合特征输入决策层中,进行平均池化、连接和分类,得到分类结果;
所述步骤S3中,所述跨模态融合模块包括交叉注意力层和模态特征对齐融合层;
所述交叉注意力层用于音频模态特征学习,所述交叉注意力层通过模态间多头交叉注意力对所述语音特征进行深层语义抽取,如公式(1)所示:
(1)
其中,表示语音特征的深层语义抽取结果,表示模态间多头交叉注意力,表示语音特征第i个头的注意力抽取,,表示语音输出变换矩阵,
所述交叉注意力层还用于文本模态特征学习,所述交叉注意力层通过模态间多头交叉注意力对所述文本特征进行深层语义抽取,如公式(2)所示:
(2)
其中,表示文本特征的深层语义抽取结果,表示文本特征第i个头的注意力抽取,,表示文本输出变换矩阵,
所述模态特征对齐融合层用于将所述语音特征的深层语义抽取结果与语音特征进行拼接,得到语音多模态融合特征,如公式(3)所示:
(3)
其中,表示语音多模态融合特征,表示语音特征,
所述模态特征对齐融合层还用于将所述文本特征的深层语义抽取结果与文本特征进行拼接,得到文本多模态融合特征,如公式(4)所示:
(4)
其中,表示文本多模态融合特征,表示文本特征。
2.根据权利要求1所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,所述步骤S1中,对所述语音数据集进行预处理包括通过Wave2Vect2模型生成文本数据,如公式(5)所示:
(5)
其中,xt表示文本数据,X表示语音信号,ASR表示语音文本识别算法,Xn表示语音信号中的起始会话,。
3.根据权利要求1所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,所述步骤S2中,所述音频模态编码器包括特征编码器模块、Transformer上下文表示模块和量化模块;
所述特征编码器模块用于将输入的所述语音信号处理为低级特征;
所述Transformer上下文表示模块用于将输入的所述语音信号映射到更能代表数据特征的特征空间;
所述量化模块用于将低级特征离散到一个可训练的码本中。
4.根据权利要求3所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,所述步骤S2中,所述音频模态编码器为Wav2vec2.0模型。
5.根据权利要求1所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,所述步骤S2中,所述BERT预训练模型通过bert-base-uncased对所述文本数据集中的文本数据进行文本特征提取,如公式(6)所示:
(6)
其中,表示文本特征,xt表示文本数据,BERT表示bert-base-uncased。
6.根据权利要求5所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,语音特征第i个头的注意力抽取如公式(7)所示:
(7)
其中,表示音频模态交叉注意力,表示语音特征的查询矩阵,表示语音特征第i个头的查询变换矩阵,表示语音特征的键矩阵,表示语音特征第i个头的键变换矩阵,表示语音特征的值矩阵,表示语音特征第i个头的值变换矩阵,
音频模态交叉注意力的计算公式如(8)所示:
(8)
其中,表示文本特征的键矩阵,表示文本特征的值矩阵,T表示矩阵的转置操作,表示缩放因子,
文本特征第i个头的注意力抽取如公式(9)所示:
(9)
其中,表示文本模态交叉注意力,表示文本特征的查询矩阵,表示文本特征第i个头的查询变换矩阵,表示文本特征的键矩阵,表示文本特征第i个头的键变换矩阵,表示文本特征的值矩阵,表示文本特征第i个头的值变换矩阵,
文本模态交叉注意力的计算公式如(10)所示:
(10)。
7.根据权利要求6所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,所述步骤S3中,所述交叉注意力层通过8个头的模态间多头交叉注意力对所述语音特征进行深层语义抽取,所述交叉注意力层通过8个头的模态间多头交叉注意力对所述语音特征进行深层语义抽取。
8.根据权利要求6所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,步骤S4中,所述语音多模态融合特征在所述决策层进行平均池化得到音频特征向量,如公式(11)所示:
(11)
其中,表示音频特征向量,表示语音数据集中的语音片段,为上一次语音片段生成的音频特征向量,
所述文本多模态融合特征在所述决策层进行平均池化得到文本特征向量,如公式(12)所示:
(12)
其中,表示文本特征向量,表示文本数据集中的文本片段,为上一次语音片段生成的文本特征向量,
将所述音频特征向量和文本特征向量连接起来得到连接特征向量,使用线性分类器将对所述连接特征向量进行多类别分类,得到分类结果,如公式(13)所示:
(13)
其中,表示分类结果,w表示待学习的权重,b表示待学习的偏置量。
9.根据权利要求8所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,步骤S4中,损失函数为类别交叉熵损失函数。
10.根据权利要求1所述的一种基于语境信息增强和交叉注意力的语音情绪分类方法,其特征在于,步骤S4中,所述分类结果为快乐、中立、悲伤或愤怒中的一种。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410638236.1A CN118675552B (zh) | 2024-05-22 | 2024-05-22 | 一种基于语境信息增强和交叉注意力的语音情绪分类方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410638236.1A CN118675552B (zh) | 2024-05-22 | 2024-05-22 | 一种基于语境信息增强和交叉注意力的语音情绪分类方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN118675552A CN118675552A (zh) | 2024-09-20 |
| CN118675552B true CN118675552B (zh) | 2025-04-01 |
Family
ID=92728991
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202410638236.1A Active CN118675552B (zh) | 2024-05-22 | 2024-05-22 | 一种基于语境信息增强和交叉注意力的语音情绪分类方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN118675552B (zh) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118865945B (zh) * | 2024-09-25 | 2024-12-17 | 福建鸣鹤网络科技有限公司 | 一种基于机器学习的智能短信语音转化方法 |
| CN119128207A (zh) * | 2024-11-13 | 2024-12-13 | 深圳星网信通科技股份有限公司 | 录音文本标记管理方法、设备及存储介质 |
| CN119479705B (zh) * | 2025-01-17 | 2025-04-18 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种在线辅助语音对话场景的多模态情感提示方法及系统 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118038901A (zh) * | 2024-02-07 | 2024-05-14 | 中国人民解放军空军军医大学 | 一种双模态语音情感识别方法及系统 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111753549B (zh) * | 2020-05-22 | 2023-07-21 | 江苏大学 | 一种基于注意力机制的多模态情感特征学习、识别方法 |
| KR102365433B1 (ko) * | 2020-10-23 | 2022-02-21 | 서울대학교산학협력단 | 교차 어텐션 모델 기반 감정 인식 방법 및 장치 |
| CN112489635B (zh) * | 2020-12-03 | 2022-11-11 | 杭州电子科技大学 | 一种基于增强注意力机制的多模态情感识别方法 |
| CN114446324B (zh) * | 2022-01-28 | 2025-07-29 | 江苏师范大学 | 一种基于声学和文本特征的多模态情感识别方法 |
| CN115063709B (zh) * | 2022-04-14 | 2025-07-18 | 齐鲁工业大学(山东省科学院) | 基于跨模态注意与分层融合的多模态情感分析方法及系统 |
| CN115223585B (zh) * | 2022-07-04 | 2025-02-28 | 上海交通大学 | 基于Wav2vec2.0和BERT的多级融合多模态情感识别的方法及系统 |
| CN117636196A (zh) * | 2023-05-19 | 2024-03-01 | 江苏拓邮信息智能技术研究院有限公司 | 一种文本关联型短视频多模态情感识别方法及系统 |
| CN117765981A (zh) * | 2023-12-19 | 2024-03-26 | 北京航空航天大学 | 一种基于语音文本跨模态融合的情感识别方法及系统 |
-
2024
- 2024-05-22 CN CN202410638236.1A patent/CN118675552B/zh active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118038901A (zh) * | 2024-02-07 | 2024-05-14 | 中国人民解放军空军军医大学 | 一种双模态语音情感识别方法及系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN118675552A (zh) | 2024-09-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Yeh et al. | An interaction-aware attention network for speech emotion recognition in spoken dialogs | |
| CN111898670B (zh) | 多模态情感识别方法、装置、设备及存储介质 | |
| CN118675552B (zh) | 一种基于语境信息增强和交叉注意力的语音情绪分类方法 | |
| Tripathi et al. | Deep learning based emotion recognition system using speech features and transcriptions | |
| Rajamani et al. | A novel attention-based gated recurrent unit and its efficacy in speech emotion recognition | |
| Hu et al. | Temporal multimodal learning in audiovisual speech recognition | |
| CN110956953B (zh) | 基于音频分析与深度学习的争吵识别方法 | |
| CN117765981A (zh) | 一种基于语音文本跨模态融合的情感识别方法及系统 | |
| Atkar et al. | Speech emotion recognition using dialogue emotion decoder and cnn classifier | |
| Praksah et al. | Analysis of emotion recognition system through speech signal using KNN, GMM & SVM classifier | |
| Sahu et al. | Modeling feature representations for affective speech using generative adversarial networks | |
| Mishra et al. | Gender differentiated convolutional neural networks for speech emotion recognition | |
| Rajarajeswari et al. | An executable method for an intelligent speech and call recognition system using a machine learning-based approach | |
| Shin et al. | Speaker-invariant psychological stress detection using attention-based network | |
| Kadyrov et al. | Speaker recognition from spectrogram images | |
| Nanduri et al. | A Review of multi-modal speech emotion recognition and various techniques used to solve emotion recognition on speech data | |
| Bhanbhro et al. | Speech Emotion Recognition Using Deep Learning Hybrid Models | |
| Sajid et al. | Multimodal emotion recognition using deep convolution and recurrent network | |
| Liu et al. | Improved Multi-modal Emotion Recognition Using Squeeze-and-Excitation Block in Cross-modal Attention | |
| Yousef et al. | Speech Emotion Recognition: Leveraging LSTM and Change Point Detection for Continuous Emotion Detection | |
| Parashar et al. | Real-Time Detection of Speech based Affective Behaviour using Deep Learning | |
| Ashrafidoost et al. | Recognizing Emotional State Changes Using Speech Processing | |
| Larisa et al. | Speech emotion recognition using 1D/2D convolutional neural networks | |
| Balogun et al. | Exploring the Influence of Noise on Voice Recognition Systems: A Case Study of Supervised Learning Algorithms | |
| Liu et al. | Multilevel Attention-based Multimodal Emotion Recognition from Text and Audio |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |