CN115641543B - 一种多模态抑郁情绪识别方法及装置 - Google Patents
一种多模态抑郁情绪识别方法及装置 Download PDFInfo
- Publication number
- CN115641543B CN115641543B CN202211671363.9A CN202211671363A CN115641543B CN 115641543 B CN115641543 B CN 115641543B CN 202211671363 A CN202211671363 A CN 202211671363A CN 115641543 B CN115641543 B CN 115641543B
- Authority
- CN
- China
- Prior art keywords
- level
- modal
- sentence
- modality
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 329
- 230000004927 fusion Effects 0.000 claims abstract description 90
- 230000006870 function Effects 0.000 claims abstract description 32
- 230000003993 interaction Effects 0.000 claims abstract description 26
- 238000011156 evaluation Methods 0.000 claims abstract description 25
- 206010012374 Depressed mood Diseases 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000033001 locomotion Effects 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 19
- 230000007246 mechanism Effects 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 12
- 230000002457 bidirectional effect Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000000994 depressogenic effect Effects 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 5
- 230000003247 decreasing effect Effects 0.000 claims 4
- 238000012512 characterization method Methods 0.000 abstract description 9
- 230000008451 emotion Effects 0.000 abstract description 5
- 230000008569 process Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract 1
- 230000036651 mood Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 6
- 208000027534 Emotional disease Diseases 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种多模态抑郁情绪识别方法及装置,涉及情绪识别技术领域。包括:获取待识别的多模态原始数据,包括视频模态、语音模态以及文本模态的原始数据;根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果。本发明提出一种基于无监督自编码器和动态权重组合损失的多模态抑郁情绪计算机辅助识别与评估方法,首先基于无监督自编码器结构得到帧信号的句子级向量,提升音视频模态的表征能力;然后通过跨模态交互、自注意时域融合、低秩后期融合来捕捉不同模态特征的互补性;最后通过动态权重组合损失在模型训练过程中通过动态调整不同任务的权值因子来更好的平衡多个损失函数,提升多模态融合后的抑郁情绪评估效果。
Description
技术领域
本发明涉及情绪识别技术领域,特别是指一种多模态抑郁情绪识别方法及装置。
背景技术
随着社会的快速发展以及人们工作、生活压力的日益增加,抑郁等情绪问题持续高发。抑郁情绪对个人生活以及家庭和社会均存在着较大的危害。当前情绪问题的识别主要基于量表的方法。以抑郁情绪问题的识别为例,常用的量表工具包括自评的健康问卷(PHQ-9)、抑郁情绪状快速评定量表(QIDS),也包括通常使用的他评量表,如汉密尔顿抑郁量表(HAMD)、蒙哥马利抑郁评定量表(MADRS)等量表。
然而,传统的基于问卷的抑郁情绪识别面临着缺乏训练有素的人力成本高、效率低、可及性差等问题,因为基于访谈的识别是劳动密集型的,评估人力资源相对匮乏。此外,情绪问题的许多行为学指征被认为是可以观察到的,然而,在识别和评估情绪问题的量表中,这些指征往往没有得到充分考虑。综合利用信息技术、人工智能等多样化手段是目前在情绪问题量化评估领域的新趋势,其中包括基于视觉信号(如面部表情、眼动、手势、头部运动)的情绪检测方法,基于语音(如韵律、频谱图、波形)的情绪检测方法、以及基于文本(如稀疏词汇编码)的情绪检测方法。
已有技术针对语音模态和视频模态的信号表征,通常使用统计函数来编码帧级别的特征成为句子级别的特征向量,导致丢失帧间特征的时序关系。
基于单一模态的特征进行自动抑郁情绪评估任务虽然取得了不错的实验结果,但是不同模态的特征之间往往具有互补性,使用多模态的特征来构建多模态融合的自动抑郁情绪评估系统往往可以捕捉到不同模态特征的互补性,取得更好的评估结果。然而目前已有技术大多都是决策融合或者简单的特征融合(后期融合,前端融合)网络,这几种融合网络的实现方式相对简单,难以充分利用不同模态特征之间的互补性。
考虑到不同模态的特征对最终评估结果的贡献度不同,本发明在训练过程中引入了组合损失函数,但以往组合损失函数设计中,通常需要人工手动设置参数来调节不同任务所占的权重,可能存在无法搜到最优权重的问题,限制性能提升。
发明内容
本发明针对已有技术针对语音模态和视频模态的信号表征,通常使用统计函数来编码帧级别的特征成为句子级别的特征向量,导致丢失帧间特征的时序关系的问题、以及已有技术大多都是决策融合或者简单的特征融合(后期融合,前端融合)网络,这几种融合网络的实现方式相对简单,难以充分利用不同模态特征之间的互补性的问题、以及以往组合损失函数设计中,通常需要人工手动设置参数来调节不同任务所占的权重,可能存在无法搜到最优权重的问题,提出了本发明。
为解决上述技术问题,本发明提供如下技术方案:
一方面,本发明提供了一种多模态抑郁情绪识别方法,该方法由电子设备实现,该方法包括:
S1、获取待识别的多模态原始数据;其中,多模态原始数据包括视频模态、语音模态以及文本模态的原始数据。
S2、将多模态原始数据输入到构建好的多模态抑郁情绪识别模型。
S3、根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果。
可选地,多模态抑郁情绪识别模型包括信号表征模块、模态交互模块、时域融合模块、后期融合模块以及动态权重模块。
S3中的根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果,包括:
S31、通过信号表征模块,对视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,对语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,对文本模态的原始数据进行表征,得到文本模态的句子级的特征向量。
S32、通过模态交互模块,对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量。
S33、通过时域融合模块,对交互后的特征向量进行时域融合,得到融合后的特征向量。
S34、通过后期融合模块,对融合后的特征向量进行低秩张量运算,得到抑郁情绪识别结果。
S35、通过动态权重模块,对抑郁情绪识别结果进行优化。
可选地,S31中的对视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,包括:
对视频模态的原始数据进行特征提取,得到帧级别的面部运动单元AU特征向量。
将帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量。
可选地,帧级-句级自编码器包括Transformer编码单元以及Transformer解码单元。
将帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量,包括:
将帧级别的面部运动单元AU特征向量输入到Transformer编码单元进行位置编码计算,得到位置编码向量。
将帧级别的面部运动单元AU特征向量与位置编码向量进行叠加,得到叠加后的向量。
根据叠加后的向量生成查询向量、键向量和值向量,进而得到Transformer编码单元的输出。
将Transformer编码单元的输出经过自填充后输入到Transformer解码单元进行还原,得到Transformer解码单元的输出。
基于Transformer解码单元的输出以及帧级别的面部运动单元AU特征向量进行损失计算,进而对权重进行更新,得到训练好的帧级-句级自编码器,输出视频模态的句子级的特征向量。
可选地,S31中的对语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,包括:
对语音模态的原始数据进行特征提取,得到帧级别的梅尔频率倒谱系数MFCC特征向量。
将帧级别的梅尔频率倒谱系数MFCC特征向量输入到帧级-句级自编码器进行编码,得到语音模态的句子级的特征向量。
可选地,S31中的对文本模态的原始数据进行表征,得到文本模态的句子级的特征向量,包括:
基于预训练的词嵌入语言模型ELMo对文本模态的原始数据进行特征提取,得到文本模态的句子级的特征向量。
可选地,模态交互模块包括六个交叉注意力结构。
S32中的对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量,包括:
通过六个交叉注意力结构,对视频模态的句子级的特征向量、语音模态的句子级的特征向量以及文本模态的句子级的特征向量进行特征融合,得到语音-视频特征向量、文本-视频特征向量、视频-语音特征向量、文本-语音特征向量、视频-文本特征向量以及语音-文本特征向量。
对语音-视频特征向量以及文本-视频特征向量进行拼接,得到交互后的视频模态特征向量。
对视频-语音特征向量以及文本-语音特征向量进行拼接,得到交互后的语音模态特征向量。
对视频-文本特征向量以及语音-文本特征向量进行拼接,得到交互后的文本模态特征向量。
可选地,S33中的对交互后的特征向量进行时域融合,得到融合后的特征向量,包括:
构建基于自注意力机制的双向长短时记忆的神经网络。
通过基于自注意力机制的双向长短时记忆的神经网络,对交互后的特征向量进行时域融合,得到融合后的特征向量。
可选地,S35中的对抑郁情绪识别结果进行优化,包括:
将融合后的特征向量输入到线性层,分别得到视频模态、语音模态以及文本模态的评估结果。
设计动态加权的组合损失函数。
根据评估结果以及动态加权的组合损失函数,对抑郁情绪识别结果进行优化。
另一方面,本发明提供了一种多模态抑郁情绪识别装置,该装置应用于实现多模态抑郁情绪识别方法,该装置包括:
获取模块,用于获取待识别的多模态原始数据;其中,多模态原始数据包括视频模态、语音模态以及文本模态的原始数据。
输入模块,用于将多模态原始数据输入到构建好的多模态抑郁情绪识别模型。
输出模块,用于根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果。
可选地,多模态抑郁情绪识别模型包括信号表征模块、模态交互模块、时域融合模块、后期融合模块以及动态权重模块。
输出模块,进一步用于:
S31、通过信号表征模块,对视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,对语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,对文本模态的原始数据进行表征,得到文本模态的句子级的特征向量。
S32、通过模态交互模块,对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量。
S33、通过时域融合模块,对交互后的特征向量进行时域融合,得到融合后的特征向量。
S34、通过后期融合模块,对融合后的特征向量进行低秩张量运算,得到抑郁情绪识别结果。
S35、通过动态权重模块,对抑郁情绪识别结果进行优化。
可选地,输出模块,进一步用于:
对视频模态的原始数据进行特征提取,得到帧级别的面部运动单元AU特征向量。
将帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量。
可选地,帧级-句级自编码器包括Transformer编码单元以及Transformer解码单元。
输出模块,进一步用于:
将帧级别的面部运动单元AU特征向量输入到Transformer编码单元进行位置编码计算,得到位置编码向量。
将帧级别的面部运动单元AU特征向量与位置编码向量进行叠加,得到叠加后的向量。
根据叠加后的向量生成查询向量、键向量和值向量,进而得到Transformer编码单元的输出。
将Transformer编码单元的输出经过自填充后输入到Transformer解码单元进行还原,得到Transformer解码单元的输出。
基于Transformer解码单元的输出以及帧级别的面部运动单元AU特征向量进行损失计算,进而对权重进行更新,得到训练好的帧级-句级自编码器,输出视频模态的句子级的特征向量。
输出模块,进一步用于:
对语音模态的原始数据进行特征提取,得到帧级别的梅尔频率倒谱系数MFCC特征向量。
将帧级别的梅尔频率倒谱系数MFCC特征向量输入到帧级-句级自编码器进行编码,得到语音模态的句子级的特征向量。
输出模块,进一步用于:
基于预训练的词嵌入语言模型ELMo对文本模态的原始数据进行特征提取,得到文本模态的句子级的特征向量。
可选地,模态交互模块包括六个交叉注意力结构。
输出模块,进一步用于:
通过六个交叉注意力结构,对视频模态的句子级的特征向量、语音模态的句子级的特征向量以及文本模态的句子级的特征向量进行特征融合,得到语音-视频特征向量、文本-视频特征向量、视频-语音特征向量、文本-语音特征向量、视频-文本特征向量以及语音-文本特征向量。
对语音-视频特征向量以及文本-视频特征向量进行拼接,得到交互后的视频模态特征向量。
对视频-语音特征向量以及文本-语音特征向量进行拼接,得到交互后的语音模态特征向量。
对视频-文本特征向量以及语音-文本特征向量进行拼接,得到交互后的文本模态特征向量。
输出模块,进一步用于:
构建基于自注意力机制的双向长短时记忆的神经网络。
通过基于自注意力机制的双向长短时记忆的神经网络,对交互后的特征向量进行时域融合,得到融合后的特征向量。
输出模块,进一步用于:
将融合后的特征向量输入到线性层,分别得到视频模态、语音模态以及文本模态的评估结果。
设计动态加权的组合损失函数。
根据评估结果以及动态加权的组合损失函数,对抑郁情绪识别结果进行优化。
一方面,提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现上述多模态抑郁情绪识别方法。
一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现上述多模态抑郁情绪识别方法。
本发明实施例提供的技术方案带来的有益效果至少包括:
上述方案中,提出了一种多模态信号的句级别表征方法。已有技术在将帧级别的语音或视频特征压缩成句子级别特征时主要采用的方式是提取统计特征,如均值、方差,但是此种方式忽略了帧特征帧与帧之间的时序关系。为此,本发明设计无监督自编码器用以捕捉帧级别特征帧间的时序关系,从而得到一个更具有表征能力的句级别的特征,应用于下游的抑郁情绪评估任务,可以得到性能提升。
本发明提出的深度特征融合抑郁情绪评估算法,能更好的捕捉到不同模态特征之间的互补性,相比决策融合和简单的特征融合,所提出的方法在公开数据集上得到了更优的结果,同时本发明提出的动态加权组合损失函数能进一步提升评估性能。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的多模态抑郁情绪识别方法流程示意图;
图2是本发明实施例提供的多模态抑郁情绪识别技术方案流程图;
图3是本发明实施例提供的无监督自编码器结构图;
图4是本发明实施例提供的自注意力时域融合模块技术方案流程图;
图5是本发明实施例提供的多模态抑郁情绪识别装置框图;
图6是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
如图1所示,本发明实施例提供了一种多模态抑郁情绪识别方法,该方法可以由电子设备实现。如图1所示的多模态抑郁情绪识别方法流程图,该方法的处理流程可以包括如下的步骤:
S1、获取待识别的多模态原始数据。
其中,多模态原始数据可以包括视频模态、语音模态以及文本模态的原始数据。
S2、将多模态原始数据输入到构建好的多模态抑郁情绪识别模型。
可选地,如图2所示,多模态抑郁情绪识别模型可以包括信号表征模块、模态交互模块、时域融合模块、后期融合模块以及动态权重模块。
S3、根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果。
可选地,上述步骤S3可以包括如下步骤S31-S35:
S31、通过信号表征模块,对视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,对语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,对文本模态的原始数据进行表征,得到文本模态的句子级的特征向量。
一种可行的实施方式中,信号表征模块,用于将输入的视频、语音、文本每个单模态的原始数据,变为能够表征每个模态信息的句子级向量。
其中,对文本模态的原始数据进行表征,得到文本模态的句子级的特征向量,包括:
基于预训练的Elmo(Embeddings from Language Models,词嵌入语言模型)对文本模态的原始数据进行特征提取,得到文本模态的句子级的特征向量。
对视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,包括:
S311.1、对视频模态的原始数据进行特征提取,得到帧级别的面部运动单元AU特征向量。
S311.2、将帧级别的AU(Action Unit,面部运动单元)特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量。
可选地,上述步骤S311.2可以包括:
将帧级别的面部运动单元AU特征向量输入到Transformer编码单元进行位置编码计算,得到位置编码向量。
将帧级别的面部运动单元AU特征向量与位置编码向量进行叠加,得到叠加后的向量。
根据叠加后的向量生成查询向量、键向量和值向量,进而得到Transformer编码单元的输出。
将Transformer编码单元的输出经过自填充后输入到Transformer解码单元进行还原,得到Transformer解码单元的输出。
基于Transformer解码单元的输出以及帧级别的面部运动单元AU特征向量进行损失计算,进而对权重进行更新,得到训练好的帧级-句级自编码器,输出视频模态的句子级的特征向量。
对语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,包括:
S312.1、对语音模态的原始数据进行特征提取,得到帧级别的MFCC(MelFrequency Cepstrum Coefficient,梅尔频率倒谱系数)特征向量。
S312.2、将帧级别的梅尔频率倒谱系数MFCC特征向量输入到帧级-句级自编码器进行编码,得到语音模态的句子级的特征向量。
一种可行的实施方式中,上述步骤S312.2与步骤S311.2相似,都是将帧级别的特征向量输入到帧级-句级自编码器进行编码,得到句子级的特征向量。
进一步地,经过特征提取后的视频特征和语音特征仍然是帧级别的,为此,帧级别的语音和视频特征会被送入到帧级-句级自编码器中进行编码,得到各自模态的句向量,自监督编解码结构如图3所示。
具体地,为了更好的捕捉帧级别的信号帧与帧之间的时序关系,采用对时序信号有强大建模能力的Transformer网络作为编解码器的主干,Transformer网络由于内部复杂的注意力结构,可以对输入的时序信号进行很好的建模。
进一步地,特征提取后得到的帧级别的向量被送入Transformer编码单元中进行运算,首先是要根据输入的向量来计算位置编码,然后将输入的帧级别的向量和位置编码得到的向量PE进行叠加形成一个新的向量I,再后Transformer编码网络会根据向量来生成三个向量Q,K,V,分别表示的是查询向量,键向量和值向量,通过学习三个线性矩阵,注意力模块最终的输出A和的公式如下式(1)所示:
其中,d k 表示的是Q,K矩阵的列数,也就是向量的维度。
进一步地,每个单头的注意力模块的输出A i 会拼接在一起,形成一个多头的注意力的输出MultiHeadAttention,编码器的最终输出Z和MultiHeadAttention的关系如下式(2)(3)所示:
其中,LayerNorm表示的是层归一化操作,FeedForward表示的是前向神经网络,是一个两层的全连接层,如下式(4)所示:
其中,W 1 和W 2 分别表示的是两层神经元的偏置因子,b 1 和b 2 分别表示的是两层神经元的偏置因子。
最终得到的输出向量Ο是一个融合了帧间注意力机制的时序向量,这个时序向量的维度和输入的帧级别的向量的维度相同,将Transformer编码单元最后一个时间步的输出作为编码器的输出,得到一个1×F维度的向量,该向量经过自填充之后可以得到一个维度为S×F的向量,然后送入到无监督自编码器的解码器部分进行还原。
进一步地,本发明的解码器的设计和编码器的设计相同,均由3层Transformer编码单元构成,注意力头的数量和编码器也使用相同设置,经过解码器得到的输出和原始的输入的帧级别的信号的维度保持一致,均为S×F维。在训练无监督自编码器时,选择的损失函数是均方误差函数, 解码器的输出和编码器的输入计算损失后更新网络的权重。模型收敛后,编码器的输出会被存储下来作为每个帧级别信号的句级别表征向量。至此,得到的语音向量,文本向量视频向量都是句子级别的,其中,S表示的是每段访谈提问的问题的数量,F a ,F t ,F v 分别是三个模态特征的特征维度。得到的三个模态的句子级别的向量X a ,X t ,X v 会经过卷积模块将特征维度进行进一步的压缩再送入特征融合模块进行特征融合,经过卷积模块会得到三个向量,,,其中,S仍然表示的是问题的数量,表示的是压缩后的特征的维度。
S32、通过模态交互模块,对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量。
可选地,模态交互模块包括六个交叉注意力结构。
一种可行的实施方式中,本发明提出了一种深度特征融合网络进行模态融合,包括基于交叉注意力的模态交互模块,基于自注意力Bi-LSTM的时域融合模块和基于低秩张量运算的后期融合模块。
其中,基于交叉注意力的模态交互模块,进行特征融合的过程可以包括:
通过六个交叉注意力结构,对视频模态的句子级的特征向量、语音模态的句子级的特征向量以及文本模态的句子级的特征向量进行特征融合,得到语音-视频特征向量、文本-视频特征向量、视频-语音特征向量、文本-语音特征向量、视频-文本特征向量以及语音-文本特征向量。
对语音-视频特征向量以及文本-视频特征向量进行拼接,得到交互后的视频模态特征向量。
对视频-语音特征向量以及文本-语音特征向量进行拼接,得到交互后的语音模态特征向量。
对视频-文本特征向量以及语音-文本特征向量进行拼接,得到交互后的文本模态特征向量。
一种可行的实施方式中,为在特征层面上对多个模态的特征进行深度的融合,从而很好的利用不同模态特征之间的互补性,本发明采用交叉注意力结构在特征层面上对多个模态的特征进行融合,模态交互模块可以由六个交叉注意力结构组成,共得到六个输出,分别是,然后将六个输出进行两两拼接得到三个向量,具体的表达式如下式(5)-(7)所示:
S33、通过时域融合模块,对交互后的特征向量进行时域融合,得到融合后的特征向量。
可选地,上述步骤S33可以包括:
构建基于自注意力机制的双向长短时记忆的神经网络。
通过基于自注意力机制的双向长短时记忆的神经网络,对交互后的特征向量进行时域融合,得到融合后的特征向量。
一种可行的实施方式中,使用Bi-LSTM(Bi-directional Long-Short TermMemory,双向长短时记忆的神经网络)来捕捉不同模态特征时序上的关系,考虑到不同时刻的向量对最终结果的贡献度不同,本发明将自注意力机制引入了Bi-LSTM中来,自注意力时域融合模块如图4所示。
进一步地,以模态交互模块输出的文本向量Z T 为例,Z T 首先输入进一个双向长短时记忆网络中,捕捉句子间的时序关系,得到的是融合了句子间时序关系的向量,其中,S的值仍然是句子的长度;然后会进入到双曲正切函数中,进行激活运算,得到,双曲正切函数可以将每个输出映射到 之间;之后和自定义的权重因子相乘后,送入softmax函数中进行激活运算,得到alpha,将alpha和Bi-LSTM模块的输出进行相乘运算,得到;最后对的所有时间步进行求和可以得到S T 的。自注意机制将BI-LSTM模块的每个时间步的输出都经过加权计算在内,最终经过三个自注意力模块之后,可以得到三个向量O A ,O T ,O V ,这三个向量可以表征每个模态的特征在时序上的信息,然后送入后期融合模块进行进一步的融合。
S34、通过后期融合模块,对融合后的特征向量进行低秩张量运算,得到抑郁情绪识别结果。
一种可行的实施方式中,后期融合模块是针对自注意力模块输出的三个融合了各自模态的时序注意力机制的向量O A ,O T ,O V 进行低秩融合运算,低秩融合可以对w矩阵进行分解,分解的方式如下式(8)所示:
进一步地,对于O T ,O V ,O A 进行补一的向量z l ,z v ,z a 使用低秩融合的方式进行张量融合输出的向量H来说,具体的关系如下式(10)所示:
其中,Λ表示的是像素级点乘。
通过低秩融合分解之后大大降低了时间复杂度。将O T ,O V ,O A 这三个向量进行低秩融合之后输出得到一个一维的向量,这个向量就是最终三个模态特征进行深度融合之后预测的结果。
S35、通过动态权重模块,对抑郁情绪识别结果进行优化。
可选地,上述步骤S35可以包括:
将融合后的特征向量输入到线性层,分别得到视频模态、语音模态以及文本模态的评估结果。
设计动态加权的组合损失函数。
根据评估结果以及动态加权的组合损失函数,对抑郁情绪识别结果进行优化。
一种可行的实施方式中,考虑到不同模态的特征对最后的评估结果的贡献度可能是不一样的,本发明在网络进行训练的时候引入了组合损失函数,时域融合模块输出的三个向量O A ,O T ,O V 已经可以表征每个模态特征在时序上的关系,本发明在将这三个向量接入到后期融合模块进行再一次融合输出三个模态的评估结果的同时,也将这三个向量接入线性层得到每个单模态的评估结果,并将以上输出分别计算损失,并进行加权求和得到最终损失值。
其中,对于不同模态的权重,为了能够动态平衡各个任务的训练,本发明针对组合损失函数设计了动态权重调整方法,具体的公式如下式(11)-(14)所示:
本发明设计的动态权值因子的损失函数不需要进行手动调参的,从而避免了手动设置权值因子。从上面公式中可见,如果某个任务的损失值下降快,那么新一轮次训练时给该任务分配的权值越小,如果某个任务的损失值下降慢,表明该任务难训练,新一轮次训练时给该任务分配的权值越大。该损失函数的目的旨在网络训练时通过动态调整不同任务的权值因子的方式来更好的平衡不同模态的训练,从而促进多模态融合结果的提升。
本发明实施例中,提出了一种多模态信号的句级别表征方法。已有技术在将帧级别的语音或视频特征压缩成句子级别特征时主要采用的方式是提取统计特征,如均值、方差,但是此种方式忽略了帧特征帧与帧之间的时序关系。为此,本发明设计无监督自编码器用以捕捉帧级别特征帧间的时序关系,从而得到一个更具有表征能力的句级别的特征,应用于下游的抑郁情绪评估任务,可以得到性能提升。
本发明提出的深度特征融合抑郁情绪评估算法,能更好的捕捉到不同模态特征之间的互补性,相比决策融合和简单的特征融合,所提出的方法在公开数据集上得到了更优的结果,同时本发明提出的动态加权组合损失函数能进一步提升评估性能。
如图5所示,本发明实施例提供了一种多模态抑郁情绪识别装置500,该装置500应用于实现多模态抑郁情绪识别方法,该装置500包括:
获取模块510,用于获取待识别的多模态原始数据;其中,多模态原始数据包括视频模态、语音模态以及文本模态的原始数据。
输入模块520,用于将多模态原始数据输入到构建好的多模态抑郁情绪识别模型。
输出模块530,用于根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果。
可选地,多模态抑郁情绪识别模型包括信号表征模块、模态交互模块、时域融合模块、后期融合模块以及动态权重模块。
输出模块530,进一步用于:
S31、通过信号表征模块,对视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,对语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,对文本模态的原始数据进行表征,得到文本模态的句子级的特征向量。
S32、通过模态交互模块,对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量。
S33、通过时域融合模块,对交互后的特征向量进行时域融合,得到融合后的特征向量。
S34、通过后期融合模块,对融合后的特征向量进行低秩张量运算,得到抑郁情绪识别结果。
S35、通过动态权重模块,对抑郁情绪识别结果进行优化。
可选地,输出模块530,进一步用于:
对视频模态的原始数据进行特征提取,得到帧级别的面部运动单元AU特征向量。
将帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量。
可选地,帧级-句级自编码器包括Transformer编码单元以及Transformer解码单元。
输出模块530,进一步用于:
将帧级别的面部运动单元AU特征向量输入到Transformer编码单元进行位置编码计算,得到位置编码向量。
将帧级别的面部运动单元AU特征向量与位置编码向量进行叠加,得到叠加后的向量。
根据叠加后的向量生成查询向量、键向量和值向量,进而得到Transformer编码单元的输出。
将Transformer编码单元的输出经过自填充后输入到Transformer解码单元进行还原,得到Transformer解码单元的输出。
基于Transformer解码单元的输出以及帧级别的面部运动单元AU特征向量进行损失计算,进而对权重进行更新,得到训练好的帧级-句级自编码器,输出视频模态的句子级的特征向量。
输出模块530,进一步用于:
对语音模态的原始数据进行特征提取,得到帧级别的梅尔频率倒谱系数MFCC特征向量。
将帧级别的梅尔频率倒谱系数MFCC特征向量输入到帧级-句级自编码器进行编码,得到语音模态的句子级的特征向量。
输出模块530,进一步用于:
基于预训练的词嵌入语言模型ELMo对文本模态的原始数据进行特征提取,得到文本模态的句子级的特征向量。
可选地,模态交互模块包括六个交叉注意力结构。
输出模块530,进一步用于:
通过六个交叉注意力结构,对视频模态的句子级的特征向量、语音模态的句子级的特征向量以及文本模态的句子级的特征向量进行特征融合,得到语音-视频特征向量、文本-视频特征向量、视频-语音特征向量、文本-语音特征向量、视频-文本特征向量以及语音-文本特征向量。
对语音-视频特征向量以及文本-视频特征向量进行拼接,得到交互后的视频模态特征向量。
对视频-语音特征向量以及文本-语音特征向量进行拼接,得到交互后的语音模态特征向量。
对视频-文本特征向量以及语音-文本特征向量进行拼接,得到交互后的文本模态特征向量。
输出模块530,进一步用于:
构建基于自注意力机制的双向长短时记忆的神经网络。
通过基于自注意力机制的双向长短时记忆的神经网络,对交互后的特征向量进行时域融合,得到融合后的特征向量。
输出模块530,进一步用于:
将融合后的特征向量输入到线性层,分别得到视频模态、语音模态以及文本模态的评估结果。
设计动态加权的组合损失函数。
根据评估结果以及动态加权的组合损失函数,对抑郁情绪识别结果进行优化。
本发明实施例中,提出了一种多模态信号的句级别表征方法。已有技术在将帧级别的语音或视频特征压缩成句子级别特征时主要采用的方式是提取统计特征,如均值、方差,但是此种方式忽略了帧特征帧与帧之间的时序关系。为此,本发明设计无监督自编码器用以捕捉帧级别特征帧间的时序关系,从而得到一个更具有表征能力的句级别的特征,应用于下游的抑郁情绪评估任务,可以得到性能提升。
本发明提出的深度特征融合抑郁情绪评估算法,能更好的捕捉到不同模态特征之间的互补性,相比决策融合和简单的特征融合,所提出的方法在公开数据集上得到了更优的结果,同时本发明提出的动态加权组合损失函数能进一步提升评估性能。
图6是本发明实施例提供的一种电子设备600的结构示意图,该电子设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessing units,CPU)601和一个或一个以上的存储器602,其中,存储器602中存储有至少一条指令,至少一条指令由处理器601加载并执行以实现下述多模态抑郁情绪识别方法:
S1、获取待识别的多模态原始数据;其中,多模态原始数据包括视频模态、语音模态以及文本模态的原始数据。
S2、将多模态原始数据输入到构建好的多模态抑郁情绪识别模型。
S3、根据多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由终端中的处理器执行以完成上述多模态抑郁情绪识别方法。例如,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种多模态抑郁情绪识别方法,其特征在于,所述方法包括:
S1、获取待识别的多模态原始数据;其中,所述多模态原始数据包括视频模态、语音模态以及文本模态的原始数据;
S2、将所述多模态原始数据输入到构建好的多模态抑郁情绪识别模型;
S3、根据所述多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果;
所述多模态抑郁情绪识别模型包括信号表征模块、模态交互模块、时域融合模块、后期融合模块以及动态权重模块;
所述S3中的根据所述多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果,包括:
S31、通过所述信号表征模块,对所述视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,对所述语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,对所述文本模态的原始数据进行表征,得到文本模态的句子级的特征向量;
S32、通过所述模态交互模块,对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量;
S33、通过所述时域融合模块,对所述交互后的特征向量进行时域融合,得到融合后的特征向量;
S34、通过所述后期融合模块,对所述融合后的特征向量进行低秩张量运算,得到抑郁情绪识别结果;
S35、通过所述动态权重模块,对所述抑郁情绪识别结果进行优化;
所述S31中的对所述视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,包括:
对所述视频模态的原始数据进行特征提取,得到帧级别的面部运动单元AU特征向量;
将所述帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量;
所述S31中的对所述语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,包括:
对所述语音模态的原始数据进行特征提取,得到帧级别的梅尔频率倒谱系数MFCC特征向量;
将所述帧级别的梅尔频率倒谱系数MFCC特征向量输入到帧级-句级自编码器进行编码,得到语音模态的句子级的特征向量;
所述S35中的对所述抑郁情绪识别结果进行优化,包括:
时域融合模块输出表征视频模态特征、语音模态特征以及文本模态特征在时序上的关系的三个向量,将上述向量接入线性层得到每个单模态的评估结果,并将以上输出分别计算损失,并进行加权求和得到最终损失值;对于各个模态对应的任务的损失值在组合损失函数中的权重,针对组合损失函数设计了动态权重调整方法,如果某个模态对应的任务的损失值下降快,那么新一轮次训练时给该任务分配的权值越小,如果某个模态对应的任务的损失值下降慢,新一轮次训练时给该任务分配的权值越大。
2.根据权利要求1所述的方法,其特征在于,所述帧级-句级自编码器包括Transformer编码单元以及Transformer解码单元;
所述将所述帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量,包括:
将所述帧级别的面部运动单元AU特征向量输入到所述Transformer编码单元进行位置编码计算,得到位置编码向量;
将所述帧级别的面部运动单元AU特征向量与所述位置编码向量进行叠加,得到叠加后的向量;
根据所述叠加后的向量生成查询向量、键向量和值向量,进而得到Transformer编码单元的输出;
将所述Transformer编码单元的输出经过自填充后输入到所述Transformer解码单元进行还原,得到Transformer解码单元的输出;
基于所述Transformer解码单元的输出以及所述帧级别的面部运动单元AU特征向量进行损失计算,进而对权重进行更新,得到训练好的帧级-句级自编码器,输出视频模态的句子级的特征向量。
3.根据权利要求1所述的方法,其特征在于,所述S31中的对所述文本模态的原始数据进行表征,得到文本模态的句子级的特征向量,包括:
基于预训练的词嵌入语言模型ELMo对所述文本模态的原始数据进行特征提取,得到文本模态的句子级的特征向量。
4.根据权利要求1所述的方法,其特征在于,所述模态交互模块包括六个交叉注意力结构;
所述S32中的对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量,包括:
通过所述六个交叉注意力结构,对视频模态的句子级的特征向量、语音模态的句子级的特征向量以及文本模态的句子级的特征向量进行特征融合,得到语音-视频特征向量、文本-视频特征向量、视频-语音特征向量、文本-语音特征向量、视频-文本特征向量以及语音-文本特征向量;
对所述语音-视频特征向量以及文本-视频特征向量进行拼接,得到交互后的视频模态特征向量;
对所述视频-语音特征向量以及文本-语音特征向量进行拼接,得到交互后的语音模态特征向量;
对所述视频-文本特征向量以及语音-文本特征向量进行拼接,得到交互后的文本模态特征向量。
5.根据权利要求1所述的方法,其特征在于,所述S33中的对所述交互后的特征向量进行时域融合,得到融合后的特征向量,包括:
构建基于自注意力机制的双向长短时记忆的神经网络;
通过所述基于自注意力机制的双向长短时记忆的神经网络,对所述交互后的特征向量进行时域融合,得到融合后的特征向量。
6.一种多模态抑郁情绪识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别的多模态原始数据;其中,所述多模态原始数据包括视频模态、语音模态以及文本模态的原始数据;
输入模块,用于将所述多模态原始数据输入到构建好的多模态抑郁情绪识别模型;
输出模块,用于根据所述多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果;
所述多模态抑郁情绪识别模型包括信号表征模块、模态交互模块、时域融合模块、后期融合模块以及动态权重模块;
所述根据所述多模态原始数据以及多模态抑郁情绪识别模型,得到抑郁情绪识别结果,包括:
S31、通过所述信号表征模块,对所述视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,对所述语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,对所述文本模态的原始数据进行表征,得到文本模态的句子级的特征向量;
S32、通过所述模态交互模块,对句子级的特征向量进行不同模态之间的交叉注意力关系捕捉,得到交互后的特征向量;
S33、通过所述时域融合模块,对所述交互后的特征向量进行时域融合,得到融合后的特征向量;
S34、通过所述后期融合模块,对所述融合后的特征向量进行低秩张量运算,得到抑郁情绪识别结果;
S35、通过所述动态权重模块,对所述抑郁情绪识别结果进行优化;
所述S31中的对所述视频模态的原始数据进行表征,得到视频模态的句子级的特征向量,包括:
对所述视频模态的原始数据进行特征提取,得到帧级别的面部运动单元AU特征向量;
将所述帧级别的面部运动单元AU特征向量输入到帧级-句级自编码器进行编码,得到视频模态的句子级的特征向量;
所述S31中的对所述语音模态的原始数据进行表征,得到语音模态的句子级的特征向量,包括:
对所述语音模态的原始数据进行特征提取,得到帧级别的梅尔频率倒谱系数MFCC特征向量;
将所述帧级别的梅尔频率倒谱系数MFCC特征向量输入到帧级-句级自编码器进行编码,得到语音模态的句子级的特征向量;
所述S35中的对所述抑郁情绪识别结果进行优化,包括:
时域融合模块输出表征视频模态特征、语音模态特征以及文本模态特征在时序上的关系的三个向量,将上述向量接入线性层得到每个单模态的评估结果,并将以上输出分别计算损失,并进行加权求和得到最终损失值;对于各个模态对应的任务的损失值在组合损失函数中的权重,针对组合损失函数设计了动态权重调整方法,如果某个模态对应的任务的损失值下降快,那么新一轮次训练时给该任务分配的权值越小,如果某个模态对应的任务的损失值下降慢,新一轮次训练时给该任务分配的权值越大。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211671363.9A CN115641543B (zh) | 2022-12-26 | 2022-12-26 | 一种多模态抑郁情绪识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211671363.9A CN115641543B (zh) | 2022-12-26 | 2022-12-26 | 一种多模态抑郁情绪识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115641543A CN115641543A (zh) | 2023-01-24 |
CN115641543B true CN115641543B (zh) | 2023-03-14 |
Family
ID=84949878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211671363.9A Active CN115641543B (zh) | 2022-12-26 | 2022-12-26 | 一种多模态抑郁情绪识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115641543B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115995116B (zh) * | 2023-03-23 | 2023-06-23 | 苏州复变医疗科技有限公司 | 基于计算机视觉的抑郁状态评估方法、装置、终端及介质 |
CN116308960B (zh) * | 2023-03-27 | 2023-11-21 | 杭州绿城信息技术有限公司 | 基于数据分析的智慧园区物业防控管理系统及其实现方法 |
CN116563751B (zh) * | 2023-04-19 | 2024-02-06 | 湖北工业大学 | 一种基于注意力机制的多模态情感分析方法及系统 |
CN117149944B (zh) * | 2023-08-07 | 2024-04-23 | 北京理工大学珠海学院 | 一种基于宽时间范畴的多模态情境情感识别方法及系统 |
CN116935480B (zh) * | 2023-09-18 | 2023-12-29 | 四川天地宏华导航设备有限公司 | 一种情绪识别方法及装置 |
CN117423168B (zh) * | 2023-12-19 | 2024-04-02 | 湖南三湘银行股份有限公司 | 基于多模态特征融合的用户情绪识别方法及系统 |
CN118245803A (zh) * | 2024-04-12 | 2024-06-25 | 摩尔线程智能科技(北京)有限责任公司 | 情感识别模型的训练方法、情感识别方法、装置、电子设备、存储介质和程序产品 |
CN118427575A (zh) * | 2024-06-27 | 2024-08-02 | 比亚迪股份有限公司 | 车辆用户的情绪识别方法、装置、系统、车辆与介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580617B (zh) * | 2021-03-01 | 2021-06-18 | 中国科学院自动化研究所 | 自然场景下的表情识别方法和装置 |
CN113420807A (zh) * | 2021-06-22 | 2021-09-21 | 哈尔滨理工大学 | 基于多任务学习与注意力机制的多模态融合情感识别系统、方法及实验评价方法 |
CN114091466B (zh) * | 2021-10-13 | 2024-07-26 | 山东师范大学 | 一种基于Transformer和多任务学习的多模态情感分析方法及系统 |
CN114999633A (zh) * | 2022-06-17 | 2022-09-02 | 齐鲁工业大学 | 一种基于多模态共享矢量空间的抑郁识别方法及系统 |
-
2022
- 2022-12-26 CN CN202211671363.9A patent/CN115641543B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115641543A (zh) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115641543B (zh) | 一种多模态抑郁情绪识别方法及装置 | |
US20210295858A1 (en) | Synthesizing speech from text using neural networks | |
Hayashi et al. | Pre-Trained Text Embeddings for Enhanced Text-to-Speech Synthesis. | |
Shahamiri | Speech vision: An end-to-end deep learning-based dysarthric automatic speech recognition system | |
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
CN115662435B (zh) | 一种虚拟教师拟真化语音的生成方法及终端 | |
US20220215267A1 (en) | Processes and methods for enabling artificial general intelligence capable of flexible calculation, prediction, planning and problem solving with arbitrary and unstructured data inputs and outputs | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
Cardona et al. | Online phoneme recognition using multi-layer perceptron networks combined with recurrent non-linear autoregressive neural networks with exogenous inputs | |
CN115171176A (zh) | 对象情绪的分析方法、装置和电子设备 | |
CN114187894A (zh) | 一种意图识别方法、装置及其相关设备 | |
CN113111151A (zh) | 一种基于智能语音问答的跨模态抑郁症检测方法 | |
CN113903347A (zh) | 一种基于机器学习的语音处理方法、装置、设备及介质 | |
CN117672268A (zh) | 基于相对熵对齐融合的多模态语音情感识别方法 | |
KR20210123545A (ko) | 사용자 피드백 기반 대화 서비스 제공 방법 및 장치 | |
CN114898779A (zh) | 融合多模态的语音情感识别方法及系统 | |
Jagadeeshwar et al. | ASERNet: Automatic speech emotion recognition system using MFCC-based LPC approach with deep learning CNN | |
JP7170594B2 (ja) | 同一事象に対して時系列に発生した異なるメディアデータを統合した学習モデルを構築するプログラム、装置及び方法 | |
CN116863920A (zh) | 基于双流自监督网络的语音识别方法、装置、设备及介质 | |
CN115376547B (zh) | 发音评测方法、装置、计算机设备和存储介质 | |
Yang | [Retracted] Design of Service Robot Based on User Emotion Recognition and Environmental Monitoring | |
CN115376484A (zh) | 基于多帧预测的轻量级端到端语音合成系统构建方法 | |
CN114220417A (zh) | 一种意图识别方法、装置及相关设备 | |
CN112951270A (zh) | 语音流利度检测的方法、装置和电子设备 | |
TW200935399A (en) | Chinese-speech phonologic transformation system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |