CN112633364A - 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 - Google Patents
一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 Download PDFInfo
- Publication number
- CN112633364A CN112633364A CN202011518470.9A CN202011518470A CN112633364A CN 112633364 A CN112633364 A CN 112633364A CN 202011518470 A CN202011518470 A CN 202011518470A CN 112633364 A CN112633364 A CN 112633364A
- Authority
- CN
- China
- Prior art keywords
- sequence
- text
- features
- voice
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 32
- 230000007246 mechanism Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000011176 pooling Methods 0.000 claims abstract description 28
- 230000008451 emotion Effects 0.000 claims abstract description 23
- 108091026890 Coding region Proteins 0.000 claims abstract description 11
- 230000002452 interceptive effect Effects 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 13
- 230000014509 gene expression Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 16
- 230000003993 interaction Effects 0.000 abstract description 9
- 230000007774 longterm Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于Transformer‑ESIM注意力机制的多模态情绪识别方法,包括:对原始数据进行预处理,以获得语音序列和文本序列;将预处理后的语音序列和文本序列输入至transformer编码层,以在transformer编码层提取深层特征并进行编码,获得编码序列;将编码序列输入至ESIM的交互注意力层,获得语音序列和文本序列之间的相似特征和差异特征;对相似特征和差异特征进行池化处理;将池化处理后的相似特征和差异特征输入至分类器,获得情绪识别的分类结果。应用本发明实施例,解决了传统神经网络的长期依赖性,其自身顺序属性无法捕获长距离特征以及多模态特征直接融合而忽视的模态间交互的问题,提高模型对情感语义的理解和泛化能力。
Description
技术领域
本发明涉及模式识别与人工智能技术领域,尤其涉及一种基于Transformer-ESIM注意力机制的多模态情绪识别方法。
背景技术
随着人工智能领域的迅速发展以及深度学习的助力,人机交互领域受到越来越多研究学者的重视。而情绪识别作为人机交互中一个重要的分支,也成为了当前的热点研究方向。目前,对情绪识别的研究大多集中在语音、面部表情、文本等单模态领域。语音作为人们交流最直接的手段,其中涵盖了丰富的情绪信息,人们情绪的变化可以通过语音特征体现出来。语音情绪识别正是将输入包含情绪信息的语音信号转化为可读的物理特征,并提取其中与情绪表达相关的语音特征,再构建情绪识别分类器进行测试和训练,最后输出情绪识别分类结果。然而,单一语音模态的情绪识别易受外界因素影响缺失一些情感信息,如噪音、信号强弱等,导致语音情绪识别的效果不够显著。鉴于不同模态间存在互补性,可将文本模态和语音模态进行融合改善单一语音模态情绪识别的缺陷,从而提高情绪识别准确率。
为了利用来自语音信号和文本序列的信息,Jin等人从声学和词汇两个层面生成特征表示,并构建情绪识别系统。Sahay等人提出了一种利用段内模态间相互作用的关系张量网络结构,利用更丰富的语音和文本上下文信息生成文本和语音模态的丰富表示。Akhtar等人提出了一个同时预测话语情绪和情绪表达的语境跨模态注意框架,将注意力集中在对相邻话语和多模态表征的贡献上,有助于网络更好的学习。此外,Gamage等人提出了使用音素序列来编码与情绪表达相关的语言线索,将文本信息与语音特征相结合,从而提高情绪识别的准确率。虽然基于语音和文本的多模态情绪识别方法已取得了不错的成果,然而在传统端到端的神经网络中,由于提取情感信息特征时易受模型固有的顺序特性限制,导致无法获取整个语句序列前后间的相关特征信息。因此,多模态情绪识别的分类准确率仍有待提高。
发明内容
本发明的目的在于提供一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,旨在解决传统循环神经网络在序列特征提取时存在长期依赖性,其自身顺序属性无法捕获长距离特征的问题以及多模态特征直接融合而忽视的模态间交互的问题。
为了实现上述目的,本发明提供一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,包括:
对原始数据进行预处理,以获得语音序列和文本序列,其中,所述原始数据至少包括语音数据和文本数据;
将预处理后的语音序列和文本序列输入至transformer编码层,以在所述transformer编码层提取深层特征并进行编码,获得编码序列;
将所述编码序列输入至ESIM的交互注意力层,获得语音序列和文本序列之间的相似特征和差异特征;
对所述相似特征和所述差异特征进行池化处理;
将池化处理后的相似特征和差异特征输入至分类器,获得情绪识别的分类结果。
一种实现方式中,所述将预处理后的语音序列和文本序列输入至transformer编码层,以在所述transformer编码层提取深层特征并进行编码,获得编码序列的步骤包括:
使用transformer编码层对预处理后的语音序列和文本序列进行并行化特征处理;
基于所述特征化的处理结果进行深层情感语义编码,获得编码序列。
可选的,所述将所述编码序列输入至ESIM的交互注意力层,获得语音序列和文本序列数据之间的相似特征和差异特征的步骤包括:
根据语音序列和文本序列的相似度矩阵,提取文本词中的相似信息和语音帧的相似信息;
基于所述文本词中的相似信息和所述语音帧的相似信息,计算语音序列和文本序列之间的差异特征。
一种实现方式中,所述计算语音序列与文本序列之间的相似度矩阵所采用的具体公式为:
其中,其中,i表示语音序列中的第i个标记,j表示文本序列中的第j个标记,和分别表示编码后的语音帧和文本词;eij表示语音的第i帧和文本的第j个词的相似度矩阵,表示中每个词与的相似信息,表示中每个帧与的相似信息,la,lb分别代表语音帧和文本句的长度。
可选的,所述语音序列和所述文本序列之间的差异特征的表达式为:
其中,ma表示增强后语音信息,mb表示增强后文本的信息。
一种实现方式中,所述对所述相似特征和所述差异特征进行池化处理的步骤包括:
对增强后的语音信息和文本信息进行池化;
对所述语音序列和所述文本序列进行平均池化和最大池化操作;
将池化操作后的结果放入定长向量中。
应用本发明实施例提供的一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,具备的有益效果如下:
(1)在对语音和文本特征进行特征提取时,借助transformer编码层的多头注意力机制,可以解决传统神经网络的长期依赖性,其自身顺序属性无法捕获长距离特征等问题,同时缩短了提取时间。
(2)考虑到语音和文本模态间的交互作用,设计了基于ESIM的交互注意力机制获取语音和文本的相似特征,实现语音和文本模态在时域上的对齐,解决了多模态特征直接融合而忽视的模态间交互问题,提高了模型对情感语义的理解和泛化能力。
附图说明
图1是本发明实施例一种基于Transformer-ESIM注意力机制的多模态情绪识别方法的流程示意图。
图2是本发明实施例多模态情绪识别模型整体框架图。
图3是本发明实施例transformer编码器结构图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
请参阅图1-3。需要说明的是,本实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
如图1本发明提供一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,包括:
S110,对原始数据进行预处理,以获得语音序列和文本序列,其中,所述原始数据至少包括语音数据和文本数据;
需要说明的是,对于语音原始数据,由于语音情感信号中的“happy”和“excited”以及“frustration”和“sad”的频谱图接近,因此将“excited”归类到“happy”标签中,“frustration”归类到“sad”标签中,并忽略“others”标签。最后只保留“happy”“sad”“neutral”“anger”四类情感标签,作为情绪识别的分类类别。对于文本原始数据,首先对文本中的一些没有情感意义的符号文本进行预处理,去掉与情感无关的标点符号,其次对文本中的单词进行嵌入操作,将单词转换成固定长度的向量以便后续方便进行特征提取。
S120,将预处理后的语音序列和文本序列输入至transformer编码层,以在所述transformer编码层提取深层特征并进行编码,获得编码序列;
可以理解的是,由于传统神经网络RNN、CNN、LSTM、Bi-LSTM等存在长期依赖性问题,以及其自身固有顺序属性而导致无法捕获长距离特征的问题,都会导致情绪识别的分类结果准确率不高,因此本发明设计了transformer编码层对语音序列和文本序列进行编码,通过transformer编码层中的多头注意力机制对序列进行并行化提取特征,可以有效消除序列距离的限制,缩短了特征提取时间,充分提取序列内的情感语义信息,从而对语音序列和文本序列进行深层情感语义编码,解决了序列距离的限制。
具体的,transformer编码层结构如图2所示,主要由多头自注意力机制层和前馈神经网络层构成,多头自注意力机制层可使用多个查询向量并行地计算输入信息中的多个情感信息,每个自注意力对输入情感信息的关注点不同,因此会获取不同的情感特征信息,最后再将这些自注意力头进行拼接,需要说明的是多头注意力机制的本质是多个独立的自注意力机制的计算,最后拼接是作为一个集成的作用,也从一定程度防止过拟合。
参见图2,需要进一步说明的是,首先是对数据进行预处理对于语音数据调用TensorFlow里的python_speech_feature库进行预处理,将语音转化为300*200的特征矩阵,对于本文数据先对单词做预处理,将每个单词映射到一个唯一的索引,再将文本从单词的序列转换为索引的序列,每一单词转换为200维度的向量,文本字符长度设置为固定值,当长度不一致时进行截断和pad操作;然后得到的特征矩阵传输到transformer编码层进行编码获取更深层的情绪特征(此层主要是一个多头注意力机制的过程,原理如图3),再通过交互注意力层计算得到语音和文本的相似特征以及差异特征,然后对特征进行平均池化和最大池化,将两种池化结果拼接并通过全连接层和softmax激活函数进行情绪分类识别。
主要的改进点在于将transformer的多头注意力机制与ESIM的交互注意力机制结合起来获得了语音和文本更深层的特征以及两者直接的相似特征,从而使得情绪识别准确率提高。
多头自注意力机制的计算如下:
Multihead(Q,K,V)=Concat(head1,...,headh)Wo
其中,Q,K,V分别代表编码器的输入向量生成的查询向量、键向量和值向量,分别为Q,K,V线性变换后的权重矩阵,表示多头自注意力机制的权重矩阵,h表示自注意力头的个数,Concat操作为将h个自注意力头进行拼接。
进一步的,通过前馈神经网络得到句子的特征向量,该步骤是是为了更好的提取特征,因为前面多头自注意力层中的输入和输出是存在依赖关系的,但在前馈层没有依赖,因此通过前馈神经网络并行计算将结果输入到下一层,前馈神经网络层计算如公式所示。在前馈神经网络层中输入和输出之间是不存在依赖关系的。前馈神经网络层的计算公式如下:
FFN(x)=max(0,ZW1+b1)W2+b2
其中,W1,W2为前馈层的权重矩阵,b1,b2为前馈层的偏置。
S130,将所述编码序列输入至ESIM的交互注意力层,获得语音序列和文本序列之间的相似特征和差异特征;
可以理解的是,本发明通过ESIM的交互注意力机制来处理语音序列和文本序列,通过ESIM的交互注意力层计算出语音序列和文本序列之间的相似特征,并进一步获取语音序列和文本之间的差异特征,实现语音和文本模态在时域上的对齐,解决了多模态特征直接融合而忽视的模态间交互问题,提高模型对情感语义的理解和泛化能力。ESIM交互注意力层具体的工作步骤如下:
计算语音与文本特征之间的相似度矩阵:
其中,i和j分别表示语音序列中的第i个标记以及文本序列中的第j个标记,eij表示语音的第i帧和文本的第j个词的相似度矩阵,本模型使用点积的方式,直接求解语音和文本的相似度矩阵,如公式所示。表示中每个词与的相似信息,表示中每帧与的相似信息,la和lb分别代表语音帧和文本句的长度。
其中,ma,mb表示语音和文本增强后的信息。
S140,对所述相似特征和所述差异特征进行池化处理;
需要说明的是,对增强后的语音序列和文本序列进行池化,是为了提高模型的鲁棒性,同时对语音序列和文本序列进行平均池化和最大池化操作,最后再把结果放入一个定长向量中。
v=[va,ave;va,max;vb,ave;vb,max]
其中,va,ave,va,max为语音的平均池化向量和最大池化向量,vb,ave,vb,max为文本的平均池化向量和最大池化向量。
S150,将池化处理后的相似特征和差异特征输入至分类器,获得情绪识别的分类结果。
可以理解的是,本发明采用两层全连接层和SoftMax分类器作为四种情绪识别的分类层,如图3所示,若采用单一的全连接层往往会存在非线性问题,故本发明采用两个全连接FC1和FC2以解决可能存在的非线性问题,全连接层中选用线性的ReLU函数作为激活函数,可以有效避免梯度爆炸的问题。最后使用SoftMax函数进行最终的情绪分类预测,通过SoftMax函数为每个输出情绪的类别都赋予一个概率值,表示出每个类别输出的可能性。
其中,ezi表示第i个节点的输出值,C表示情绪类别的个数。
参见图3,需要进一步说明的是,transformer编码器首先是进行多头注意力机制,当输入一个语音/文本序列进去,首先经过线性变化生成Q、K、V三个权重向量,为所有输入共享。然后进行分头操作,对每个头进行自注意力机制操作,再将完成自注意力机制的每个头进行拼接,经过层归一化再输入到前馈神经网络,因为前面多头自注意力层中的输入和输出是存在依赖关系的,但在前馈层没有依赖,因此通过前馈神经网络并行计算将结果输入到下一层,可以更好的提取情感特征。
需要说明的是,在模型的训练过程中,本发明选取交叉熵作为损失函数,交叉熵表示出模型实际预测类别的概率与期望模型预测类别的概率间的差距,交叉熵的值越小,两个类别预测概率分布就越接近。损失函数的计算公式如下:
其中,yi为期望模型预测类别的概率,si为模型实际预测类别的概率。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (6)
1.一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,其特征在于,包括:
对原始数据进行预处理,以获得语音序列和文本序列,其中,所述原始数据至少包括语音数据和文本数据;
将预处理后的语音序列和文本序列输入至transformer编码层,以在所述transformer编码层提取深层特征并进行编码,获得编码序列;
将所述编码序列输入至ESIM的交互注意力层,获得语音序列和文本序列之间的相似特征和差异特征;
对所述相似特征和所述差异特征进行池化处理;
将池化处理后的相似特征和差异特征输入至分类器,获得情绪识别的分类结果。
2.根据权利要求1所述的一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,其特征在于,所述将预处理后的语音序列和文本序列输入至transformer编码层,以在所述transformer编码层提取深层特征并进行编码,获得编码序列的步骤包括:
使用transformer编码层对预处理后的语音序列和文本序列进行并行化特征处理;
基于所述特征化的处理结果进行深层情感语义编码,获得编码序列。
3.根据权利要求1所述的一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,其特征在于,所述将所述编码序列输入至ESIM的交互注意力层,获得语音序列和文本序列数据之间的相似特征和差异特征的步骤包括:
根据语音序列和文本序列的相似度矩阵,提取文本词中的相似信息和语音帧的相似信息;
基于所述文本词中的相似信息和所述语音帧的相似信息,计算语音序列和文本序列之间的差异特征。
6.根据权利要求5所述的一种基于Transformer-ESIM注意力机制的多模态情绪识别方法,其特征在于,所述对所述相似特征和所述差异特征进行池化处理的步骤包括:
对增强后的语音信息和文本信息进行池化;
对所述语音序列和所述文本序列进行平均池化和最大池化操作;
将池化操作后的结果放入定长向量中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011518470.9A CN112633364B (zh) | 2020-12-21 | 2020-12-21 | 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011518470.9A CN112633364B (zh) | 2020-12-21 | 2020-12-21 | 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112633364A true CN112633364A (zh) | 2021-04-09 |
CN112633364B CN112633364B (zh) | 2024-04-05 |
Family
ID=75320745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011518470.9A Active CN112633364B (zh) | 2020-12-21 | 2020-12-21 | 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633364B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113257280A (zh) * | 2021-06-07 | 2021-08-13 | 苏州大学 | 基于wav2vec的语音情感识别方法 |
CN113303796A (zh) * | 2021-04-22 | 2021-08-27 | 华中科技大学同济医学院附属协和医院 | 一种肿瘤患者心理自动测试仪及其测试方法 |
CN113627196A (zh) * | 2021-07-21 | 2021-11-09 | 前海企保科技(深圳)有限公司 | 一种基于语境和Transformer的多语言对话机器人系统及其对话方法 |
CN113722477A (zh) * | 2021-08-09 | 2021-11-30 | 北京智慧星光信息技术有限公司 | 基于多任务学习的网民情绪识别方法、系统及电子设备 |
CN113729711A (zh) * | 2021-09-30 | 2021-12-03 | 深圳航天科技创新研究院 | 脑电信号分析方法、装置、设备及存储介质 |
CN113761935A (zh) * | 2021-08-04 | 2021-12-07 | 厦门快商通科技股份有限公司 | 一种短文本语义相似度度量方法、系统及装置 |
CN113822192A (zh) * | 2021-09-18 | 2021-12-21 | 山东大学 | 一种基于Transformer的多模态特征融合的在押人员情感识别方法、设备及介质 |
CN114386515A (zh) * | 2022-01-13 | 2022-04-22 | 合肥工业大学 | 基于Transformer算法的单模态标签生成和多模态情感判别方法 |
CN114398961A (zh) * | 2021-12-28 | 2022-04-26 | 西南交通大学 | 一种基于多模态深度特征融合的视觉问答方法及其模型 |
CN115496113A (zh) * | 2022-11-17 | 2022-12-20 | 深圳市中大信通科技有限公司 | 一种基于智能算法的情绪行为分析方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
WO2020190054A1 (ko) * | 2019-03-19 | 2020-09-24 | 휴멜로 주식회사 | 음성 합성 장치 및 그 방법 |
CN111753549A (zh) * | 2020-05-22 | 2020-10-09 | 江苏大学 | 一种基于注意力机制的多模态情感特征学习、识别方法 |
CN111931795A (zh) * | 2020-09-25 | 2020-11-13 | 湖南大学 | 基于子空间稀疏特征融合的多模态情感识别方法及系统 |
-
2020
- 2020-12-21 CN CN202011518470.9A patent/CN112633364B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
WO2020190054A1 (ko) * | 2019-03-19 | 2020-09-24 | 휴멜로 주식회사 | 음성 합성 장치 및 그 방법 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN111753549A (zh) * | 2020-05-22 | 2020-10-09 | 江苏大学 | 一种基于注意力机制的多模态情感特征学习、识别方法 |
CN111931795A (zh) * | 2020-09-25 | 2020-11-13 | 湖南大学 | 基于子空间稀疏特征融合的多模态情感识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
王家乾;龚子寒;薛云;庞士冠;古东宏;: "基于混合多头注意力和胶囊网络的特定目标情感分析", 中文信息学报, no. 05 * |
邹纪云;许云峰;: "基于辅助模态监督训练的情绪识别神经网络", 河北科技大学学报, no. 05 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113303796A (zh) * | 2021-04-22 | 2021-08-27 | 华中科技大学同济医学院附属协和医院 | 一种肿瘤患者心理自动测试仪及其测试方法 |
CN113257280A (zh) * | 2021-06-07 | 2021-08-13 | 苏州大学 | 基于wav2vec的语音情感识别方法 |
CN113627196A (zh) * | 2021-07-21 | 2021-11-09 | 前海企保科技(深圳)有限公司 | 一种基于语境和Transformer的多语言对话机器人系统及其对话方法 |
CN113761935A (zh) * | 2021-08-04 | 2021-12-07 | 厦门快商通科技股份有限公司 | 一种短文本语义相似度度量方法、系统及装置 |
CN113761935B (zh) * | 2021-08-04 | 2024-02-27 | 厦门快商通科技股份有限公司 | 一种短文本语义相似度度量方法、系统及装置 |
CN113722477A (zh) * | 2021-08-09 | 2021-11-30 | 北京智慧星光信息技术有限公司 | 基于多任务学习的网民情绪识别方法、系统及电子设备 |
CN113722477B (zh) * | 2021-08-09 | 2023-09-19 | 北京智慧星光信息技术有限公司 | 基于多任务学习的网民情绪识别方法、系统及电子设备 |
CN113822192B (zh) * | 2021-09-18 | 2023-06-30 | 山东大学 | 一种基于Transformer的多模态特征融合的在押人员情感识别方法、设备及介质 |
CN113822192A (zh) * | 2021-09-18 | 2021-12-21 | 山东大学 | 一种基于Transformer的多模态特征融合的在押人员情感识别方法、设备及介质 |
CN113729711A (zh) * | 2021-09-30 | 2021-12-03 | 深圳航天科技创新研究院 | 脑电信号分析方法、装置、设备及存储介质 |
CN113729711B (zh) * | 2021-09-30 | 2023-10-13 | 深圳航天科技创新研究院 | 脑电信号分析方法、装置、设备及存储介质 |
CN114398961B (zh) * | 2021-12-28 | 2023-05-05 | 西南交通大学 | 一种基于多模态深度特征融合的视觉问答方法及其模型 |
CN114398961A (zh) * | 2021-12-28 | 2022-04-26 | 西南交通大学 | 一种基于多模态深度特征融合的视觉问答方法及其模型 |
CN114386515B (zh) * | 2022-01-13 | 2024-02-20 | 合肥工业大学 | 基于Transformer算法的单模态标签生成和多模态情感判别方法 |
CN114386515A (zh) * | 2022-01-13 | 2022-04-22 | 合肥工业大学 | 基于Transformer算法的单模态标签生成和多模态情感判别方法 |
CN115496113A (zh) * | 2022-11-17 | 2022-12-20 | 深圳市中大信通科技有限公司 | 一种基于智能算法的情绪行为分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112633364B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112633364B (zh) | 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 | |
CN112560503B (zh) | 融合深度特征和时序模型的语义情感分析方法 | |
CN113297364B (zh) | 一种面向对话系统中的自然语言理解方法及装置 | |
CN111767718B (zh) | 一种基于弱化语法错误特征表示的中文语法错误更正方法 | |
CN114998670B (zh) | 多模态信息预训练方法及系统 | |
CN115964467A (zh) | 一种融合视觉情境的富语义对话生成方法 | |
CN115292463B (zh) | 一种基于信息抽取的联合多意图检测和重叠槽填充的方法 | |
CN113065344A (zh) | 一种基于迁移学习和注意力机制的跨语料库情感识别方法 | |
CN115292461B (zh) | 基于语音识别的人机交互学习方法及系统 | |
CN113792177A (zh) | 基于知识引导深度注意力网络的场景文字视觉问答方法 | |
CN111914556A (zh) | 基于情感语义转移图谱的情感引导方法及系统 | |
CN115879473A (zh) | 基于改进图注意力网络的中文医疗命名实体识别方法 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN113609922A (zh) | 基于模态匹配的连续手语语句识别方法 | |
CN114443813A (zh) | 一种智能化的在线教学资源知识点概念实体链接方法 | |
CN115599894A (zh) | 情绪识别的方法、装置、电子设备及存储介质 | |
CN116522165A (zh) | 一种基于孪生结构的舆情文本匹配系统及方法 | |
CN115240712A (zh) | 一种基于多模态的情感分类方法、装置、设备及存储介质 | |
CN115169363A (zh) | 一种融合知识的增量编码的对话情感识别方法 | |
CN114842533A (zh) | 一种基于量子启发的多任务多模态微表情识别系统 | |
CN114446324A (zh) | 一种基于声学和文本特征的多模态情感识别方法 | |
CN114282537A (zh) | 一种面向社交文本的级联直线型实体关系抽取方法 | |
CN113806506B (zh) | 一种面向常识推理的生成式人机对话回复生成方法 | |
CN117688936B (zh) | 一种图文融合的低秩多模态融合情感分析方法 | |
CN114330328B (zh) | 基于Transformer-CRF的藏文分词方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |