CN112948554B - 基于强化学习和领域知识的实时多模态对话情感分析方法 - Google Patents
基于强化学习和领域知识的实时多模态对话情感分析方法 Download PDFInfo
- Publication number
- CN112948554B CN112948554B CN202110222049.1A CN202110222049A CN112948554B CN 112948554 B CN112948554 B CN 112948554B CN 202110222049 A CN202110222049 A CN 202110222049A CN 112948554 B CN112948554 B CN 112948554B
- Authority
- CN
- China
- Prior art keywords
- layer
- dialogue
- information
- emotion
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 72
- 238000004458 analytical method Methods 0.000 title claims abstract description 41
- 230000002787 reinforcement Effects 0.000 title claims abstract description 32
- 238000005070 sampling Methods 0.000 claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 claims abstract description 40
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000009514 concussion Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013105 post hoc analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于强化学习和领域知识的实时多模态对话情感分析方法,属于用户情感倾向分析技术领域。针对实时多模态情感分析无法获得目标之后相关信息的特点,通过强化学习和循环神经网络相结合,设计了新的模型和网络结构,对目标及目标前采样时间段之内的多模态信息进行充分提取、融合和分析,并通过与领域知识相结合,进一步提高识别效率和精度。
Description
技术领域
本发明属于用户情感倾向分析技术领域,具体涉及一种基于强化学习和领域知识的实时多模态对话情感分析模型和方法。
背景技术
用户多模态情感分析是近年来十分热门的一个研究领域,具有广泛的发展潜力和应用前景,例如:自动驾驶系统司机疲劳驾驶监测,机场对于人群中危险分子安全保障监控,医疗领域的自闭症陪护和监测,智能家居领域中独居老人小孩的陪护、报警和监测等。现有多模态情感分析技术中,用于分析的模态根据不同的研究方向而多种多样,其中主要有以下四种:视觉信号,声音信号,文字信息和脑电信号。其中,脑电信号具有相对最高的准确率,但必须配套相应的专用信号采集传感器设备,导致在日常生活领域难以方便地大范围普及。因此,视觉、声音和文字是最常见的多模态用户情感分析研究的输入模态。使用这三种模态的现有相关技术中,主要分为两种,一种是逐句或逐段为对象进行分析,即不考虑上下文信息的情感分析;另一种则是考虑上下文信息,即在考虑全部对话内容的基础上,对某个时间点的用户情感做出判断。前一种技术具有很强的实时性,但由于不考虑上下文信息,不具有很好的准确度,而后一种识别准确度较前一种有很大的提升,但却在实际应用中不具有实时性功能,失去了实时监测的能力。
循环神经网络是近年来人工智能机器学习领域中非常热门的研究方向,而同样作为机器学习的范式和方法论之一的强化学习,通过近年来不断地与循环神经网络相结合,不仅算法设计更加灵活,应用领域也获得了极大的拓展。相应地,不同的应用领域对应着不同的领域知识,领域知识是所研究问题的常识性规范和指导,能够在一定程度上优化算法得出的结果,例如过滤掉违背常识或实际情况的因果关系,增大更可能发生的事件被选择的概率等。通过与强化学习和领域知识相结合,循环神经网络在图像处理、文本分析、语音识别等方向都取得了突破性的进展,且具有训练时间短,训练参数少和设计简洁的特点。
刘启元,张栋(《基于上下文增强LSTM的多模态情感分析》.计算机科学,2019,046(011):181-185)为了获取单模态内部的信息以及多模态之间的交互信息来进行多模态情感分析,文中提出了一种基于上下文增强LSTM的多模态情感分析方法。LSTM是循环神经网络的一种,对于多模态的每种表达,他们结合上下文特征,分别使用LSTM进行编码,再分别捕捉单模态内部的信息;接着融合这些单模态的独立信息,再使用LSTM获得多模态间的交互信息,从而形成多模态特征表示;最后采用最大池化策略,对多模态进行降维,从而构建情感分类器。该算法在公共数据集上取得了很好识别准确率,并大大提升了训练速度。但该多模态情感分析模型使用了与识别目标相关的所有上下文信息作为输入,属于事后分析,而无法具有实时情感分析的能力。
发明内容
要解决的技术问题
已有的多模态情感分析模型是针对所分析目标的事后分析,不仅需要目标之前的信息,也需要提取目标之后的信息,不符合实时多模态对话情感分析的需要和实际情况。针对现有技术的不能实时分析的不足之处,本发明提出一种基于强化学习和领域知识的实时多模态对话情感分析模型和方法。
技术方案
一种用于情感分析的基于循环神经网络的强化学习模型,其特征在于包括12层,第一层为输入层,中间10层为隐含层,包括2层循环神经网络层,2层归一化层,1层激活层和5层全连接层,最后一层为输出层;输入为当前对话采样段内的图像、文字和语音三模态信息,首先分别进行单模态的特征处理;图像特征处理层、文字特征处理层和语音特征处理层均各自包含一层归一化层,一层循环神经网络层和一层全连接层;之后三模态通过一层归一化层,一层循环神经网络层,一层激活层和1层全连接层进行融合,最后连接三层全连接层输出结果;网络输出为采样段最后一句对话信息在情感类型里的概率值。
本发明技术方案更进一步的说:所述的情感类型包括6种:快乐、兴奋、沮丧、悲伤、愤怒和中性。
本发明技术方案更进一步的说:所述的采样段包括4句连续的对话。
一种基于强化学习和领域知识的实时多模态对话情感分析方法,其特征在于步骤如下:
步骤1:获取多模态对话信息数据库,依据数据库生成对话情感领域知识;
步骤2:搭建权利要求1所述的基于循环神经网络的强化学习模型,并训练该模型;
步骤3:实时采集多模态对话信息,按照对话发生时间顺序依次进行采样,使用步骤2中训练好的基于循环神经网络的强化学习模型进行实时对话情感分析,输出情感类型分别出现的概率值,再根据领域知识对识别结果进行修正,得到最后的分类结果。
本发明技术方案更进一步的说:步骤2中实时多模态对话情感分析模型的搭建具体如下:
1)将输入多模态信息表示为:
s(t)=[V(t),T(t),A(t)]
t为当前采样时刻,s(t)为当前采样时刻状态信息,V(t)为当前采样时刻内的图像信息,T(t)为当前采样时刻内的文字信息,A(t)为当前采样时刻内的语音信息;
2)在多模态对话信息数据库上对模型进行训练,对于采样时刻t的多模态信息,计算其经过归一化层,循环神经网络层,激活层和全连接层后得到输出层的结果,公式为:
action(t)=Q(s(t))
其中Q为构建基于循环神经网络的强化学习算法模型,action(t)为模型输出的当前采样时刻的情感类型识别结果,根据输出结果计算奖励函数R;
其中label(t)为真实情感类型;之后,计算期望值和估计值的差值得到整个网络的损失函数;其中期望值eval计算公式为:
eval=Q(s(t+1))
估计值epet的计算公式为:
从而得到损失函数loss:
loss=E[epet-eval]
其中,E为epet-eval的期望。
本发明技术方案更进一步的说:步骤2中采用梯度下降和反向传播算法训练基于循环神经网络的强化学习模型。
有益效果
本发明提出的一种基于强化学习和领域知识的实时多模态对话情感分析模型,与已有的多模态对话情感分析模型相比,本发明的模型注重对话情感分析的实时性,通过按照对话发生顺序进行采样,分割为包含目标相关信息的连贯情感状态,采用循环神经网络对多模态信息进行处理和融合,参考领域知识对识别结果进行筛选和修正,从而实现实时对话情感分析。
本发明中的强化学习和循环神经网络、领域知识相结合的新型多模态情感分析模型能够实现对话过程中的实时情感分析,保证实时性的同时兼顾与目标语句相关的多模态信息和领域知识,提升识别准确率。
本发明提出的一种基于强化学习和领域知识的实时多模态对话情感分析方法,针对实时多模态情感分析无法获得目标之后相关信息的特点,通过强化学习和循环神经网络相结合,设计了新的模型和网络结构,对目标及目标前采样时间段之内的多模态信息进行充分提取、融合和分析,并通过与领域知识相结合,进一步提高识别效率和精度。
附图说明
图1是基于强化学习和领域知识的实时多模态对话情感分析模型结构图;
图2是本发明方法流程图;
图3是本发明测试结果图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
为了实现实时快速的多模态对话情感分析,本发明提出了一种强化学习和循环神经网络、领域知识相结合的新型多模态情感分析模型,采用竞争网络结构作为强化学习的迭代训练算法,循环神经网络作为网络模型,以通用公共对话数据集为基础,统计6种基本情感类型(快乐,兴奋,沮丧,悲伤,愤怒和中性)在采样长度为4句的相关性大小,对模型的输出结果进行修正。
在多模态对话中,对话中每4句为一个采样段,即采样长度为4,按照对话的发生顺序依次采样,步长为1。同时,每个采样段中的多模态对话信息(图像,文字和语音)作为强化学习算法环境中的一个状态,采样段中的第4句为需要进行多模态情感分析的目标信息,前3句为第4句提供所需的关联信息作为参考,这些信息作为循环神经网络的输入参数,经过循环神经网络计算和识别,得到目标语句在6种备选情感类型中的可能性大小,最后经过领域知识归一化和修正,输出最终概率值排序,概率最大的情感类型作为判断出的目标信息的情感类型,即视作基于当前状态下所选择的行为,将判断出的行为与真实情感类型进行对比,获得奖励函数。最后,通过这个行为完成状态转移,所对应的下一个状态即为当前对话中的下一个采样段中所包含的多模态对话信息,直至当前对话结束,完成识别。
如图1所示,本发明中,基于循环神经网络强化学习算法结构共12层,输入层和输出层,中间10层为隐含层,包括2层循环神经网络层,2层归一化层,1层激活层和5层全连接层。神经网络输入为当前对话采样段内的图像、文字和语音三模态信息,首先分别进行单模态的特征处理。图像特征处理层、文字特征处理层和语音特征处理层均各自包含一层归一化层,一层循环神经网络层和一层全连接层。之后三模态通过一层归一化层,一层循环神经网络层,一层激活层和1层全连接层进行融合,最后连接三层全连接层输出结果。网络输出为采样段最后一句对话信息在6种情感类型里可能的概率值,即Q表。最后,结合当前对话对应的领域知识对计算出的概率值进行修正,得到修正后的Q表,选择概率最大的情感类型作为识别结果。
如图2所示,本发明一种强化学习和领域知识的实时多模态对话情感分析方法,具体实施方式包括以下步骤:
步骤一、获取多模态对话信息数据库和统计对话情感领域知识。具体是:构建具有良好多样性的多模态对话数据库,需要具有谈话人性别比例平均,谈话内容和情感类型分布大致均匀等特点。确定数据库后,以完整对话为单位,以对话发生为顺序依次完成采样,构成样本库,并以采样长度为单位,以前三句话的对应三个情感类型为基础,计算六种情感类型在不同的基础下出现的概率,生成对话情感分析的领域知识K。
步骤二、搭建基于循环神经网络的强化学习算法模型,并采用梯度下降和反向传播算法训练该模型,具体过程如下:
(1)依照图1构建基于循环神经网络的强化学习算法模型,用随机数初始化所有的参数及权重。将输入多模态信息表示为:
s(t)=[V(t),T(t),A(t)]
t为当前采样时刻,s(t)为当前采样时刻状态信息,V(t)为当前采样时刻内的图像信息,T(t)为当前采样时刻内的文字信息,A(t)为当前采样时刻内的语音信息。
(2)在多模态对话信息数据库上对模型进行训练,对于采样时刻t的多模态信息,计算其经过归一化层,循环神经网络层,激活层和全连接层后得到输出层的结果,公式为:
action(t)=Q(s(t))
其中Q为依照图1构建基于循环神经网络的强化学习算法模型,action(t)为模型输出的当前采样时刻的情感类型识别结果,根据输出结果计算奖励函数R。
其中label(t)为真实情感类型。之后,计算期望值和估计值的差值得到整个网络的损失函数。其中期望值eval计算公式为:
eval=Q(s(t+1))
估计值epet的计算公式为:
从而得到损失函数loss:
loss=E[epet-eval]
其中,E为epet-eval的期望。
通过反向传播损失函数loss,完成对模型的训练。
步骤三、采用数据集中未被训练过的对话作为测试实例,使用基于循环神经网络的强化学习模型进行实时对话情感分析,输出为六种情感类型分别出现的概率值,再根据领域知识对识别结果进行修正,修正方法为输出的概率值与对应的领域知识相加,得到最后的分类结果,得到最后的分类结果。具体过程如下:
(1)以对话为单位,按照对话发生时间顺序依次进行采样,并通过基于循环神经网络的强化学习模型进行识别;
(2)对识别结果进行归一化,并使用领域知识进行修正,得到最终识别结果。
如图3所示,图中,黑色实线为本发明的方法测试结果,其余虚线为其他现有方法的测试结果。图中横坐标为对话长度,以一位说话人说的完整一句话为一个单位,随着对话的进行,对话长度不断增加,根据所测试的数据库,对话最大长度为50,即对话最长为说话人交替进行了50次。图中纵坐标为识别精准确率,范围是[0,1]。从图中可见,首先,只有本发明方法可以随着对话的进行动态实时识别用户的情感倾向,而其余方法则不具有这样的能力;其次,本发明方法的测试结果在对话长度小于等于35前,整体高于现有方法的识别准确率,长度大于35之后,由于数据库中对话长度大于35的可测试对话大幅减少,因此出现了结果的震荡,但平均准确度仍然高于现有方法,说明了本发明方法的有效性。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明公开的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
Claims (1)
1.一种基于强化学习和领域知识的实时多模态对话情感分析方法,其特征在于,采用的模型包括12层,第一层为输入层,中间10层为隐含层,包括2层循环神经网络层,2层归一化层,1层激活层和5层全连接层,最后一层为输出层;输入为当前对话采样段内的图像、文字和语音三模态信息,首先分别进行单模态的特征处理;图像特征处理层、文字特征处理层和语音特征处理层均各自包含一层归一化层,一层循环神经网络层和一层全连接层;之后三模态通过一层归一化层,一层循环神经网络层,一层激活层和1层全连接层进行融合,最后连接三层全连接层输出结果;网络输出为采样段最后一句对话信息在情感类型里的概率值;所述的情感类型包括6种:快乐、兴奋、沮丧、悲伤、愤怒和中性;所述的采样段包括4句连续的对话;步骤如下:
步骤1:获取多模态对话信息数据库,依据数据库生成对话情感领域知识;
步骤2:搭建基于循环神经网络的强化学习模型,并训练该模型;
1)将输入多模态信息表示为:
s(t)=[V(t),T(t),A(t)]
t为当前采样时刻,s(t)为当前采样时刻状态信息,V(t)为当前采样时刻内的图像信息,T(t)为当前采样时刻内的文字信息,A(t)为当前采样时刻内的语音信息;
2)在多模态对话信息数据库上对模型进行训练,对于采样时刻t的多模态信息,计算其经过归一化层,循环神经网络层,激活层和全连接层后得到输出层的结果,公式为:
action(t)=Q(s(t))
其中Q为构建基于循环神经网络的强化学习算法模型,action(t)为模型输出的当前采样时刻的情感类型识别结果,根据输出结果计算奖励函数R;
其中label(t)为真实情感类型;之后,计算期望值和估计值的差值得到整个网络的损失函数;其中期望值eval计算公式为:
eval=Q(s(t+1))
估计值epet的计算公式为:
从而得到损失函数loss:
loss=Ε[epet-eval]
其中,Ε为epet-eval的期望;
采用梯度下降和反向传播算法训练基于循环神经网络的强化学习模型;
步骤3:实时采集多模态对话信息,按照对话发生时间顺序依次进行采样,使用步骤2中训练好的基于循环神经网络的强化学习模型进行实时对话情感分析,输出情感类型分别出现的概率值,再根据领域知识对识别结果进行修正,得到最后的分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110222049.1A CN112948554B (zh) | 2021-02-28 | 2021-02-28 | 基于强化学习和领域知识的实时多模态对话情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110222049.1A CN112948554B (zh) | 2021-02-28 | 2021-02-28 | 基于强化学习和领域知识的实时多模态对话情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112948554A CN112948554A (zh) | 2021-06-11 |
CN112948554B true CN112948554B (zh) | 2024-03-08 |
Family
ID=76246708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110222049.1A Active CN112948554B (zh) | 2021-02-28 | 2021-02-28 | 基于强化学习和领域知识的实时多模态对话情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112948554B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592001B (zh) * | 2021-08-03 | 2024-02-02 | 西北工业大学 | 一种基于深度典型相关性分析的多模态情感识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106844442A (zh) * | 2016-12-16 | 2017-06-13 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于fcn特征提取的多模态循环神经网络图像描述方法 |
CN108764268A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 一种基于深度学习的图文多模态情感识别方法 |
CN108804611A (zh) * | 2018-05-30 | 2018-11-13 | 浙江大学 | 一种基于自我评论序列学习的对话回复生成方法及系统 |
CN110610138A (zh) * | 2019-08-22 | 2019-12-24 | 西安理工大学 | 一种基于卷积神经网络的面部情感分析方法 |
WO2020173133A1 (zh) * | 2019-02-27 | 2020-09-03 | 平安科技(深圳)有限公司 | 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质 |
CN112163169A (zh) * | 2020-09-29 | 2021-01-01 | 海南大学 | 基于知识图谱的多模态用户情感分析方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3652678A1 (en) * | 2017-07-11 | 2020-05-20 | Koninklijke Philips N.V. | Multi-modal dialogue agent |
-
2021
- 2021-02-28 CN CN202110222049.1A patent/CN112948554B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106844442A (zh) * | 2016-12-16 | 2017-06-13 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于fcn特征提取的多模态循环神经网络图像描述方法 |
CN108764268A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 一种基于深度学习的图文多模态情感识别方法 |
CN108804611A (zh) * | 2018-05-30 | 2018-11-13 | 浙江大学 | 一种基于自我评论序列学习的对话回复生成方法及系统 |
WO2020173133A1 (zh) * | 2019-02-27 | 2020-09-03 | 平安科技(深圳)有限公司 | 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质 |
CN110610138A (zh) * | 2019-08-22 | 2019-12-24 | 西安理工大学 | 一种基于卷积神经网络的面部情感分析方法 |
CN112163169A (zh) * | 2020-09-29 | 2021-01-01 | 海南大学 | 基于知识图谱的多模态用户情感分析方法 |
Non-Patent Citations (5)
Title |
---|
Thoma,e M Etal..Learning Multimodal Transition Dynamics for Model-Based Reinforcement Learning.arXiv.2017,全文. * |
何俊 ; 张彩庆 ; 李小珍 ; 张德海 ; .面向深度学习的多模态融合技术研究综述.计算机工程.2020,(第05期),全文. * |
刘启元等.基于上下文增强LSTM的多模态情感分析.计算机科学.2019,第46卷(第11期),全文. * |
刘菁菁 ; 吴晓峰 ; .基于长短时记忆网络的多模态情感识别和空间标注.复旦学报(自然科学版).2020,(第05期),全文. * |
林敏鸿等.基于注意力神经网络的多模态情感分析.计算机科学.2020,(第S2期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN112948554A (zh) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112348075B (zh) | 一种基于情景注意力神经网络的多模态情感识别方法 | |
Chang et al. | Learning representations of emotional speech with deep convolutional generative adversarial networks | |
Senthilkumar et al. | Speech emotion recognition based on Bi-directional LSTM architecture and deep belief networks | |
CN110136749A (zh) | 说话人相关的端到端语音端点检测方法和装置 | |
CN110956953B (zh) | 基于音频分析与深度学习的争吵识别方法 | |
Sahu et al. | Multi-Modal Learning for Speech Emotion Recognition: An Analysis and Comparison of ASR Outputs with Ground Truth Transcription. | |
CN112329438A (zh) | 基于域对抗训练的自动谎言检测方法及系统 | |
CN111401105B (zh) | 一种视频表情识别方法、装置及设备 | |
Zhou et al. | ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge | |
Cardona et al. | Online phoneme recognition using multi-layer perceptron networks combined with recurrent non-linear autoregressive neural networks with exogenous inputs | |
Parthasarathy et al. | Predicting speaker recognition reliability by considering emotional content | |
CN114898779A (zh) | 融合多模态的语音情感识别方法及系统 | |
Parab et al. | Stress and emotion analysis using IoT and deep learning | |
CN112948554B (zh) | 基于强化学习和领域知识的实时多模态对话情感分析方法 | |
Mu et al. | Speech emotion recognition using convolutional-recurrent neural networks with attention model | |
Wu et al. | The DKU-LENOVO Systems for the INTERSPEECH 2019 Computational Paralinguistic Challenge. | |
CN113571095B (zh) | 基于嵌套深度神经网络的语音情感识别方法和系统 | |
Atkar et al. | Speech emotion recognition using dialogue emotion decoder and CNN Classifier | |
CN110348482A (zh) | 一种基于深度模型集成架构的语音情感识别系统 | |
Maji et al. | Multimodal emotion recognition based on deep temporal features using cross-modal transformer and self-attention | |
CN113707175A (zh) | 基于特征分解分类器与自适应后处理的声学事件检测系统 | |
CN113128284A (zh) | 一种多模态情感识别方法和装置 | |
Febriansyah et al. | SER: speech emotion recognition application based on extreme learning machine | |
CN115905977A (zh) | 家庭同胞互动过程中负面情绪的监督系统及方法 | |
Chen et al. | Speech emotion recognition based on joint self-assessment manikins and emotion labels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |