CN110992988B - 一种基于领域对抗的语音情感识别方法及装置 - Google Patents

一种基于领域对抗的语音情感识别方法及装置 Download PDF

Info

Publication number
CN110992988B
CN110992988B CN201911343276.9A CN201911343276A CN110992988B CN 110992988 B CN110992988 B CN 110992988B CN 201911343276 A CN201911343276 A CN 201911343276A CN 110992988 B CN110992988 B CN 110992988B
Authority
CN
China
Prior art keywords
emotion
domain
database
voice signal
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911343276.9A
Other languages
English (en)
Other versions
CN110992988A (zh
Inventor
郑文明
郑婉璐
宗源
路成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201911343276.9A priority Critical patent/CN110992988B/zh
Publication of CN110992988A publication Critical patent/CN110992988A/zh
Application granted granted Critical
Publication of CN110992988B publication Critical patent/CN110992988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于领域对抗的语音情感识别方法及装置,方法包括:(1)获取语音情感数据库,划分为源域数据库和目标域数据库;(2)对于每一语音信号,提取IS10特征作为全局特征;(3)将语音信号按照时间分成前后重叠50%的若干短片段,提取每个短片段的IS10特征;(4)将所有短片段的IS10特征输入双向长短时间记忆模型,再输入进注意力机制模型,输出作为局部特征;(5)将全局特征和局部特征串联作为联合特征;(6)建立神经网络,包括领域判别器和情感分类器;(7)对神经网络进行训练,网络总损失为情感分类器损失减去领域判别器损失;(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。本发明识别结果更准确。

Description

一种基于领域对抗的语音情感识别方法及装置
技术领域
本发明涉及语音情感识别技术,尤其涉及一种基于领域对抗的语音情感识别方法及装置。
背景技术
语音情感识别是情感计算领域中的一个热门研究问题,应用前景广阔。由于语音信号具有独特的序列属性,所以语音情感识别可以被看作是动态或者静态的分类问题。现有的方法大多从两个角度处理语音信号:帧尺度、整句话尺度,很少有方法考虑把上述两种尺度结合起来。语音情感识别的难点在于提取合适的语音情感特征并缩小源域数据库(训练数据库)数据以及目标域数据库(测试数据库)数据的特征分布差异。
发明内容
发明目的:本发明针对现有技术存在的问题,提供一种基于领域对抗的语音情感识别方法和装置,本发明采用局部和全局特征的联合特征进行分类,可以缩小源域数据库数据以及目标域数据库数据的特征分布差异,使得识别结果更准确。
技术方案:本发明所述的基于领域对抗的语音情感识别方法包括:
(1)获取存储有若干语音信号和对应情感类别标签的语音情感数据库,并划分为源域数据库和目标域数据库;
(2)对于源域数据库和目标域数据库中的每个语音信号,提取其IS10特征作为对应语音信号的全局特征;
(3)对于源域数据库和目标域数据库的每个语音信号,将其按照时间顺序分成前后重叠50%的若干短片段,并提取每个短片段的IS10特征;
(4)将每个语音信号的所有短片段的IS10特征输入双向长短时间记忆模型,随后再输入进注意力机制模型,输出作为对应语音信号的局部特征;
(5)对于源域数据库和目标域数据库中的每个语音信号,将其全局特征和局部特征串联起来,作为对应语音信号的联合特征;
(6)建立神经网络,所述神经网络包括领域判别器和情感分类器,所述领域判别器包括两层全连接层,输出为预测的语音信号所属领域类别,所述情感分类器包括两层全连接层,输出为预测的语音信号的情感类别;
(7)对所述神经网络进行训练,训练时,将源域数据库和目标域数据库中每一语音信号的联合特征作为一个样本,输入领域判别器,将源域数据库中每一语音信号的联合特征作为一个样本,输入情感分类器,网络总损失为情感分类器损失减去领域判别器损失,通过反向传播算法更新网络参数,完成网络训练;
(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。
进一步的,步骤(1)中,划分源域数据库和目标域数据库的方法为:将语音情感数据库中属于任意一个人的语音信号和对应情感类别标签作为目标域数据库,剩余其他所有人的语音信号和对应情感类别标签作为源域数据库。
进一步的,步骤(4)中所述注意力机制模型为:
f(Hl)=WTHl
Figure BDA0002332634470000021
Figure BDA0002332634470000022
式中,f()表示线性计分函数,W表示可学习参数,Hl表示双向长短时间记忆模型的的输出,αi表示注意力权重,
Figure BDA0002332634470000023
表示Hl第i、j个元素,Hl att表示注意力机制模型的输出。
进一步的,步骤(7)中所述网络总损失为:
Figure BDA0002332634470000024
式中,E(θfyd)表示网络总损失,θfyd表示待训练参数,λ为正则化乘数,M是源域数据库的语音信号个数,N是目标域数据的语音信号个数,其中:
Figure BDA0002332634470000025
Figure BDA0002332634470000026
Figure BDA0002332634470000027
形如Ld(*,#)表示领域判别器*与#的交叉熵损失函数,形如Ly(*,#)表示情感分类器*与#的交叉熵损失函数,dm表示源域数据库中第m个语音信号的领域类别标签,ym表示源域数据库中第m个语音信号的情感类别标签,Flg,m表示源域数据库中第m个语音信号的联合特征,m=1,…,M,dn表示目标域数据库中第n个语音信号的领域类别标签,Flg,n表示目标域数据库中第n个语音信号的联合特征,n=1,…,N;Gf()表示特征提取器,Gd()表示领域分类器输出的预测领域类别,Gy()表示情感分类器输出的预测情感类别;
网络训练目的是找到待训练参数θfyd的鞍点,使得:
Figure BDA0002332634470000031
Figure BDA0002332634470000032
本发明所述的基于领域对抗的语音情感识别装置包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序时实现上述方法
有益效果:本发明与现有技术相比,其显著优点是:本发明提供了一种联合局部和全局特征的语音情感识别领域对抗方法,该方法结合了多种时间尺度的语音情感特征,领域判别器和情感分类器互相对抗学习,通过反向传播算法更新网络参数最终学习到一种既对不同情感具有区分性又对源域和目标域不具有区分性的情感特征,使得识别准确率更高。领域判别器可以在网络学习过程中动态地调整特征参数,使源域和目标域数据库的特征分布更靠近,当领域判别器不能区分数据是来自于源域数据库还是目标域数据库时,在源域数据库上训练的分类器可以更好地分类目标域数据库。
附图说明
图1是本发明的一个实施例的流程示意图;
图2是本发明的神经网络训练过程示意图。
具体实施方式
本实施例提供了一种基于领域对抗的语音情感识别方法,如图1和图2所示,包括:
(1)获取存储有若干语音信号和对应情感类别标签的语音情感数据库,并划分为源域数据库和目标域数据库。
其中,划分源域数据库和目标域数据库的方法为留一个人法(Leave-One-Subject-Out Cross Validation):将语音情感数据库中属于任意一个人的语音信号和对应情感类别标签作为目标域数据库,剩余其他所有人的语音信号和对应情感类别标签作为源域数据库。
(2)对于源域数据库和目标域数据库中的每个语音信号,提取其IS10特征作为对应语音信号的全局特征。
其中,IS10特征为“Interspeech 2010paralinguistic challenge.Christian Müller,“The interspeech 2010paralinguistic challenge,”Proc Interspeech,2010.”中的特征,其定义见该文献,不再赘述,该特征提取时采用openSMILE toolkit(一个公开的工具包)进行提取。采用
Figure BDA0002332634470000041
表示提取的IS10特征,d表示IS10特征的维度1582。
(3)对于源域数据库和目标域数据库的每个语音信号,将其按照时间顺序分成前后重叠50%的若干短片段,并提取每个短片段的IS10特征。
若一个语音信号划分为前后重叠50%的c个短片段,则该语音信号的IS10特征表示为:
Figure BDA0002332634470000042
xc表示第c个片段的IS10特征。
(4)将每个语音信号的所有短片段的IS10特征输入双向长短时间记忆模型,随后再输入进注意力机制模型,输出作为对应语音信号的局部特征。
其中,若双向长短时间记忆模型采用L()表示,其中隐藏节点的个数为h,具体前向和后向隐藏节点数为1582,则双向长短时间记忆模型的输出为:
Figure BDA0002332634470000043
其中,所述注意力机制模型为:
f(Hl)=WTHl
Figure BDA0002332634470000044
Figure BDA0002332634470000045
式中,f()表示线性计分函数,W表示可学习参数,Hl表示双向长短时间记忆模型的的输出,αi表示注意力权重,
Figure BDA0002332634470000046
表示Hl第i、j个元素,Hl att表示注意力机制模型的输出。
(5)对于源域数据库和目标域数据库中的每个语音信号,将其全局特征和局部特征串联起来,作为对应语音信号的联合特征。
联合特征可以表示为:Flg={Xg,Hl att}。
(6)建立神经网络,所述神经网络包括领域判别器和情感分类器,所述领域判别器包括两层全连接层,输出为预测的语音信号所属领域类别,所述情感分类器包括两层全连接层,输出为预测的语音信号的情感类别。
(7)对所述神经网络进行训练,训练时,将源域数据库和目标域数据库中每一语音信号的联合特征作为一个样本,输入领域判别器,将源域数据库中每一语音信号的联合特征作为一个样本,输入情感分类器,网络总损失为情感分类器损失减去领域判别器损失,通过反向传播算法更新网络参数,完成网络训练。
其中,所述网络总损失为:
Figure BDA0002332634470000051
式中,E(θfyd)表示网络总损失,θfyd表示待训练参数,λ为正则化乘数,M是源域数据库的语音信号个数,N是目标域数据的语音信号个数,其中:
Figure BDA0002332634470000052
Figure BDA0002332634470000053
Figure BDA0002332634470000054
形如Ld(*,#)表示领域判别器*与#的交叉熵损失函数,形如Ly(*,#)表示情感分类器*与#的交叉熵损失函数,dm表示源域数据库中第m个语音信号的领域类别标签,ym表示源域数据库中第m个语音信号的情感类别标签,Flg,m表示源域数据库中第m个语音信号的联合特征,m=1,…,M,dn表示目标域数据库中第n个语音信号的领域类别标签,Flg,n表示目标域数据库中第n个语音信号的联合特征,n=1,…,N;Gf()表示特征提取器,Gd()表示领域分类器输出的预测领域类别,Gy()表示情感分类器输出的预测情感类别;
网络训练目的是找到待训练参数θfyd的鞍点,在鞍点,源域情感分类损失最小,领域分类器损失最大,即使得:
Figure BDA0002332634470000055
Figure BDA0002332634470000056
Figure BDA0002332634470000057
参数λ表示为正则化乘数,λ初始值为0,在训练结束之前逐渐增长到1。γ为10,p表示训练进程,范围为0到1。
通过学习和训练,得到既对不同情感具有区分性又对源域和目标域不具有区分性的情感特征。
(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。
本发明还提供了一种基于领域对抗的语音情感识别装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序时实现上述方法。
下面以IEMOCAP情感数据库中的四种类别(生气、高兴、悲伤、中性)的语音情感数据为例进行验证,验证结果如表1所示:
表1
特征种类 有权重准确率(%) 无权重准确率(%)
全局特征 54.77 51.25
5段局部特征 59.18 51.77
8段局部特征 57.19 49.62
10段局部特征 55.75 48.79
5段局部--全局特征 62.84 54.19
8段局部--全局特征 60.37 53.03
10段局部--全局特征 57.86 51.48
DNN-ELM 57.90 52.10
BLSTM-SUA 59.33 49.96
其中5段、8段、10段分别为将整句话语音信号分割的段数。DNN-ELM为基于语音片段尺度与深度神经网络和极限学习机的语音情感识别方法,BLSTM-SUA为结合贪婪策略的双向长短时间记忆模型语音情感识别方法。
实验结果表明,5段局部—全局特征取得了最高的语音情感识别准确率。在IEMOCAP情感数据库四类(生气、高兴、悲伤、中性)的语音情感识别任务中,本发明提出的基于模型相对于其他方法得到了更好的识别结果。相较于其他方法,本发明成功地获取了一种联合全局和局部的特征,同时减少了源域和目标域之间的数据发布差异,提高了语音情感识别准确率。
以上所揭露的仅为本发明一种较佳实施例而已,不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (5)

1.一种基于领域对抗的语音情感识别方法,其特征在于该方法包括:
(1)获取存储有若干语音信号和对应情感类别标签的语音情感数据库,并划分为源域数据库和目标域数据库;
(2)对于源域数据库和目标域数据库中的每个语音信号,提取其IS10特征作为对应语音信号的全局特征;
(3)对于源域数据库和目标域数据库的每个语音信号,将其按照时间顺序分成前后重叠50%的若干短片段,并提取每个短片段的IS10特征;
(4)将每个语音信号的所有短片段的IS10特征输入双向长短时间记忆模型,随后再输入进注意力机制模型,输出作为对应语音信号的局部特征;
(5)对于源域数据库和目标域数据库中的每个语音信号,将其全局特征和局部特征串联起来,作为对应语音信号的联合特征;
(6)建立神经网络,所述神经网络包括领域判别器和情感分类器,所述领域判别器包括两层全连接层,输出为预测的语音信号所属领域类别,所述情感分类器包括两层全连接层,输出为预测的语音信号的情感类别;
(7)对所述神经网络进行训练,训练时,将源域数据库和目标域数据库中每一语音信号的联合特征作为一个样本,输入领域判别器,将源域数据库中每一语音信号的联合特征作为一个样本,输入情感分类器,网络总损失为情感分类器损失减去领域判别器损失,通过反向传播算法更新网络参数,完成网络训练;
(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。
2.根据权利要求1所述的基于领域对抗的语音情感识别方法,其特征在于:步骤(1)中,划分源域数据库和目标域数据库的方法为:将语音情感数据库中属于任意一个人的语音信号和对应情感类别标签作为目标域数据库,剩余其他所有人的语音信号和对应情感类别标签作为源域数据库。
3.根据权利要求1所述的基于领域对抗的语音情感识别方法,其特征在于:步骤(4)中所述注意力机制模型为:
f(Hl)=WTHl
Figure FDA0002332634460000011
Figure FDA0002332634460000021
式中,f()表示线性计分函数,W表示可学习参数,Hl表示双向长短时间记忆模型的的输出,αi表示注意力权重,
Figure FDA0002332634460000022
表示Hl第i、j个元素,Hl att表示注意力机制模型的输出。
4.根据权利要求1所述的基于领域对抗的语音情感识别方法,其特征在于:步骤(7)中所述网络总损失为:
Figure FDA0002332634460000023
式中,E(θfyd)表示网络总损失,θfyd表示待训练参数,λ为正则化乘数,M是源域数据库的语音信号个数,N是目标域数据的语音信号个数,其中:
Figure FDA0002332634460000024
Figure FDA0002332634460000025
Figure FDA0002332634460000026
形如Ld(*,#)表示领域判别器*与#的交叉熵损失函数,形如Ly(*,#)表示情感分类器*与#的交叉熵损失函数,dm表示源域数据库中第m个语音信号的领域类别标签,ym表示源域数据库中第m个语音信号的情感类别标签,Flg,m表示源域数据库中第m个语音信号的联合特征,m=1,…,M,dn表示目标域数据库中第n个语音信号的领域类别标签,Flg,n表示目标域数据库中第n个语音信号的联合特征,n=1,…,N;Gf()表示特征提取器,Gd()表示领域分类器输出的预测领域类别,Gy()表示情感分类器输出的预测情感类别;
网络训练目的是找到待训练参数θfyd的鞍点,使得:
Figure FDA0002332634460000027
Figure FDA0002332634460000028
5.一种基于领域对抗的语音情感识别装置,其特征在于:包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序时实现权利要求1-4中任意一项所述的方法。
CN201911343276.9A 2019-12-24 2019-12-24 一种基于领域对抗的语音情感识别方法及装置 Active CN110992988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911343276.9A CN110992988B (zh) 2019-12-24 2019-12-24 一种基于领域对抗的语音情感识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911343276.9A CN110992988B (zh) 2019-12-24 2019-12-24 一种基于领域对抗的语音情感识别方法及装置

Publications (2)

Publication Number Publication Date
CN110992988A CN110992988A (zh) 2020-04-10
CN110992988B true CN110992988B (zh) 2022-03-08

Family

ID=70076057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911343276.9A Active CN110992988B (zh) 2019-12-24 2019-12-24 一种基于领域对抗的语音情感识别方法及装置

Country Status (1)

Country Link
CN (1) CN110992988B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111933187B (zh) * 2020-09-21 2021-02-05 深圳追一科技有限公司 情感识别模型的训练方法、装置、计算机设备和存储介质
CN112489689B (zh) * 2020-11-30 2024-04-30 东南大学 基于多尺度差异对抗的跨数据库语音情感识别方法及装置
CN114049900B (zh) * 2021-12-08 2023-07-25 马上消费金融股份有限公司 模型训练方法、身份识别方法、装置及电子设备
CN116434787B (zh) * 2023-06-14 2023-09-08 之江实验室 一种语音情感识别的方法、装置、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469560A (zh) * 2016-07-27 2017-03-01 江苏大学 一种基于无监督域适应的语音情感识别方法
CN108010514A (zh) * 2017-11-20 2018-05-08 四川大学 一种基于深度神经网络的语音分类方法
CN109492099A (zh) * 2018-10-28 2019-03-19 北京工业大学 一种基于领域对抗自适应的跨领域文本情感分类方法
CN110390955A (zh) * 2019-07-01 2019-10-29 东南大学 一种基于深度域适应性卷积神经网络的跨库语音情感识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102332263B (zh) * 2011-09-23 2012-11-07 浙江大学 一种基于近邻原则合成情感模型的说话人识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469560A (zh) * 2016-07-27 2017-03-01 江苏大学 一种基于无监督域适应的语音情感识别方法
CN108010514A (zh) * 2017-11-20 2018-05-08 四川大学 一种基于深度神经网络的语音分类方法
CN109492099A (zh) * 2018-10-28 2019-03-19 北京工业大学 一种基于领域对抗自适应的跨领域文本情感分类方法
CN110390955A (zh) * 2019-07-01 2019-10-29 东南大学 一种基于深度域适应性卷积神经网络的跨库语音情感识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Domain Adversarial for Acoustic Emotion Recognition;Mohammed Abdelwahab等;《IEEE/ACM Transactions on Audio,Speech,and Language Processing》;20180824;第26卷(第12期);全文 *
多粒度特征融合的维度语音情感识别方法;陈婧等;《信号处理》;20170623;第33卷(第3期);全文 *

Also Published As

Publication number Publication date
CN110992988A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110992988B (zh) 一种基于领域对抗的语音情感识别方法及装置
CN111046133B (zh) 基于图谱化知识库的问答方法、设备、存储介质及装置
He et al. Multi-view recurrent neural acoustic word embeddings
CN109446331B (zh) 一种文本情绪分类模型建立方法及文本情绪分类方法
Luo et al. Audio Sentiment Analysis by Heterogeneous Signal Features Learned from Utterance-Based Parallel Neural Network.
Cao et al. Speaker-sensitive emotion recognition via ranking: Studies on acted and spontaneous speech
CN109241255A (zh) 一种基于深度学习的意图识别方法
CN112818861B (zh) 一种基于多模态上下文语义特征的情感分类方法及系统
CN104978587B (zh) 一种基于文档类型的实体识别合作学习算法
CN109271537B (zh) 一种基于蒸馏学习的文本到图像生成方法和系统
CN110675860A (zh) 基于改进注意力机制并结合语义的语音信息识别方法及系统
CN107330011A (zh) 多策略融合的命名实体的识别方法及装置
CN110532379B (zh) 一种基于lstm的用户评论情感分析的电子资讯推荐方法
CN107818164A (zh) 一种智能问答方法及其系统
CN105139237A (zh) 信息推送的方法和装置
CN113505200B (zh) 一种结合文档关键信息的句子级中文事件检测的方法
CN107797987B (zh) 一种基于Bi-LSTM-CNN的混合语料命名实体识别方法
Zhou et al. Deep learning based affective model for speech emotion recognition
CN113094578A (zh) 基于深度学习的内容推荐方法、装置、设备及存储介质
CN111666376B (zh) 一种基于段落边界扫描预测与词移距离聚类匹配的答案生成方法及装置
CN104538036A (zh) 一种基于语义细胞混合模型的说话人识别方法
CN109582788A (zh) 垃圾评论训练、识别方法、装置、设备及可读存储介质
CN112417132B (zh) 一种利用谓宾信息筛选负样本的新意图识别方法
CN109119069A (zh) 特定人群识别方法、电子装置及计算机可读存储介质
CN112434164A (zh) 一种兼顾话题发现和情感分析的网络舆情分析方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant