CN110992988B - 一种基于领域对抗的语音情感识别方法及装置 - Google Patents
一种基于领域对抗的语音情感识别方法及装置 Download PDFInfo
- Publication number
- CN110992988B CN110992988B CN201911343276.9A CN201911343276A CN110992988B CN 110992988 B CN110992988 B CN 110992988B CN 201911343276 A CN201911343276 A CN 201911343276A CN 110992988 B CN110992988 B CN 110992988B
- Authority
- CN
- China
- Prior art keywords
- emotion
- domain
- database
- voice signal
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 25
- 230000008451 emotion Effects 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于领域对抗的语音情感识别方法及装置,方法包括:(1)获取语音情感数据库,划分为源域数据库和目标域数据库;(2)对于每一语音信号,提取IS10特征作为全局特征;(3)将语音信号按照时间分成前后重叠50%的若干短片段,提取每个短片段的IS10特征;(4)将所有短片段的IS10特征输入双向长短时间记忆模型,再输入进注意力机制模型,输出作为局部特征;(5)将全局特征和局部特征串联作为联合特征;(6)建立神经网络,包括领域判别器和情感分类器;(7)对神经网络进行训练,网络总损失为情感分类器损失减去领域判别器损失;(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。本发明识别结果更准确。
Description
技术领域
本发明涉及语音情感识别技术,尤其涉及一种基于领域对抗的语音情感识别方法及装置。
背景技术
语音情感识别是情感计算领域中的一个热门研究问题,应用前景广阔。由于语音信号具有独特的序列属性,所以语音情感识别可以被看作是动态或者静态的分类问题。现有的方法大多从两个角度处理语音信号:帧尺度、整句话尺度,很少有方法考虑把上述两种尺度结合起来。语音情感识别的难点在于提取合适的语音情感特征并缩小源域数据库(训练数据库)数据以及目标域数据库(测试数据库)数据的特征分布差异。
发明内容
发明目的:本发明针对现有技术存在的问题,提供一种基于领域对抗的语音情感识别方法和装置,本发明采用局部和全局特征的联合特征进行分类,可以缩小源域数据库数据以及目标域数据库数据的特征分布差异,使得识别结果更准确。
技术方案:本发明所述的基于领域对抗的语音情感识别方法包括:
(1)获取存储有若干语音信号和对应情感类别标签的语音情感数据库,并划分为源域数据库和目标域数据库;
(2)对于源域数据库和目标域数据库中的每个语音信号,提取其IS10特征作为对应语音信号的全局特征;
(3)对于源域数据库和目标域数据库的每个语音信号,将其按照时间顺序分成前后重叠50%的若干短片段,并提取每个短片段的IS10特征;
(4)将每个语音信号的所有短片段的IS10特征输入双向长短时间记忆模型,随后再输入进注意力机制模型,输出作为对应语音信号的局部特征;
(5)对于源域数据库和目标域数据库中的每个语音信号,将其全局特征和局部特征串联起来,作为对应语音信号的联合特征;
(6)建立神经网络,所述神经网络包括领域判别器和情感分类器,所述领域判别器包括两层全连接层,输出为预测的语音信号所属领域类别,所述情感分类器包括两层全连接层,输出为预测的语音信号的情感类别;
(7)对所述神经网络进行训练,训练时,将源域数据库和目标域数据库中每一语音信号的联合特征作为一个样本,输入领域判别器,将源域数据库中每一语音信号的联合特征作为一个样本,输入情感分类器,网络总损失为情感分类器损失减去领域判别器损失,通过反向传播算法更新网络参数,完成网络训练;
(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。
进一步的,步骤(1)中,划分源域数据库和目标域数据库的方法为:将语音情感数据库中属于任意一个人的语音信号和对应情感类别标签作为目标域数据库,剩余其他所有人的语音信号和对应情感类别标签作为源域数据库。
进一步的,步骤(4)中所述注意力机制模型为:
f(Hl)=WTHl
进一步的,步骤(7)中所述网络总损失为:
式中,E(θf,θy,θd)表示网络总损失,θf,θy,θd表示待训练参数,λ为正则化乘数,M是源域数据库的语音信号个数,N是目标域数据的语音信号个数,其中:
形如Ld(*,#)表示领域判别器*与#的交叉熵损失函数,形如Ly(*,#)表示情感分类器*与#的交叉熵损失函数,dm表示源域数据库中第m个语音信号的领域类别标签,ym表示源域数据库中第m个语音信号的情感类别标签,Flg,m表示源域数据库中第m个语音信号的联合特征,m=1,…,M,dn表示目标域数据库中第n个语音信号的领域类别标签,Flg,n表示目标域数据库中第n个语音信号的联合特征,n=1,…,N;Gf()表示特征提取器,Gd()表示领域分类器输出的预测领域类别,Gy()表示情感分类器输出的预测情感类别;
网络训练目的是找到待训练参数θf,θy,θd的鞍点,使得:
本发明所述的基于领域对抗的语音情感识别装置包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序时实现上述方法
有益效果:本发明与现有技术相比,其显著优点是:本发明提供了一种联合局部和全局特征的语音情感识别领域对抗方法,该方法结合了多种时间尺度的语音情感特征,领域判别器和情感分类器互相对抗学习,通过反向传播算法更新网络参数最终学习到一种既对不同情感具有区分性又对源域和目标域不具有区分性的情感特征,使得识别准确率更高。领域判别器可以在网络学习过程中动态地调整特征参数,使源域和目标域数据库的特征分布更靠近,当领域判别器不能区分数据是来自于源域数据库还是目标域数据库时,在源域数据库上训练的分类器可以更好地分类目标域数据库。
附图说明
图1是本发明的一个实施例的流程示意图;
图2是本发明的神经网络训练过程示意图。
具体实施方式
本实施例提供了一种基于领域对抗的语音情感识别方法,如图1和图2所示,包括:
(1)获取存储有若干语音信号和对应情感类别标签的语音情感数据库,并划分为源域数据库和目标域数据库。
其中,划分源域数据库和目标域数据库的方法为留一个人法(Leave-One-Subject-Out Cross Validation):将语音情感数据库中属于任意一个人的语音信号和对应情感类别标签作为目标域数据库,剩余其他所有人的语音信号和对应情感类别标签作为源域数据库。
(2)对于源域数据库和目标域数据库中的每个语音信号,提取其IS10特征作为对应语音信号的全局特征。
其中,IS10特征为“Interspeech 2010paralinguistic challenge.Christian Müller,“The interspeech 2010paralinguistic challenge,”Proc Interspeech,2010.”中的特征,其定义见该文献,不再赘述,该特征提取时采用openSMILE toolkit(一个公开的工具包)进行提取。采用表示提取的IS10特征,d表示IS10特征的维度1582。
(3)对于源域数据库和目标域数据库的每个语音信号,将其按照时间顺序分成前后重叠50%的若干短片段,并提取每个短片段的IS10特征。
若一个语音信号划分为前后重叠50%的c个短片段,则该语音信号的IS10特征表示为:
xc表示第c个片段的IS10特征。
(4)将每个语音信号的所有短片段的IS10特征输入双向长短时间记忆模型,随后再输入进注意力机制模型,输出作为对应语音信号的局部特征。
其中,若双向长短时间记忆模型采用L()表示,其中隐藏节点的个数为h,具体前向和后向隐藏节点数为1582,则双向长短时间记忆模型的输出为:
其中,所述注意力机制模型为:
f(Hl)=WTHl
(5)对于源域数据库和目标域数据库中的每个语音信号,将其全局特征和局部特征串联起来,作为对应语音信号的联合特征。
联合特征可以表示为:Flg={Xg,Hl att}。
(6)建立神经网络,所述神经网络包括领域判别器和情感分类器,所述领域判别器包括两层全连接层,输出为预测的语音信号所属领域类别,所述情感分类器包括两层全连接层,输出为预测的语音信号的情感类别。
(7)对所述神经网络进行训练,训练时,将源域数据库和目标域数据库中每一语音信号的联合特征作为一个样本,输入领域判别器,将源域数据库中每一语音信号的联合特征作为一个样本,输入情感分类器,网络总损失为情感分类器损失减去领域判别器损失,通过反向传播算法更新网络参数,完成网络训练。
其中,所述网络总损失为:
式中,E(θf,θy,θd)表示网络总损失,θf,θy,θd表示待训练参数,λ为正则化乘数,M是源域数据库的语音信号个数,N是目标域数据的语音信号个数,其中:
形如Ld(*,#)表示领域判别器*与#的交叉熵损失函数,形如Ly(*,#)表示情感分类器*与#的交叉熵损失函数,dm表示源域数据库中第m个语音信号的领域类别标签,ym表示源域数据库中第m个语音信号的情感类别标签,Flg,m表示源域数据库中第m个语音信号的联合特征,m=1,…,M,dn表示目标域数据库中第n个语音信号的领域类别标签,Flg,n表示目标域数据库中第n个语音信号的联合特征,n=1,…,N;Gf()表示特征提取器,Gd()表示领域分类器输出的预测领域类别,Gy()表示情感分类器输出的预测情感类别;
网络训练目的是找到待训练参数θf,θy,θd的鞍点,在鞍点,源域情感分类损失最小,领域分类器损失最大,即使得:
参数λ表示为正则化乘数,λ初始值为0,在训练结束之前逐渐增长到1。γ为10,p表示训练进程,范围为0到1。
通过学习和训练,得到既对不同情感具有区分性又对源域和目标域不具有区分性的情感特征。
(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。
本发明还提供了一种基于领域对抗的语音情感识别装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序时实现上述方法。
下面以IEMOCAP情感数据库中的四种类别(生气、高兴、悲伤、中性)的语音情感数据为例进行验证,验证结果如表1所示:
表1
特征种类 | 有权重准确率(%) | 无权重准确率(%) |
全局特征 | 54.77 | 51.25 |
5段局部特征 | 59.18 | 51.77 |
8段局部特征 | 57.19 | 49.62 |
10段局部特征 | 55.75 | 48.79 |
5段局部--全局特征 | 62.84 | 54.19 |
8段局部--全局特征 | 60.37 | 53.03 |
10段局部--全局特征 | 57.86 | 51.48 |
DNN-ELM | 57.90 | 52.10 |
BLSTM-SUA | 59.33 | 49.96 |
其中5段、8段、10段分别为将整句话语音信号分割的段数。DNN-ELM为基于语音片段尺度与深度神经网络和极限学习机的语音情感识别方法,BLSTM-SUA为结合贪婪策略的双向长短时间记忆模型语音情感识别方法。
实验结果表明,5段局部—全局特征取得了最高的语音情感识别准确率。在IEMOCAP情感数据库四类(生气、高兴、悲伤、中性)的语音情感识别任务中,本发明提出的基于模型相对于其他方法得到了更好的识别结果。相较于其他方法,本发明成功地获取了一种联合全局和局部的特征,同时减少了源域和目标域之间的数据发布差异,提高了语音情感识别准确率。
以上所揭露的仅为本发明一种较佳实施例而已,不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (5)
1.一种基于领域对抗的语音情感识别方法,其特征在于该方法包括:
(1)获取存储有若干语音信号和对应情感类别标签的语音情感数据库,并划分为源域数据库和目标域数据库;
(2)对于源域数据库和目标域数据库中的每个语音信号,提取其IS10特征作为对应语音信号的全局特征;
(3)对于源域数据库和目标域数据库的每个语音信号,将其按照时间顺序分成前后重叠50%的若干短片段,并提取每个短片段的IS10特征;
(4)将每个语音信号的所有短片段的IS10特征输入双向长短时间记忆模型,随后再输入进注意力机制模型,输出作为对应语音信号的局部特征;
(5)对于源域数据库和目标域数据库中的每个语音信号,将其全局特征和局部特征串联起来,作为对应语音信号的联合特征;
(6)建立神经网络,所述神经网络包括领域判别器和情感分类器,所述领域判别器包括两层全连接层,输出为预测的语音信号所属领域类别,所述情感分类器包括两层全连接层,输出为预测的语音信号的情感类别;
(7)对所述神经网络进行训练,训练时,将源域数据库和目标域数据库中每一语音信号的联合特征作为一个样本,输入领域判别器,将源域数据库中每一语音信号的联合特征作为一个样本,输入情感分类器,网络总损失为情感分类器损失减去领域判别器损失,通过反向传播算法更新网络参数,完成网络训练;
(8)获取待识别语音信号的联合特征,输入训练好的神经网络,得到预测的情感类别。
2.根据权利要求1所述的基于领域对抗的语音情感识别方法,其特征在于:步骤(1)中,划分源域数据库和目标域数据库的方法为:将语音情感数据库中属于任意一个人的语音信号和对应情感类别标签作为目标域数据库,剩余其他所有人的语音信号和对应情感类别标签作为源域数据库。
4.根据权利要求1所述的基于领域对抗的语音情感识别方法,其特征在于:步骤(7)中所述网络总损失为:
式中,E(θf,θy,θd)表示网络总损失,θf,θy,θd表示待训练参数,λ为正则化乘数,M是源域数据库的语音信号个数,N是目标域数据的语音信号个数,其中:
形如Ld(*,#)表示领域判别器*与#的交叉熵损失函数,形如Ly(*,#)表示情感分类器*与#的交叉熵损失函数,dm表示源域数据库中第m个语音信号的领域类别标签,ym表示源域数据库中第m个语音信号的情感类别标签,Flg,m表示源域数据库中第m个语音信号的联合特征,m=1,…,M,dn表示目标域数据库中第n个语音信号的领域类别标签,Flg,n表示目标域数据库中第n个语音信号的联合特征,n=1,…,N;Gf()表示特征提取器,Gd()表示领域分类器输出的预测领域类别,Gy()表示情感分类器输出的预测情感类别;
网络训练目的是找到待训练参数θf,θy,θd的鞍点,使得:
5.一种基于领域对抗的语音情感识别装置,其特征在于:包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序时实现权利要求1-4中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911343276.9A CN110992988B (zh) | 2019-12-24 | 2019-12-24 | 一种基于领域对抗的语音情感识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911343276.9A CN110992988B (zh) | 2019-12-24 | 2019-12-24 | 一种基于领域对抗的语音情感识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110992988A CN110992988A (zh) | 2020-04-10 |
CN110992988B true CN110992988B (zh) | 2022-03-08 |
Family
ID=70076057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911343276.9A Active CN110992988B (zh) | 2019-12-24 | 2019-12-24 | 一种基于领域对抗的语音情感识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992988B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111933187B (zh) * | 2020-09-21 | 2021-02-05 | 深圳追一科技有限公司 | 情感识别模型的训练方法、装置、计算机设备和存储介质 |
CN112489689B (zh) * | 2020-11-30 | 2024-04-30 | 东南大学 | 基于多尺度差异对抗的跨数据库语音情感识别方法及装置 |
CN114049900B (zh) * | 2021-12-08 | 2023-07-25 | 马上消费金融股份有限公司 | 模型训练方法、身份识别方法、装置及电子设备 |
CN116434787B (zh) * | 2023-06-14 | 2023-09-08 | 之江实验室 | 一种语音情感识别的方法、装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106469560A (zh) * | 2016-07-27 | 2017-03-01 | 江苏大学 | 一种基于无监督域适应的语音情感识别方法 |
CN108010514A (zh) * | 2017-11-20 | 2018-05-08 | 四川大学 | 一种基于深度神经网络的语音分类方法 |
CN109492099A (zh) * | 2018-10-28 | 2019-03-19 | 北京工业大学 | 一种基于领域对抗自适应的跨领域文本情感分类方法 |
CN110390955A (zh) * | 2019-07-01 | 2019-10-29 | 东南大学 | 一种基于深度域适应性卷积神经网络的跨库语音情感识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102332263B (zh) * | 2011-09-23 | 2012-11-07 | 浙江大学 | 一种基于近邻原则合成情感模型的说话人识别方法 |
-
2019
- 2019-12-24 CN CN201911343276.9A patent/CN110992988B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106469560A (zh) * | 2016-07-27 | 2017-03-01 | 江苏大学 | 一种基于无监督域适应的语音情感识别方法 |
CN108010514A (zh) * | 2017-11-20 | 2018-05-08 | 四川大学 | 一种基于深度神经网络的语音分类方法 |
CN109492099A (zh) * | 2018-10-28 | 2019-03-19 | 北京工业大学 | 一种基于领域对抗自适应的跨领域文本情感分类方法 |
CN110390955A (zh) * | 2019-07-01 | 2019-10-29 | 东南大学 | 一种基于深度域适应性卷积神经网络的跨库语音情感识别方法 |
Non-Patent Citations (2)
Title |
---|
Domain Adversarial for Acoustic Emotion Recognition;Mohammed Abdelwahab等;《IEEE/ACM Transactions on Audio,Speech,and Language Processing》;20180824;第26卷(第12期);全文 * |
多粒度特征融合的维度语音情感识别方法;陈婧等;《信号处理》;20170623;第33卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110992988A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992988B (zh) | 一种基于领域对抗的语音情感识别方法及装置 | |
CN111046133B (zh) | 基于图谱化知识库的问答方法、设备、存储介质及装置 | |
He et al. | Multi-view recurrent neural acoustic word embeddings | |
CN109446331B (zh) | 一种文本情绪分类模型建立方法及文本情绪分类方法 | |
Luo et al. | Audio Sentiment Analysis by Heterogeneous Signal Features Learned from Utterance-Based Parallel Neural Network. | |
Cao et al. | Speaker-sensitive emotion recognition via ranking: Studies on acted and spontaneous speech | |
CN109241255A (zh) | 一种基于深度学习的意图识别方法 | |
CN112818861B (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN104978587B (zh) | 一种基于文档类型的实体识别合作学习算法 | |
CN109271537B (zh) | 一种基于蒸馏学习的文本到图像生成方法和系统 | |
CN110675860A (zh) | 基于改进注意力机制并结合语义的语音信息识别方法及系统 | |
CN107330011A (zh) | 多策略融合的命名实体的识别方法及装置 | |
CN110532379B (zh) | 一种基于lstm的用户评论情感分析的电子资讯推荐方法 | |
CN107818164A (zh) | 一种智能问答方法及其系统 | |
CN105139237A (zh) | 信息推送的方法和装置 | |
CN113505200B (zh) | 一种结合文档关键信息的句子级中文事件检测的方法 | |
CN107797987B (zh) | 一种基于Bi-LSTM-CNN的混合语料命名实体识别方法 | |
Zhou et al. | Deep learning based affective model for speech emotion recognition | |
CN113094578A (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN111666376B (zh) | 一种基于段落边界扫描预测与词移距离聚类匹配的答案生成方法及装置 | |
CN104538036A (zh) | 一种基于语义细胞混合模型的说话人识别方法 | |
CN109582788A (zh) | 垃圾评论训练、识别方法、装置、设备及可读存储介质 | |
CN112417132B (zh) | 一种利用谓宾信息筛选负样本的新意图识别方法 | |
CN109119069A (zh) | 特定人群识别方法、电子装置及计算机可读存储介质 | |
CN112434164A (zh) | 一种兼顾话题发现和情感分析的网络舆情分析方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |