CN106469560B - 一种基于无监督域适应的语音情感识别方法 - Google Patents

一种基于无监督域适应的语音情感识别方法 Download PDF

Info

Publication number
CN106469560B
CN106469560B CN201610600762.4A CN201610600762A CN106469560B CN 106469560 B CN106469560 B CN 106469560B CN 201610600762 A CN201610600762 A CN 201610600762A CN 106469560 B CN106469560 B CN 106469560B
Authority
CN
China
Prior art keywords
domain
emotion
features
level
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610600762.4A
Other languages
English (en)
Other versions
CN106469560A (zh
Inventor
毛启容
薛文韬
高利剑
N.鲁瓦
申自强
詹永照
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201610600762.4A priority Critical patent/CN106469560B/zh
Publication of CN106469560A publication Critical patent/CN106469560A/zh
Application granted granted Critical
Publication of CN106469560B publication Critical patent/CN106469560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于无监督域适应的语音情感识别方法,提出的模型包括:特征提取,情感标签预测,域标签预测。特征提取:首先将原始输入数据分解成两块特征,情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。将高层情感特征用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。解决了语音情感识别中训练样本和测试样本数据分布不同的问题。

Description

一种基于无监督域适应的语音情感识别方法
技术领域
本发明属于情感识别领域,具体涉及一种基于无监督域适应的语音情感识别方法。
背景技术
传统的语音情感识别模型通常依赖于一个共同的假设:训练数据(源域数据)和测试数据(目标域数据)来自同一个数据库,即两个域具有相同的数据分布。但在实际情况下,这个条件很难满足,这主要是由于从不同设备和条件下收集到的语音数据存在很大的差异,这就使得训练数据和测试数据具有不同的数据分布,如果还是用传统的语音情感识别模型进行训练和测试,将会产生很大的性能衰退。
域适应方法可以很好的解决这个问题。但在特征学习过程中,大部分的域适应方法没有考虑到标签信息。同时,在这些域适应方法中,传统语音情感识别的一些优势(如在提取特征的过程中考虑说话人、内容、环境等与情感无关的因素)也被忽略了。本发明通过一个简单的前向神经网络模型,提取出情感判别和域不变的特征。具体的,为了排除情感无关因素的影响,先将输入数据分解成两部分:情感判别特征和情感无关特征。然后情感相关特征进行层次非线性转换得到高层情感特征。为了使高层情感特征具有情感判别性和域不变性,将高层情感特征分别用于情感标签预测和域标签预测。
发明内容
本发明的目的在于提供一种基于无监督域适应的语音情感识别方法,使得学到的特征尽可能排除情感无关因素的影响,并且具有情感判别性和域不变性。
为了解决以上问题,本发明首先对原始语音样本进行预处理,得到一个384维特征作为输入数据。然后将输入特征映射成两种特征:情感判别特征和情感无关特征;情感判别特征是和情感相关的特征、有助于情感分类的特征;情感无关特征是体现说话人变化、环境噪音等一些与情感变化无关因素、不利于情感分类的特征。将情感判别特征进行层次非线性转换得到高层情感特征,高层情感特征分别用于情感标签和域标签的预测,并用梯度下降法进行模型参数的更新。具体技术方案如下:
一种基于无监督域适应的语音情感识别方法,包括如下步骤:
S1,语音样本预处理:按照INTERSPEECH 2009情感挑战赛的要求,利用开源工具包openEAR从原始语音样本中提取384维特征,替代原始语音样本作为输入数据;
S2,模型训练:所述模型包括三部分:特征提取,情感标签预测,域标签预测;源域的有标签样本和目标域的无标签训练样本通过S1得到相应的384维特征作为模型的输入数据;具体实现包括如下:
在模型的特征提取层,输入数据通过不同的权重映射成两种特征:情感判别特征和情感无关特征;然后情感判别特征通过层次非线性转换得到高层情感特征;
源域有标签样本的高层情感特征用于情感标签的预测,源域和目标域样本的高层情感特征用于域标签的预测;
最后更新模型的参数,将两个标签预测器的损失进行反向传播,用梯度下降法进行参数的更新;
S3,特征提取:利用S2中训练好的特征提取层的参数,将源域有标签训练样本的384维特征转换成高层情感特征;
S4,分类器训练:利用S3中源域有标签训练样本的高层情感特征和相对应的情感标签,进行分类器SVM的训练;
S5,语音情感识别:对任意一个目标域的语音测试样本,首先利用步骤S1提取384维特征作为输入数据,然后通过S2中训练好的特征提取层得到高层情感特征,最后输入到S4训练好的SVM中进行分类。
进一步地,所述步骤S2中所述特征提取层的实现包括如下:
S2.1,设有N+1层,第n层有k(n)个结点,h(n)表示第n层的特征表示,n∈[0,1,...,N];对于第零层,假设h(0)=x,x为输入样本;那么第n层的特征表示为:
Figure BDA0001060743720000021
其中W(n)∈Rk(n)×k(n-1)表示权重矩阵,b(n)∈Rk(n)表示偏置,
Figure BDA0001060743720000022
表示非线性激活函数;
S2.2,为了消除提取到的特征掺杂一些情感无关的因素,引进一个正交项来解开情感判别因素和其他无关因素;对于输入x,把它映射成两块特征:一块编码输入数据的判别因素,
Figure BDA0001060743720000023
另一块编码输入数据的其他因素,
Figure BDA0001060743720000024
w是权重矩阵,c是偏置;参数分别是θe={W(1),b(1)}和θo={w,c};
S2.3,为了让这两块特征可以有效地解开,让第i个情感相关特征
Figure BDA0001060743720000025
的敏感度向量
Figure BDA0001060743720000026
和每个情感无关的特征
Figure BDA0001060743720000027
的敏感度向量
Figure BDA0001060743720000028
正交;进一步,对这两块特征进行约束的正交损失函数定义如下:
其中
Figure BDA0001060743720000032
表示所有样本的域标签集合;
S2.4,对于输入x,经过上述特征提取过程,得到它的高层特征表示h(N)
进一步地,所述步骤S2中所述情感标签预测和域标签预测的实现包括如下:
利用得到的高层特征表示h(N)来预测情感标签和域标签:采用Softmax回归进行情感标签和域标签的预测,具体地,情感标签预测的损失函数Ly和域标签预测的损失函数Ld可以表示成如下形式:
Figure BDA0001060743720000033
Figure BDA0001060743720000034
其中
Figure BDA0001060743720000035
是情感标签预测的参数,
Figure BDA0001060743720000036
是域标签预测的参数;
Figure BDA0001060743720000037
X={x|x∈Ds||x∈Dt}表示训练时所有可获得的源域有标签样本和目标域无标签样本集合;
Figure BDA0001060743720000038
表示所有样本的域标签集合;y表示情感标签;ns表示源域样本个数。
进一步地,所述步骤S2中所述更新模型参数的实现包括如下:
S2.5,结合特征提取、情感标签预测和域标签预测的损失函数,得到总目标函数如下:
Figure BDA0001060743720000039
其中f把输入x映射成高层特征表示,Gy和Gd分别把高层特征表示映射成情感标签和域标签,Ly和Ld分别表示情感标签预测和域标签预测的损失函数,α衡量域标签预测项的贡献程度,β衡量正交损失函数的贡献程度;
S2.6,为了得到情感判别和域不变的特征,需要寻找总目标函数的一个鞍点:
Figure BDA00010607437200000311
S2.7,为了能使用梯度下降法来寻找这个鞍点,在特征提取层和域标签预测层之间加上了一个梯度反转层;在前向传播时,梯度反转层相对于一个恒等变换函数;在反向传播时,梯度会乘以一个负数-λ;用如下的伪函数来描述梯度反转层:
Rλ(x)=x,
Figure BDA0001060743720000041
其中I是单位矩阵;因此总目标函数的伪目标函数可以定义成如下形式:
所有的权重和偏置可以使用如下的梯度下降算法进行更新:
Figure BDA0001060743720000043
Figure BDA0001060743720000044
Figure BDA0001060743720000045
Figure BDA0001060743720000046
Figure BDA0001060743720000047
Figure BDA0001060743720000048
Figure BDA00010607437200000410
其中m=2,...,N,μ是学习率,α和β分别衡量域预测损失函数和正交损失函数的贡献程度,λ是梯度反转层的参数。
本发明的有益效果:
本发明的基于无监督域适应的语音情感识别方法,首先将输入特征映射成两种特征:情感判别特征和情感无关特征。将情感判别特征进行层次非线性转换得到高层情感特征,高层情感特征分别用于情感标签和域标签的预测,并用梯度下降法进行参数的更新。本发明解决了语音情感识别中训练样本和测试样本数据分布不同的问题,并且通过特征解开方法尽可能除去情感无关因素的影响。
附图说明
图1是基于无监督域适应的语音情感识别方法流程图;
图2是基于无监督域适应的语音情感识别方法框架图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
如图1所示,为本发明的总体流程图。首先对输入的训练语音数据进行预处理得到一个384维特征,作为输入数据。然后,进行模型的训练,模型训练时采用源域的有标签数据和目标域的无标签数据。所提出的模型包括三个部分:特征提取,情感标签预测,域标签预测。在特征提取部分,首先将原始输入数据分解成两块特征:情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。得到的高层情感特征分别用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,最终得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。对于目标域的测试语音样本,通过预处理提取384维特征作为输入数据,输入到训练好的特征提取部分,得到高层情感特征,再输入到训练好的SVM进行分类。具体步骤如下:
1训练过程
1.1语音数据的预处理过程
按照INTERSPEECH 2009情感挑战赛的要求,利用开源工具包openEAR从原始语音样本中提取384维特征,替代原始语音样本作为输入数据。
1.2模型训练
假设
Figure BDA0001060743720000051
表示源域有标签样本和相对应的情感标签集合,表示目标域无标签样本集合,其中ns和nt分别表示源域和目标域样本的个数。在这里,假设源域和目标域具有相同的特征空间和情感标签空间,例如每个样本x∈Rk及情感标签y∈{1,2,...,c}(c表示情感类别个数),但两个域的数据具有不同的数据分布。假设X={x|x∈Ds||x∈Dt}表示训练时所有可获得的源域有标签样本和目标域无标签样本集合,
Figure BDA0001060743720000053
表示所有样本的域标签集合(如果样本xi∈Ds,那么域标签di=1;如果样本xi∈Dt,那么域标签di=0),Y={y|y∈Ds}表示源域样本的情感标签集合。在训练模型时,可以使用X,D,Y。我们的最终目的是预测目标域样本的情感标签。
1.2.1特征提取
首先如图2的特征提取部分的左边部分。假设有N+1层,第n层有k(n)个结点,h(n)表示第n层的特征表示,n∈[0,1,...,N]。对于第零层,假设h(0)=x。那么第n层的特征表示为:
Figure BDA0001060743720000061
其中
Figure BDA0001060743720000062
表示权重矩阵,b(n)∈Rk(n)表示偏置,
Figure BDA0001060743720000063
表示非线性激活函数,例如sigmoid激活函数。这部分的参数
Figure BDA0001060743720000064
如果只使用图2特征提取部分的左边部分,提取到的特征通常会掺杂一些情感无关的因素(如说话人、内容和环境等)。这里引进一个正交项来解开情感判别因素和其他无关因素(也就是加入图2特征提取部分的右边部分)。对于输入x,把它映射成两块特征:一块编码输入数据的判别因素(图2特征提取部分的左边部分),
Figure BDA0001060743720000065
另一块编码输入数据的其他因素(图2特征提取部分的右边部分),
Figure BDA0001060743720000066
w是权重矩阵,c是偏置。参数分别是θe={W(1),b(1)}和θo={w,c}。具体地,为了让这两块特征可以有效地解开,让第i个情感相关特征的敏感度向量
Figure BDA0001060743720000068
和每个情感无关的特征
Figure BDA0001060743720000069
的敏感度向量
Figure BDA00010607437200000610
正交。对这两块特征进行约束的正交损失函数定义如下:
Figure BDA00010607437200000611
所以,对于输入x,经过图2所示的特征提取部分,最终得到它的高层特征表示h(N)
1.2.2情感标签和域标签预测
在得到输入x的高层特征表示h(N)之后,用它来预测情感标签和域标签。在训练时,由于缺乏目标域有标签样本,只有源域有标签样本用于情感标签的预测;而源域有标签样本和目标域无标签样本都有域标签,所以这些样本都用于域标签的预测。这里采用Softmax回归进行情感标签和域标签的预测。具体来说情感标签预测的损失函数Ly和域标签预测的损失函数Ld可以表示成如下形式:
Figure BDA00010607437200000612
Figure BDA0001060743720000071
其中
Figure BDA0001060743720000072
是进行情感标签预测时的softmax分类器参数,θyi是第i个情感类别的参数,
Figure BDA0001060743720000073
是θyi的转置;
Figure BDA0001060743720000074
是进行域标签预测时的softnax分类器参数,θdi是第i个域类别的参数,
Figure BDA0001060743720000075
是θdi的转置。
1.2.3参数优化
结合特征提取、情感标签预测和域标签预测的损失函数,总的目标函数如下:
Figure BDA0001060743720000076
其中f把输入x映射成高层特征表示,Gy和Gd分别把高层特征表示映射成情感标签和域标签,Ly和Ld分别表示情感标签预测和域标签预测的损失函数,α衡量域标签预测项的贡献程度,β衡量正交损失函数的贡献程度。
为了得到情感判别和域不变的特征,需要寻找公式(5)的一个鞍点:
Figure BDA0001060743720000077
为了能使用梯度下降法来寻找这个鞍点,在特征提取层和域标签预测层之间加上了一个梯度反转层。在前向传播时,梯度反转层相对于一个恒等变换函数;在反向传播时,梯度会乘以一个负数-λ。用如下的伪函数来描述梯度反转层:
Figure BDA0001060743720000078
其中I是单位矩阵。因此公式(5)的伪目标函数可以定义成如下形式:
Figure BDA0001060743720000079
所有的权重和偏置可以使用如下的梯度下降算法进行更新:
Figure BDA0001060743720000081
Figure BDA0001060743720000085
Figure BDA0001060743720000086
Figure BDA0001060743720000087
Figure BDA0001060743720000088
其中m=2,...,N,μ是学习率,α和β分别衡量域预测损失函数和正交损失函数的贡献程度,λ是梯度反转层的参数。
1.3特征提取
经过1.2节模型训练之后,得到特征提取层的参数。源域有标签样本通过这个特征提取层,得到高层的情感特征表示。
1.4分类器训练
将源域有标签样本的高层情感特征表示和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。
2测试过程
对任意一个测试语音样本,利用预处理提取的384维特征作为输入数据,输入到训练好的特征提取层得到高层情感特征,然后输入到训练好的SVM中进行分类。
综上所述,本发明公开了一种基于无监督域适应的语音情感识别方法。所提出的模型包括三个部分:特征提取,情感标签预测,域标签预测。在特征提取部分,首先将原始输入数据分解成两块特征:情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。得到的高层情感特征分别用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,最终得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于无监督域适应的语音情感识别方法,其特征在于,包括如下步骤:
S1,语音样本预处理:利用开源工具包openEAR从原始语音样本中提取384维特征,替代原始语音样本作为输入数据;
S2,模型训练:所述模型包括三部分:特征提取,情感标签预测,域标签预测;源域的有标签样本和目标域的无标签训练样本通过S1得到相应的384维特征作为模型的输入数据;具体实现包括如下:
在模型的特征提取层,输入数据通过不同的权重映射成两种特征:情感判别特征和情感无关特征;然后情感判别特征通过层次非线性转换得到高层情感特征;
源域有标签样本的高层情感特征用于情感标签的预测,源域和目标域样本的高层情感特征用于域标签的预测;
最后更新模型的参数,将两个标签预测器的损失进行反向传播,用梯度下降法进行参数的更新;
S3,特征提取:利用S2中训练好的特征提取层的参数,将源域有标签训练样本的384维特征转换成高层情感特征;
S4,分类器训练:利用S3中源域有标签训练样本的高层情感特征和相对应的情感标签,进行分类器SVM的训练;
S5,语音情感识别:对任意一个目标域的语音测试样本,首先利用步骤S1提取384维特征作为输入数据,然后通过S2中训练好的特征提取层得到高层情感特征,最后输入到S4训练好的SVM中进行分类。
2.根据权利要求1所述的一种基于无监督域适应的语音情感识别方法,其特征在于,所述步骤S2中所述特征提取层的实现包括如下:
S2.1,设有N+1层,第n层有k(n)个结点,h(n)表示第n层的特征表示,n∈[0,1,...,N];对于第零层,假设h(0)=x,x为输入样本;那么第n层的特征表示为:
Figure FDA0002235179300000011
其中表示权重矩阵,且该权重矩阵的维度为k(n)×k(n-1)
Figure FDA0002235179300000013
表示偏置,且该偏置项的维度为k(n)
Figure FDA0002235179300000014
表示非线性激活函数;
S2.2,为了消除提取到的特征掺杂一些情感无关的因素,引进一个正交项来解开情感判别因素和其他无关因素;对于输入x,把它映射成两块特征:一块编码输入数据的判别因素,
Figure FDA0002235179300000021
另一块编码输入数据的其他因素,参数分别是θe={W(1),b(1)}和θo={w,c};
S2.3,为了让这两块特征能够有效地解开,让第i个情感相关特征
Figure FDA0002235179300000023
的敏感度向量
Figure FDA0002235179300000024
和每个情感无关的特征
Figure FDA0002235179300000025
的敏感度向量
Figure FDA0002235179300000026
正交;进一步,对这两块特征进行约束的正交损失函数定义如下:
Figure FDA0002235179300000027
其中
Figure FDA0002235179300000028
表示所有样本的域标签集合;
S2.4,对于输入x,经过上述特征提取过程,得到它的高层特征表示h(N)
w,c分别表示权重和偏置;ns和nt分别表示源域和目标域样本的个数。
3.根据权利要求2所述的一种基于无监督域适应的语音情感识别方法,其特征在于,所述步骤S2中所述情感标签预测和域标签预测的实现包括如下:
利用得到的高层特征表示h(N)来预测情感标签和域标签:采用Softmax回归进行情感标签和域标签的预测,具体地,情感标签预测的损失函数Ly和域标签预测的损失函数Ld表示成如下形式:
Figure FDA0002235179300000029
Figure FDA00022351793000000210
其中
Figure FDA00022351793000000211
是情感标签预测的参数,且参数中的每一项数据的维度为1×k(N)
Figure FDA00022351793000000212
是域标签预测的参数;
Figure FDA00022351793000000213
X={x|x∈Ds||x∈Dt}表示训练时所有可获得的源域有标签样本和目标域无标签样本集合;
Figure FDA00022351793000000214
表示所有样本的域标签集合;y表示情感标签;ns表示源域样本个数,
Figure FDA00022351793000000215
表示源域有标签样本和相对应的情感标签集合,
Figure FDA00022351793000000216
表示目标域无标签样本集合。
4.根据权利要求3所述的一种基于无监督域适应的语音情感识别方法,其特征在于,所述步骤S2中所述更新模型参数的实现包括如下:
S2.5,结合特征提取、情感标签预测和域标签预测的损失函数,得到总目标函数如下:
Figure FDA0002235179300000031
其中f把输入x映射成高层特征表示,Gy和Gd分别把高层特征表示映射成情感标签和域标签,Ly和Ld分别表示情感标签预测和域标签预测的损失函数,Lortheo)表示正交损失函数,α衡量域标签预测项的贡献程度,β衡量正交损失函数的贡献程度;
S2.6,为了得到情感判别和域不变的特征,需要寻找总目标函数的一个鞍点:
Figure FDA0002235179300000032
S2.7,为了能使用梯度下降法来寻找这个鞍点,在特征提取层和域标签预测层之间加上了一个梯度反转层;在前向传播时,梯度反转层相对于一个恒等变换函数;在反向传播时,梯度会乘以一个负数-λ;用如下的伪函数来描述梯度反转层:
Rλ(x)=x,
Figure FDA0002235179300000034
其中I是单位矩阵;因此总目标函数的伪目标函数定义成如下形式:
Figure FDA0002235179300000035
所有的权重和偏置使用如下的梯度下降算法进行更新:
Figure FDA0002235179300000041
Figure FDA0002235179300000042
Figure FDA0002235179300000043
Figure FDA0002235179300000044
Figure FDA0002235179300000045
Figure FDA0002235179300000046
Figure FDA0002235179300000047
其中m=2,...,N,μ是学习率,α和β分别衡量域预测损失函数和正交损失函数的贡献程度,λ是梯度反转层的参数,
Figure FDA0002235179300000049
表示伪目标函数。
CN201610600762.4A 2016-07-27 2016-07-27 一种基于无监督域适应的语音情感识别方法 Active CN106469560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610600762.4A CN106469560B (zh) 2016-07-27 2016-07-27 一种基于无监督域适应的语音情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610600762.4A CN106469560B (zh) 2016-07-27 2016-07-27 一种基于无监督域适应的语音情感识别方法

Publications (2)

Publication Number Publication Date
CN106469560A CN106469560A (zh) 2017-03-01
CN106469560B true CN106469560B (zh) 2020-01-24

Family

ID=58229885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610600762.4A Active CN106469560B (zh) 2016-07-27 2016-07-27 一种基于无监督域适应的语音情感识别方法

Country Status (1)

Country Link
CN (1) CN106469560B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107705807B (zh) * 2017-08-24 2019-08-27 平安科技(深圳)有限公司 基于情绪识别的语音质检方法、装置、设备及存储介质
CN107885770B (zh) * 2017-09-28 2021-12-24 努比亚技术有限公司 目标域数据库构建、样本识别方法、终端及存储介质
CN108364662B (zh) * 2017-12-29 2021-01-05 中国科学院自动化研究所 基于成对鉴别任务的语音情感识别方法与系统
CN108197670B (zh) * 2018-01-31 2021-06-15 国信优易数据股份有限公司 伪标签生成模型训练方法、装置及伪标签生成方法及装置
CN108304876B (zh) * 2018-01-31 2021-07-06 国信优易数据股份有限公司 分类模型训练方法、装置及分类方法及装置
CN108460415B (zh) * 2018-02-28 2021-06-15 国信优易数据股份有限公司 一种语种识别方法
CN108630199A (zh) * 2018-06-30 2018-10-09 中国人民解放军战略支援部队信息工程大学 一种声学模型的数据处理方法
CN109376620A (zh) * 2018-09-30 2019-02-22 华北电力大学 一种风电机组齿轮箱故障的迁移诊断方法
CN109447149B (zh) * 2018-10-25 2021-11-02 腾讯医疗健康(深圳)有限公司 一种检测模型的训练方法、装置及终端设备
CN110111797A (zh) * 2019-04-04 2019-08-09 湖北工业大学 基于高斯超矢量和深度神经网络的说话人识别方法
CN110364186B (zh) * 2019-08-08 2021-06-25 清华大学深圳研究生院 一种基于对抗学习的端到端的跨语言语音情感识别方法
CN110580457A (zh) * 2019-08-22 2019-12-17 西安理工大学 一种基于面部显著特征的情感分析方法
CN111046760B (zh) * 2019-11-29 2023-08-08 山东浪潮科学研究院有限公司 一种基于域对抗网络的笔迹鉴定方法
CN110992988B (zh) * 2019-12-24 2022-03-08 东南大学 一种基于领域对抗的语音情感识别方法及装置
CN111753549B (zh) * 2020-05-22 2023-07-21 江苏大学 一种基于注意力机制的多模态情感特征学习、识别方法
CN111998936B (zh) * 2020-08-25 2022-04-15 四川长虹电器股份有限公司 一种基于迁移学习的设备异音检测方法及系统
CN115240649B (zh) * 2022-07-19 2023-04-18 于振华 一种基于深度学习的语音识别方法和系统
CN116740117B (zh) * 2023-06-09 2024-02-06 华东师范大学 一种基于无监督域适应的胃癌病理图像分割方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201980A (zh) * 2007-12-19 2008-06-18 北京交通大学 一种基于语音情感识别的远程汉语教学系统
KR20100128023A (ko) * 2009-05-27 2010-12-07 세종대학교산학협력단 생체신호 기반의 감정인식 시스템
CN103544963A (zh) * 2013-11-07 2014-01-29 东南大学 一种基于核半监督判别分析的语音情感识别方法
CN104616005A (zh) * 2015-03-10 2015-05-13 南京宜开数据分析技术有限公司 一种领域自适应的人脸表情分析方法
CN105469109A (zh) * 2015-11-19 2016-04-06 中国地质大学(武汉) 一种用于遥感图像分类的基于类心对齐的迁移学习方法
CN105760852A (zh) * 2016-03-14 2016-07-13 江苏大学 一种融合脸部表情和语音的驾驶员情感实时识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201980A (zh) * 2007-12-19 2008-06-18 北京交通大学 一种基于语音情感识别的远程汉语教学系统
KR20100128023A (ko) * 2009-05-27 2010-12-07 세종대학교산학협력단 생체신호 기반의 감정인식 시스템
CN103544963A (zh) * 2013-11-07 2014-01-29 东南大学 一种基于核半监督判别分析的语音情感识别方法
CN104616005A (zh) * 2015-03-10 2015-05-13 南京宜开数据分析技术有限公司 一种领域自适应的人脸表情分析方法
CN105469109A (zh) * 2015-11-19 2016-04-06 中国地质大学(武汉) 一种用于遥感图像分类的基于类心对齐的迁移学习方法
CN105760852A (zh) * 2016-03-14 2016-07-13 江苏大学 一种融合脸部表情和语音的驾驶员情感实时识别方法

Also Published As

Publication number Publication date
CN106469560A (zh) 2017-03-01

Similar Documents

Publication Publication Date Title
CN106469560B (zh) 一种基于无监督域适应的语音情感识别方法
CN109902145B (zh) 一种基于注意力机制的实体关系联合抽取方法和系统
CN108984724B (zh) 利用高维表示提高特定属性情感分类准确率方法
CN111079985B (zh) 一种基于bert并融合可区分属性特征的刑事案件刑期预测方法
CN108536754A (zh) 基于blstm和注意力机制的电子病历实体关系抽取方法
CN112015863B (zh) 一种基于图神经网络的多元特征融合中文文本分类方法
CN109918510A (zh) 跨领域关键词提取方法
CN113887643B (zh) 一种基于伪标签自训练和源域再训练的新对话意图识别方法
CN109598387A (zh) 基于双向跨模态注意力网络模型的股价预测方法及系统
CN113742733B (zh) 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置
CN110569355B (zh) 一种基于词块的观点目标抽取和目标情感分类联合方法及系统
CN111222318A (zh) 基于双通道双向lstm-crf网络的触发词识别方法
CN112989830B (zh) 一种基于多元特征和机器学习的命名实体识别方法
CN112541340B (zh) 基于变分双主题表征的弱监督涉案微博评价对象识别方法
CN116910571A (zh) 一种基于原型对比学习的开集域适应方法及系统
CN113590819A (zh) 一种大规模类别层级文本分类方法
CN117993002A (zh) 一种基于人工智能的数据安全保护方法
CN111191033B (zh) 一种基于分类效用的开集分类方法
CN114048314B (zh) 一种自然语言隐写分析方法
CN114610871B (zh) 基于人工智能算法的情报系统建模分析方法
CN116050419A (zh) 一种面向科学文献知识实体的无监督识别方法及系统
CN115658906A (zh) 基于标签自适应文本表征的大规模多标签文本分类方法
CN114357166A (zh) 一种基于深度学习的文本分类方法
Eledath et al. Few-shot learning for cross-lingual end-to-end speech recognition
CN117473096B (zh) 一种融合latex标签的知识点标注方法及其模型

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant