CN106469560B - 一种基于无监督域适应的语音情感识别方法 - Google Patents
一种基于无监督域适应的语音情感识别方法 Download PDFInfo
- Publication number
- CN106469560B CN106469560B CN201610600762.4A CN201610600762A CN106469560B CN 106469560 B CN106469560 B CN 106469560B CN 201610600762 A CN201610600762 A CN 201610600762A CN 106469560 B CN106469560 B CN 106469560B
- Authority
- CN
- China
- Prior art keywords
- domain
- emotion
- features
- level
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 22
- 230000006978 adaptation Effects 0.000 title claims abstract description 17
- 230000008451 emotion Effects 0.000 claims abstract description 101
- 238000000605 extraction Methods 0.000 claims abstract description 45
- 230000002996 emotional effect Effects 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000011478 gradient descent method Methods 0.000 claims abstract description 10
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 43
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 2
- 239000004576 sand Substances 0.000 claims description 2
- 238000009826 distribution Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Hospice & Palliative Care (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于无监督域适应的语音情感识别方法,提出的模型包括:特征提取,情感标签预测,域标签预测。特征提取:首先将原始输入数据分解成两块特征,情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。将高层情感特征用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。解决了语音情感识别中训练样本和测试样本数据分布不同的问题。
Description
技术领域
本发明属于情感识别领域,具体涉及一种基于无监督域适应的语音情感识别方法。
背景技术
传统的语音情感识别模型通常依赖于一个共同的假设:训练数据(源域数据)和测试数据(目标域数据)来自同一个数据库,即两个域具有相同的数据分布。但在实际情况下,这个条件很难满足,这主要是由于从不同设备和条件下收集到的语音数据存在很大的差异,这就使得训练数据和测试数据具有不同的数据分布,如果还是用传统的语音情感识别模型进行训练和测试,将会产生很大的性能衰退。
域适应方法可以很好的解决这个问题。但在特征学习过程中,大部分的域适应方法没有考虑到标签信息。同时,在这些域适应方法中,传统语音情感识别的一些优势(如在提取特征的过程中考虑说话人、内容、环境等与情感无关的因素)也被忽略了。本发明通过一个简单的前向神经网络模型,提取出情感判别和域不变的特征。具体的,为了排除情感无关因素的影响,先将输入数据分解成两部分:情感判别特征和情感无关特征。然后情感相关特征进行层次非线性转换得到高层情感特征。为了使高层情感特征具有情感判别性和域不变性,将高层情感特征分别用于情感标签预测和域标签预测。
发明内容
本发明的目的在于提供一种基于无监督域适应的语音情感识别方法,使得学到的特征尽可能排除情感无关因素的影响,并且具有情感判别性和域不变性。
为了解决以上问题,本发明首先对原始语音样本进行预处理,得到一个384维特征作为输入数据。然后将输入特征映射成两种特征:情感判别特征和情感无关特征;情感判别特征是和情感相关的特征、有助于情感分类的特征;情感无关特征是体现说话人变化、环境噪音等一些与情感变化无关因素、不利于情感分类的特征。将情感判别特征进行层次非线性转换得到高层情感特征,高层情感特征分别用于情感标签和域标签的预测,并用梯度下降法进行模型参数的更新。具体技术方案如下:
一种基于无监督域适应的语音情感识别方法,包括如下步骤:
S1,语音样本预处理:按照INTERSPEECH 2009情感挑战赛的要求,利用开源工具包openEAR从原始语音样本中提取384维特征,替代原始语音样本作为输入数据;
S2,模型训练:所述模型包括三部分:特征提取,情感标签预测,域标签预测;源域的有标签样本和目标域的无标签训练样本通过S1得到相应的384维特征作为模型的输入数据;具体实现包括如下:
在模型的特征提取层,输入数据通过不同的权重映射成两种特征:情感判别特征和情感无关特征;然后情感判别特征通过层次非线性转换得到高层情感特征;
源域有标签样本的高层情感特征用于情感标签的预测,源域和目标域样本的高层情感特征用于域标签的预测;
最后更新模型的参数,将两个标签预测器的损失进行反向传播,用梯度下降法进行参数的更新;
S3,特征提取:利用S2中训练好的特征提取层的参数,将源域有标签训练样本的384维特征转换成高层情感特征;
S4,分类器训练:利用S3中源域有标签训练样本的高层情感特征和相对应的情感标签,进行分类器SVM的训练;
S5,语音情感识别:对任意一个目标域的语音测试样本,首先利用步骤S1提取384维特征作为输入数据,然后通过S2中训练好的特征提取层得到高层情感特征,最后输入到S4训练好的SVM中进行分类。
进一步地,所述步骤S2中所述特征提取层的实现包括如下:
S2.1,设有N+1层,第n层有k(n)个结点,h(n)表示第n层的特征表示,n∈[0,1,...,N];对于第零层,假设h(0)=x,x为输入样本;那么第n层的特征表示为:
S2.2,为了消除提取到的特征掺杂一些情感无关的因素,引进一个正交项来解开情感判别因素和其他无关因素;对于输入x,把它映射成两块特征:一块编码输入数据的判别因素,另一块编码输入数据的其他因素,w是权重矩阵,c是偏置;参数分别是θe={W(1),b(1)}和θo={w,c};
S2.4,对于输入x,经过上述特征提取过程,得到它的高层特征表示h(N)。
进一步地,所述步骤S2中所述情感标签预测和域标签预测的实现包括如下:
利用得到的高层特征表示h(N)来预测情感标签和域标签:采用Softmax回归进行情感标签和域标签的预测,具体地,情感标签预测的损失函数Ly和域标签预测的损失函数Ld可以表示成如下形式:
其中是情感标签预测的参数,是域标签预测的参数;X={x|x∈Ds||x∈Dt}表示训练时所有可获得的源域有标签样本和目标域无标签样本集合;表示所有样本的域标签集合;y表示情感标签;ns表示源域样本个数。
进一步地,所述步骤S2中所述更新模型参数的实现包括如下:
S2.5,结合特征提取、情感标签预测和域标签预测的损失函数,得到总目标函数如下:
其中f把输入x映射成高层特征表示,Gy和Gd分别把高层特征表示映射成情感标签和域标签,Ly和Ld分别表示情感标签预测和域标签预测的损失函数,α衡量域标签预测项的贡献程度,β衡量正交损失函数的贡献程度;
S2.6,为了得到情感判别和域不变的特征,需要寻找总目标函数的一个鞍点:
S2.7,为了能使用梯度下降法来寻找这个鞍点,在特征提取层和域标签预测层之间加上了一个梯度反转层;在前向传播时,梯度反转层相对于一个恒等变换函数;在反向传播时,梯度会乘以一个负数-λ;用如下的伪函数来描述梯度反转层:
Rλ(x)=x,
其中I是单位矩阵;因此总目标函数的伪目标函数可以定义成如下形式:
所有的权重和偏置可以使用如下的梯度下降算法进行更新:
其中m=2,...,N,μ是学习率,α和β分别衡量域预测损失函数和正交损失函数的贡献程度,λ是梯度反转层的参数。
本发明的有益效果:
本发明的基于无监督域适应的语音情感识别方法,首先将输入特征映射成两种特征:情感判别特征和情感无关特征。将情感判别特征进行层次非线性转换得到高层情感特征,高层情感特征分别用于情感标签和域标签的预测,并用梯度下降法进行参数的更新。本发明解决了语音情感识别中训练样本和测试样本数据分布不同的问题,并且通过特征解开方法尽可能除去情感无关因素的影响。
附图说明
图1是基于无监督域适应的语音情感识别方法流程图;
图2是基于无监督域适应的语音情感识别方法框架图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
如图1所示,为本发明的总体流程图。首先对输入的训练语音数据进行预处理得到一个384维特征,作为输入数据。然后,进行模型的训练,模型训练时采用源域的有标签数据和目标域的无标签数据。所提出的模型包括三个部分:特征提取,情感标签预测,域标签预测。在特征提取部分,首先将原始输入数据分解成两块特征:情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。得到的高层情感特征分别用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,最终得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。对于目标域的测试语音样本,通过预处理提取384维特征作为输入数据,输入到训练好的特征提取部分,得到高层情感特征,再输入到训练好的SVM进行分类。具体步骤如下:
1训练过程
1.1语音数据的预处理过程
按照INTERSPEECH 2009情感挑战赛的要求,利用开源工具包openEAR从原始语音样本中提取384维特征,替代原始语音样本作为输入数据。
1.2模型训练
假设表示源域有标签样本和相对应的情感标签集合,表示目标域无标签样本集合,其中ns和nt分别表示源域和目标域样本的个数。在这里,假设源域和目标域具有相同的特征空间和情感标签空间,例如每个样本x∈Rk及情感标签y∈{1,2,...,c}(c表示情感类别个数),但两个域的数据具有不同的数据分布。假设X={x|x∈Ds||x∈Dt}表示训练时所有可获得的源域有标签样本和目标域无标签样本集合,表示所有样本的域标签集合(如果样本xi∈Ds,那么域标签di=1;如果样本xi∈Dt,那么域标签di=0),Y={y|y∈Ds}表示源域样本的情感标签集合。在训练模型时,可以使用X,D,Y。我们的最终目的是预测目标域样本的情感标签。
1.2.1特征提取
首先如图2的特征提取部分的左边部分。假设有N+1层,第n层有k(n)个结点,h(n)表示第n层的特征表示,n∈[0,1,...,N]。对于第零层,假设h(0)=x。那么第n层的特征表示为:
如果只使用图2特征提取部分的左边部分,提取到的特征通常会掺杂一些情感无关的因素(如说话人、内容和环境等)。这里引进一个正交项来解开情感判别因素和其他无关因素(也就是加入图2特征提取部分的右边部分)。对于输入x,把它映射成两块特征:一块编码输入数据的判别因素(图2特征提取部分的左边部分),另一块编码输入数据的其他因素(图2特征提取部分的右边部分),w是权重矩阵,c是偏置。参数分别是θe={W(1),b(1)}和θo={w,c}。具体地,为了让这两块特征可以有效地解开,让第i个情感相关特征的敏感度向量和每个情感无关的特征的敏感度向量正交。对这两块特征进行约束的正交损失函数定义如下:
所以,对于输入x,经过图2所示的特征提取部分,最终得到它的高层特征表示h(N)。
1.2.2情感标签和域标签预测
在得到输入x的高层特征表示h(N)之后,用它来预测情感标签和域标签。在训练时,由于缺乏目标域有标签样本,只有源域有标签样本用于情感标签的预测;而源域有标签样本和目标域无标签样本都有域标签,所以这些样本都用于域标签的预测。这里采用Softmax回归进行情感标签和域标签的预测。具体来说情感标签预测的损失函数Ly和域标签预测的损失函数Ld可以表示成如下形式:
1.2.3参数优化
结合特征提取、情感标签预测和域标签预测的损失函数,总的目标函数如下:
其中f把输入x映射成高层特征表示,Gy和Gd分别把高层特征表示映射成情感标签和域标签,Ly和Ld分别表示情感标签预测和域标签预测的损失函数,α衡量域标签预测项的贡献程度,β衡量正交损失函数的贡献程度。
为了得到情感判别和域不变的特征,需要寻找公式(5)的一个鞍点:
为了能使用梯度下降法来寻找这个鞍点,在特征提取层和域标签预测层之间加上了一个梯度反转层。在前向传播时,梯度反转层相对于一个恒等变换函数;在反向传播时,梯度会乘以一个负数-λ。用如下的伪函数来描述梯度反转层:
其中I是单位矩阵。因此公式(5)的伪目标函数可以定义成如下形式:
所有的权重和偏置可以使用如下的梯度下降算法进行更新:
其中m=2,...,N,μ是学习率,α和β分别衡量域预测损失函数和正交损失函数的贡献程度,λ是梯度反转层的参数。
1.3特征提取
经过1.2节模型训练之后,得到特征提取层的参数。源域有标签样本通过这个特征提取层,得到高层的情感特征表示。
1.4分类器训练
将源域有标签样本的高层情感特征表示和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。
2测试过程
对任意一个测试语音样本,利用预处理提取的384维特征作为输入数据,输入到训练好的特征提取层得到高层情感特征,然后输入到训练好的SVM中进行分类。
综上所述,本发明公开了一种基于无监督域适应的语音情感识别方法。所提出的模型包括三个部分:特征提取,情感标签预测,域标签预测。在特征提取部分,首先将原始输入数据分解成两块特征:情感判别特征和情感无关特征,然后将情感判别特征进行层次非线性转换得到高层情感特征。得到的高层情感特征分别用于情感标签和域标签的预测。利用梯度下降法对整个模型的参数进行更新,最终得到特征提取层的各层权重。然后,进行特征提取,源域有标签样本通过训练好的特征提取层得到高层情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于无监督域适应的语音情感识别方法,其特征在于,包括如下步骤:
S1,语音样本预处理:利用开源工具包openEAR从原始语音样本中提取384维特征,替代原始语音样本作为输入数据;
S2,模型训练:所述模型包括三部分:特征提取,情感标签预测,域标签预测;源域的有标签样本和目标域的无标签训练样本通过S1得到相应的384维特征作为模型的输入数据;具体实现包括如下:
在模型的特征提取层,输入数据通过不同的权重映射成两种特征:情感判别特征和情感无关特征;然后情感判别特征通过层次非线性转换得到高层情感特征;
源域有标签样本的高层情感特征用于情感标签的预测,源域和目标域样本的高层情感特征用于域标签的预测;
最后更新模型的参数,将两个标签预测器的损失进行反向传播,用梯度下降法进行参数的更新;
S3,特征提取:利用S2中训练好的特征提取层的参数,将源域有标签训练样本的384维特征转换成高层情感特征;
S4,分类器训练:利用S3中源域有标签训练样本的高层情感特征和相对应的情感标签,进行分类器SVM的训练;
S5,语音情感识别:对任意一个目标域的语音测试样本,首先利用步骤S1提取384维特征作为输入数据,然后通过S2中训练好的特征提取层得到高层情感特征,最后输入到S4训练好的SVM中进行分类。
2.根据权利要求1所述的一种基于无监督域适应的语音情感识别方法,其特征在于,所述步骤S2中所述特征提取层的实现包括如下:
S2.1,设有N+1层,第n层有k(n)个结点,h(n)表示第n层的特征表示,n∈[0,1,...,N];对于第零层,假设h(0)=x,x为输入样本;那么第n层的特征表示为:
S2.2,为了消除提取到的特征掺杂一些情感无关的因素,引进一个正交项来解开情感判别因素和其他无关因素;对于输入x,把它映射成两块特征:一块编码输入数据的判别因素,另一块编码输入数据的其他因素,参数分别是θe={W(1),b(1)}和θo={w,c};
S2.4,对于输入x,经过上述特征提取过程,得到它的高层特征表示h(N);
w,c分别表示权重和偏置;ns和nt分别表示源域和目标域样本的个数。
3.根据权利要求2所述的一种基于无监督域适应的语音情感识别方法,其特征在于,所述步骤S2中所述情感标签预测和域标签预测的实现包括如下:
利用得到的高层特征表示h(N)来预测情感标签和域标签:采用Softmax回归进行情感标签和域标签的预测,具体地,情感标签预测的损失函数Ly和域标签预测的损失函数Ld表示成如下形式:
4.根据权利要求3所述的一种基于无监督域适应的语音情感识别方法,其特征在于,所述步骤S2中所述更新模型参数的实现包括如下:
S2.5,结合特征提取、情感标签预测和域标签预测的损失函数,得到总目标函数如下:
其中f把输入x映射成高层特征表示,Gy和Gd分别把高层特征表示映射成情感标签和域标签,Ly和Ld分别表示情感标签预测和域标签预测的损失函数,Lorth(θe,θo)表示正交损失函数,α衡量域标签预测项的贡献程度,β衡量正交损失函数的贡献程度;
S2.6,为了得到情感判别和域不变的特征,需要寻找总目标函数的一个鞍点:
S2.7,为了能使用梯度下降法来寻找这个鞍点,在特征提取层和域标签预测层之间加上了一个梯度反转层;在前向传播时,梯度反转层相对于一个恒等变换函数;在反向传播时,梯度会乘以一个负数-λ;用如下的伪函数来描述梯度反转层:
Rλ(x)=x,
其中I是单位矩阵;因此总目标函数的伪目标函数定义成如下形式:
所有的权重和偏置使用如下的梯度下降算法进行更新:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610600762.4A CN106469560B (zh) | 2016-07-27 | 2016-07-27 | 一种基于无监督域适应的语音情感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610600762.4A CN106469560B (zh) | 2016-07-27 | 2016-07-27 | 一种基于无监督域适应的语音情感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106469560A CN106469560A (zh) | 2017-03-01 |
CN106469560B true CN106469560B (zh) | 2020-01-24 |
Family
ID=58229885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610600762.4A Active CN106469560B (zh) | 2016-07-27 | 2016-07-27 | 一种基于无监督域适应的语音情感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106469560B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705807B (zh) * | 2017-08-24 | 2019-08-27 | 平安科技(深圳)有限公司 | 基于情绪识别的语音质检方法、装置、设备及存储介质 |
CN107885770B (zh) * | 2017-09-28 | 2021-12-24 | 努比亚技术有限公司 | 目标域数据库构建、样本识别方法、终端及存储介质 |
CN108364662B (zh) * | 2017-12-29 | 2021-01-05 | 中国科学院自动化研究所 | 基于成对鉴别任务的语音情感识别方法与系统 |
CN108197670B (zh) * | 2018-01-31 | 2021-06-15 | 国信优易数据股份有限公司 | 伪标签生成模型训练方法、装置及伪标签生成方法及装置 |
CN108304876B (zh) * | 2018-01-31 | 2021-07-06 | 国信优易数据股份有限公司 | 分类模型训练方法、装置及分类方法及装置 |
CN108460415B (zh) * | 2018-02-28 | 2021-06-15 | 国信优易数据股份有限公司 | 一种语种识别方法 |
CN108630199A (zh) * | 2018-06-30 | 2018-10-09 | 中国人民解放军战略支援部队信息工程大学 | 一种声学模型的数据处理方法 |
CN109376620A (zh) * | 2018-09-30 | 2019-02-22 | 华北电力大学 | 一种风电机组齿轮箱故障的迁移诊断方法 |
CN109447149B (zh) * | 2018-10-25 | 2021-11-02 | 腾讯医疗健康(深圳)有限公司 | 一种检测模型的训练方法、装置及终端设备 |
CN110111797A (zh) * | 2019-04-04 | 2019-08-09 | 湖北工业大学 | 基于高斯超矢量和深度神经网络的说话人识别方法 |
CN110364186B (zh) * | 2019-08-08 | 2021-06-25 | 清华大学深圳研究生院 | 一种基于对抗学习的端到端的跨语言语音情感识别方法 |
CN110580457A (zh) * | 2019-08-22 | 2019-12-17 | 西安理工大学 | 一种基于面部显著特征的情感分析方法 |
CN111046760B (zh) * | 2019-11-29 | 2023-08-08 | 山东浪潮科学研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN110992988B (zh) * | 2019-12-24 | 2022-03-08 | 东南大学 | 一种基于领域对抗的语音情感识别方法及装置 |
CN111753549B (zh) * | 2020-05-22 | 2023-07-21 | 江苏大学 | 一种基于注意力机制的多模态情感特征学习、识别方法 |
CN111998936B (zh) * | 2020-08-25 | 2022-04-15 | 四川长虹电器股份有限公司 | 一种基于迁移学习的设备异音检测方法及系统 |
CN115240649B (zh) * | 2022-07-19 | 2023-04-18 | 于振华 | 一种基于深度学习的语音识别方法和系统 |
CN116740117B (zh) * | 2023-06-09 | 2024-02-06 | 华东师范大学 | 一种基于无监督域适应的胃癌病理图像分割方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101201980A (zh) * | 2007-12-19 | 2008-06-18 | 北京交通大学 | 一种基于语音情感识别的远程汉语教学系统 |
KR20100128023A (ko) * | 2009-05-27 | 2010-12-07 | 세종대학교산학협력단 | 생체신호 기반의 감정인식 시스템 |
CN103544963A (zh) * | 2013-11-07 | 2014-01-29 | 东南大学 | 一种基于核半监督判别分析的语音情感识别方法 |
CN104616005A (zh) * | 2015-03-10 | 2015-05-13 | 南京宜开数据分析技术有限公司 | 一种领域自适应的人脸表情分析方法 |
CN105469109A (zh) * | 2015-11-19 | 2016-04-06 | 中国地质大学(武汉) | 一种用于遥感图像分类的基于类心对齐的迁移学习方法 |
CN105760852A (zh) * | 2016-03-14 | 2016-07-13 | 江苏大学 | 一种融合脸部表情和语音的驾驶员情感实时识别方法 |
-
2016
- 2016-07-27 CN CN201610600762.4A patent/CN106469560B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101201980A (zh) * | 2007-12-19 | 2008-06-18 | 北京交通大学 | 一种基于语音情感识别的远程汉语教学系统 |
KR20100128023A (ko) * | 2009-05-27 | 2010-12-07 | 세종대학교산학협력단 | 생체신호 기반의 감정인식 시스템 |
CN103544963A (zh) * | 2013-11-07 | 2014-01-29 | 东南大学 | 一种基于核半监督判别分析的语音情感识别方法 |
CN104616005A (zh) * | 2015-03-10 | 2015-05-13 | 南京宜开数据分析技术有限公司 | 一种领域自适应的人脸表情分析方法 |
CN105469109A (zh) * | 2015-11-19 | 2016-04-06 | 中国地质大学(武汉) | 一种用于遥感图像分类的基于类心对齐的迁移学习方法 |
CN105760852A (zh) * | 2016-03-14 | 2016-07-13 | 江苏大学 | 一种融合脸部表情和语音的驾驶员情感实时识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106469560A (zh) | 2017-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106469560B (zh) | 一种基于无监督域适应的语音情感识别方法 | |
CN109902145B (zh) | 一种基于注意力机制的实体关系联合抽取方法和系统 | |
CN108984724B (zh) | 利用高维表示提高特定属性情感分类准确率方法 | |
CN111079985B (zh) | 一种基于bert并融合可区分属性特征的刑事案件刑期预测方法 | |
CN108536754A (zh) | 基于blstm和注意力机制的电子病历实体关系抽取方法 | |
CN112015863B (zh) | 一种基于图神经网络的多元特征融合中文文本分类方法 | |
CN109918510A (zh) | 跨领域关键词提取方法 | |
CN113887643B (zh) | 一种基于伪标签自训练和源域再训练的新对话意图识别方法 | |
CN109598387A (zh) | 基于双向跨模态注意力网络模型的股价预测方法及系统 | |
CN113742733B (zh) | 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置 | |
CN110569355B (zh) | 一种基于词块的观点目标抽取和目标情感分类联合方法及系统 | |
CN111222318A (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
CN112989830B (zh) | 一种基于多元特征和机器学习的命名实体识别方法 | |
CN112541340B (zh) | 基于变分双主题表征的弱监督涉案微博评价对象识别方法 | |
CN116910571A (zh) | 一种基于原型对比学习的开集域适应方法及系统 | |
CN113590819A (zh) | 一种大规模类别层级文本分类方法 | |
CN117993002A (zh) | 一种基于人工智能的数据安全保护方法 | |
CN111191033B (zh) | 一种基于分类效用的开集分类方法 | |
CN114048314B (zh) | 一种自然语言隐写分析方法 | |
CN114610871B (zh) | 基于人工智能算法的情报系统建模分析方法 | |
CN116050419A (zh) | 一种面向科学文献知识实体的无监督识别方法及系统 | |
CN115658906A (zh) | 基于标签自适应文本表征的大规模多标签文本分类方法 | |
CN114357166A (zh) | 一种基于深度学习的文本分类方法 | |
Eledath et al. | Few-shot learning for cross-lingual end-to-end speech recognition | |
CN117473096B (zh) | 一种融合latex标签的知识点标注方法及其模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |