CN110364186B - 一种基于对抗学习的端到端的跨语言语音情感识别方法 - Google Patents
一种基于对抗学习的端到端的跨语言语音情感识别方法 Download PDFInfo
- Publication number
- CN110364186B CN110364186B CN201910731716.1A CN201910731716A CN110364186B CN 110364186 B CN110364186 B CN 110364186B CN 201910731716 A CN201910731716 A CN 201910731716A CN 110364186 B CN110364186 B CN 110364186B
- Authority
- CN
- China
- Prior art keywords
- emotion
- language
- classifier
- voice
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000008451 emotion Effects 0.000 claims abstract description 96
- 238000012549 training Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000007306 turnover Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 16
- 238000010200 validation analysis Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000006549 dyspepsia Diseases 0.000 description 1
- 208000024798 heartburn Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于对抗学习的端到端的跨语言语音情感识别方法,包括:构建包括特征提取器、情感分类器和语言分类器的情感识别模型;接收原始数据对所述情感识别模型进行训练并在训练过程中使用梯度翻转层;利用训练好的所述情感识别模型预测源语言语音或目标语言语音的情感。通过构建包括特征提取器、情感分类器和语言分类器的情感识别模型,直接接受语音波形或者语谱图作为输入,不再需要其他数据预处理工作,免除了特征工程的工作;模型训练时采用梯度反转层以促进特征提取器提取语言无关的信息,适用于模型训练时一种语言的语音数据有大量的情感标签而其他语言的语音数据没有足够情感标签甚至没有情感标签的情况。
Description
技术领域
本发明涉及情感识别技术领域,尤其涉及一种基于对抗学习的端到端的跨语言语音情感识别方法。
背景技术
从语音中识别情感有利于构建更自然的人机语音交互系统。传统的方法需要一定的专家知识从语音中提取有效的特征进行情感识别。随着神经网络的兴起,越来越多的研究人员尝试构建基于神经网络的端到端语音情感识别模型,利用神经网络从原始数据(语音波形或语谱图)中直接提取特征用于情感识别。端到端的语音情感识别模型去除了繁琐昂贵的特征工程工作,并在数据规模较大的情况下取得了超越传统方法的效果。
在语音情感识别的研究和应用中,会遇到对多种语言进行情感识别的需求。甚至某些语言的情感数据资源非常丰富(有大量的带情感标签的语音)。而某些语音的情感数据资源相对比较匮乏(语料库中有很少情感标签或没有情感标签)。称情感数据资源丰富的语言为源语言,情感数据资源匮乏的语言成为目标语言。如何根据源语言语音的丰富的情感数据资源,提升模型在目标语言语音上的情感识别性能,即跨语言语音情感识别,一直是一个值得研究的问题。
现有的跨语言语音情感识别方法是基于传统的语音情感识别方法的,需要大量的特征工程或者手工提取特征的工作。
发明内容
本发明为了解决现有技术中语音情感识别方法需要大量的特征工程通过手工提取特征的工作的问题,提供一种基于对抗学习的端到端的跨语言语音情感识别方法。
为了解决上述问题,本发明采用的技术方案如下所述:
一种基于对抗学习的端到端的跨语言语音情感识别方法,包括如下步骤:S1:构建包括特征提取器、情感分类器和语言分类器的情感识别模型,S2:接收原始数据对所述情感识别模型进行训练并在训练过程中使用梯度翻转层;S3:利用训练好的所述情感识别模型预测源语言语音或目标语言语音的情感。
优选地,所述训练过程包括如下步骤:S21:所述特征提取器接收源语言语音和目标语言语音的所述原始数据作为输入并提取特征用于所述情感分类器和所述语言分类器;S22:筛选出对应所述源语言语音的特征作为所述情感分类器的输入得到情感标签,所述源语言语音和所述目标语言语音的特征经过一个梯度翻转层进入所述语言分类器得到语言标签。
优选地,所述源语言语音的数据有情感标签和语言标签;所述目标语言语音的数据仅有语言标签,或有语言标签和情感标签。
优选地,定义损失函数Le和Ll,其中Le根据所述情感分类器的输出与所述情感标签的差异而计算;Ll根据所述语言分类器和所述语言标签的差异而计算,则所述情感识别模型的总的损失函数L=Le+λLl,其中λ为权衡两个算是函数的权重系数。
优选地,训练过程中使用验证集,所述验证集上的损失函数Le和Ll不再降低时训练结束。
优选地,步骤S3包括如下步骤:S31:将所述源语言语音或所述目标语言语音的原始数据输入到所述特征提取器进行特征提取;
S32:将提取的所述特征输入到情感分类器得到所述源语言语音或所述目标语言语音的情感标签。
优选地,所述原始数据是语音波形或语谱图。
优选地,所述特征提取器、所述情感分类器和所述语言分类器是CNN网络、RNN网络、DNN网络或全连接网络。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。
本发明的有益效果为:提供一种基于对抗学习的端到端的跨语言语音情感识别方法,通过构建包括特征提取器、情感分类器和语言分类器的情感识别模型,直接接受语音波形或者语谱图作为输入,不再需要其他数据预处理工作,免除了特征工程的工作;模型训练时采用梯度反转层以促进特征提取器提取语言无关的信息,适用于模型训练时一种语言的语音数据有大量的情感标签而其他语言的语音数据没有足够情感标签甚至没有情感标签的情况。
附图说明
图1是本发明实施例中现有技术的情感识别方法的示意图。
图2是本发明实施例中基于对抗学习的端到端的跨语言语音情感识别方法的示意图。
图3是本发明实施例中情感识别模型的训练过程的方法示意图。
图4是本发明实施例中情感识别模型的训练过程的流程示意图。
图5是本发明实施例中情感识别模型对源语言语音或目标语言语音进行预测的方法示意图。
图6是本发明实施例中情感识别模型对源语言语音或目标语言语音进行预测的流程示意图。
图7是本发明实施例中用户端的情感识别流程示意图。
图8是本发明实施例中对源语言语音或目标语言语音预测的流程示意图。
图9是本发明实施例中语音的数值序列(语音波形)的示意图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接即可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
缩略语和关键术语定义
源语言语音:在跨语言语音情感识别中,具有丰富情感标签的语言(如英语)称为源语言语音。
目标语言语音:在跨语言语音情感识别中,具有少量情感标签、或没有情感标签的语言(如德语)称为目标语言语音。目标语言可以有多种。
Gf(·;θf):特征提取器。接受原始数据(语音波形或语谱图)作为输入,输出高层次的抽象特征用于分类。特征提取器可用多层CNN、RNN或全连接网络来实现。
Ge(·;θe):情感分类器。接受特征提取器所提取的高层次的抽象特征作为输入,输出情感标签(的后验概率)。情感分类器可用多层CNN、RNN或全连接网络来实现。
Gl(·;θl):语言分类器。接受特征提取器所提取的高层次的抽象特征作为输入,判断该特征对应于源语言语音还是目标语言语音。语言分类器可用多层CNN、RNN或全连接网络来实现。
如图1所示,随着神经网络的兴起,越来越多的研究人员尝试构建基于神经网络的端到端语音情感识别模型,利用神经网络从原始数据(语音波形或语谱图)中直接提取特征用于情感识别。端到端的语音情感识别模型去除了繁琐昂贵的特征工程工作,并在数据规模较大的情况下取得了超越传统方法的效果。
本申请提出了一种基于对抗学习的端到端的跨语言语音情感识别方法。该方法借助于对抗学习的训练方法,利用神经网络消除来自不同语言所提取的特征之间的差异。同时,模型直接接受语音波形或者语谱图作为输入,不需要再手工提取特征。基本思路为:源语言语音的数据有情感标签,情感识别可以看成一个分类任务,比如,情感标签为高兴、生气、伤心,中性这四种,目标语言语音的数据没有情感标签。跨语言语音情感识别指的是如何根据有数据标签的源语言语音数据训练一个神经网络模型,也能预测目标语言语音数据的情感。
现有技术中公开了一种跨语言的语音情感识别方法。该方法首先建立了一个汉语语料库和德语语料库,然后对其中的语音进行特征提取。计算每个特征分别关于两个语音库的Fisher判别系数,并排序选出情感区分度最高的一些特征。在训练和识别中采用高斯混合模型来分别进行参数估计和似然值得计算。可以有效地解决现有语音情感识别方法只针对某种语言的局限性,但存在如下缺点:
(1)需要手工对语音进行特征提取,特征工程的工作需要一定的专家知识而且是繁琐的。
(2)适用于汉语语料库和德语语料库中都有丰富的情感标签的情况。而当某一种语料库没有足够的情感标签或没有情感标签时,便无法进行跨语言语音情感识别。
如图2所示,本发明提供一种基于对抗学习的端到端的跨语言语音情感识别方法,包括如下步骤:
S1:构建包括特征提取器、情感分类器和语言分类器的情感识别模型,
S2:接收原始数据对所述情感识别模型进行训练并在训练过程中使用梯度翻转层;
S3:利用训练好的所述情感识别模型预测源语言语音或目标语言语音的情感。
情感识别模型的特征提取器(Gf(·;θf))、情感分类器(Ge(·;θe))和语言分类器(Gl(·;θl))都是多层神经网络,具体可以由CNN、RNN、DNN或全连接网络来实现。θf、θe、θl分别代表特征提取器、情感分类器和语言分类器的可训练参数。
原始数据可以是录音(wav,mp3等),计算机直接读取wav,mp3文件就可以得到语音波形。语音波形经过短时傅里叶变换就可以得到语谱图。语音模型或者语谱图作为输入都是可以的。
本发明的方法可以直接接收原始数据(语谱图或原始语音波形)作为输入,省去了一般语音情感识别中的特征工程工作(特征工程工作需要从语音中提取能量、基频等特征);同时,在目标语言语音的语音数据没有情感标签的情况下也能预测目标语言语音的发音。
如图3和图4所示,情感识别模型的训练过程包括如下步骤:
S21:所述特征提取器接收源语言语音和目标语言语音的所述原始数据作为输入并提取特征用于所述情感分类器和所述语言分类器;
S22:筛选出对应所述源语言语音的特征作为所述情感分类器的输入得到情感标签,所述源语言语音和所述目标语言语音的特征经过一个梯度翻转层进入所述语言分类器得到语言标签。
训练时要求源语言语音必须有情感标签,而目标语言语音的数据不一定有情感标签。源语言语音数据和目标语言语音数据都必须有语言标签(来自于源语言语音还是目标语言语音)。
语音情感数据库中每一条数据是一句话,每句话有一个情感标签,是高兴、生气、伤心,中性四种情感中的一个。这里的特征是指神经网路提取的特征,输入数据通过几层神经网络层后的中间层输出叫做特征。中文或英文的语言标签就是中文或英文。语言分类器做的是一个二分类任务。判断输入的特征是中文还是英文。
梯度翻转层的作用是:在神经网络正向传播过程中,仅执行复制操作;在神经网络的反向传播过程中,梯度经过该层乘以-1。本发明最先把它用在跨语言语音情感识别中。
本发明的方法主要是源语言语音的数据有情感标签(情感识别可以看成一个分类任务,情感标签可以有高兴、生气、伤心,中性这四种),目标语言语音的数据没有情感标签。跨语言语音情感识别指的是如何根据有数据标签的源语言语音数据训练一个神经网络模型,也能预测目标语言语音数据的情感。
训练过程中有两个损失函数,Le和Ll。其中Le根据情感分类器的输出与情感标签的差异而计算;Ll根据语言分类器和语言标签的差异而计算。所以模型总的损失函数L=Le+λLl,其中超参λ控制两个损失函数的相对权重。因此情感分类器的参数θe按照公式更新。其中μ>0为学习率。语言分类器的参数θl按照公式更新。由于梯度翻转层的作用,特征提取器的参数θf按照公式更新。训练过程中,在情感分类器的作用下,特征提取器会提取越来越多的包含情感信息的特征。同时,在语言分类器和梯度翻转层的作用下,特征提取器提取的特征会包含越来越少的语言相关的特征。
训练过程中使用验证集,所述验证集上的损失函数Le和Ll不再降低时训练结束。
如图5和图6所示,通过本发明的模型对源语言语音或目标语言语音进行预测包括如下步骤:
S31:将所述源语言语音或所述目标语言语音的原始数据输入到所述特征提取器进行特征提取;
S32:将提取的所述特征输入到情感分类器得到所述源语言语音或所述目标语言语音的情感标签。
如图7所示,用户只需提供来自源语言语音或者目标语言语音的原始数据作为输入(原始数据可以直接是语音波形,或语音波形通过短时傅里叶变换得到的语谱图),不再需要任何额外的特征工程工作。接受原始数据作为输入后,会输出该语音所对应的情感标签,如高兴,悲伤,生气等。
如图8和图9所示,用户以悲伤的情感读出“这是一个寂寞的秋天”这句话语音,计算机中这句话会以wav或mp3的格式存储这句语音。然后计算机读取wav或者mp3格式存储的语音,会得到一个数值序列(每一个采样点有一个值),计算机读取wav文件(或mp3文件)得到的数值序列即为语音波形,语音波形通过短时傅里叶变换后即可以得到语谱图。语音波形或者语谱图可以作为模型的输入,通过训练好的特征提取器和情感分类器后,会自动输出“悲伤”的标签。
上述计算机设备可以包括存储器、处理器及存储在上述存储器上并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时,可以实现本申请实施例提供的基于深度神经网络的多音字读音的判别方法。
一种基于对抗学习的端到端的跨语言语音情感识别的终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如前所述方法的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述基于对抗学习的端到端的跨语言语音情感识别的终端设备中的执行过程。
所述基于对抗学习的端到端的跨语言语音情感识别的终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述基于对抗学习的端到端的跨语言语音情感识别的终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是基于对抗学习的端到端的跨语言语音情感识别的终端设备的示例,并不构成对基于对抗学习的端到端的跨语言语音情感识别的终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述基于对抗学习的端到端的跨语言语音情感识别的终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述基于对抗学习的端到端的跨语言语音情感识别的终端设备的控制中心,利用各种接口和线路连接整个基于对抗学习的端到端的跨语言语音情感识别的终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述基于对抗学习的端到端的跨语言语音情感识别的终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述基于对抗学习的端到端的跨语言语音情感识别的终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,包括如下步骤:
S1:构建包括特征提取器、情感分类器和语言分类器的情感识别模型;
S2:接收原始数据对所述情感识别模型进行训练并在训练过程中使用梯度翻转层;所述原始数据是源语言和目标语言的语谱图或原始语音波形;所述源语言有情感标签,所述目标语言没有情感标签;
所述特征提取器接受所述原始数据作为输入,输出高层次的抽象特征用于分类;
所述情感分类器接受所述特征提取器所提取的高层次的抽象特征作为输入,输出情感标签;
所述语言分类器接受所述特征提取器所提取的高层次的抽象特征作为输入,判断该特征对应于源语言语音还是目标语言语音;
S3:利用训练好的所述情感识别模型预测源语言语音或目标语言语音的情感。
2.如权利要求1所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,所述训练过程包括如下步骤:
S21:所述特征提取器接收源语言语音和目标语言语音的所述原始数据作为输入并提取特征用于所述情感分类器和所述语言分类器;
S22:筛选出对应所述源语言语音的特征作为所述情感分类器的输入得到情感标签,所述源语言语音和所述目标语言语音的特征经过一个梯度翻转层进入所述语言分类器得到语言标签。
3.如权利要求2所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,所述源语言语音的数据有情感标签和语言标签;所述目标语言语音的数据仅有语言标签,或有语言标签和情感标签。
4.如权利要求3所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,定义损失函数Le和Ll,其中Le根据所述情感分类器的输出与所述情感标签的差异而计算;Ll根据所述语言分类器和所述语言标签的差异而计算,则所述情感识别模型的总的损失函数L=Le+λLl,其中λ为权衡两个损失函数的权重系数。
6.如权利要求5所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,训练过程中使用验证集,所述验证集上的损失函数Le和Ll不再降低时训练结束。
7.如权利要求1所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,步骤S3包括如下步骤:
S31:将所述源语言语音或所述目标语言语音的原始数据输入到所述特征提取器进行特征提取;
S32:将提取的所述特征输入到情感分类器得到所述源语言语音或所述目标语言语音的情感标签。
8.如权利要求1-7任一所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,所述原始数据是语音波形或语谱图。
9.如权利要求1-7任一所述的基于对抗学习的端到端的跨语言语音情感识别方法,其特征在于,所述特征提取器、所述情感分类器和所述语言分类器是CNN网络、RNN网络、DNN网络或全连接网络。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-9任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910731716.1A CN110364186B (zh) | 2019-08-08 | 2019-08-08 | 一种基于对抗学习的端到端的跨语言语音情感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910731716.1A CN110364186B (zh) | 2019-08-08 | 2019-08-08 | 一种基于对抗学习的端到端的跨语言语音情感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110364186A CN110364186A (zh) | 2019-10-22 |
CN110364186B true CN110364186B (zh) | 2021-06-25 |
Family
ID=68223515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910731716.1A Active CN110364186B (zh) | 2019-08-08 | 2019-08-08 | 一种基于对抗学习的端到端的跨语言语音情感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110364186B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11875131B2 (en) | 2020-09-16 | 2024-01-16 | International Business Machines Corporation | Zero-shot cross-lingual transfer learning |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110941955A (zh) * | 2019-11-25 | 2020-03-31 | 中国科学院自动化研究所 | 跨语言事件分类方法及装置 |
US20230160862A1 (en) * | 2020-04-17 | 2023-05-25 | Shimadzu Corporation | Waveform information inference method and device, and peak waveform processing method and device |
CN111933187B (zh) * | 2020-09-21 | 2021-02-05 | 深圳追一科技有限公司 | 情感识别模型的训练方法、装置、计算机设备和存储介质 |
CN112908300B (zh) * | 2021-01-16 | 2024-05-17 | 西安电子科技大学 | 一种语音对抗样本检测方法、系统、存储介质及应用 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964019A (zh) * | 2010-09-10 | 2011-02-02 | 北京航空航天大学 | 基于Agent技术的对抗行为建模仿真平台及仿真方法 |
CN103488623A (zh) * | 2013-09-04 | 2014-01-01 | 中国科学院计算技术研究所 | 多种语言文本数据分类处理方法 |
CN103578481A (zh) * | 2012-07-24 | 2014-02-12 | 东南大学 | 一种跨语言的语音情感识别方法 |
US9177549B2 (en) * | 2013-11-01 | 2015-11-03 | Google Inc. | Method and system for cross-lingual voice conversion |
CN106469560A (zh) * | 2016-07-27 | 2017-03-01 | 江苏大学 | 一种基于无监督域适应的语音情感识别方法 |
CN107025284A (zh) * | 2017-04-06 | 2017-08-08 | 中南大学 | 网络评论文本情感倾向的识别方法及卷积神经网络模型 |
CN108009633A (zh) * | 2017-12-15 | 2018-05-08 | 清华大学 | 一种面向跨领域智能分析的多网络对抗学习方法和系统 |
CN109492099A (zh) * | 2018-10-28 | 2019-03-19 | 北京工业大学 | 一种基于领域对抗自适应的跨领域文本情感分类方法 |
CN110085263A (zh) * | 2019-04-28 | 2019-08-02 | 东华大学 | 一种音乐情感分类和机器作曲方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11205103B2 (en) * | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
CN109377978B (zh) * | 2018-11-12 | 2021-01-26 | 南京邮电大学 | 非平行文本条件下基于i向量的多对多说话人转换方法 |
-
2019
- 2019-08-08 CN CN201910731716.1A patent/CN110364186B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964019A (zh) * | 2010-09-10 | 2011-02-02 | 北京航空航天大学 | 基于Agent技术的对抗行为建模仿真平台及仿真方法 |
CN103578481A (zh) * | 2012-07-24 | 2014-02-12 | 东南大学 | 一种跨语言的语音情感识别方法 |
CN103488623A (zh) * | 2013-09-04 | 2014-01-01 | 中国科学院计算技术研究所 | 多种语言文本数据分类处理方法 |
US9177549B2 (en) * | 2013-11-01 | 2015-11-03 | Google Inc. | Method and system for cross-lingual voice conversion |
CN106469560A (zh) * | 2016-07-27 | 2017-03-01 | 江苏大学 | 一种基于无监督域适应的语音情感识别方法 |
CN107025284A (zh) * | 2017-04-06 | 2017-08-08 | 中南大学 | 网络评论文本情感倾向的识别方法及卷积神经网络模型 |
CN108009633A (zh) * | 2017-12-15 | 2018-05-08 | 清华大学 | 一种面向跨领域智能分析的多网络对抗学习方法和系统 |
CN109492099A (zh) * | 2018-10-28 | 2019-03-19 | 北京工业大学 | 一种基于领域对抗自适应的跨领域文本情感分类方法 |
CN110085263A (zh) * | 2019-04-28 | 2019-08-02 | 东华大学 | 一种音乐情感分类和机器作曲方法 |
Non-Patent Citations (1)
Title |
---|
《Domain Adversarial for Acoustic Emotion Recognition》;Mohammed Abdelwahab et al.;《IEEE/ACM TRANSAC TIONS ON AUDIO, SPEECH, AND LANGUAGE P ROCESSING, VOL. 26, NO. 12, DECEMBER 2018》;20181231;全文 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11875131B2 (en) | 2020-09-16 | 2024-01-16 | International Business Machines Corporation | Zero-shot cross-lingual transfer learning |
Also Published As
Publication number | Publication date |
---|---|
CN110364186A (zh) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110364186B (zh) | 一种基于对抗学习的端到端的跨语言语音情感识别方法 | |
US10614795B2 (en) | Acoustic model generation method and device, and speech synthesis method | |
CN110110062B (zh) | 机器智能问答方法、装置与电子设备 | |
US8676574B2 (en) | Method for tone/intonation recognition using auditory attention cues | |
CN110379409B (zh) | 语音合成方法、系统、终端设备和可读存储介质 | |
CN111145718B (zh) | 一种基于自注意力机制的中文普通话字音转换方法 | |
CN111460092B (zh) | 一种基于多文档的复杂问题自动化求解方法 | |
CN103280216B (zh) | 改进依赖上下文的语音识别器对环境变化的鲁棒性 | |
US10831993B2 (en) | Method and apparatus for constructing binary feature dictionary | |
CN109829482B (zh) | 歌曲训练数据处理方法、装置及计算机可读存储介质 | |
CN111816169B (zh) | 中英语种混杂语音识别模型训练方法和装置 | |
CN113707125B (zh) | 一种多语言语音合成模型的训练方法及装置 | |
CN111462761A (zh) | 声纹数据生成方法、装置、计算机装置及存储介质 | |
CN116629235B (zh) | 大规模预训练语言模型微调方法、装置、电子设备及介质 | |
WO2021134591A1 (zh) | 语音合成方法、装置、终端及存储介质 | |
Li et al. | Multi-level gated recurrent neural network for dialog act classification | |
CN113780418A (zh) | 一种数据的筛选方法、系统、设备和存储介质 | |
CN114022192A (zh) | 一种基于智能营销场景的数据建模方法及系统 | |
CN117094383A (zh) | 一种语言模型的联合训练方法、系统、设备及存储介质 | |
CN116580698A (zh) | 基于人工智能的语音合成方法、装置、计算机设备及介质 | |
Biswas et al. | Spoken language identification of Indian languages using MFCC features | |
CN111680514A (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
CN115132170A (zh) | 语种分类方法、装置及计算机可读存储介质 | |
CN115422324A (zh) | 一种文本处理方法及设备 | |
CN114566156A (zh) | 一种关键词的语音识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |