CN114937465A - 一种基于自监督学习的语音情感识别方法和计算机设备 - Google Patents
一种基于自监督学习的语音情感识别方法和计算机设备 Download PDFInfo
- Publication number
- CN114937465A CN114937465A CN202210538988.1A CN202210538988A CN114937465A CN 114937465 A CN114937465 A CN 114937465A CN 202210538988 A CN202210538988 A CN 202210538988A CN 114937465 A CN114937465 A CN 114937465A
- Authority
- CN
- China
- Prior art keywords
- speech
- voice
- representation
- emotion recognition
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000008451 emotion Effects 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 34
- 230000000873 masking effect Effects 0.000 claims description 30
- 238000013139 quantization Methods 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 10
- 238000012512 characterization method Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 239000006227 byproduct Substances 0.000 claims 1
- 239000000047 product Substances 0.000 claims 1
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于自监督学习的语音情感识别方法和计算机设备,属于语音识别技术领域;本发明的语音情感识别方法包括以下步骤:基于无标注语音样本集合训练得到语音自监督学习模型;所述语音自监督学习模型用于输出所述无标注语音样本对应的通用语音特征;基于包含语音情感标签的训练样本集合,构建并训练得到包括所述语音自监督学习模型的语音情感识别模型;将待进行情感识别的语音输入所述语音情感识别模型,利用所述语音情感识别模型识别得到对应的情感类别。解决了现有技术中语音情感识别方法高度依赖大规模、高质量带情感标注数据集,受训练样本质量影响,识别准确性和泛化性不高的问题。
Description
技术领域
本发明涉及语音识别技术领域,特别涉及一种基于自监督学习的语音情感识别方法和计算机设备。
背景技术
人类的语音包含着丰富内容,除语言内容外,还包含着自身的情感信息。想要准确理解说话者的意图,深度解析语音中的情感信息是一种有效手段。语音情感识别(SpeechEmotion Recognition,SER)通过识别语音中的情感信息来帮助深度理解用户真实意图,语音情感识别技术在安全、教育、金融等领域已经得到了广泛应用。
现有技术中语音情感识别方法的训练方式决定了需要从大量带标注样本中学习语音特征和情感规律,如果带标注样本数量不足、质量低,则只能学习到不完整或错误的语音特征和情感类别,识别效果不理想,准确率低且泛化性差。而大规模、高质量的语音情感识别带标注数据集获取困难,人工标注成本很高,因此当前语音情感识别方法效果不够理想。
发明内容
鉴于上述的分析,本发明旨在提供一种基于自监督学习的语音情感识别方法和计算机设备;解决了现有技术中语音情感识别方法高度依赖于带标注训练数据集的规模和质量,识别准确率低且泛化性差的问题。
本发明的目的主要是通过以下技术方案实现的:
一方面,本发明公开了一种基于自监督学习的语音情感识别方法,包括以下步骤:
基于无标注语音样本集合训练得到语音自监督学习模型;所述语音自监督学习模型用于输出所述无标注语音样本对应的通用语音特征;
基于包含语音情感标签的训练样本集合,构建并训练得到包括所述语音自监督学习模型的语音情感识别模型;
将待进行情感识别的语音输入所述语音情感识别模型,利用所述语音情感识别模型识别得到对应的情感类别。
进一步的,所述语音自监督学习模型包括特征编码器、量化模块、掩蔽模块和上下文网络;
所述特征编码器用于根据输入的所述无标注语音样本获取所述无标注语音样本的隐层语音表示;
所述量化模块用于根据所述隐层语音表示,通过乘积量化得到量化隐层语音表示;
所述掩蔽模块用于对特征编码器获取到的所述隐层语音表示进行随机时间步掩蔽,得到掩蔽结果;
所述上下文网络用于根据所述掩蔽结果,利用自注意力机制,得到包括每个时间步的序列表征的所述无标注语音样本的整体序列表征;
训练所述语音自监督学习模型时,基于所述量化隐层语音表示和整体序列表征进行损失迭代更新。
进一步的,所述基于所述量化隐层语音表示和整体序列表征进行损失迭代更新,包括:
构建包含干扰项和所述量化隐层语音表示的量化候选表示集合;
根据掩蔽时间步t的所述序列表征ct,基于所述量化候选表示集合对时间步t对应的量化隐层语音表示qt进行预测;
基于所述序列表征ct和量化候选表示集合中的量化候选表示的对比误差进行损失迭代更新,得到所述语音自监督学习模型。
进一步的,所述干扰项为k个,k个所述干扰项为在当前输入的无标注语音的除时间步t以外的时间步中均匀取样的k个时间步所对应的所述序列表征;其中,k为大于1的整数。
进一步的,所述对比误差表示为:
其中,sim(a,b)=aTb/‖a‖‖b‖表示上下文表示和量化隐层语音表示之间的余弦相似性,a代表ct,b代表qt;为量化候选表示集合;ct为上下文网络输出的时间步t对应的序列表征;qt为时间步t的量化隐层语音表示。
进一步的,所述通过乘积量化得到量化隐层语音表示,包括:将所述特征编码器输出的每个时间步的隐层语音表示分为n组子向量,n为大于1的整数,对每组子向量进行聚类,得到n个码本;从时间步t的n个码本中各随机选择一个中心点进行拼接,得到时间步t的量化隐层语音表示qt。
进一步的,所述对所述隐层语音表示进行随机掩蔽,包括:随机选择时间步t作为起始索引,将所述起始索引及随后的M个连续时间步替换为静音,M为大于1的整数,得到时间步t的掩蔽结果;按照预先设定的比例对所述隐层语音表示进行随机掩蔽,得到输入的无标注语音的掩蔽结果。
进一步的,所述语音情感识别模型还包括softmax层,用于接收所述语音自监督学习模型输出的所述通用语音特征,进行情感多分类任务,输出待识别语音对应的情感类别。
进一步的,所述包含标注标签的训练样本集合采用RAVDESS数据集,包含冷静、快乐、悲伤、愤怒、恐惧、厌恶和惊讶七个情感类型。
另一方面,本发明还提供了一种计算机设备,包括至少一个处理器,以及至少一个与所述处理器通信连接的存储器;
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现前述的语音情感识别方法。
本发明至少可实现以下有益效果之一:
1、本发明采用两次训练的方式,将第一次基于无标注语音样本集合训练得到的模型作为语音情感识别模型的初始模型,得到通用语音特征,在通用语音特征基础上进行第二次训练时,仅使用少量带情感标签的数据进行微调,使得本方法的情感识别效果更好训练时间短。
2、本发明使用少量的情感标签标注数据作为训练样本,减少了获取大量标记数据耗费的人力成本、时间成本;
3、本发明引入自监督学习技术,首先通过大规模无标注数据集训练学习通用语音特征,然后使用少量语音情感标注数据进行微调,实现语音情感识别方法,提高了语音识别的泛化能力,解决了传统语音情感识别方法高度依赖大规模、高质量语音情感识别带标注数据集的问题。本发明的语音情感识别方法在使用原始语音情感识别方法百分之一数据量的情况下,情感识别准确率和泛化性均优于传统语音情感识别方法。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例的基于自监督学习的语音情感识别方法的流程图。
图2为本发明实施例的语音自监督学习模型的结构图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本实施例中的一种基于自监督学习的语音情感识别方法,如图1所示,包括以下步骤:
步骤S1、基于无标注语音样本集合训练得到语音自监督学习模型;所述语音自监督学习模型用于输出所述无标注语音样本对应的通用语音特征;其中,无标注语音样本集合包括不同性别、不同语种的广播、对话等不同形式的纯人声语音;通用语音特征为神经网络依据自身结构自动从输入语音中获取的语音特征,可以包括声强、响度、音高、短时过零率,基频和能量等特征,可用于语音情感识别、语种识别、语音转写等语音处理任务。
具体的,如图2所示,语音自监督学习模型包括特征编码器、量化模块、掩蔽模块和上下文网络;其中,
特征编码器用于根据输入的无标注语音样本获取所述无标注语音样本的隐层语音表示;隐层语音表示为特征编码器从输入语音中获取的语音特征。
优选的,特征编码器采用2层CNN结构,卷积核为5*3,步长为2;将样本集合中的无标注语音按照预设时间间隔为单位分为多个语音片段,得到无标注语音序列X,将X输入特征编码器,特征编码器从X中自动获取无标注语音样本对应的隐层语音表示Z={z1,z2,…,zt,…,zT},其中zt为时间步t的隐层语音表示,为512维向量;t=1,……T;T=无标注语音长度/预设时间间隔,示例性的,预设时间间隔可以为20ms。
量化模块用于根据特征编码器输出的隐层语音表示,通过乘积量化得到量化隐层语音表示;具体的,将特征编码器输出的无标注语音样本对应的隐层语音表示Z输入量化模块后,通过量化模块将特征编码器输出的每个时间步的隐层语音表示分为n组子向量,n为大于1的整数,对每组子向量进行聚类,得到n个码本;从时间步t的n个码本中各随机选择一个中心点进行拼接,得到时间步t的量化隐层语音表示qt;优选的,本实施例中,首先将隐层语音表示Z中每一个时间步的语音表示平均分为4组子向量,每组子向量为128维,对于每组子向量使用kmeans方法聚成256类,即得到256个中心点,则每组子向量构成一个码本,得到4个码本。在训练过程中,从时间步t的隐层语音表示zt对应的4个码本中随机选择一个中心点并进行拼接,得到时间步t的量化语音表示qt。
所述掩蔽模块用于对特征编码器获取到的所述隐层语音表示进行随机时间步掩蔽,得到掩蔽结果;本实施例中,随机选择时间步t作为起始索引,将起始索引及随后的M个连续时间步替换为静音,得到时间步t的掩蔽结果,其中M为大于1的整数;按照预先设定的比例p对所述隐层语音表示进行随机掩蔽,得到输入的无标注语音的掩蔽结果。优选的,两次掩蔽的部分之间可以重叠,p的取值在0.06-0.07之间。
所述上下文网络用于根据所述掩蔽结果,利用自注意力机制,得到包括每个时间步的序列表征的所述无标注语音样本的整体序列表征;具体的,将掩蔽模块输出的掩蔽结果作为上下文网络的输入;上下文网络采用原生Transformer结构,利用自注意力机制,得到无标注语音的整体序列表征C={c1,c2,…ct,…,cT},其中ct为无标注语音在时间步t的序列表征。
训练所述语音自监督学习模型时,基于所述量化隐层语音表示和整体序列表征进行损失迭代更新。具体的,对于上下文网络输出的在时间步t的序列表征ct,语音自监督学习模型需要在一组包括qt和干扰项的量化候选表示集合中预测出真实的量化隐层语音表示qt。首先构建包含干扰项和所述量化隐层语音表示qt的量化候选表示集合,优选的,干扰项为k个,k个所述干扰项为在当前输入的无标注语音的除时间步t以外的时间步中均匀取样的k个时间步所对应的序列表征;其中,k为大于1的整数。模型的损失为对比误差L,如下列公式所示:
其中,sim(a,b)=aTb/‖a‖‖b‖表示上下文表示和量化隐层语音表示之间的余弦相似性,a代表ct,b代表qt;为量化候选表示集合;ct为上下文网络输出的时间步t对应的序列表征;qt为量化模型输出的时间步t对应的量化隐层语音表示。
在训练过程中,将无标注语音样本集合输入模型,使用Adam优化方法逐步降低对比误差L,得到收敛的语音自监督学习模型,即获得了通用语音特征。
需要说明的是,自监督学习是一种自动为数据产生标签,在标签上学习领域通用特征的方法。自监督学习方法通过特定的辅助任务来为数据自动产生标签,通过对大量数据的自动标注和训练,生成领域通用特征;本发明引入自监督学习技术大大降低了语音情感识别方法对带标注数据的依赖性,使用自监督学习技术在大规模无标注数据集上学习通用语音特征,之后采用少量带情感标注的数据进行训练,即可得到高准确性、高泛化能力的语音情感识别模型。
步骤S2:基于包含语音情感标签的训练样本集合,构建并训练得到包括所述语音自监督学习模型的语音情感识别模型。
具体的,语音情感识别任务可以看作多分类任务,可使用softmax层接收语音自监督学习模型的输出,并生成一个N维向量,多分类任务中的每个情感类别对应一个向量,同时softmax层对每个向量的值进行归一化,并转化为针对N个情感类别的概率,概率最大的类别即为当前输入语音对应的情感类型。
优选的,本实施例采用包含标注标签的RAVDESS数据集作为训练样本,RAVDESS数据集包含7356条语音,包括冷静、快乐、悲伤、愤怒、恐惧、厌恶和惊讶七个情感类型。在语音自监督学习模型的基础上,增加一个softmax层,用于接收语音自监督学习模型输出的通用语音特征,进行情感多分类任务,使用CTC损失作为模型损失函数进行梯度更新,得到收敛的语音情感识别模型。
本发明在经过预训练的语音自监督学习模型的基础上,使用少量带情感标签的数据进行简单拟合,即实现了语音情感识别方法,减少了获取大量标记数据耗费的人力成本、时间成本。
步骤S3、将待进行情感识别的语音输入所述语音情感识别模型,利用所述语音情感识别模型识别得到对应的情感类别。具体的,将待识别的无标注语音输入训练完毕的语音情感识别模型,模型根据输入语音的特征自动生成输入语音所属的情感类型。
综上所述,本发明提出的一种基于自监督学习的语音情感识别方法,引入自监督学习技术,使用无标注语音数据集进行训练,在大规模无标注语音数据集上学习通用语音特征;然后在通用语音特征上基于小规模的带情感标注数据进行微调,实现了高准确性和泛化性的语音情感识别方法;实验表明,本发明技术方案的效果优于传统的语音情感识别方法。
现有技术中语音情感识别的主要流程为:将语音情感识别看作分类问题,准备大量含有情感类型标签的语音作为训练数据集;针对领域特点构建特定的神经网络结构,使用含情感类型标签的训练数据集进行训练,得到语音情感识别模型;将不包含情感类型标签的语音输入语音情感识别模型,得到语音对应的情感类型,实现语音情感识别。本发明使用自监督学习方法对现有语音情感识别方法进行了优化,使得语音情感识别方法在当前大规模、高质量的带标注数据集缺乏的情况下也可以达到理想的识别效果。本发明采用两次训练的方式,首先将基于无标注语音样本集合训练得到的模型作为初始模型,得到通用语音特征;其次,在通用语音特征基础上使用少量待情感标签的数据集进行第二次训练,解决了传统语音情感识别方法对大规模、高质量带情感标注的数据集的依赖问题,使用少量的训练样本,提高了情感识别的准确率和泛化性能。
本发明的另一个实施例,提供了一种计算机设备,包括至少一个处理器,以及至少一个与所述处理器通信连接的存储器;存储器存储有可被处理器执行的指令,所述指令用于被处理器执行以实现前述实施例的基于自监督学习的语音情感识别方法。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于自监督学习的语音情感识别方法,其特征在于,包括以下步骤:
基于无标注语音样本集合训练得到语音自监督学习模型;所述语音自监督学习模型用于输出所述无标注语音样本对应的通用语音特征;
基于包含语音情感标签的训练样本集合,构建并训练得到包括所述语音自监督学习模型的语音情感识别模型;
将待进行情感识别的语音输入所述语音情感识别模型,利用所述语音情感识别模型识别得到对应的情感类别。
2.根据权利要求1所述的语音情感识别方法,其特征在于,所述语音自监督学习模型包括特征编码器、量化模块、掩蔽模块和上下文网络;
所述特征编码器用于根据输入的所述无标注语音样本获取所述无标注语音样本的隐层语音表示;
所述量化模块用于根据所述隐层语音表示,通过乘积量化得到量化隐层语音表示;
所述掩蔽模块用于对特征编码器获取到的所述隐层语音表示进行随机时间步掩蔽,得到掩蔽结果;
所述上下文网络用于根据所述掩蔽结果,利用自注意力机制,得到包括每个时间步的序列表征的所述无标注语音样本的整体序列表征;
训练所述语音自监督学习模型时,基于所述量化隐层语音表示和整体序列表征进行损失迭代更新。
3.根据权利要求2所述的语音情感识别方法,其特征在于,所述基于所述量化隐层语音表示和整体序列表征进行损失迭代更新,包括:
构建包含干扰项和所述量化隐层语音表示的量化候选表示集合;
根据掩蔽时间步t的所述序列表征ct,基于所述量化候选表示集合对时间步t所对应的量化隐层语音表示qt进行预测;
基于所述序列表征ct和量化候选表示集合中的量化候选表示的对比误差进行损失迭代更新,得到所述语音自监督学习模型。
4.根据权利要求3所述的语音情感识别方法,其特征在于,所述干扰项为k个,k个所述干扰项为在当前输入的无标注语音的除时间步t以外的时间步中均匀取样的k个时间步所对应的所述序列表征;其中,k为大于1的整数。
6.根据权利要求2所述的语音情感识别方法,其特征在于,所述通过乘积量化得到量化隐层语音表示,包括:将所述特征编码器输出的每个时间步的隐层语音表示分为n组子向量,n为大于1的整数,对每组子向量进行聚类,得到n个码本;从时间步t的n个码本中各随机选择一个中心点进行拼接,得到时间步t的量化隐层语音表示qt。
7.根据权利要求2所述的语音情感识别方法,其特征在于,所述对所述隐层语音表示进行随机掩蔽,包括:随机选择时间步t作为起始索引,将所述起始索引及随后的M个连续时间步替换为静音,M为大于1的整数,得到时间步t的掩蔽结果;按照预先设定的比例对所述隐层语音表示进行随机掩蔽,得到输入的无标注语音的掩蔽结果。
8.根据权利要求1所述的语音情感识别方法,其特征在于,所述语音情感识别模型还包括softmax层,用于接收所述语音自监督学习模型输出的所述通用语音特征,进行情感多分类任务,输出待识别语音对应的情感类别。
9.根据权利要求1所述的语音情感识别方法,其特征在于,所述包含标注标签的训练样本集合采用RAVDESS数据集,包含冷静、快乐、悲伤、愤怒、恐惧、厌恶和惊讶七个情感类型。
10.一种计算机设备,其特征在于,包括至少一个处理器,以及至少一个与所述处理器通信连接的存储器;
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现权利要求1-9任一项所述的语音情感识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210538988.1A CN114937465A (zh) | 2022-05-18 | 2022-05-18 | 一种基于自监督学习的语音情感识别方法和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210538988.1A CN114937465A (zh) | 2022-05-18 | 2022-05-18 | 一种基于自监督学习的语音情感识别方法和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114937465A true CN114937465A (zh) | 2022-08-23 |
Family
ID=82864753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210538988.1A Pending CN114937465A (zh) | 2022-05-18 | 2022-05-18 | 一种基于自监督学习的语音情感识别方法和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114937465A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115881103A (zh) * | 2022-11-23 | 2023-03-31 | 镁佳(北京)科技有限公司 | 语音情绪识别模型训练方法、语音情绪识别方法及装置 |
CN116229960A (zh) * | 2023-03-08 | 2023-06-06 | 江苏微锐超算科技有限公司 | 欺骗性语音鲁棒检测方法、系统、介质及设备 |
-
2022
- 2022-05-18 CN CN202210538988.1A patent/CN114937465A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115881103A (zh) * | 2022-11-23 | 2023-03-31 | 镁佳(北京)科技有限公司 | 语音情绪识别模型训练方法、语音情绪识别方法及装置 |
CN115881103B (zh) * | 2022-11-23 | 2024-03-19 | 镁佳(北京)科技有限公司 | 语音情绪识别模型训练方法、语音情绪识别方法及装置 |
CN116229960A (zh) * | 2023-03-08 | 2023-06-06 | 江苏微锐超算科技有限公司 | 欺骗性语音鲁棒检测方法、系统、介质及设备 |
CN116229960B (zh) * | 2023-03-08 | 2023-10-31 | 江苏微锐超算科技有限公司 | 欺骗性语音鲁棒检测方法、系统、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kahn et al. | Libri-light: A benchmark for asr with limited or no supervision | |
US11222627B1 (en) | Exploring ASR-free end-to-end modeling to improve spoken language understanding in a cloud-based dialog system | |
Santhanavijayan et al. | A semantic-aware strategy for automatic speech recognition incorporating deep learning models | |
CN114937465A (zh) | 一种基于自监督学习的语音情感识别方法和计算机设备 | |
CN109377981B (zh) | 音素对齐的方法及装置 | |
Liu et al. | Mongolian text-to-speech system based on deep neural network | |
CN112992125B (zh) | 一种语音识别方法、装置、电子设备、可读存储介质 | |
CN113297383B (zh) | 基于知识蒸馏的语音情感分类方法 | |
CN111696522A (zh) | 基于hmm和dnn的藏语语音识别方法 | |
CN114203177A (zh) | 一种基于深度学习与情绪识别的智能语音问答方法和系统 | |
Suyanto et al. | End-to-End speech recognition models for a low-resourced Indonesian Language | |
CN112417132A (zh) | 一种利用谓宾信息筛选负样本的新意图识别方法 | |
Huang et al. | Speech emotion recognition using convolutional neural network with audio word-based embedding | |
CN115064154A (zh) | 混合语言语音识别模型的生成方法及装置 | |
CN110852075A (zh) | 自动添加标点符号的语音转写方法、装置及可读存储介质 | |
CN114003700A (zh) | 一种对话信息的处理方法、系统、电子设备及存储介质 | |
CN115860015B (zh) | 一种基于翻译记忆的转写文本翻译方法和计算机设备 | |
Zhao et al. | Standardized Evaluation Method of Pronunciation Teaching Based on Deep Learning | |
Boldsen et al. | Interpreting character embeddings with perceptual representations: The case of shape, sound, and color | |
Lee et al. | Korean dialect identification based on intonation modeling | |
CN112989839A (zh) | 一种基于关键词特征嵌入语言模型的意图识别方法及系统 | |
Azim et al. | Large vocabulary Arabic continuous speech recognition using tied states acoustic models | |
CN116361442A (zh) | 基于人工智能的营业厅数据分析方法及系统 | |
Wen et al. | Improving deep neural network based speech synthesis through contextual feature parametrization and multi-task learning | |
CN114863912A (zh) | 一种基于表面肌电信号的无声语音解码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |