CN113593611A - 语音分类网络训练方法、装置、计算设备及存储介质 - Google Patents
语音分类网络训练方法、装置、计算设备及存储介质 Download PDFInfo
- Publication number
- CN113593611A CN113593611A CN202110844078.1A CN202110844078A CN113593611A CN 113593611 A CN113593611 A CN 113593611A CN 202110844078 A CN202110844078 A CN 202110844078A CN 113593611 A CN113593611 A CN 113593611A
- Authority
- CN
- China
- Prior art keywords
- training
- sample
- classification network
- model
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 235
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012360 testing method Methods 0.000 claims description 44
- 230000006870 function Effects 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 17
- 238000002372 labelling Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 11
- 230000000052 comparative effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000000605 extraction Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000005457 optimization Methods 0.000 description 7
- 230000008451 emotion Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008909 emotion recognition Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011038 discontinuous diafiltration by volume reduction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术领域,尤其涉及一种语音分类网络训练方法、装置、设备及存储介质。该语音分类网络训练方法包括获取小样本数据集;将同一类别的训练音频样本作为对比模型学习的训练集,以基于训练集预训练对比模型,计算对比模型的模型损失;通过模型损失迭代训练对比模型,以得到训练好的对比模型;其中,训练好的对比模型包括目标特征提取器;将目标特征提取器与一分类器连接,以构建语音分类网络;采用小样本学习方式基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络。该方法通过引入有监督学习方式预训练对比模型保证新任务的数据表达能力的稳定性,从而保证模型对于新任务的预测准确性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音分类网络训练方法、装置、计算设备及存储介质。
背景技术
目前,随着人工智能的飞速发展,语音识别作为人工智能的重要部分在不同领域有着广阔的应用前景,例如语音情感识别在人机交互、情绪监测或个性化推荐等领域有着广阔的应用前景。语音情感识别的主要过程包括数据预处理、特征提取以及情感分类。但目前的语音情感识别,往往需要大量的训练数据,才可保证情感分类的准确性,而在实践训练中,大量的标签数据难以获得,因此常使用元学习方法解决小样本语音情感识别的问题。
一般地,常用的元学习方法在训练数据和测试数据存在领域差距时,仍然无法满足泛化性要求,目前的元学习方法主要通过对比学习的方式实现,即在自监督学习环境下,通过为原始数据创建正样本学习,以学习两个事物的相似或不相似进行编码构建表征。而自监督学习的方式针对新的预测任务的数据表达能力不够稳定,导致传统的元学习无法保证新任务的预测准确性。
发明内容
本发明实施例提供一种语音分类网络训练方法、装置、计算设备及存储介质,以解决传统的小样本的自监督的元学习方式对新的预测任务的数据表达能力不够稳定,无法保证预测准确性的问题。
一种语音分类网络训练方法,包括:
获取小样本数据集;其中,所述小样本数据集包括多个标注好类别的训练音频样本;
将同一类别的训练音频样本作为对比模型学习的训练集,以基于所述训练集预训练所述对比模型,计算所述对比模型的模型损失;
通过所述模型损失迭代训练所述对比模型,以得到训练好的对比模型;其中,所述训练好的对比模型包括目标特征提取器;
将所述目标特征提取器与一分类器连接,以构建语音分类网络;
采用小样本学习方式,基于所述小样本数据集对所述语音分类网络进行微调,得到训练好的语音分类网络。
一种语音分类网络训练装置,包括:
小样本数据集获取模块,用于获取小样本数据集;其中,所述小样本数据集包括多个标注好类别的训练音频样本;
预训练模块,用于将同一类别的训练音频样本作为对比模型学习的训练集,以基于所述训练集预训练所述对比模型,计算所述对比模型的模型损失;
迭代训练模块,用于通过所述模型损失迭代训练所述对比模型,以得到训练好的对比模型;其中,所述训练好的对比模型包括目标特征提取器;
分类网络构建模块,用于将所述目标特征提取器与一分类器连接,以构建语音分类网络;
模型微调模块,用于采用小样本学习方式,基于所述小样本数据集对所述语音分类网络进行微调,得到训练好的语音分类网络。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述语音分类网络训练方法的步骤。
一种计算机存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述语音分类网络训练方法的步骤。
上述语音分类网络训练方法、装置、计算设备及存储介质中,通过获取标注好类别的小样本数据集,并将同一类别的训练音频样本作为对比模型学习的训练集,以基于训练集预训练对比模型,计算对比模型的模型损失,并通过模型损失迭代训练对比模型,得到训练好的对比模型,以基于有监督学习的方式预训练对比模型,可产生比自我监督更好地概括单领域和多领域少量任务的表征,从而可保证模型对于新任务的特征表达能力。然后,将训练好的目标特征提取器与一分类器连接,构建语音分类网络,以便采用小样本学习方式,基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络,提高模型在小样本数据集上的样本学习效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中语音分类网络训练方法的一应用环境示意图;
图2是本发明一实施例中语音分类网络训练方法的一流程图;
图3是本发明一实施例中语音分类网络训练方法的一流程图;
图4是图3中步骤S307的一具体流程图;
图5是图2中步骤S205的一具体流程图;
图6是图5中步骤S502的一具体流程图;
图7是本发明一实施例中语音分类网络训练方法的一流程图;
图8是本发明一实施例中语音分类网络训练装置的一示意图;
图9是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
该语音分类网络训练方法可应用在如图1的应用环境中,其中,计算机设备通过网络与服务器进行通信。计算机设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器来实现。
在一实施例中,如图2所示,提供一种语音分类网络训练方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S201:获取小样本数据集;其中,小样本数据集包括多个标注好类别的训练音频样本。
其中,小样本数据集指样本数量较少的数据集。该小样本数据集包括多个标注好类别的训练音频样本。本方法可应用于语音情感分类场景,该类别可指不同情绪类别,例如悲伤、开心、愤怒等。每一类别对应多个训练音频样本呢。
S202:将同一类别的训练音频样本作为对比模型学习的训练集,以基于训练集预训练对比模型,计算对比模型的模型损失。
其中,对比模型即为simclr(A Simple Framework for Contrastive Learningof Visual Representations)模型。该对比模型可实现对无标签样本数据进行数据增广表示,以通过对比学习的方式实现自监督训练。
可以理解地是,在自监督学习情境下,是通过为原始数据创建正样本学习对,以对两个事物的相似或不相似进行编码来构建表征,与有监督学习相比,自监督学习对新的任务的数据表达能力较不稳定,故本实施中通过改进上述对比模型的自监督对比学习方式,通过有监督方式训练对比模型,可使模型产生比单独自我监督更好地概括单领域和多领域少量任务的表征。
具体地,在传统的SimCLR模型中,由于采用无标签数据,因此每轮训练的训练集为n个原样本中的一个样本x构成,该样本x仅对应一个正样本,通过对样本x进行二次数据增强,得到2n个样本(视为原样本的正样本)以扩充训练集,从而实现对比学习。而本实施例中,在构建每轮训练的训练集时,由于原训练音频样本已对应标注好类别,故可直接将同一类别的U个训练音频样本作为对比模型学习的训练集(视为正样本集),以基于所述训练集预训练所述对比模型,也即原训练音频样本对应多个正样本,而不仅仅是一个正样本。
进一步地,该模型损失可通过如下公式计算 其中,exp(zs·zl/τ)表示所述训练集(假设包含U个样本)中第s个锚点样本的映射特征Zs与训练集U中的第l个映射特征Zl的第一点积结果;exp(zs·za/τ)表示所述训练集U中第s个锚点样本的映射特征Zs与负样本集中第w个负样本特征Zw的第二点积结果;∑w∈Wexp(zs·zw/τ)表示多个第二点积结果的累加和;W表示负样本集,即与第i个样本不同类别的其他类别的正样本集;τ表示预设的温度参数,该温度参数用于调节模型对于困难样本(即与原始样本最相似的样本,也就是正样本)的关注程度,该温度参数越小越关注于将原始样本和最相似的困难样本区分开。其中,映射特征可通过SimCLR模型中的特征提取器提取样本特征得到,该特征提取器可采用resnet18或resnet50实现,此处不做限定。
S203:通过模型损失迭代训练对比模型,以得到训练好的对比模型;其中,训练好的对比模型包括目标特征提取器。
具体地,可采用传统的模型优化方法(如有误差反向传播算法),通过模型损失迭代训练所述对比模型,即训练特征提取器对应的参数,直至模型收敛,即可得到训练好的对比模型。该训练好的目标特征提取器即可作为语音分类网络中的特征提取器,用于提取语音特征。
S204:将目标特征提取器与一分类器连接,以构建语音分类网络。
具体地,在训练好的目标特征提取器后接入分类器(如softmax分类器),以构建构建语音分类网络,以便后续采用小样本学习方式基于所述小样本数据集对所述语音分类网络进行微调,从而得到训练好的语音分类网络。
S205:采用小样本学习方式,基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络。
其中,小样本学习方式是指将数据集分解为不同的K-way-N-shot(表示K个类别,每一类别对应N个训练样本)元任务(meta task),以学习类别变化的情况下模型的泛化能力,捕获不同类别音频样本的共性部分从而训练语音分类网络。
具体地,基于小样本学习方式构建支撑集,并根据支撑集训练分类器,以实现对所述语音分类网络进的微调,得到训练好的语音分类网络。该支撑集包括M个训练音频样本,该M个训练音频样本通过从小样本数据集中随机选取K个类别,并从每一所述类别对应的多个训练音频样本中随机选取得到。本实施例中,通过小样本学习的方式以对所述语音分类网络进行微调,可在小数据集上实现快速学习样本的能力,达到较好的分类效果。
本实施例中,通过获取标注好类别的小样本数据集,并将同一类别的训练音频样本作为对比模型学习的训练集,以基于训练集预训练对比模型,计算对比模型的模型损失,并通过模型损失迭代训练对比模型,得到训练好的对比模型,以基于有监督学习的方式预训练对比模型,可产生比自我监督更好地概括单领域和多领域少量任务的表征,从而可保证模型对于新任务的特征表达能力。然后,将训练好的目标特征提取器与一分类器连接,构建语音分类网络,以便采用小样本学习方式基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络,提高模型在小样本数据集上的样本学习效率。
在一实施例中,如图3所示,在基于所述训练集预训练所述对比模型之前,该方法还包括如下步骤:
S301:获取小样本数据集;其中,小样本数据集包括多个标注好类别的训练音频样本。
具体地,步骤S301与步骤S201一致,为避免重复此处不再赘述。
S302:将同一类别的训练音频样本作为对比模型学习的训练集。
具体地,步骤S302与步骤S202一致,为避免重复此处不再赘述。
S303:从训练集中随机选取目标锚点,并将训练集中的其他训练音频样本作为自样本集。
本实施例中,为扩充训练对比模型的训练集,保证对比学习的学习精度,可针对训练集进行数据增广。具体地,扩充训练集的过程如下:首先从所述训练集(如包括U个训练音频样本)中随机选取一训练音频样本作为目标锚点,并将所述训练集中的其他U-1个训练音频样本作为自样本集。
S304:对目标锚点以及自样本集进行数据增强处理,得到增强样本集。
其中,数据增强处理包括但不限于加噪音、调低/高音量或1.5倍速播放等,通过随机选择上述某一数据增强处理方式对所述目标锚点以及所述自样本集进行一次数据增强处理,得到增强样本集,此时增强样本集包括U个增强样本(包括U-1个自样本集对应的增强样本以及1个目标锚点对应的增强样本)。
S305:合并自样本集以及增强样本集作为目标锚点对应的正样本集。
具体地,合并所述自样本集以及所述增强样本集作为所述目标锚点对应的正样本集,该正样本集包括2U-1个正样本,该2U-1个正样本中包括自样本集中的U-1个自样本、U-1个自样本对应的增强样本以及1个目标锚点对应增强样本。
可以理解地是,通过执行步骤S303-S305,可对训练集中每一训练音频样本对应的正样本集和负样本集进行数据增广,从而扩充训练集。示例性地,假设原训练集中包括两个类别X、Y,其中,X类别包括A、B两个训练音频样本;Y类别包括D、E两个训练音频样本,此时,每一训练音频样本对应的正样本集中包括除自身以外的其他相同类别的样本;负样本集中即为其他一个或多个类别对应的训练集;例如,训练音频样本A对应的正样本集中包括B样本;负样本集即为Y类别对应的训练集,包括D、E两个训练音频样本。通过将每一训练音频样本作为目标锚点,执行步骤S301-S303,可得到每一训练音频样本对应正样本及和负样本集,即训练音频样本A对应的正样本集中包括样本B、样本A对应的增强样本以及样本B对应的增强样本;负样本集可为Y类别对应的原训练集,即包括D、E两个训练音频样本,或者Y类别对应数据增广后的训练集,包括样本D、样本E、样本D对应的增强样本以及样本E对应的增强样本。
S306:将与训练集对应类别不同的其他类别的训练集作为目标锚点对应的负样本集。
具体地,将与所述训练集对应类别不同的其他类别的训练集作为所述目标锚点对应的负样本集,例如小样本数据集中包括A、B、C三个类别,每一类别对应的训练集中包括X个训练音频样本,假设当前批训练A类别对应的训练集,则其他类别即B类别和C类别对应的训练集均作为A类别的负样本集。需要说明的是,此处B类别和C类别对应的训练集可指根据小样本数据集进行划分得到的原训练集或者B类别和C类别中经过数据增广后的训练集。
S307:基于每一目标锚点对应的正负样本集预训练对比模型,计算对比模型的模型损失。
具体地,该待训练的对比模型包括一原始特征提取器,用于提取样本特征。通过所述原始特征提取器分别提取所述目标锚点对应的锚点特征以及所述正样本集中每一正样本对应的正样本特征;对所述锚点特征以及所述正样本特征进行点积计算,得到第一点积结果;通过所述原始特征提取器提取所述负样本集中每一负样本对应的负样本特征;对所述锚点特征以及所述负样本特征进行点积计算,得到第二点积结果;最后,基于所述第一点积结果以及所述第二点积结果,计算所述对比模型的模型损失。
S308:通过模型损失迭代训练对比模型,以得到训练好的对比模型;其中,训练好的对比模型包括目标特征提取器。
具体地,步骤S308与步骤S203一致,为避免重复此处不再赘述。
S309:将目标特征提取器与一分类器连接,以构建语音分类网络。
具体地,步骤S309与步骤S204一致,为避免重复此处不再赘述。
S310:采用小样本学习方式基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络。
具体地,步骤S310与步骤S205一致,为避免重复此处不再赘述。
在一实施例中,如图4所示,所述预训练的对比模型包括原始特征提取器;步骤S307中,基于每一所述目标锚点对应的所述正负样本集预训练所述对比模型,计算所述对比模型的模型损失,具体包括如下步骤:
S401:通过原始特征提取器分别提取目标锚点对应的锚点特征以及正样本集中每一正样本对应的正样本特征。
S402:对锚点特征以及正样本特征进行点积计算,得到第一点积结果。
S403:通过原始特征提取器提取负样本集中每一负样本对应的负样本特征。
S404:对锚点特征以及负样本特征进行点积计算,得到第二点积结果。
S405:基于第一点积结果以及第二点积结果,计算对比模型的模型损失。
进一步地,针对步骤S401-S405的计算过程可通过如下对比学习损失计算公式描述,即:其中,D表示所述正样本集;exp(zi·zp/τ)表示所述训练集I中第i个目标锚点的锚点特征Zi与所述正样本集中第p个正样本特征Zp的第一点积结果;exp(zi·za/τ)表示所述训练集I中第i个目标锚点的锚点特征Zi与负样本集中第a个负样本特征Za的第二点积结果;∑a∈Aexp(zi·za/τ)表示多个第二点积结果的累加和;A表示所述负样本集;τ表示预设的温度参数,该温度参数用于调节模型对于困难样本(即与原始样本最相似的样本,也就是正样本)的关注程度,该温度参数越小越关注于将原始样本和最相似的困难样本区分开。
在一实施例中,如图5所示,步骤S205中,即采用小样本学习方式基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络,具体包括如下步骤:
S501:从小样本数据集中随机选取K个类别,并从每一类别对应的多个训练音频样本中随机选取M个训练音频样本作为支撑集。其中,K和M均为正整数。
具体地,小样本数据集中包括多个标注好类别的训练音频样本,从该小样本数据集中随机选取K个类别,并从每一类别对应的多个训练音频样本中随机选取M个训练音频样本作为支撑集。其中,针对M和K均为正整数,其对应的具体取值可根据实际需要进行设定,此处不做限定。
S502:基于支撑集对语音分类网络进行微调,得到训练好的语音分类网络。
具体地,首先通过特征提取器提取支撑集中每一训练音频样本对应的语音特征;通过分类器将语音特征映射至类别空间,输出训练音频样本对应的预测类别;通过交叉熵损失函数,基于每一训练音频样本对应的预测类别与标注类别,计算网络损失,最后,采用误差反向传播算法,基于网络损失优化分类器,得到训练好的语音分类网络。其中,交叉熵损失函数可为其中,表示预测训练音频样本属于第j类的概率,即预测类别;yj表示标注类别,M表示支撑集中的样本数量。
在一实施例中,如图6所示,步骤S502中,即基于支撑集对语音分类网络进行微调,得到训练好的语音分类网络,具体包括如下步骤:
S601:通过目标特征提取器提取支撑集中每一训练音频样本对应的语音特征。
具体地,本实施例中的目标特征提取器可通过resnet18或resnet50训练得到,以resnet18为例,该resnet18网络中由多个级联的残差块,每一残差块均包括多层卷积层、归一化层以及激活层,在最后一个残差快后接入一层池化层和全连接层,通过将支撑集中每一训练音频样本输入至resnet18网络中进行处理,即可提取得到训练音频样本对应的语音特征。其中,针对resnet18网络的具体处理流程与传统的resnet18网络相同,此处不再详述。
S602:通过分类器将语音特征映射至类别空间,输出训练音频样本对应的预测类别。
本实施例中,该分类器可为softmax分类器,以将体征提取器提取得到的语音特征映射至类别空间,预测其概率分布,即该样本属于不同类别的概率,将概率值最高的一类作为训练音频样本对应的预测类别。
S603:通过交叉熵损失函数,基于每一训练音频样本对应的预测类别与标注类别,计算网络损失。
S604:采用误差反向传播算法,基于网络损失优化分类器,得到训练好的语音分类网络。
具体地,可采用传统的模型优化方法(如有误差反向传播算法),通过网络损失优化分类器直至网络收敛,即可得到训练好的语音分类网络。
在一实施例中,如图7所示,还包括如下步骤:
S701:通过目标特征提取器提取支撑集中每一训练音频样本对应的语音特征。
具体地,步骤S701与步骤S601的执行过程一致,为避免重复,此处不再赘述。
S702:通过分类器将语音特征映射至类别空间,输出训练音频样本对应的预测类别。
具体地,步骤S702与步骤S602的执行过程一致,为避免重复,此处不再赘述。
S703:基于支撑集,构建测试集;其中,测试集包括从支撑集对应的K个类别中随机选取的C个类别,每一类别对应Z个测试样本;其中,C为小于等于K的正整数,Z为正整数。
具体地,可从支撑集中对应的K个类别中随机选取C(C≤K)个类别,并从C个类别对应的剩余样本中随机选取Z个测试样本作为测试集。例如,假设K=3,在小样本数据集中每一类别对应5个样本,若M=2,则支撑集中包括3个类别,每一类别对应2个训练音频样本,此时小样本学习任务K-way-M-shot,即为3-way-2-shot。然后从这3个类别中,对每一类别对应的剩余样本,即剩下的3个样本中随机选取Z个测试样本作为测试集。其中,对于M、K、Z、C均为正整数,其对应的具体取值可根据经验设置,此处不做限定。
S704:通过目标特征提取器分别提取测试样本对应的第一语音特征,以及支撑集中每一训练音频样本对应的第二语音特征;
S705:计算第一语音特征与每一第二语音特征对应的特征相似度,并将特征相似度最高的第二语音特征对应的标注类别作为测试样本对应的预测类别。
具体地,在获取到测试集之后,通过目标特征提取器提取测试集中每一测试样本对应的第一语音特征A,以及,支撑集中每一训练音频样本对应的第二语音特征B;然后将该第一语音特征A与每一训练音频样本对应的第二语音特征B进行相似度计算(例如余弦相似度),并将与第一语音特征A最相似(即特征相似度最高)的第二语音特征B所对应的类别作为预测类别。
S706:通过交叉熵损失函数,基于每一测试样本对应的预测类别以及标注类别,计算每一测试样本的样本损失。
S707:对多个测试样本的样本损失取均值,将得到的损失均值作为正则因子。
具体地,通过交叉熵损失函数根据该预测类别与第一语音特征A对应的标注类别计算每一测试样本的样本损失,最终对测试集中多个测试样本的样本损失取均值(即其中,Q表示测试集中的测试样本数量;γ表示得到的损失均值,也即正则因子;lossq表示每一测试样本的样本损失),得到测试集的损失均值作为正则因子。
进一步地,为防止模型过拟合,可在上述交叉熵损失函数中引入正则因子,即上述交叉熵损失函数更新为Loss’=loss+γ,其中,γ为正则因子;作为一实施方式该正则因子可预先设置;作为另一实施方式,可通过构建测试集,并将测试集的交叉熵损失作为正则因子。
S708:基于正则因子,重构交叉熵损失函数。
具体地,基于正则因子,重构交叉熵损失函数,即此时交叉熵损失函数更新为Loss’=loss+γ,其中,γ表示正则因子。
S709:通过重构后的交叉熵损失函数,基于每一训练音频样本对应的预测类别与标注类别,计算网络损失。
S710:采用误差反向传播算法,基于网络损失优化分类器,得到训练好的语音分类网络。
具体地,步骤S710与步骤S604的执行过程一致,为避免重复,此处不再赘述。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种语音分类网络训练装置,该语音分类网络训练装置与上述实施例中语音分类网络训练方法一一对应。如图8所示,该语音分类网络训练装置包括小样本数据集获取模块10、预训练模块20、迭代训练模块30、分类网络构建模块40以及模型微调模块50。各功能模块详细说明如下:
小样本数据集获取模块10,用于获取小样本数据集;其中,小样本数据集包括多个标注好类别的训练音频样本;
预训练模块20,用于将同一类别的训练音频样本作为对比模型学习的训练集,以基于训练集预训练对比模型,计算对比模型的模型损失;
迭代训练模块30,用于通过模型损失迭代训练对比模型,以得到训练好的对比模型;其中,训练好的对比模型包括目标特征提取器;
分类网络构建模块40,用于将目标特征提取器与一分类器连接,以构建语音分类网络;
模型微调模块50,用于采用小样本学习方式,基于小样本数据集对语音分类网络进行微调,得到训练好的语音分类网络。
具体地,该语音分类网络训练装置还包括自样本集获取模块、样本增强模块、正样本集获取模块以及负样本集获取模块。
自样本集获取模块,用于从训练集中随机选取目标锚点,并将训练集中的其他训练音频样本作为自样本集;
样本增强模块,用于对目标锚点以及自样本集进行数据增强处理,得到增强样本集;
正样本集获取模块,用于合并自样本集以及增强样本集作为目标锚点对应的正样本集;
负样本集获取模块,用于将与训练集对应类别不同的其他类别的训练集作为目标锚点对应的负样本集;
预训练模块具体为:基于每一目标锚点对应的正负样本集预训练对比模型,计算对比模型的模型损失。
具体地,预训练的对比模型包括原始特征提取器;预训练模块包括第一特征提取单元、第一点积计算单元、第二特征提取单元、第二点积计算单元以及模型损失计算单元。
第一特征提取单元,用于通过原始特征提取器分别提取目标锚点对应的锚点特征以及正样本集中每一正样本对应的正样本特征;
第一点积计算单元,用于对锚点特征以及正样本特征进行点积计算,得到第一点积结果;
第二特征提取单元,用于通过原始特征提取器提取负样本集中每一负样本对应的负样本特征;
第二点积计算单元,用于对锚点特征以及负样本特征进行点积计算,得到第二点积结果;
模型损失计算单元,用于基于第一点积结果以及第二点积结果,计算对比模型的模型损失。
具体地,模型损失计算单元具体为:基于对比学习损失计算公式,根据第一点积结果以及第二点积结果,计算对比模型的模型损失;其中,对比学习损失计算公式包括: 其中,D表示正样本集;exp(zi·zp/τ)表示训练集I中第i个目标锚点的锚点特征Zi与正样本集中第p个正样本特征Zp的第一点积结果;exp(zi·za/τ)表示训练集I中第i个目标锚点的锚点特征Zi与负样本集中第a个负样本特征Za的第二点积结果;∑a∈Aexp(zi·za/τ)表示多个第二点积结果的累加和;A表示负样本集;τ表示温度参数。
具体地,模型微调模块包括支撑集获取单元和模型微调单元。
支撑集获取单元,用于从小样本数据集中随机选取K个类别,并从每一类别对应的多个训练音频样本中随机选取M个训练音频样本作为支撑集;其中,K和M均为正整数。
模型微调单元,用于基于支撑集对语音分类网络进行微调,得到训练好的语音分类网络。
具体地,模型微调单元包括语音特征提取子单元、类别映射子单元、网络损失计算子单元和分类器优化子单元。
语音特征提取子单元,用于通过目标特征提取器提取支撑集中每一训练音频样本对应的语音特征;
类别映射子单元,用于通过分类器将语音特征映射至类别空间,输出训练音频样本对应的预测类别;
网络损失计算子单元,用于通过交叉熵损失函数,基于每一训练音频样本对应的预测类别与标注类别,计算网络损失;
分类器优化子单元,用于采用误差反向传播算法,基于网络损失优化分类器,得到训练好的语音分类网络。
具体地,该语音分类网络训练装置还包括测试集构建模块、语音特征提取模块、预测模块、样本损失计算模块、正则因子获取模块以及损失函数重构模块。
测试集构建模块,用于基于支撑集,构建测试集;其中,测试集包括从支撑集对应的K个类别中随机选取的C个类别,每一类别对应Z个测试样本;其中,其中,C为小于等于K的正整数,Z为正整数。
语音特征提取模块,用于通过目标特征提取器分别提取测试样本对应的第一语音特征,以及支撑集中每一训练音频样本对应的第二语音特征;
预测模块,用于计算第一语音特征与每一第二语音特征的特征相似度,并将特征相似度最高的第二语音特征对应的标注类别作为测试样本对应的预测类别;
样本损失计算模块,用于通过交叉熵损失函数,基于每一测试样本对应的预测类别以及标注类别,计算每一测试样本的样本损失;
正则因子获取模块,用于对多个测试样本的样本损失取均值,将得到的损失均值作为正则因子;
损失函数重构模块,用于基于正则因子,重构交叉熵损失函数;
网络损失计算子单元具体为:通过重构后的交叉熵损失函数,基于每一训练音频样本对应的预测类别与标注类别,计算网络损失。
关于语音分类网络训练装置的具体限定可以参见上文中对于语音分类网络训练方法的限定,在此不再赘述。上述语音分类网络训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括计算机存储介质、内存储器。该计算机存储介质存储有操作系统、计算机程序和数据库。该内存储器为计算机存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储执行语音分类网络训练方法过程中生成或获取的数据,如语音分类网络。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种语音分类网络训练方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中的语音分类网络训练方法的步骤,例如图2所示的步骤S201-S205,或者图3至图7中所示的步骤。或者,处理器执行计算机程序时实现语音分类网络训练装置这一实施例中的各模块/单元的功能,例如图8所示的各模块/单元的功能,为避免重复,这里不再赘述。
在一实施例中,提供一计算机存储介质,该计算机存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中语音分类网络训练方法的步骤,例如图2所示的步骤S201-S205,或者图3至图7中所示的步骤,为避免重复,这里不再赘述。或者,该计算机程序被处理器执行时实现上述语音分类网络训练装置这一实施例中的各模块/单元的功能,例如图8所示的各模块/单元的功能,为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种语音分类网络训练方法,其特征在于,包括:
获取小样本数据集;其中,所述小样本数据集包括多个标注好类别的训练音频样本;
将同一类别的训练音频样本作为对比模型学习的训练集,以基于所述训练集预训练所述对比模型,计算所述对比模型的模型损失;
通过所述模型损失迭代训练所述对比模型,以得到训练好的对比模型;其中,所述训练好的对比模型包括目标特征提取器;
将所述目标特征提取器与一分类器连接,以构建语音分类网络;
采用小样本学习方式,基于所述小样本数据集对所述语音分类网络进行微调,得到训练好的语音分类网络。
2.如权利要求1所述语音分类网络训练方法,其特征在于,在基于所述训练集预训练所述对比模型之前,所述语音分类网络训练方法还包括:
从所述训练集中随机选取目标锚点,并将所述训练集中的其他训练音频样本作为自样本集;
对所述目标锚点以及所述自样本集进行数据增强处理,得到增强样本集;
合并所述自样本集以及所述增强样本集作为所述目标锚点对应的正样本集;
将与所述训练集对应类别不同的其他类别的训练集作为所述目标锚点对应的负样本集;
所述基于所述训练集预训练所述对比模型,计算所述对比模型的模型损失,包括:基于每一所述目标锚点对应的正负样本集预训练所述对比模型,计算所述对比模型的模型损失。
3.如权利要求2所述语音分类网络训练方法,其特征在于,所述预训练的对比模型包括原始特征提取器;
所述基于每一所述目标锚点对应的所述正负样本集预训练所述对比模型,计算所述对比模型的模型损失,包括:
通过所述原始特征提取器分别提取所述目标锚点对应的锚点特征以及所述正样本集中每一正样本对应的正样本特征;
对所述锚点特征以及所述正样本特征进行点积计算,得到第一点积结果;
通过所述原始特征提取器提取所述负样本集中每一负样本对应的负样本特征;
对所述锚点特征以及所述负样本特征进行点积计算,得到第二点积结果;
基于所述第一点积结果以及所述第二点积结果,计算所述对比模型的模型损失。
4.如权利要求3所述语音分类网络训练方法,其特征在于,所述基于所述第一点积结果以及所述第二点积结果,计算所述对比模型的模型损失,包括:
5.如权利要求1所述语音分类网络训练方法,其特征在于,所述采用小样本学习方式,基于所述小样本数据集对所述语音分类网络进行微调,得到训练好的语音分类网络,包括:
从所述小样本数据集中随机选取K个类别,并从每一所述类别对应的多个训练音频样本中随机选取M个训练音频样本作为支撑集;其中,K和M均为正整数;
基于所述支撑集对所述语音分类网络进行微调,得到训练好的语音分类网络。
6.如权利要求5所述语音分类网络训练方法,其特征在于,所述基于所述支撑集对所述语音分类网络进行微调,得到训练好的语音分类网络,包括:
通过所述目标特征提取器提取所述支撑集中每一所述训练音频样本对应的语音特征;
通过所述分类器将所述语音特征映射至类别空间,输出所述训练音频样本对应的预测类别;
通过交叉熵损失函数,基于每一所述训练音频样本对应的所述预测类别与标注类别,计算网络损失;
采用误差反向传播算法,基于所述网络损失优化所述分类器,得到训练好的语音分类网络。
7.如权利要求6所述语音分类网络训练方法,其特征在于,在所述通过交叉熵损失函数,基于每一所述训练音频样本对应的所述预测类别与标注类别,计算网络损失之前,还包括:
基于所述支撑集,构建测试集;其中,所述测试集包括从所述支撑集对应的K个类别中随机选取的C个类别,每一类别对应Z个测试样本;其中,C为小于等于K的正整数,Z为正整数;
通过所述目标特征提取器分别提取所述测试样本对应的第一语音特征,以及所述支撑集中每一所述训练音频样本对应的第二语音特征;
计算所述第一语音特征与每一所述第二语音特征的特征相似度,并将特征相似度最高的第二语音特征对应的标注类别作为所述测试样本对应的预测类别;
通过交叉熵损失函数,基于每一所述测试样本对应的预测类别以及标注类别,计算每一测试样本的样本损失;
对多个测试样本的样本损失取均值,将得到的损失均值作为正则因子;
基于所述正则因子,重构所述交叉熵损失函数;
所述通过交叉熵损失函数,基于每一所述训练音频样本对应的所述预测类别与标注类别,计算网络损失,包括:
通过重构后的交叉熵损失函数,基于每一所述训练音频样本对应的所述预测类别与标注类别,计算网络损失。
8.一种语音分类网络训练装置,其特征在于,包括:
小样本数据集获取模块,用于获取小样本数据集;其中,所述小样本数据集包括多个标注好类别的训练音频样本;
预训练模块,用于将同一类别的训练音频样本作为对比模型学习的训练集,以基于所述训练集预训练所述对比模型,计算所述对比模型的模型损失;
迭代训练模块,用于通过所述模型损失迭代训练所述对比模型,以得到训练好的对比模型;其中,所述训练好的对比模型包括目标特征提取器;
分类网络构建模块,用于将所述目标特征提取器与一分类器连接,以构建语音分类网络;
模型微调模块,用于采用小样本学习方式,基于所述小样本数据集对所述语音分类网络进行微调,得到训练好的语音分类网络。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述语音分类网络训练方法的步骤。
10.一种计算机存储介质,所述计算机存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述语音分类网络训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110844078.1A CN113593611B (zh) | 2021-07-26 | 2021-07-26 | 语音分类网络训练方法、装置、计算设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110844078.1A CN113593611B (zh) | 2021-07-26 | 2021-07-26 | 语音分类网络训练方法、装置、计算设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113593611A true CN113593611A (zh) | 2021-11-02 |
CN113593611B CN113593611B (zh) | 2023-04-07 |
Family
ID=78249953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110844078.1A Active CN113593611B (zh) | 2021-07-26 | 2021-07-26 | 语音分类网络训练方法、装置、计算设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113593611B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114241514A (zh) * | 2021-11-15 | 2022-03-25 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN114399005A (zh) * | 2022-03-10 | 2022-04-26 | 深圳市声扬科技有限公司 | 一种活体检测模型的训练方法、装置、设备及存储介质 |
CN114398877A (zh) * | 2022-01-12 | 2022-04-26 | 平安普惠企业管理有限公司 | 基于人工智能的主题提取方法、装置、电子设备及介质 |
CN114510599A (zh) * | 2022-01-14 | 2022-05-17 | 北京有竹居网络技术有限公司 | 特征编码模型生成方法、音频确定方法以及相关装置 |
CN114974220A (zh) * | 2022-06-17 | 2022-08-30 | 中国电信股份有限公司 | 网络模型的训练方法、语音对象的性别识别方法及装置 |
CN115099372A (zh) * | 2022-08-25 | 2022-09-23 | 深圳比特微电子科技有限公司 | 分类识别方法和装置 |
CN115294985A (zh) * | 2022-10-08 | 2022-11-04 | 北京信工博特智能科技有限公司 | 一种基于对比学习的多分类语音命令识别方法及识别系统 |
CN116229960A (zh) * | 2023-03-08 | 2023-06-06 | 江苏微锐超算科技有限公司 | 欺骗性语音鲁棒检测方法、系统、介质及设备 |
CN116230012A (zh) * | 2023-02-28 | 2023-06-06 | 哈尔滨工程大学 | 一种基于元数据对比学习预训练的两阶段异音检测方法 |
CN116524958A (zh) * | 2023-05-30 | 2023-08-01 | 南开大学 | 基于质量对比学习的合成音质量评测模型的训练方法 |
CN117476036A (zh) * | 2023-12-27 | 2024-01-30 | 广州声博士声学技术有限公司 | 一种环境噪声识别方法、系统、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180053071A1 (en) * | 2016-04-21 | 2018-02-22 | Sas Institute Inc. | Distributed event prediction and machine learning object recognition system |
CN111402929A (zh) * | 2020-03-16 | 2020-07-10 | 南京工程学院 | 基于域不变的小样本语音情感识别方法 |
CN112131453A (zh) * | 2020-08-26 | 2020-12-25 | 江汉大学 | 一种基于bert的网络不良短文本检测方法、装置及存储介质 |
CN112668459A (zh) * | 2020-12-25 | 2021-04-16 | 合肥工业大学 | 基于有监督对比学习和卷积神经网络的滚动轴承故障诊断方法 |
-
2021
- 2021-07-26 CN CN202110844078.1A patent/CN113593611B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180053071A1 (en) * | 2016-04-21 | 2018-02-22 | Sas Institute Inc. | Distributed event prediction and machine learning object recognition system |
CN111402929A (zh) * | 2020-03-16 | 2020-07-10 | 南京工程学院 | 基于域不变的小样本语音情感识别方法 |
CN112131453A (zh) * | 2020-08-26 | 2020-12-25 | 江汉大学 | 一种基于bert的网络不良短文本检测方法、装置及存储介质 |
CN112668459A (zh) * | 2020-12-25 | 2021-04-16 | 合肥工业大学 | 基于有监督对比学习和卷积神经网络的滚动轴承故障诊断方法 |
Non-Patent Citations (1)
Title |
---|
RUI WANG, SHIJING SI, ETC: "Integration Task Specific Information into Pretrained Language Model for Low Resource Fine Tuning", <EMNLP 2020> * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114241514A (zh) * | 2021-11-15 | 2022-03-25 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN114241514B (zh) * | 2021-11-15 | 2024-05-28 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN114398877A (zh) * | 2022-01-12 | 2022-04-26 | 平安普惠企业管理有限公司 | 基于人工智能的主题提取方法、装置、电子设备及介质 |
CN114510599A (zh) * | 2022-01-14 | 2022-05-17 | 北京有竹居网络技术有限公司 | 特征编码模型生成方法、音频确定方法以及相关装置 |
WO2023134550A1 (zh) * | 2022-01-14 | 2023-07-20 | 北京有竹居网络技术有限公司 | 特征编码模型生成方法、音频确定方法以及相关装置 |
CN114399005A (zh) * | 2022-03-10 | 2022-04-26 | 深圳市声扬科技有限公司 | 一种活体检测模型的训练方法、装置、设备及存储介质 |
CN114399005B (zh) * | 2022-03-10 | 2022-07-12 | 深圳市声扬科技有限公司 | 一种活体检测模型的训练方法、装置、设备及存储介质 |
CN114974220A (zh) * | 2022-06-17 | 2022-08-30 | 中国电信股份有限公司 | 网络模型的训练方法、语音对象的性别识别方法及装置 |
CN115099372B (zh) * | 2022-08-25 | 2022-12-06 | 深圳比特微电子科技有限公司 | 分类识别方法和装置 |
CN115099372A (zh) * | 2022-08-25 | 2022-09-23 | 深圳比特微电子科技有限公司 | 分类识别方法和装置 |
CN115294985A (zh) * | 2022-10-08 | 2022-11-04 | 北京信工博特智能科技有限公司 | 一种基于对比学习的多分类语音命令识别方法及识别系统 |
CN116230012A (zh) * | 2023-02-28 | 2023-06-06 | 哈尔滨工程大学 | 一种基于元数据对比学习预训练的两阶段异音检测方法 |
CN116230012B (zh) * | 2023-02-28 | 2023-08-08 | 哈尔滨工程大学 | 一种基于元数据对比学习预训练的两阶段异音检测方法 |
CN116229960A (zh) * | 2023-03-08 | 2023-06-06 | 江苏微锐超算科技有限公司 | 欺骗性语音鲁棒检测方法、系统、介质及设备 |
CN116229960B (zh) * | 2023-03-08 | 2023-10-31 | 江苏微锐超算科技有限公司 | 欺骗性语音鲁棒检测方法、系统、介质及设备 |
CN116524958A (zh) * | 2023-05-30 | 2023-08-01 | 南开大学 | 基于质量对比学习的合成音质量评测模型的训练方法 |
CN117476036A (zh) * | 2023-12-27 | 2024-01-30 | 广州声博士声学技术有限公司 | 一种环境噪声识别方法、系统、设备和介质 |
CN117476036B (zh) * | 2023-12-27 | 2024-04-09 | 广州声博士声学技术有限公司 | 一种环境噪声识别方法、系统、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113593611B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113593611B (zh) | 语音分类网络训练方法、装置、计算设备及存储介质 | |
He et al. | Asymptotic soft filter pruning for deep convolutional neural networks | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
WO2022042123A1 (zh) | 图像识别模型生成方法、装置、计算机设备和存储介质 | |
CN111985228B (zh) | 文本关键词提取方法、装置、计算机设备和存储介质 | |
CN112016318B (zh) | 基于解释模型的分诊信息推荐方法、装置、设备及介质 | |
EP3620982B1 (en) | Sample processing method and device | |
CN114283350B (zh) | 视觉模型训练和视频处理方法、装置、设备及存储介质 | |
CN111583911A (zh) | 基于标签平滑的语音识别方法、装置、终端及介质 | |
CN112418320A (zh) | 一种企业关联关系识别方法、装置及存储介质 | |
US20220292132A1 (en) | METHOD AND DEVICE FOR RETRIEVING IMAGE (As Amended) | |
Huai et al. | Zerobn: Learning compact neural networks for latency-critical edge systems | |
CN114332500A (zh) | 图像处理模型训练方法、装置、计算机设备和存储介质 | |
CN113626610A (zh) | 知识图谱嵌入方法、装置、计算机设备和存储介质 | |
CN114329029A (zh) | 对象检索方法、装置、设备及计算机存储介质 | |
CN114595739B (zh) | 图像-触觉信号相互重建方法及装置 | |
CN113239697B (zh) | 实体识别模型训练方法、装置、计算机设备及存储介质 | |
CN109086386B (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
CN114638823B (zh) | 基于注意力机制序列模型的全切片图像分类方法及装置 | |
CN113743448B (zh) | 模型训练数据获取方法、模型训练方法和装置 | |
CN113918696A (zh) | 基于k均值聚类算法的问答匹配方法、装置、设备及介质 | |
CN114238798A (zh) | 基于神经网络的搜索排序方法、系统、设备及存储介质 | |
CN113434676A (zh) | 文本关系提取模型训练、文本关系提取方法、装置及设备 | |
CN112149389A (zh) | 简历信息结构化处理方法、装置、计算机设备和存储介质 | |
CN115204146B (zh) | 关键词抽取方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |