CN111899729A - 一种语音模型的训练方法、装置、服务器和存储介质 - Google Patents

一种语音模型的训练方法、装置、服务器和存储介质 Download PDF

Info

Publication number
CN111899729A
CN111899729A CN202010826115.1A CN202010826115A CN111899729A CN 111899729 A CN111899729 A CN 111899729A CN 202010826115 A CN202010826115 A CN 202010826115A CN 111899729 A CN111899729 A CN 111899729A
Authority
CN
China
Prior art keywords
model
speech
voice
lossless
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010826115.1A
Other languages
English (en)
Other versions
CN111899729B (zh
Inventor
黎子骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Baiguoyuan Information Technology Co Ltd
Original Assignee
Guangzhou Baiguoyuan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baiguoyuan Information Technology Co Ltd filed Critical Guangzhou Baiguoyuan Information Technology Co Ltd
Priority to CN202010826115.1A priority Critical patent/CN111899729B/zh
Publication of CN111899729A publication Critical patent/CN111899729A/zh
Application granted granted Critical
Publication of CN111899729B publication Critical patent/CN111899729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明实施例公开了一种语音模型的训练方法、装置、服务器和存储介质。其中,该方法包括:将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。本发明实施例提供的技术方案,避免语音模型对同一语音源下不同语音数据输出的模型结果之间存在的差异,减少对同一语音源下不同语音数据的模型预测波动,提高任一语音数据在语音模型下的处理准确性。

Description

一种语音模型的训练方法、装置、服务器和存储介质
技术领域
本发明实施例涉及音频处理技术领域,尤其涉及一种语音模型的训练方法、装置、服务器和存储介质。
背景技术
随着互联网技术的快速发展,出现大量对语音数据进行识别处理的任务,例如语音识别、语音类场景识别或者声音事件检测等,此时通常会针对各个语音类任务,分别训练出相应的语音模型来预测该语音类任务的输出结果。
目前,通过会对大量语音采样数据进行相应的音频编码,作为语音模型的训练样本,然后采用交叉熵的损失函数对该语音模型进行训练,以使每一语音训练样本的输出结果在训练过程中不断接近该语音训练样本的样本标签;然而,同一音频数据源在不同编码方式或编码码率下进行编码压缩时,会丢失不同的音频内容,使得同一音频数据源在不同编码压缩后的音频数据之间会存在一定的差异,例如编码码率越低,编码压缩后的音频数据会丢失的越多,此类编码数据丢失对于语音模型的预测也会带来一定的影响,使得语音模型对于同一音频数据源在不同编码方式或编码码率下各编码音频的输出结果也存在一定的差异,影响到语音模型对各语音类任务的预测准确性。
发明内容
本发明实施例提供了一种语音模型的训练方法、装置、服务器和存储介质,避免语音模型对相同语音源下不同语音数据输出的模型结果之间的差异,提高任一语音数据在语音模型下的预测准确性。
第一方面,本发明实施例提供了一种语音模型的训练方法,该方法包括:
将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;
以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。
第二方面,本发明实施例提供了一种语音模型的训练装置,该装置包括:
语音数据输入模块,用于将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;
语音模型训练模块,用于以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。
第三方面,本发明实施例提供了一种服务器,该服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所述的语音模型的训练方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明任意实施例所述的语音模型的训练方法。
本发明实施例提供的一种语音模型的训练方法、装置、服务器和存储介质,将无损语音数据和该无损语音数据编码变换后的目标语音数据作为预先构建的语音模型的训练样本,此时无损语音数据和目标语音数据具有相同的语音源,在语音模型的训练过程中,不断将无损语音数据和目标语音数据分别输入到该语音模型中,以得到无损语音数据的第一模型结果和目标语音数据的第二模型结果,然后以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,对该语音模型进行训练,使得该语音模型能够对同一语音源下的无损语音数据和目标语音数据输出相近的模型结果,避免语音模型对同一语音源下不同语音数据输出的模型结果之间存在的过大差异,减少对同一语音源下不同语音数据的模型预测波动,提高任一语音数据在语音模型下的处理准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1A为本发明实施例一提供的一种语音模型的训练方法的流程图;
图1B为本发明实施例一提供的语音模型的训练过程的原理示意图;
图2A为本发明实施例二提供的一种语音模型的训练方法的流程图;
图2B为本发明实施例二提供的语音模型的训练过程的原理示意图;
图3为本发明实施例三提供的一种语音模型的训练装置的结构示意图;
图4为本发明实施例四提供的一种服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。此外,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
图1A为本发明实施例一提供的一种语音模型的训练方法的流程图,本实施例可适用于对任一语音场景下的语音模型进行训练的情况中。本实施例提供的语音模型的训练方法可以由本发明实施例提供的语音模型的训练装置来执行,该装置可以通过软件和/或硬件的方式来实现,并集成在执行本方法的服务器中。
具体的,参考图1A,该方法可以包括如下步骤:
S110,将无损语音数据和无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到无损语音数据的第一模型结果和目标语音数据的第二模型结果。
具体的,由于现有语音模型训练时,会将每一语音数据作为训练样本,直接根据每一训练样本的训练标签,采用交叉熵的损失函数对语音模型进行训练,此时由于同一语音源在不同编码下的各个语音编码数据之间存在不同的语音内容丢失,使得现有训练方式下的语音模型对同一语音源在不同编码下的各个语音编码数据的模型输出结果也存在一定的差异,影响到语音模型对语音数据的处理准确性;因此,为了解决上述问题,本实施例会提供一种新的语音模型训练方式,针对语音模型对于无损语音数据所输出的模型结果能够准确代表该无损语音数据所属的语音源的真实输出结果的特点,会将无损语音数据在语音模型中输出的第一模型结果作为语音模型对于该无损语音数据所属的语音源下其他语音数据进行处理的参考信息,以确保语音模型的训练全面性。
需要说明的是,本实施例中的无损语音数据可以为采用无损压缩下的编码方式对语音源数据进行编码后的语音数据,语音源数据为原始语音采样数据,进而使得该无损语音数据相比语音源数据来说,几乎不存在语音信息丢失,无损压缩下的编码方式可以为脉冲编码调制(Pulse Code Modulation,简称为PCM)编码或者霍夫曼编码等;同时,由于在编码时选用的编码码率不同,会造成语音数据的信息丢失不同,而无损语音数据作为其他语音数据在语音模型中的处理参考,也会要求该无损语音数据所选用的编码码率可以适当为较高的码率档位,以便后续该无损语音数据能够成功变换到较低码率档位下,进而采用该无损语音数据和变换到较低码率档位下的语音数据来共同对语音模型进行训练。
此外,本实施例中预先构建的语音模型可以为面向任一类语音处理任务构建的网络模型,例如需要对各个语音信号的语音内容进行识别预测时所构建的语音识别模型,通过解析语音信号的内容来预测当前所处场景时所构建的场景识别模型,以及通过解析语音信号的内容来预测当前是否触发执行某一事件时所构建的事件检测模型等,本实施例中对于语音模型所属的具体预测类别不作限定,只要该语音模型是通过对各个语音信号进行分析来执行具体预测功能即可。
在本实施例中,为了保证预先构建的语音模型的训练准确性,本实施例首先会获取采用无损压缩下的编码方式对原始语音采样数据进行编码得到的无损语音数据,同时获取该无损语音数据采用多种其他编码方式进行编码变换后的各个目标语音数据,此时无损语音数据和每一目标语音数据均来自同一语音源,也就是具有相同的语音内容,然后为了避免同一语音源下不同语音数据在语音模型下的预测结果波动,直接将该无损语音数据和各个目标语音数据分别输入到预先构建的语音模型中,采用该语音模型中已训练的模型参数和模型结构分别对该无损语音数据和各个目标语音数据进行处理,进而可以预测得到该无损语音数据的第一模型结果和各个目标语音数据的第二模型结果,后续通过第一模型结果和各个第二模型结果之间的差异不断对该语音模型进行训练,以使该无损语音数据的第一模型结果和各个目标语音数据的第二模型结果之间能够保持一致,从而减少同一语音源下不同语音数据在语音模型下的预测结果波动。
示例性的,本实施例会将无损语音数据和该无损语音数据经过编码变换后的每一目标语音数据分别组成相应的语音对,然后将各个语音对作为该语音模型的训练样本,并将该无损语音数据的语音标注信息作为各训练样本的样本标签,然后将每一语音对不断输入预先构建的语音模型中,后续根据语音模型输出的模型结果对和对应的样本标签,对该语音模型进行训练。
S120,以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,对语音模型进行训练。
可选的,在得到无损语音数据的第一模型结果和目标语音数据的第二模型结果之后,为了确保语音模型对于同一语音源下不同语音数据所输出的各模型结果之间的一致性,本实施例会以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,来更新该语音模型中现有的模型结构和模型参数,此时该预设差异目标可以为最小化第一模型结果和第二模型结果之间的差异或者使第一模型结果和第二模型结果之间的差异满足预设差异区间,以确保同一语音源下不同语音数据在语音模型中所输出的各模型结果能够大致保持一致,而不存在过大的模型输出差异;后续采用更新后的语音模型继续对新的无损语音数据和该新的无损语音数据编码变换后的目标语音数据进行处理,依次循环,不断对该语音模型进行训练,直至第一模型结果和第二模型结果之间的差异趋向预设差异指标下的收敛,此时确定该语音模型训练完成,使得后续采用训练完成的语音模型对任一语音数据进行处理时,无论该语音数据为无损语音数据还是其他有损压缩的编码方式下的其他语音数据,均能够准确得到该语音数据在无损语音下的模型结果,提高语音模型的预测准确性。
此时,本实施例中以最小化第一模型结果和第二模型结果之间的差异为目标,或者以使第一模型结果和第二模型结果之间的差异满足预设差异区间为目标,均可以实现对语音模型的训练。
进一步的,为了保证语音模型的成功训练,本实施例在预先构建语音模型时,会直接以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,生成该语音模型的训练损失函数;在语音模型的训练过程中,不断将各个无损语音数据和该无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到该无损语音数据的第一模型结果和目标语音数据的第二模型结果,然后采用该语音模型的训练损失函数,不断分析第一模型结果的具体值和第二模型结果的具体值之间的损失差异,并不断使该损失差异趋于预设差异指标的要求,进而对该语音模型进行训练。此时,通过本实施例中的训练损失函数对语音模型进行训练,能够使经过有损编码变换下的目标语音数据在该语音模型中输出的第二模型结果不断趋近于同一语音源下的无损语音数据在该语音模型中输出的第一模型结果,从而减少语音模型对同一语音源下不同语音数据输出的模型结果之间存在的差异,使得该语音模型训练完成后,对任一有损语音数据进行模型处理时,无需额外获取与该有损语音数据处于同一语音源下的无损语音数据,即可直接得到该有损语音数据下的无损模型结果,从而提高任一语音数据在语音模型下的处理准确性,减少对同一语音源下不同语音数据的模型预测波动。示例性的,在以最小化第一模型结果和第二模型结果之间的差异为目标,对语音模型进行训练时,本实施例中所生成的该语音模型的训练损失函数可以为:
Figure BDA0002636275590000081
其中,
Figure BDA0002636275590000082
为无损语音数据的样本标签,yi为无损语音数据的第一模型结果,y′i为目标语音数据的第二模型结果,α为损失训练系数,此时
Figure BDA0002636275590000083
表示无损语音数据的交叉熵损失,
Figure BDA0002636275590000084
表示目标语音数据的交叉熵损失,α(y′i-yi)2表示采用欧氏距离算法计算出的第一模型结果和第二模型结果之间的差异,此时α(y′i-yi)2也可以采用其他差异计算方式来表示,本实施例对此不作限定。而在以使第一模型结果和第二模型结果之间的差异满足预设差异区间为目标,对语音模型进行训练时,所生成的训练损失函数可以为:
Figure BDA0002636275590000085
其中,thre为预设差异区间下的最大差异值,minimum[α(y′i-yi)2-thre,0]要求第一模型结果和第二模型结果之间的差异在小于所要求的最大差异值后,则该训练损失函数中可以不考虑该项。
本实施例提供的技术方案,将无损语音数据和该无损语音数据编码变换后的目标语音数据作为预先构建的语音模型的训练样本,此时无损语音数据和目标语音数据具有相同的语音源,在语音模型的训练过程中,不断将无损语音数据和目标语音数据分别输入到该语音模型中,以得到无损语音数据的第一模型结果和目标语音数据的第二模型结果,然后以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,对该语音模型进行训练,使得该语音模型能够对同一语音源下的无损语音数据和目标语音数据输出相近的模型结果,避免语音模型对同一语音源下不同语音数据输出的模型结果之间存在的过大差异,减少对同一语音源下不同语音数据的模型预测波动,提高任一语音数据在语音模型下的处理准确性。
实施例二
图2A为本发明实施例二提供的一种语音模型的训练方法的流程图,图2B为本发明实施例二提供的语音模型的训练过程的原理示意图。本实施例是在上述实施例的基础上进行优化。具体的,如图2A所示,本实施例主要对于无损语音数据到目标语音数据之间的编码变换过程以及语音模型对于无损语音数据和目标语音数据的输入要求进行详细的解释说明。
可选的,如图2A所示,本实施例中可以包括如下步骤:
S210,获取无损语音数据。
可选的,在对语音模型进行训练时,首先需要获取大量的训练样本,本实施例为了避免同一语音源下不同语音数据在语音模型下的预测结果波动,会将采用无损压缩的编码方式对原始语音采样数据进行编码的无损语音数据,以及该无损语音数据采用其他编码方式下进行编码变换的目标语音数据组合成对应的语音对,作为语音模型的训练样本,因此本实施例首先会采用无损压缩的编码方式,对大量原始语音采样数据进行编码,从而获取到大量的无损语音数据,后续通过对每一无损语音数据进行编码变换,而得到对应的目标语音数据。
需要说明的是,由于如果语音编码所选用的编码码率不同,使得编码过程中的信息丢失不同,从而也会得到同一语音源下的不同语音数据,使得语音模型对同一语音源下的不同语音数据输出不同的模型结果,因此本实施例中的无损语音数据的编码码率会选用较高的码率档位,以便后续能够变换到较低的码率档位,而得到大量目标语音数据。
S220,基于预设编码方式和预设码率档位对无损语音数据进行编码变换,得到对应的目标语音数据。
可选的,在获取到无损语音数据之后,可以采用各个预设编码方式对该无损语音数据进行重新编码,此时该预设编码方式可以为有损压缩下的编码方式,以确保语音模型的训练样本中无损语音数据与目标语音数据之间的编码差别,然后为了保证语音模型对不同编码码率下的语音数据进行区分训练,还会预先设定不同的码率档位,在采用各个预设编码方式对无损语音数据进行编码之后,针对无损语音数据在每一预设编码方式下的编码结果,分别采用每一预设码率档位对该编码结果进行码率变换,从而得到不同预设码率档位下的目标语音数据,此时可以每一无损语音数据经过编码变换后,可以得到多个目标语音数据,而且为了保证码率变换的准确性,本实施例中的预设码率档位会小于无损语音数据的编码码率,实现高码率到低码率的码率变换。
示例性的,无损语音数据可以为采用PCM编码后码率为256kbps的语音数据,此时预设编码方式可以为MP3编码和高级音频编码(Advanced Audio Coding,AAC),预设码率档位可以为32kbps、64kbps和128kbps三个档位,因此无损语音数据基于预设编码方式和预设码率档位进行编码变换后,可以得到6种目标语音数据。
S230,分别提取无损语音数据和目标语音数据的时频图。
可选的,为了保证语音模型对于无损语音数据和目标语音数据提取语音特征的便捷性,本实施例首先会对无损语音数据和目标语音数据进行时频分析,以分别提取出无损语音数据和目标语音数据的时频图,如图2B所示,后续通过语音模型分析无损语音数据和目标语音数据的时频图中所包含的语音信息,从而准确提取无损语音数据和目标语音数据的语音特征,提高语音模型处理的准确性。
S240,将无损语音数据和目标语音数据的时频图输入到预先构建的语音模型中,得到无损语音数据的第一模型结果和目标语音数据的第二模型结果。
可选的,在提取出无损语音数据和目标语音数据的时频图之后,会直接将无损语音数据和目标语音数据的时频图分别输入语音模型中,通过语音模型中的卷积层分别提取无损语音数据和目标语音数据的语音特征,并采用全连接层对无损语音数据和目标语音数据的语音特征进行综合分析,从而得到无损语音数据的第一模型结果和目标语音数据的第二模型结果。
S250,以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,对语音模型进行训练。
本实施例提供的技术方案,将无损语音数据和该无损语音数据编码变换后的目标语音数据作为预先构建的语音模型的训练样本,此时无损语音数据和目标语音数据具有相同的语音源,在语音模型的训练过程中,不断将无损语音数据和目标语音数据分别输入到该语音模型中,以得到无损语音数据的第一模型结果和目标语音数据的第二模型结果,然后以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,对该语音模型进行训练,使得该语音模型能够对同一语音源下的无损语音数据和目标语音数据输出相近的模型结果,避免语音模型对同一语音源下不同语音数据输出的模型结果之间存在的过大差异,减少对同一语音源下不同语音数据的模型预测波动,提高任一语音数据在语音模型下的处理准确性。
实施例三
图3为本发明实施例三提供的一种语音模型的训练装置的结构示意图,具体的,如图3所示,该装置可以包括:
语音数据输入模块310,用于将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;
语音模型训练模块320,用于以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。
本实施例提供的技术方案,将无损语音数据和该无损语音数据编码变换后的目标语音数据作为预先构建的语音模型的训练样本,此时无损语音数据和目标语音数据具有相同的语音源,在语音模型的训练过程中,不断将无损语音数据和目标语音数据分别输入到该语音模型中,以得到无损语音数据的第一模型结果和目标语音数据的第二模型结果,然后以使第一模型结果和第二模型结果之间的差异趋于预设差异指标为目标,对该语音模型进行训练,使得该语音模型能够对同一语音源下的无损语音数据和目标语音数据输出相近的模型结果,避免语音模型对同一语音源下不同语音数据输出的模型结果之间存在的过大差异,减少对同一语音源下不同语音数据的模型预测波动,提高任一语音数据在语音模型下的处理准确性。
本实施例提供的语音模型的训练装置可适用于上述任意实施例提供的语音模型的训练方法,具备相应的功能和有益效果。
实施例四
图4为本发明实施例四提供的一种服务器的结构示意图,如图4所示,该服务器包括处理器40、存储装置41和通信装置42;服务器中处理器40的数量可以是一个或多个,图4中以一个处理器40为例;服务器中的处理器40、存储装置41和通信装置42可以通过总线或其他方式连接,图4中以通过总线连接为例。
本实施例提供的一种服务器可用于执行上述任意实施例提供的语音模型的训练方法,具备相应的功能和有益效果。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时可实现上述任意实施例中的语音模型的训练方法。该方法具体可以包括:
将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;
以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的语音模型的训练方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述语音模型的训练装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.一种语音模型的训练方法,其特征在于,包括:
将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;
以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。
2.根据权利要求1所述的方法,其特征在于,还包括:
获取无损语音数据;
基于预设编码方式和预设码率档位对所述无损语音数据进行编码变换,得到对应的目标语音数据。
3.根据权利要求2所述的方法,其特征在于,所述预设编码方式为有损压缩下的编码方式,所述预设码率档位小于所述无损语音数据的编码码率。
4.根据权利要求1所述的方法,其特征在于,所述将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,包括:
分别提取所述无损语音数据和所述目标语音数据的时频图;
将所述无损语音数据和所述目标语音数据的时频图输入到预先构建的语音模型中。
5.根据权利要求1所述的方法,其特征在于,还包括:
以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,生成所述语音模型的训练损失函数;
相应的,所述以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练,包括:
采用所述语音模型的训练损失函数,对所述语音模型进行训练。
6.根据权利要求1所述的方法,其特征在于,所述以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练,包括:
以最小化所述第一模型结果和所述第二模型结果之间的差异为目标,对所述语音模型进行训练;或者,
以使所述第一模型结果和所述第二模型结果之间的差异满足预设差异区间为目标,对所述语音模型进行训练。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述无损语音数据为采用无损压缩下的编码方式对语音源数据进行编码后的语音数据。
8.根据权利要求1-6任一项所述的方法,其特征在于,所述语音模型为面向任一类语音处理任务构建的网络模型。
9.一种语音模型的训练装置,其特征在于,包括:
语音数据输入模块,用于将无损语音数据和所述无损语音数据编码变换后的目标语音数据分别输入到预先构建的语音模型中,得到所述无损语音数据的第一模型结果和所述目标语音数据的第二模型结果;
语音模型训练模块,用于以使所述第一模型结果和所述第二模型结果之间的差异趋于预设差异指标为目标,对所述语音模型进行训练。
10.一种服务器,其特征在于,所述服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的语音模型的训练方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的语音模型的训练方法。
CN202010826115.1A 2020-08-17 2020-08-17 一种语音模型的训练方法、装置、服务器和存储介质 Active CN111899729B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010826115.1A CN111899729B (zh) 2020-08-17 2020-08-17 一种语音模型的训练方法、装置、服务器和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010826115.1A CN111899729B (zh) 2020-08-17 2020-08-17 一种语音模型的训练方法、装置、服务器和存储介质

Publications (2)

Publication Number Publication Date
CN111899729A true CN111899729A (zh) 2020-11-06
CN111899729B CN111899729B (zh) 2023-11-21

Family

ID=73230352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010826115.1A Active CN111899729B (zh) 2020-08-17 2020-08-17 一种语音模型的训练方法、装置、服务器和存储介质

Country Status (1)

Country Link
CN (1) CN111899729B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070233477A1 (en) * 2006-03-30 2007-10-04 Infima Ltd. Lossless Data Compression Using Adaptive Context Modeling
CN107993651A (zh) * 2017-12-29 2018-05-04 深圳和而泰数据资源与云技术有限公司 一种语音识别方法、装置、电子设备及存储介质
CN109147805A (zh) * 2018-06-05 2019-01-04 安克创新科技股份有限公司 基于深度学习的音频音质增强
CN110197658A (zh) * 2019-05-30 2019-09-03 百度在线网络技术(北京)有限公司 语音处理方法、装置以及电子设备
CN110288981A (zh) * 2019-07-03 2019-09-27 百度在线网络技术(北京)有限公司 用于处理音频数据的方法和装置
CN111081223A (zh) * 2019-12-31 2020-04-28 广州市百果园信息技术有限公司 一种语音识别方法、装置、设备和存储介质
CN111243576A (zh) * 2020-01-16 2020-06-05 腾讯科技(深圳)有限公司 语音识别以及模型训练方法、装置、设备和存储介质
CN111312264A (zh) * 2020-02-20 2020-06-19 腾讯科技(深圳)有限公司 语音传输方法、系统、装置、计算机可读存储介质和设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070233477A1 (en) * 2006-03-30 2007-10-04 Infima Ltd. Lossless Data Compression Using Adaptive Context Modeling
CN107993651A (zh) * 2017-12-29 2018-05-04 深圳和而泰数据资源与云技术有限公司 一种语音识别方法、装置、电子设备及存储介质
CN109147805A (zh) * 2018-06-05 2019-01-04 安克创新科技股份有限公司 基于深度学习的音频音质增强
CN110197658A (zh) * 2019-05-30 2019-09-03 百度在线网络技术(北京)有限公司 语音处理方法、装置以及电子设备
CN110288981A (zh) * 2019-07-03 2019-09-27 百度在线网络技术(北京)有限公司 用于处理音频数据的方法和装置
CN111081223A (zh) * 2019-12-31 2020-04-28 广州市百果园信息技术有限公司 一种语音识别方法、装置、设备和存储介质
CN111243576A (zh) * 2020-01-16 2020-06-05 腾讯科技(深圳)有限公司 语音识别以及模型训练方法、装置、设备和存储介质
CN111312264A (zh) * 2020-02-20 2020-06-19 腾讯科技(深圳)有限公司 语音传输方法、系统、装置、计算机可读存储介质和设备

Also Published As

Publication number Publication date
CN111899729B (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
US20200402500A1 (en) Method and device for generating speech recognition model and storage medium
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
CN108710704B (zh) 对话状态的确定方法、装置、电子设备及存储介质
CN110990543A (zh) 智能对话的生成方法、装置、计算机设备及计算机存储介质
CN112509555B (zh) 方言语音识别方法、装置、介质及电子设备
CN110377744B (zh) 一种舆情分类的方法、装置、存储介质及电子设备
CN113535925B (zh) 语音播报方法、装置、设备及存储介质
CN111400463A (zh) 对话响应方法、装置、设备和介质
CN111899729B (zh) 一种语音模型的训练方法、装置、服务器和存储介质
CN113963358B (zh) 文本识别模型训练方法、文本识别方法、装置及电子设备
CN114171016B (zh) 语音交互的方法、装置、电子设备及存储介质
CN115391512A (zh) 一种对话语言模型的训练方法、装置、设备及存储介质
CN115691510A (zh) 一种基于随机屏蔽训练的声纹识别方法及计算机设备
CN117063229A (zh) 交互语音信号处理方法、相关设备及系统
CN114373443A (zh) 语音合成方法和装置、计算设备、存储介质及程序产品
CN113409792A (zh) 一种语音识别方法及其相关设备
CN113257239B (zh) 语音识别方法、装置、电子设备及存储介质
CN116844523B (zh) 语音数据生成方法、装置、电子设备及可读存储介质
US20230047378A1 (en) Processing accelerator architectures
CN112201250B (zh) 一种语义分析方法、装置、电子设备及存储介质
CN116959437A (zh) 语音识别方法、装置、设备、存储介质和程序产品
CN117238280A (zh) 语气词识别模型的生成方法和装置、音频数据分析方法
CN114360511A (zh) 语音识别及模型训练方法与装置
CN115618880A (zh) 指代消解方法和装置
CN117612570A (zh) 基于ota场景的语音端点检测方法、系统、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant