CN110428811A - 一种数据处理方法、装置及电子设备 - Google Patents

一种数据处理方法、装置及电子设备 Download PDF

Info

Publication number
CN110428811A
CN110428811A CN201910876122.XA CN201910876122A CN110428811A CN 110428811 A CN110428811 A CN 110428811A CN 201910876122 A CN201910876122 A CN 201910876122A CN 110428811 A CN110428811 A CN 110428811A
Authority
CN
China
Prior art keywords
phoneme
word
speech samples
sample
wake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910876122.XA
Other languages
English (en)
Other versions
CN110428811B (zh
Inventor
陈孝良
靳源
冯大航
常乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sound Intelligence Technology Co Ltd
Beijing SoundAI Technology Co Ltd
Original Assignee
Beijing Sound Intelligence Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sound Intelligence Technology Co Ltd filed Critical Beijing Sound Intelligence Technology Co Ltd
Priority to CN201910876122.XA priority Critical patent/CN110428811B/zh
Publication of CN110428811A publication Critical patent/CN110428811A/zh
Application granted granted Critical
Publication of CN110428811B publication Critical patent/CN110428811B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供了一种数据处理方法、装置及电子设备,获取语音样本以及所述语音样本对应的文本信息;对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。通过本发明中对语音样本的唤醒词音素的重组,就可以得到来自不同语音样本的唤醒词音素的组合,这样,就可以得到数量较多的语音样本。

Description

一种数据处理方法、装置及电子设备
技术领域
本发明涉及语音数据的处理领域,更具体的说,涉及一种数据处理方法、装置及电子设备。
背景技术
语音唤醒技术框架主要分为端到端与基于隐马尔可夫模型两种,这两种唤醒系统均需要建立一个性能较优的声学模型。
在建立声学模型之前,需要获取较多的训练数据,如何得到较多的训练数据是本领域技术人员亟需解决的技术问题。
发明内容
有鉴于此,本发明提供一种数据处理方法、装置及电子设备,以解决亟需获取较多的用于训练得到声学模型的训练数据的问题。
为解决上述技术问题,本发明采用了如下技术方案:
一种数据处理方法,包括:
获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
优选地,所述对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注,包括:
提取所述语音样本的音频特征;
基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
优选地,基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本,包括:
基于所述语音样本对应的文本信息,筛选出包括唤醒词的语音样本,并作为正例样本;
从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元;
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
优选地,所述依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,包括:
筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别;
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
优选地,在按照所述前后连接顺序进行拼接重组,得到所述目标语音样本之后,还包括:
对所述目标语音样本的韵律特征进行调整。
优选地,在按照所述前后连接顺序进行拼接重组,得到所述目标语音样本之后,还包括:
将所述语音样本中的非正例样本作为反例样本;
将所述正例样本的唤醒词音素和反例样本的音素进行拆分,分别得到正例音素组和反例音素组;所述正例音素组和所述反例音素组中均包括预设数量且是连续的多个音素;
将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据。
优选地,依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本,包括:
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从目标数据中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本;所述目标数据包括所述音素语音单元和所述反例音素组中的正例音素组。
优选地,还包括:
将所述目标样本、所述目标语音样本、以及将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据之后得到的新的反例样本按照预设比例进行混合,并训练得到语音唤醒模型;
基于所述语音唤醒模型的调整原则,调整所述目标样本、所述目标语音样本以及所述新的反例样本的比例,并重新训练所述语音唤醒模型。
一种数据处理装置,包括:
样本获取模块,用于获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对齐模块,用于对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
样本处理模块,用于基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
优选地,所述对齐模块包括:
特征提取子模块,用于提取所述语音样本的音频特征;
对齐子模块,用于基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
优选地,所述样本处理模块包括:
样本筛选子模块,用于基于所述语音样本对应的文本信息,筛选出包括唤醒词的语音样本,并作为正例样本;
截取子模块,用于从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元;
样本拼接子模块,用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
优选地,所述样本拼接子模块包括:
筛选单元,用于筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别;
选取单元,用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
一种电子设备,包括:存储器和处理器;
其中,所述存储器用于存储程序;
处理器调用程序并用于:
获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
相较于现有技术,本发明具有以下有益效果:
本发明提供了一种数据处理方法、装置及电子设备,获取语音样本以及所述语音样本对应的文本信息;对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。通过本发明中对语音样本的唤醒词音素的重组,就可以得到来自不同语音样本的唤醒词音素的组合,这样,就可以得到数量较多的语音样本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种数据处理方法的方法流程图;
图2为本发明实施例提供的另一种数据处理方法的方法流程图;
图3为本发明实施例提供的再一种数据处理方法的方法流程图;
图4为本发明实施例提供的一种数据处理装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种数据处理方法,主要涉及的是语音信息的处理,参照图1,数据处理方法可以包括:
S11、获取语音样本以及所述语音样本对应的文本信息。
所述语音样本为多个,可以通过网络爬虫爬取语音信息,也可以直接使用以往训练声学模型的数据,将这些数据作为语音样本。
在获取到语音样本之后,为了语音识别准确性,可以人工将语音转换成文本,得到语音样本对应的文本信息。此外,若是对识别结果的准确性要求较低,此时可以采用机器学习、加权有限状态转换器WFST模型等方式进行语音识别。
本实施例中,主要是用于训练设备唤醒的声学模型,因此,在得到语音样本之后,将包括唤醒词的样本作为正例,将不包括唤醒词的样本作为反例。其中,唤醒词可以是“天猫精灵”“小爱同学”等等。
S12、对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注。
由于获取的语音样本的数量总是有限的,为能达到训练用的数据量,增强数据多样性,提升模型泛化能力,本实施例通过合成与唤醒词相关的数据来增加数据。首先,需要对语音样本进行强制对齐。强制对齐可以使用DNN-HMM模型进行对齐。
本发明的另一实现方式中,步骤S12可以包括:
1)提取所述语音样本的音频特征。
提取语音样本的音频特征,音频特征可以是梅尔倒谱系数MFCC(Mel-scaleFrequency Cepstral Coefficients)特征或FBANK(Mel-Frequency CepstralCoefficients)特征。
2)基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
将所述语音样本对应的文本信息以及音频特征,输入到DNN-HMM模型中,即可进行强制对齐。
需要说明的是,本实施例中的强制对齐的采用的音素级对齐,这样可以给后期音素拼接提供基础。
S13、基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
步骤S12中进行了音素级强制对齐,进而可以将唤醒词的音素进行再组合,这样就可以得到较多的目标语音样本。
本实施例中,获取语音样本以及所述语音样本对应的文本信息;对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。通过本发明中对语音样本的唤醒词音素的重组,就可以得到来自不同语音样本的唤醒词音素的组合,这样,就可以得到数量较多的语音样本。
本发明的另一实现方式中,介绍步骤S13的具体实现方式,本实施例中,针对正例和反例的处理方法不同,首先介绍正例的处理方式,参照图2,可以包括:
S21、基于所述目标语音样本对应的文本信息,筛选出包括唤醒词的目标语音样本,并作为正例样本。
在区分正例和反例时,依据的是目标语音样本对应的文本信息,若包括唤醒词,则认为是正例,若不包括唤醒词,则认为是反例。
S22、从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元。
利用通过DNN-HMM模型得到的音素级标注,将包含唤醒词音素的语音段截取出来得到对应的音素语音单元,建立语音库。
S23、依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
具体的,唤醒词对应的唤醒词音素之间是有前后连接顺序的。举例来说,“小爱同学”的唤醒词音素分别为:
<sil><x><i><ao><a><i><t><o><ng><x><u><e><sil>,其中,<sil>表示静音。每一音素可以称为一基元。
由于每一组的语音样本的音素语音单元中包括各种不同的唤醒词的音素语音单元,如同时包括男人、女人、小孩和老人说的“小爱同学”的音素语音单元,并且这些音素语音单元已经进行过强制对齐。
即<sil><x><i><ao><a><i><t><o><ng><x><u><e><sil>会有多组,然后从这些组中随机选取第一个<sil>,然后随机选取出第二个<x>,直至选取到最后一个<sil>,然后进行顺序拼接。由于“小爱同学”一共涉及13个音素,则通过随机拼接可以产生1313个“小爱同学”的语音,大大增加了训练数据的数量。
但是需要注意的是,由于是随机进行选取拼接,则会出现两个不协调的音素拼接在一起,如小孩说的<x>,和老人说的<i>,这样会导致语音的不自然,此时需要通过基音同步叠加技术PSOLA对拼接的韵律特征进行调整,即对所述目标语音样本的韵律特征进行调整。
另外,为了避免语音拼接的不自然,还可以仅在同一人或同一类人(处于同一年龄段和同一性别)对应的音素语音单元中筛选出音素语音单元,并进行拼接。具体的:
筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别,依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
相比于上述实施例中的随机拼接,本实施例中,从同一人或同一类人中选取音素语音单元,由于同一人或同一类人的语音近似,进而拼接得到的目标语音样本的语音更加自然。
上述介绍的是对正例的处理过程,现介绍对反例的处理过程,具体的,参照图3,步骤S13可以包括:
S31、将所述语音样本中的非正例样本作为反例样本。
S32、将所述正例样本的唤醒词音素和反例样本的音素进行拆分,分别得到正例音素组和反例音素组。
所述正例音素组和所述反例音素组中均包括预设数量且是连续的多个音素。
其中,预设数量可以依据实际情况而定,优选可以是3个。
S33、将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据。
具体的,在实际场景中,会有语音非常近似唤醒词,例如唤醒词是小明,这个反例的集里主要是肖明,小米等等,听起来和唤醒词有点像的词,为了防止误唤醒,执行后续操作。
逐帧对通过DNN-HMM模型得到的音素级标注进行修正,当前后帧或当前帧与唤醒词的音素不一致,标记当前帧为filler,否则标注不变。
例如“小爱同学”唤醒词:
<sil><x><i><ao><a><i><t><o><ng><x><u><e><sil>
三个音素为一组<sil><x><i>、<x><i><ao>、<i><ao><a>、…、<u><e><sil>,即为正例音素组。
ASR数据“小孩子”
<sil><x><i><ao><h><a><i><z><i><sil>,即为反例音素组。
查找发现小孩子中的<sil><x><i>、<x><i><ao>出现在正例音素组中,则保留。
但是<h><a><i>由于<a>前面的<h>不符合“爱”字前后文信息,即没出现在正例音素组中,则修改为:filler,其中,filler即为设定的修正标签,也是本实施例中的预设数据。
在对每一反例样本修正后,可以将反例样本中的正例音素组以及上述的音素语音单元组合,得到大量的音素语音单元,也可以称为目标数据,然后基于目标数据进行上述的“依次随机选取出所述唤醒词的每一个唤醒词音素”操作。由于把反例的数据也进一步用于唤醒词音素的拼接,进一步增加了拼接得到的数据量。
通过上述的实施例得到大量的训练数据之后,在训练中根据词库量合理分配正向集和反向集的比例,然后将拼接生成的唤醒词数据与原有的录制唤醒词数据以一定比例混合训练语音唤醒模型。在进行语音唤醒模型的训练时,
可以将所述目标样本、所述目标语音样本、以及将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据之后得到的新的反例样本按照预设比例进行混合,并训练得到语音唤醒模型。
需要说明的是,在训练唤醒模型时,唤醒词音素、filler、sil中哪个占总体比例大,那么唤醒模型就更偏向哪个。笼统的说就是唤醒词多就唤醒率高、误唤醒率也高。filler和sil多就唤醒率低、误唤醒率也低。
在唤醒准确率较低,或者是虚警率高时,调整所述新正例样本和所述新反例样本的数据内容,如可以增大反例比例,在召回率低就调高正例比例。反例比例一般都在75%~85%之间。
为提高经训练的模型的各项指标可以先预设一个比例,例如正例和反例(即将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据之后得到的新的反例样本)分别占20%和80%,正例数据中,原生语音数据(即语音样本)占比较高,可以为50%-100%,经过上述拼接方法得到的拼接数据(即目标语音样本)的比例为0%-50%。在训练中分别调整正例反例的比例,以及调整正例中拼接数据的比例,每次调整中只调整上述二个比例中的一个,预设一个调整幅度,例如0.1%-0.5%,记录随着比例调整后训练完成的模型的召回率、准确率、虚警率的变化情形,并以此确定训练数据的比例。调整原则即为召回率、准确率和/或虚警率。
本实施例中,通过语音拼接重组数据,实现数据增强,相比于现有的数据扩充技术如加噪声、加混响、变速、变调等方式相比,现有的变化的还不够广泛,而本实施例可以提高唤醒声学模型训练人群泛化能力,训练出的模型唤醒识别率更高。
可选的,在上述数据处理方法的实施例的基础上,本发明的另一实施例提供了一种数据处理装置,参照图4,可以包括:
样本获取模块101,用于获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对齐模块102,用于对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
样本处理模块103,用于基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
本发明的另一实现方式中,所述对齐模块包括:
特征提取子模块,用于提取所述语音样本的音频特征;
对齐子模块,用于基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
本实施例中,获取语音样本以及所述语音样本对应的文本信息;对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。通过本发明中对语音样本的唤醒词音素的重组,就可以得到来自不同语音样本的唤醒词音素的组合,这样,就可以得到数量较多的语音样本。
需要说明的是,本实施例中的各个模块和子模块的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选的,在上述任一数据处理装置的实施例的基础上,所述样本处理模块103可以包括:
样本筛选子模块,用于基于所述语音样本对应的文本信息,筛选出包括唤醒词的语音样本,并作为正例样本;
截取子模块,用于从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元;
样本拼接子模块,用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
进一步,所述样本拼接子模块包括:
筛选单元,用于筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别;
选取单元,用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
进一步,还包括:
特征调整子模块,用于对所述目标语音样本的韵律特征进行调整。
本发明的另一实现方式中,所述样本处理模块103还可以包括:
样本确定子模块,用于将所述语音样本中的非正例样本作为反例样本;
样本拆分子模块,用于将所述正例样本的唤醒词音素和反例样本的音素进行拆分,分别得到正例音素组和反例音素组;所述正例音素组和所述反例音素组中均包括预设数量且是连续的多个音素;
数据设置子模块,用于将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据。
进一步,样本拼接子模块用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本时,具体用于:
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从目标数据中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本;所述目标数据包括所述音素语音单元和所述反例音素组中的正例音素组。
进一步,还包括:
数据训练模块,用于将所述目标样本、所述目标语音样本、以及将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据之后得到的新的反例样本按照预设比例进行混合,并训练得到语音唤醒模型;
数据调整模块,用于基于所述语音唤醒模型的调整原则,调整所述目标样本、所述目标语音样本以及所述新的反例样本的比例,并重新训练所述语音唤醒模型。
本实施例中,通过语音拼接重组数据,实现数据增强,相比于现有的数据扩充技术如加噪声、加混响、变速、变调等方式相比,现有的变化的还不够广泛,而本实施例可以提高唤醒声学模型训练人群泛化能力,训练出的模型唤醒识别率更高。
需要说明的是,本实施例中的各个模块和子模块的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选的,在上述数据处理方法及装置的实施例的基础上,本发明的另一实施例提供了一种电子设备,包括:存储器和处理器;
其中,所述存储器用于存储程序;
处理器调用程序并用于:
获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
进一步,所述对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注,包括:
提取所述语音样本的音频特征;
基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
进一步,基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本,包括:
基于所述语音样本对应的文本信息,筛选出包括唤醒词的语音样本,并作为正例样本;
从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元;
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
进一步,所述依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,包括:
筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别;
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
进一步,在按照所述前后连接顺序进行拼接重组,得到所述目标语音样本之后,还包括:
对所述目标语音样本的韵律特征进行调整。
进一步,在按照所述前后连接顺序进行拼接重组,得到所述目标语音样本之后,还包括:
将所述语音样本中的非正例样本作为反例样本;
将所述正例样本的唤醒词音素和反例样本的音素进行拆分,分别得到正例音素组和反例音素组;所述正例音素组和所述反例音素组中均包括预设数量且是连续的多个音素;
将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据。
进一步,依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本,包括:
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从目标数据中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本;所述目标数据包括所述音素语音单元和所述反例音素组中的正例音素组。
进一步,还包括:
将所述目标样本、所述目标语音样本、以及将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据之后得到的新的反例样本按照预设比例进行混合,并训练得到语音唤醒模型;
基于所述语音唤醒模型的调整原则,调整所述目标样本、所述目标语音样本以及所述新的反例样本的比例,并重新训练所述语音唤醒模型。
本实施例中,获取语音样本以及所述语音样本对应的文本信息;对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。通过本发明中对语音样本的唤醒词音素的重组,就可以得到来自不同语音样本的唤醒词音素的组合,这样,就可以得到数量较多的语音样本。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (13)

1.一种数据处理方法,其特征在于,包括:
获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
2.根据权利要求1所述的数据处理方法,其特征在于,所述对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注,包括:
提取所述语音样本的音频特征;
基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
3.根据权利要求1所述的数据处理方法,其特征在于,基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本,包括:
基于所述语音样本对应的文本信息,筛选出包括唤醒词的语音样本,并作为正例样本;
从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元;
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
4.根据权利要求3所述的数据处理方法,其特征在于,所述依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,包括:
筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别;
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
5.根据权利要求3或4所述的数据处理方法,其特征在于,在按照所述前后连接顺序进行拼接重组,得到所述目标语音样本之后,还包括:
对所述目标语音样本的韵律特征进行调整。
6.根据权利要求3所述的数据处理方法,其特征在于,在按照所述前后连接顺序进行拼接重组,得到所述目标语音样本之后,还包括:
将所述语音样本中的非正例样本作为反例样本;
将所述正例样本的唤醒词音素和反例样本的音素进行拆分,分别得到正例音素组和反例音素组;所述正例音素组和所述反例音素组中均包括预设数量且是连续的多个音素;
将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据。
7.根据权利要求6所述的数据处理方法,其特征在于,依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本,包括:
依据所述唤醒词的唤醒词音素之间的前后连接顺序,从目标数据中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本;所述目标数据包括所述音素语音单元和所述反例音素组中的正例音素组。
8.根据权利要求7所述的数据处理方法,其特征在于,还包括:
将所述目标样本、所述目标语音样本、以及将所述反例音素组中非所述正例音素组的反例音素组设置为预设数据之后得到的新的反例样本按照预设比例进行混合,并训练得到语音唤醒模型;
基于所述语音唤醒模型的调整原则,调整所述目标样本、所述目标语音样本以及所述新的反例样本的比例,并重新训练所述语音唤醒模型。
9.一种数据处理装置,其特征在于,包括:
样本获取模块,用于获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对齐模块,用于对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
样本处理模块,用于基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
10.根据权利要求7所述的数据处理装置,其特征在于,所述对齐模块包括:
特征提取子模块,用于提取所述语音样本的音频特征;
对齐子模块,用于基于所述语音样本对应的文本信息以及音频特征,对所述语音样本和所述语音样本对应的文本信息进行音素级强制对齐,得到所述音素级批注。
11.根据权利要求8所述的数据处理装置,其特征在于,所述样本处理模块包括:
样本筛选子模块,用于基于所述语音样本对应的文本信息,筛选出包括唤醒词的语音样本,并作为正例样本;
截取子模块,用于从所述正例样本中截取出所述唤醒词的唤醒词音素,并作为音素语音单元;
样本拼接子模块,用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素,并按照所述前后连接顺序进行拼接重组,得到所述目标语音样本。
12.根据权利要求11所述的数据处理装置,其特征在于,所述样本拼接子模块包括:
筛选单元,用于筛选出满足预设条件的音素语音单元,并作为目标音素语音单元;所述预设条件包括同一用户或具有相同属性值的用户;所述属性值包括年龄段和性别;
选取单元,用于依据所述唤醒词的唤醒词音素之间的前后连接顺序,从所述目标音素语音单元中依次随机选取出所述唤醒词的每一个唤醒词音素。
13.一种电子设备,其特征在于,包括:存储器和处理器;
其中,所述存储器用于存储程序;
处理器调用程序并用于:
获取语音样本以及所述语音样本对应的文本信息;所述语音样本为多个;
对所述语音样本和所述语音样本对应的文本信息进行强制对齐,得到音素级批注;
基于所述音素级批注、所述语音样本以及所述语音样本对应的文本信息,进行唤醒词音素的重新组合拼接,得到目标语音样本。
CN201910876122.XA 2019-09-17 2019-09-17 一种数据处理方法、装置及电子设备 Active CN110428811B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910876122.XA CN110428811B (zh) 2019-09-17 2019-09-17 一种数据处理方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910876122.XA CN110428811B (zh) 2019-09-17 2019-09-17 一种数据处理方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN110428811A true CN110428811A (zh) 2019-11-08
CN110428811B CN110428811B (zh) 2021-09-07

Family

ID=68418281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910876122.XA Active CN110428811B (zh) 2019-09-17 2019-09-17 一种数据处理方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN110428811B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956952A (zh) * 2019-12-12 2020-04-03 北京声智科技有限公司 一种样本生成方法、装置、服务器及存储介质
CN111276121A (zh) * 2020-01-23 2020-06-12 北京世纪好未来教育科技有限公司 语音对齐方法、装置、电子设备及存储介质
CN112133277A (zh) * 2020-11-20 2020-12-25 北京猿力未来科技有限公司 样本生成方法及装置
CN112331219A (zh) * 2020-11-05 2021-02-05 北京爱数智慧科技有限公司 语音处理方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209882B1 (en) * 2002-05-10 2007-04-24 At&T Corp. System and method for triphone-based unit selection for visual speech synthesis
CN102376182A (zh) * 2010-08-26 2012-03-14 财团法人工业技术研究院 语言学习系统、语言学习方法及其程序产品
CN105723362A (zh) * 2013-10-28 2016-06-29 余自立 自然表达处理方法、处理及回应方法、设备及系统
CN106653022A (zh) * 2016-12-29 2017-05-10 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法和装置
CN106971743A (zh) * 2016-01-14 2017-07-21 广州酷狗计算机科技有限公司 用户演唱数据处理方法和装置
CN107657947A (zh) * 2017-09-20 2018-02-02 百度在线网络技术(北京)有限公司 基于人工智能的语音处理方法及其装置
CN107871506A (zh) * 2017-11-15 2018-04-03 北京云知声信息技术有限公司 语音识别功能的唤醒方法及装置
CN109753665A (zh) * 2019-01-30 2019-05-14 北京声智科技有限公司 唤醒模型的更新方法及装置
CN110019752A (zh) * 2018-01-08 2019-07-16 苹果公司 多方向对话

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209882B1 (en) * 2002-05-10 2007-04-24 At&T Corp. System and method for triphone-based unit selection for visual speech synthesis
CN102376182A (zh) * 2010-08-26 2012-03-14 财团法人工业技术研究院 语言学习系统、语言学习方法及其程序产品
CN105723362A (zh) * 2013-10-28 2016-06-29 余自立 自然表达处理方法、处理及回应方法、设备及系统
CN106971743A (zh) * 2016-01-14 2017-07-21 广州酷狗计算机科技有限公司 用户演唱数据处理方法和装置
CN106653022A (zh) * 2016-12-29 2017-05-10 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法和装置
CN107657947A (zh) * 2017-09-20 2018-02-02 百度在线网络技术(北京)有限公司 基于人工智能的语音处理方法及其装置
CN107871506A (zh) * 2017-11-15 2018-04-03 北京云知声信息技术有限公司 语音识别功能的唤醒方法及装置
CN110019752A (zh) * 2018-01-08 2019-07-16 苹果公司 多方向对话
CN109753665A (zh) * 2019-01-30 2019-05-14 北京声智科技有限公司 唤醒模型的更新方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JOSEF CHALOUPKA ET AL.: "Phone Speech Detection and Recognition in the Task of Historical Radio Broadcast Transcription", 《IEEE》 *
郭慧阳: "基于深度学习的说话人识别技术研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956952A (zh) * 2019-12-12 2020-04-03 北京声智科技有限公司 一种样本生成方法、装置、服务器及存储介质
CN110956952B (zh) * 2019-12-12 2022-06-03 北京声智科技有限公司 一种样本生成方法、装置、服务器及存储介质
CN111276121A (zh) * 2020-01-23 2020-06-12 北京世纪好未来教育科技有限公司 语音对齐方法、装置、电子设备及存储介质
CN111276121B (zh) * 2020-01-23 2021-04-30 北京世纪好未来教育科技有限公司 语音对齐方法、装置、电子设备及存储介质
CN112331219A (zh) * 2020-11-05 2021-02-05 北京爱数智慧科技有限公司 语音处理方法和装置
CN112331219B (zh) * 2020-11-05 2024-05-03 北京晴数智慧科技有限公司 语音处理方法和装置
CN112133277A (zh) * 2020-11-20 2020-12-25 北京猿力未来科技有限公司 样本生成方法及装置
CN112133277B (zh) * 2020-11-20 2021-02-26 北京猿力未来科技有限公司 样本生成方法及装置

Also Published As

Publication number Publication date
CN110428811B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN110428811A (zh) 一种数据处理方法、装置及电子设备
CN107680597B (zh) 语音识别方法、装置、设备以及计算机可读存储介质
CN103903627B (zh) 一种语音数据的传输方法及装置
CN110148427A (zh) 音频处理方法、装置、系统、存储介质、终端及服务器
US20180301145A1 (en) System and Method for Using Prosody for Voice-Enabled Search
CN101346758B (zh) 感情识别装置
CN106710585B (zh) 语音交互过程中的多音字播报方法及系统
CN110751943A (zh) 一种语音情绪识别方法、装置以及相关设备
CN103165126A (zh) 一种手机文本短信的语音播放的方法
CN110444190A (zh) 语音处理方法、装置、终端设备及存储介质
CN110298463A (zh) 基于语音识别的会议室预定方法、装置、设备及存储介质
CN109102800A (zh) 一种确定歌词显示数据的方法和装置
JP6625772B2 (ja) 検索方法及びそれを用いた電子機器
CN109545194A (zh) 唤醒词预训练方法、装置、设备及存储介质
CN110390928A (zh) 一种自动拓增语料的语音合成模型训练方法和系统
EP1280137A1 (en) Method for speaker identification
US7133827B1 (en) Training speech recognition word models from word samples synthesized by Monte Carlo techniques
CN111508466A (zh) 一种文本处理方法、装置、设备及计算机可读存储介质
Thorin et al. Perception and production in interaction during non-native speech category learning
White Natural language understanding and speech recognition
CN106710591A (zh) 用于电力终端的语音客服系统
CN109300468A (zh) 一种语音标注方法及装置
CN112185341A (zh) 基于语音合成的配音方法、装置、设备和存储介质
JP2003271182A (ja) 音響モデル作成装置及び音響モデル作成方法
US11563708B1 (en) Message grouping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant