CN110619869B - 用于训练混合语言识别模型的方法和装置 - Google Patents

用于训练混合语言识别模型的方法和装置 Download PDF

Info

Publication number
CN110619869B
CN110619869B CN201911075089.7A CN201911075089A CN110619869B CN 110619869 B CN110619869 B CN 110619869B CN 201911075089 A CN201911075089 A CN 201911075089A CN 110619869 B CN110619869 B CN 110619869B
Authority
CN
China
Prior art keywords
sequence
syllable
syllable label
viterbi
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911075089.7A
Other languages
English (en)
Other versions
CN110619869A (zh
Inventor
袁胜龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Priority to CN201911075089.7A priority Critical patent/CN110619869B/zh
Publication of CN110619869A publication Critical patent/CN110619869A/zh
Application granted granted Critical
Publication of CN110619869B publication Critical patent/CN110619869B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/027Syllables being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开了用于训练混合语言识别模型的方法和装置。该方法的一具体实施方式包括:生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;利用第一语言识别模型得到第一连接时序分类维特比序列和第二连接时序分类维特比序列;基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定每种第一音节标签的连接时序分类维特比得分和每种第二音节标签的连接时序分类维特比得分;基于连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。该实施方式实现了同一个模型支持多种语言的识别。

Description

用于训练混合语言识别模型的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于训练混合语言识别模型的方法和装置。
背景技术
随着语音识别技术的发展,语音识别的性能已满足实用,比如手机上的各种输入法都带有语音交互功能。而在实际应用中,除了普通话场景的语音识别外,还存在方言场景的语音识别。目前已有许多支持方言语音识别的语音交互产品,比如手机输入法上语音识别可选项,用户可以根据需要选择对应的方言,再比如一些针对特定方言制定的智能电视、智能冰箱等。
相关技术中,通常采用普通话识别模型对普通话进行语音识别,采用相应的方言识别模型对方言进行语音识别,而在用户在切换语言时,需要来回选择相应的语音识别模型,操作繁琐。并且,随着支持的方言越来越多,需要训练的方言识别模型的数量的越来越多,导致模型训练工作量较高。
发明内容
本申请实施例提出了用于训练混合语言识别模型的方法和装置。
第一方面,本申请实施例提出了一种用于训练混合语言识别模型的方法,包括:生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分;基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在一些实施例中,生成第一语言音频的第一音节标签序列,包括:提取第一语言音频的梅尔频率倒谱系数特征;基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在一些实施例中,生成第二语言音频的第二音节标签序列,包括:将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列,其中,第二音节标签序列的标签数等于第一音节标签序列的标签数。
在一些实施例中,利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,包括:对第一音节标签和第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列;对第一去重音节标签序列和第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列;对第一有效音节标签序列和第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列;将第一语言音频和第一插空音节标签序列,以及第二语言音频和第二插空音节标签序列分别输入至第一语言识别模型,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列。
在一些实施例中,基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分,包括:对于第一有效音节标签序列中的每种第一有效音节标签,基于该第一有效音节标签在第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分;对于第二有效音节标签序列中的每种第二有效音节标签,基于该第二有效音节标签在第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
在一些实施例中,基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签,包括:将所述第二有效音节标签序列中差异大于预设阈值的第二有效音节标签确定为差异音节标签。
在一些实施例中,第一语言识别模型通过如下步骤训练得到:提取第一语言音频的滤波器组系数特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,第一语言识别模型的输出层的节点数等于第一音节标签序列的标签数。
在一些实施例中,基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,包括:基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数等于第一音节标签序列的标签数和差异音节标签的标签数之和。
在一些实施例中,训练第一语言识别模型或混合语言识别模型时采用基于连接时序分类的训练准则优化深层神经网络。
第二方面,本申请实施例提出了一种用于训练混合语言识别模型的装置,包括:生成单元,被配置成生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;处理单元,被配置成利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;第一确定单元,被配置成基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分;第二确定单元,被配置成基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;训练单元,被配置成基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在一些实施例中,生成单元进一步被配置成:提取第一语言音频的梅尔频率倒谱系数特征;基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在一些实施例中,生成单元进一步被配置成:将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列,其中,第二音节标签序列的标签数等于第一音节标签序列的标签数。
在一些实施例中,处理单元进一步被配置成:对第一音节标签和第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列;对第一去重音节标签序列和第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列;对第一有效音节标签序列和第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列;将第一语言音频和第一插空音节标签序列,以及第二语言音频和第二插空音节标签序列分别输入至第一语言识别模型,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列。
在一些实施例中,第一确定单元进一步被配置成:对于第一有效音节标签序列中的每种第一有效音节标签,基于该第一有效音节标签在第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分;对于第二有效音节标签序列中的每种第二有效音节标签,基于该第二有效音节标签在第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
在一些实施例中,第二确定单元进一步被配置成:将所述第二有效音节标签序列中差异大于预设阈值的第二有效音节标签确定为差异音节标签。
在一些实施例中,第一语言识别模型通过如下步骤训练得到:提取第一语言音频的滤波器组系数特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,第一语言识别模型的输出层的节点数等于第一音节标签序列的标签数。
在一些实施例中,训练单元进一步被配置成:基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数等于第一音节标签序列的标签数和差异音节标签的标签数之和。
在一些实施例中,训练第一语言识别模型或混合语言识别模型时采用基于连接时序分类的训练准则优化深层神经网络。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于训练混合语言识别模型的方法和装置,首先生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;之后利用基于第一音节标签序列预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列;而后基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分;然后基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;最后基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。基于连接时序分类维特比得分的差异从第二音节标签序列中确定差异音节标签,基于第一音节标签序列和差异音节标签训练混合语言识别模型,降低了模型训练工作量。此外,基于多种语言的音节标签训练混合语言识别模型,实现了同一个模型支持多种语言的识别。并且,无需用户在多个模型之间切换,简化了用户操作。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的用于训练混合语言识别模型的方法的一个实施例的流程图;
图3是混合语言识别模型的结构示意图;
图4是根据本申请的用于训练混合语言识别模型的方法的又一个实施例的流程图;
图5是利用第一语言识别模型做连接时序分类维特比的图例示意图;
图6是根据本申请的用于训练混合语言识别模型的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于训练混合语言识别模型的方法或用于训练混合语言识别模型的装置的实施例的示例性系统架构100。
如图1所示,系统架构100中可以包括终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送消息等。终端设备101上可以安装有各种通讯客户端应用,例如语音识别应用等。
终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是各种电子设备。包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以提供各种服务。例如服务器103可以对从终端设备101获取到的第一语言音频和第二语言音频等数据进行分析等处理,并生成处理结果(例如混合语言识别模型)。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于训练混合语言识别模型的方法一般由服务器103执行,相应地,用于训练混合语言识别模型的装置一般设置于服务器103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于训练混合语言识别模型的方法的一个实施例的流程200。该用于训练混合语言识别模型的方法包括以下步骤:
步骤201,生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列。
在本实施例中,用于训练混合语音识别模型的方法的执行主体(例如图1所示的服务器103)可以生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列。
通常,第一语言和第二语言可以是不同类别的语言,例如第一语言可以是普通话,第二语言可以是一种或多种方言。此外,第一语言音频和第二语言音频对应相同的文本。也就是说,第一语言音频与第二语言音频的内容相同。上述执行主体可以分别对第一语言音频和第二语音音频进行音节切分,生成第一音节标签序列和第二音节标签序列。其中,第一语言音频和第二语音音频可以是做帧级别对齐后以相同的音节切分方法进行切分的,这样,第一音节标签序列与第二音节标签序列包括的标签种类数相同。例如,若第一音节标签序列包括2000种标签,那么第二音节标签序列也包括2000种标签。
步骤202,利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列。
在本实施例中,上述执行主体可以利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列进行处理,得到第一连接时序分类维特比序列。例如,上述执行主体可以直接将第一语言音频和第一音节标签序列输入至第一语言识别模型,得到第一连接时序分类维特比序列。又例如,上述执行主体可以首先对第一音节标签序列进行处理,然后将第一语言音频和处理后的第一音节标签序列输入至第一语言识别模型。同理,上述执行主体还可以利用第一语言识别模型对第二语言音频和第二音节标签序列进行处理,得到第二连接时序分类维特比序列。其中,连接时序分类维特比也就是CTC(ConnectionistTemporal Classification,连接时序分类)Viterbi。
在本实施例中,第一语言识别模型可以是基于第一音节标签序列训练得到的,用于对第一语言进行识别。通常,上述执行主体可以首先提取第一语言音频的滤波器组系数(Filter Bank)特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型。其中,第一语言识别模型的输出层的节点数可以等于第一音节标签序列的标签种类数。例如,若第一音节标签序列包括2000种标签,那么第一语言识别模型的输出层可以包括2000个节点。用于训练第一语言识别模型的深层神经网络可以例如是基于CTC准则的LSTM(Long Short-Term Memory,长短期记忆)网络。
在本实施例的一些可选的实现方式中,训练第一语言识别模型时可以采用基于连接时序分类的训练准则优化深层神经网络。其中,基于连接时序分类的训练准则可以如下公式所示:
Figure BDA0002262183740000091
其中,ak为标签为k的网络的输出(未经激活函数),yk为某一时刻参考的标签k的得分,s为状态,x为输入的特征序列,z为t时刻CTC的路径,Σs∈label(z,k)α(s)β(s)为某一时刻CTC路径中属于标签k的得分(通过CTC的前向得分α(s)和后向得分β(s)的乘积得到),p(z|x)为某一时刻CTC所经过路径的总得分。
步骤203,基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分。
在本实施例中,上述执行主体可以基于第一连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分。具体地,对于第一音节标签序列中的每种第一音节标签,上述执行主体可以从第一连接时序分类维特比序列中查找该第一音节标签,并基于该第一音节标签在第一连接时序分类维特比序列中的位置,确定该第一音节标签的连接时序分类维特比得分。同理,上述执行主体还可以基于第二连接时序分类维特比序列,确定第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分。通常,音节标签的连接时序分类维特比得分与该音节标签在相应的连接时序分类维特比序列中的位置相关,位置不同,其连接时序分类维特比得分也不同。连接时序分类维特比得分的取值在0到1。
另外,对于同一音节标签在相应的连接时序分类维特比序列中出现多次的情况,上述执行主体可以首先基于该音节标签在相应的连接时序分类维特比序列中出现的多个位置,确定多个连接时序分类维特比得分;然后计算平均值,作为该音节标签的连接时序分类维特比得分。
步骤204,基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签。
在本实施例中,对于第二音节标签序列中的每种第二音节标签,上述执行主体可以基于该第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签。例如,上述执行主体可以按照差异从高到低的顺序对第二音节标签序列中的所有第二音节标签进行排序,并从差异高的一侧开始,选取预设数目(例如400)个第二音节标签,所选取出的第二音节标签即为差异音节标签。其中,差异的取值在0%到100%之间,其在一定程度上反映第二音节标签与对应的第一音节标签的相似度,差异越小,表示其与对应的第一音节标签越接近。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下公式计算第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异:
Figure BDA0002262183740000101
其中,Sdiff为连接时序分类维特比得分的差异,Sf为第二音节标签的连接时序分类维特比得分,Sp为对应的第一音节标签的连接时序分类维特比得分。
应当理解的是,差异音节标签是发音上与第一语言存在较大差异,其对应的文字内容与第一语言相同,因此,在确定出差异音节标签之后,上述执行主体通常会在解码字典中为对应的文字增加相应的多发音。
步骤205,基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在本实施例中,上述执行主体可以基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。其中,混合语言识别模型既可以对第一语言进行识别,又可以对第二语言进行识别。也就是说,混合语言识别模型实现了同一个模型支持多种语言的识别。
通常,上述执行主体可以基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数可以等于第一音节标签序列的标签种类数和差异音节标签的标签种类数之和。例如,若第一音节标签序列包括2000种标签,差异音节标签包括400种标签,那么混合语言识别模型的输出层可以包括2400个节点。其中,训练混合语言识别模型时也可以采用基于连接时序分类的训练准则优化深层神经网络。需要说明的是,训练混合语言识别模型的步骤与训练第一语言识别模型的步骤类似,这里不进行赘述。
为了便于理解,图3示出了混合语言识别模型的结构示意图。如图3所示,混合语言识别模型可以包括输入层、隐层和输出层。以对普通话、方言A和方言B三种类别的语言混合识别为例,普通话、方言A和方言B均有2000种音节标签。对于方言A,其2000种音节标签中存在400种与普通话差异较大的音节标签,因此方言A的这400种差异音节标签会作为独立的建模单元,其另外的1600种音节标签会与普通话共享建模单元。同理,对于方言B,其2000种音节标签中存在600种与普通话差异较大的音节标签,因此方言B的这600种差异音节标签会作为独立的建模单元,其另外的1400种音节标签会与普通话共享建模单元。由此,根据普通话的音节标签、方言A的差异音节标签和方言B的差异音节标签训练混合语言识别模型,其输出层会包括3000个节点。其中,普通话的2000种音节标签对应2000个节点。方言A的400种差异音节标签对应400个独立节点,其外的1600种音节标签与普通话共享节点。同理,方言B的600种差异音节标签对应600个独立节点,其外的1400种音节标签与普通话共享节点。
本申请实施例提供的用于训练混合语言识别模型的方法,首先生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;之后利用基于第一音节标签序列预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列;而后基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分;然后基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;最后基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。基于连接时序分类维特比得分的差异从第二音节标签序列中确定差异音节标签,基于第一音节标签序列和差异音节标签训练混合语言识别模型,降低了模型训练工作量。此外,基于多种语言的音节标签训练混合语言识别模型,实现了同一个模型支持多种语言的识别。并且,无需用户在多个模型之间切换,简化了用户操作。
进一步参考图4,其示出了根据本申请的用于训练混合语言识别模型的方法的又一个实施例的流程400。该用于训练混合语言识别模型的方法包括以下步骤:
步骤401,提取第一语言音频的梅尔频率倒谱系数特征。
在本实施例中,用于训练混合语言识别模型的方法的执行主体(例如图1所示的服务器103)可以提取第一语言音频的梅尔频率倒谱系数(Mel Frequency CepstralCoefficents,MFCC)特征。其中,第一语言可以例如是普通话。
步骤402,基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在本实施例中,上述执行主体可以基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型(Gaussian mixture model,GMM)进行训练,得到对齐高斯混合模型和第一音节标签序列。通常,基于梅尔频率倒谱系数特征和第一语言音频对应的文本可以训练出一个高斯混合模型,用于对音频做帧级别的对齐,因此被称为对齐高斯混合模型。并且,梅尔频率倒谱系数特征和第一语言音频对应的文本经过该对齐高斯混合模型可以得到第一音节标签序列。
步骤403,将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列。
在本实施例中,上述执行主体可以将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列。这里,利用对齐高斯混合模型对第二语言音频做对齐,可以确保第一语言音频和第二语言音频的音节标签严格一致。由此,利用对齐高斯混合模型得到的第二音节标签序列的标签种类数会等于第一音节标签序列的标签种类数。其中,第二语言与第一语言类别不同,例如第一语言是普通话,第二语言是一种或多种方言。
步骤404,对第一音节标签和第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列。
在本实施例中,上述执行主体可以对第一音节标签和第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列。例如,若音节标签序列为“0 0 0 0 CC C C C 0 0 A A A A A 0 B B B B 0 0 0 0”,经过去重处理得到的去重音节标签序列就可以为“0 C 0 A 0 B 0”,其中,“0”为静音帧。
步骤405,对第一去重音节标签序列和第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列。
在本实施例中,上述执行主体可以对第一去重音节标签序列和第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列。例如,若去重音节标签序列为“0 C 0 A 0 B 0”,去掉静音帧后,得到的有效音节标签序列就可以为“C A B”,其中,“0”为静音帧。
步骤406,对第一有效音节标签序列和第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列。
在本实施例中,上述执行主体可以对第一有效音节标签序列和第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列。通常,有效音节标签序列中的任意两个相邻的有效音节标签之间均会插入一个空格。此外,有效音节标签序列的首尾也会分别插入一个空格。例如,若有效音节标签序列为“C A B”,插入空格后,得到插空音节标签序列就可以为
Figure BDA0002262183740000131
其中,空格可以会用符号
Figure BDA0002262183740000144
表示。
步骤407,将第一语言音频和第一插空音节标签序列,以及第二语言音频和第二插空音节标签序列分别输入至第一语言识别模型,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列。
在本实施例中,上述执行主体可以将第一语言音频和第一插空音节标签序列,以及第二语言音频和第二插空音节标签序列分别输入至第一语言识别模型,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列。
为了便于理解,图5示出了利用第一语言识别模型做连接时序分类维特比的图例示意图。如图5所示,以插空音节标签序列
Figure BDA0002262183740000145
为例,在图例中,插空音节标签序列中的
Figure BDA0002262183740000146
可以用空心圆圈表示,插空音节标签序列中的有效音节标签可以用实心圆圈表示。这里,将N个插空音节标签序列
Figure BDA0002262183740000147
纵向排列,其中,T表示音频的帧数。利用第一语言识别模型做连接时序分类维特比的步骤如下:
首先,初始时刻(t=1)的状态为空格或有效音节标签,则:
Figure BDA0002262183740000141
其中,α1(1)表示在初始时刻(t=1)所有路径经过状态为1的总得分,α1(2)表示在初始时刻(t=1)所有路径经过状态为2的总得分,α1(s)表示在初始时刻(t=1)所有路径经过状态为s的总得分,
Figure BDA0002262183740000148
表示在初始时刻(t=1)网络(第一语言识别模型)输出为空格的得分,
Figure BDA0002262183740000149
表示在初始时刻(t=1)网络输出为有效标签的得分。
其次,迭代:
Figure BDA0002262183740000142
其中,
Figure BDA0002262183740000143
αt(s)表示在时刻t所有路径经过状态为s的总得分,通过迭代得到,其中,
Figure BDA00022621837400001410
表示在时刻t网络(第一语言识别模型)输为ls的得分,ls为空格或有效音节标签。
最后,从满足上述公式的路径中选取总得分最高的路径,得到连接时序分类维特比序列。
其中,满足上述公式的路径如图5箭头所示,有多条路径。而连接时序分类维特比序列是其中总得分最高的一条路径。假设T=20,得到的连接时序分类维特比序列为
Figure BDA0002262183740000151
步骤408,对于第一有效音节标签序列中的每种第一有效音节标签,基于该第一有效音节标签在第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分。
在本实施例中,对于第一有效音节标签序列中的每种第一有效音节标签,上述执行主体可以从第一连接时序分类维特比序列中查找该第一有效音节标签,并基于该第一有效音节标签在第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分。通常,音节标签的连接时序分类维特比得分与该音节标签在相应的连接时序分类维特比序列中的位置相关,位置不同,其连接时序分类维特比得分也不同。连接时序分类维特比得分的取值在0到1。
另外,对于同一有效音节标签在相应的连接时序分类维特比序列中出现多次的情况,上述执行主体可以首先基于该有效音节标签在相应的连接时序分类维特比序列中出现的多个位置,确定多个连接时序分类维特比得分;然后计算平均值,作为该有效音节标签的连接时序分类维特比得分。
步骤409,对于第二有效音节标签序列中的每种第二有效音节标签,基于该第二有效音节标签在第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
在本实施例中,对于第二有效音节标签序列中的每种第二有效音节标签,上述执行主体可以从第二连接时序分类维特比序列中查找该第二有效音节标签,并基于该第二有效音节标签在第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
步骤410,将所述第二有效音节标签序列中差异大于预设阈值的第二有效音节标签确定为差异音节标签。
在本实施例中,上述执行主体可以将第二有效音节标签序列中差异大于预设阈值(例如80%)的第二有效音节标签确定为差异音节标签。例如,上述执行主体可以按照连接时序分类维特比得分的差异从高到低的顺序对第二有效音节标签序列中的所有第二有效音节标签进行排序,并从第二连接时序分类维特比得分高的一侧开始,依次将第二连接时序分类维特比得分的差异与预设阈值进行比对,直至出现连接时序分类维特比得分的差异不大于预设阈值的第二有效音节标签时停止比对,并将之前已比对的第二有效音节标签确定为差异音节标签。其中,差异的取值在0%到100%之间,其在一定程度上反映第二音节标签与对应的第一音节标签的相似度,差异越小,表示其与对应的第一音节标签越接近。
步骤411,基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在本实施例中,步骤411的具体操作已在图2所示的实施例中步骤205中进行了详细的介绍,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于训练混合语言识别模型的方法的流程400突出了生成音节标签的步骤和生成连接时序分类维特比序列的步骤。由此,本实施例描述的方案利用第一语言数据训练出的对齐高斯混合模型对第二语言进行处理,可以确保第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列严格一致。此外,对音节标签序列去重、去静音帧、插入空格后,做连接时序分类维特比,使得所生成的连接时序分类维特比序列更能表达出每种有效音节标签的连接时序分类维特比得分。
进一步参考图6,作为对上述各图所示的方法的实现,本申请提供了一种用于训练混合语言识别模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于训练混合语言识别模型的装置600可以包括:生成单元601、处理单元602、第一确定单元603、第二确定单元604和训练单元605。其中,生成单元601,被配置成生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;处理单元602,被配置成利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;第一确定单元603,被配置成基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分;第二确定单元604,被配置成基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;训练单元605,被配置成基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在本实施例中,用于训练混合语言识别模型的装置600中:生成单元601、处理单元602、第一确定单元603、第二确定单元604和训练单元605的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,生成单元601进一步被配置成:提取第一语言音频的梅尔频率倒谱系数特征;基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在本实施例的一些可选的实现方式中,生成单元601进一步被配置成:将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列,其中,第二音节标签序列的标签数等于第一音节标签序列的标签数。
在本实施例的一些可选的实现方式中,处理单元602进一步被配置成:对第一音节标签和第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列;对第一去重音节标签序列和第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列;对第一有效音节标签序列和第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列;将第一语言音频和第一插空音节标签序列,以及第二语言音频和第二插空音节标签序列分别输入至第一语言识别模型,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列。
在本实施例的一些可选的实现方式中,第一确定单元603进一步被配置成:对于第一有效音节标签序列中的每种第一有效音节标签,基于该第一有效音节标签在第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分;对于第二有效音节标签序列中的每种第二有效音节标签,基于该第二有效音节标签在第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
在本实施例的一些可选的实现方式中,第二确定单元604进一步被配置成:将所述第二有效音节标签序列中差异大于预设阈值的第二有效音节标签确定为差异音节标签。
在本实施例的一些可选的实现方式中,第一语言识别模型通过如下步骤训练得到:提取第一语言音频的滤波器组系数特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,第一语言识别模型的输出层的节点数等于第一音节标签序列的标签数。
在本实施例的一些可选的实现方式中,训练单元605进一步被配置成:基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数等于第一音节标签序列的标签数和差异音节标签的标签数之和。
在本实施例的一些可选的实现方式中,训练第一语言识别模型或混合语言识别模型时采用基于连接时序分类的训练准则优化深层神经网络。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器103)的计算机系统700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或电子设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括生成单元、处理单元、第一确定单元、第二确定单元和训练单元。其中,这些单元的名称在种情况下并不构成对该单元本身的限定,例如,生成单元还可以被描述为“生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;利用预先训练的第一语言识别模型对第一语言音频和第一音节标签序列,以及第二语言音频和第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;基于第一连接时序分类维特比序列和第二连接时序分类维特比序列,确定第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分;基于第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从第二音节标签序列中确定差异音节标签;基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (20)

1.一种用于训练混合语言识别模型的方法,包括:
生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;
利用预先训练的第一语言识别模型对所述第一语言音频和所述第一音节标签序列,以及所述第二语言音频和所述第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,其中,所述第一语言识别模型是基于所述第一音节标签序列训练得到的;
基于所述第一连接时序分类维特比序列和所述第二连接时序分类维特比序列,确定所述第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和所述第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分,其中,音节标签的连接时序分类维特比得分与音节标签在相应的连接时序分类维特比序列中的位置相关;
基于所述第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从所述第二音节标签序列中确定差异音节标签;
基于所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
2.根据权利要求1所述的方法,其中,所述生成第一语言音频的第一音节标签序列,包括:
提取所述第一语言音频的梅尔频率倒谱系数特征;
基于所述梅尔频率倒谱系数特征和所述第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和所述第一音节标签序列。
3.根据权利要求2所述的方法,其中,所述生成第二语言音频的第二音节标签序列,包括:
将所述第二语言音频输入至所述对齐高斯混合模型,得到所述第二音节标签序列,其中,所述第二音节标签序列的标签数等于所述第一音节标签序列的标签数。
4.根据权利要求1所述的方法,其中,所述利用预先训练的第一语言识别模型对所述第一语言音频和所述第一音节标签序列,以及所述第二语言音频和所述第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,包括:
对所述第一音节标签和所述第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列;
对所述第一去重音节标签序列和所述第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列;
对所述第一有效音节标签序列和所述第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列;
将所述第一语言音频和所述第一插空音节标签序列,以及所述第二语言音频和所述第二插空音节标签序列分别输入至所述第一语言识别模型,得到所述第一连接时序分类维特比序列和所述第二连接时序分类维特比序列。
5.根据权利要求4所述的方法,其中,所述基于所述第一连接时序分类维特比序列和所述第二连接时序分类维特比序列,确定所述第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和所述第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分,包括:
对于所述第一有效音节标签序列中的每种第一有效音节标签,基于该第一有效音节标签在所述第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分;
对于所述第二有效音节标签序列中的每种第二有效音节标签,基于该第二有效音节标签在所述第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
6.根据权利要求4或5所述的方法,其中,所述基于所述第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从所述第二音节标签序列中确定差异音节标签,包括:
将所述第二有效音节标签序列中差异大于预设阈值的第二有效音节标签确定为差异音节标签。
7.根据权利要求1所述的方法,其中,所述第一语言识别模型通过如下步骤训练得到:
提取所述第一语言音频的滤波器组系数特征;
基于所述滤波器组系数特征和所述第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,所述第一语言识别模型的输出层的节点数等于所述第一音节标签序列的标签数。
8.根据权利要求7所述的方法,其中,所述基于所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,包括:
基于所述滤波器组系数特征、所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,所述混合语言识别模型的输出层的节点数等于所述第一音节标签序列的标签数和所述差异音节标签的标签数之和。
9.根据权利要求7或8所述的方法,其中,训练所述第一语言识别模型或所述混合语言识别模型时采用基于连接时序分类的训练准则优化所述深层神经网络。
10.一种用于训练混合语言识别模型的装置,包括:
生成单元,被配置成生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;
处理单元,被配置成利用预先训练的第一语言识别模型对所述第一语言音频和所述第一音节标签序列,以及所述第二语言音频和所述第二音节标签序列分别进行处理,得到第一连接时序分类维特比序列和第二连接时序分类维特比序列,其中,所述第一语言识别模型是基于所述第一音节标签序列训练得到的;
第一确定单元,被配置成基于所述第一连接时序分类维特比序列和所述第二连接时序分类维特比序列,确定所述第一音节标签序列中的每种第一音节标签的连接时序分类维特比得分和所述第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分,其中,音节标签的连接时序分类维特比得分与音节标签在相应的连接时序分类维特比序列中的位置相关;
第二确定单元,被配置成基于所述第二音节标签序列中的每种第二音节标签的连接时序分类维特比得分与对应的第一音节标签的连接时序分类维特比得分的差异,从所述第二音节标签序列中确定差异音节标签;
训练单元,被配置成基于所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
11.根据权利要求10所述的装置,其中,所述生成单元进一步被配置成:
提取所述第一语言音频的梅尔频率倒谱系数特征;
基于所述梅尔频率倒谱系数特征和所述第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和所述第一音节标签序列。
12.根据权利要求11所述的装置,其中,所述生成单元进一步被配置成:
将所述第二语言音频输入至所述对齐高斯混合模型,得到所述第二音节标签序列,其中,所述第二音节标签序列的标签数等于所述第一音节标签序列的标签数。
13.根据权利要求10所述的装置,其中,所述处理单元进一步被配置成:
对所述第一音节标签和所述第二音节标签序列去重,得到第一去重音节标签序列和第二去重音节标签序列;
对所述第一去重音节标签序列和所述第二去重音节标签序列去静音帧,得到第一有效音节标签序列和第二有效音节标签序列;
对所述第一有效音节标签序列和所述第二有效音节标签序列插入空格,得到第一插空音节标签序列和第二插空音节标签序列;
将所述第一语言音频和所述第一插空音节标签序列,以及所述第二语言音频和所述第二插空音节标签序列分别输入至所述第一语言识别模型,得到所述第一连接时序分类维特比序列和所述第二连接时序分类维特比序列。
14.根据权利要求13所述的装置,其中,所述第一确定单元进一步被配置成:
对于所述第一有效音节标签序列中的每种第一有效音节标签,基于该第一有效音节标签在所述第一连接时序分类维特比序列中的位置,确定该第一有效音节标签的连接时序分类维特比得分;
对于所述第二有效音节标签序列中的每种第二有效音节标签,基于该第二有效音节标签在所述第二连接时序分类维特比序列中的位置,确定该第二有效音节标签的连接时序分类维特比得分。
15.根据权利要求13或14所述的装置,其中,所述第二确定单元进一步被配置成:
将所述第二有效音节标签序列中差异大于预设阈值的第二有效音节标签确定为差异音节标签。
16.根据权利要求10所述的装置,其中,所述第一语言识别模型通过如下步骤训练得到:
提取所述第一语言音频的滤波器组系数特征;
基于所述滤波器组系数特征和所述第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,所述第一语言识别模型的输出层的节点数等于所述第一音节标签序列的标签数。
17.根据权利要求16所述的装置,其中,所述训练单元进一步被配置成:
基于所述滤波器组系数特征、所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,所述混合语言识别模型的输出层的节点数等于所述第一音节标签序列的标签数和所述差异音节标签的标签数之和。
18.根据权利要求16或17所述的装置,其中,训练所述第一语言识别模型或所述混合语言识别模型时采用基于连接时序分类的训练准则优化所述深层神经网络。
19.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
20.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-9中任一所述的方法。
CN201911075089.7A 2019-11-06 2019-11-06 用于训练混合语言识别模型的方法和装置 Active CN110619869B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911075089.7A CN110619869B (zh) 2019-11-06 2019-11-06 用于训练混合语言识别模型的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911075089.7A CN110619869B (zh) 2019-11-06 2019-11-06 用于训练混合语言识别模型的方法和装置

Publications (2)

Publication Number Publication Date
CN110619869A CN110619869A (zh) 2019-12-27
CN110619869B true CN110619869B (zh) 2021-12-24

Family

ID=68927328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911075089.7A Active CN110619869B (zh) 2019-11-06 2019-11-06 用于训练混合语言识别模型的方法和装置

Country Status (1)

Country Link
CN (1) CN110619869B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469552A (zh) * 2015-08-20 2017-03-01 三星电子株式会社 语音识别设备和方法
CN110033760A (zh) * 2019-04-15 2019-07-19 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
US10388272B1 (en) * 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469552A (zh) * 2015-08-20 2017-03-01 三星电子株式会社 语音识别设备和方法
US10388272B1 (en) * 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences
CN110033760A (zh) * 2019-04-15 2019-07-19 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
标签同步解码算法及其在语音识别中的应用;陈哲怀等;《计算机学报》;20190731;第42卷(第7期);全文 *

Also Published As

Publication number Publication date
CN110619869A (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
CN108989882B (zh) 用于输出视频中的音乐片段的方法和装置
CN107301170B (zh) 基于人工智能的切分语句的方法和装置
CN110046254B (zh) 用于生成模型的方法和装置
CN107590172B (zh) 一种大规模语音数据的核心内容挖掘方法及设备
CN110033760B (zh) 语音识别的建模方法、装置及设备
CN107437417B (zh) 基于循环神经网络语音识别中语音数据增强方法及装置
CN109241286B (zh) 用于生成文本的方法和装置
CN109582825B (zh) 用于生成信息的方法和装置
US11120802B2 (en) Diarization driven by the ASR based segmentation
CN108121699B (zh) 用于输出信息的方法和装置
CN109740167B (zh) 用于生成信息的方法和装置
CN112530408A (zh) 用于识别语音的方法、装置、电子设备和介质
KR20190136911A (ko) 텍스트 리허설 방법, 장치, 서버, 및 기억 매체
CN111428010A (zh) 人机智能问答的方法和装置
CN107862058B (zh) 用于生成信息的方法和装置
CN109190123B (zh) 用于输出信息的方法和装置
CN113434683A (zh) 文本分类方法、装置、介质及电子设备
CN110675865B (zh) 用于训练混合语言识别模型的方法和装置
CN111508478A (zh) 语音识别方法和装置
CN111078849A (zh) 用于输出信息的方法和装置
US10468031B2 (en) Diarization driven by meta-information identified in discussion content
CN113096687A (zh) 音视频处理方法、装置、计算机设备及存储介质
CN109902152B (zh) 用于检索信息的方法和装置
CN108664610B (zh) 用于处理数据的方法和装置
CN110619869B (zh) 用于训练混合语言识别模型的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant