CN113782029B - 语音识别模型的训练方法、装置、设备以及存储介质 - Google Patents
语音识别模型的训练方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN113782029B CN113782029B CN202111109000.1A CN202111109000A CN113782029B CN 113782029 B CN113782029 B CN 113782029B CN 202111109000 A CN202111109000 A CN 202111109000A CN 113782029 B CN113782029 B CN 113782029B
- Authority
- CN
- China
- Prior art keywords
- loss
- coding
- voice
- determining
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000001228 spectrum Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种语音识别模型的训练方法、装置、设备以及存储介质,属于计算机技术领域。该方法包括:将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据所述声学编码特征和样本语音特征的特征监督数据,确定编码损失;将所述声学编码特征输入至所述初始模型的解码网络,得到语音识别内容,并根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失;根据所述编码损失和所述识别损失,确定所述初始模型的总损失;根据所述总损失,对所述初始模型进行训练,得到目标语音识别模型。通过上述技术方案,实现利用训练数据的文本信息直接训练端到端的模型。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种语音识别模型的训练方法、装置、设备以及存储介质。
背景技术
语音识别是一种将输入的语音数据流转换为对应的文字内容的计算机技术,传统的语音识别系统通常包含声学模型、语言模型和词典。
声学模型将输入的语音转换成较小的建模单位(如音素),再通过词典组合成不同的词汇,最后通过语言模型输出句子。词典通过人工构造的方式产生,而声学模型和语言模型通常需要大量的数据分别进行模型训练。在传统的深度神经网络-隐马尔科夫模型(DNN-HMM)的混合模型中,声学模型的训练需要先通过另一个模型(通常是高斯混合模型-隐马尔科夫模型,GMM-HMM)将输入的语音进行对齐,得到每一帧对应的输出标签,在进行训练,比如常用的无需词图的最大交叉熵方法。但是,上述方法无法利用训练数据的文本信息进行语言模型的联合训练,需要与另一个独立训练的语言模型一起才能进行语音识别,因此,亟需改进。
发明内容
本发明提供一种语音识别模型的训练方法、装置、设备以及存储介质,以实现利用训练数据的文本信息直接训练端到端的模型,从而提高语音识别率。
第一方面,本发明实施例提供了一种语音识别模型的训练方法,该方法包括:
将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据所述声学编码特征和样本语音特征的特征监督数据,确定编码损失;
将所述声学编码特征输入至所述初始模型的解码网络,得到语音识别内容,并根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失;
根据所述编码损失和所述识别损失,确定所述初始模型的总损失;
根据所述总损失,对所述初始模型进行训练,得到目标语音识别模型。
第二方面,本发明实施例还提供了一种语音识别模型的训练装置,该装置包括:
编码损失确定模块,用于将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据所述声学编码特征和样本语音特征的特征监督数据,确定编码损失;
识别损失确定模块,用于将所述声学编码特征输入至所述初始模型的解码网络,得到语音识别内容,并根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失;
总损失确定模块,用于根据所述编码损失和所述识别损失,确定所述初始模型的总损失;
识别模型确定模块,用于根据所述总损失,对所述初始模型进行训练,得到目标语音识别模型。
第三方面,本发明实施例还提供了一种电子设备,该电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所提供的语音识别模型的训练方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如发明任一实施例所提供的语音识别模型的训练方法。
本发明实施例的技术方案,通过将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失,之后将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失,进而根据编码损失和识别损失,确定初始模型的总损失,最后根据总损失,对初始模型进行训练,得到目标语音识别模型。上述技术方案,实现了利用训练数据的文本信息进行端到端的模型的直接训练,从而提高了语音识别率。
附图说明
图1是本发明实施例一提供的一种语音识别模型的训练方法的流程图;
图2是本发明实施例二提供的一种语音识别模型的训练方法的流程图;
图3是本发明实施例三提供的一种语音识别模型的训练装置的结构示意图;
图4是本发明实施例四提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一提供的一种语音识别模型的训练方法的流程图,本实施例可适用于进行语音识别模型训练的情况,该方法可以由语音识别模型的训练装置来执行,该装置可以由软件和/或硬件的方式实现,并可集成于承载语音识别模型的训练功能的电子设备中,例如服务器设备中。
如图1所示,该方法具体可以包括:
S110、将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失。
其中,样本语音特征是指对语音样本数据进行信号处理得到的语音特征,示例性的,可以对语音样本数据进行梅尔倒谱分析处理,得到样本语音特征。具体的,对样本语音数据进行预加重、分帧和加窗处理,得到至少一个短时分析窗,针对每一个短时分析窗进行傅里叶变换得到对应的频谱,之后对频谱进行取绝对值或平方值运算,得到第一频谱,进而对第一频谱进行梅尔(Mel)滤波得到梅尔频谱,最后在梅尔频谱上进行倒谱分析,即对梅尔频谱进行对数运算后进行傅里叶反变换,将获取的梅尔系数作为样本语音特征。
需要说明的是,语音样本数据是通过对原始语音数据进行清洗和/或增强处理,得到语音样本数据。示例性的,可以对原始语音数据进行清洗,如过滤掉噪音等,得到语音样本数据。示例性的,还可以对原始语音数据进行增强处理,如谐波增强处理,得到语音样本数据。进一步的,还可以对原始语音数据进行清洗和增强处理,得到语音样本数据。
本实施例中,将样本语音特征输入至初始模型的编码网络,经过编码网络处理,得到声学编码特征。其中,编码网络是由至少一个卷积神经网络组成。进而根据声学编码特征和样本语音特征的特征监督数据,确定编码损失,具体的,可以根据声学编码特征和样本语音特征的特征监督数据,确定交叉熵损失,作为编码损失。其中,特征监督数据是指预先标注好的样本语音特征的特征标签数据。
S120、将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失。
其中,初始模型的解密网络由至少一个卷积神经网络组成。内容监督数据是指预先标注好的样本语音特征的内容标签数据。
本实施例中,将声学编码特征输入至初始模型的解码网络,经过解码网络处理,得到语音识别内容,进而根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失。
S130、根据编码损失和识别损失,确定初始模型的总损失。
本实施例中,可以对编码损失和识别损失进行取平均值处理,将得到的结果作为初始模型的总损失。
S140、根据总损失,对初始模型进行训练,得到目标语音识别模型。
本实施例中,根据总损失,对初始模型进行迭代训练,不断优化,直到迭代次数达到设定次数,或者总损失达到设定阈值,则停止迭代优化,将停止迭代训练时的模型作为目标语音识别模型。其中,设定次数和设定阈值可以由本领域技术人员根据实际情况设定。
本发明实施例的技术方案,通过将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失,之后将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失,进而根据编码损失和识别损失,确定初始模型的总损失,最后根据总损失,对初始模型进行训练,得到目标语音识别模型。上述技术方案,实现了利用训练数据的文本信息进行端到端的模型的直接训练,从而提高了语音识别率。
在上述技术方案的基础上,作为本发明实施例的一种可选实时方式,可以是获取目标语音数据,对目标语音数据进行梅尔倒谱分析处理,得到目标语音特征,进而将目标语音特征输入至目标语音识别模型中,得到目标语音内容;其中,目标语音识别模型是通过上述实施例的语音识别模型的训练方法训练得到的。
具体的,对获取到的目标语音数据进行梅尔倒谱分析处理,得到目标语音特征,进而将目标语音特征输入至目标语音识别模型中,经过目标语音识别模型处理,得到目标语音内容。
可以理解的是,通过目标语音识别模型对目标语音数据进行识别,可以提高语音的识别准确率。
实施例二
图2是本发明实施例二提供的一种语音识别模型的训练方法的流程图,在上述实施例的基础上,进一步优化,提供一种可选实施方案。
如图2所示,该方法具体可以包括:
S210、将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失。
本实施例中,将声学编码特征采用深度神经网络进行处理,得到对齐损失即(CTC损失),之后根据声学编码特征和样本语音特征的特征监督数据,确定互信息损失,进而根据对齐损失和互信息损失,确定编码损失。具体的,可以将对齐损失和互信息损失进行加权求和,将求和得到的结果作为编码损失。
S220、将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失。
本实施例中,基于注意力机制,根据述语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失。
S230、根据编码损失和识别损失,确定初始模型的总损失。
本实施例中,对编码损失和识别损失进行加权处理,得到初始模型的总损失。
S240、根据总损失,对初始模型进行训练,得到目标语音识别模型。
本实施例中,根据总损失,对初始模型进行迭代训练,不断优化,直到迭代次数达到设定次数,或者总损失达到设定阈值,则停止迭代优化,将停止迭代训练时的模型作为目标语音识别模型。其中,设定次数和设定阈值可以由本领域技术人员根据实际情况设定。
本发明实施例的技术方案,通过将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失,之后将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失,进而根据编码损失和识别损失,确定初始模型的总损失,最后根据总损失,对初始模型进行训练,得到目标语音识别模型。上述技术方案,实现了利用训练数据的文本信息进行端到端的模型的直接训练,从而提高了语音识别率。
实施例三
图3是本发明实施例三提供的一种语音识别模型的训练装置的结构示意图,实施例可适用于进行语音识别模型训练的情况,该装置可以由软件和/或硬件的方式实现,并可集成于承载语音识别模型的训练功能的电子设备中,例如服务器设备中。
如图3所示,该装置具体可以包括编码损失确定模块310、识别损失确定模块320、总损失确定模块330和识别模型确定模块340,其中,
编码损失确定模块310,用于将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失;
识别损失确定模块320,用于将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失;
总损失确定模块330,用于根据编码损失和识别损失,确定初始模型的总损失;
识别模型确定模块340,用于根据总损失,对初始模型进行训练,得到目标语音识别模型。
本发明实施例的技术方案,通过将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失,之后将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失,进而根据编码损失和识别损失,确定初始模型的总损失,最后根据总损失,对初始模型进行训练,得到目标语音识别模型。上述技术方案,实现了利用训练数据的文本信息进行端到端的模型的直接训练,从而提高了语音识别率。
进一步地,编码损失确定模块310具体用于:
将声学编码特征采用深度神经网络进行处理,得到对齐损失;
根据声学编码特征和样本语音特征的特征监督数据,确定互信息损失;
根据对齐损失和互信息损失,确定编码损失。
进一步地,识别损失确定模块320具体用于:
基于注意力机制,根据述语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失。
进一步地,总损失确定模块330具体用于:
对编码损失和识别损失进行加权处理,得到初始模型的总损失。
进一步地,该装置还包括语音特征确定模块,该语音特征确定模块具体用于:
对语音样本数据进行梅尔倒谱分析处理,得到样本语音特征。
进一步地,语音特征确定模块还包括语音样本确定单元,该语音样本确定单元用于:
对原始语音数据进行清洗和/或增强处理,得到语音样本数据。
进一步地,该装置还包括识别模块,该识别模块具体用于:
获取目标语音数据,对目标语音数据进行梅尔倒谱分析处理,得到目标语音特征;
将目标语音特征输入至目标语音识别模型中,得到目标语音内容;其中,目标语音识别模型是通过如权利要求1-6任一项的语音识别模型的训练方法训练得到的。
上述语音识别模型的训练装置可执行本发明任意实施例所提供的语音识别模型的训练方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4是本发明实施例四提供的一种电子设备的结构示意图,图4示出了适于用来实现本发明实施例实施方式的示例性设备的框图。图4显示的设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器(高速缓存32)。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明实施例各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明实施例所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音识别模型的训练方法。
实施例五
本发明实施例五还提供一种计算机可读存储介质,其上存储有计算机程序(或称为计算机可执行指令),该程序被处理器执行时用于执行本发明实施例所提供的语音识别模型的训练方法,该方法包括:
将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据声学编码特征和样本语音特征的特征监督数据,确定编码损失;
将声学编码特征输入至初始模型的解码网络,得到语音识别内容,并根据语音识别内容、样本语音特征的内容监督数据、以及声学编码特征,确定识别损失;
根据编码损失和识别损失,确定初始模型的总损失;
根据总损失,对初始模型进行训练,得到目标语音识别模型。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明实施例进行了较为详细的说明,但是本发明实施例不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (9)
1.一种语音识别模型的训练方法,其特征在于,包括:
将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据所述声学编码特征和样本语音特征的特征监督数据,确定编码损失;
将所述声学编码特征输入至所述初始模型的解码网络,得到语音识别内容,并根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失;
根据所述编码损失和所述识别损失,确定所述初始模型的总损失;
根据所述总损失,对所述初始模型进行训练,得到目标语音识别模型;
其中,所述根据所述声学编码特征和样本语音特征的特征监督数据,确定编码损失,包括:
将所述声学编码特征采用深度神经网络进行处理,得到对齐损失;
根据所述声学编码特征和样本语音特征的特征监督数据,确定互信息损失;
根据所述对齐损失和所述互信息损失,确定编码损失;
所述根据所述对齐损失和所述互信息损失,确定编码损失,包括:
将所述对齐损失和所述互信息损失进行加权求和,将求和得到的结果作为编码损失。
2.根据权利要求1所述的方法,其特征在于,所述根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失,包括:
基于注意力机制,根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失。
3.根据权利要求1所述的方法,其特征在于,所述根据所述编码损失和所述识别损失,确定所述初始模型的总损失,包括:
对所述编码损失和所述识别损失进行加权处理,得到所述初始模型的总损失。
4.根据权利要求1所述的方法,其特征在于,还包括:
对语音样本数据进行梅尔倒谱分析处理,得到样本语音特征。
5.根据权利要求4所述的方法,其特征在于,还包括:
对原始语音数据进行清洗和/或增强处理,得到语音样本数据。
6.一种语音识别方法,其特征在于,包括:
获取目标语音数据,对所述目标语音数据进行梅尔倒谱分析处理,得到目标语音特征;
将所述目标语音特征输入至目标语音识别模型中,得到目标语音内容;其中,所述目标语音识别模型是通过如权利要求1-5任一项所述的语音识别模型的训练方法训练得到的。
7.一种语音识别模型的训练装置,其特征在于,包括:
编码损失确定模块,用于将样本语音特征输入至初始模型的编码网络,得到声学编码特征,并根据所述声学编码特征和样本语音特征的特征监督数据,确定编码损失;
识别损失确定模块,用于将所述声学编码特征输入至所述初始模型的解码网络,得到语音识别内容,并根据所述语音识别内容、样本语音特征的内容监督数据、以及所述声学编码特征,确定识别损失;
总损失确定模块,用于根据所述编码损失和所述识别损失,确定所述初始模型的总损失;
识别模型确定模块,用于根据所述总损失,对所述初始模型进行训练,得到目标语音识别模型;
其中,所述编码损失确定模块具体用于:
将所述声学编码特征采用深度神经网络进行处理,得到对齐损失;
根据所述声学编码特征和样本语音特征的特征监督数据,确定互信息损失;
将所述对齐损失和所述互信息损失进行加权求和,将求和得到的结果作为编码损失。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一项所述的语音识别模型的训练方法或者如权利要求6中所述的语音识别方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的语音识别模型的训练方法或者如权利要求6中所述的语音识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111109000.1A CN113782029B (zh) | 2021-09-22 | 2021-09-22 | 语音识别模型的训练方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111109000.1A CN113782029B (zh) | 2021-09-22 | 2021-09-22 | 语音识别模型的训练方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113782029A CN113782029A (zh) | 2021-12-10 |
CN113782029B true CN113782029B (zh) | 2023-10-27 |
Family
ID=78852585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111109000.1A Active CN113782029B (zh) | 2021-09-22 | 2021-09-22 | 语音识别模型的训练方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113782029B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079646B (zh) * | 2023-10-13 | 2024-01-09 | 之江实验室 | 一种语音识别模型的训练方法、装置、设备及存储介质 |
CN117116253B (zh) * | 2023-10-23 | 2024-01-12 | 摩尔线程智能科技(北京)有限责任公司 | 初始模型的训练方法、装置、语音识别方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110992942A (zh) * | 2019-11-29 | 2020-04-10 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和用于语音识别的装置 |
CN111128137A (zh) * | 2019-12-30 | 2020-05-08 | 广州市百果园信息技术有限公司 | 一种声学模型的训练方法、装置、计算机设备和存储介质 |
CN111462735A (zh) * | 2020-04-10 | 2020-07-28 | 网易(杭州)网络有限公司 | 语音检测方法、装置、电子设备及存储介质 |
CN111639684A (zh) * | 2020-05-15 | 2020-09-08 | 北京三快在线科技有限公司 | 一种数据处理模型的训练方法及装置 |
CN111859010A (zh) * | 2020-07-10 | 2020-10-30 | 浙江树人学院(浙江树人大学) | 一种基于深度互信息最大化的半监督音频事件识别方法 |
CN111916067A (zh) * | 2020-07-27 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 语音识别模型的训练方法、装置、电子设备及存储介质 |
CN112037798A (zh) * | 2020-09-18 | 2020-12-04 | 中科极限元(杭州)智能科技股份有限公司 | 基于触发式非自回归模型的语音识别方法及系统 |
CN112509564A (zh) * | 2020-10-15 | 2021-03-16 | 江苏南大电子信息技术股份有限公司 | 基于连接时序分类和自注意力机制的端到端语音识别方法 |
CN113139591A (zh) * | 2021-04-14 | 2021-07-20 | 广州大学 | 一种基于增强多模态对齐的广义零样本图像分类方法 |
-
2021
- 2021-09-22 CN CN202111109000.1A patent/CN113782029B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110992942A (zh) * | 2019-11-29 | 2020-04-10 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和用于语音识别的装置 |
CN111128137A (zh) * | 2019-12-30 | 2020-05-08 | 广州市百果园信息技术有限公司 | 一种声学模型的训练方法、装置、计算机设备和存储介质 |
CN111462735A (zh) * | 2020-04-10 | 2020-07-28 | 网易(杭州)网络有限公司 | 语音检测方法、装置、电子设备及存储介质 |
CN111639684A (zh) * | 2020-05-15 | 2020-09-08 | 北京三快在线科技有限公司 | 一种数据处理模型的训练方法及装置 |
CN111859010A (zh) * | 2020-07-10 | 2020-10-30 | 浙江树人学院(浙江树人大学) | 一种基于深度互信息最大化的半监督音频事件识别方法 |
CN111916067A (zh) * | 2020-07-27 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 语音识别模型的训练方法、装置、电子设备及存储介质 |
CN112037798A (zh) * | 2020-09-18 | 2020-12-04 | 中科极限元(杭州)智能科技股份有限公司 | 基于触发式非自回归模型的语音识别方法及系统 |
CN112509564A (zh) * | 2020-10-15 | 2021-03-16 | 江苏南大电子信息技术股份有限公司 | 基于连接时序分类和自注意力机制的端到端语音识别方法 |
CN113139591A (zh) * | 2021-04-14 | 2021-07-20 | 广州大学 | 一种基于增强多模态对齐的广义零样本图像分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113782029A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10522136B2 (en) | Method and device for training acoustic model, computer device and storage medium | |
US10515627B2 (en) | Method and apparatus of building acoustic feature extracting model, and acoustic feature extracting method and apparatus | |
US10614803B2 (en) | Wake-on-voice method, terminal and storage medium | |
US10825470B2 (en) | Method and apparatus for detecting starting point and finishing point of speech, computer device and storage medium | |
CN113782029B (zh) | 语音识别模型的训练方法、装置、设备以及存储介质 | |
CN109599095B (zh) | 一种语音数据的标注方法、装置、设备和计算机存储介质 | |
CN111402861B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN109785846B (zh) | 单声道的语音数据的角色识别方法及装置 | |
CN108564944B (zh) | 智能控制方法、系统、设备及存储介质 | |
CN113053390B (zh) | 基于语音识别的文本处理方法、装置、电子设备及介质 | |
CN112216284B (zh) | 训练数据更新方法及系统、语音识别方法及系统、设备 | |
CN110782902A (zh) | 音频数据确定方法、装置、设备和介质 | |
CN111400463B (zh) | 对话响应方法、装置、设备和介质 | |
CN110890097A (zh) | 语音处理方法及装置、计算机存储介质、电子设备 | |
CN111161724B (zh) | 中文视听结合语音识别方法、系统、设备及介质 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN112711943B (zh) | 一种维吾尔文语种识别方法、装置及存储介质 | |
Yue | English spoken stress recognition based on natural language processing and endpoint detection algorithm | |
CN110910905B (zh) | 静音点检测方法及装置、存储介质、电子设备 | |
CN116580698A (zh) | 基于人工智能的语音合成方法、装置、计算机设备及介质 | |
CN116580713A (zh) | 一种车载语音识别方法、装置、设备和存储介质 | |
CN111883133B (zh) | 客服语音识别方法、装置、服务器及存储介质 | |
CN109036379B (zh) | 语音识别方法、设备及存储介质 | |
CN115294974A (zh) | 一种语音识别方法、装置、设备和存储介质 | |
JP7028203B2 (ja) | 音声認識装置、音声認識方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |