CN114420107A - 基于非自回归模型的语音识别方法及相关设备 - Google Patents

基于非自回归模型的语音识别方法及相关设备 Download PDF

Info

Publication number
CN114420107A
CN114420107A CN202210036528.9A CN202210036528A CN114420107A CN 114420107 A CN114420107 A CN 114420107A CN 202210036528 A CN202210036528 A CN 202210036528A CN 114420107 A CN114420107 A CN 114420107A
Authority
CN
China
Prior art keywords
layer
decoder
output
encoder
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210036528.9A
Other languages
English (en)
Inventor
张之勇
王健宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210036528.9A priority Critical patent/CN114420107A/zh
Publication of CN114420107A publication Critical patent/CN114420107A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例属于人工智能领域,涉及一种语音识别方法,包括:将待识别的语音信号输入到编码器中得到语音信号的编码比特流,采用CTC损失函数为目标函数进行训练,将训练后的编码比特流作为编码器的输出;将编码器的输出输入到第一层解码器,除第一层解码器外的第K层解码器以第K‑1层解码器的输出作为输入,每一层解码器均采用CTC损失函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出;基于解码器的整体输出,采用交叉熵损失函数进行训练,得到语音识别结果。本申请还提供一种语音识别装置、计算机设备及存储介质。本申请能够改善语音识别的运行结果。

Description

基于非自回归模型的语音识别方法及相关设备
技术领域
本申请涉及人工智能技术领域,尤其涉及基于非自回归模型的语音识别方法及相关设备。
背景技术
语音识别是语音信号处理中一个重要的方向。目前大多数现有的语音识别模型是基于自回归(autoregressive)模型的,如神经机器翻译(neural machine translation,NMT),自动基于非自回归模型的语音识别(automatic speech recognition,ASR)等。在自回归模型中,所有的单元都是按顺序生成的,每个单元都以所有以前的单元为条件,这导致算法的时间复杂度与单元数相关,从而在面对长数据时,基于自回归模型的方法运算效率会显著降低。
另一方面,基于非自回归(non-autoregressive)模型的方法可以解决这一问题,其中非自回归方法可以独立地同时对所有的输出单元进行解码,从而显著提高计算效率。但是,非自回归模型的方法相较于对应的自回归模型的方法来说,运行结果相对较差。
发明内容
本申请实施例的目的在于提出一种基于非自回归模型的语音识别方法、装置、计算机设备及存储介质,以解决现有技术中非自回归模型运行结果相对较差的问题。
为了解决上述技术问题,本申请实施例提供一种基于非自回归模型的语音识别方法,应用在基于非自回归模型具有编码器和解码器的系统中,所述解码器具有K层,其中K为正整数,所述方法包括下述步骤:
将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,所述编码器采用连接时序分类CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出;
将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出;
基于解码器的整体输出,采用交叉熵损失函数进行训练,得到语音识别结果。
进一步的,所述编码器包括多头注意力层和前馈神经网络,所述多头注意力层和前馈神经网络采用残差连接,并且施加层归一化;所述将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,采用CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出的步骤具体包括:将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,通过所述多头注意力层进行计算,通过所述前馈神经网络进行前向反馈,并采用所述CTC损失函数为目标函数进行训练,直至训练损失值小于第一目标损失阈值时,将训练后的所述编码比特流作为编码器的输出。
进一步的,将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入的步骤,具体包括:将所述训练后的编码比特流输入到第一层解码器,所述解码器进行解码生成语音数据,所述第一层解码器基于所述语音数据进行训练,并将训练后的语音数据作为第一层编码器的输出;除所述第一层解码器外的第K层解码器以第K-1层解码器输出的语音数据作为输入。
进一步的,所述每一层解码器包括遮蔽多头注意力层、多头注意力层和前馈神经网络,遮蔽多头注意力层、多头注意力层和前馈神经网络采用残差连接,并且施加层归一化;所述每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出的步骤具体包括:每一层解码器通过遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽,基于遮蔽后的语音数据,通过所述多头注意力层进行计算,所述前馈神经网络进行前向反馈,并采用CTC损失函数为目标函数进行训练,当每一层解码器的训练损失值小于第二目标损失阈值时,使用Softmax函数作为每一层解码器输出的激活函数,并经过相关性的归一化处理后得到每一层解码器的输出。
进一步的,所述每一层解码器通过遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽的步骤具体包括:每一层解码器的遮蔽多头注意力层去除输入的语音数据中连续重复的字符,并删除CTC损失函数在对所述语音数据进行训练时引入的空格标签。
进一步的,所述每一层解码器均采用CTC损失函数为目标函数进行训练的步骤中,第k层编码器采用的CTC损失函数为:
Figure BDA0003465914570000031
其中,E为期望计算,k为当前层数,ak为第k层的输出标签值,x为输入的语音数据,pref(ak|ak-1,x)表示输入的x在ak-1条件下ak的输出概率,以及
Figure BDA0003465914570000032
为所有可得到结果为y的潜在单调排列,y为第k层的正确标签值。
进一步的,所述基于解码器的整体输出,采用交叉熵损失函数进行训练,得到语音识别结果的步骤具体包括:采用所述交叉熵损失函数计算所述解码器的整体输出中潜在单调排列标签的交叉熵损失值,直至交叉熵损失值小于第三目标损失阈值时,得到语音识别结果。
为了解决上述技术问题,本申请实施例还提供一种基于非自回归模型的语音识别装置,应用在具有编码器和解码器的系统中,所述解码器具有K层,其中K为正整数,所述装置包括:
第一输出模块,用于将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,以使所述编码器采用连接时序分类CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出;
第二输出模块,用于将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出;及
语音识别模块,用于基于解码器的整体输出,采用交叉熵损失函数进行训练,得到语音识别结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如前所述的基于非自回归模型的语音识别方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如前所述的基于非自回归模型的语音识别方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
通过CTC损失函数为目标函数对编码器进行训练,将编码器的输出输入到第一层解码器,除第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,而且采用CTC损失函数对每一层解码器中的语音数据进行潜在单调排列的训练,多次进行CTC损失函数的计算,而不是仅仅用多层解码器的最终结果进行损失值的训练作为输出,相较于现有的非自回归模型,能够改善语音识别的运行结果,尤其是在面对长数据的语音识别场景时。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的基于非自回归模型的语音识别方法的一个实施例的流程图;
图3是根据本申请具有编码器和解码器的系统的一个实施例的结构示意图;
图4是根据本申请的基于非自回归模型的语音识别装置的一个实施例的结构示意图;
图5是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于非自回归模型的语音识别方法一般由服务器执行,相应地,基于非自回归模型的语音识别装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于非自回归模型的语音识别方法的一个实施例的流程图。请同时参考图3,所述的基于非自回归模型的语音识别方法,应用在具有编码器和解码器的系统中,所述解码器具有K层,其中K为正整数。
本申请的所述基于非自回归模型的语音识别方法,包括以下步骤:
步骤S201,将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,采用连接时序分类(Connectionist temporal classification,CTC)损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出。
在本实施例中,所述编码器包括多头注意力层(Multi-Head Attention)和前馈神经网络(Feedforward Neural Network),多头注意力层和前馈神经网络采用残差连接(Residual connection),并且施加层归一化(Layer-normalization)。
将待识别语音信号输入到编码器中得到所述语音信号的编码比特流,所述多头注意力层进行计算,所述前馈神经网络进行前向反馈,采用CTC损失函数为目标函数进行训练,将训练后的所述编码比特流编码器的输出。
其中,多头注意力是从输入信息中提取到多组不同信息进行拼接,因此在待识别语音信号输入到编码器得到所述语音信号的编码比特流后,多头注意力层从编码比特流中获取对应的查询矩阵Q、键矩阵K、值矩阵V,将获取的查询矩阵Q、键矩阵K、值矩阵V映射到多个不同的子注意力模型中,分别计算在各个子注意力模型中的注意力分布和加权平均,并将各个子注意力模型的输出进行字符串拼接和线性化处理作为多头注意力层的输出;然后经过前馈神经网络进行前向反馈;采用CTC损失函数为目标函数进行训练,在训练过程中,将训练损失值与第一目标损失阈值进行对比,根据兩者的差值对训练参数进行调整,直至训练损失值小于第一目标损失阈值时,将训练后的编码比特流作为编码器的输出。
此外,较深的神经网络有利于语音数据的训练,但同时也会造成数据的损失,因此多头注意力层和前馈神经网络采用残差连接,使得输入层和输出层之间直接连接,克服前馈神经网络的网络层的数量过多而造成的梯度消失的问题,尤其对于较为深层的神经网络有比较好的作用。层归一化能够防止在某些层中由于某些位置过大或者过小导致数值过大或过小而对神经网络梯度回传时有训练的问题,保证训练的稳定性。因此,通过残差连接和层归一化,能够使深层的神经网络训练更加顺利。
步骤S202,将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出。
在本实施例中,解码器具有K层,其中K为正整数,即如图3所示,解码器包括第一层解码器301、第二层解码器302、……到最后第K层解码器30k。
将所述训练后的编码比特流输入到第一层解码器,所述解码器进行解码生成语音数据,所述第一层解码器基于所述语音数据进行训练,并将训练后的语音数据作为第一层编码器的输出;除所述第一层解码器外的第K层解码器以第K-1层解码器输出的语音数据作为输入。
每一层解码器包括遮蔽多头注意力层、多头注意力层和前馈神经网络,遮蔽多头注意力层、多头注意力层和前馈神经网络采用残差连接,并且施加层归一化。
其中,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出的步骤具体包括:每一层解码器的遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽,所述多头注意力层对遮蔽后的语音数据进行计算,所述前馈神经网络对计算后的语音数据进行前向反馈,采用CTC损失函数为目标函数对前向反馈后的语音数据进行训练,并经过归一化指数函数进行相关性的归一化处理得到每一层解码器的输出。
CTC是序列标注问题中的一种损失函数,其扩展了标签集合,添加空元素,在使用扩展标签集合对序列进行标注后,所有可以通过映射函数转换为真实序列的预测序列,都是正确的预测结果,也就是在无需数据对齐处理,即可得到预测序列,其目标函数就是最大化所有正确的预测序列的概率和。虽然CTC相较于传统的语音识别模型在训练过程中无需输入与输出标签的对齐问题,但由于采用CTC损失函数为目标函数对输入的语音数据进行训练,CTC会引入了“_”(BLANK)标签来表示数列排列中的空白,以及保留连续的相同字符,因此每一层解码器需要先通过每一层解码器的遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽,具体地,每一层解码器的遮蔽多头注意力层去除语音数据中连续重复的字符,并删除CTC损失函数在对语音数据进行训练时引入的空格标签。
与编码器中的多头注意力层计算类似,解码器中的多头注意力层对经过遮蔽多头注意力层遮蔽后的语音数据进行计算,具体地,获取多头注意力层获取语音数据对应的查询矩阵Q、键矩阵K、值矩阵V,将获取的查询矩阵Q、键矩阵K、值矩阵V映射到多个不同的子注意力模型中,分别计算语音数据在各个子注意力模型中的注意力分布和加权平均,并将各个子注意力模型的输出进行字符串拼接和线性化处理作为多头注意力层的输出。
前馈神经网络对计算后的语音数据进行前向反馈,并采用CTC损失函数为目标函数进行训练;使用Softmax函数作为每一层解码器输出的激活函数,将训练后的语音数据经过归一化处理后作为下一层解码器的输入。
在本实施例中值得关注的是,每一层解码器均采用CTC损失函数为目标函数进行训练,其中,第k层编码器采用下列公式的CTC损失函数为:
Figure BDA0003465914570000091
其中,E为期望计算,k为当前层数,ak为第k层的输出标签值,x为输入的语音数据,pref(ak|ak-1,x)表示输入的x在ak-1条件下ak的输出概率,以及
Figure BDA0003465914570000092
为所有可得到结果为y的潜在单调排列,y为第k层的正确标签值。
每一层解码器将训练损失值与第二目标损失阈值进行对比,根据兩者的差值对训练参数进行调整,直至训练损失值小于第二目标损失阈值时,将训练后的语音数据作为每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出。
步骤S203,基于解码器的整体输出,采用交叉熵损失函数(CrossEntropy Loss)进行训练,得到语音识别结果。
在本实施例中,解码器的整体输出再采用交叉熵损失函数为目标函数进行训练,通过交叉熵损失函数计算解码器输出的潜在单调排列标签的交叉熵损失值,直至交叉熵损失值小于第三目标损失阈值时,得到语音识别结果。
在本申请中,通过CTC损失函数为目标函数对编码器中语音数据进行训练,将编码器的输出输入到第一层解码器,除第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,而且采用CTC损失函数对每一层解码器中的语音数据进行潜在单调排列的训练,多次进行CTC损失函数的计算,而不是仅仅用多层解码器的最终结果损失值的训练作为输出,相较于现有的非自回归模型,能够改善语音识别的运行结果,尤其是在面对长数据的语音识别场景时。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种基于非自回归模型的语音识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的基于非自回归模型的语音识别装置400,应用在具有编码器和解码器的系统中,所述解码器具有K层,其中K为正整数,所述装置包括第一输出模块401、第二输出模块402和语音识别模块403,所述解码器具有K层,其中K为正整数。其中:
第一输出模块401,用于将待识别语音信号输入到编码器中得到所述语音信号的编码比特流,以使所述编码器采用CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出;
第二输出模块402,将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出;
语音识别模块403,用于基于解码器的整体输出,采用交叉熵损失函数进行训练,得到语音识别结果。
在本实施例中,所述编码器包括多头注意力层和前馈神经网络,多头注意力层和前馈神经网络采用残差连接,并且施加层归一化。第一输出模块401具体包括编码子模块、第一计算子模块和第一训练子模块,其中,
编码子模块,用于将输入的语音信号进行编码得到所述语音信号的编码比特流;
所述第一计算子模块,用于通过多头注意力层对所述编码比特流进行计算;
所述第一训练子模块,用于通过前馈神经网络对计算后的编码比特流进行前向反馈,采用CTC损失函数为目标函数进行训练,直至训练损失值小于第一目标损失阈值时,将训练后的编码比特流作为编码器的输出。
在本实施例中,所述每一层解码器包括遮蔽多头注意力层、多头注意力层和前馈神经网络,遮蔽多头注意力层、多头注意力层和前馈神经网络采用残差连接,并且施加层归一化;所述第二输出模块包括遮蔽子模块、第二计算子模块和第二训练子模块,其中,
所述遮蔽子模块,用于通过每一层解码器的遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽;
所述第二计算子模块,用于通过多头注意力层对遮蔽后的语音数据进行计算;
所述第二训练子模块,用于通过前馈神经网络进行前向反馈,采用CTC损失函数为目标函数进行训练,当每一层解码器的训练损失值小于第二目标损失阈值时,使用Softmax函数作为每一层解码器输出的激活函数,并经过相关性的归一化处理后得到每一层解码器的输出。
在本实施例中,所述语音识别模块,具体用于采用所述交叉熵损失函数计算所述解码器的整体输出中潜在单调排列标签的交叉熵损失值,直至交叉熵损失值小于第三目标损失阈值时,得到语音识别结果。
在本申请中,通过CTC损失函数为目标函数进行训练,将编码器的输出输入到第一层解码器,除第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,而且采用CTC损失函数对每一层解码器中的语音数据进行潜在单调排列的训练,多次进行CTC损失函数的计算,而不是仅仅用多层解码器的最终结果损失值的训练作为输出,相较于现有的非自回归模型,在面对长数据的语音识别时可以获得较好的运行结果场景时。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图5,图5为本实施例计算机设备基本结构框图。
所述计算机设备5包括通过系统总线相互通信连接存储器51、处理器52、网络接口53。需要指出的是,图中仅示出了具有组件51-53的计算机设备5,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器51至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器51可以是所述计算机设备5的内部存储单元,例如该计算机设备5的硬盘或内存。在另一些实施例中,所述存储器51也可以是所述计算机设备5的外部存储设备,例如该计算机设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器51还可以既包括所述计算机设备5的内部存储单元也包括其外部存储设备。本实施例中,所述存储器51通常用于存储安装于所述计算机设备5的操作系统和各类应用软件,例如基于非自回归模型的语音识别方法的计算机可读指令等。此外,所述存储器51还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器52在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器52通常用于控制所述计算机设备5的总体操作。本实施例中,所述处理器52用于运行所述存储器51中存储的计算机可读指令或者处理数据,例如运行所述基于非自回归模型的语音识别方法的计算机可读指令。
所述网络接口53可包括无线网络接口或有线网络接口,该网络接口53通常用于在所述计算机设备5与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于非自回归模型的语音识别方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种基于非自回归模型的语音识别方法,其特征在于,应用在基于非自回归模型具有编码器和解码器的系统中,所述解码器具有K层,其中K为正整数,所述方法包括下述步骤:
将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,所述编码器采用连接时序分类CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出;
将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出;
基于解码器的整体输出,采用交叉熵损失函数进行训练,得到语音识别结果。
2.根据权利要求1所述的基于非自回归模型的语音识别方法,其特征在于,所述编码器包括多头注意力层和前馈神经网络,所述多头注意力层和前馈神经网络采用残差连接,并且施加层归一化;
所述将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,采用CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出的步骤具体包括:
将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,通过所述多头注意力层进行计算,通过所述前馈神经网络进行前向反馈,并采用所述CTC损失函数为目标函数进行训练,直至训练损失值小于第一目标损失阈值时,将训练后的所述编码比特流作为编码器的输出。
3.根据权利要求2所述的基于非自回归模型的语音识别方法,其特征在于,将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入的步骤,具体包括:
将所述训练后的编码比特流输入到第一层解码器,所述解码器进行解码生成语音数据,所述第一层解码器基于所述语音数据进行训练,并将训练后的语音数据作为第一层编码器的输出;
除所述第一层解码器外的第K层解码器以第K-1层解码器输出的语音数据作为输入。
4.根据权利要求3所述的基于非自回归模型的语音识别方法,其特征在于,所述每一层解码器包括遮蔽多头注意力层、多头注意力层和前馈神经网络,遮蔽多头注意力层、多头注意力层和前馈神经网络采用残差连接,并且施加层归一化;所述每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出的步骤具体包括:
每一层解码器通过遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽,基于遮蔽后的语音数据,通过所述多头注意力层进行计算,通过所述前馈神经网络进行前向反馈,并采用CTC损失函数为目标函数进行训练,当每一层解码器的训练损失值小于第二目标损失阈值时,使用Softmax函数作为每一层解码器输出的激活函数,并经过相关性的归一化处理后得到每一层解码器的输出。
5.根据权利要求4所述的基于非自回归模型的语音识别方法,其特征在于,所述每一层解码器的遮蔽多头注意力层对输入的语音数据中的无用信息进行遮蔽的步骤具体包括:
每一层解码器通过遮蔽多头注意力层去除语音数据中连续重复的字符,并删除CTC损失函数在对所述语音数据进行训练时引入的空格标签。
6.根据权利要求5所述的基于非自回归模型的语音识别方法,其特征在于,所述每一层解码器均采用CTC损失函数为目标函数进行训练的步骤中,第k层编码器采用的CTC损失函数为:
Figure FDA0003465914560000021
其中,E为期望计算,k为当前层数,ak为第k层的输出标签值,x为输入的语音数据,pref(ak|ak-1,x)表示输入的x在ak-1条件下ak的输出概率,以及
Figure FDA0003465914560000031
为所有可得到结果为y的潜在单调排列,y为第k层的正确标签值。
7.根据权利要求6所述的基于非自回归模型的语音识别方法,其特征在于,基于解码器的整体输出,所述采用交叉熵损失函数进行训练,得到语音识别结果的步骤具体包括:
采用所述交叉熵损失函数计算所述解码器的整体输出中潜在单调排列标签的交叉熵损失值,直至交叉熵损失值小于第三目标损失阈值时,得到语音识别结果。
8.一种基于非自回归模型的语音识别装置,其特征在于,应用在基于非自回归模型具有编码器和解码器的系统中,所述解码器具有K层,其中K为正整数,所述装置包括:
第一输出模块,用于将待识别的语音信号输入到编码器中得到所述语音信号的编码比特流,以使所述编码器采用连接时序分类CTC损失函数为目标函数进行训练,将训练后的所述编码比特流作为编码器的输出;
第二输出模块,用于将所述编码器的输出输入到第一层解码器,除所述第一层解码器外的第K层解码器以第K-1层解码器的输出作为输入,每一层解码器均采用CTC损失函数为目标函数进行训练,并经过归一化指数函数处理得到每一层解码器的输出,最后一层解码器的输出作为解码器的整体输出;及
语音识别模块,用于基于解码器的整体输出,采用交叉熵损失函数进行计算,得到语音识别结果。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的基于非自回归模型的语音识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的基于非自回归模型的语音识别方法的步骤。
CN202210036528.9A 2022-01-12 2022-01-12 基于非自回归模型的语音识别方法及相关设备 Pending CN114420107A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210036528.9A CN114420107A (zh) 2022-01-12 2022-01-12 基于非自回归模型的语音识别方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210036528.9A CN114420107A (zh) 2022-01-12 2022-01-12 基于非自回归模型的语音识别方法及相关设备

Publications (1)

Publication Number Publication Date
CN114420107A true CN114420107A (zh) 2022-04-29

Family

ID=81273368

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210036528.9A Pending CN114420107A (zh) 2022-01-12 2022-01-12 基于非自回归模型的语音识别方法及相关设备

Country Status (1)

Country Link
CN (1) CN114420107A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115691476A (zh) * 2022-06-06 2023-02-03 腾讯科技(深圳)有限公司 语音识别模型的训练方法、语音识别方法、装置及设备
CN116631379A (zh) * 2023-07-20 2023-08-22 中邮消费金融有限公司 语音识别方法、装置、设备及存储介质
CN116781417A (zh) * 2023-08-15 2023-09-19 北京中电慧声科技有限公司 一种基于语音识别的抗破译语音交互方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115691476A (zh) * 2022-06-06 2023-02-03 腾讯科技(深圳)有限公司 语音识别模型的训练方法、语音识别方法、装置及设备
CN115691476B (zh) * 2022-06-06 2023-07-04 腾讯科技(深圳)有限公司 语音识别模型的训练方法、语音识别方法、装置及设备
CN116631379A (zh) * 2023-07-20 2023-08-22 中邮消费金融有限公司 语音识别方法、装置、设备及存储介质
CN116631379B (zh) * 2023-07-20 2023-09-26 中邮消费金融有限公司 语音识别方法、装置、设备及存储介质
CN116781417A (zh) * 2023-08-15 2023-09-19 北京中电慧声科技有限公司 一种基于语音识别的抗破译语音交互方法及系统
CN116781417B (zh) * 2023-08-15 2023-11-17 北京中电慧声科技有限公司 一种基于语音识别的抗破译语音交互方法及系统

Similar Documents

Publication Publication Date Title
CN112685565B (zh) 基于多模态信息融合的文本分类方法、及其相关设备
CN111755078B (zh) 药物分子属性确定方法、装置及存储介质
CN114420107A (zh) 基于非自回归模型的语音识别方法及相关设备
CN112396613B (zh) 图像分割方法、装置、计算机设备及存储介质
CN112466314A (zh) 情感语音数据转换方法、装置、计算机设备及存储介质
CN113987169A (zh) 基于语义块的文本摘要生成方法、装置、设备及存储介质
EP4390725A1 (en) Video retrieval method and apparatus, device, and storage medium
CN113947095A (zh) 多语种文本翻译方法、装置、计算机设备及存储介质
CN112528029A (zh) 文本分类模型处理方法、装置、计算机设备及存储介质
CN112836521A (zh) 问答匹配方法、装置、计算机设备及存储介质
CN112699213A (zh) 语音意图识别方法、装置、计算机设备及存储介质
CN114358023B (zh) 智能问答召回方法、装置、计算机设备及存储介质
CN114780701A (zh) 自动问答匹配方法、装置、计算机设备及存储介质
CN113987162A (zh) 文本摘要的生成方法、装置及计算机设备
CN114091452A (zh) 一种基于适配器的迁移学习方法、装置、设备及存储介质
CN113360683A (zh) 训练跨模态检索模型的方法以及跨模态检索方法和装置
CN114548114B (zh) 文本情绪识别方法、装置、设备及存储介质
CN114627170B (zh) 三维点云配准方法、装置、计算机设备及存储介质
CN115273110A (zh) 基于TensorRT的文本识别模型部署方法、装置、设备及存储介质
CN116341646A (zh) Bert模型的预训练方法、装置、电子设备及存储介质
CN114881033A (zh) 一种文本摘要生成方法、装置、计算机设备及存储介质
CN113657104A (zh) 文本抽取方法、装置、计算机设备及存储介质
CN112966150A (zh) 一种视频内容抽取的方法、装置、计算机设备及存储介质
CN113239215A (zh) 多媒体资源的分类方法、装置、电子设备及存储介质
CN112733645A (zh) 手写签名校验方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination