CN115273830A - 流式语音识别及模型训练的方法、装置及设备 - Google Patents
流式语音识别及模型训练的方法、装置及设备 Download PDFInfo
- Publication number
- CN115273830A CN115273830A CN202210870146.6A CN202210870146A CN115273830A CN 115273830 A CN115273830 A CN 115273830A CN 202210870146 A CN202210870146 A CN 202210870146A CN 115273830 A CN115273830 A CN 115273830A
- Authority
- CN
- China
- Prior art keywords
- block
- acoustic
- voice
- text
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 title claims abstract description 40
- 238000004364 calculation method Methods 0.000 claims abstract description 52
- 238000005192 partition Methods 0.000 claims abstract description 36
- 239000012634 fragment Substances 0.000 claims abstract description 28
- 238000000638 solvent extraction Methods 0.000 claims abstract 3
- 238000012545 processing Methods 0.000 claims description 18
- 230000000903 blocking effect Effects 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请提供一种流式语音识别及模型训练的方法、装置及设备。本申请的方法,通过基于非自回归解码器的流式语音识别模型,对当前输入的语音片段的语音声学特征进行分块,生成至少一个分块,对每一分块进行编码生成每一分块的声学表示,并预测出每一分块包含的字的数量及每个字的时间戳和声学语义特征,根据各个分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部的注意力计算,从而解码出各个分块对应的文本信息,能够利用分块包含的字的数量及每个字的时间戳和声学语义特征来指导块内局部的注意力学习,实现基于非自回归解码器的流式语音识别,通过一次调用流式语音识别模型即可实现流式语音识别,提高了流式语音识别的效率。
Description
技术领域
本申请涉及计算机技术,尤其涉及一种流式语音识别及模型训练的方法、装置及设备。
背景技术
语音识别技术就是让机器通过识别和理解过程,把语音信号转换为相应文本或命令的技术,其中,端到端语音识别受到了学术界和工业界的广泛关注,并且在大部分语音识别任务上展现出相比于传统混合建模方案更优的性能。
语音识别可以采用流式语音识别模型,也可以采用非流式语音识别模型。在处理语音流的过程中,流式语音识别模型支持实时返回识别结果,而非流式语音识别模型需要处理完整句后返回识别结果。目前,在很多领域,如线上的语音交互、线上语音识别服务等领域,通过采用端到端的流式语音识别模型来提高语音识别的效率。
目前,端到端的流式语音识别通常基于自回归解码器(Auto-regressiveDecoder)将语音特征转换为文本,需要基于已识别出的字符依次识别还未被识别的字符,识别每个字符都需要调用一次语音识别模型,计算效率低,导致语音识别的效率低。
发明内容
本申请提供一种流式语音识别及模型训练的方法、装置及设备,用以解决基于自回归解码器的流式语音识别模型识别效率低的问题。
第一方面,本申请提供一种流式语音识别的方法,包括:
实时获取当前输入的语音片段,并提取所述语音片段的语音声学特征;
对所述语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示;
根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到所述语音片段对应的文本信息。
第二方面,本申请提供一种流式语音识别模型训练的方法,包括:
通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示;
通过所述流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到所述样本语音对应的第一文本,将所述第一文本作为文本识别结果;
根据所述文本识别结果和所述样本语音对应的目标文本,更新所述流式语音识别模型的模型参数。
第三方面,本申请提供一种流式语音识别的装置,包括:
预处理模块,用于实时获取当前输入的语音片段,并提取所述语音片段的语音声学特征;
分块编码模块,用于对所述语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示;
预测模块,用于根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
分块注意解码模块,用于根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到所述语音片段对应的文本信息。
第四方面,本申请提供一种流式语音识别模型训练的装置,包括:
分块编码模块,用于通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示;
预测模块,用于通过所述流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
分块注意解码模块,用于通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到所述样本语音对应的第一文本,将所述第一文本作为文本识别结果;
参数更新模块,用于根据所述文本识别结果和所述样本语音对应的目标文本,更新所述流式语音识别模型的模型参数。
第五方面,本申请提供一种电子设备,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现第一方面或第二方面所述的方法。
第六方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现第一方面或第二方面所述的方法。
第七方面,本申请提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面或第二方面所述的方法。
本申请提供的流式语音识别及模型训练的方法、装置及设备,通过对当前输入的语音片段的语音声学特征进行分块处理,生成至少一个分块,对每一分块进行编码生成每一分块的声学表示,并预测出每一分块包含的字的数量及每个字的时间戳和声学语义特征,根据各个分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部的注意力计算,从而解码出各个分块对应的文本信息,能够利用分块包含的字的数量及每个字的时间戳和声学语义特征来指导块内局部的注意力学习,实现基于非自回归解码器的流式语音识别,通过一次调用流式语音识别模型即可实现流式语音识别,提高了流式语音识别的效率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请提供的流式语音识别的方法所适用的一种系统架构示例图;
图2为本申请一示例实施例提供的流式语音识别的方法流程图;
图3为本申请一示例实施例提供的流式语音识别模型的框架图;
图4为本申请一示例实施例提供的流式语音识别模型训练的方法流程图;
图5为本申请一示例实施例提供的流式语音识别模型训练的系统框架图;
图6为本申请一示例实施例提供的流式语音识别的装置的结构示意图;
图7为本申请一示例实施例提供的流式语音识别模型训练的装置的结构示意图;
图8为本申请另一示例实施例提供的流式语音识别模型训练的装置的结构示意图;
图9为本申请一示例实施例提供的电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
首先对本申请所涉及的名词进行解释:
自动语音识别技术(Automatic Speech Recognition,简称ASR),是一种将语音转换为文本的技术。
端到端的语音识别(End-to-End ASR)模型:是指将输入的声学特征序列直接映射为字的文本信息的模型。
语音识别可以采用流式语音识别模型,也可以采用非流式语音识别模型。在处理语音流的过程中,流式语音识别模型支持实时返回识别结果,而非流式语音识别模型需要处理完整句后返回识别结果。在实际应用中的很多实时语音识别的场景下,如线上的语音交互、线上语音识别服务等领域,通过采用端到端的流式语音识别的方案可以提高语音识别的效率。
目前,端到端的流式语音识别通常基于自回归解码器(Auto-RegressiveDecoder,也即AR Decoder)将语音特征转换为文本,需要基于已识别出的字符依次识别还未被识别的字符,识别每个字符都需要调用一次语音识别模型,计算效率低,而且容易出现重复出字、噪声出字等情况,并且对于特定场景下的个性化定制信息的识别效果不佳。
本申请提供一种基于非自回归解码器(Non-Auto-Regressive Decoder,也即NARDecoder)的端到端的流式语音识别模型,并提供一种流式语音识别模型训练的方法,基于历史输入的完整句的样本语音,获取样本语音的语音声学特征及标注的目标文本,目标文本是样本语音对应的文本内容,通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示;通过流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到样本语音对应的第一文本,将第一文本作为文本识别结果;根据文本识别结果和样本语音对应的目标文本,更新流式语音识别模型的模型参数,实现流式语音识别模型的训练,得到训练好的流式语音识别模型。
本申请还提供一种流式语音识别的方法,在线上语义识别时,通过实时获取当前输入的语音片段,并提取语音片段的语音声学特征;利用训练好的流式语音识别模型,对语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示,根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,利用非自回归解码器一次解码得到每一分块对应的文本信息,通过对每一分块对应的文本信息进行拼接,得到语音片段对应的文本信息,能够提高流式语音识别的效率。
示例性地,以实时语音交互场景为例,本申请提供的流式语音识别的方法,可以适用于图1所示的系统架构。如图1所示,该系统架构包括:终端和服务器。
其中,该服务器可以是提供语音识别服务的服务器、语音交互系统的服务器等,具体可以是部署在云端的服务器集群。该服务器上存储有基于非自回归解码器的端到端的流式语音识别模型,通过服务器中预设运算逻辑,服务器利用该流式语音识别模型对实时输入的语音片段进行语音识别,得到识别结果,并可以向终端反馈识别结果。另外,服务器可以存储有训练所需的训练数据,基于训练数据实现基于非自回归解码器的端到端的流式语音识别模型的模型训练,得到训练好的流式语音识别模型。
终端具体可为具有网络通信功能、运算功能以及信息显示功能的硬件设备,其包括但不限于智能手机、平板电脑、台式电脑、物联网设备等。
通过与服务器的通信交互,当用户在使用终端输入语音流的过程中,服务器可以实时获取当前输入的语音片段,并提取语音片段的语音声学特征;利用训练好的流式语音识别模型,对语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示;根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到语音片段对应的文本信息,并根据预设规则将识别结果输出至终端。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2为本申请一示例实施例提供的流式语音识别的方法流程图。本实施例的执行主体可以是上述提及的服务器,如图2所示,该方法具体步骤如下:
步骤S201、实时获取当前输入的语音片段,并提取语音片段的语音声学特征。
本实施例中,根据预先设置的语音片段大小,采集实时输入的语音流得到当前输入的语音片段,并提取语音片段的语音声学特征。
示例性地,语音片段的语音声学特征可以是梅尔频率倒谱系数(Mel-FrequencyCepstralCoefficients,简称MFCC)、线性预测倒谱系数(Linear PredictiveCepstralCoefficient,简称LPCC)、短时平均能量、振幅平均变化率,Fbank特征,等等,此处不做具体限定。
在提取到语音片段的语音声学特征之后,将语音片段的语音声学特征输入训练好的流式语音识别模型进行语音识别,通过流式语音识别模型实现步骤S202-S204的处理流程,得到文本识别结果,即语音片段对应的文本信息。流式语音识别模型可以通过后续的流式语音模型训练的方法实施例提供的方案训练得到。
示例性地,图3为本申请一示例实施例提供的流式语音识别模型的框架图。如图3所示,训练好的流式语音识别模型包括:分块编码器、预测器和分块注意解码器。其中,分块编码器(chunk encoder)用于对语音片段的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示。预测器(predictor)用于根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征。分块注意解码器(scama decoder)用于根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行整合,得到样本语音对应的文本识别结果。
步骤S202、对语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示。
该步骤中,语音片段的语音声学特征输入分块编码器,通过分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示。每一分块的声学表示输入预测器。
示例性地,分块编码器可以是一个多层的神经网络,分块编码器可以采用如下任一种神经网络:深层前馈序列记忆神经网络(Deep-Feedforward Sequential MemoryNetworks,简称DFSMN)、卷积神经网络(Convolutional Neural Network,简称CNN)、长短时记忆网络(Long Short-Term Memory,简称LSTM)、双向长短时记忆网络(Bi-directionalLong Short-Term Memory,简称BLSTM)、Transformer。
具体地,根据预设分块大小,对语音片段的语音声学特征进行分块处理,将语音片段的语音声学特征分成至少一个分块。
其中,预设分块大小可以表示为时延,预设分块大小越小,流式语音识别的时延越小,但识别的准确性相对越低,预设分块大小越大,流式语音识别的准确率越高,但流式语音识别的时延越大。预设分块大小可以设置为3帧、5帧、10帧、15帧等,可以在对流式语音识别模型进行训练时根据实际应用场景的需要进行设置,此处不做具体限定。
预先设置的语音片段大小可以根据预设分块大小并结合具体应用场景进行设置,例如语音片段大小可以等于预设分块大小,这样,实时采集的语音片段即为一个分块,可以实时地进行流式语音识别,提高语音识别的效率和实时性。
另外,预先设置的语音片段大小也可以大于预设分块大小,此处不做具体限定。当预先设置的语音片段大于预设分块大小时,将语音片段的语音声学特征进行带有重复信息的分块,也即每一分块带有历史和未来的信息。
进一步地,在对语音片段的语音声学特征进行分块处理,生成至少一个分块之后,对每一分块进行动态编码,以将每一分块的语音声学特征转换为一个新的具有区分性的高层表示,得到每一分块的声学表示,每一分块的声学表示也称为分块记忆。
步骤S203、根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征。
在得到每一分块的声学表示之后,每一分块的声学表示输入预测器,通过预测器(predictor)根据每一分块的声学表示,预测每一分块包含的字的数量及每个字的时间戳和声学语义特征。
其中,一个字是可以是汉语中的一个文字、或者英语中分词结果中的一个token或sub-token。
示例性地,预测器可以是一个2层的神经网络,神经网络可以选择采用如下任意一种:深度神经网络(Deep Neural Networks,简称DNN)、CNN、LSTM。
步骤S204、根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到语音片段对应的文本信息。
该步骤中,每一分块包含的字的数量及每个字的时间戳和声学语义特征输入分块注意解码器,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息;再对每一分块对应的文本信息进行拼接,得到语音片段对应的文本信息。
示例性地,分块注意解码器是一个多层的神经网络,可以采用如下任一种神经网络:DFSMN、CNN、BLSTM、Transformer。
本实施例中,通过对当前输入的语音片段的语音声学特征进行分块处理,生成至少一个分块,对每一分块进行编码生成每一分块的声学表示,并预测出每一分块包含的字的数量及每个字的时间戳和声学语义特征,根据各个分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部的注意力计算,从而解码出各个分块对应的文本信息,能够利用分块包含的字的数量及每个字的时间戳和声学语义特征来指导块内局部的注意力学习,实现基于非自回归解码器的流式语音识别,通过一次调用流式语音识别模型即可实现流式语音识别,提高了流式语音识别的效率。另外还可以避免重复出字、噪声出字等情况,并且对于特定场景下的个性化定制信息的识别效果较佳。
一种可选实施例中,预测器用于确定分块中包含的字的数量和每个字的帧边界,进一步地,基于每个字的帧边界计算得到每个字的时间戳,以及从每一分块的声学表示中提取每个字对应的帧向量,并根据每个字对应的帧向量确定每个字的声学语义特征。
示例性地,在获得每一分块的声学表示后,将每一分块的声学表示输入到预测器中,预测器可以确定每一分块的声学表示对应的预测序列。该预测序列用于指示每一分块的声学特征内包含的多帧各自是否对应于字,从而,根据该预测序列中对应于字的帧数可以确定每一分块中包含的字的数量,并可以确定每个字的帧边界。
其中,预测器用于预测分块中包含的字的数量和每个字的帧边界的预测网络可以通过如下方式训练得到:获取若干分块样本,标注每个分块样本中包含的字的数量以及每个字的帧边界,通过这个标注信息来训练预测网络。这样训练好的预测网络便具有预测分块中包含的字的数量及每个字的帧边界的功能。
可选地,根据分块包含的每个字对应的声学特征帧,采用连续整合发放(Continuous Integrate-and-Fire,CIF)模型、或基于注意力机制的连接时序分类(Connectionist Temporal Classification,CTC))模型对来平均每个字对应的多个声学特征帧,得到每个字的声学语义特征。
一种可选实施例中,通过分块编码器确定的每一分块的声学表示可以不输入分块注意解码器。上述步骤S204中,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息,通过利用每一分块包含的字的数量及每个字的时间戳来指导对各个分块进行块内的局部自注意力计算,实现非自回归解码器的功能,通过非自回归解码器能够同时对分块中包含的多个字进行解码,从而获取流式语音识别的识别结果,通过一次调用分块注意解码器即可识别出分块的完整文本信息,能够提高流式语音识别的效率;另外还可以避免重复出字、噪声出字等情况,并且对于特定场景下的个性化定制信息的识别效果较佳。
一种可选实施例中,分块编码器确定的每一分块的声学表示可以输入分块注意解码器。上述步骤S204中,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的文本信息。
具体地,假设分块m中包含多个字,通过预测器确定每一分块包含的字的数量及每个字的时间戳和声学语义特征输入分块注意解码器,通过分块编码器确定的每一分块的声学表示也输入分块注意解码器。分块注意解码器已知分块内每一个字的声学语义特征。通过将前一个字Yt-1的声学语义特征与分块的声学表示(用Cm表示)进行相关性计算,可以得到分块的声学表示中各元素对应的权重。其中,分块的声学表示Cm中各元素对应于分块m中包含的各帧各自对应的编码结果。基于计算出的权重对分块的声学表示Cm中的各元素进行加权求和,对加权求和结果解码可以得到下一个字Yt。
由于分块注意解码器已知每一个字的声学语义特征,因此分块注意解码器可以同时对每一分块进行解码,并可以同时解码出每一分块包含的每一个字,相较于自回归解码器依次迭代来解码每一个字,可以提高流式语音识别的效率,另外还可以避免重复出字、噪声出字等情况,并且对于特定场景下的个性化定制信息的识别效果较佳。
图4为本申请一示例实施例提供的流式语音识别模型训练的方法流程图。本实施例的执行主体可以是上述提及的服务器,如图4所示,该方法具体步骤如下:
步骤S401、获取样本语音及样本语音的语音声学特征和目标文本。
在进行流式语音识别模型训练之前,首先基于历史语音数据获取训练数据。训练数据包括样本语音、样本语音的语音声学特征和目标文本。
其中,样本语音通常为一次语音输入的完整语句,样本语音的语音声学特征是提取的样本语音的声学特征,具体实现方式与上述步骤S201中提取语音片段的语音声学特征所采用的实现方式一致。样本语音的目标文本是指标注的样本语音的准确的识别结果。
示例性地,样本语音的输入时长大概在10秒~2分钟,在某些情况下也可能会有输入时长小于10秒或输入时长大于2分钟的样本语音。
由于流式语音识别时采集的语音片段的大小通常远小于一次完整输入的样本语音长度,本实施例中,为了训练得到能够基于较短输入时长的语音片段进行准确语音识别的流式语音识别模型,在进行模型训练时,可以根据采集语音片段的间隔时长来设置预设分块大小,流式语音识别模型能够基于预设分块大小对样本语音进行分块,并通过块内局部注意力计算分别对各个分块进行解码,得到每个分块对应的文本信息,从而使得训练好的流式语音识别模型可以针对较短输入时长的语音片段,准确地识别出语音片段对应的文本信息。
其中,预设分块大小通常在[300毫秒,1分钟]这一区间内取值,预设分块大小可以根据实际应用场景的需要进行设置。
在获取到训练数据之后,基于训练数据通过如下步骤S402-S405实现流式语音识别模型的训练,得到训练好的流式语音识别模型。
步骤S402、通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示。
在对流式语音识别模型进行模型训练时,将样本语音的语音声学特征输入流式语音识别模型的分块编码器,通过分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示。每一分块的声学表示输入预测器。
示例性地,分块编码器可以是一个多层的神经网络,分块编码器可以采用如下任一种神经网络:DFSMN、CNN、LSTM、BLSTM、Transformer。
具体地,分块编码器根据预设分块大小,对语音片段的语音声学特征进行分块处理,将语音片段的语音声学特征分成至少一个分块。
示例性地,预设分块大小可以表示为时延,预设分块大小越小,流式语音识别的时延越小,但识别的准确性相对越低,预设分块大小越大,流式语音识别的准确率越高,但流式语音识别的时延越大。预设分块大小可以设置为3帧、5帧、10帧、15帧等,可以在对流式语音识别模型进行训练时根据实际应用场景的需要进行设置,此处不做具体限定。
进一步地,在对样本语音的语音声学特征进行分块处理,生成至少一个分块之后,对每一分块进行动态编码,以将每一分块的语音声学特征转换为一个新的具有区分性的高层表示,得到每一分块的声学表示,每一分块的声学表示也称为分块记忆。
步骤S403、通过流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征。
其中,一个字是可以是汉语中的一个文字、或者英语中分词结果中的一个token或sub-token。
示例性地,预测器可以是一个2层的神经网络,神经网络可以选择采用如下任意一种:深度神经网络(Deep Neural Networks,简称DNN)、CNN、LSTM。
步骤S404、通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到样本语音对应的第一文本,将第一文本作为文本识别结果。
本实施例中,分块注意解码器为非自回归解码器,利用每一分块包含的字的数量及每个字的时间戳,来指导块内局部注意力学习,对声学语义特征进行块内局部注意力计算,得到每一分块对应的第一文本信息。进一步地,对每一分块对应的第一文本信息进行整合,得到样本语音对应的第一文本,将第一文本作为文本识别结果。
示例性地,分块注意解码器是一个多层的神经网络,可以采用如下任一种神经网络:DFSMN、CNN、BLSTM、Transformer。
步骤S405、根据文本识别结果和样本语音对应的目标文本,更新流式语音识别模型的模型参数。
在通过流式语音识别模型识别出样本语音对应的文本识别结果之后,基于样本语音对应的文本识别结果与样本语音对应的目标文本之间的差异,计算损失值,并基于损失值更新流式语音识别模型的模型参数。
示例性地,可以根据分块注意解码器输出的文本识别结果和样本语音对应的目标文本,计算交叉熵(Cross Entropy,简称CE)损失,根据交叉熵损失更新流式语音识别模型的模型参数。
示例性地,还可以根据分块注意解码器输出的文本识别结果和样本语音对应的目标文本,可以计算交叉熵损失和最小词错误率(Minimum Word Error Rate,简称MWER)损失,根据交叉熵损失和最小词错误率损失更新流式语音识别模型的模型参数。
当满足收敛条件时,获取较优的一组模型参数作为流式语音识别模型的模型参数,得到训练好的流式语音识别模型。
本实施例在进行流式语音识别模型训练过程中,通过分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示;通过预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到样本语音对应的第一文本,将第一文本作为文本识别结果;根据文本识别结果和样本语音对应的目标文本,更新流式语音识别模型的模型参数,训练好的流式语音识别模型中采用非自回归解码器,能够利用分块包含的字的数量及每个字的时间戳和声学语义特征来指导块内局部的注意力学习,能够同时对分块中包含的多个字进行解码,通过一次调用分块注意解码器即可识别出分块包含的完整文本信息,提高了流式语音识别的效率。
图5为本申请一示例实施例提供的流式语音识别模型训练的系统框架图。一种可选实施例中,流式语音识别模型包括分块编码器、预测器、分块注意解码器,如图5所示,在进行流式语音识别模型的训练过程中,可以增加采样器,采样器是一种无参数的计算模块,用于根据分块注意解码器输出的第一文本与目标文本的编辑距离,从目标文本的文本表示中采样至少一个字的文本表示,并使用采样结果替换至少一个字的声学语义特征,得到更新后的声学语义特征,更新后的声学语义特征包含正确的上下文信息,将更新后的声学语义特征输入分块注意解码器。
本实施例中,在步骤S404之后,分块注意解码器将第一遍解码得到的第一文本输入采样器。采样器根据分块注意解码器输出的第一文本与目标文本的编辑距离,从目标文本的文本表示中采样至少一个字的文本表示,并使用采样结果替换至少一个字的声学语义特征,得到更新后的声学语义特征,更新后的声学语义特征包含正确的上下文信息,以增强预测器输出的声学语义特征的上下文信息,将更新后的声学语义特征输入分块注意解码器,基于包含正确的上下文信息的声学语义特征解码得到的文本识别结果更加准确。
进一步地,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和更新后的声学语义特征进行块内局部注意力计算,确定每一分块对应的第二文本信息,并对每一分块对应的第二文本信息进行整合,得到样本语音对应的第二文本,将第二文本作为文本识别结果。
通过根据更新后的包含正确上下文信息的声学语义特征进行第二遍解码,得到新的文本识别结果(即样本语音对应的第二文本),能够提高文本识别结果的精准度。
进一步地,本实施例的方案中,在步骤S405中,根据分块注意解码器第二遍输出的文本识别结果(第二文本)和样本语音对应的目标文本确定第一损失,根据第一损失更新流式语音识别模型的模型参数,能够提高训练好的流式语音识别模型的语音识别的精准度。
示例性地,根据分块注意解码器第二遍输出的文本识别结果和样本语音对应的目标文本,可以计算交叉熵(Cross Entropy,简称CE),作为第一损失。
示例性地,还可以根据分块注意解码器第二遍输出的文本识别结果和样本语音对应的目标文本,计算交叉熵和最小词错误率,根据计算交叉熵和最小词错误率确定第一损失。
可选地,上述步骤S405中,可以根据分块注意解码器第二遍输出的文本识别结果(第二文本)和样本语音对应的目标文本确定第一损失,并根据每一分块包含的字的数量之和与目标文本的总字数确定第二损失;根据第一损失和第二损失,更新流式语音识别模型的模型参数,通过增加计算第二损失来更新模型参数,可以提高训练好的流式语音识别模型的预测器预测分块包含的字的数量以及每一字的时间戳的精准度。
示例性地,根据分块注意解码器第二遍输出的文本识别结果和样本语音对应的目标文本,可以计算交叉熵(Cross Entropy,简称CE),作为第一损失。
示例性地,还可以根据分块注意解码器第二遍输出的文本识别结果和样本语音对应的目标文本,计算交叉熵和最小词错误率,根据计算交叉熵和最小词错误率确定第一损失。
示例性地,根据每一分块包含的字的数量之和与目标文本的总字数,可以计算平均绝对误差(Mean Absolute Error,简称MAE),作为第二损失。
可选地,可以对第一损失和第二损失进行加权求和确定综合损失,根据综合损失更新模型参数。
本实施例中,流式语音识别模型采用非自回归解码器结构,在训练时解码器迭代2次,但是模型训练完以后,在实际应用解码时,只需要单次解码,可以实现实时的流式语音识别。
一种可选实施例中,分块编码器确定的每一分块的声学表示可以不输入分块注意解码器。在实现通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息时,可以通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息,通过利用每一分块包含的字的数量及每个字的时间戳来指导对各个分块进行块内的局部自注意力计算,实现非自回归解码器的功能,能够同时对分块中包含的多个字进行解码,从而获取流式语音识别的识别结果,通过一次调用分块注意解码器即可识别出分块的完整文本信息,能够提高流式语音识别的效率;另外还可以避免重复出字、噪声出字等情况,并且对于特定场景下的个性化定制信息的识别效果较佳。
示例性地,分块注意解码器进行第一遍解码时,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息。
示例性地,分块注意解码器进行第二遍解码时,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和更新后的声学语义特征,对每一分块包含的字的更新后的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息。
一种可选实施例中,分块编码器确定的每一分块的声学表示可以输入分块注意解码器(如图5中由分块编码器指向分块注意解码器的虚线箭头所示)。在实现通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息时,可以通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的文本信息。
具体地,假设分块m中包含多个字,通过预测器确定每一分块包含的字的数量及每个字的时间戳和声学语义特征输入分块注意解码器,通过分块编码器确定的每一分块的声学表示也输入分块注意解码器。分块注意解码器已知分块内每一个字的声学语义特征。通过将前一个字Yt-1的声学语义特征与分块的声学表示(用Cm表示)进行相关性计算,可以得到分块的声学表示中各元素对应的权重。其中,分块的声学表示Cm中各元素对应于分块m中包含的各帧各自对应的编码结果。基于计算出的权重对分块的声学表示Cm中的各元素进行加权求和,对加权求和结果解码可以得到下一个字Yt。
由于分块注意解码器已知每一个字的声学语义特征,因此分块注意解码器可以同时对每一分块进行解码,并可以同时解码出每一分块包含的每一个字,相较于自回归解码器依次迭代来解码每一个字,可以提高流式语音识别的效率,另外还可以避免重复出字、噪声出字等情况,并且对于特定场景下的个性化定制信息的识别效果较佳。
示例性地,分块注意解码器进行第一遍解码时,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的第一文本信息。
示例性地,分块注意解码器进行第二遍解码时,通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和更新后的声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的第二文本信息。
图6为本申请一示例实施例提供的流式语音识别的装置的结构示意图,本实施例提供的装置应用于上述提及的服务器,如图6所示,流式语音识别的装置60包括:预处理模块61、分块编码模块62、预测模块63和分块注意解码模块64。
具体地,预处理模块61用于实时获取当前输入的语音片段,并提取语音片段的语音声学特征。
分块编码模块62用于对语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示。
预测模块63用于根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征。
分块注意解码模块64用于根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到语音片段对应的文本信息。
本实施例提供的装置具体可以用于执行上述图2对应方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
一种可选实施例中,在实现根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息时,预测模块63具体用于:
根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的文本信息;或者,根据每一分块包含的字的数量及每个字的时间戳,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息。
本实施例提供的装置具体可以用于执行上述任一流式语音识别的方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
图7为本申请一示例实施例提供的流式语音识别模型训练的装置的结构示意图,本实施例提供的装置应用于上述提及的服务器,如图7所示,流式语音识别模型训练的装置70包括:分块编码模块71、预测模块72、分块注意解码模块73和参数更新模块74。
具体地,分块编码模块71用于通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示。
预测模块72用于通过流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征。
分块注意解码模块73用于通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到样本语音对应的第一文本,将第一文本作为文本识别结果。
参数更新模块74用于根据文本识别结果和样本语音对应的目标文本,更新流式语音识别模型的模型参数。
本实施例提供的装置具体可以用于执行上述图4对应方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
一种可选实施例中,如图8所示,流式语音识别模型训练的装置70还包括:采样模块75。
采样模块75用于:根据第一文本与目标文本的编辑距离,从目标文本的文本表示中采样至少一个字的文本表示,并使用采样结果替换至少一个字的声学语义特征,得到更新后的声学语义特征。
分块注意解码模块73还用于:通过分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和更新后的声学语义特征进行块内局部注意力计算,确定每一分块对应的第二文本信息,并对每一分块对应的第二文本信息进行整合,得到样本语音对应的第二文本,将第二文本作为文本识别结果。
一种可选实施例中,在实现通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息时,分块注意解码模块73还用于:
通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的文本信息;或者,通过流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息。
一种可选实施例中,在实现根据文本识别结果和样本语音对应的目标文本,更新流式语音识别模型的模型参数时,参数更新模块74还用于:
根据文本识别结果和样本语音对应的目标文本确定第一损失,并根据每一分块包含的字的数量之和与目标文本的总字数确定第二损失;根据第一损失和第二损失,更新流式语音识别模型的模型参数。
一种可选实施例中,在实现根据文本识别结果和样本语音对应的目标文本,更新流式语音识别模型的模型参数时,参数更新模块74还用于:
根据文本识别结果和样本语音对应的目标文本确定第一损失,根据第一损失更新流式语音识别模型的模型参数。
本实施例提供的装置具体可以用于执行上述任一流式语音识别模型训练的方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
图9为本申请一示例实施例提供的电子设备的结构示意图。如图9所示,该电子设备90包括:处理器901,以及与处理器901通信连接的存储器902,存储器902存储计算机执行指令。
其中,处理器执行存储器存储的计算机执行指令,以实现上述任一方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现上述任一方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
本申请实施例还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一方法实施例所提供的方案,具体功能和所能实现的技术效果此处不再赘述。
另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。“多个”的含义是两个以上,除非另有明确具体的限定。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。
Claims (12)
1.一种流式语音识别的方法,其特征在于,包括:
实时获取当前输入的语音片段,并提取所述语音片段的语音声学特征;
对所述语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示;
根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到所述语音片段对应的文本信息。
2.根据权利要求1所述的方法,其特征在于,所述根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,包括:
根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的文本信息;
或者,
根据每一分块包含的字的数量及每个字的时间戳,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息。
3.一种流式语音识别模型训练的方法,其特征在于,包括:
通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示;
通过所述流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到所述样本语音对应的第一文本,将所述第一文本作为文本识别结果;
根据所述文本识别结果和所述样本语音对应的目标文本,更新所述流式语音识别模型的模型参数。
4.根据权利要求3所述的方法,其特征在于,所述根据所述文本识别结果和所述目标文本,更新所述流式语音识别模型的模型参数之前,还包括:
根据所述第一文本与所述目标文本的编辑距离,从所述目标文本的文本表示中采样至少一个字的文本表示,并使用采样结果替换所述至少一个字的声学语义特征,得到更新后的声学语义特征;
通过所述分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和更新后的声学语义特征进行块内局部注意力计算,确定每一分块对应的第二文本信息,并对每一分块对应的第二文本信息进行整合,得到所述样本语音对应的第二文本,将所述第二文本作为文本识别结果。
5.根据权利要求3或4所述的方法,其特征在于,通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,包括:
通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块的声学表示进行块内局部注意力计算,确定每一分块对应的文本信息;
或者,
通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征,对每一分块包含的字的声学语义特征进行块内局部自注意力计算,确定每一分块对应的文本信息。
6.根据权利要求3或4所述的方法,其特征在于,所述根据所述文本识别结果和所述样本语音对应的目标文本,更新所述流式语音识别模型的模型参数,包括:
根据所述文本识别结果和所述样本语音对应的目标文本确定第一损失,并根据每一分块包含的字的数量之和与所述目标文本的总字数确定第二损失;
根据所述第一损失和所述第二损失,更新所述流式语音识别模型的模型参数。
7.根据权利要求3或4所述的方法,其特征在于,所述根据所述文本识别结果和所述样本语音对应的目标文本,更新所述流式语音识别模型的模型参数,包括:
根据所述文本识别结果和所述样本语音对应的目标文本确定第一损失,根据所述第一损失更新所述流式语音识别模型的模型参数。
8.一种流式语音识别的装置,其特征在于,包括:
预处理模块,用于实时获取当前输入的语音片段,并提取所述语音片段的语音声学特征;
分块编码模块,用于对所述语音片段的语音声学特征进行分块处理,生成至少一个分块,并对每一分块进行编码生成每一分块的声学表示;
预测模块,用于根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
分块注意解码模块,用于根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的文本信息,并对每一分块对应的文本信息进行拼接,得到所述语音片段对应的文本信息。
9.一种流式语音识别模型训练的装置,其特征在于,包括:
分块编码模块,用于通过流式语音识别模型的分块编码器对样本语音的语音声学特征进行分块,生成多个分块,并对每一分块进行编码生成每一分块的声学表示;
预测模块,用于通过所述流式语音识别模型的预测器根据每一分块的声学表示,确定每一分块包含的字的数量及每个字的时间戳和声学语义特征;
分块注意解码模块,用于通过所述流式语音识别模型的分块注意解码器根据每一分块包含的字的数量及每个字的时间戳和声学语义特征进行块内局部注意力计算,确定每一分块对应的第一文本信息,并对每一分块对应的第一文本信息进行整合,得到所述样本语音对应的第一文本,将所述第一文本作为文本识别结果;
参数更新模块,用于根据所述文本识别结果和所述样本语音对应的目标文本,更新所述流式语音识别模型的模型参数。
10.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1-7中任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1-7中任一项所述的方法。
12.一种计算机程序产品,其特征在于,包括计算机程序,该计算机程序被处理器执行时实现权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210870146.6A CN115273830A (zh) | 2022-07-22 | 2022-07-22 | 流式语音识别及模型训练的方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210870146.6A CN115273830A (zh) | 2022-07-22 | 2022-07-22 | 流式语音识别及模型训练的方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115273830A true CN115273830A (zh) | 2022-11-01 |
Family
ID=83770390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210870146.6A Pending CN115273830A (zh) | 2022-07-22 | 2022-07-22 | 流式语音识别及模型训练的方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115273830A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116052674A (zh) * | 2022-12-19 | 2023-05-02 | 北京数美时代科技有限公司 | 基于预测未来帧的流式语音识别方法、系统和存储介质 |
CN116110378A (zh) * | 2023-04-12 | 2023-05-12 | 中国科学院自动化研究所 | 模型训练方法、语音识别方法、装置和电子设备 |
CN118411992A (zh) * | 2024-07-02 | 2024-07-30 | 成都丰窝科技有限公司 | 基于asr语音识别的客服工单录入方法 |
-
2022
- 2022-07-22 CN CN202210870146.6A patent/CN115273830A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116052674A (zh) * | 2022-12-19 | 2023-05-02 | 北京数美时代科技有限公司 | 基于预测未来帧的流式语音识别方法、系统和存储介质 |
CN116052674B (zh) * | 2022-12-19 | 2023-06-09 | 北京数美时代科技有限公司 | 基于预测未来帧的流式语音识别方法、系统和存储介质 |
CN116110378A (zh) * | 2023-04-12 | 2023-05-12 | 中国科学院自动化研究所 | 模型训练方法、语音识别方法、装置和电子设备 |
CN118411992A (zh) * | 2024-07-02 | 2024-07-30 | 成都丰窝科技有限公司 | 基于asr语音识别的客服工单录入方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111429889B (zh) | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 | |
US20200402500A1 (en) | Method and device for generating speech recognition model and storage medium | |
CN111798832B (zh) | 语音合成方法、装置和计算机可读存储介质 | |
CN115273830A (zh) | 流式语音识别及模型训练的方法、装置及设备 | |
JP7570760B2 (ja) | 音声認識方法、音声認識装置、コンピュータ機器、及びコンピュータプログラム | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN111696526B (zh) | 语音识别模型的生成方法、语音识别方法、装置 | |
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
CN110808027B (zh) | 语音合成方法、装置以及新闻播报方法、系统 | |
CN114360557B (zh) | 语音音色转换方法、模型训练方法、装置、设备和介质 | |
CN113889076B (zh) | 语音识别及编解码方法、装置、电子设备及存储介质 | |
CN111489754A (zh) | 一种基于智能语音技术的话务数据分析方法 | |
CN115293132A (zh) | 虚拟场景的对话处理方法、装置、电子设备及存储介质 | |
CN117877460B (zh) | 语音合成方法、装置、语音合成模型训练方法、装置 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
CN116074574A (zh) | 一种视频处理方法、装置、设备及存储介质 | |
CN114171002A (zh) | 语音识别方法、装置、电子设备和存储介质 | |
US20230410794A1 (en) | Audio recognition method, method of training audio recognition model, and electronic device | |
CN113793599A (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
CN117238321A (zh) | 语音综合评估方法、装置、设备及存储介质 | |
CN108597497B (zh) | 一种字幕语音精准同步系统及方法、信息数据处理终端 | |
CN116978364A (zh) | 音频数据处理方法、装置、设备以及介质 | |
CN113593574B (zh) | 一种语音识别方法、计算机程序产品及电子设备 | |
CN115273862A (zh) | 语音处理的方法、装置、电子设备和介质 | |
CN114512121A (zh) | 语音合成方法、模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |