CN115331660A - 神经网络训练方法、语音识别方法、装置、设备及介质 - Google Patents
神经网络训练方法、语音识别方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115331660A CN115331660A CN202210952689.2A CN202210952689A CN115331660A CN 115331660 A CN115331660 A CN 115331660A CN 202210952689 A CN202210952689 A CN 202210952689A CN 115331660 A CN115331660 A CN 115331660A
- Authority
- CN
- China
- Prior art keywords
- audio
- sample
- current
- feature
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 131
- 238000000034 method Methods 0.000 title claims abstract description 121
- 238000012549 training Methods 0.000 title claims abstract description 105
- 239000013598 vector Substances 0.000 claims abstract description 111
- 239000012634 fragment Substances 0.000 claims abstract description 28
- 238000005070 sampling Methods 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 62
- 230000008569 process Effects 0.000 claims description 37
- 238000012217 deletion Methods 0.000 claims description 15
- 230000037430 deletion Effects 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 abstract description 15
- 230000001965 increasing effect Effects 0.000 abstract description 15
- 238000010586 diagram Methods 0.000 description 13
- 239000000126 substance Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种神经网络训练方法、语音识别方法、装置、设备及介质,通过在当前音频帧的基础上引入历史音频帧和未来音频帧,使样本音频片段中包含的音频帧数量增加,可以增加样本音频片段的丰富性,提高训练数据包含的样本特征向量,提高流式语音识别神经网络对于每个样本音频片段的感受野,增强对于上下文的识别效果,大大增加通过训练得到的流式语音识别模型的鲁棒性,有效提高流式语音识别模型的语音识别准确度和速度,进而可以使用训练得到的流式语音识别模型对实时输出的当前语音片段进行语音识别,识别准确率高,识别速度快,识别效果好。
Description
技术领域
本公开涉及计算机领域,具体而言,涉及一种神经网络训练方法、语音识别方法、装置、设备及介质。
背景技术
自动语音识别技术(Automatic Speech Recognition,ASR)是一种将人的语音转换为文本的技术,被大量应用在语音交互、人机交互等多种场景中。
常见的语音识别方式是接收到发言者说的一段话后,识别这段音频数据所包含的信息,然后这种方式计算量极大,语音识别速度慢。随着社会的发展和进步,越来越多的场景需要用到流式ASR,此时若仍然使用接收到发言者说的一段话后再进行识别的方式,会产生较长的时间延迟,流式ASR需要在接收到发言者说完一个字后,就尽快识别出对应的文本信息。然而这种情况可用于解析的音频数据有限,导致识别结果的准确率低。
发明内容
本公开实施例至少提供一种神经网络训练方法、语音识别方法、装置、设备及介质。
本公开实施例提供了一种神经网络训练方法,所述方法包括:
获取样本音频数据以及所述样本音频数据的实际音频识别结果;
从所述样本音频数据中确定多个样本音频片段,以及从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧;
将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果;
基于得到的多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果,对所述流式语音识别神经网络的网络参数进行调整,直至所述流式语音识别神经网络满足训练截止条件,得到用于进行实时语音识别的流式语音识别模型。
这样,通过在当前音频帧的基础上引入历史音频帧和未来音频帧,使样本音频片段中包含的音频帧数量增加,可以增加样本音频片段的丰富性,提高训练数据包含的样本特征向量,提高流式语音识别神经网络对于每个样本音频片段的感受野,增强对于上下文的识别效果,大大增加通过训练得到的流式语音识别模型的鲁棒性,有效提高流式语音识别模型的语音识别准确度和速度。
一种可选的实施方式中,所述从所述样本音频数据中确定多个样本音频片段,包括:
使用预设采样时间窗,按照预设采样位移,对所述样本音频数据进行数据采样,得到多个采样音频帧,所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度;
对所述多个采样音频帧进行切分处理,得到多个样本音频片段。
这样,可以将样本音频数据转换为多个样本音频片段,通过样本音频片段模拟在实际语音识别时接收到的语音片段,提升后续流式语音识别神经网络的训练效果。
一种可选的实施方式中,所述对所述多个采样音频帧进行切分处理,得到多个样本音频片段,包括:
将通过所述预设采样时间窗连续采样预设次数得到的音频帧集合作为一个候选音频片段,得到多个候选音频片段,其中,所述候选音频片段中连续的多帧采样音频帧作为对应的多帧当前音频帧;
针对每个候选音频片段,从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,所述至少一帧历史音频帧和所述至少一帧未来音频帧分别与所述候选音频片段相邻;
将所述至少一帧历史音频帧、所述候选音频片段的多个当前音频帧和所述至少一帧未来音频帧进行拼接,得到对应的样本音频片段。
这样,通过确定出与每个候选音频片段对应的历史音频帧和未来音频帧,拼接得到样本音频片段,增加样本音频片段的丰富性,提高训练数据包含的样本特征向量,提高流式语音识别神经网络对于每个样本音频片段的感受野,有效增强对于上下文的识别效果。
一种可选的实施方式中,所述从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,包括:
在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,若所述候选音频片段为所述多个候选音频片段中的第一个音频片段,确定至少一帧第一空白音频帧,并将所述至少一帧第一空白音频帧作为所述候选音频片段的至少一帧历史音频帧;
若所述候选音频片段为所述多个候选音频片段中的最后一个音频片段,确定至少一帧第二空白音频帧,并将所述至少一帧第二空白音频帧作为所述候选音频片段的至少一帧未来音频帧。
这样,在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,针对多个候选音频片段中的第一个音频片段和最后一个音频片段,引入空白音频帧,分为作为第一个音频片段的至少一帧历史音频帧和最后一个音频片段的至少一帧未来音频帧,使得流式语音识别神经网络的训练过程中的数据符合实际语音输出数据的情况,保证流式语音识别神经网络训练过程的准确性和有效性。
一种可选的实施方式中,所述将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果,包括:
针对每个所述样本音频片段,将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列;
将所述第一样本特征序列输入至所述流式语音识别神经网络中的特征编码层,得到编码后的第二样本特征序列;
将所述第二样本特征序列,输入至所述流式语音识别神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果。
这样,通过流式语音识别神经网络中的各个层的处理,可以得到样本音频片段的预测片段识别结果,以在后续基于预测片段识别结果对流式语音识别神经网络的网络参数进行调整。
一种可选的实施方式中,所述将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列,包括:
将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,分别提取所述至少一帧历史音频帧的一条历史样本特征向量,以及所述多帧当前音频帧的当前样本特征序列和所述至少一帧未来音频帧的未来样本特征序列;
基于所述历史样本特征向量、所述当前样本特征序列和所述未来样本特征序列,得到所述样本音频片段的初始样本特征序列;
对所述初始样本特征序列进行卷积处理,得到所述特征卷积层输出的第一样本特征序列。
这样,通过卷积特征层的处理,将样本音频片段转换为第一样本特征序列,使得第一样本特征序列包含历史音频帧、当前音频帧和未来音频帧的信息,有效提高流式语音识别神经网络在训练过程中的感受野。
一种可选的实施方式中,所述将所述第一样本特征序列输入至所述神经网络中的特征编码层,得到编码后的第二样本特征序列,包括:
将所述样本音频片段作为当前音频片段,获取所述当前音频片段之前的至少一段在先音频片段的在先特征向量;
基于所述第一样本特征序列,确定针对所述当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,所述第一键特征序列包括第一历史键特征、当前键特征和未来键特征,所述第一值特征序列包括第一历史值特征、当前值特征和未来值特征,所述第一查询特征序列包括当前查询特征向量和未来查询特征向量;
基于所述在先特征向量,确定针对所述当前音频片段的第二历史键特征和第二历史值特征;
基于所述第二历史键特征和第二历史值特征,以及所述第一历史键特征、所述当前键特征、所述未来键特征、所述第一历史值特征、所述当前值特征、所述未来值特征、所述当前查询特征向量和所述未来查询特征向量,确定对所述第一样本特征序列进行编码后得到的第二样本特征序列。
这样,通过特征编码层的处理,得到当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,再结合第二历史键特征和第二历史值特征,得到对第一样本特征序列进行编码后得到的第二样本特征序列,有效增加第二样本特征序列的丰富性。
一种可选的实施方式中,所述方法还包括:
在对所述第一样本特征序列进行编码的过程中,输出所述当前音频片段的当前特征序列,以供所述当前音频片段之后的在后音频片段在编码过程中,能够根据获取的所述当前特征序列确定所述在后音频片段之前的至少一段在先音频片段的在先特征向量。
这样,可以对当前音频片段的当前特征序列进行存储,以便当前音频片段之后的在后音频片段在编码过程中可以获取在后音频片段之前的至少一段在先音频片段的在先特征向量。
一种可选的实施方式中,所述方法还包括:
在所述当前音频片段为所述多个样本音频片段中第一个音频片段的情况下,基于所述当前音频片段的当前特征序列,确定所述当前特征序列对应的当前特征向量;
将所述当前特征向量作为所述当前音频片段之前的至少一段在先音频片段的在先特征向量。
这样,在当前音频片段为多个样本音频片段中第一个音频片段的情况下,将当前特征序列对应的当前特征向量作为在先特征向量,提升流式语音识别神经网络训练过程的灵活性和准确性。
一种可选的实施方式中,所述将所述第二样本特征序列,输入至所述神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果,包括:
通过所述神经网络的特征解码层,对所述第二样本特征序列进行解码处理,得到所述样本音频片段的多个候选识别结果,所述候选识别结果包括空白标签和文字标签;
将空白标签从所述多个候选识别结果中删除,得到删除处理后的多个候选识别结果;
针对删除处理后的多个候选识别结果,基于各个文字标签的文字内容,对删除处理后的多个候选识别结果进行去重处理,得到去重处理后的多个候选识别结果;
针对去重处理后的多个候选识别结果进行组合排列,得到所述样本音频片段的预测片段识别结果。
这样,针对多个候选识别结果进行删除处理和去重处理,再进行组合排列,保障得到的预测片段识别结果的有效性和准确度。
本公开实施例提供了一种语音识别方法,所述方法包括:
接收实时输出的当前语音片段,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧;
将所述当前语音片段输入至根据上述的神经网络训练方法训练得到的、用于进行实时语音识别的流式语音识别模型中,得到所述当前语音片段的语音识别结果。
这样,可以使用训练得到的流式语音识别模型对实时输出的当前语音片段进行语音识别,从而得到当前语音片段的语音识别结果,有助于快速得到语音识别结果,识别准确率高,识别速度快,识别效果好。
本公开实施例还提供一种神经网络训练装置,所述装置包括:
样本获取模块,用于获取样本音频数据以及所述样本音频数据的实际音频识别结果;
片段确定模块,用于从所述样本音频数据中确定多个样本音频片段,以及从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧;
预测结果确定模块,用于将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果;
模型确定模块,用于基于得到的多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果,对所述流式语音识别神经网络的网络参数进行调整,直至所述流式语音识别神经网络满足训练截止条件,得到用于进行实时语音识别的流式语音识别模型。
一种可选的实施方式中,所述片段确定模块在用于从所述样本音频数据中确定多个样本音频片段时,具体用于:
使用预设采样时间窗,按照预设采样位移,对所述样本音频数据进行数据采样,得到多个采样音频帧,所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度;
对所述多个采样音频帧进行切分处理,得到多个样本音频片段。
一种可选的实施方式中,所述片段确定模块在用于对所述多个采样音频帧进行切分处理,得到多个样本音频片段时,具体用于:
将通过所述预设采样时间窗连续采样预设次数得到的音频帧集合作为一个候选音频片段,得到多个候选音频片段,其中,所述候选音频片段中连续的多帧采样音频帧作为对应的多帧当前音频帧;
针对每个候选音频片段,从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,所述至少一帧历史音频帧和所述至少一帧未来音频帧分别与所述候选音频片段相邻;
将所述至少一帧历史音频帧、所述候选音频片段的多个当前音频帧和所述至少一帧未来音频帧进行拼接,得到对应的样本音频片段。
一种可选的实施方式中,所述片段确定模块在用于从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧时,具体用于:
在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,若所述候选音频片段为所述多个候选音频片段中的第一个音频片段,确定至少一帧第一空白音频帧,并将所述至少一帧第一空白音频帧作为所述候选音频片段的至少一帧历史音频帧;
若所述候选音频片段为所述多个候选音频片段中的最后一个音频片段,确定至少一帧第二空白音频帧,并将所述至少一帧第二空白音频帧作为所述候选音频片段的至少一帧未来音频帧。
一种可选的实施方式中,所述预测结果确定模块具体用于:
针对每个所述样本音频片段,将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列;
将所述第一样本特征序列输入至所述流式语音识别神经网络中的特征编码层,得到编码后的第二样本特征序列;
将所述第二样本特征序列,输入至所述流式语音识别神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果。
一种可选的实施方式中,所述预测结果确定模块在用于将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列时,具体用于:
将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,分别提取所述至少一帧历史音频帧的一条历史样本特征向量,以及所述多帧当前音频帧的当前样本特征序列和所述至少一帧未来音频帧的未来样本特征序列;
基于所述历史样本特征向量、所述当前样本特征序列和所述未来样本特征序列,得到所述样本音频片段的初始样本特征序列;
对所述初始样本特征序列进行卷积处理,得到所述特征卷积层输出的第一样本特征序列。
一种可选的实施方式中,所述预测结果确定模块在用于将所述第一样本特征序列输入至所述神经网络中的特征编码层,得到编码后的第二样本特征序列时,具体用于:
将所述样本音频片段作为当前音频片段,获取所述当前音频片段之前的至少一段在先音频片段的在先特征向量;
基于所述第一样本特征序列,确定针对所述当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,所述第一键特征序列包括第一历史键特征、当前键特征和未来键特征,所述第一值特征序列包括第一历史值特征、当前值特征和未来值特征,所述第一查询特征序列包括当前查询特征向量和未来查询特征向量;
基于所述在先特征向量,确定针对所述当前音频片段的第二历史键特征和第二历史值特征;
基于所述第二历史键特征和第二历史值特征,以及所述第一历史键特征、所述当前键特征、所述未来键特征、所述第一历史值特征、所述当前值特征、所述未来值特征、所述当前查询特征向量和所述未来查询特征向量,确定对所述第一样本特征序列进行编码后得到的第二样本特征序列。
一种可选的实施方式中,所述预测结果确定模块还用于:
在对所述第一样本特征序列进行编码的过程中,输出所述当前音频片段的当前特征序列,以供所述当前音频片段之后的在后音频片段在编码过程中,能够根据获取的所述当前特征序列确定所述在后音频片段之前的至少一段在先音频片段的在先特征向量。
一种可选的实施方式中,所述预测结果确定模块还用于:
在所述当前音频片段为所述多个样本音频片段中第一个音频片段的情况下,基于所述当前音频片段的当前特征序列,确定所述当前特征序列对应的当前特征向量;
将所述当前特征向量作为所述当前音频片段之前的至少一段在先音频片段的在先特征向量。
一种可选的实施方式中,所述预测结果确定模块在用于将所述第二样本特征序列,输入至所述神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果时,具体用于:
通过所述神经网络的特征解码层,对所述第二样本特征序列进行解码处理,得到所述样本音频片段的多个候选识别结果,所述候选识别结果包括空白标签和文字标签;
将空白标签从所述多个候选识别结果中删除,得到删除处理后的多个候选识别结果;
针对删除处理后的多个候选识别结果,基于各个文字标签的文字内容,对删除处理后的多个候选识别结果进行去重处理,得到去重处理后的多个候选识别结果;
针对去重处理后的多个候选识别结果进行组合排列,得到所述样本音频片段的预测片段识别结果。
本公开实施例还提供一种语音识别装置,所述装置包括:
数据获取模块,用于接收实时输出的当前语音片段,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧;
语音识别模块,用于将所述当前语音片段输入至根据上述的神经网络训练装置训练得到的、用于进行实时语音识别的流式语音识别模型中,得到所述当前语音片段的语音识别结果。
本公开实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述神经网络训练方法或者语音识别方法的步骤。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述神经网络训练方法或者语音识别方法的步骤。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开的技术方案。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种神经网络训练方法的流程图;
图2示出了本公开实施例所提供的确定采样音频帧的示意图;
图3示出了本公开实施例所提供的流式语音识别神经网络的结构示意图;
图4示出了本公开实施例所提供的确定第一样本特征序列的示意图;
图5示出了本公开实施例所提供的确定第二样本特征序列的示意图;
图6示出了本公开实施例所提供的一种语音识别方法的流程图;
图7示出了本公开实施例所提供的一种神经网络训练装置的示意图;
图8示出了本公开实施例所提供的一种语音识别装置的示意图;
图9示出了本公开实施例所提供的一种电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
经研究发现,在需要用到语音识别的场景中,人们大多希望等待识别结果的时间短。由于音频数据的长度与识别的时间相关,音频数据长,会导致计算量大,识别速度慢,产生时间延迟,这就需要消耗大量时间等待识别结果。因此,流式ASR在大量场景中被广泛应用,这要求在接收到发言者说完一个字后,就尽快识别出说话内容,但此时可用于识别的信息少,语音识别效果不佳。
基于上述研究,本公开提供了一种神经网络训练方法和语音识别方法,通过在当前音频帧的基础上引入历史音频帧和未来音频帧,使样本音频片段中包含的音频帧数量增加,可以提高训练数据包含的样本特征向量,大大增加通过训练得到的流式语音识别模型的鲁棒性,进而可以使用训练得到的流式语音识别模型对实时输出的当前语音片段进行语音识别,识别准确率高,识别速度快,识别效果好。
针对以上方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本公开针对上述问题所提出的解决方案,都应该是发明人在本公开过程中对本公开做出的贡献。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种神经网络训练方法进行详细介绍,本公开实施例所提供的神经网络训练方法的执行主体可以是神经网络训练装置,例如,神经网络训练方法可以由终端设备或服务器或其它处理设备执行。在一些可能的实现方式中,该神经网络训练方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
下面对本公开实施例提供的一种神经网络训练方法加以说明。
请参阅图1,图1为本公开实施例提供的一种神经网络训练方法的流程图。如图1中所示,本公开实施例提供的神经网络训练方法包括:
S101:获取样本音频数据以及所述样本音频数据的实际音频识别结果。
在需要进行神经网络训练的时候,首先需要准备要训练用的样本音频数据,并且需要确定所述样本音频数据所对应的实际音频识别结果;
这里,所述实际音频识别结果包括针对所述样本音频数据进行识别得到的文本信息,所述文本信息中包括所述样本音频数据记录的文字。
可选地,可以根据训练需求,在现实场景中设置录音机、麦克风等录音设备,通过录音设备采集样本音频数据,还可以是设置录像机等拍摄设备,拍摄得到包括说话过程的视频,再从视频中将音频信号提取出来,作为样本音频数据,也可以是从互联网上的音频数据库中获取样本音频数据,在此并不做任何限定。
S102:从所述样本音频数据中确定多个样本音频片段,以及从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧。
在实际进行语音识别时,大多是流式语音识别的场景,为了能够训练出满足流式语音识别场景的训练需求,可以从所述样本音频数据中确定多个样本音频片段,相应的,需要从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果。
这里,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧,如此可以模拟出实际语音识别时的流式识别的效果,这样,通过增加历史信息和未来信息的方式,增加每个样本音频片段的样本数据量和丰富度,有助于提升语音识别的准确率。
为了确定样本音频片段,一些可能的实施方式中,所述从所述样本音频数据中确定多个样本音频片段,包括:
使用预设采样时间窗,按照预设采样位移,对所述样本音频数据进行数据采样,得到多个采样音频帧,所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度;
对所述多个采样音频帧进行切分处理,得到多个样本音频片段。
该步骤中,可以根据训练需要,获取针对此轮训练的预设采样时间窗和预设采样位移,从而对所述样本音频数据进行数据采样,得到多个采样音频帧。
这里,所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度。
可以理解,因为所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度,所以连续的两个采样音频帧中必然会存在相同的单位音频帧,有助于保障采样音频帧的信息完整度。
然后,可以对所述多个采样音频帧进行切分处理,同时加入历史音频帧和未来音频帧,以得到多个样本音频片段。
示例性的,请同时参阅图2,若所述采样时间窗对应的时间跨度为25ms,所述预设采样位移对应的时间跨度为10ms,则针对样本音频数据来讲,每次采集25ms的采样音频帧,每间隔10ms进行一次采集,如此,0-25ms为采集到的第一个采样音频帧,10-35ms为采集到的第二个采样音频帧,20-45ms为采集到的第三个采样音频帧,30-55ms为采集到的第四个采样音频帧,以此类推,从而实现从所述样本音频数据中采样得到多个采样音频帧。
这样,可以将样本音频数据转换为多个样本音频片段,通过样本音频片段模拟在实际语音识别时接收到的语音片段,提升后续流式语音识别神经网络的训练效果。
相应地,一些可能的实施方式中,所述对所述多个采样音频帧进行切分处理,得到多个样本音频片段,包括:
将通过所述预设采样时间窗连续采样预设次数得到的音频帧集合作为一个候选音频片段,得到多个候选音频片段,其中,所述候选音频片段中连续的多帧采样音频帧作为对应的多帧当前音频帧;
针对每个候选音频片段,从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,所述至少一帧历史音频帧和所述至少一帧未来音频帧分别与所述候选音频片段相邻;
将所述至少一帧历史音频帧、所述候选音频片段的多个当前音频帧和所述至少一帧未来音频帧进行拼接,得到对应的样本音频片段。
该步骤中,在获取到多个采样音频帧的情况下,根据预设次数,确定通过所述预设采样时间窗连续采样预设次数得到的音频帧集合,将所述音频帧集合作为一个候选音频片段,从而得到多个候选音频片段。
示例性的,承接上述实例,若预设次数为4,将第一至四个采样音频帧进行帧堆叠处理,得到第一个音频帧集合,将第二至五个采样音频帧进行帧堆叠处理,得到第二个音频帧集合,以此类推,将得到的每个音频帧集合作为一个候选音频片段,从而得到多个候选音频片段。
这样,通过确定出与每个候选音频片段对应的历史音频帧和未来音频帧,拼接得到样本音频片段,增加样本音频片段的丰富性,提高训练数据包含的样本特征向量,提高流式语音识别神经网络对于每个样本音频片段的感受野,有效增强对于上下文的识别效果。
然后,针对每个候选音频片段,从所述多帧采样音频帧中,可以按照预设历史音频帧数量,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,同时可以根据针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧。
这里,所述至少一帧历史音频帧和所述至少一帧未来音频帧分别与所述候选音频片段相邻,有效保证至少一帧历史音频帧和至少一帧未来音频帧与所述候选音频片段的关联性,从而增强对于上下文的识别效果。
其中,根据每轮训练的训练需求,可以生成与此轮训练匹配的动态延迟时间。
优选地,每轮训练对应的动态延迟时间可以不同,有助于提升训练得到的流式语音识别模型的鲁棒性。
示例性的,第一轮训练对应的动态延迟时间为320ms,第二轮训练对应的动态延迟时间为640ms。
其中,在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,针对多个候选音频片段中的第一个音频片段而言,其之前不存在历史音频帧,针对多个候选音频片段中的最后一个音频片段而言,其之后不存在未来音频帧,因此,针对多个候选音频片段中的第一个音频片段和最后一个音频片段,需要进行一定的设置。
因此,一些可能的实施方式中,在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,若所述候选音频片段为所述多个候选音频片段中的第一个音频片段,确定至少一帧第一空白音频帧,并将所述至少一帧第一空白音频帧作为所述候选音频片段的至少一帧历史音频帧;若所述候选音频片段为所述多个候选音频片段中的最后一个音频片段,确定至少一帧第二空白音频帧,并将所述至少一帧第二空白音频帧作为所述候选音频片段的至少一帧未来音频帧。
这样,在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,针对多个候选音频片段中的第一个音频片段和最后一个音频片段,引入空白音频帧,分为作为第一个音频片段的至少一帧历史音频帧和最后一个音频片段的至少一帧未来音频帧,使得流式语音识别神经网络的训练过程中的数据符合实际语音输出数据的情况,保证流式语音识别神经网络训练过程的准确性和有效性。
接着,将所述至少一帧历史音频帧、所述候选音频片段的多个当前音频帧和所述至少一帧未来音频帧进行拼接,得到对应的样本音频片段。
S103:将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果。
该步骤中,在得到多个所述样本音频片段后,可以将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,通过所述流式语音识别神经网络的处理,可以得到每个所述样本音频片段的预测片段识别结果。
具体的,一些可能的实施方式中,所述将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果,包括:
针对每个所述样本音频片段,将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列;
将所述第一样本特征序列输入至所述流式语音识别神经网络中的特征编码层,得到编码后的第二样本特征序列;
将所述第二样本特征序列,输入至所述流式语音识别神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果。
这里,可以同时参阅图3,图3为本公开实施例提供的流式语音识别神经网络的结构示意图,如图3中所示,流式语音识别网络可以包括特征卷积层、特征编码层进而特征解码层,所述特征卷积层用于将每个所述样本音频片段进行卷积后得到所述样本音频片段的第一样本特征序列,所述特征编码层用于将所述第一样本特征序列进行编码后得到第二样本特征序列,所述特征解码层用于将所述第二样本特征序列进行解码后得到所述样本音频片段的预测片段识别结果。
这样,通过流式语音识别神经网络中的各个层的处理,可以得到样本音频片段的预测片段识别结果,以在后续基于预测片段识别结果对流式语音识别神经网络的网络参数进行调整。
具体的,在需要对样本音频片段进行处理时,在一些可能的实施方式中,所述将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列,包括:
将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,分别提取所述至少一帧历史音频帧的一条历史样本特征向量,以及所述多帧当前音频帧的当前样本特征序列和所述至少一帧未来音频帧的未来样本特征序列;
基于所述历史样本特征向量、所述当前样本特征序列和所述未来样本特征序列,得到所述样本音频片段的初始样本特征序列;
对所述初始样本特征序列进行卷积处理,得到所述特征卷积层输出的第一样本特征序列。
这里,为了减少计算量,提升训练速度,可以将所述至少一帧历史音频帧进行压缩处理,得到压缩处理后的一条历史样本特征向量。
示例性的,请同时参阅图4,图4为本公开实施例提供的确定第一样本特征序列的示意图,这里,所述特征卷积层包括两个VGG层,两个VGG层串行设置,每个VGG层由两个3×3卷积层、一个激活函数层和一个池化层组成,在先的VGG层有32个通道,在后的VGG层有64个通道,每个VGG层使用2×2最大池,步长为2,可以从样本音频片段中提取出特征向量,进而将特征向量从低维度向高维度映射,以得到第一样本特征序列。
这样,通过卷积特征层的处理,将样本音频片段转换为第一样本特征序列,使得第一样本特征序列包含历史音频帧、当前音频帧和未来音频帧的信息,有效提高流式语音识别神经网络在训练过程中的感受野。
一些可能的实施方式中,所述将所述第一样本特征序列输入至所述神经网络中的特征编码层,得到编码后的第二样本特征序列,包括:
将所述样本音频片段作为当前音频片段,获取所述当前音频片段之前的至少一段在先音频片段的在先特征向量;
基于所述第一样本特征序列,确定针对所述当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,所述第一键特征序列包括第一历史键特征、当前键特征和未来键特征,所述第一值特征序列包括第一历史值特征、当前值特征和未来值特征,所述第一查询特征序列包括当前查询特征向量和未来查询特征向量;
基于所述在先特征向量,确定针对所述当前音频片段的第二历史键特征和第二历史值特征;
基于所述第二历史键特征和第二历史值特征,以及所述第一历史键特征、所述当前键特征、所述未来键特征、所述第一历史值特征、所述当前值特征、所述未来值特征、所述当前查询特征向量和所述未来查询特征向量,确定对所述第一样本特征序列进行编码后得到的第二样本特征序列。
其中,所述当前音频片段的在先音频片段为所述当前音频片段之前的、与所述当前音频片段不相邻的音频片段。
示例性的,所述当前音频片段为10s-12s,则所述在先音频片段为0-2s。
可选地,所述特征编码层可以由12个transformer层构成,每个transformer层有8个多头的SAN,transformer层维度为768,FFN维度为2048。
这里,请同时参阅图5,图5为本公开实施例提供的确定第二样本特征序列的示意图,这里以一个transformer层的处理过程为例进行说明,各个transformer层的处理过程相同,如图5中所示,可以确定第一样本特征序列包括的指示至少一帧未来音频帧的特征向量M、指示当前音频帧的特征向量C、指示至少一帧未来音频帧的特征向量R,同时可以将第一样本特征序列进行平均池化处理,得到当前音频片段的当前特征序列S,此外,还可以确定当前音频片段对应的在先特征向量L(图中未示),进而得到基于所述第一样本特征序列,确定针对所述当前音频片段的第一键特征序列K、第一值特征序列V和第一查询特征序列Q,所述第一键特征序列K包括第一历史键特征KM、当前键特征KC和未来键特征KR,所述第一值特征序列V包括第一历史值特征VM、当前值特征VC和未来值特征VR,所述第一查询特征序列Q包括当前查询特征向量QC和未来查询特征向量QR,基于在先特征向量L,确定针对所述当前音频片段的第二历史键特征KL和第二历史值特征VL,基于第二历史键特征KL和第二历史值特征VL、第一历史键特征KM、当前键特征KC、未来键特征KR、第一历史值特征VM、当前值特征VC、未来值特征VR、当前查询特征向量QC和未来查询特征向量QR,确定对第一样本特征序列进行编码后得到的第二样本特征序列。
其中,所述第一键特征序列的计算公式如下公式(1)所示:
所述第一值特征序列的计算公式如下公式(2)所示:
所述FFN的计算公式如下公式(3)所示:
所述Attention的计算公式如下公式(4)、(5)、(6)所示:
其中,为应用于其余transformer层和FFN的指示至少一帧未来音频帧的特征向量,Wq为可学习矩阵,为处理后的指示至少一帧未来音频帧的特征向量,为第一键特征序列,为第一值特征序列,为指示至少一帧未来音频帧的特征向量。
所述transformer层的输出序列的计算公式如下公式(7)、(8)、(9)所示:
其中,为待传输到下一transformer层的候选特征序列,为应用于其余transformer层和FFN的指示当前音频帧的特征向量,为应用于其余transformer层和FFN的指示至少一帧未来音频帧的特征向量。
其中,为传输到下一transformer层的特征序列,为待传输到下一transformer层的候选特征序列,为应用于其余transformer层和FFN的指示当前音频帧的特征向量,为应用于其余transformer层和FFN的指示至少一帧未来音频帧的特征向量。
这样,通过特征编码层的处理,得到当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,再结合第二历史键特征和第二历史值特征,得到对第一样本特征序列进行编码后得到的第二样本特征序列,有效增加第二样本特征序列的丰富性。
一些可能的实施方式中,所述方法还包括:
在对所述第一样本特征序列进行编码的过程中,输出所述当前音频片段的当前特征序列,以供所述当前音频片段之后的在后音频片段在编码过程中,能够根据获取的所述当前特征序列确定所述在后音频片段之前的至少一段在先音频片段的在先特征向量。
这里,可以同时参阅图5,图5中的S为当前音频片段的当前特征序列,可以将基于S得到的QS输出并存储,以作为所述当前特征序列确定所述在后音频片段之前的至少一段在先音频片段的在先特征向量。
这样,可以对当前音频片段的当前特征序列进行存储,以便当前音频片段之后的在后音频片段在编码过程中可以获取在后音频片段之前的至少一段在先音频片段的在先特征向量。
其中,针对所述多个样本音频片段中的第一个音频片段而言,起之前不存在在先音频片段,因此可以对第一个音频片段对应的在线特征向量进行一定的设置。
相应的,一些可能的实施方式中,所述方法还包括:
在所述当前音频片段为所述多个样本音频片段中第一个音频片段的情况下,基于所述当前音频片段的当前特征序列,确定所述当前特征序列对应的当前特征向量;
将所述当前特征向量作为所述当前音频片段之前的至少一段在先音频片段的在先特征向量。
这样,在当前音频片段为多个样本音频片段中第一个音频片段的情况下,将当前特征序列对应的当前特征向量作为在先特征向量,提升流式语音识别神经网络训练过程的灵活性和准确性。
一些可能的实施方式中,所述将所述第二样本特征序列,输入至所述神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果,包括:
通过所述神经网络的特征解码层,对所述第二样本特征序列进行解码处理,得到所述样本音频片段的多个候选识别结果,所述候选识别结果包括空白标签和文字标签;
将空白标签从所述多个候选识别结果中删除,得到删除处理后的多个候选识别结果;
针对删除处理后的多个候选识别结果,基于各个文字标签的文字内容,对删除处理后的多个候选识别结果进行去重处理,得到去重处理后的多个候选识别结果;
针对去重处理后的多个候选识别结果进行组合排列,得到所述样本音频片段的预测片段识别结果。
可选地,在对去重处理后的多个候选识别结果进行组合排列时,可以得到可行的多种排列方式对应的多个序列,为了提升预测片段识别结果的准确率,可以对多个序列进行概率优化,以使正确的序列概率最高。
这里,若得到多个序列,可以分别对每个序列进行概率优化,也可以将多个序列合并为一个综合序列后,对该综合序列进行概率优化,在此并不做任何限定。
可选地,可以通过反向传播的方式进行概率优化。示例性的,若序列概率是0.1,优化概率目标是1,此时序列概率与优化概率目标之前存在0.9的差距,这代表此时损失比较大,因而需要是让序列概率沿着损失降低的方向去优化,在损失降低损后,就可以更大概率地筛选出正确的序列。
其中,可以通过CYC损失优化序列,示例性的,有多个候选识别结果L,CTC中的候选识别结果可以表示为L’=L∪{blank},设π是一个可行的解序列,是单元k在t时刻的输出概率,则序列概率的计算公式如下公式(10)所示:
其中,p(π|X)为各个序列的概率,T为第二样本特征序列的长度。
CTC准则定义B(Y)将长度为T的第二样本特征序列映射到长度为U的正确的序列Y。CTC计算正确的序列的概率如下公式(11)所示:
其中,p(Y|X)为正确的序列的概率,p(π|X)为各个序列的概率。
这样,针对多个候选识别结果进行删除处理和去重处理,再进行组合排列,保障得到的预测片段识别结果的有效性和准确度。
S104:基于得到的多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果,对所述流式语音识别神经网络的网络参数进行调整,直至所述流式语音识别神经网络满足训练截止条件,得到用于进行实时语音识别的流式语音识别模型。
可选地,可以基于预设损失函数,得到多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果之间的损失值,结合所述损失值,在所述损失值小于预设损失值的情况下,确定所述流式语音识别神经网络满足训练截止条件,从而得到用于进行实时语音识别的流式语音识别模型。
可选地,还可以是在所述流式语音识别神经网络的训练次数大于或等于预设训练次数的情况下,确定所述流式语音识别神经网络满足训练截止条件,从而得到用于进行实时语音识别的流式语音识别模型。
本公开实施例提供的神经网络训练方法,通过在当前音频帧的基础上引入历史音频帧和未来音频帧,使样本音频片段中包含的音频帧数量增加,可以增加样本音频片段的丰富性,提高训练数据包含的样本特征向量,提高流式语音识别神经网络对于每个样本音频片段的感受野,增强对于上下文的识别效果,大大增加通过训练得到的流式语音识别模型的鲁棒性,有效提高流式语音识别模型的语音识别准确度和速度。
进一步的,在训练得到所述流式语音识别模型之后,即可使用所述流式语音识别模型进行语音识别,相应的,本公开实施例还提供一种语音识别方法,本公开实施例所提供的语音识别方法的执行主体可以是神经网络训练装置,例如,语音识别方法可以由终端设备或服务器或其它处理设备执行。在一些可能的实现方式中,该语音识别方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
下面对本公开实施例提供的一种语音识别方法加以说明。
请参阅图6,图6为本公开实施例提供的一种语音识别方法的流程图。如图6中所示,本公开实施例提供的语音识别方法包括:
S601:接收实时输出的当前语音片段,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧。
该步骤中,在需要进行语音识别时,可以接收实时输出的当前语音片段。
其中,所述当前语音片段可以是在真实场景下,实时接收发言者的语音输出。
这里,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧。
S602:将所述当前语音片段输入至根据上述的神经网络训练方法训练得到的、用于进行实时语音识别的流式语音识别模型中,得到所述当前语音片段的语音识别结果。
该步骤中,在将所述当前语音片段输入所述流式语音识别模型后,可以得到针对所述当前语音片段的语音识别结果。
这里,针对所述当前语音片段的识别过程与上述训练过程类似,在此不进行赘述。
需要说明的是,与训练过程不同的是,由于所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧,并不包括未来实时音频帧,因此所述流式语音识别模型中的特征卷积层在对所述当前语音片段进行处理时,无需提取未来样本特征序列,在特征编码层对第一样本特征序列进行处理时,无需确定所述未来键特征、所述未来值特征和所述未来查询特征向量。
本公开实施例提供的语音识别方法,可以使用训练得到的流式语音识别模型对实时输出的当前语音片段进行语音识别,从而得到当前语音片段的语音识别结果,有助于快速得到语音识别结果,识别准确率高,识别速度快,识别效果好。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与神经网络训练方法对应的神经网络训练装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述神经网络训练方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
请参阅图7,图7为本公开实施例提供的一种神经网络训练装置的示意图。如图7中所示,本公开实施例提供的神经网络训练装置700包括:
样本获取模块710,用于获取样本音频数据以及所述样本音频数据的实际音频识别结果;
片段确定模块720,用于从所述样本音频数据中确定多个样本音频片段,以及从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧;
预测结果确定模块730,用于将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果;
模型确定模块740,用于基于得到的多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果,对所述流式语音识别神经网络的网络参数进行调整,直至所述流式语音识别神经网络满足训练截止条件,得到用于进行实时语音识别的流式语音识别模型。
一种可选的实施方式中,所述片段确定模块720在用于从所述样本音频数据中确定多个样本音频片段时,具体用于:
使用预设采样时间窗,按照预设采样位移,对所述样本音频数据进行数据采样,得到多个采样音频帧,所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度;
对所述多个采样音频帧进行切分处理,得到多个样本音频片段。
一种可选的实施方式中,所述片段确定模块720在用于对所述多个采样音频帧进行切分处理,得到多个样本音频片段时,具体用于:
将通过所述预设采样时间窗连续采样预设次数得到的音频帧集合作为一个候选音频片段,得到多个候选音频片段,其中,所述候选音频片段中连续的多帧采样音频帧作为对应的多帧当前音频帧;
针对每个候选音频片段,从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,所述至少一帧历史音频帧和所述至少一帧未来音频帧分别与所述候选音频片段相邻;
将所述至少一帧历史音频帧、所述候选音频片段的多个当前音频帧和所述至少一帧未来音频帧进行拼接,得到对应的样本音频片段。
一种可选的实施方式中,所述片段确定模块720在用于从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧时,具体用于:
在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,若所述候选音频片段为所述多个候选音频片段中的第一个音频片段,确定至少一帧第一空白音频帧,并将所述至少一帧第一空白音频帧作为所述候选音频片段的至少一帧历史音频帧;
若所述候选音频片段为所述多个候选音频片段中的最后一个音频片段,确定至少一帧第二空白音频帧,并将所述至少一帧第二空白音频帧作为所述候选音频片段的至少一帧未来音频帧。
一种可选的实施方式中,所述预测结果确定模块730具体用于:
针对每个所述样本音频片段,将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列;
将所述第一样本特征序列输入至所述流式语音识别神经网络中的特征编码层,得到编码后的第二样本特征序列;
将所述第二样本特征序列,输入至所述流式语音识别神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果。
一种可选的实施方式中,所述预测结果确定模块730在用于将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列时,具体用于:
将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,分别提取所述至少一帧历史音频帧的一条历史样本特征向量,以及所述多帧当前音频帧的当前样本特征序列和所述至少一帧未来音频帧的未来样本特征序列;
基于所述历史样本特征向量、所述当前样本特征序列和所述未来样本特征序列,得到所述样本音频片段的初始样本特征序列;
对所述初始样本特征序列进行卷积处理,得到所述特征卷积层输出的第一样本特征序列。
一种可选的实施方式中,所述预测结果确定模块730在用于将所述第一样本特征序列输入至所述神经网络中的特征编码层,得到编码后的第二样本特征序列时,具体用于:
将所述样本音频片段作为当前音频片段,获取所述当前音频片段之前的至少一段在先音频片段的在先特征向量;
基于所述第一样本特征序列,确定针对所述当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,所述第一键特征序列包括第一历史键特征、当前键特征和未来键特征,所述第一值特征序列包括第一历史值特征、当前值特征和未来值特征,所述第一查询特征序列包括当前查询特征向量和未来查询特征向量;
基于所述在先特征向量,确定针对所述当前音频片段的第二历史键特征和第二历史值特征;
基于所述第二历史键特征和第二历史值特征,以及所述第一历史键特征、所述当前键特征、所述未来键特征、所述第一历史值特征、所述当前值特征、所述未来值特征、所述当前查询特征向量和所述未来查询特征向量,确定对所述第一样本特征序列进行编码后得到的第二样本特征序列。
一种可选的实施方式中,所述预测结果确定模块730还用于:
在对所述第一样本特征序列进行编码的过程中,输出所述当前音频片段的当前特征序列,以供所述当前音频片段之后的在后音频片段在编码过程中,能够根据获取的所述当前特征序列确定所述在后音频片段之前的至少一段在先音频片段的在先特征向量。
一种可选的实施方式中,所述预测结果确定模块730还用于:
在所述当前音频片段为所述多个样本音频片段中第一个音频片段的情况下,基于所述当前音频片段的当前特征序列,确定所述当前特征序列对应的当前特征向量;
将所述当前特征向量作为所述当前音频片段之前的至少一段在先音频片段的在先特征向量。
一种可选的实施方式中,所述预测结果确定模块730在用于将所述第二样本特征序列,输入至所述神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果时,具体用于:
通过所述神经网络的特征解码层,对所述第二样本特征序列进行解码处理,得到所述样本音频片段的多个候选识别结果,所述候选识别结果包括空白标签和文字标签;
将空白标签从所述多个候选识别结果中删除,得到删除处理后的多个候选识别结果;
针对删除处理后的多个候选识别结果,基于各个文字标签的文字内容,对删除处理后的多个候选识别结果进行去重处理,得到去重处理后的多个候选识别结果;
针对去重处理后的多个候选识别结果进行组合排列,得到所述样本音频片段的预测片段识别结果。
本公开实施例提供的神经网络训练装置,通过在当前音频帧的基础上引入历史音频帧和未来音频帧,使样本音频片段中包含的音频帧数量增加,可以增加样本音频片段的丰富性,提高训练数据包含的样本特征向量,提高流式语音识别神经网络对于每个样本音频片段的感受野,增强对于上下文的识别效果,大大增加通过训练得到的流式语音识别模型的鲁棒性,有效提高流式语音识别模型的语音识别准确度和速度。
基于同一发明构思,本公开实施例中还提供了与语音识别方法对应的语音识别装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述语音识别方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
请参阅图8,图8为本公开实施例提供的一种语音识别装置的示意图。如图8中所示,本公开实施例提供的语音识别装置800包括:
数据获取模块810,用于接收实时输出的当前语音片段,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧;
语音识别模块820,用于将所述当前语音片段输入至根据上述的神经网络训练装置训练得到的、用于进行实时语音识别的流式语音识别模型中,得到所述当前语音片段的语音识别结果。
本公开实施例提供的语音识别装置,可以使用训练得到的流式语音识别模型对实时输出的当前语音片段进行语音识别,从而得到当前语音片段的语音识别结果,有助于快速得到语音识别结果,识别准确率高,识别速度快,识别效果好。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
对应于上述的神经网络训练方法或者语音识别方法,本公开实施例还提供了一种电子设备900,如图9所示,为本公开实施例提供的电子设备900结构示意图,包括:
处理器910、存储器920、和总线930;存储器920用于存储执行指令,包括内存921和外部存储器922;这里的内存921也称内存储器,用于暂时存放处理器910中的运算数据,以及与硬盘等外部存储器922交换的数据,处理器910通过内存921与外部存储器922进行数据交换,当所述电子设备900运行时,所述处理器910与所述存储器920之间通过总线930通信,使得所述处理器910可以执行上述的神经网络训练方法或者语音识别方法的步骤。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的神经网络训练方法或者语音识别方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例还提供一种计算机程序产品,该计算机程序产品包括有计算机指令,所述计算机指令被处理器执行时可以执行上述方法实施例中所述的神经网络训练方法或者语音识别方法的步骤,具体可参见上述方法实施例,在此不再赘述。
其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (15)
1.一种神经网络训练方法,其特征在于,所述方法包括:
获取样本音频数据以及所述样本音频数据的实际音频识别结果;
从所述样本音频数据中确定多个样本音频片段,以及从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧;
将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果;
基于得到的多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果,对所述流式语音识别神经网络的网络参数进行调整,直至所述流式语音识别神经网络满足训练截止条件,得到用于进行实时语音识别的流式语音识别模型。
2.根据权利要求1所述的方法,其特征在于,所述从所述样本音频数据中确定多个样本音频片段,包括:
使用预设采样时间窗,按照预设采样位移,对所述样本音频数据进行数据采样,得到多个采样音频帧,所述预设采样时间窗对应的时间跨度大于所述预设采样位移对应的时间跨度;
对所述多个采样音频帧进行切分处理,得到多个样本音频片段。
3.根据权利要求2所述的方法,其特征在于,所述对所述多个采样音频帧进行切分处理,得到多个样本音频片段,包括:
将通过所述预设采样时间窗连续采样预设次数得到的音频帧集合作为一个候选音频片段,得到多个候选音频片段,其中,所述候选音频片段中连续的多帧采样音频帧作为对应的多帧当前音频帧;
针对每个候选音频片段,从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,所述至少一帧历史音频帧和所述至少一帧未来音频帧分别与所述候选音频片段相邻;
将所述至少一帧历史音频帧、所述候选音频片段的多个当前音频帧和所述至少一帧未来音频帧进行拼接,得到对应的样本音频片段。
4.根据权利要求3所述的方法,其特征在于,所述从所述多帧采样音频帧中,确定出在所述候选音频片段之前连续的至少一帧历史音频帧,以及按照针对此轮训练生成动态延迟时间,确定出在所述候选音频片段之后连续的、与所述动态延迟时间匹配的至少一帧未来音频帧,包括:
在确定所述候选音频片段的至少一帧历史音频帧和所述至少一帧未来音频帧的过程中,若所述候选音频片段为所述多个候选音频片段中的第一个音频片段,确定至少一帧第一空白音频帧,并将所述至少一帧第一空白音频帧作为所述候选音频片段的至少一帧历史音频帧;
若所述候选音频片段为所述多个候选音频片段中的最后一个音频片段,确定至少一帧第二空白音频帧,并将所述至少一帧第二空白音频帧作为所述候选音频片段的至少一帧未来音频帧。
5.根据权利要求1所述的方法,其特征在于,所述将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果,包括:
针对每个所述样本音频片段,将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列;
将所述第一样本特征序列输入至所述流式语音识别神经网络中的特征编码层,得到编码后的第二样本特征序列;
将所述第二样本特征序列,输入至所述流式语音识别神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果。
6.根据权利要求5所述的方法,其特征在于,所述将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,得到所述特征卷积层输出的、所述样本音频片段的第一样本特征序列,包括:
将所述样本音频片段输入至流式语音识别神经网络中的特征卷积层,分别提取所述至少一帧历史音频帧的一条历史样本特征向量,以及所述多帧当前音频帧的当前样本特征序列和所述至少一帧未来音频帧的未来样本特征序列;
基于所述历史样本特征向量、所述当前样本特征序列和所述未来样本特征序列,得到所述样本音频片段的初始样本特征序列;
对所述初始样本特征序列进行卷积处理,得到所述特征卷积层输出的第一样本特征序列。
7.根据权利要求5所述的方法,其特征在于,所述将所述第一样本特征序列输入至所述神经网络中的特征编码层,得到编码后的第二样本特征序列,包括:
将所述样本音频片段作为当前音频片段,获取所述当前音频片段之前的至少一段在先音频片段的在先特征向量;
基于所述第一样本特征序列,确定针对所述当前音频片段的第一键特征序列、第一值特征序列和第一查询特征序列,所述第一键特征序列包括第一历史键特征、当前键特征和未来键特征,所述第一值特征序列包括第一历史值特征、当前值特征和未来值特征,所述第一查询特征序列包括当前查询特征向量和未来查询特征向量;
基于所述在先特征向量,确定针对所述当前音频片段的第二历史键特征和第二历史值特征;
基于所述第二历史键特征和第二历史值特征,以及所述第一历史键特征、所述当前键特征、所述未来键特征、所述第一历史值特征、所述当前值特征、所述未来值特征、所述当前查询特征向量和所述未来查询特征向量,确定对所述第一样本特征序列进行编码后得到的第二样本特征序列。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
在对所述第一样本特征序列进行编码的过程中,输出所述当前音频片段的当前特征序列,以供所述当前音频片段之后的在后音频片段在编码过程中,能够根据获取的所述当前特征序列确定所述在后音频片段之前的至少一段在先音频片段的在先特征向量。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
在所述当前音频片段为所述多个样本音频片段中第一个音频片段的情况下,基于所述当前音频片段的当前特征序列,确定所述当前特征序列对应的当前特征向量;
将所述当前特征向量作为所述当前音频片段之前的至少一段在先音频片段的在先特征向量。
10.根据权利要求5所述的方法,其特征在于,所述将所述第二样本特征序列,输入至所述神经网络的特征解码层中,得到所述样本音频片段的预测片段识别结果,包括:
通过所述神经网络的特征解码层,对所述第二样本特征序列进行解码处理,得到所述样本音频片段的多个候选识别结果,所述候选识别结果包括空白标签和文字标签;
将空白标签从所述多个候选识别结果中删除,得到删除处理后的多个候选识别结果;
针对删除处理后的多个候选识别结果,基于各个文字标签的文字内容,对删除处理后的多个候选识别结果进行去重处理,得到去重处理后的多个候选识别结果;
针对去重处理后的多个候选识别结果进行组合排列,得到所述样本音频片段的预测片段识别结果。
11.一种语音识别方法,其特征在于,所述方法包括:
接收实时输出的当前语音片段,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧;
将所述当前语音片段输入至根据权利要求1-10中任一项所述的神经网络训练方法训练得到的、用于进行实时语音识别的流式语音识别模型中,得到所述当前语音片段的语音识别结果。
12.一种神经网络训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取样本音频数据以及所述样本音频数据的实际音频识别结果;
片段确定模块,用于从所述样本音频数据中确定多个样本音频片段,以及从所述实际音频识别结果中确定出每个样本音频片段的实际片段识别结果,所述样本音频片段包括多帧当前音频帧,以及在所述多帧当前音频帧之前的至少一帧历史音频帧和在所述多帧当前音频帧之后的至少一帧未来音频帧;
预测结果确定模块,用于将多个所述样本音频片段输入至预先构建好的流式语音识别神经网络中,得到每个所述样本音频片段的预测片段识别结果;
模型确定模块,用于基于得到的多个预测片段识别结果和每个预测片段识别结果对应的实际片段识别结果,对所述流式语音识别神经网络的网络参数进行调整,直至所述流式语音识别神经网络满足训练截止条件,得到用于进行实时语音识别的流式语音识别模型。
13.一种语音识别装置,其特征在于,所述装置包括:
数据获取模块,用于接收实时输出的当前语音片段,所述当前语音片段包括多帧当前实时音频帧,以及在所述多帧当前实时音频帧之前的至少一帧历史实时音频帧;
语音识别模块,用于将所述当前语音片段输入至根据权利要求12所述的神经网络训练装置训练得到的、用于进行实时语音识别的流式语音识别模型中,得到所述当前语音片段的语音识别结果。
14.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至10任一项所述的神经网络训练方法或权利要求11中所述的语音识别方法的步骤。
15.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至10任一项所述的神经网络训练方法或权利要求11中所述的语音识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210952689.2A CN115331660A (zh) | 2022-08-09 | 2022-08-09 | 神经网络训练方法、语音识别方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210952689.2A CN115331660A (zh) | 2022-08-09 | 2022-08-09 | 神经网络训练方法、语音识别方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115331660A true CN115331660A (zh) | 2022-11-11 |
Family
ID=83921104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210952689.2A Pending CN115331660A (zh) | 2022-08-09 | 2022-08-09 | 神经网络训练方法、语音识别方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115331660A (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111775A (zh) * | 2019-05-17 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 一种流式语音识别方法、装置、设备及存储介质 |
WO2020104499A1 (en) * | 2018-11-20 | 2020-05-28 | Deepmind Technologies Limited | Action classification in video clips using attention-based neural networks |
US20210150155A1 (en) * | 2019-11-19 | 2021-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus with natural language processing |
CN113362812A (zh) * | 2021-06-30 | 2021-09-07 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113435594A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 安防检测模型训练方法、装置、设备及存储介质 |
US20210319232A1 (en) * | 2020-04-13 | 2021-10-14 | Adobe Inc | Temporally distributed neural networks for video semantic segmentation |
CN113838468A (zh) * | 2021-09-24 | 2021-12-24 | 中移(杭州)信息技术有限公司 | 流式语音识别方法、终端设备及介质 |
CN114067800A (zh) * | 2021-04-28 | 2022-02-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置和电子设备 |
CN114155832A (zh) * | 2021-11-12 | 2022-03-08 | 深圳市北科瑞声科技股份有限公司 | 基于深度学习的语音识别方法、装置、设备及介质 |
CN114530144A (zh) * | 2022-02-24 | 2022-05-24 | 杭州中天微系统有限公司 | 流式编码和语音识别方法、装置、电子设备以及存储介质 |
CN114743540A (zh) * | 2022-04-14 | 2022-07-12 | 携程旅游信息技术(上海)有限公司 | 语音识别方法、系统、电子设备和存储介质 |
-
2022
- 2022-08-09 CN CN202210952689.2A patent/CN115331660A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020104499A1 (en) * | 2018-11-20 | 2020-05-28 | Deepmind Technologies Limited | Action classification in video clips using attention-based neural networks |
CN110111775A (zh) * | 2019-05-17 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 一种流式语音识别方法、装置、设备及存储介质 |
US20210150155A1 (en) * | 2019-11-19 | 2021-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus with natural language processing |
US20210319232A1 (en) * | 2020-04-13 | 2021-10-14 | Adobe Inc | Temporally distributed neural networks for video semantic segmentation |
CN114067800A (zh) * | 2021-04-28 | 2022-02-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置和电子设备 |
CN113362812A (zh) * | 2021-06-30 | 2021-09-07 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113435594A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 安防检测模型训练方法、装置、设备及存储介质 |
CN113838468A (zh) * | 2021-09-24 | 2021-12-24 | 中移(杭州)信息技术有限公司 | 流式语音识别方法、终端设备及介质 |
CN114155832A (zh) * | 2021-11-12 | 2022-03-08 | 深圳市北科瑞声科技股份有限公司 | 基于深度学习的语音识别方法、装置、设备及介质 |
CN114530144A (zh) * | 2022-02-24 | 2022-05-24 | 杭州中天微系统有限公司 | 流式编码和语音识别方法、装置、电子设备以及存储介质 |
CN114743540A (zh) * | 2022-04-14 | 2022-07-12 | 携程旅游信息技术(上海)有限公司 | 语音识别方法、系统、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
HAONENG LUO: "Simplified Self-Attention for Transformer-Based end-to-end Speech Recognition", 《2021 IEEE SPOKEN LANGUAGE TECHNOLOGY WORKSHOP (SLT)》, 25 March 2021 (2021-03-25) * |
龚文彦: "基于卷积神经网络的连续语音识别算法研究", 《中国优秀硕士学位论文全文数据库》, 14 May 2019 (2019-05-14) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106683680B (zh) | 说话人识别方法及装置、计算机设备及计算机可读介质 | |
CN110718228B (zh) | 语音分离方法、装置、电子设备及计算机可读存储介质 | |
CN108419094B (zh) | 视频处理方法、视频检索方法、装置、介质及服务器 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN112668559B (zh) | 一种多模态信息融合的短视频情感判定装置及方法 | |
CN110472548B (zh) | 一种基于语法分类器的视频连续手语识别方法及系统 | |
CN112804558B (zh) | 视频拆分方法、装置及设备 | |
CN113327603A (zh) | 语音识别方法、装置、电子设备和计算机可读存储介质 | |
CN114627868A (zh) | 意图识别方法、装置、模型及电子设备 | |
CN114328898A (zh) | 文本摘要生成方法及其装置、设备、介质、产品 | |
CN112489651B (zh) | 语音识别方法和电子设备、存储装置 | |
Yang et al. | Approaching optimal embedding in audio steganography with GAN | |
CN115331660A (zh) | 神经网络训练方法、语音识别方法、装置、设备及介质 | |
CN114822509A (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN110569908A (zh) | 说话人计数方法及系统 | |
CN113409792B (zh) | 一种语音识别方法及其相关设备 | |
CN114974219A (zh) | 语音识别方法、语音识别装置、电子设备及存储介质 | |
CN115691510A (zh) | 一种基于随机屏蔽训练的声纹识别方法及计算机设备 | |
CN114913871A (zh) | 目标对象分类方法、系统、电子设备及存储介质 | |
CN115019137A (zh) | 一种多尺度双流注意力视频语言事件预测的方法及装置 | |
CN108630192B (zh) | 一种非汉语语音识别方法、系统及其构造方法 | |
CN111291788A (zh) | 一种基于神经网络的图像描述方法、系统、设备以及介质 | |
CN116796290B (zh) | 一种对话意图识别方法、系统、计算机及存储介质 | |
CN113470693B (zh) | 假唱检测方法、装置、电子设备及计算机可读存储介质 | |
CN116453023B (zh) | 5g富媒体信息的视频摘要系统、方法、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |