CN109545190A - 一种基于关键词的语音识别方法 - Google Patents
一种基于关键词的语音识别方法 Download PDFInfo
- Publication number
- CN109545190A CN109545190A CN201811636670.7A CN201811636670A CN109545190A CN 109545190 A CN109545190 A CN 109545190A CN 201811636670 A CN201811636670 A CN 201811636670A CN 109545190 A CN109545190 A CN 109545190A
- Authority
- CN
- China
- Prior art keywords
- voice
- pinyin
- slice
- keyword
- voice signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012549 training Methods 0.000 claims description 34
- 230000015654 memory Effects 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000003908 quality control method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012372 quality testing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供一种基于关键词的语音识别方法。所述方法包括获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;将所有拼音切片拼接为与所述语音信号对应的拼音序列;根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音,本发明实施例通过对所述语音信号进行切片,并采用LAS模型根据语音切片得到拼音切片,再从拼接得到拼音序列中匹配到对应的关键词拼音,从而能够根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
Description
技术领域
本发明实施例涉及语音分析技术领域,尤其涉及一种基于关键词的语音识别方法。
背景技术
在互联网金融的大环境中,金融企业以金融市场为导向,通过营销方式向客户提供进行金融产品和服务,在满足客户需求的同时实现企业利益,就是所谓的金融营销。对营销质量的衡量标准由于场景的不同而有所差异。在一些特定场景中,客服人员通过语音形式为客户提供服务,客服的服务在某种程度上决定了营销的成功与否。语音在反应客服人员的工作态度的同时,或许也可以挖掘出更多的价值商业价值。在此背景下语音质检技术应运而生。语音质检可以分为很多小类,如关键词搜索、音频比拟、感情辨认等。在特定的营销场景对话过程中对一些关键信息的搜索,很大程度等同于关键词搜索,隶属于语音质检范畴。当前的语音质检主要通过人工抽检、传统的智能质检等,存在一些质检效率低、覆盖不全面、人力资源消耗大、效率低等不足。,随着深度学习的发展,语音识别技术取得了显著的突破,甚至达到了可以比拟人类的水平,因此采用最新的神经网络模型解决语音质检问题也成为了现今最为有效的技术解决方案。
人工质检主要通过投入较多的人力资源,抽检语音信号,针对质检的关注点简单或者来回重复的听取。声学模型,如高斯混合模型-隐马尔科夫模型(Gaussian mixturemodel-Hidden Markov Mode,GMM-HMM)的声学模型,其中GMM用于对语音声学特征的分布进行建模,HMM则用于对语音信号的时序性进行建模。GMM-HMM就是把特征用混合高斯模型去模拟特征,然后把均值和方差输入到HMM的模型里。系统输入为提取的声学特征参数,比如梅尔频率倒谱系数(Mel Frequency Cepstral Coefficents,MFCC)、滤波组件(Filterbank,Fbank)等,输出为条件概率P(O|S),s表示状态,O表示输出的观测序列,就是音素序列。对于,P(Oi|Si),则相当于该状态对应的输出的观测值音素的概率,(因为音素的个数是一定的,所以这就相当于一个分类问题)。在运行完HMM后,语音就自动切分了,每一帧对应的状态就知道了。根据状态的出现概率和转移概率就可以算出每一个可能路径的最终的输出概率,选择概率最大的路径就是要识别的结果。对于转移概率的计算、高斯混合模型的参数通过Baum-Welch算法估计得到;使用Viterbi算法获取最优路径。采用深度神经网络(Deep Neural Network,DNN)进行优化,如DNN-HMM。在该混合系统中,训练深度神经网络来获取HMM状态的后验概率估计。DNN在获取语音特征的时候可以跳过离散余弦变换(Discrete Cosine Transform,DCT)。DNN的输入是本帧与左右各几帧的拼接。模型的第一层是高斯限制玻尔兹曼机(Gaussian Restricted Boltzmann machine,GRBM),后面每层是限制玻尔兹曼机(Restrict Boltzmann Machine,RBM),这样一层一层的训练。然后根据GMM-HMM的对齐,使用后向传播算法对每一帧来做微调fine-tuning,根据先验概率重新估计转移概率,然后再利用转移概率继续训练DNN-HMM。随着基于神经网络的时序类分类(Connectionist Temporal Classification,CTC)、序列到序列的网络(Sequence tosequence,seq2seq)技术的成熟,直接端到端end-to-end的语音识别模型成为大家关注的焦点,与传统的声学模型训练相比,采用CTC损失函数CTC loss或者seq2seq的声学模型训练,不需要预先对数据进行对齐操作,只需要一个输入序列和一个输出序列即可以训练。这样就不需要对数据对齐和一一标注,并且直接输出序列预测的概率,不需要外部的后处理。如今基于深度学习的技术方案已经取得了远超传统模型的识别效果,因此成为了工业应用的最佳选择。
就人工质检而言,覆盖面不全、准确率不高、工作效率低下,在针对大量的语音质检工作而言并不是理想的方案。传统的语音识别的声学模型训练,对于每一帧的数据,需要知道对应的标注label才能进行有效的训练,在训练数据之前需要做语音对齐的预处理。而语音对齐的过程本身就需要进行反复多次的迭代,来确保对齐更准确,这本身就是一个比较耗时的工作。传统的语音识别中声学、发音、语言模型都是单独训练的。而已有的深度学习的一个前提条件是大量的训练数据,同样需要耗费大量的人力进行标注工作。由此可见,现有技术的语音识别方法都过于复杂且耗时。
发明内容
本发明实施例提供一种基于关键词的语音识别方法,用以解决现有技术的语音识别方法过于复杂且耗时的问题。
第一方面,本发明实施例提供了一种基于关键词的语音识别方法,包括:
获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;
采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;
将所有拼音切片拼接为与所述语音信号对应的拼音序列;
根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
第二方面,本发明实施例还提供了一种电子设备,包括:
处理器、存储器、通信接口和通信总线;其中,
所述处理器、存储器、通信接口通过所述通信总线完成相互间的通信;
所述通信接口用于该电子设备的通信设备之间的信息传输;
所述存储器存储可被所述处理器执行的计算机程序指令,所述处理器调用所述程序指令能够执行如下方法:
获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;
采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;
将所有拼音切片拼接为与所述语音信号对应的拼音序列;
根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
第三方面,本发明实施例还提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如下方法:
获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;
采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;
将所有拼音切片拼接为与所述语音信号对应的拼音序列;
根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
本发明实施例提供的基于关键词的语音识别方法,通过对所述语音信号进行切片,并采用LAS模型根据语音切片得到拼音切片,再从拼接得到拼音序列中匹配到对应的关键词拼音,从而能够根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
附图说明
图1为本发明实施例的基于关键词的语音识别方法流程图;
图2为本发明实施例的另一基于关键词的语音识别方法流程图;
图3为本发明实施例的又一基于关键词的语音识别方法流程图;
图4为本发明实施例的语音信号切片策略示意图;
图5为本发明实施例的用于基于关键词的语音识别装置结构示意图;
图6示例了一种电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例的基于关键词的语音识别方法流程图,如图1所示,所述方法包括:
步骤S01、获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片。
本发明实施例采用LAS(Listen,Attend and Spell)模型来进行语音信号的关键词检测,所述LAS模型是基于注意力机制attention的序列到序列seq2seq模型。模型由多个循环神经网络(Recurrent Neural Network,RNN)组成,由于RNN具有短时记忆性,对长的语音信号的处理效果随着语音信号的长度增加而变得糟糕,为了确保RNN可以发挥出其在语音识别领域的优势,需要将获取的语音信号进行时域切割,将每个语音信号按照时间顺序切分为多段语音切片。每个语音切片的长度可以根据实际的需求来进行设定,可以是固定长度的,也可以按照预先设定的规则变动。
在训练过程中,通过对训练语音信号的切分,可以使每个批样本batch包含的训练样本更多,减小不同批样本间的差异,加速训练。
步骤S02、采用预先训练的LAS模型得到与每个语音切片对应的拼音切片。
在通过前期对LAS模型的训练后,本发明实施例所采用的LAS模型的输出为拼音而非汉字,从而可以大大缩小在识别过程中的搜索空间。所述LAS模型可以根据输入的每个语音切片得到对应的拼音切片。
步骤S03、将所有拼音切片拼接为与所述语音信号对应的拼音序列。
根据对所述语音信号的切分方式,将拼音切片进行拼接后得到与所述语音信号对应的拼音序列。
步骤S04、根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
根据预先设定的多个关键词,分别得到每个关键词的关键词拼音,以组成关键词拼音列表。
将通过拼接得到所述拼音序列与所述关键词拼音列表中的每个关键词拼音进行匹配,以找到所述拼音序列中包含的所有关键词拼音。匹配到的关键词拼音对应的关键词即为所述语音信号中包含的关键词。从而可以根据得到的关键词来进行后续的操作。
由于训练数据有限,关键词过长会导致查询效果的降低,最终的误字率可能相对较高,因此预先设定的关键词不宜过长。
本发明实施例通过对所述语音信号进行切片,并采用LAS模型根据语音切片得到拼音切片,再从拼接得到拼音序列中匹配到对应的关键词拼音,从而能够根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
图2为本发明实施例的另一基于关键词的语音识别方法流程图,图4为本发明实施例的语音信号切片策略示意图,如图2所示,所述步骤S01具体为:
步骤S011、获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片,且任意相邻两个语音切片存在预设重叠长度的重叠片段。
由于LAS模型中的RNN的识别初期效果会受自身结构的影响,识别效果不佳,从而导致信息的丢失,拼接得到的拼音序列不准确。为此,在对所述语音信号进行切分的过程中,在相邻两个语音切片间,设置预设重叠长度的重叠片段。
如图4所示,将一个长度为4n秒的语音信号切分为三段语音切片,分别为0~2n秒,n~3n秒,2n~4n秒,其中,相邻两段语音切片间的重叠长度为n秒。当然,所述语音信号的长度以及重叠长度可以根据实际的需求来进行设置。
所述RNN通过对重叠部分的训练过渡适应,再根据重叠长度对得到的拼音切片进行拼接,从而提高了所述拼音序列的准确度。
本发明实施例通过在语音信号的切分策略中增加重叠片段,提高了所述LAS模型得到的拼音序列的准确度,从而能够根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
图3为本发明实施例的又一基于关键词的语音识别方法流程图,如图3所示,所述步骤S02具体为:
步骤S021、采用梅尔频率倒谱系数提取每个语音切片的特征向量。
在对所述语音信号进行切片后,还需要对每段语音切片进行特征提取,从而提取出反映语音切片的关键特征参数形成特征向量,本发明实施例采用梅尔频率倒谱系数。用长度约为10ms的帧去分割所述语音切片的波形,然后从每帧波形中提取出MFCC,共39个数字,从而得到每个语音切片的特征向量。
为了尽可能得得到更加清晰的语音信号以提高所述特征向量的准确度,需要对得到的语音信号先进行去噪处理。具体操作为通过频谱图来发现噪声的频率分布与语音信号具有较大的差异,使用谱减法进行噪声去除。
步骤S022、根据所述语音切片的特征向量采用预先训练的LAS模型得到与每个语音切片对应的拼音切片。
将得到的特征向量作为所述LAS模型的输入,从而得到了每个语音切片的拼音切片。
本发明实施例通过梅尔频率倒谱系数提取每个语音切片的特征向量,再采用LAS模型根据特征向量得到所述语音切片的拼音切片,提高了所述LAS模型得到的拼音序列的准确度,从而能够根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
基于上述实施例,进一步地,所述LAS模型包括编码器(Encoder)和解码器(Decoder),并且在所述解码器的输出层增加条件随机场层(crf layer)。
所述LAS模型包括的Encoder和Decoder,均采用RNN结构,所述Encoder用于Listen,所述Decoder用于Attend和Spell。
由于通话语音信号噪声较大,进一步增加了识别的困难。信号强弱分布的不平衡,使得RNN这样基于逐点(point wise)的预测策略存在一定的困难。
在所述LAS模型的解码器的输出层增加条件随机场层,利用前后文得到更加合理的拼音切片。
本发明实施例通过在所述LAS模型的解码器增加条件随机场层,以使所述LAS模型得到更加准确的拼音切片,提高了所述LAS模型得到的拼音序列的准确度,从而能够根据关键词简单、快速地实现对所述语音信息中关键信息的识别。
基于上述实施例,进一步地,所述编码器包括偏差模块用于对至少一个关键词进行编码。
在模型的识别过程中会遇到一些长尾long tail的关键词,即那些稀有的关键词,此类关键词在实际训练中不太容易找到,因此,训练后的LAS模型也无法准确识别长尾的关键词。为此,本发明实施例在所述编码器中增加一个偏差模块(bias endcoder)对长尾关键词单独进行编码,该编码的结果直接应用在解码器中。在后续语音信号的识别过程中,在语音信号通过编码器得到语音信号编码时,采用注意力机制,直接与长尾的关键词编码进行匹配,若匹配成功则说明在所述语音信号中包含长尾的关键词。
本发明实施例通过增加偏差模块对长尾的关键词进行编码,并在解码器中采用注意力机制与语音信号的编码进行匹配,从而更加准确得到所述语音信号包含的长尾的关键词,进而根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
基于上述实施例,进一步地,所述方法还包括:
获取网络公开数据对所述LAS模型进行预训练;
预训练过后再对自有已标注的语音信号训练,对所述LAS模型继续进行微调。
在对所述LAS模型进行训练的过程中,在已有训练语音信号有限的前提下,为了提高对所述语音信号识别的准确率,同时也提升对所述LAS模型训练的效率,可以先利用网络公开数据对所述LAS模型进行前期的预训练。在所述LAS模型的目标损失函数小于预设的阈值时,再在每个训练的批样本数据中增加部分自身获取的已标注的训练语音信号,即训练语音信号和与之对应的拼音序列,进行后续的训练来进行微调。
本发明实施例通过在前期的训练过程中采用网络公开数据进行训练,在后期训练中加入标注的训练语音信号进行训练,从而在增加训练的可靠性的同时提升效率。
基于上述实施例,进一步地,所述LAS模型采用多头注意力机制、计划采样机制、对标签进行平滑归一化的正则化、在目标损失函数中增加误字率损失。
为了能够提升所述LAS模型的准确率和效率,本发明实施例的还对所述LAS模型进行下列改进:
采用多头注意力机制(Multi-headed Attention),以从不同的角度对相似性能进行度量。
采用计划采样(Scheduled Sampling)机制训练解码器,缓解解码器在训练阶段的一部分输入是标注的准确的拼音序列,而在推断阶段用到的则是上一步产生的输出结果产生的不一致。
采用标签平滑归一化(Label smoothing)的正则化,缓解独热编码(one-hot)导致模型过于依赖预测的标签而造成的过拟合。
在目标损失函数中增加误字率(word-error-rate,WER)来进行训练。
为了提升模型的训练效果,增加泛化能力,进行了一些小的操作,如数据增强、dropout正则化、学习率衰减(learning rate decay)、动态增加批样本数等等。
本发明实施例通过改进所述LAS模型,提升了所述LAS模型对于语音信号识别的准确率和效率。
基于上述实施例,进一步地,所述LAS模型需结合外部文本训练的语言模型。
为了进一步提高所述LAS模型识别的准确率,增加一个外部的语言模型在解码器的推断阶段,所述语言模型利用RNN或者n-gram模型,对网络上爬取的大量文本数据进行训练。
本发明实施例通过增加一个外部语言模型用于解码器的推断阶段,从而提升了所述LAS模型对于语音识别的准确率和效率。
图5为本发明实施例的用于基于关键词的语音识别装置结构示意图,如图5所示,所述装置包括:预处理模块10、识别模块11、拼接模块12和匹配模块13,其中,
所述预处理模块10用于获取语音信号并将所述语音信号按照时间顺序切分为至少一个语音切片;所述识别模块11用于采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;所述拼接模块12用于将所有拼音切片拼接为与所述语音信号对应的拼音序列;所述匹配模块13用于根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。具体地:
所述预处理模块10将获取的语音信号进行时域切割,将每个语音信号按照时间顺序切分为多段语音切片。
在通过前期对LAS模型的训练后,所述识别模块11采用的LAS模型的输出为拼音而非汉字,从而可以大大缩小了在识别过程中的搜索空间。所述识别模块可以根据输入的每个语音切片得到对应的拼音切片。
所述拼接模块12根据对所述语音信号的切分方式,将拼音切片进行拼接后得到与所述语音信号对应的拼音序列。
所述匹配模块13根据预先设定的多个关键词,分别得到每个关键词的关键词拼音,以组成关键词拼音列表。
所述匹配模块13将通过拼接得到所述拼音序列与所述关键词拼音列表中的每个关键词拼音进行匹配,以找到所述拼音序列中包含的所有关键词拼音。匹配到的关键词拼音对应的关键词即为所述语音信号中包含的关键词。从而可以根据得到的关键词来进行后续的操作。
对于预先设定的关键词需要保持一定的长度,需要超过预设的词长度,例如3个字,从而在匹配的过程中不会出现具有相同或者相似拼音的关键词。
本发明实施例提供的装置用于执行上述方法,其功能具体参考上述方法实施例,其具体方法流程在此处不再赘述。
本发明实施例通过预处理模块10对所述语音信号进行切片,并由所述识别模块11采用LAS模型根据语音切片得到拼音切片,再从由所述拼接模块12拼接得到拼音序列中由匹配模块13匹配到对应的关键词拼音,从而能够根据关键词简单、快速地实现对所述语音信号中关键信息的识别。
图6示例了一种电子设备的实体结构示意图,如图6所示,该服务器可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行如下方法:获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;将所有拼音切片拼接为与所述语音信号对应的拼音序列;根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
进一步地,本发明实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;将所有拼音切片拼接为与所述语音信号对应的拼音序列;根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
进一步地,本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述各方法实施例所提供的方法,例如包括:获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;将所有拼音切片拼接为与所述语音信号对应的拼音序列;根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
本领域普通技术人员可以理解:上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的电子设备等实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需求选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于关键词的语音识别方法,其特征在于,包括:
获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;
采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;
将所有拼音切片拼接为与所述语音信号对应的拼音序列;
根据预存的关键词拼音列表,得到所述拼音序列中包含的关键词拼音。
2.根据权利要求1所述的方法,其特征在于,所述获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片;具体为:
获取语音信号,并将所述语音信号按照时间顺序切分为至少一个语音切片,且任意相邻两个语音切片存在预设重叠长度的重叠片段。
3.根据权利要求2所述的方法,其特征在于,所述采用预先训练的LAS模型得到与每个语音切片对应的拼音切片;具体为:
采用梅尔频率倒谱系数提取每个语音切片的特征向量;
根据所述语音切片的特征向量采用预先训练的LAS模型得到与每个语音切片对应的拼音切片。
4.根据权利要求2所述的方法,其特征在于,所述LAS模型包括编码器和解码器,并且在所述解码器的输出层增加条件随机场层。
5.根据权利要求4所述的方法,其特征在于,所述编码器包括偏差模块用于对至少一个关键词进行编码。
6.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取网络公开数据对所述LAS模型进行预训练;
预训练过后再通过自有标注的训练语音信号来对所述LAS模型继续进行微调。
7.根据权利要求6所述的方法,其特征在于,所述LAS模型采用多头注意力机制、计划采样机制、进行标签平滑归一化的正则化、在目标损失函数中增加误字率损失。
8.根据权利要求7所述的方法,其特征在于,所述LAS模型需结合由外部文本训练的语言模型。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述的语音识别方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至8任一项所述的语音识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811636670.7A CN109545190B (zh) | 2018-12-29 | 2018-12-29 | 一种基于关键词的语音识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811636670.7A CN109545190B (zh) | 2018-12-29 | 2018-12-29 | 一种基于关键词的语音识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109545190A true CN109545190A (zh) | 2019-03-29 |
CN109545190B CN109545190B (zh) | 2021-06-29 |
Family
ID=65831105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811636670.7A Active CN109545190B (zh) | 2018-12-29 | 2018-12-29 | 一种基于关键词的语音识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109545190B (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162176A (zh) * | 2019-05-20 | 2019-08-23 | 北京百度网讯科技有限公司 | 语音指令的挖掘方法和装置终端、计算机可读介质 |
CN110600014A (zh) * | 2019-09-19 | 2019-12-20 | 深圳酷派技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
CN110600059A (zh) * | 2019-09-05 | 2019-12-20 | Oppo广东移动通信有限公司 | 声学事件检测方法、装置、电子设备及存储介质 |
CN110634476A (zh) * | 2019-10-09 | 2019-12-31 | 深圳大学 | 一种快速搭建鲁棒性声学模型的方法及系统 |
CN110875035A (zh) * | 2019-10-24 | 2020-03-10 | 广州多益网络股份有限公司 | 新型多任务联合的语音识别训练架构和方法 |
CN110930985A (zh) * | 2019-12-05 | 2020-03-27 | 携程计算机技术(上海)有限公司 | 电话语音识别模型、方法、系统、设备及介质 |
CN111145729A (zh) * | 2019-12-23 | 2020-05-12 | 厦门快商通科技股份有限公司 | 语音识别模型训练方法、系统、移动终端及存储介质 |
CN111192572A (zh) * | 2019-12-31 | 2020-05-22 | 斑马网络技术有限公司 | 语义识别的方法、装置及系统 |
CN111429887A (zh) * | 2020-04-20 | 2020-07-17 | 合肥讯飞数码科技有限公司 | 基于端到端的语音关键词识别方法、装置以及设备 |
CN111489737A (zh) * | 2020-04-13 | 2020-08-04 | 深圳市友杰智新科技有限公司 | 语音命令识别方法、装置、存储介质及计算机设备 |
CN111583911A (zh) * | 2020-04-30 | 2020-08-25 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、装置、终端及介质 |
CN111611349A (zh) * | 2020-05-26 | 2020-09-01 | 深圳壹账通智能科技有限公司 | 语音查询方法、装置、计算机设备及存储介质 |
WO2020215554A1 (zh) * | 2019-04-26 | 2020-10-29 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备及计算机可读存储介质 |
CN112256871A (zh) * | 2020-10-16 | 2021-01-22 | 国网江苏省电力有限公司连云港供电分公司 | 一种物资履约系统及方法 |
CN112435654A (zh) * | 2019-08-08 | 2021-03-02 | 国际商业机器公司 | 通过帧插入对语音数据进行数据增强 |
CN112632319A (zh) * | 2020-12-22 | 2021-04-09 | 天津大学 | 基于迁移学习的提升长尾分布语音总体分类准确度的方法 |
CN112989839A (zh) * | 2019-12-18 | 2021-06-18 | 中国科学院声学研究所 | 一种基于关键词特征嵌入语言模型的意图识别方法及系统 |
CN113035231A (zh) * | 2021-03-18 | 2021-06-25 | 三星(中国)半导体有限公司 | 关键词检测方法及装置 |
CN113192507A (zh) * | 2021-05-13 | 2021-07-30 | 北京泽桥传媒科技股份有限公司 | 一种基于语音识别的资讯检索方法及系统 |
CN113555009A (zh) * | 2020-04-21 | 2021-10-26 | 京东数字科技控股有限公司 | 用于训练模型的方法和装置 |
WO2021217619A1 (zh) * | 2020-04-30 | 2021-11-04 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、终端及介质 |
CN113724696A (zh) * | 2021-08-09 | 2021-11-30 | 广州佰锐网络科技有限公司 | 一种语音关键词的识别方法及系统 |
CN114097025A (zh) * | 2019-06-04 | 2022-02-25 | 谷歌有限责任公司 | 两遍端到端语音识别 |
CN114758665A (zh) * | 2022-06-14 | 2022-07-15 | 深圳比特微电子科技有限公司 | 音频数据增强方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021854A (zh) * | 2006-10-11 | 2007-08-22 | 鲍东山 | 基于内容的音频分析系统 |
CN101197084A (zh) * | 2007-11-06 | 2008-06-11 | 安徽科大讯飞信息科技股份有限公司 | 自动化英语口语评测学习系统 |
CN101510424A (zh) * | 2009-03-12 | 2009-08-19 | 孟智平 | 基于语音基元的语音编码与合成方法及系统 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
CN105723449A (zh) * | 2013-11-06 | 2016-06-29 | 系统翻译国际有限公司 | 基于对录取的语音数据的核心语提取的言语内容分析系统和利用该系统的索引方法及言语内容分析方法 |
CN107924680A (zh) * | 2015-08-17 | 2018-04-17 | 三菱电机株式会社 | 口语理解系统 |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
CN108268444A (zh) * | 2018-01-10 | 2018-07-10 | 南京邮电大学 | 一种基于双向lstm、cnn和crf的中文分词方法 |
CN108417202A (zh) * | 2018-01-19 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
-
2018
- 2018-12-29 CN CN201811636670.7A patent/CN109545190B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021854A (zh) * | 2006-10-11 | 2007-08-22 | 鲍东山 | 基于内容的音频分析系统 |
CN101197084A (zh) * | 2007-11-06 | 2008-06-11 | 安徽科大讯飞信息科技股份有限公司 | 自动化英语口语评测学习系统 |
CN101510424A (zh) * | 2009-03-12 | 2009-08-19 | 孟智平 | 基于语音基元的语音编码与合成方法及系统 |
CN105723449A (zh) * | 2013-11-06 | 2016-06-29 | 系统翻译国际有限公司 | 基于对录取的语音数据的核心语提取的言语内容分析系统和利用该系统的索引方法及言语内容分析方法 |
CN107924680A (zh) * | 2015-08-17 | 2018-04-17 | 三菱电机株式会社 | 口语理解系统 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
CN108268444A (zh) * | 2018-01-10 | 2018-07-10 | 南京邮电大学 | 一种基于双向lstm、cnn和crf的中文分词方法 |
CN108417202A (zh) * | 2018-01-19 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
CHIU, CHUNG-CHENG; SAINATH, TARA N.; WU, YONGHUI; 等: "STATE-OF-THE-ART SPEECH RECOGNITION WITH SEQUENCE-TO-SEQUENCE MODELS", 《2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
WILLIAM CHAN ; NAVDEEP JAITLY ; QUOC LE ; ORIOL VINYALS: "Listen, attend and spell: A neural network for large vocabulary conversational speech recognition", 《2016 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020215554A1 (zh) * | 2019-04-26 | 2020-10-29 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备及计算机可读存储介质 |
CN110162176A (zh) * | 2019-05-20 | 2019-08-23 | 北京百度网讯科技有限公司 | 语音指令的挖掘方法和装置终端、计算机可读介质 |
CN110162176B (zh) * | 2019-05-20 | 2022-04-26 | 北京百度网讯科技有限公司 | 语音指令的挖掘方法和装置终端、计算机可读介质 |
CN114097025A (zh) * | 2019-06-04 | 2022-02-25 | 谷歌有限责任公司 | 两遍端到端语音识别 |
CN112435654B (zh) * | 2019-08-08 | 2024-05-24 | 国际商业机器公司 | 通过帧插入对语音数据进行数据增强 |
CN112435654A (zh) * | 2019-08-08 | 2021-03-02 | 国际商业机器公司 | 通过帧插入对语音数据进行数据增强 |
CN110600059A (zh) * | 2019-09-05 | 2019-12-20 | Oppo广东移动通信有限公司 | 声学事件检测方法、装置、电子设备及存储介质 |
CN110600059B (zh) * | 2019-09-05 | 2022-03-15 | Oppo广东移动通信有限公司 | 声学事件检测方法、装置、电子设备及存储介质 |
CN110600014B (zh) * | 2019-09-19 | 2022-09-02 | 深圳酷派技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
CN110600014A (zh) * | 2019-09-19 | 2019-12-20 | 深圳酷派技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
CN110634476B (zh) * | 2019-10-09 | 2022-06-14 | 深圳大学 | 一种快速搭建鲁棒性声学模型的方法及系统 |
CN110634476A (zh) * | 2019-10-09 | 2019-12-31 | 深圳大学 | 一种快速搭建鲁棒性声学模型的方法及系统 |
CN110875035A (zh) * | 2019-10-24 | 2020-03-10 | 广州多益网络股份有限公司 | 新型多任务联合的语音识别训练架构和方法 |
CN110930985B (zh) * | 2019-12-05 | 2024-02-06 | 携程计算机技术(上海)有限公司 | 电话语音识别模型、方法、系统、设备及介质 |
CN110930985A (zh) * | 2019-12-05 | 2020-03-27 | 携程计算机技术(上海)有限公司 | 电话语音识别模型、方法、系统、设备及介质 |
CN112989839A (zh) * | 2019-12-18 | 2021-06-18 | 中国科学院声学研究所 | 一种基于关键词特征嵌入语言模型的意图识别方法及系统 |
CN111145729B (zh) * | 2019-12-23 | 2022-10-28 | 厦门快商通科技股份有限公司 | 语音识别模型训练方法、系统、移动终端及存储介质 |
CN111145729A (zh) * | 2019-12-23 | 2020-05-12 | 厦门快商通科技股份有限公司 | 语音识别模型训练方法、系统、移动终端及存储介质 |
CN111192572A (zh) * | 2019-12-31 | 2020-05-22 | 斑马网络技术有限公司 | 语义识别的方法、装置及系统 |
CN111489737A (zh) * | 2020-04-13 | 2020-08-04 | 深圳市友杰智新科技有限公司 | 语音命令识别方法、装置、存储介质及计算机设备 |
CN111489737B (zh) * | 2020-04-13 | 2020-11-10 | 深圳市友杰智新科技有限公司 | 语音命令识别方法、装置、存储介质及计算机设备 |
CN111429887A (zh) * | 2020-04-20 | 2020-07-17 | 合肥讯飞数码科技有限公司 | 基于端到端的语音关键词识别方法、装置以及设备 |
CN111429887B (zh) * | 2020-04-20 | 2023-05-30 | 合肥讯飞数码科技有限公司 | 基于端到端的语音关键词识别方法、装置以及设备 |
CN113555009B (zh) * | 2020-04-21 | 2024-10-18 | 京东科技控股股份有限公司 | 用于训练模型的方法和装置 |
CN113555009A (zh) * | 2020-04-21 | 2021-10-26 | 京东数字科技控股有限公司 | 用于训练模型的方法和装置 |
CN111583911B (zh) * | 2020-04-30 | 2023-04-14 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、装置、终端及介质 |
CN111583911A (zh) * | 2020-04-30 | 2020-08-25 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、装置、终端及介质 |
WO2021217619A1 (zh) * | 2020-04-30 | 2021-11-04 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、终端及介质 |
CN111611349A (zh) * | 2020-05-26 | 2020-09-01 | 深圳壹账通智能科技有限公司 | 语音查询方法、装置、计算机设备及存储介质 |
CN112256871A (zh) * | 2020-10-16 | 2021-01-22 | 国网江苏省电力有限公司连云港供电分公司 | 一种物资履约系统及方法 |
CN112256871B (zh) * | 2020-10-16 | 2021-05-07 | 国网江苏省电力有限公司连云港供电分公司 | 一种物资履约系统及方法 |
CN112632319A (zh) * | 2020-12-22 | 2021-04-09 | 天津大学 | 基于迁移学习的提升长尾分布语音总体分类准确度的方法 |
CN112632319B (zh) * | 2020-12-22 | 2023-04-11 | 天津大学 | 基于迁移学习的提升长尾分布语音总体分类准确度的方法 |
CN113035231B (zh) * | 2021-03-18 | 2024-01-09 | 三星(中国)半导体有限公司 | 关键词检测方法及装置 |
CN113035231A (zh) * | 2021-03-18 | 2021-06-25 | 三星(中国)半导体有限公司 | 关键词检测方法及装置 |
CN113192507A (zh) * | 2021-05-13 | 2021-07-30 | 北京泽桥传媒科技股份有限公司 | 一种基于语音识别的资讯检索方法及系统 |
CN113192507B (zh) * | 2021-05-13 | 2022-04-29 | 北京泽桥传媒科技股份有限公司 | 一种基于语音识别的资讯检索方法及系统 |
CN113724696A (zh) * | 2021-08-09 | 2021-11-30 | 广州佰锐网络科技有限公司 | 一种语音关键词的识别方法及系统 |
CN114758665B (zh) * | 2022-06-14 | 2022-09-02 | 深圳比特微电子科技有限公司 | 音频数据增强方法、装置、电子设备及存储介质 |
CN114758665A (zh) * | 2022-06-14 | 2022-07-15 | 深圳比特微电子科技有限公司 | 音频数据增强方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109545190B (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109545190B (zh) | 一种基于关键词的语音识别方法 | |
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN110287283B (zh) | 意图模型训练方法、意图识别方法、装置、设备及介质 | |
CN109599093B (zh) | 智能质检的关键词检测方法、装置、设备及可读存储介质 | |
Collobert et al. | Wav2letter: an end-to-end convnet-based speech recognition system | |
US10417329B2 (en) | Dialogue act estimation with learning model | |
CN109272992B (zh) | 一种口语测评方法、装置及一种生成口语测评模型的装置 | |
CN110223673B (zh) | 语音的处理方法及装置、存储介质、电子设备 | |
CN112233680B (zh) | 说话人角色识别方法、装置、电子设备及存储介质 | |
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
EP1557823B1 (en) | Method of setting posterior probability parameters for a switching state space model | |
CN114023300A (zh) | 一种基于扩散概率模型的中文语音合成方法 | |
CN111951796B (zh) | 语音识别方法及装置、电子设备、存储介质 | |
CN111369974A (zh) | 一种方言发音标注方法、语言识别方法及相关装置 | |
CN112836053A (zh) | 用于工业领域的人机对话情感分析方法及系统 | |
CN113793599B (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
CN113327596B (zh) | 语音识别模型的训练方法、语音识别方法和装置 | |
CN112686041B (zh) | 一种拼音标注方法及装置 | |
CN111785256A (zh) | 声学模型训练方法、装置、电子设备及存储介质 | |
Röpke et al. | Training a Speech-to-Text Model for Dutch on the Corpus Gesproken Nederlands. | |
CN114724547A (zh) | 一种用于口音英语的识别方法及系统 | |
CN111199750B (zh) | 一种发音评测方法、装置、电子设备及存储介质 | |
CN113920987A (zh) | 一种语音识别的方法、装置、设备及存储介质 | |
CN113808573A (zh) | 基于混合域注意力与时序自注意力的方言分类方法及系统 | |
CN113763939A (zh) | 基于端到端模型的混合语音识别系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |