CN113763938A - 语音识别方法、介质、装置和计算设备 - Google Patents
语音识别方法、介质、装置和计算设备 Download PDFInfo
- Publication number
- CN113763938A CN113763938A CN202111258407.0A CN202111258407A CN113763938A CN 113763938 A CN113763938 A CN 113763938A CN 202111258407 A CN202111258407 A CN 202111258407A CN 113763938 A CN113763938 A CN 113763938A
- Authority
- CN
- China
- Prior art keywords
- feature word
- word
- value
- weight
- language model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000005284 excitation Effects 0.000 claims abstract description 110
- 238000012545 processing Methods 0.000 claims description 49
- 230000006870 function Effects 0.000 claims description 43
- 230000008569 process Effects 0.000 claims description 41
- 238000013507 mapping Methods 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 3
- 210000001187 pylorus Anatomy 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本公开的实施方式提供了一种语音识别方法、介质、装置和计算设备。该方法包括:获取待识别语音的各特征词的语言模型概率,语言模型概率用于指示对应的特征词出现的概率;根据各特征词的语言模型概率,获取各特征词的权重激励值,权重激励值用于提高对应的特征词的召回率;根据各特征词的权重激励值对待识别语音解码,得到待识别语音对应的文本。本公开的方案,通过获取各特征词的语言模型概率,并基于语言模型概率来获取各特征词的权重激励值,无需人工配置特征词的权重,提高了语音识别的效果。
Description
技术领域
本公开的实施方式涉及人工智能技术领域,更具体地,本公开的实施方式涉及一种语音识别方法、介质、装置和计算设备。
背景技术
本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
语音识别是对语音信号解码,将语音信号转换为对应的文本的过程。随着人工智能技术的发展,语音识别被广泛应用于会议、采访、演讲等场景中。
在语音识别的过程中,为了提高语音识别的准确率,通常会采用特征词激励机制辅助语音识别。具体的,根据语音信号相关的场景,确定相关的特征词并为各个特征词配置一定的权重。在进行语音识别的过程中,根据语音信号的解码路径中是否包括特征词来对解码路径进行相应的权重激励,从而提高特征词所在的路径的累计概率,进而提高语音识别的准确率。
目前在为语音信号配置特征词的权重时,通常是人工进行配置的,人工配置的特征词的权重往往基于主观认知,导致基于特征词权重激励辅助语音识别的效果不佳。
发明内容
本公开的实施例提供一种语音识别方法、介质、装置和计算设备,以解决由于人工配置特征词的权重基于主观认知,导致语音识别的效果不佳的问题。
在本公开实施方式的第一方面中,提供了一种语音识别方法,包括:
获取待识别语音的各特征词的语言模型概率,所述语言模型概率用于指示对应的特征词出现的概率;
根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,所述权重激励值用于提高对应的特征词的召回率;
根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本。
在本公开的一个实施例中,所述根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,包括:
根据各所述特征词的语言模型概率,获取各所述特征词的初始化权重值;
对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,所述更新处理包括阈值筛选处理和/或步长调整处理。
在本公开的一个实施例中,所述根据各所述特征词的语言模型概率,获取各所述特征词的初始化权重值,包括:
根据预设函数对各所述特征词的语言模型概率处理,得到各所述特征词的函数值;
对各所述特征词的函数值进行范围映射处理,得到各所述特征词的初始化权重值,其中,各所述特征词的初始化权重值位于第一预设范围内。
在本公开的一个实施例中,所述更新处理包括所述阈值筛选处理,所述对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,包括:
在各所述特征词中,确定所述初始化权重值处于第二预设范围内的第一特征词,以及所述初始化权重值处于所述第二预设范围外的第二特征词;
确定所述第一特征词的权重激励值为所述第一特征词的初始化权重值;
确定所述第二特征词的权重激励值为第一预设值。
在本公开的一个实施例中,所述更新处理包括所述步长调整处理,所述对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,包括:
获取各所述特征词的等级;
根据预设步长和各所述特征词的等级,获取各所述特征词的更新数值;
根据各所述特征词的更新数值和所述初始化权重值,获取各所述特征词的权重激励值。
在本公开的一个实施例中,所述根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本,包括:
对所述待识别语音进行识别处理,得到所述待识别语音的各个时间单位对应的至少一个候选字,以及各候选字的声学模型得分;
根据各所述特征词的权重激励值、所述各个时间单位对应的至少一个候选字以及各所述候选字的声学模型得分,得到所述文本。
在本公开的一个实施例中,所述根据各所述特征词的权重激励值、所述各个时间单位对应的至少一个候选字以及各所述候选字的声学模型得分,得到所述文本,包括:
获取时间单位i对应的各候选字的语言模型得分;
根据各所述特征词的权重激励值获取所述时间单位i对应的各候选字的特征词激励值;
根据所述时间单位i对应的各候选字的声学模型得分、语言模型得分和特征词激励值,在所述时间单位i对应的各候选字中确定所述文本的第i个字,i依次为1,2,3,...,n,所述n为所述文本的字数。
在本公开的一个实施例中,所述获取时间单位i对应的各候选字的语言模型得分,包括:
针对任意候选字,根据多个语言模型对所述候选字进行处理,得到所述候选字在各所述语言模型对应的语言模型得分;
根据各所述语言模型的权重,以及所述候选字在各所述语言模型对应的语言模型得分,得到所述候选字的语言模型得分。
在本公开的一个实施例中,所述根据各所述特征词的权重激励值获取所述时间单位i对应的各候选字的特征词激励值,包括:
针对任意候选字,若所述文本中的前i-1个字不包括第三特征词,且所述文本中的前i-1个字与所述候选字连接后包括所述第三特征词,则将所述第三特征词的权重激励值确定为所述候选字的特征词激励值;其中,所述第三特征词为各所述特征词中的任意一个;
否则,确定所述候选字的特征词激励值为第二预设值。
在本公开的一个实施例中,所述文本的第i个字如下:
Wi=argmax(f(W)),
其中,f(W)=log(P(W|X))+α1(log(PLM1(W)))+α2(log(PLM2(W)))+...+Sv;
Wi为所述第i个字,W为所述时间单位i对应的候选字,X为所述待识别语音,P(W|X)为所述候选字W的声学模型得分,PLM(W)为所述W在语言模型下的语言模型得分,α1和α2为对应的语言模型的权重,Sv为所述W的特征词激励值,argmax为最大自变量点集函数,argmax(f(W))表示的是使得f(W)取得最大值所对应的W。
在本公开实施方式的第二方面中,提供了一种语音识别装置,包括:
获取模块,用于获取待识别语音的各特征词的语言模型概率,所述语言模型概率用于指示对应的特征词出现的概率;
处理模块,用于根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,所述权重激励值用于提高对应的特征词的召回率;
识别模块,用于根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本。
在本公开的一个实施例中,所述处理模块具体用于:
根据各所述特征词的语言模型概率,获取各所述特征词的初始化权重值;
对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,所述更新处理包括阈值筛选处理和/或步长调整处理。
在本公开的一个实施例中,所述处理模块具体用于:
根据预设函数对各所述特征词的语言模型概率处理,得到各所述特征词的函数值;
对各所述特征词的函数值进行范围映射处理,得到各所述特征词的初始化权重值,其中,各所述特征词的初始化权重值位于第一预设范围内。
在本公开的一个实施例中,所述更新处理包括所述阈值筛选处理,所述处理模块具体用于:
在各所述特征词中,确定初始化权重值处于第二预设范围内的第一特征词,以及初始化权重值处于所述第二预设范围外的第二特征词;
确定所述第一特征词的权重激励值为所述第一特征词的初始化权重值;
确定所述第二特征词的权重激励值为第一预设值。
在本公开的一个实施例中,所述更新处理包括所述步长调整处理,所述处理模块具体用于:
获取各所述特征词的等级;
根据预设步长和各所述特征词的等级,获取各所述特征词的更新数值;
根据各所述特征词的更新数值和所述初始化权重值,获取各所述特征词的权重激励值。
在本公开的一个实施例中,所述识别模块具体用于:
对所述待识别语音进行识别处理,得到所述待识别语音的各个时间单位对应的至少一个候选字,以及各候选字的声学模型得分;
根据各所述特征词的权重激励值、所述各个时间单位对应的至少一个候选字以及各所述候选字的声学模型得分,得到所述文本。
在本公开的一个实施例中,所述识别模块具体用于:
获取时间单位i对应的各候选字的语言模型得分;
根据各所述特征词的权重激励值获取所述时间单位i对应的各候选字的特征词激励值;
根据所述时间单位i对应的各候选字的声学模型得分、语言模型得分和特征词激励值,在所述时间单位i对应的各候选字中确定所述文本的第i个字,i依次为1,2,3,...,n,所述n为所述文本的字数。
在本公开的一个实施例中,所述识别模块具体用于:
针对任意候选字,根据多个语言模型对所述候选字进行处理,得到所述候选字在各所述语言模型对应的语言模型得分;
根据各所述语言模型的权重,以及所述候选字在各所述语言模型对应的语言模型得分,得到所述候选字的语言模型得分。
在本公开的一个实施例中,所述识别模块具体用于:
针对任意候选字,若所述文本中的前i-1个字不包括第三特征词,且所述文本中的前i-1个字与所述候选字连接后包括所述第三特征词,则将所述第三特征词的权重激励值确定为所述候选字的特征词激励值;其中,所述第三特征词为各所述特征词中的任意一个;
否则,确定所述候选字的特征词激励值为第二预设值。
在本公开的一个实施例中,所述文本的第i个字如下:
Wi=argmax(f(W)),
其中,f(W)=log(P(W|X))+α1(log(PLM1(W)))+α2(log(PLM2(W)))+...+Sv;
Wi为所述第i个字,W为所述时间单位i对应的候选字,X为所述待识别语音,P(W|X)为所述候选字W的声学模型得分,PLM(W)为所述W在语言模型下的语言模型得分,α1和α2为对应的语言模型的权重,Sv为所述W的特征词激励值,argmax为最大自变量点集函数,argmax(f(W))表示的是使得f(W)取得最大值所对应的W。
在本公开实施方式的第三方面中,提供了一种计算设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如第一方面任一项所述的语音识别方法。
在本公开实施方式的第四方面中,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如第一方面任一项所述的语音识别方法。
本公开实施例提供的语音识别方法、介质、装置和计算设备,首先获取待识别语音的各特征词的语言模型概率,然后根据特征词的语言模型概率获取各特征词的权重激励值,并根据特征词的权重激励值对待识别语音解码,得到待识别语音对应的文本。本公开实施例的方案,无需人工进行特征词的权重激励值的配置,而是基于特征词的语言模型概率来获取特征词的权重激励值,配置过程相较于人工配置更加简便,同时由于语言模型概率指示了对应的特征词出现的概率,基于语言模型概率获取的权重激励值更加符合客观情况。在得到权重激励值后,由于权重激励值能够提高特征词的召回率,而特征词又是待识别语音中出现概率较高的词汇,因此能够提高语音识别的准确性。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
图1为本公开实施例提供的应用场景示意图;
图2为本公开实施例提供的语音识别方法的流程示意图;
图3为本公开实施例提供的获取特征词的权重激励值的流程示意图;
图4为本公开实施例提供的待识别语音解码的流程示意图;
图5为本公开实施例提供的解码示意图;
图6为本公开实施例提供的程序产品示意图;
图7为本公开实施例提供的语音识别装置的结构示意图;
图8为本公开实施例提供的计算设备的结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本公开的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本公开的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本公开的实施方式,提出了一种语音识别方法、介质、装置和计算设备。
在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本公开的若干代表性实施方式,详细阐释本公开的原理和精神。
发明概述
自动语音识别(Automatic Speech Recognition,ASR)是一种将语音信号转换成文本的算法技术。在语音识别的过程中,需要用神经网络对声学单元进行建模,将声学信号抽象为声学特征向量,并送至解码网络中,利用语言模型在线矫正解码过程,确定最优解码路径,从而得到待识别语音的文本。
为了提高语音识别的准确性,通常会采用特征词激励的机制辅助解码。特征词是词汇的一种,特征词也可以称为热词。一个待识别语音可能会被配置一组特征词,这些特征词可以是某个领域的专有名词,也可以是姓名、产品名等等。
在进行语音识别之前,可以获取待识别语音的特征词以及各特征词相应的权重。在对待识别语音进行解码的过程中,判断解码路径中是否包含完整的特征词。在解码路径中包含完整特征词时,根据特征词的权重对相应的解码路径进行权重激励,提高特征词识别的准确率,进而提高语音识别的准确性。
本发明人发现,目前的特征词的权重是人工配置的。人工配置的特征词的权重往往基于主观认知,和客观情况有一定的偏差,从而导致语音识别的效果不佳。另一方面,由于各个特征词不同,若人工为各个特征词配置权重,在特征词数量较多时配置过程较为繁琐。
在介绍了本公开的基本原理之后,下面具体介绍本公开的各种非限制性实施方式。
应用场景总览
首先参考图1来描述本公开实施例的一种适用的应用场景。
图1为本公开实施例提供的应用场景示意图,如图1所示,用户11发出的语音为待识别语音。发出待识别语音的用户可以是一个,也可以是多个,即多个用户发出的语音共同构成待识别语音。在图1的示例中,以一个用户11为例进行介绍。
待识别语音可以是演讲、报告、对话等各种可能的形式,待识别语音还可以有相应的领域。以待识别语音为报告为例,待识别语音的领域例如可以包括医学领域、互联网领域、航天领域等各种专业领域,也可以是生活领域。
待识别语音需要经过服务器12进行语音识别处理,得到待识别语音对应的文本。服务器12为执行语音识别方法的执行主体,可选的,执行语音识别方法的执行主体除了可以为服务器以外,还可以为集成了服务器的功能的设备,例如客户端、终端设备等等。在下述实施例中,均以执行主体为服务器为例进行介绍。
在服务器12对待识别语音进行处理时,可以依据待识别语音的领域,为待识别语音配置一定数量的特征词,以辅助服务器12对待识别语音进行语音识别,以提高语音识别的准确率。特征词可以在前端进行输入,例如在图1中,用户可以在客户端13上输入待识别语音的特征词,服务器12在获取到特征词后,结合特征词对待识别语音进行语音识别。在服务器12对待识别语音进行语音识别,得到对应的文本后,可以将该文本进行保存,也可以将该文本在显示器上进行显示。
需要说明的是,图1仅仅为对本公开实施例的一种适用的应用场景的一种举例,并不构成对应用场景的限定。
示例性方法
下面结合图1的应用场景,参考图2来描述根据本公开示例性实施方式的语音识别方法。需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
图2为本公开实施例提供的语音识别方法的流程示意图,如图2所示,该方法可以包括:
S21,获取待识别语音的各特征词的语言模型概率,语言模型概率用于指示对应的特征词出现的概率。
待识别语音为需要进行语音识别的语音,在对待识别语音进行语音识别之前,服务器可以接收该待识别语音的各特征词。其中,特征词可以是根据待识别语音相应的领域确定的,为待识别语音中出现概率较高的词汇。例如,当待识别语音为一个医学报告时,待识别语音的特征词可能包括医学领域的多个专业术语,当待识别语音为一个日常对话时,待识别语音的特征词可能包括常见的生活用语,等等。
在获取待识别语音的各特征词后,可以获取各个特征词的语言模型概率,该语言模型概率用于指示对应的特征词出现的概率。可选的,语言模型概率可以基于统计学的方法来获取。以特征词包括ABC三个字为例,可以基于统计学方法获取字A后面为字B的概率,并获取字AB后面为字C的概率,从而得到特征词ABC出现的概率。
S22,根据各特征词的语言模型概率,获取各特征词的权重激励值,权重激励值用于提高对应的特征词的召回率。
在得到各特征词的语言模型概率后,根据各特征词的语言模型概率,获取各特征词的权重激励值,该权重激励值可以用于后续进行语音识别时对解码路径进行激励。
各特征词的权重激励值可以与语言模型概率呈正相关,表示各特征词出现的概率越大,权重激励值越大。权重激励值可以提高对应的特征词的召回率。
S23,根据各特征词的权重激励值对待识别语音解码,得到待识别语音对应的文本。
在获取各特征词的权重激励值后,可以根据各特征词的权重激励值对待识别语音解码。在待识别语音的每个解码的时间单位上,根据各个解码路径上是否包括特征词,进行不同的权重激励,得到待识别语音对应的文本。
本公开实施例提供的语音识别方法,首先获取待识别语音的各特征词的语言模型概率,然后根据特征词的语言模型概率获取各特征词的权重激励值,并根据特征词的权重激励值对待识别语音解码,得到待识别语音对应的文本。本公开实施例的方案,无需人工进行特征词的权重激励值的配置,而是基于特征词的语言模型概率来获取特征词的权重激励值,配置过程相较于人工配置更加简便,同时由于语言模型概率指示了对应的特征词出现的概率,基于语言模型概率获取的权重激励值更加符合客观情况。在得到权重激励值后,由于权重激励值能够提高特征词的召回率,而特征词又是待识别语音中出现概率较高的词汇,因此能够提高语音识别的准确性。
下面对本公开实施例的方案进行详细介绍。
在获取待识别语音的各特征词后,可以基于统计学的方法获取各特征词的语言模型概率。一种可能的实现方式是,根据N-gram语言模型对特征词进行处理,获取各特征词的语言模型概率。
N-gram语言模型是一种用于描述词、语句的概率分布的统计语言模型,能够衡量某句话或者某个词序列是否符合所处语境下的行文方式。N-gram语言模型的处理方式是将文本里的内容按照字节进行大小为N的滑动窗口操作,形成长度为N的字节片段序列。每个字节片段序列称为gram,然后对所有gram的出现频度进行统计。
N-gram语言模型假设当前第N个词的概率只和前N-1个词相关,整句出现的概率就是各个词出现的概率的乘积,而各个词出现的概率可以直接从语料中统计N个词同时出现的次数得到。
以N-gram语言模型A对特征词的处理为例,设某特征词中包括m个字,这m个字分别为w1、w2、...、wm,N=4,则通过该N-gram语言模型A对该特征词进行处理,得到该特征词的语言模型概率为:
其中,Pv为该特征词的语言模型概率,P(wi|wi-3wi-2wi-1)为wi-3wi-2wi-1后面为字wi的概率。
在获取各特征词的语言模型概率后,需要根据各特征词的语言模型概率获取特征词的权重激励值,下面将结合图3对该过程进行介绍。
图3为本公开实施例提供的获取特征词的权重激励值的流程示意图,如图3所示,包括:
S31,根据各特征词的语言模型概率,获取各特征词的初始化权重值。
本公开实施例中,在获取各特征词的语言模型概率后,首先根据语言模型概率获取各特征词的初始化权重值,然后根据初始化权重值获取对应的权重激励值。
具体的,可以根据预设函数对各特征词的语言模型概率处理,得到各特征词的函数值。预设函数例如可以为对数函数、指数函数、线性函数等等。当预设函数为对数函数时,根据预设函数对各特征词的语言模型概率处理可以为对语言模型概率取对数;当预设函数为指数函数时,根据预设函数对各特征词的语言模型概率处理可以为获取语言模型概率的指数,等等。
本公开实施例中,以预设函数为y=-logx为例进行介绍。则预设函数对语言模型概率的处理,首先将语言模型概率映射到log域,然后将映射到log域的值取反,得到对应的函数值。即,预设函数的处理为如下式(2)示例:
y(Pv)=-logPv, (2)
其中,Pv为特征词的语言模型概率,y(Pv)为特征词的函数值。
由于特征词的语言模型概率差别可能较大,因此特征词的函数值差别也可能较大,因此,在得到特征词的函数值后,对特征词的函数值进行范围映射处理,得到各特征词的初始化权重值。
范围映射处理的目的是使得处理后的各特征词的函数值位于某一范围内,但是范围映射处理并不影响各特征词的函数值的大小关系。即,若有两个特征词的函数值A和B,A大于B,在进行范围映射处理后的A仍然大于范围映射处理后的B。范围映射处理仅仅是将各特征词的函数值处理后得到的初始化权重值更加集中在一个范围内。
范围映射处理可以包括一种或多种运算处理,例如可以包括相加、相减、相乘、相除等等,也可以包括函数处理,例如可以包括取指数等等。范围映射处理后得到的各特征词的初始化权重值位于第一预设范围内。
例如各特征词的函数值为2、3、4、5、6、8、9、10,第一预设范围为[0,3],则范围映射处理可以是使函数值除以4,范围映射处理后得到的初始化权重值为0.5、0.75、1、1.25、1.5、2、2.25、2.5。
S32,对初始化权重值进行更新处理,得到各特征词的权重激励值,更新处理包括阈值筛选处理和/或步长调整处理。
在得到各特征词的初始化权重值后,对初始化权重值进行更新处理得到各特征词的权重激励值。本公开实施例中,更新处理包括阈值筛选处理和步长调整处理中的至少一种。
阈值筛选处理指的是对特征词的初始化权重值进行阈值筛选,对不同阈值范围的初始化权重值进行不同的处理。
具体的,在各特征词中,确定初始化权重值处于第二预设范围内的第一特征词以及处于第二预设范围外的第二特征词,通常,第二预设范围为第一预设范围的子集。
在确定第一特征词以及第二特征词后,确定第一特征词的权重激励值为第一特征词的初始化权重值,确定第二特征词的权重激励值为第一预设值。
以S31中的初始化权重值0.5、0.75、1、1.25、1.5、2、2.25、2.5为例,可以设置第二预设范围为[1,2],则1、1.25、1.5、2处于第二预设范围内,这几个初始化权重值可以直接确定为对应的权重激励值。初始化权重值处于第二预设范围外的特征词,有可能是出现概率较高的常用词,不适合再进行特征词激励,或者只适合进行少量的特征词激励,也有可能会导致产生不必要的误识别,因此需要根据阈值筛选进行权重值的更新。0.5、0.75、2.25、2.5处于第二预设范围外,这几个初始化权重值对应的权重激励值可以确定为第一预设值。第一预设值例如可以为0,也可以为1、1.1、1.2等处于第二预设范围内的数值,等等。
步长调整处理指的是根据系统的预设步长对各特征词的初始化权重值进行更新。具体的,服务器可以获取各特征词的等级,然后根据预设步长和各特征词的等级获取各特征词的更新数值,更新数值可能为正数,可能为0,也可能为负数。在获取各特征词的更新数值后,根据各特征词的更新数值和初始化权重值,得到各特征词的权重激励值。
特征词的等级可以用于反映特征词的重要性,也可以是特征词的通用等级。特征词的等级可以是正数、0或者负数。当想要对某个特征词进行正向激励时,可以设置特征词的等级为正数,当想要对某个特征词进行负向激励时,可以设置特征词的等级为负数。用户也可以设置某些特征词的等级为0,或者不对某些特征词进行等级设置。当不对某些特征词进行等级设置时,可以默认这些特征词的等级为0。预设步长的取值例如可以为0.1、0.2、0.3等等。
根据特征词的更新数值和初始化权重值获取特征词的权重激励值可以通过下式(3)实现:
Sv=s+step*level, (3)
其中,Sv为特征词的权重激励值,s为特征词的初始化权重值,step*level为特征词的更新数值,step为预设步长,level为特征词的等级。
在上述实施例中,对特征词的权重激励值的获取方式进行了介绍,下面将介绍如何根据特征词的权重激励值对待识别语音进行解码。
图4为本公开实施例提供的待识别语音解码的流程示意图,如图4所示,包括:
S41,对待识别语音进行识别处理,得到待识别语音的各个时间单位对应的至少一个候选字,以及各候选字的声学模型得分。
声学模型为对声学、语音学、环境的变量、说话人性别、口音等的差异化的表示。本公开实施例中采用的声学模型例如可以包括基于隐马尔可夫模型(Hidden Markov Model,HMM)的声学模型,还可以包括端到端(End to End)的声学模型。其中,HMM的声学模型例如可以包括高斯HMM和深度神经网络HMM,端到端的声学模型例如可以包括连接时序分类(Connectionist Temporal Classification,CTC)模型、长短期记忆(Long-Short TermMemory,LSTM)模型和注意力(Attention)模型等等。
声学模型可以对待识别语音进行识别处理,得到待识别语音的各个时间单位对应的至少一个候选字,以及各候选字的声学模型得分。其中,每个时间单位对应文本的一个字,每个时间单位可能包括一个或多个候选字,每个候选字对应一个解码路径。每个时间单位对应的一个或多个候选字,可能为读音相同或相近的字。例如,某个时间单位对应的候选字包括“琳”、“邻”、“林”,这三个候选字对应三个不同的解码路径。
S42,根据各特征词的权重激励值、各个时间单位对应的至少一个候选字以及各候选字的声学模型得分,得到文本。
具体的,首先获取时间单位i对应的各候选字的语言模型得分,其中,i依次为1,2,3,...,n,n为文本的字数,每个时间单位对应文本的一个字。
其中,获取时间单位i对应的各候选字的语言模型得分,可以是通过一个语言模型获取各候选字的语言模型得分,也可以是通过多个语言模型获取各候选字的语言模型得分。可选的,语言模型为N-gram语言模型。可选的,对各候选字进行处理得到语言模型得分的N-gram语言模型,可以与获取特征词的语言模型概率采用的N-gram语言模型相同,也可以与获取特征词的语言模型概率采用的N-gram语言模型不同。
可选的,针对任意候选字,服务器通过多个语言模型获取候选字的语言模型得分。其中,各语言模型是通过不同领域的文本语料训练而成。以N-gram语言模型为例,可以基于医学领域、生活领域、航天领域、互联网领域等各个不同领域的文本语料训练得到多个不同的N-gram语言模型,然后根据这多个不同的N-gram语言模型对候选字进行处理,得到候选字在各语言模型对应的语言模型得分。然后,根据各语言模型的权重,以及候选字在各语言模型对应的语言模型得分,得到该候选字的语言模型得分。
相比于通过单个语言模型来获取候选字的语言模型得分,由于单个语言模型通常是使用海量的通用领域训练语料训练而成的,通用领域训练语料可能和待识别语音的场景不适配,而通过多个语言模型来获取候选字的语言模型得分,由于多个语言模型是通过不同领域的训练语料训练而成的,使得语音识别系统能够吸收不同领域的知识,与待识别语音的场景更加适配,从而使得进行特征词激励后得到的文本更加通顺。
在得到各候选字的语言模型得分后,根据各特征词的权重激励值获取时间单位i对应的各候选字的特征词激励值。
具体的,针对任意候选字,若文本中的前i-1个字不包括第三特征词,且文本中的前i-1个字与该候选字连接后包括该第三特征词,则将第三特征词的权重激励值确定为该候选字的特征词激励值。其中,第三特征词为各特征词中的任意一个。否则,确定该候选字的特征词激励值为第二预设值。第二预设值的取值例如可以为0,或者其他可能的数值。
图5为本公开实施例提供的解码示意图,如图5所示,在时间单位i上共包括3个候选字,分别是“静”、“径”和“净”,这三个候选字对应三个不同的解码路径,分别是解码路径1、解码路径2和解码路径3。待识别语音的特征词包括“幽静”和“幽径”,其中,“幽静”的权重激励值为1.8,“幽径”的权重激励值为1.2。待识别语音对应的文本的前i-1个字为“这条小路很幽”。
针对候选字“静”,该文本的前i-1个字中不包括特征词“幽静”,且该文本的前i-1个字与候选字“静”连接后包括特征词“幽静”,则此时将特征词“幽静”的权重激励值1.8作为候选字“静”的特征词激励值。
针对候选字“径”,该文本的前i-1个字中不包括特征词“幽径”,且该文本的前i-1个字与候选字“径”连接后包括特征词“幽径”,则此时将特征词“幽径”的权重激励值1.2作为候选字“径”的特征词激励值。
针对候选字“净”,该文本的前i-1个字中不包括特征词“幽静”和“幽径”,且该文本的前i-1个字与候选字“净”连接后也不包括特征词“幽静”和“幽径”,则此时将候选字“净”的特征词激励值确定为第二预设值。其中,第二预设值例如可以设置为0,可以设置为负数,也可以设置为正数,例如0.1,0.2,等等。
在确定了各候选字的特征词激励值后,可以根据时间单位i对应的各候选字的声学模型得分、语言模型得分和特征词激励值,在时间单位i对应的各候选字中确定文本的第i个字。
文本的第i个字如下:
Wi=argmax(f(W)), (4)
其中,f(W)=log(P(W|X))+α1(log(PLM1(W)))+α2(log(PLM2(W)))+...+Sv;
Wi为第i个字,W为时间单位i对应的候选字,X为待识别语音,P(W|X)为候选字W的声学模型得分,PLM(W)为W在语言模型下的语言模型得分,α1和α2为对应的语言模型的权重,Sv为W的特征词激励值,argmax为最大自变量点集函数,argmax(f(W))表示的是使得f(W)取得最大值所对应的W。
以时间单位i包括3个对应的候选字W1、W2和W3为例,则可以根据上式分别计算f(W1)、f(W2)和f(W3)。然后,根据f(W1)、f(W2)和f(W3)确定第i个字Wi。其中,Wi=argmax(f(W))。即在f(W1)、f(W2)和f(W3)确定最大值,最大值对应的W即为Wi。例如,若f(W1)>f(W2)>f(W3),则Wi为W1。对于文本的每个字都可以根据上述方案来确定,从而得到待识别语音对应的文本。
本公开实施例提供的语音识别方法,首先获取待识别语音的各特征词的语言模型概率,然后根据特征词的语言模型概率获取各特征词的权重激励值,并根据特征词的权重激励值对待识别语音解码,得到待识别语音对应的文本。本公开实施例的方案,无需人工进行特征词的权重激励值的配置,而是基于特征词的语言模型概率来获取特征词的权重激励值,配置过程相较于人工配置更加简便,同时由于语言模型概率指示了对应的特征词出现的概率,基于语言模型概率获取的权重激励值更加符合客观情况。在得到权重激励值后,由于权重激励值能够提高特征词的召回率,而特征词又是待识别语音中出现概率较高的词汇,因此能够提高语音识别的准确性。
示例性介质
在介绍了本公开示例性实施方式的方法之后,接下来,参考图6对本公开示例性实施方式的存储介质进行说明。
图6为本公开实施例提供的程序产品示意图,参考图6所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品60,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备。
示例性装置
在介绍了本公开示例性实施方式的介质之后,接下来,参考图7对本公开示例性实施方式的语音识别装置进行说明,用于实现上述任一方法实施例中的方法,其实现原理和技术效果类似,在此不再赘述。
图7为本公开实施例提供的语音识别装置的结构示意图,如图7所示,包括:
获取模块71,用于获取待识别语音的各特征词的语言模型概率,所述语言模型概率用于指示对应的特征词出现的概率;
处理模块72,用于根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,所述权重激励值用于提高对应的特征词的召回率;
识别模块73,用于根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本。
在一种可能的实施方式中,所述处理模块72具体用于:
根据各所述特征词的语言模型概率,获取各所述特征词的初始化权重值;
对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,所述更新处理包括阈值筛选处理和/或步长调整处理。
在一种可能的实施方式中,所述处理模块72具体用于:
根据预设函数对各所述特征词的语言模型概率处理,得到各所述特征词的函数值;
对各所述特征词的函数值进行范围映射处理,得到各所述特征词的初始化权重值,其中,各所述特征词的初始化权重值位于第一预设范围内。
在一种可能的实施方式中,所述更新处理包括所述阈值筛选处理,所述处理模块72具体用于:
在各所述特征词中,确定初始化权重值处于第二预设范围内的第一特征词,以及初始化权重值处于所述第二预设范围外的第二特征词;
确定所述第一特征词的权重激励值为所述第一特征词的初始化权重值;
确定所述第二特征词的权重激励值为第一预设值。
在一种可能的实施方式中,所述更新处理包括所述步长调整处理,所述处理模块72具体用于:
获取各所述特征词的等级;
根据预设步长和各所述特征词的等级,获取各所述特征词的更新数值;
根据各所述特征词的更新数值和所述初始化权重值,获取各所述特征词的权重激励值。
在一种可能的实施方式中,所述识别模块73具体用于:
对所述待识别语音进行识别处理,得到所述待识别语音的各个时间单位对应的至少一个候选字,以及各候选字的声学模型得分;
根据各所述特征词的权重激励值、所述各个时间单位对应的至少一个候选字以及各所述候选字的声学模型得分,得到所述文本。
在一种可能的实施方式中,所述识别模块73具体用于:
获取时间单位i对应的各候选字的语言模型得分;
根据各所述特征词的权重激励值获取所述时间单位i对应的各候选字的特征词激励值;
根据所述时间单位i对应的各候选字的声学模型得分、语言模型得分和特征词激励值,在所述时间单位i对应的各候选字中确定所述文本的第i个字,i依次为1,2,3,...,n,所述n为所述文本的字数。
在一种可能的实施方式中,所述识别模块73具体用于:
针对任意候选字,根据多个语言模型对所述候选字进行处理,得到所述候选字在各所述语言模型对应的语言模型得分;
根据各所述语言模型的权重,以及所述候选字在各所述语言模型对应的语言模型得分,得到所述候选字的语言模型得分。
在一种可能的实施方式中,所述识别模块73具体用于:
针对任意候选字,若所述文本中的前i-1个字不包括第三特征词,且所述文本中的前i-1个字与所述候选字连接后包括所述第三特征词,则将所述第三特征词的权重激励值确定为所述候选字的特征词激励值;其中,所述第三特征词为各所述特征词中的任意一个;
否则,确定所述候选字的特征词激励值为第二预设值。
在一种可能的实施方式中,所述文本的第i个字如下:
Wi=argmax(f(W)),
其中,f(W)=log(P(W|X))+α1(log(PLM1(W)))+α2(log(PLM2(W)))+...+Sv;
Wi为所述第i个字,W为所述时间单位i对应的候选字,X为所述待识别语音,P(W|X)为所述候选字W的声学模型得分,PLM(W)为所述W在语言模型下的语言模型得分,α1和α2为对应的语言模型的权重,Sv为所述W的特征词激励值,argmax为最大自变量点集函数,argmax(f(W))表示的是使得f(W)取得最大值所对应的W。
本公开实施例提供的语音识别装置,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
示例性计算设备
在介绍了本公开示例性实施方式的方法、介质和装置之后,接下来,参考图8对本公开示例性实施方式的计算设备进行说明。
图8显示的计算设备80仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
图8为本公开实施例提供的计算设备的结构示意图,如图8所示,计算设备80以通用计算设备的形式表现。计算设备80的组件可以包括但不限于:上述至少一个处理单元81、上述至少一个存储单元82,连接不同系统组件(包括处理单元81和存储单元82)的总线83。
总线83包括数据总线、控制总线和地址总线。
存储单元82可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)821和/或高速缓存存储器822,可以进一步包括非易失性存储器形式的可读介质,例如只读存储器(ROM)823。
存储单元82还可以包括具有一组(至少一个)程序模块824的程序/实用工具825,这样的程序模块824包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算设备80也可以与一个或多个外部设备84(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口85进行。并且,计算设备80还可以通过网络适配器86与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器86通过总线83与计算设备80的其它模块通信。应当理解,尽管图中未示出,可以结合计算设备80使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了语音识别装置的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本公开方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本公开的精神和原理,但是应该理解,本公开并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本公开旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
Claims (10)
1.一种语音识别方法,其特征在于,包括:
获取待识别语音的各特征词的语言模型概率,所述语言模型概率用于指示对应的特征词出现的概率;
根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,所述权重激励值用于提高对应的特征词的召回率;
根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本。
2.根据权利要求1所述的语音识别方法,其特征在于,所述根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,包括:
根据各所述特征词的语言模型概率,获取各所述特征词的初始化权重值;
对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,所述更新处理包括阈值筛选处理和/或步长调整处理。
3.根据权利要求2所述的语音识别方法,其特征在于,所述根据各所述特征词的语言模型概率,获取各所述特征词的初始化权重值,包括:
根据预设函数对各所述特征词的语言模型概率处理,得到各所述特征词的函数值;
对各所述特征词的函数值进行范围映射处理,得到各所述特征词的初始化权重值,其中,各所述特征词的初始化权重值位于第一预设范围内。
4.根据权利要求2所述的语音识别方法,其特征在于,所述更新处理包括所述阈值筛选处理,所述对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,包括:
在各所述特征词中,确定所述初始化权重值处于第二预设范围内的第一特征词,以及所述初始化权重值处于所述第二预设范围外的第二特征词;
确定所述第一特征词的权重激励值为所述第一特征词的初始化权重值;
确定所述第二特征词的权重激励值为第一预设值。
5.根据权利要求2所述的语音识别方法,其特征在于,所述更新处理包括所述步长调整处理,所述对所述初始化权重值进行更新处理,得到各所述特征词的权重激励值,包括:
获取各所述特征词的等级;
根据预设步长和各所述特征词的等级,获取各所述特征词的更新数值;
根据各所述特征词的更新数值和所述初始化权重值,获取各所述特征词的权重激励值。
6.根据权利要求1-5任一项所述的语音识别方法,其特征在于,所述根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本,包括:
对所述待识别语音进行识别处理,得到所述待识别语音的各个时间单位对应的至少一个候选字,以及各候选字的声学模型得分;
根据各所述特征词的权重激励值、所述各个时间单位对应的至少一个候选字以及各所述候选字的声学模型得分,得到所述文本。
7.根据权利要求6所述的语音识别方法,其特征在于,所述根据各所述特征词的权重激励值、所述各个时间单位对应的至少一个候选字以及各所述候选字的声学模型得分,得到所述文本,包括:
获取时间单位i对应的各候选字的语言模型得分;
根据各所述特征词的权重激励值获取所述时间单位i对应的各候选字的特征词激励值;
根据所述时间单位i对应的各候选字的声学模型得分、语言模型得分和特征词激励值,在所述时间单位i对应的各候选字中确定所述文本的第i个字,i依次为1,2,3,...,n,所述n为所述文本的字数。
8.根据权利要求7所述的语音识别方法,其特征在于,所述获取时间单位i对应的各候选字的语言模型得分,包括:
针对任意候选字,根据多个语言模型对所述候选字进行处理,得到所述候选字在各所述语言模型对应的语言模型得分;
根据各所述语言模型的权重,以及所述候选字在各所述语言模型对应的语言模型得分,得到所述候选字的语言模型得分。
9.根据权利要求8所述的语音识别方法,其特征在于,所述根据各所述特征词的权重激励值获取所述时间单位i对应的各候选字的特征词激励值,包括:
针对任意候选字,若所述文本中的前i-1个字不包括第三特征词,且所述文本中的前i-1个字与所述候选字连接后包括所述第三特征词,则将所述第三特征词的权重激励值确定为所述候选字的特征词激励值;其中,所述第三特征词为各所述特征词中的任意一个;
否则,确定所述候选字的特征词激励值为第二预设值。
10.一种语音识别装置,其特征在于,包括:
获取模块,用于获取待识别语音的各特征词的语言模型概率,所述语言模型概率用于指示对应的特征词出现的概率;
处理模块,用于根据各所述特征词的语言模型概率,获取各所述特征词的权重激励值,所述权重激励值用于提高对应的特征词的召回率;
识别模块,用于根据各所述特征词的权重激励值对所述待识别语音解码,得到所述待识别语音对应的文本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111258407.0A CN113763938B (zh) | 2021-10-27 | 2021-10-27 | 语音识别方法、介质、装置和计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111258407.0A CN113763938B (zh) | 2021-10-27 | 2021-10-27 | 语音识别方法、介质、装置和计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113763938A true CN113763938A (zh) | 2021-12-07 |
CN113763938B CN113763938B (zh) | 2024-06-07 |
Family
ID=78784486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111258407.0A Active CN113763938B (zh) | 2021-10-27 | 2021-10-27 | 语音识别方法、介质、装置和计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113763938B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001109491A (ja) * | 1999-10-01 | 2001-04-20 | Univ Waseda | 連続音声認識装置および方法 |
US20020156627A1 (en) * | 2001-02-20 | 2002-10-24 | International Business Machines Corporation | Speech recognition apparatus and computer system therefor, speech recognition method and program and recording medium therefor |
JP2004184951A (ja) * | 2002-12-06 | 2004-07-02 | Nippon Telegr & Teleph Corp <Ntt> | クラス同定モデル生成方法、装置、およびプログラム、クラス同定方法、装置、およびプログラム |
US20080046244A1 (en) * | 2004-11-30 | 2008-02-21 | Yoshio Ohno | Speech Recognition Device |
JP2010078877A (ja) * | 2008-09-25 | 2010-04-08 | Pioneer Electronic Corp | 音声認識装置、音声認識方法及び音声認識プログラム |
KR20180038707A (ko) * | 2016-10-07 | 2018-04-17 | 한국전자통신연구원 | 동적 가중치 값과 토픽 정보를 이용하는 음성인식 방법 |
CN110176230A (zh) * | 2018-12-11 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN112102815A (zh) * | 2020-11-13 | 2020-12-18 | 深圳追一科技有限公司 | 语音识别方法、装置、计算机设备和存储介质 |
CN112466293A (zh) * | 2020-11-13 | 2021-03-09 | 广州视源电子科技股份有限公司 | 解码图优化方法、装置及存储介质 |
-
2021
- 2021-10-27 CN CN202111258407.0A patent/CN113763938B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001109491A (ja) * | 1999-10-01 | 2001-04-20 | Univ Waseda | 連続音声認識装置および方法 |
US20020156627A1 (en) * | 2001-02-20 | 2002-10-24 | International Business Machines Corporation | Speech recognition apparatus and computer system therefor, speech recognition method and program and recording medium therefor |
JP2004184951A (ja) * | 2002-12-06 | 2004-07-02 | Nippon Telegr & Teleph Corp <Ntt> | クラス同定モデル生成方法、装置、およびプログラム、クラス同定方法、装置、およびプログラム |
US20080046244A1 (en) * | 2004-11-30 | 2008-02-21 | Yoshio Ohno | Speech Recognition Device |
JP2010078877A (ja) * | 2008-09-25 | 2010-04-08 | Pioneer Electronic Corp | 音声認識装置、音声認識方法及び音声認識プログラム |
KR20180038707A (ko) * | 2016-10-07 | 2018-04-17 | 한국전자통신연구원 | 동적 가중치 값과 토픽 정보를 이용하는 음성인식 방법 |
CN110176230A (zh) * | 2018-12-11 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN112102815A (zh) * | 2020-11-13 | 2020-12-18 | 深圳追一科技有限公司 | 语音识别方法、装置、计算机设备和存储介质 |
CN112466293A (zh) * | 2020-11-13 | 2021-03-09 | 广州视源电子科技股份有限公司 | 解码图优化方法、装置及存储介质 |
Non-Patent Citations (3)
Title |
---|
HIROSHI SATO等: "Revisiting Dynamic Adjustment of Language Model Scaling Factor for Automatic Speech Recognition", IEEE * |
张剑;屈丹;李真;: "基于循环神经网络语言模型的N-best重打分算法", 数据采集与处理, no. 02 * |
肖吉: "基于有限状态图的语音识别系统的构建", 中国优秀硕士论文全文数据库·信息科技辑 * |
Also Published As
Publication number | Publication date |
---|---|
CN113763938B (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109523989B (zh) | 语音合成方法、语音合成装置、存储介质及电子设备 | |
US10621975B2 (en) | Machine training for native language and fluency identification | |
US8019602B2 (en) | Automatic speech recognition learning using user corrections | |
CN108899013B (zh) | 语音搜索方法、装置和语音识别系统 | |
CN113874935A (zh) | 将上下文信息与端到端模型一起用于语音识别 | |
EP4018437B1 (en) | Optimizing a keyword spotting system | |
US11810471B2 (en) | Computer implemented method and apparatus for recognition of speech patterns and feedback | |
US20030093263A1 (en) | Method and apparatus for adapting a class entity dictionary used with language models | |
JP2017058674A (ja) | 音声認識のための装置及び方法、変換パラメータ学習のための装置及び方法、コンピュータプログラム並びに電子機器 | |
JP5932869B2 (ja) | N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム | |
CN112397056B (zh) | 语音评测方法及计算机存储介质 | |
CN110503956B (zh) | 语音识别方法、装置、介质及电子设备 | |
US20060085190A1 (en) | Hidden conditional random field models for phonetic classification and speech recognition | |
CN112331229A (zh) | 语音检测方法、装置、介质和计算设备 | |
CN113782029B (zh) | 语音识别模型的训练方法、装置、设备以及存储介质 | |
Viacheslav et al. | System of methods of automated cognitive linguistic analysis of speech signals with noise | |
KR100480790B1 (ko) | 양방향 n-그램 언어모델을 이용한 연속 음성인식방법 및장치 | |
Liu et al. | Deriving disyllabic word variants from a Chinese conversational speech corpus | |
CN116434736A (zh) | 语音识别方法、交互方法、系统和设备 | |
CN113763938B (zh) | 语音识别方法、介质、装置和计算设备 | |
Kurian et al. | Connected digit speech recognition system for Malayalam language | |
CN113782005B (zh) | 语音识别方法及装置、存储介质及电子设备 | |
CN114387950A (zh) | 语音识别方法、装置、设备和存储介质 | |
CN113421587B (zh) | 语音评测的方法、装置、计算设备及存储介质 | |
CN117935787B (zh) | 一种数据筛选标注方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |