CN102376305A - 语音识别方法及系统 - Google Patents

语音识别方法及系统 Download PDF

Info

Publication number
CN102376305A
CN102376305A CN2011103878264A CN201110387826A CN102376305A CN 102376305 A CN102376305 A CN 102376305A CN 2011103878264 A CN2011103878264 A CN 2011103878264A CN 201110387826 A CN201110387826 A CN 201110387826A CN 102376305 A CN102376305 A CN 102376305A
Authority
CN
China
Prior art keywords
decoding
time
delay
candidate item
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011103878264A
Other languages
English (en)
Other versions
CN102376305B (zh
Inventor
潘青华
王智国
何婷婷
刘聪
胡国平
胡郁
刘庆峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui hear Technology Co., Ltd.
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN2011103878264A priority Critical patent/CN102376305B/zh
Publication of CN102376305A publication Critical patent/CN102376305A/zh
Application granted granted Critical
Publication of CN102376305B publication Critical patent/CN102376305B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种语音识别方法及系统,该方法包括:构建一遍解码识别网络;对接收的语音信号在一遍解码识别网络中搜索得到一遍解码候选项;如果所述一遍解码候选项满足一遍解码条件,则输出一遍解码得到的最优识别结果;如果所述一遍解码候选项不满足一遍解码条件,则根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理;根据优化处理后的一遍解码候选项,构建二遍解码识别网络;对接收的语音信号在二遍解码识别网络中进行二遍解码,得到二遍解码候选项;输出二遍解码得到的最优识别结果。利用本发明,可以通过动态优化二遍搜索网络,均衡不同情况下的解码效率和准确率,优化系统解码性能。

Description

语音识别方法及系统
技术领域
本发明涉及智能信息处理技术领域,更具体地说,涉及一种语音识别方法及系统。
背景技术
实现人机之间人性化、智能化的有效交互,构建高效自然的人机交流环境,已经成为当前信息技术应用和发展的迫切需求。作为最自然高效的交互手段,在线语音识别诸如发微博、写短信等应用在小屏幕移动设备上受到了越来越多的关注。在在线应用中,用户对系统响应速度有更高要求,会希望在语音输入结束后没有明显时延即得到识别结果。语音识别系统的实时性已经成为衡量系统性能最重要的指标之一,系统响应延迟时间(即从用户结束语音输入到接收到识别反馈的等待时间)越短,用户体验越好。
在大词汇量连续语音识别中,由于单个字符发音之间并没有清晰的边界,难以通过切分连续语音成孤立单词串的方式识别。为此,在现有技术中,目前主要采用在由声学模型及语言模型等知识构建的搜索网络空间中,动态搜索最符合给定语音特征序列特点的单词串的方法。显然在大词汇量连续语音识别系统中,由于语音信号及语言网络的复杂性,由声学模型和语言模型构建的识别网络往往非常复杂,若系统采用高维精准复杂的语音特征,则在这种复杂的网络中进行解码搜索的计算压力太大,容易导致反馈时间过长,影响用户体验。显然如何合理应用高维精准的声学特征在不影响系统响应速度的前提下提高模型匹配的准确度是当前在线语音识别系统实用化的重要保证。
为了均衡系统解码效率和解码准确率,在提高识别率的同时不占用过长的解码时间,现今研究人员提出了多遍解码的策略,首先采用快速搜索算法在由简单声学模型和大规模不受限的语言模型构成的初始搜索空间对提取的简单声学特征(通常为传统的MFCC(Mel频率倒谱系数)特征)进行粗略匹配,过滤不合理的识别结果并获取识别结果集合;随后系统利用更精准的复杂声学模型和高阶语言模型将一遍解码生成的候选集合扩展成新的受限搜索网络,并据此对新提取的复杂精准的声学特征重估解码获取最优路径。一遍解码时,系统对输入的每帧语音对应的所有活跃节点都保留N(N>1)个最优历史路径(N-Path候选),并在解码结束时通过堆栈式解码回溯N-Path获取多候选识别结果。图1示出了现有技术对语音输入“讯飞语音沟通无限”的紧凑词图(Lattice)形式的识别结果。
在上述方法中,二遍解码搜索空间大小主要由一遍解码的参数N确定。若设置较大的N值虽然可以保证较高的正确率,但由于解码中保留了较多的历史路径导致一遍解码效率降低以及二遍解码搜索空间规模加大。在该搜索空间上执行相对复杂的二遍解码往往耗时过长,特别是在一遍解码已经造成较大延时的情况下将带来更大的延时。相反,若是设置较小的N值,则可能导致最优路径过早剪除而没有正确识别结果生成,影响解码的准确率。可见,这种方法并不能很好地解决识别率以及识别效率的均衡问题。
发明内容
有鉴于此,本发明实施例提供一种语音识别方法及系统,以动态优化二遍搜索网络,均衡不同情况下的解码效率和准确率,优化系统解码性能。
为此,本发明实施例提供如下技术方案:
一种语音识别方法,包括:
构建一遍解码识别网络;
对接收的语音信号在所述一遍解码识别网络中搜索得到一遍解码候选项;
如果所述一遍解码候选项满足一遍解码条件,则输出一遍解码得到的最优识别结果;
如果所述一遍解码候选项不满足一遍解码条件,则根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理;
根据优化处理后的一遍解码候选项,构建二遍解码识别网络;
对接收的语音信号在所述二遍解码识别网络中进行二遍解码,得到二遍解码候选项;
输出二遍解码得到的最优识别结果。
一种语音识别系统,包括:
第一网络构建单元,用于构建一遍解码识别网络;
第一解码单元,用于对接收的语音信号在所述一遍解码识别网络中搜索得到一遍解码候选项;
判断单元,用于确定所述一遍解码候选项是否满足一遍解码条件;
结果输出单元,用于在所述判断单元确定所述一遍解码候选项满足一遍解码条件时,输出一遍解码得到的最优识别结果;
优化处理单元,用于在所述判断单元确定所述一遍解码候选项不满足一遍解码条件时,根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理;
第二网络构建单元,用于根据优化处理后的一遍解码候选项,构建二遍解码识别网络;
第二解码单元,用于对接收的语音信号在所述二遍解码识别网络中进行二遍解码,得到二遍解码候选项;
所述结果输出单元,还用于输出二遍解码得到的最优识别结果。
本发明实施例语音识别方法及系统,首先采用简单的快速搜索算法在由声学模型和大规模不受限的语言模型构成的一遍解码识别网络的搜索空间对提取的简单声学特征进行粗略匹配,过滤不合理的识别结果以获取一遍解码候选项;然后根据解码延时状态以及一遍解码可信度自适应优化二遍解码搜索网络;最后在优化后的搜索空间上通过更复杂更精准的二遍搜索确定最优路径,并确保系统对语音输入的识别响应在可控延时内,从而可以在不影响原响应速度较快语音信号的识别性能的情况下,针对性地提高响应时间过慢数据的运算效率,并将系统整体响应时延控制在可接受的预设范围内,减少系统过长响应时间。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是现有技术对语音输入的紧凑词图形式的识别结果示意图;
图2是本发明实施例语音识别方法的流程图;
图3是本发明实施例中一遍解码识别的一种流程图;
图4是本发明实施例中一遍解码识别中状态层的Viterbi搜索示意图;
图5是本发明实施例中是否输出一遍解码候选项一种具体流程图;
图6是本发明实施例中对一遍解码候选项进行优化处理的一种具体流程;
图7是本发明实施例中二遍解码的一种流程图;
图8是本发明实施例语音识别系统的一种结构示意图;
图9是本发明实施例语音识别系统的另一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
分析前面介绍的二遍解码过程可以看出,为了提高多遍解码效率,优化一遍解码候选集合,控制二遍解码搜索网络规模是一种较为有效的方法。对响应速度较快的语音输入在二遍解码时采用较大的裁剪门限优化其搜索网络,确保在不占用过多解码时间基础上得到较高的识别率;而对响应速度较慢的解码则可以采用较小的裁剪门限以限定搜索网络规模,使得在不过度牺牲识别率的前提下提高系统的响应速度,避免用户长时间的等待。为此,本发明实施例语音识别方法及系统,首先采用简单的快速搜索算法在由声学模型和大规模不受限的语言模型构成的一遍解码识别网络的搜索空间对提取的简单声学特征进行粗略匹配,过滤不合理的识别结果以获取一遍解码候选项;然后根据解码延时状态以及一遍解码可信度自适应优化二遍解码搜索网络;最后在优化后的搜索空间上通过更复杂更精准的二遍搜索确定最优路径,并确保系统对语音输入的识别响应在可控延时内,从而可以在不影响原响应速度较快语音信号的识别性能的情况下,针对性地提高响应时间过慢数据的运算效率,并将系统整体响应时延控制在可接受的预设范围内,减少系统过长响应时间。
如图2所示,是本发明实施例语音识别方法的流程图,包括以下步骤:
步骤201,构建一遍解码识别网络。
上述一遍解码识别网络是由简单声学模型和大规模不受限的语言模型构成的初始搜索网络。
其中,所述声学模型主要用于模拟字符音特点,具体可以采用语音识别领域常用的基于转移概率和传输概率的HMM(Hidden Markov Model,隐马尔可夫)模型。考虑到在大词汇量连续语音识别中,词汇量的数量过于庞大,若是对每个字符都构建一个HMM模型,则模型数量太多,不利于数据存储及计算。因此,在实际应用中,可以仅对基本的发音单元,如音节或音素单元构建HMM模型。
其中,所述语言模型是为了更有效地表征语法及语义等知识,以弥补声学模型的不足,提高识别率。具体可以采用语音识别领域常用统计语言模型,利用统计概率的方式描述词和词之间的关系,即假设某个词wk出现的概率仅和其前n-1个词相关,记为 p ( w k | W 1 k - 1 ) = p ( w k | W k - n + 1 k - 1 ) .
上述一遍解码识别网络的构建可以采用现有技术中的一些构建方法,利用声学模型将系统预置的大规模不受限的语言模型扩展成模型层的搜索网络。
步骤202,对接收的语音信号在一遍解码识别网络中搜索得到一遍解码候选项。
该过程是一个连续动态的处理过程,对用户输入的语音信号进行实时采集,当采集的语音数据达到预设时长时,将其送入识别队列,并记录该语音数据接收时刻。
一般来说,上述预设时长的长短会影响用户等待时间,长度越短,则等待时间越短。然而,在实际系统中,考虑到网络传输压力,该长度设置不能太短,比如可以设为200-500ms。
在进行一遍解码时,对上述识别队列中的每帧语音数据,首先提取其简单声学特征,然后在上述步骤201构建的一遍解码识别网络中搜索得到最优候选路径集合,具体搜索过程可以采用Viterbi Beam搜索算法。当然,也可以采用现有技术中的一些其它相关算法,对此本发明实施例不做限定。
另外,考虑到在真实环境中采集到的语音数据存在各种噪声干扰,若直接将其和在无噪声的干净环境中训练得到的声学模型匹配,则系统识别性能会受影响。因此,为了进一步提高系统的鲁棒性,还可以在进行一遍解码前,对采集的语音数据进行前端降噪处理。比如,首先利用端点检测技术去除多余的静音和非说话音,然后采用盲源分离技术实现噪声和语音的自动分离,为后续语音识别提供较为纯净的语音。当然,具体是否需要进行降噪处理、以及采用何种方式进行降噪处理,本发明实施例不做限定。
步骤203,判断所述一遍解码候选项是否满足一遍解码条件;如果是,则执行步骤208;否则,执行步骤204。
一般来说,对于高质量的语音输入,一遍解码通常可以得到较高的识别率,因而可以直接输出一遍解码的最优结果。而对某些复杂语音,一遍解码的响应时间已经过长甚至接近用户可接受的最大响应时限,因而对于这类语音,也可以直接输出一遍解码的识别结果,以避免二遍解码带来的过长等待时间。为此,在本发明实施例中,可以根据一遍解码时延或解码效果确定一遍解码候选项是否满一遍解码条件,以提前终止二遍解码,提高效率。
具体地,可以有以下几种情况:
(1)如果一遍解码延时大于预设的第一时间阈值,则确定满足一遍解码条件,执行步骤208;否则,执行步骤204。
(2)如果一遍解码延时小于或等于预设的第一时间阈值,在这种情况下,进一步根据解码效果判断是否满足一遍解码条件,如果是,则执行步骤208;否则,执行步骤204。
(3)综合考虑以上两种情况来确定执行步骤208,还是执行步骤204。
具体采用哪种判断条件可根据实际需要来设定,对此本发明实施例不做限定。
步骤204,根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理。
在现有技术中,二遍解码搜索空间的大小主要由一遍解码的参数N(最优历史路径)确定。在一遍解码过程中,通常会设置较大N(最优历史路径)值以保留足够路径,避免二遍解码无法生成正确识别结果。但现有技术这种方案会使得一遍解码得到的候选集合中可能存在大量的冗余信息,影响解码效率。
为此,在本发明实施例中,可以综合考虑解码延时和解码可信度来优化一遍解码得到的最优候选路径集合中的候选路径。具体地,可以通过自适应调整裁减门限优化二遍搜索空间,以保证在不影响原响应速度较快语音信号识别性能的情况下,针对性地提高响应时间过慢数据的运算效率,并将系统整体响应时延控制在可接受的预设范围内。
步骤205,根据优化处理后的一遍解码候选项,构建二遍解码识别网络。
在该步骤中,需要利用更精确的声学模型及更高阶的语言模型将优化处理后的一遍解码候选项组成的网格扩展成基于模型层的网络。具体构建过程与现有技术类似,在此不再详细说明。
步骤206,对接收的语音信号在二遍解码识别网络中进行搜索,得到二遍解码候选项。
在二遍解码过程中,可以提取更复杂精准的高维语音特征,然后在上述优化后的搜索空间中搜索最优路径。
步骤207,输出二遍解码得到的最优识别结果,即将二遍解码得到的最优路径作为最终的识别结果。
步骤208,输出一遍解码得到的最优识别结果,即将一遍解码得到的解码候选项中的最优候选项作为最终的识别结果。
需要说明的是,上述语音识别处理过程是一个连续动态的处理过程,在跟踪用户语音输入的同时,采集用户输入的语音信号,当采集得到的语音数据达到预设时长时,将其送入识别队列,并记录该语音数据接收时刻。同时,对该识别队列中的每个语音数据帧进行解码识别。
由此可见,本发明实施例语音识别方法,首先采用简单的快速搜索算法在由声学模型和大规模不受限的语言模型构成的一遍解码识别网络的搜索空间对提取的简单声学特征进行粗略匹配,过滤不合理的识别结果以获取一遍解码候选项;然后根据解码延时状态以及一遍解码可信度自适应优化二遍解码搜索网络;最后在优化后的搜索空间上通过更复杂更精准的二遍搜索确定最优路径,从而可以在不影响原响应速度较快语音信号的识别性能的情况下,针对性地提高响应时间过慢数据的运算效率,并将系统整体响应时延控制在可接受的预设范围内,减少系统过长响应时间。
如图3所示,是本发明实施例中一遍解码识别的一种流程图。
在该实施例中,一遍解码采用Viterbi Beam搜索算法,包括以下步骤:
步骤301,提取每帧语音数据中的有效语音特征。
由于接收的语音数据中依然存在大量与语音识别无关的冗余信息,直接对其识别将导致运算量和识别准确率的下降,为此,可以从上述语音数据中提取识别有效语音特征。比如,可以提取连续语音识别中的MFCC特征,对窗长25ms帧移10ms的每帧语音数据做短时分析得到MFCC参数及其一阶二阶差分,共计39维,将每帧语音数据量化为一39维特征序列。
步骤302,利用Viterbi Beam搜索算法,对提取的有效语音特征在一遍解码识别网络中搜索得到一遍解码候选项。
在一遍简单解码中,由于采用了相对简单的声学特征,其解码运算往往较快。而同时由于模型较为粗糙,不同路径之间的概率区分往往不太明显,为了保证不过早删减最优路径,可以保留较多的候选路径。具体来说,对tk时刻的语音数据,需要考察对应时间点上所有活跃节点,如图4所示,并保留每一节点最优N(比如N=3)条历史路径及概率。
前面提到,在本发明实施例中,可以根据一遍解码延时或者解码效果确定一遍解码候选项是否满足一遍解码条件。
图5示出了本发明实施例中是否输出一遍解码候选项一种具体流程图,包括以下步骤:
步骤501,统计一遍解码延时。
上述一遍解码延时可以通过计算所述语音信号中的最后一个语音段的最后1帧数据的解码延时来确定,具体公式如下:
t-(tE+ts*(NE-1));
其中,t为当前时间,tE为所述接收的语音信号的最后一个语音段的接收时刻,ts为语音信号处理时设置的帧移长度,NE为最后一个语音段所包括的语音帧总数。
步骤502,判断所述一遍解码延时是否大于预设的第一时间阈值;如果是,则执行步骤505;否则,执行步骤503。
上述第一时间阈值可根据实际应用需要来设定,比如用户一般可以接受的2秒时延等。如果当前语音数据帧解码延时大于所述第一时间阈值,则说明一遍解码过慢,不适合继续二遍解码,也就是说,此时得到的一遍解码候选项满足一遍解码条件。
步骤503,计算一遍解码的最优路径得分和次优路径得分的差值。
步骤504,判断所述差值是否大于预设的第一概率阈值;如果是,则执行步骤505;否则,执行步骤506。
上述第一概率阈值可根据实际应用环境来设定,比如在概率得分的Log域可设定该阈值为5,在概率得分差值的单位平均值大于该阈值时判定当前解码有效。如果得到的差值大于所述第一概率阈值,则说明一遍解码的最优路径很大可能是可靠的识别结果,也就是说,可以不用再进行二遍解码,此时得到的一遍解码候选项满足一遍解码条件,可以直接输出一遍解码的最优路径作为最终解码识别结果。
步骤505,输出一遍解码的最优识别结果。
步骤506,指示当前一遍解码结果不可靠,需要执行二遍解码。
当然,本发明实施例并不仅限定利用图5所示流程来判断一遍解码候选项是否满足一遍解码条件,可根据具体应用环境来确定,比如,也可以只根据一遍解码延时或解码效果来确定一遍解码候选项是否满足一遍解码条件。
前面提到,在本发明实施例中,可以根据一遍解码延时以及解码可信度,对所述一遍解码候选项进行优化处理。
如图6所示,是本发明实施例中对一遍解码候选项进行优化处理的一种具体流程,包括以下步骤:
步骤601,计算自适应于一遍解码延时的概率裁剪门限。
上述概率裁剪门限的设置主要用于剔除一遍解码得到的最优候选路径集合中不太可能的候选路径,一般来说,解码延时越大,则概率裁剪门限需要设置越小,以保证二遍解码识别网络尽可能紧凑,以提高解码效率。
为了进一步提高处理效率,在本发明实施例中,可以预先建立解码延时(可以是一个延时范围)与概率裁剪门限的对应关系,根据该对应关系确定自适应于一遍解码延时的概率裁剪门限。
当然,也可以采用基于模型的方式确定不同解码延时对应的概率裁剪门限。所述模型中的参数可以由系统预先在海量数据上训练得到。
比如,系统可以选择神经网络模型作为解码延时估计的模型结构,并预先从海量训练语音数据中获取(解码延时,裁剪门限)的参数对作为模型训练数据,随后通过传统的神经网络训练算法获取模型参数。
步骤602,选择计算得到的概率裁剪门限以及预设的裁剪门限阈值中的较小值作为网络优化裁剪门限。
上述裁剪门限阈值主要用于剪除一遍解码得到的最优候选路径集合中概率得分上不可能正确的路径,可根据应用需要来设置。
步骤603,删除一遍解码得到的最优候选路径集合中所有候选路径概率得分与最优路径概率得分差值大于所述网络优化裁剪门限的候选路径,比如将其设置为不活跃状态。
由图6所示流程可以看出,本发明实施例中,综合解码延时和解码概率得分对一遍解码得到的候选项进行优化,减小二遍搜索网络规模,从而在不影响原响应速度较快语音信号的识别性能的情况下,可以针对性地提高响应时间过慢数据的运算效率,并将系统整体响应时延控制在可接受的预设范围内。
需要说明的是,本发明并不仅限于上述优化方式,还可以采用其它方式对一遍解码得到的候选项进行优化,减小二遍搜索网络规模,对此不再一一举例。
如图7所示,是本发明实施例中二遍解码的一种流程图,包括以下步骤:
步骤701,初始化,设置当前语音段k=1,语音段中的语音数据帧i=1。
步骤702,获取第k个语音段k中的第i个语音数据帧。
步骤703,从第i个语音数据帧中提取声学特征。
在二遍解码中,可以采用复杂的高维特征以提高识别精度,为此,在本发明实施例中,可以选用识别效果较好的TANDEM特征。TANDEM技术是目前主流语音识别系统中提升性能的重要手段之一,它基于训练数据和其所对应的正确标注用有监督的方式训练神经网络的参数。
考虑到TANDEM特征的提取较为复杂,往往占用较大的运算量,特别是对于一些解码较快的语音,其特征提到占用的运算量比解码运算量还大。因此,在实际应用中,可以在一遍解码的同时即提取二遍解码所需的声学特征,以提高系统整体的识别效率。
步骤704,根据提取的声学特征对第k个语音段中的第i个语音数据帧进行解码,得到当前所有活跃节点的历史路径概率。
具体地,可以采用Viterbi Beam搜索算法进行解码,得到当前所有活跃节点的历史路径概率。
步骤705,判断当前语音数据帧是否为最后一帧;如果是,则执行步骤710;否则,执行步骤706。
步骤706,统计第i个语音数据帧的累计解码延时。
假设当前语音数据帧的生成时刻是:tk+ts*(i-1),其中tk为第k个语音段的接收时刻,而ts为语音信号处理时设置的帧移长度,比如将该帧移长度设置为10ms。则当前第i个语音数据帧的解码延时为:t-(tk+ts*(i-1)),其中t为系统当前时间。
需要说明的是,上述累计解码延时是指从所述语音数据帧的生成时刻到二遍解码时的时间,也就是说,该累计解码延时包含了前面提到的一遍解码延时。
步骤707,判断所述累计解码延时是否超过预设的第二时间阈值;如果是,则执行步骤709;否则,执行步骤708。
步骤708,获取下一语音数据帧,即i+1。然后,返回步骤703。
步骤709,将一遍解码的最优路径作为当前搜索识别结果。
步骤710,获取二遍解码的最优路径作为当前搜索识别结果。
需要说明的是,上述步骤706、707和709是可选步骤,也就是说,在二遍解码过程中,也可以不用考虑每个语音数据帧的累计解码延时,而最终输出二遍解码的最优识别结果。
当然,具体采用哪种方式可根据应用环境,综合考虑解码延时及识别准确率在该应用环境下的重要性来确定。
需要说明的是,上述第二时间阈值可以等于或大于前面所述的第一时间阈值。比如在第一时间阈值设定为2秒时,第二时间阈值可以设定为3秒,以便在用户可接受范围内给与更充足的解码时间,得到更精确的解码结果。
可见,本发明实施例中,在二遍解码识别过程中,如果当前累计的解码延时超过设定的阈值,则将一遍解码的最优路径作为当前搜索识别结果,从而可以针对原本超长响应时间的输入,快速反应给出较为合理识别结果,确保系统对语音输入的识别响应在可控延时内,避免了用户长时间的等待。
相应地,本发明实施例还提供一种语音识别系统,如图8所示,是该系统的一种结构示意图。
在该实施例中,所述系统包括:
第一网络构建单元801,用于构建一遍解码识别网络;
第一解码单元802,用于对接收的语音信号在所述一遍解码识别网络中搜索得到一遍解码候选项;
判断单元803,用于确定所述一遍解码候选项是否满足一遍解码条件;
结果输出单元804,用于在所述判断单元803确定所述一遍解码候选项满足一遍解码条件时,输出一遍解码得到的最优识别结果;
优化处理单元805,用于在所述判断单元803确定所述一遍解码候选项不满足一遍解码条件时,根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理;
第二网络构建单元806,用于根据优化处理后的一遍解码候选项,构建二遍解码识别网络;
第二解码单元807,用于对接收的语音信号在所述二遍解码识别网络中进行二遍解码,得到二遍解码候选项;
所述结果输出单元804,还用于输出二遍解码得到的最优识别结果。
上述判断单元803具体可以根据一遍解码延时或解码效果来确定一遍解码候选项是否满足一遍解码条件,相应地,所述判断单元803也可以有多种实现方式,比如,在判断单元803的一个实施例中,可以包括以下子单元:
一遍解码延时统计子单元,用于统计一遍解码延时;
第一确定子单元,用于在所述一遍解码延时统计子单元统计的一遍解码延时大于预设的第一时间阈值时,确定所述一遍解码候选项满足一遍解码条件;
差值计算子单元,用于在所述延时统计子单元统计的一遍解码延时小于或等于预设的第一时间阈值时,计算一遍解码的最优路径得分和次优路径得分的差值;
第二确定子单元,用于在所述差值计算子单元计算得到的差值大于预设的第一概率阈值时,确定所述一遍解码候选项满足一遍解码条件。
上述一遍延时统计子单元,具体可以按以下公式计算一遍解码延时:t-(tE+ts*(NE-1));
其中,t为当前时间,tE为所述接收的语音信号的最后一个语音段的接收时刻,ts为语音信号处理时设置的帧移长度,NE为最后一个语音段所包括的语音帧总数。
在判断单元803的另一个实施例中,也可以只包括上述一遍解码延时统计子单元和第一确定子单元。
在本发明系统中,所述优化处理单元805可以根据一遍解码延时以及解码可信度,对所述一遍解码候选项进行优化处理。比如,该优化处理单元805的一种优选实施例包括以下几个子单元:
裁剪门限计算子单元,用于计算自适应于所述一遍解码延时的概率裁剪门限;
选择子单元,用于选择所述裁剪门限计算子单元计算得到的概率裁剪门限以及预设的裁剪门限阈值中的较小值作为网络优化裁剪门限;
优化子单元,用于删除一遍解码得到的一遍解码候选项中概率得分与最优路径概率得分差值大于所述网络优化裁剪门限的候选项。
在具体应用中,上述裁剪门限计算子单元可以通过多种方式确定自适应于所述一遍解码延时的概率裁剪门限。比如:
(1)在所述语音识别系统中设置对应关系建立单元(未图示),用于预先建立解码延时与概率裁剪门限的对应关系。
相应地,所述裁剪门限计算子单元可以根据所述对应关系建立单元建立的解码延时与概率裁剪门限的对应关系确定自适应于所述一遍解码延时的概率裁剪门限。
(2)在所述语音识别系统中设置模型训练单元(未图示),用于预先训练得到概率裁剪门限模型。
相应地,所述裁剪门限计算子单元可以根据所述模型训练单元训练得到的概率裁剪门限模型确定自适应于所述一遍解码延时的概率裁剪门限。
当然,本发明实施例中的优化处理单元805并不仅限于上述优化处理方式,优化处理单元805还可以采用其它方式对一遍解码得到的候选项进行优化,减小二遍搜索网络规模,对此不再一一举例。
由此可见,本发明实施例语音识别系统,首先采用简单的快速搜索算法在由声学模型和大规模不受限的语言模型构成的一遍解码识别网络的搜索空间对提取的简单声学特征进行粗略匹配,过滤不合理的识别结果以获取一遍解码候选项;然后根据解码延时状态以及一遍解码可信度自适应优化二遍解码搜索网络;最后在优化后的搜索空间上通过更复杂更精准的二遍搜索确定最优路径,从而可以在不影响原响应速度较快语音信号的识别性能的情况下,针对性地提高响应时间过慢数据的运算效率,并将系统整体响应时延控制在可接受的预设范围内,减少系统过长响应时间。
如图9所示,是本发明实施例语音识别系统的另一种结构示意图。
与图8所示实施例的区别在于,在该实施例中,所述系统还进一步包括:
解码控制单元901,用于在所述第二解码单元807对接收的语音信号在二遍解码识别网络中进行二遍解码过程中,统计所述语音信号中当前语音数据帧的累计解码延时,并在当前语音数据帧的累计解码延时超过预设的第二时间域值时,通知所述第二解码单元807停止二遍解码,并通知所述结果输出单元804输出一遍解码得到的最优识别结果。
需要说明的是,上述累计解码延时是指从所述语音数据帧的生成时刻到二遍解码时的时间,也就是说,该累计解码延时包含了前面提到的一遍解码延时。所述解码控制单元901具体可以按以下公式计算第k个语音段中第i个语音数据帧解码延时:t-(tk+ts*(i-1));其中,t为当前时间,tk为第k个语音段的接收时刻,ts为语音信号处理时设置的帧移长度。
可见,本发明实施例的语音识别系统,在二遍解码识别过程中,如果当前累计的解码延时超过设定的阈值,则将一遍解码的最优路径作为当前搜索识别结果,从而可以针对原本超长响应时间的输入,快速反应给出较为合理识别结果,确保系统对语音输入的识别响应在可控延时内,避免了用户长时间的等待。
对于系统实施例而言,由于其基本相应于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明实施例的精神或范围的情况下,在其它实施例中实现。因此,本发明实施例将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (18)

1.一种语音识别方法,其特征在于,包括:
构建一遍解码识别网络;
对接收的语音信号在所述一遍解码识别网络中搜索得到一遍解码候选项;
如果所述一遍解码候选项满足一遍解码条件,则输出一遍解码得到的最优识别结果;
如果所述一遍解码候选项不满足一遍解码条件,则根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理;
根据优化处理后的一遍解码候选项,构建二遍解码识别网络;
对接收的语音信号在所述二遍解码识别网络中进行二遍解码,得到二遍解码候选项;
输出二遍解码得到的最优识别结果。
2.根据权利要求1所述的方法,其特征在于,按以下方式确定所述一遍解码候选项是否满足一遍解码条件:
统计一遍解码延时;
如果所述一遍解码延时大于预设的第一时间阈值,则确定所述一遍解码候选项满足一遍解码条件。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
如果所述一遍解码延时小于或等于预设的第一时间阈值,则计算一遍解码的最优路径得分和次优路径得分的差值;
如果所述差值大于预设的第一概率阈值,则确定所述一遍解码候选项满足一遍解码条件。
4.根据权利要求2所述的方法,其特征在于,所述统计一遍解码延时包括:
按以下公式计算所述一遍解码延时:t-(tE+ts*(NE-1));
其中,t为当前时间,tE为所述接收的语音信号的最后一个语音段的接收时刻,ts为语音信号处理时设置的帧移长度,NE为最后一个语音段所包括的语音帧总数。
5.根据权利要求2或3或4所述的方法,其特征在于,所述根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理包括:
计算自适应于所述一遍解码延时的概率裁剪门限;
选择计算得到的概率裁剪门限以及预设的裁剪门限阈值中的较小值作为网络优化裁剪门限;
删除一遍解码得到的一遍解码候选项中概率得分与最优路径概率得分差值大于所述网络优化裁剪门限的候选项。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
预先建立解码延时与概率裁剪门限的对应关系;
所述计算自适应于所述一遍解码延时的概率裁剪门限包括:根据所述解码延时与概率裁剪门限的对应关系确定自适应于所述一遍解码延时的概率裁剪门限。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
预先训练得到概率裁剪门限模型;
所述计算自适应于所述一遍解码延时的概率裁剪门限包括:根据训练得到的概率裁剪门限模型确定自适应于所述一遍解码延时的概率裁剪门限。
8.根据权利要求2或3或4所述的方法,其特征在于,所述方法还包括:
在对接收的语音信号在二遍解码识别网络中进行二遍解码过程中,统计所述语音信号中当前语音数据帧的累计解码延时;
如果当前语音数据帧的累计解码延时超过预设的第二时间域值,则停止二遍解码,并输出一遍解码得到的最优识别结果。
9.根据权利要求8所述的方法,其特征在于,所述统计所述语音信号中当前语音数据帧的累计解码延时包括:
按以下公式计算第k个语音段中第i个语音数据帧解码延时:
t-(tk+ts*(i-1));
其中,t为当前时间,tk为第k个语音段的接收时刻,ts为语音信号处理时设置的帧移长度。
10.一种语音识别系统,其特征在于,包括:
第一网络构建单元,用于构建一遍解码识别网络;
第一解码单元,用于对接收的语音信号在所述一遍解码识别网络中搜索得到一遍解码候选项;
判断单元,用于确定所述一遍解码候选项是否满足一遍解码条件;
结果输出单元,用于在所述判断单元确定所述一遍解码候选项满足一遍解码条件时,输出一遍解码得到的最优识别结果;
优化处理单元,用于在所述判断单元确定所述一遍解码候选项不满足一遍解码条件时,根据一遍解码延时以及解码可信度对所述一遍解码候选项进行优化处理;
第二网络构建单元,用于根据优化处理后的一遍解码候选项,构建二遍解码识别网络;
第二解码单元,用于对接收的语音信号在所述二遍解码识别网络中进行二遍解码,得到二遍解码候选项;
所述结果输出单元,还用于输出二遍解码得到的最优识别结果。
11.根据权利要求10所述的系统,其特征在于,所述判断单元包括:
一遍解码延时统计子单元,用于统计一遍解码延时;
第一确定子单元,用于在所述一遍解码延时统计子单元统计的一遍解码延时大于预设的第一时间阈值时,确定所述一遍解码候选项满足一遍解码条件。
12.根据权利要求11所述的系统,其特征在于,所述判断单元还包括:差值计算子单元,用于在所述延时统计子单元统计的一遍解码延时小于或等于预设的第一时间阈值时,计算一遍解码的最优路径得分和次优路径得分的差值;
第二确定子单元,用于在所述差值计算子单元计算得到的差值大于预设的第一概率阈值时,确定所述一遍解码候选项满足一遍解码条件。
13.根据权利要求11所述的系统,其特征在于,
所述一遍延时统计子单元,具体用于按以下公式计算一遍解码延时:t-(tE+ts*(NE-1));
其中,t为当前时间,tE为所述接收的语音信号的最后一个语音段的接收时刻,ts为语音信号处理时设置的帧移长度,NE为最后一个语音段所包括的语音帧总数。
14.根据权利要求11或12或13所述的系统,其特征在于,所述优化处理单元包括:
裁剪门限计算子单元,用于计算自适应于所述一遍解码延时的概率裁剪门限;
选择子单元,用于选择所述裁剪门限计算子单元计算得到的概率裁剪门限以及预设的裁剪门限阈值中的较小值作为网络优化裁剪门限;
优化子单元,用于删除一遍解码得到的一遍解码候选项中概率得分与最优路径概率得分差值大于所述网络优化裁剪门限的候选项。
15.根据权利要求14所述的系统,其特征在于,所述系统还包括:
对应关系建立单元,用于预先建立解码延时与概率裁剪门限的对应关系;
所述裁剪门限计算子单元,具体用于根据所述对应关系建立单元建立的解码延时与概率裁剪门限的对应关系确定自适应于所述一遍解码延时的概率裁剪门限。
16.根据权利要求14所述的系统,其特征在于,所述系统还包括:
模型训练单元,用于预先训练得到概率裁剪门限模型;
所述裁剪门限计算子单元,具体用于根据所述模型训练单元训练得到的概率裁剪门限模型确定自适应于所述一遍解码延时的概率裁剪门限。
17.根据权利要求11或12或13所述的系统,其特征在于,所述系统还包括:
解码控制单元,用于在所述第二解码单元对接收的语音信号在二遍解码识别网络中进行二遍解码过程中,统计所述语音信号中当前语音数据帧的累计解码延时,并在当前语音数据帧的累计解码延时超过预设的第二时间域值时,通知所述第二解码单元停止二遍解码,并通知所述结果输出单元输出一遍解码得到的最优识别结果。
18.根据权利要求17所述的系统,其特征在于,
所述解码控制单元按以下公式计算第k个语音段中第i个语音数据帧解码延时:t-(tk+ts*(i-1));其中,t为当前时间,tk为第k个语音段的接收时刻,ts为语音信号处理时设置的帧移长度。
CN2011103878264A 2011-11-29 2011-11-29 语音识别方法及系统 Active CN102376305B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011103878264A CN102376305B (zh) 2011-11-29 2011-11-29 语音识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011103878264A CN102376305B (zh) 2011-11-29 2011-11-29 语音识别方法及系统

Publications (2)

Publication Number Publication Date
CN102376305A true CN102376305A (zh) 2012-03-14
CN102376305B CN102376305B (zh) 2013-06-19

Family

ID=45794811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011103878264A Active CN102376305B (zh) 2011-11-29 2011-11-29 语音识别方法及系统

Country Status (1)

Country Link
CN (1) CN102376305B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103035243A (zh) * 2012-12-18 2013-04-10 中国科学院自动化研究所 长语音连续识别及识别结果实时反馈方法和系统
CN103794211A (zh) * 2012-11-02 2014-05-14 北京百度网讯科技有限公司 一种语音识别方法及系统
CN103971686A (zh) * 2013-01-30 2014-08-06 腾讯科技(深圳)有限公司 自动语音识别方法和系统
CN105006230A (zh) * 2015-06-10 2015-10-28 合肥工业大学 一种面向非特定人的语音敏感信息检测和过滤方法
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105913848A (zh) * 2016-04-13 2016-08-31 乐视控股(北京)有限公司 一种基于最小堆的路径存储方法、系统和语音识别器
CN106782546A (zh) * 2015-11-17 2017-05-31 深圳市北科瑞声科技有限公司 语音识别方法与装置
CN106887226A (zh) * 2017-04-07 2017-06-23 天津中科先进技术研究院有限公司 一种基于人工智能识别的语音识别算法
CN107230478A (zh) * 2017-05-03 2017-10-03 上海斐讯数据通信技术有限公司 一种语音信息处理方法及系统
CN108550365A (zh) * 2018-02-01 2018-09-18 北京云知声信息技术有限公司 离线语音识别的阈值自适应调整方法
CN108694939A (zh) * 2018-05-23 2018-10-23 广州视源电子科技股份有限公司 语音搜索优化方法、装置和系统
CN108711422A (zh) * 2018-05-14 2018-10-26 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机可读存储介质和计算机设备
CN109243460A (zh) * 2018-08-15 2019-01-18 浙江讯飞智能科技有限公司 一种自动生成基于地方方言的讯或询问笔录的方法
CN109727603A (zh) * 2018-12-03 2019-05-07 百度在线网络技术(北京)有限公司 语音处理方法、装置、用户设备及存储介质
CN110033758A (zh) * 2019-04-24 2019-07-19 武汉水象电子科技有限公司 一种基于小训练集优化解码网络的语音唤醒实现方法
CN110111775A (zh) * 2019-05-17 2019-08-09 腾讯科技(深圳)有限公司 一种流式语音识别方法、装置、设备及存储介质
CN110473527A (zh) * 2019-09-17 2019-11-19 浙江核新同花顺网络信息股份有限公司 一种语音识别的方法和系统
CN110942763A (zh) * 2018-09-20 2020-03-31 阿里巴巴集团控股有限公司 语音识别方法及装置
CN111292723A (zh) * 2020-02-07 2020-06-16 普强时代(珠海横琴)信息技术有限公司 一种语音识别系统
CN112071310A (zh) * 2019-06-11 2020-12-11 北京地平线机器人技术研发有限公司 语音识别方法和装置、电子设备和存储介质
CN113763960A (zh) * 2021-11-09 2021-12-07 深圳市友杰智新科技有限公司 模型输出的后处理方法、装置和计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050119885A1 (en) * 2003-11-28 2005-06-02 Axelrod Scott E. Speech recognition utilizing multitude of speech features
CN1773606A (zh) * 2004-11-12 2006-05-17 中国科学院声学研究所 一种基于混淆网络的语音解码方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050119885A1 (en) * 2003-11-28 2005-06-02 Axelrod Scott E. Speech recognition utilizing multitude of speech features
CN1773606A (zh) * 2004-11-12 2006-05-17 中国科学院声学研究所 一种基于混淆网络的语音解码方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
尹明明等: "基于词图重估的语音解码参数优化方法", 《计算机工程》 *
张世磊等: "IBM GALE中文识别系统", 《清华大学学报(自然科学版)》 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103794211B (zh) * 2012-11-02 2017-03-01 北京百度网讯科技有限公司 一种语音识别方法及系统
CN103794211A (zh) * 2012-11-02 2014-05-14 北京百度网讯科技有限公司 一种语音识别方法及系统
CN103035243A (zh) * 2012-12-18 2013-04-10 中国科学院自动化研究所 长语音连续识别及识别结果实时反馈方法和系统
US9472190B2 (en) 2013-01-30 2016-10-18 Tencent Technology (Shenzhen) Company Limited Method and system for automatic speech recognition
CN103971686B (zh) * 2013-01-30 2015-06-10 腾讯科技(深圳)有限公司 自动语音识别方法和系统
CN103971686A (zh) * 2013-01-30 2014-08-06 腾讯科技(深圳)有限公司 自动语音识别方法和系统
WO2014117577A1 (en) * 2013-01-30 2014-08-07 Tencent Technology (Shenzhen) Company Limited Method and system for automatic speech recognition
CN105006230A (zh) * 2015-06-10 2015-10-28 合肥工业大学 一种面向非特定人的语音敏感信息检测和过滤方法
CN106782546A (zh) * 2015-11-17 2017-05-31 深圳市北科瑞声科技有限公司 语音识别方法与装置
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105913848A (zh) * 2016-04-13 2016-08-31 乐视控股(北京)有限公司 一种基于最小堆的路径存储方法、系统和语音识别器
CN106887226A (zh) * 2017-04-07 2017-06-23 天津中科先进技术研究院有限公司 一种基于人工智能识别的语音识别算法
CN107230478A (zh) * 2017-05-03 2017-10-03 上海斐讯数据通信技术有限公司 一种语音信息处理方法及系统
CN108550365A (zh) * 2018-02-01 2018-09-18 北京云知声信息技术有限公司 离线语音识别的阈值自适应调整方法
CN108550365B (zh) * 2018-02-01 2021-04-02 云知声智能科技股份有限公司 离线语音识别的阈值自适应调整方法
CN108711422A (zh) * 2018-05-14 2018-10-26 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机可读存储介质和计算机设备
WO2019218818A1 (zh) * 2018-05-14 2019-11-21 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机可读存储介质和计算机设备
CN108711422B (zh) * 2018-05-14 2023-04-07 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机可读存储介质和计算机设备
CN108694939A (zh) * 2018-05-23 2018-10-23 广州视源电子科技股份有限公司 语音搜索优化方法、装置和系统
CN109243460A (zh) * 2018-08-15 2019-01-18 浙江讯飞智能科技有限公司 一种自动生成基于地方方言的讯或询问笔录的方法
CN110942763A (zh) * 2018-09-20 2020-03-31 阿里巴巴集团控股有限公司 语音识别方法及装置
CN110942763B (zh) * 2018-09-20 2023-09-12 阿里巴巴集团控股有限公司 语音识别方法及装置
CN109727603A (zh) * 2018-12-03 2019-05-07 百度在线网络技术(北京)有限公司 语音处理方法、装置、用户设备及存储介质
CN110033758A (zh) * 2019-04-24 2019-07-19 武汉水象电子科技有限公司 一种基于小训练集优化解码网络的语音唤醒实现方法
CN110033758B (zh) * 2019-04-24 2021-09-24 武汉水象电子科技有限公司 一种基于小训练集优化解码网络的语音唤醒实现方法
CN110111775A (zh) * 2019-05-17 2019-08-09 腾讯科技(深圳)有限公司 一种流式语音识别方法、装置、设备及存储介质
CN112071310A (zh) * 2019-06-11 2020-12-11 北京地平线机器人技术研发有限公司 语音识别方法和装置、电子设备和存储介质
CN112071310B (zh) * 2019-06-11 2024-05-07 北京地平线机器人技术研发有限公司 语音识别方法和装置、电子设备和存储介质
CN110473527A (zh) * 2019-09-17 2019-11-19 浙江核新同花顺网络信息股份有限公司 一种语音识别的方法和系统
CN110473527B (zh) * 2019-09-17 2021-10-08 浙江核新同花顺网络信息股份有限公司 一种语音识别的方法和系统
CN111292723A (zh) * 2020-02-07 2020-06-16 普强时代(珠海横琴)信息技术有限公司 一种语音识别系统
CN113763960A (zh) * 2021-11-09 2021-12-07 深圳市友杰智新科技有限公司 模型输出的后处理方法、装置和计算机设备

Also Published As

Publication number Publication date
CN102376305B (zh) 2013-06-19

Similar Documents

Publication Publication Date Title
CN102376305B (zh) 语音识别方法及系统
CN102592595B (zh) 语音识别方法及系统
US10937448B2 (en) Voice activity detection method and apparatus
US9070367B1 (en) Local speech recognition of frequent utterances
CN103035243B (zh) 长语音连续识别及识别结果实时反馈方法和系统
CN108305634B (zh) 解码方法、解码器及存储介质
JP7336537B2 (ja) 組み合わせで行うエンドポイント決定と自動音声認識
US9002705B2 (en) Interactive device that recognizes input voice of a user and contents of an utterance of the user, and performs a response corresponding to the recognized contents
US11132509B1 (en) Utilization of natural language understanding (NLU) models
CN107123417A (zh) 基于鉴别性训练的定制语音唤醒优化方法及系统
CN103000176B (zh) 语音识别方法和系统
CN104036774A (zh) 藏语方言识别方法及系统
CN114097026A (zh) 语音识别的上下文偏置
JPWO2008001485A1 (ja) 言語モデル生成システム、言語モデル生成方法および言語モデル生成用プログラム
CN103065630A (zh) 用户个性化信息语音识别方法及系统
CN103077708A (zh) 一种语音识别系统中拒识能力提升方法
KR20060050361A (ko) 음성 분류 및 음성 인식을 위한 은닉 조건부 랜덤 필드모델
CN112825248A (zh) 语音处理方法、模型训练方法、界面显示方法及设备
CN111797632A (zh) 信息处理方法、装置及电子设备
CN112599152B (zh) 语音数据标注方法、系统、电子设备及存储介质
CN103050116A (zh) 语音命令识别方法及系统
CN112509560B (zh) 一种基于缓存语言模型的语音识别自适应方法和系统
US20220399013A1 (en) Response method, terminal, and storage medium
JPWO2010128560A1 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
CN117099157A (zh) 用于端到端自动语音识别置信度和删除估计的多任务学习

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee

Owner name: IFLYTEK CO., LTD.

Free format text: FORMER NAME: ANHUI USTC IFLYTEK CO., LTD.

CP03 Change of name, title or address

Address after: Wangjiang Road high tech Development Zone Hefei city Anhui province 230088 No. 666

Patentee after: Iflytek Co., Ltd.

Address before: 230088 No. 616, Mount Huangshan Road, hi tech Development Zone, Anhui, Hefei

Patentee before: Anhui USTC iFLYTEK Co., Ltd.

TR01 Transfer of patent right

Effective date of registration: 20180312

Address after: 230088, Hefei province high tech Zone, 2800 innovation Avenue, 248 innovation industry park, H2 building, room two, Anhui

Patentee after: Anhui hear Technology Co., Ltd.

Address before: Wangjiang Road high tech Development Zone Hefei city Anhui province 230088 No. 666

Patentee before: Iflytek Co., Ltd.

TR01 Transfer of patent right