CN104538032A - 一种融合用户反馈的汉语语音识别方法及系统 - Google Patents
一种融合用户反馈的汉语语音识别方法及系统 Download PDFInfo
- Publication number
- CN104538032A CN104538032A CN201410806233.0A CN201410806233A CN104538032A CN 104538032 A CN104538032 A CN 104538032A CN 201410806233 A CN201410806233 A CN 201410806233A CN 104538032 A CN104538032 A CN 104538032A
- Authority
- CN
- China
- Prior art keywords
- word
- candidate
- grid
- node
- candidate list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了融合用户反馈的汉语语音识别方法及系统,涉及语音识别领域,包括步骤1,获取输入语音,根据所述输入语音,生成词网格,并将所述词网格转换为字的候选列表;步骤2,获取用户对所述候选列表中的所述用户反馈,所述用户反馈包括:所述用户选择所述候选列表中与所述输入语音相对应的正确字,或输入与所述输入语音相对应的所述正确字;步骤3,将所述正确字以及所述正确字对应的候选列之前的各候选列的第一个候选字作为已确定文字,并以所述已确定文字为约束和指导,调整未确定文字对应的所述候选列表,生成新的候选列表;步骤4,重复所述步骤2、3,直到正确识别所述输入语音或所述用户输入新输入语音,以完成语音识别。
Description
技术领域
本发明涉及语音识别技术领域,特别涉及一种融合用户反馈的汉语语音识别方法及系统。
背景技术
近年来,计算机自动语音识别技术取得了长足的进展,涌现出了一批代表性的应用,但是,由于当前语音识别技术自身的限制,识别错误仍然不可避免,而很多情况下少数几个错字就能改变整个句子的语义,因而大大影响了用户的体验和对语音识别技术的热情。
为解决当前语音识别技术与实际应用需求之间的矛盾,一些研究者将语音识别和人机交互技术相结合,提出了融合用户反馈的语音识别错误修正方法,其主要特点是提供便捷的交互界面辅助用户对识别结果进行反馈和修正,以得到高准确率的识别文本。这些反馈方式包括结合键盘输入、语音重新输入(re-speaking)、手写输入等的多通道输入和候选选择。近年来,以词为单位的候选选择受到了研究者的重视,该方式下系统不仅显示每句话的识别结果,而且为识别结果中的每个词同时提供多个候选,当第一候选识别错误时,用户可通过选择其它候选词来纠正识别错误,这种方法可将相当一部分错误修正工作以点击或触摸的形式实现,用户界面友好、操作效率较高,但是,当识别错误较多时,用户需要查看各候选列并进行选择,还需要采用键盘等设备输入不在候选列表中的字词,人工操作负担仍然相对较重,因此,提高语音识别结果的正确率,减少所需的修正操作,特别是键盘输入操作,仍然是当前研究的重点,而在提高语音识别正确率方面,除了提高通用识别引擎的性能外,针对用户正在输入的语音,自动学习用户反馈中的包含的隐含信息,快速调整识别结果,对于提高识别性能、提升用户体验,也具有重要作用。
发明内容
针对现有技术的不足,本发明提出一种融合用户反馈的汉语语音识别方法及系统。
本发明提出一种融合用户反馈的汉语语音识别方法,包括:
步骤1,获取输入语音,根据所述输入语音,生成词网格,并将所述词网格转换为字的候选列表;
步骤2,获取用户对所述候选列表中的所述用户反馈,所述用户反馈包括:所述用户选择所述候选列表中与所述输入语音相对应的正确字,或输入与所述输入语音相对应的所述正确字;
步骤3,,将所述正确字以及所述正确字对应的候选列之前的各候选列的第一个候选字作为已确定文字,并以所述已确定文字为约束和指导,调整未确定文字对应的所述候选列表,生成新的候选列表;
步骤4,重复所述步骤2、3,直到正确识别所述输入语音或所述用户输入新输入语音,以完成语音识别。
所述的融合用户反馈的汉语语音识别方法,所述步骤3包括:
步骤31,对于所述已确定文字,创建只包括正确字/词的精简词网格;
步骤32,将未确定文字对应的所述候选列表进行词网格扩充,生成与未确定文字对应的所述候选列表中候选列中字/词发音相近的字/词,并创建对应的词网格节点;
步骤33,将所述精简词网格与所述用户反馈前的所述词网格中对应未确定文字的部分相连,并将所述词网格节点加入所述词网格,生成新词网格;
步骤34,对所述新词网格进行概率重估,计算所述新词网格中各路径的概率;
步骤35,根据所述新词网格与所述概率,生成新候选列表。
所述的融合用户反馈的汉语语音识别方法,所述步骤31包括:将所述已确定文字切分为新词,为每个新词建立词网格节点,并在相邻新词之间创建弧进行连接。
所述的融合用户反馈的汉语语音识别方法,所述步骤32包括:生成所述用户反馈的候选列的下一候选列中的候选字的混淆音字;生成第一候选字与所述正确字相同,第二候选字与所述下一候选列中的候选字发音相近的混淆音词。
本发明还提出一种融合用户反馈的汉语语音识别系统,包括:
自动语音识别模块,用于获取输入语音,根据所述输入语音,生成词网格,并将所述词网格转换为字的候选列表;
获取用户反馈模块,用于获取用户对所述候选列表中的所述用户反馈,所述用户反馈包括:所述用户选择所述候选列表中与所述输入语音相对应的正确字,或输入与所述输入语音相对应的所述正确字;
调整候选列表模块,用于将所述正确字以及所述正确字对应的候选列之前的各候选列的第一个候选字作为已确定文字,并以所述已确定文字为约束和指导,调整未确定文字对应的所述候选列表,生成新的候选列表;
识别模块,用于重复运行所述获取用户反馈模块、所述调整候选列表模块,直到正确识别所述输入语音或所述用户输入新输入语音,以完成语音识别。
所述的融合用户反馈的汉语语音识别系统,所述调整候选列表模块包括:精简模块,用于对于所述已确定文字,创建只包括正确字/词的精简词网格;
扩充模块,用于将未确定文字对应的所述候选列表进行词网格扩充,生成与未确定文字对应的所述候选列表中候选列中字/词发音相近的字/词,并创建对应的词网格节点;
词网格连接模块,用于将所述精简词网格与所述用户反馈前的所述词网格中对应未确定文字的部分相连,并将所述词网格节点加入所述词网格,生成新词网格;
词网格重估模块,对所述新词网格进行概率重估,计算所述新词网格中各路径的概率;
新候选列表生成模块,根据所述新词网格与所述概率,生成新候选列表。
所述的融合用户反馈的汉语语音识别系统,所述精简模块包括,用于将所述已确定文字切分为新词,为每个新词建立词网格节点,并在相邻新词之间创建弧进行连接。
所述的融合用户反馈的汉语语音识别系统,所述扩充模块包括:用于生成所述用户反馈的候选列的下一候选列中的候选字的混淆音字;生成第一候选字与所述正确字相同,第二候选字与所述下一候选列中的候选字发音相近的混淆音词。
由以上方案可知,本发明的优点在于:
本发明不同于已有的融合用户反馈的语音识别系统只能被动地接收用户修正,本发明提供的融合用户反馈的汉语语音识别方法及系统,可以利用用户反馈的信息动态调整候选列表,使得每当用户反馈后,都能自动提高后续候选列表的准确率,从而可以减少用户的修正操作,从而节省人力。
附图说明
图1为融合用户反馈的汉语语音识别方法的流程和步骤图;
图2为词网格示例图;
图3为候选列表示例图;
图4为显示候选列表和获取用户反馈的界面图;
图5为基于用户反馈的候选列表动态调整示例图;
图6为基于词网格增减和重估的候选列表调整方法的流程和步骤图;
图7为精简词网格示例图;
图8为词网格连接示例图。
具体实施方式
本发明的目的是解决上述现有的融入用户反馈的语音识别系统只能被动接收用户修正,需要耗费大量的人力才能得到正确语音识别结果,无法利用用户反馈提高候选列表的准确率的问题。本发明提供了一种融合用户反馈的汉语语音识别方法和系统。该方法和系统将语音识别结果表示为以汉字为单位的候选列表显示在屏幕上,然后接收用户以候选选择和输入方式进行的修正反馈操作,每次反馈后,自动调整候选列表,以提高用户尚未反馈的候选列表的正确率。
如图1所示,以下为本发明的流程和步骤:
步骤1,采用自动语音识别模块,对输入语音进行自动识别。对于每一句语音,保存其中间识别结果N-best词网格,并将词网格转换为以汉字为单位的候选列表,显示在屏幕上。词网格(word lattice)是语音识别领域常用的数据结构,也称为词图,本质上是一个有向无环图,词网格中的每个结点对应一个词,每条弧为从一个结点指向另一个结点的有向连接。如果词网格中存在从结点N1到结点N2的弧,则称N1为N2的前驱结点,N2为N1的后继结点,语音识别本质上是在词网格上寻找一条概率最高的路径的过程,N-best词网格为概率最高的前N条识别结果对应的结点和弧构成的词网格;所述候选列表包含若干列,每列中的字为具有竞争关系的候选字,所有列的第一个字组成的句子为语音识别系统的默认识别结果。汉字候选列表的生成可采用当前已有方法,如采用专利ZL201010269306.9(一种交互式语音识别系统和方法)中的“候选生成与错误修正模块”从词网格生成候选列表;
步骤2,对于当前显示的汉字候选列表,采用用户反馈获取界面获取用户反馈,所述用户反馈获取界面可支持的反馈方式包括:
候选选择,即用户通过鼠标点击、触摸屏触摸、手写笔点触等方式选择显示在屏幕上的候选列表中的某个候选字作为修正后的语音识别结果;
输入,即针对候选列表中的某列,用户通过键盘、手写等常用文字输入方式输入正确的字,以纠正识别结果中的错误。这种方式一般用于候选列表中不包含正确的字的情形。
步骤3,每当用户反馈后,基于用户反馈进行候选列表动态调整。本发明通过基于词网格增减和重估对候选列表进行调整,每当用户通过候选选择或输入修正某个字后,系统将修正后的正确字以及该字之前的各候选列的第一个候选字连成的汉字串作为已确定的文字,并以已确定的文字为约束和指导,调整其后未确定文字对应的候选列表,得到准确率更高的结果。把调整后的候选列表显示在屏幕上,并接收新的反馈。重复步骤2、3直到用户认为修正完成或切换到下一句语音。
如图6所示,步骤3中通过基于词网格增减和重估对候选列表进行调整的主要步骤包括:词网格精简,对于系统认为已确定的文字,创建只包含正确字词的精简词网格;词网格扩充,对于已确定的文字之后的候选列表,由于正确的字词有可能并不在词网格上,因此对该部分候选列表对应的词网格进行扩充,生成一批与当前候选列中的字发音相近的字和词并创建对应的词网格结点;词网格连接,将精简词网格和本次用户反馈前的词网格中对应未确定文字的部分连接,并将词网格扩充步骤中生成的字、词结点加入词网格中,形成新的词网格;词网格重估,对新的词网格进行概率重估,即重新计算词网格上各路径的概率;新候选列表生成,利用新的词网格及概率重估的结果生成新的候选列表。
词网格精简的方法为:利用已确定的文字重新建立词网格结点和弧,生成精简词网格,具体步骤为:将已确定的文字采用自动分词系统切分为词,然后为每个词建立一个词网格结点,并在相邻词之间创建一条弧进行连接。
词网格扩充发生在用户通过选择候选或输入对某一候选列进行修正之后,主要任务是:生成与当前修正的候选列的下一候选列中的候选字发音相近的字(称为混淆音字);生成第一字与当前修正的候选列修正后的正确字相同,第二字与当前修正的候选列的下一候选列中的候选字发音相近的二字词(称为混淆音词),具体方法如下:
步骤a.对于当前修正的候选列Candi的下一候选列Candi+1,取出其中所有候选字{Candi+1,1,Candi+1,2,...,Candi+1,k},其中k为该候选列中候选字的个数;对每一个候选字Candi+1,j(1≤j≤k),取出它的拼音Pinyini+1,j;
步骤b.利用预先训练好的音节混淆矩阵,计算每一候选字拼音Pinyini+1,j与每个汉语音节phone的混淆概率,如果混淆概率大于预先设定的阈值θ,则保留该音节phone,并称该音节为混淆音节;所述音节混淆矩阵为语音识别领域常用的模块,为一个n×n的矩阵,其中n为汉语中音节的个数,矩阵中的元素sij(1≤i,j≤n)给出了音节phonei被语音识别系统识别为phonej的概率;音节混淆矩阵可通过语音数据及其对应的文本和语音识别结果预先训练得到;
对步骤a中得到的所有候选字拼音按上述方法获取混淆音节后合并、去除重复音节,可得到一个混淆音节集合ConfPinyinSet={ConfPinyin1,ConfPinyin2,…,ConfPinyinm},其中m为混淆音节的个数;
步骤c.针对混淆音节集合ConfPinyinSet中的每一个混淆音节ConfPinyint(1≤t≤m),可由发音词典得到该音节对应的所有汉字,对于每一个汉字,计算该字与已确定的文字中最后一个词的二元语法概率,当概率大于预先设定的阈值δ时,才保留该字,已确定的文字中最后一个词的获取方法为将已确定的文字采用汉语自动分词系统进行分词,并取分词结果中最后一个词;
对混淆音节集合ConfPinyinSet中的所有音节,进行上述操作,合并其保留的汉字结果并去除重复汉字,可得到混淆音字的集合ConfCharSet={ConfChar1,ConfChar2,…,ConfCharq},其中q为混淆音字的个数;
步骤d.对于本次用户修正后的正确字CorrectChar,取得其拼音CorrectPinyin,将CorrectPinyin与步骤b中得到的混淆音节集合ConfPinyinSet中的每一个混淆音节进行组合,即对于任意ConfPinyint∈ConfPinyinSet,得到CombinedPinyint=CorrectPinyin+ConfPinyint;查找列有所有汉语词及其拼音的词典,如果CombinedPinyint是某个汉语词的拼音并且该汉语词的第一个字是CorrectChar,则将该汉语词加入到集合ConfWordSet中。最后可得到一个混淆音词的集合ConfWordSet={ConfWord1,…,ConfWord2,…,ConfWordr},其中r为ConfWordSet中汉语词的个数;
步骤e.对于任一个混淆音字ConfCharu∈ConfCharSet,创建以ConfCharu为内容的词网格结点;对于任一个混淆音词ConfWordv∈ConfWordSet,创建以ConfWordv为内容的词网格结点。
词网格连接的主要任务是:将词网格精简算法得到的精简词网格与本次用户反馈前的词网格中对应未确定文字的部分进行连接;将通过词网格扩充算法创建的混淆音字和混淆音词对应的结点加入到新词网格中,即为这些混淆音字和混淆音词的结点设置前驱结点和后继结点。
词网格精简算法得到的精简词网格中,各结点顺序连接,设其中最后一个结点为Nodej,倒数第二个结点为Nodej-1,词网格连接算法的具体步骤如下:
步骤11、对于词网格扩充算法中创建的所有混淆音字结点,将每一个结点都连接至Nodej之后作为其后继结点;
步骤12、如果Nodej对应的词为单个汉字,则执行下述操作:对于词网格扩充算法中创建的所有混淆音词结点,将每一个结点都连接至Nodej-1之后作为其后继结点;如果Nodej对应的词为多个汉字的词,则直接执行步骤13;
步骤13、对于当前修正的候选列Candi的下一候选列Candi+1中的所有候选字,取得在原始词网格中与这些候选字相对应的结点,并将这些结点分为两类:一类是结点对应的词以Candi+1中的候选字结尾的(包括结点对应的词为单个候选字本身),另一类是结点对应的词不以Candi+1中的候选字结尾的;将第一类结点在词网格中的后继结点放入一个集合Set中;对于第二类结点,为其中每个结点生成一个顺序连接的结点序列,该结点序列中的每个结点分别对应原结点对应的词中位于Candi+1中的候选字之后的汉字串经分词之后得到的一个词,将原结点在本次用户反馈前的词网格中的所有后继结点连接至该结点序列的最后一个结点,将该结点序列的第一个结点加入集合Set;将Set中的每一个结点分别连接至每一个混淆音字结点之后;如果Nodej对应的词为单个汉字,将Set中的每一个结点分别连接至每一个混淆音词结点之后;
步骤14、如果在修正当前候选列Candi时,修正后的正确字CorrectChar存在于Candi的候选字中,则执行下述步骤,否则直接执行步骤15:取得CorrectChar在本次用户反馈前的词网格中对应的结点,并将这些结点分为三类:第一类是CorrectChar作为结点对应的词中的最后一个字(包括结点对应的词为CorrectChar本身),第二类是结点对应的词为多个字且CorrectChar为其第一个字,第三类是结点对应的词为三字或三字以上且CorrectChar不是其第一个字和最后一个字;将第一类结点的后继结点连接至Nodej作为其后继结点;如果Nodej的结点对应的词为单个汉字,则继续执行下述操作,否则操作结束:将第二类结点连至Nodej-1作为其后继结点;对于第三类结点,为每个结点生成一个顺序连接的结点序列,该结点序列中的每个结点分别对应原结点对应的词中位于CorrectChar之后的汉字串经分词之后得到的一个词,将原结点在本次用户反馈前的词网格中的所有后继结点连接至该结点序列的最后一个结点,将该结点序列的第一个结点连接至Nodej作为其后继结点;
步骤15、如果在修正当前候选列Candi时,修正后的正确字CorrectChar不存在于Candi的候选字中,则:对于当前修正的候选列Candi的所有候选字,取得在本次用户反馈前的词网格中与这些候选字相对应的结点,并将这些结点分为两类:一类是结点对应的词以Candi中的候选字的(包括结点对应的词为单个候选字),另一类是结点对应的词不以Candi中的候选字结尾的;将第一类结点在用户反馈前的词网格中的后继结点连接至Nodej作为其后继结点;如果Nodej对应的词为单个汉字,则继续执行下述操作,否则操作结束:对于第二类结点,为其中每个结点生成一个顺序连接的结点序列,该结点序列中的每个结点分别对应原结点对应的词中位于Candi中的候选字之后的汉字串经分词之后得到的一个词,将原结点在本次用户反馈前的词网格中的所有后继结点连接至该结点序列的最后一个结点,将该结点序列的第一个结点连接至Nodej作为其后继结点。
词网格重估是指经过对词网格连接得到的新词网格,采用语言模型重新计算新词网格中所有路径的概率,词网格重估方法可采用语音识别领域当前常用的各种语言模型和重估方法,如n-gram语言模型及其相应的概率计算方法。词网格重估时采用的语言模型可以与自动语音识别模块采用的语言模型相同,也可以不同。
新候选列表生成采用的方法与自动语音识别模块中所用的候选列表生成方法相同,可采用当前已有的各种方法。
为了使本发明的目的、技术方案及优点更加清楚,以下结合附图及实施例,对本发明的融合用户反馈的汉语语音识别方法及系统进一步详细说明,应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供了一种融合用户反馈的汉语语音识别方法及系统,融合用户反馈的汉语语音识别方法的总体流程和步骤如附图1所示:
自动语音识别,具体步骤如下:
采用自动语音识别模块,对输入语音进行自动识别。对于较长的连续语音,自动语音识别模块可首先将语音切分为句子;对于每一句语音,依次进行语音识别,保存其中间识别结果N-best词网格。
自动语音识别模块可采用当前已有技术构建,也可利用第三方提供的网络语音识别接口。在一个实施例中,自动语音识别模块采用当前已有技术构建:声学特征为MFCC、短时能量及其一阶、二阶差分,声学模型为带调三音子的HMM模型,语言模型为3-gram模型,词表规模为120K,解码算法为基于令牌传递的深度优先搜索算法。
对每一句语音,保存N-best词网格作为识别结果。词网格(word lattice)是语音识别领域常用的数据结构,也称为词图,本质上是一个有向无环图。词网格中的每个结点对应一个词,每条弧为从一个结点指向另一个结点的有向连接。如果词网格中存在从结点N1到结点N2的弧,则称N1为N2的前驱结点,N2为N1的后继结点。语音识别本质上是在词网格上寻找一条概率最高的路径的过程。N-best词网格为概率最高的前N条识别结果对应的结点和弧构成的词网格。附图2给出了一个实施例中对内容为“北京欢迎你”的语音进行识别后得到的N-best词网格中的一部分(完整的N-best词网格较大,无法完全画在图中),其中<s>和</s>对应两个预先定义的特殊结点,分别表示句子的开始和结束,词网格中的每条从<s>和</s>的路径都对应一条语音识别结果,如“北京换映你”、“背景换映你”、“背景欢迎你”、“北京欢迎你”等,词网格上每一条弧都带有相应的概率值,表示识别结果为该弧所指向的词的概率。通常语音识别系统的输出结果为概率最大的路径,在本实施例中为“背景欢迎你”;而本发明则基于词网格生成候选列表,可显示多个候选结果。
候选列表生成,具体步骤如下:
将语音识别的中间结果N-best词网格转换为候选列表。候选列表包含若干列,每列中的字为具有竞争关系的候选字,所有列的第一个字组成的句子为语音识别系统的默认识别结果。汉字候选列表的生成可采用当前已有方法,在一个实施例中,采用专利ZL201010269306.9(一种交互式语音识别系统和方法)中的“候选生成与错误修正模块”从词网格生成候选列表。附图3给出了一个实施例中由附图2中的示例词网格生成的候选列表示例。
候选列表显示,具体步骤如下:
设计相应的界面,将汉字候选列表显示在屏幕上。一个实施例中,显示候选列表的界面如附图4所示。该界面既可用于PC,又可用于手机、平板电脑等移动终端。该界面中间部分显示的即为候选列表,每列最多显示10个候选字,如果某列的候选字多于10个,点击候选列下方的↑↓可滚动候选列表。
用户反馈获取,具体步骤如下,:
通过用户反馈界面获取用户反馈,支持的反馈包括候选选择和输入。一个实施例中,用户反馈界面如附图4所示。在候选列中点击相应的候选字即可进行候选选择,当正确答案不在候选列中时,可以在每个候选列的上方的文本框中输入正确的字,如附图4中第4、5列的“接”、“近”。该实施例的界面同时支持PC和手机、平板电脑等移动终端。在PC时采用鼠标点击选择候选,键盘输入文字;在移动终端时则采用触摸屏进行选择,采用触摸屏虚拟键盘进行文字输入。
基于词网格增减和重估的候选列表调整,具体如下所示:
本发明中可利用用户反馈信息,动态调整候选列表,采用的方法为基于词网格增减和重估的候选列表调整方法。该方法可实时响应用户的修正操作,每当用户通过候选选择或输入修正某个字后,系统将修正后的正确字以及该字之前的各候选列的第一个候选字连成的汉字串作为已确定的文字,并以已确定的文字为约束和指导,调整其后未确定文字对应的候选列表,得到准确率更高的结果。附图5给出了一个示例:语音对应的正确文本为“再次沉积到汽车”。在左侧的初始结果中,“沉积到”三个字在第一候选中识别错误。而当用户点击“沉”进行修正后,系统将自动将候选列表调整后右侧的结果,“积”、“到”两个字自动出现在第一候选中,避免了用户的选择操作。
基于词网格增减和重估的候选列表调整方法的流程如附图6所示,包括5个步骤:词网格精简,词网格扩充,词网格连接,词网格重估,新候选列表生成。
词网格精简,具体步骤如下所示:
词网格精简的方法为:利用已确定的文字重新建立词网格结点和弧,生成精简词网格。具体步骤为:将已确定的文字采用自动分词系统切分为词,然后为每个词建立一个词网格结点,并在相邻词之间创建一条弧进行连接。在一个实施例中,自动分词系统采用第三方提供的ICTCLAS分词系统。
附图7给出了一个实施例中词网格精简的一个示例:一句语音对应的正确结果是“中国是一个幅员辽阔的国家”,通过识别引擎得到的初始结果是“中国是一个幅员辽郭得国家”。用户首先会对从左到右检查识别结果,当用户发现“郭”这个字不正确时,会将该字修正为正确答案“阔”,这时,可以得到已确定的文字“中国是一个幅员辽阔”,而剩余部分还未由用户校验,因此作为未确定的文字。对于已确定的文字“中国是一个幅员辽阔”,采用ICTCLAS分词系统对该部分进行分词得到“中国/是/一个/幅员/辽阔”,为分词后得到的每个词创建结点,并用弧将有先后关系的节点连接起来,得到的精简词网格如附图7所示。其中的<s>是系统定义的特殊结点,表示句子开始。
词网格扩充,具体步骤如下所示:
词网格扩充发生在用户通过选择候选或输入对某一候选列进行修正之后,主要任务是:生成与当前修正的候选列的下一候选列中的候选字发音相近的字(称为混淆音字);生成第一字与当前修正的候选列修正后的正确字相同,第二字与当前修正的候选列的下一候选列中的候选字发音相近的二字词(成为混淆音词),具体方法如下:
步骤111、对于当前修正的候选列Candi的下一候选列Candi+1,取出其中所有候选字{Candi+1,1,Candi+1,2,...,Candi+1,k},其中k为该候选列中候选字的个数;对每一个候选字Candi+1,j(1≤j≤k),取出它的拼音Pinyini+1,j;
步骤112、利用预先训练好的音节混淆矩阵,计算每一候选字拼音Pinyini+1,j与每个汉语音节phone的混淆概率,如果混淆概率大于预先设定的阈值θ,则保留该音节phone,并称该音节为混淆音节;所述音节混淆矩阵为语音识别领域常用的模块,为一个n×n的矩阵,其中n为汉语中音节的个数,矩阵中的元素sij(1≤i,j≤n)给出了音节phonei被语音识别系统识别为phonej的概率;音节混淆矩阵可通过语音数据及其对应的文本和语音识别结果预先训练得到;
对步骤111中得到的所有候选字拼音按上述方法获取混淆音节后合并、去除重复音节,可得到一个混淆音节集合ConfPinyinSet={ConfPinyin1,ConfPinyin2,…,ConfPinyinm},其中m为混淆音节的个数;
步骤113、针对混淆音节集合ConfPinyinSet中的每一个混淆音节ConfPinyint(1≤t≤m),可由发音词典得到该音节对应的所有汉字,对于每一个汉字,计算该字与已确定的文字中最后一个词的二元语法概率,当概率大于预先设定的阈值δ时,才保留该字。已确定的文字中最后一个词的获取方法为将已确定的文字采用汉语自动分词系统进行分词,并取分词结果中最后一个词;
对混淆音节集合ConfPinyinSet中的所有音节,进行上述操作,合并其保留的汉字结果并去除重复汉字,可得到混淆音字的集合ConfCharSet={ConfChar1,ConfChar2,…,ConfCharq},其中q为混淆音字的个数;
步骤114、对于本次用户修正后的正确字CorrectChar,取得其拼音CorrectPinyin,将CorrectPinyin与步骤112中得到的混淆音节集合ConfPinyinSet中的每一个混淆音节进行组合,即对于任意ConfPinyint∈ConfPinyinSet,得到CombinedPinyint=CorrectPinyin+ConfPinyint;查找列有所有汉语词及其拼音的词典,如果CombinedPinyint是某个汉语词的拼音并且该汉语词的第一个字是CorrectChar,则将该汉语词加入到集合ConfWordSet中。最后可得到一个混淆音词的集合ConfWordSet={ConfWord1,…,ConfWord2,…,ConfWordr},其中r为ConfWordSet中汉语词的个数;
步骤115、对于任一个混淆音字ConfCharu∈ConfCharSet,创建以ConfCharu为内容的词网格结点;对于任一个混淆音词ConfWordv∈ConfWordSet,创建以ConfWordv为内容的词网格结点。
在一个实施例中,一句语音对应的正确结果是“制定喷漆修复的计划”,通过识别引擎得到的初始结果是“制定本气修复的计划”。当用户修正到“本”对应的候选列,发现该列的所有候选都不包含正确字“喷”,因此用户通过输入将当前列修正为“喷”,此时,算法会查看“本”字的下一列“气”字所处的列。假设“气”还有其它候选“起、奇”,首先获取“气”这一列所有候选的拼音{qi},接着利用音节混淆矩阵计算{qi}与各汉语音节的混淆概率,经阈值(设置为0.6)过滤后得到混淆音节集合{qi,ji}。对拼音“qi”、“ji”查找所有汉字,通过阈值(设置为0.5)限制保留语言模型得分较高的字,最终得到了一批混淆音字{其、七、几、记}。另外,取“喷”字的拼音“pen”,与之前得到的混淆音节{qi,ji}组合,得到两个音节组合{pen qi,pen ji},对音节组合查找对应的汉字词组,得到{喷漆、喷气、盆亓、喷剂}。由于“盆亓”的第一个字“盆”不是用户输入的修正字“喷”,因此从集合中删除“盆亓”这个词,最终得到混淆音词集合{喷漆、喷气、喷剂}。最后,为得到的混淆音字“其”、“七”、“几”、“记”和混淆音词“喷漆、喷气、喷剂”分别建立词网格结点。
词网格连接,具体如下所示:
词网格连接的主要任务是:将词网格精简算法得到的精简词网格与本次用户反馈前的词网格中对应未确定文字的部分进行连接;将通过词网格扩充算法创建的混淆音字和混淆音词对应的结点加入到词网格中,即为这些混淆音字和混淆音词的结点设置前驱结点和后继结点。
词网格精简算法得到的精简词网格中,各结点顺序连接,设其中最后一个结点为Nodej,倒数第二个结点为Nodej-1。词网格连接算法的具体步骤如下:
步骤211、对于词网格扩充算法中创建的所有混淆音字结点,将每一个结点都连接至Nodej之后作为其后继结点;
步骤212、如果Nodej对应的词为单个汉字,则执行下述操作:对于词网格扩充算法中创建的所有混淆音词结点,将每一个结点都连接至Nodej-1之后作为其后继结点;如果Nodej对应的词为多个汉字的词,则直接执行步骤213;
步骤213、对于当前修正的候选列Candi的下一候选列Candi+1中的所有候选字,取得在原始词网格中与这些候选字相对应的结点,并将这些结点分为两类:一类是结点对应的词以Candi+1中的候选字结尾的(包括结点对应的词为单个候选字本身),另一类是结点对应的词不以Candi+1中的候选字结尾的;将第一类结点在词网格中的后继结点放入一个集合Set中;对于第二类结点,为其中每个结点生成一个顺序连接的结点序列,该结点序列中的每个结点分别对应原结点对应的词中位于Candi+1中的候选字之后的汉字串经分词之后得到的一个词,将原结点在本次用户反馈前的词网格中的所有后继结点连接至该结点序列的最后一个结点,将该结点序列的第一个结点加入集合Set;将Set中的每一个结点分别连接至每一个混淆音字结点之后;如果Nodej对应的词为单个汉字,将Set中的每一个结点分别连接至每一个混淆音词结点之后;
步骤214、如果在修正当前候选列Candi时,修正后的正确字CorrectChar存在于Candi的候选字中,则执行下述步骤,否则直接执行步骤215:取得CorrectChar在本次用户反馈前的词网格中对应的结点,并将这些结点分为三类:第一类是CorrectChar作为结点对应的词中的最后一个字(包括结点对应的词为CorrectChar本身),第二类是结点对应的词为多个字且CorrectChar为其第一个字,第三类是结点对应的词为三字或三字以上且CorrectChar不是其第一个字和最后一个字;将第一类结点的后继结点连接至Nodej作为其后继结点;如果Nodej的结点对应的词为单个汉字,则继续执行下述操作,否则操作结束:将第二类结点连至Nodej-1作为其后继结点;对于第三类结点,为每个结点生成一个顺序连接的结点序列,该结点序列中的每个结点分别对应原结点对应的词中位于CorrectChar之后的汉字串经分词之后得到的一个词,将原结点在本次用户反馈前的词网格中的所有后继结点连接至该结点序列的最后一个结点,将该结点序列的第一个结点连接至Nodej作为其后继结点;
步骤215、如果在修正当前候选列Candi时,修正后的正确字CorrectChar不存在于Candi的候选字中,则:对于当前修正的候选列Candi的所有候选字,取得在本次用户反馈前的词网格中与这些候选字相对应的结点,并将这些结点分为两类:一类是结点对应的词以Candi中的候选字结尾的(包括结点对应的词为单个候选字本身),另一类是结点对应的词不以Candi中的候选字结尾的;将第一类结点在用户反馈前的词网格中的后继结点连接至Nodej作为其后继结点;如果Nodej对应的词为单个汉字,则继续执行下述操作,否则操作结束:对于第二类结点,为其中每个结点生成一个顺序连接的结点序列,该结点序列中的每个结点分别对应原结点对应的词中位于Candi中的候选字之后的汉字串经分词之后得到的一个词,将原结点在本次用户反馈前的词网格中的所有后继结点连接至该结点序列的最后一个结点,将该结点序列的第一个结点连接至Nodej作为其后继结点。
下面给出一个实施例,以形象地说明词网格连接算法的步骤,如附图8所示:
在附图8所示实施例中,用户通过候选选择修正确定了“人”字,从而得到已确定的文字“中国人”。在词网格精简算法中,通过分词程序得到“中国/人”这两个词,然后创建了附图8中最左边框图中的精简词网格。附图8中,左数第2个框图是候选字“人”在用户反馈前的词网格中对应的节点及其后续结点。另一方面,通过词网格扩充算法,得到了一个混淆音字结点“铭”和一个混淆音词结点“人命”,如附图8中左数第3个框图所示。
在词网格连接算法中:
步骤311、将混淆音字结点“铭”连接至精简词网格的最后一个结点“人”之后;
步骤312、本例中,精简词网格中最后一个结点对应的词“人”是单个字,所以还需要把混淆音词结点“人命”连接至精简词网格的倒数第二个结点“中国”之后;
步骤313、当前修正的候选列的下一候选列中候选字为“是”,“似”,…,“实”,它们在用户修正前的词网格中对应的结点如附图8中左数第二个框图中所示,全部是单个汉字的结点。因此,“是”,“似”,…,“实”对应的结点全部连接至混淆音字“铭”和混淆音词“人命”之后;
步骤314、由于修正后的正确字“人”存在于候选列表之中,因此:取得“人”在用户修正前的词网格中对应的所有结点,从附图8中左数第二个框图中可以看到,共有3个对应的对点,分别是“大人物”、“人民”和“人”,正好分别对应词网格连接算法中的3类。第一类是对应的词以“人”结尾或只包含“人”的结点,在本例中即为“人”字对应的结点。将用户反馈前的词网格中“人”对应结点的后继结点“名”连接至精简词网格中“人”对应的结点之后作为其后续结点;第二类是对应的词中“人”字是第一个字的结点,在本例中为“人民”对应的结点。将此结点连接到精简词网格中倒数第二个结点,即“中国”对应的结点之后;第三类结点是对应的词中“人”字既不在第一个字也不在最后一个字的,在本例中为“大人物”对应的结点。此时,重新生成一个对应“物”的结点,原来“大人物”对应的后续结点全部改为连接至“物”对应的结点,然后将“物”对应的结点连接至精简词网格中最后一个结点,即“人”对应的结点之后。
最终得到的连接后的词网格如附图8中最右边框图中所示。
词网格重估,具体步骤如下:
词网格重估是指对词网格连接后得到的新词网格,采用语言模型重新计算词网格中所有路径的概率。词网格重估方法可采用语音识别领域当前常用的各种语言模型和重估方法,如n-gram语言模型及其相应的概率计算方法。词网格重估时采用的语言模型可以与自动语音识别模块采用的语言模型相同,也可以不同。在一个实施例中,采用比自动语音识别模块中词表规模更大的3-gram语言模型。该实施例中,自动语音识别模块中词表规模为120K,词网格重估中词表规模为600K。该实施例中,词网格重估采用公开的工具软件SRILMToolkit的lattice-tool工具实现。
新候选列表生成,具体步骤如下:
采用与自动语音识别模块中相同的候选列表生成模块,重新生成候选表。在一个实施例中,采用专利ZL201010269306.9(一种交互式语音识别系统和方法)中的“候选生成与错误修正模块”从词网格生成候选列表。
显示新候选列表并再次获取用户反馈
采用与前述步骤中相同的界面显示候选列表并获取用户反馈,直至本句修正结束。在一个实施例中,采用附图4中所示的界面,获用户点击右上角“校验完成”按钮,则表示修正完成。否则,将重复进行上述候选列表显示、用户反馈获取、候选列表调整的步骤。
本发明还提供一种融合用户反馈的汉语语音识别系统,包括:
自动语音识别模块,用于获取输入语音,根据所述输入语音,生成词网格,并将所述词网格转换为字的候选列表;
获取用户反馈模块,用于获取用户对所述候选列表中的所述用户反馈,所述用户反馈包括:所述用户选择所述候选列表中与所述输入语音相对应的正确字,或输入与所述输入语音相对应的所述正确字;
调整候选列表模块,用于将所述正确字以及所述正确字对应的候选列之前的各候选列的第一个候选字作为已确定文字,并以所述已确定文字为约束和指导,调整未确定文字对应的所述候选列表,生成新的候选列表;
识别模块,用于重复运行所述获取用户反馈模块、所述调整候选列表模块,直到正确识别所述输入语音或所述用户输入新输入语音,以完成语音识别。
所述调整候选列表模块包括:精简模块,用于对于所述已确定文字,创建只包括正确字/词的精简词网格,其中将所述已确定文字切分为新词,为每个新词建立词网格节点,并在相邻新词之间创建弧进行连接;扩充模块,用于将未确定文字对应的所述候选列表进行词网格扩充,生成与未确定文字对应的所述候选列表中候选列中字/词发音相近的字/词,并创建对应的词网格节点,其中生成所述用户反馈的候选列的下一候选列中的候选字的混淆音字,生成第一候选字与所述正确字相同,第二候选字与所述下一候选列中的候选字发音相近的混淆音词;词网格连接模块,用于将所述精简词网格与所述用户反馈前的所述词网格中对应未确定文字的部分相连,并将所述词网格节点加入所述词网格,生成新词网格;词网格重估模块,对所述新词网格进行概率重估,计算所述新词网格中各路径的概率;新候选列表生成模块,根据所述新词网格与所述概率,生成新候选列表。
Claims (8)
1.一种融合用户反馈的汉语语音识别方法,其特征在于,包括:
步骤1,获取输入语音,根据所述输入语音,生成词网格,并将所述词网格转换为字的候选列表;
步骤2,获取用户对所述候选列表中的所述用户反馈,所述用户反馈包括:所述用户选择所述候选列表中与所述输入语音相对应的正确字,或输入与所述输入语音相对应的所述正确字;
步骤3,将所述正确字以及所述正确字对应的候选列之前的各候选列的第一个候选字作为已确定文字,并以所述已确定文字为约束和指导,调整未确定文字对应的所述候选列表,生成新的候选列表;
步骤4,重复所述步骤2、3,直到正确识别所述输入语音或所述用户输入新输入语音,以完成语音识别。
2.如权利要求1所述的融合用户反馈的汉语语音识别方法,其特征在于,所述步骤3包括:
步骤31,对于所述已确定文字,创建只包括正确字/词的精简词网格;
步骤32,将未确定文字对应的所述候选列表进行词网格扩充,生成与未确定文字对应的所述候选列表中候选列中字/词发音相近的字/词,并创建对应的词网格节点;
步骤33,将所述精简词网格与所述用户反馈前的所述词网格中对应未确定文字的部分相连,并将所述词网格节点加入所述词网格,生成新词网格;
步骤34,对所述新词网格进行概率重估,计算所述新词网格中各路径的概率;
步骤35,根据所述新词网格与所述概率,生成新候选列表。
3.如权利要求2所述的融合用户反馈的汉语语音识别方法,其特征在于,所述步骤31包括:将所述已确定文字切分为新词,为每个新词建立词网格节点,并在相邻新词之间创建弧进行连接。
4.如权利要求2所述的融合用户反馈的汉语语音识别方法,其特征在于,所述步骤32包括:生成所述用户反馈的候选列的下一候选列中的候选字的混淆音字;生成第一候选字与所述正确字相同,第二候选字与所述下一候选列中的候选字发音相近的混淆音词。
5.一种融合用户反馈的汉语语音识别系统,其特征在于,包括:
自动语音识别模块,用于获取输入语音,根据所述输入语音,生成词网格,并将所述词网格转换为字的候选列表;
获取用户反馈模块,用于获取用户对所述候选列表中的所述用户反馈,所述用户反馈包括:所述用户选择所述候选列表中与所述输入语音相对应的正确字,或输入与所述输入语音相对应的所述正确字;
调整候选列表模块,用于将所述正确字以及所述正确字对应的候选列之前的各候选列的第一个候选字作为已确定文字,并以所述已确定文字为约束和指导,调整未确定文字对应的所述候选列表,生成新的候选列表;
识别模块,用于重复运行所述获取用户反馈模块、所述调整候选列表模块,直到正确识别所述输入语音或所述用户输入新输入语音,以完成语音识别。
6.如权利要求5所述的融合用户反馈的汉语语音识别系统,其特征在于,所述调整候选列表模块包括:精简模块,用于对于所述已确定文字,创建只包括正确字/词的精简词网格;
扩充模块,用于将未确定文字对应的所述候选列表进行词网格扩充,生成与未确定文字对应的所述候选列表中候选列中字/词发音相近的字/词,并创建对应的词网格节点;
词网格连接模块,用于将所述精简词网格与所述用户反馈前的所述词网格中对应未确定文字的部分相连,并将所述词网格节点加入所述词网格,生成新词网格;
词网格重估模块,对所述新词网格进行概率重估,计算所述新词网格中各路径的概率;
新候选列表生成模块,根据所述新词网格与所述概率,生成新候选列表。
7.如权利要求6所述的融合用户反馈的汉语语音识别系统,其特征在于,所述精简模块包括,用于将所述已确定文字切分为新词,为每个新词建立词网格节点,并在相邻新词之间创建弧进行连接。
8.如权利要求6所述的融合用户反馈的汉语语音识别系统,其特征在于,所述扩充模块包括:用于生成所述用户反馈的候选列的下一候选列中的候选字的混淆音字;生成第一候选字与所述正确字相同,第二候选字与所述下一候选列中的候选字发音相近的混淆音词。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410806233.0A CN104538032B (zh) | 2014-12-19 | 2014-12-19 | 一种融合用户反馈的汉语语音识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410806233.0A CN104538032B (zh) | 2014-12-19 | 2014-12-19 | 一种融合用户反馈的汉语语音识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104538032A true CN104538032A (zh) | 2015-04-22 |
CN104538032B CN104538032B (zh) | 2018-02-06 |
Family
ID=52853548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410806233.0A Active CN104538032B (zh) | 2014-12-19 | 2014-12-19 | 一种融合用户反馈的汉语语音识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104538032B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105206267A (zh) * | 2015-09-09 | 2015-12-30 | 中国科学院计算技术研究所 | 一种融合非确定性反馈的语音识别错误修正方法及系统 |
CN107316639A (zh) * | 2017-05-19 | 2017-11-03 | 北京新美互通科技有限公司 | 一种基于语音识别的信息输入方法及装置,电子设备 |
CN107678561A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音输入纠错方法及装置 |
CN107895572A (zh) * | 2016-09-30 | 2018-04-10 | 法乐第(北京)网络科技有限公司 | 一种语音识别训练方法及系统 |
CN108984529A (zh) * | 2018-07-16 | 2018-12-11 | 北京华宇信息技术有限公司 | 实时庭审语音识别自动纠错方法、存储介质及计算装置 |
CN112786027A (zh) * | 2021-01-06 | 2021-05-11 | 浙江大学 | 一种语音输入矫正处理方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080255835A1 (en) * | 2007-04-10 | 2008-10-16 | Microsoft Corporation | User directed adaptation of spoken language grammer |
CN101292214A (zh) * | 2005-10-22 | 2008-10-22 | 国际商业机器公司 | 键盘上速记接口中改进的文本输入 |
CN101923854A (zh) * | 2010-08-31 | 2010-12-22 | 中国科学院计算技术研究所 | 一种交互式语音识别系统和方法 |
CN102324233A (zh) * | 2011-08-03 | 2012-01-18 | 中国科学院计算技术研究所 | 汉语语音识别中重复出现词识别错误的自动修正方法 |
US20120296635A1 (en) * | 2011-05-19 | 2012-11-22 | Microsoft Corporation | User-modifiable word lattice display for editing documents and search queries |
US20130060570A1 (en) * | 2011-09-01 | 2013-03-07 | At&T Intellectual Property I, L.P. | System and method for advanced turn-taking for interactive spoken dialog systems |
CN103474069A (zh) * | 2013-09-12 | 2013-12-25 | 中国科学院计算技术研究所 | 用于融合多个语音识别系统的识别结果的方法及系统 |
US20140156275A1 (en) * | 2002-07-29 | 2014-06-05 | At&T Intellectual Property Ii, L.P. | Method of Active Learning for Automatic Speech Recognition |
CN104157285A (zh) * | 2013-05-14 | 2014-11-19 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置及电子设备 |
-
2014
- 2014-12-19 CN CN201410806233.0A patent/CN104538032B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140156275A1 (en) * | 2002-07-29 | 2014-06-05 | At&T Intellectual Property Ii, L.P. | Method of Active Learning for Automatic Speech Recognition |
CN101292214A (zh) * | 2005-10-22 | 2008-10-22 | 国际商业机器公司 | 键盘上速记接口中改进的文本输入 |
US20080255835A1 (en) * | 2007-04-10 | 2008-10-16 | Microsoft Corporation | User directed adaptation of spoken language grammer |
CN101923854A (zh) * | 2010-08-31 | 2010-12-22 | 中国科学院计算技术研究所 | 一种交互式语音识别系统和方法 |
US20120296635A1 (en) * | 2011-05-19 | 2012-11-22 | Microsoft Corporation | User-modifiable word lattice display for editing documents and search queries |
CN102324233A (zh) * | 2011-08-03 | 2012-01-18 | 中国科学院计算技术研究所 | 汉语语音识别中重复出现词识别错误的自动修正方法 |
US20130060570A1 (en) * | 2011-09-01 | 2013-03-07 | At&T Intellectual Property I, L.P. | System and method for advanced turn-taking for interactive spoken dialog systems |
CN104157285A (zh) * | 2013-05-14 | 2014-11-19 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置及电子设备 |
CN103474069A (zh) * | 2013-09-12 | 2013-12-25 | 中国科学院计算技术研究所 | 用于融合多个语音识别系统的识别结果的方法及系统 |
Non-Patent Citations (1)
Title |
---|
郑铁然: ""基于音节网格的汉语语音文档检索方法研究"", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105206267A (zh) * | 2015-09-09 | 2015-12-30 | 中国科学院计算技术研究所 | 一种融合非确定性反馈的语音识别错误修正方法及系统 |
CN105206267B (zh) * | 2015-09-09 | 2019-04-02 | 中国科学院计算技术研究所 | 一种融合非确定性反馈的语音识别错误修正方法及系统 |
CN107895572A (zh) * | 2016-09-30 | 2018-04-10 | 法乐第(北京)网络科技有限公司 | 一种语音识别训练方法及系统 |
CN107316639A (zh) * | 2017-05-19 | 2017-11-03 | 北京新美互通科技有限公司 | 一种基于语音识别的信息输入方法及装置,电子设备 |
CN107678561A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音输入纠错方法及装置 |
US10839794B2 (en) | 2017-09-29 | 2020-11-17 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for correcting input speech based on artificial intelligence, and storage medium |
CN108984529A (zh) * | 2018-07-16 | 2018-12-11 | 北京华宇信息技术有限公司 | 实时庭审语音识别自动纠错方法、存储介质及计算装置 |
CN108984529B (zh) * | 2018-07-16 | 2022-06-03 | 北京华宇信息技术有限公司 | 实时庭审语音识别自动纠错方法、存储介质及计算装置 |
CN112786027A (zh) * | 2021-01-06 | 2021-05-11 | 浙江大学 | 一种语音输入矫正处理方法、装置、电子设备及存储介质 |
CN112786027B (zh) * | 2021-01-06 | 2022-02-22 | 浙江大学 | 一种语音输入矫正处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104538032B (zh) | 2018-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104538032B (zh) | 一种融合用户反馈的汉语语音识别方法及系统 | |
JP6203288B2 (ja) | 音声を認識するシステムおよび方法 | |
US8994660B2 (en) | Text correction processing | |
US20120014603A1 (en) | Recognition method and system | |
CN103369122A (zh) | 语音输入方法及系统 | |
US20160163314A1 (en) | Dialog management system and dialog management method | |
US20090228273A1 (en) | Handwriting-based user interface for correction of speech recognition errors | |
CN101334704B (zh) | 一种面向移动设备的多通道中文输入法 | |
CN102708862B (zh) | 触控辅助的实时语音识别系统及其同步解码方法 | |
KR20120011010A (ko) | 수기 인식 방법 및 장치 | |
RU2009139274A (ru) | Архитектура распознавания для генерации азиатских иероглифов | |
Kristensson et al. | Asynchronous multimodal text entry using speech and gesture keyboards | |
CN103810997A (zh) | 一种确定语音识别结果置信度的方法和装置 | |
CN101739143A (zh) | 文字输入方法及系统 | |
CN105225659A (zh) | 一种指令式语音控制发音词典辅助生成方法 | |
CN102981767B (zh) | 一种单个汉字手写识别方法及系统 | |
CN105206267B (zh) | 一种融合非确定性反馈的语音识别错误修正方法及系统 | |
CN202093691U (zh) | 汉字学习装置 | |
CN101577115A (zh) | 语音输入系统及其方法 | |
KR102091684B1 (ko) | 음성 인식 텍스트 수정 방법 및 이 방법을 구현한 장치 | |
US11087156B2 (en) | Method and device for displaying handwriting-based entry | |
Liang et al. | An efficient error correction interface for speech recognition on mobile touchscreen devices | |
CN105183183A (zh) | 一种方块苗文的音形结合快速输入编码及其优化方法 | |
CN1965349A (zh) | 多形式的非歧意性语音识别 | |
JP2016130837A (ja) | 情報制御装置及び情報制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |