CN113314124A - 文本输出方法及系统、存储介质、电子装置 - Google Patents
文本输出方法及系统、存储介质、电子装置 Download PDFInfo
- Publication number
- CN113314124A CN113314124A CN202110662309.7A CN202110662309A CN113314124A CN 113314124 A CN113314124 A CN 113314124A CN 202110662309 A CN202110662309 A CN 202110662309A CN 113314124 A CN113314124 A CN 113314124A
- Authority
- CN
- China
- Prior art keywords
- texts
- text
- target
- word
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Abstract
本申请实施例提供了一种文本输出方法及系统、存储介质、电子装置,所述系统至少包括依次连接的自动语音识别ASR模型组、文本对齐模型和重打分模型;其中,ASR模型组中包括多个ASR模型,每个ASR模型配置为将输入的音频数据分别转换为对应的第一文本;文本对齐模型,配置为对多个第一文本进行对齐处理,得到多个目标文本,其中,多个目标文本的长度均相等;重打分模型,配置为对多个目标文本的每个对齐位置上的字/词进行打分,获取每个对齐位置上得分最高的字/词作为目标字/词,将目标字/词按照对应的对齐位置确定为输出文本。
Description
技术领域
本申请涉及语音识别技术领域,具体而言,涉及一种文本输出方法及系统、存储介质、电子装置。
背景技术
自动语音识别技术(Automatic Speech Recognition,简称为ASR)用于将说话人的语音转录成相应的文字。目前工业界应用的语音识别系统通常为单语音识别系统,即仅设置有一个声学模型,在该声学模型输出初步结果后,再通过一系列的后端处理方法来优化最后的结果。随着神经网络的迅猛发展,各种建模方法层出不穷,语音识别实现过程中,可通过训练不同的声学模型结构或者调整同一模型的解码参数以获取多个效果不同的语音识别系统。
由于上述结构不同或参数不同的声学模型之间往往都会存在一定互补性,如果将不同的声学模型相互配合,可以显著降低模型训练过程中的词错率(Word error rate,简称为WER)以提高系统识别率。但是相关技术中,对于不同声学模型的融合无法达到理想的融合效果。
针对相关技术中,多个ASR模型无法实现高效融合的问题,目前尚未有有效的解决办法。
发明内容
本申请实施例提供了一种文本输出方法及系统、存储介质、电子装置,以至少解决相关技术中多个ASR模型无法实现高效融合的问题。
在本申请的一个实施例中,提出了一种文本输出系统,所述系统至少包括依次连接的自动语音识别ASR模型组、文本对齐模型和重打分模型;其中,所述ASR模型组中包括多个ASR模型,每个所述ASR模型配置为将输入的音频数据分别转换为对应的第一文本;所述文本对齐模型,配置为对多个所述第一文本进行对齐处理,得到多个目标文本,其中,多个所述目标文本的长度均相等;所述重打分模型,配置为对多个所述目标文本的每个对齐位置上的字/词进行打分,获取每个所述对齐位置上得分最高的字/词作为目标字/词,将所述目标字/词按照对应的所述对齐位置确定为输出文本。
在本申请的一个实施例中,还提出了一种文本输出方法,包括:通过ASR模型组将输入的音频数据转换为第一文本,其中,所述ASR模型组包括多个ASR模型;通过所述文本对齐模型对多个所述第一文本进行对齐处理,得到多个目标文本,其中,多个所述目标文本的长度均相等;通过重打分模型对多个所述目标文本的每个对齐位置上的字/词进行打分,获取每个所述对齐位置上得分最高的字/词作为目标字/词,将所述目标字/词按照对应的所述对齐位置确定为输出文本。
在本申请的一个实施例中,还提出了一种计算机可读的存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
在本申请的一个实施例中,还提出了一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本申请实施例,使用依次连接的自动语音识别ASR模型组、文本对齐模型和重打分模型构建文本输出系统,多个ASR模型分别对同一段语音进行识别,转换成多个文本后,使用文本对齐模型对识别的多个文本进行对齐,然后重打分,得出最接近真实语音的文本,解决了多个ASR模型无法实现高效融合的问题,可以有效对多个文本进行对齐,大大提高了语音识别的准确性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的文本输出系统的一种可选的结构示意图;
图2是根据本申请实施例文本输出方法一种可选的流程图;
图3是根据本申请实施例的一种文本对齐方法流程图;
图4是根据本申请实施例的一种对齐结果示意图;
图5是根据本申请实施例的又一种对齐结果示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本申请。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
结构不同或参数不同的声学模型之间往往都会存在一定互补性,即不同的声学模型相互配合,可以显著降低模型训练过程中的词错率(WER)提高系统识别率。不同的声学模型相互配合,以将多个模型的识别结果通过融合以得到一个更佳的最终结果即为模型融合。相关技术中,模型融合方法可以归类为以下三种:
1、基于网络层的模型融合。该融合方式在前向计算时对各模型的网络层做了融合处理(基于投票机制voting或平均机制average实现),在模型的输出层直接可以得到一个最终结果。该融合方式在实现过程中延时较小,不需要在后端做融合处理,但其要求各模型的网络结构相同,故而无法融合不同结构的声学模型,限制了模型的多样化,而模型融合的意义在于联合不同声学建模方法的优势以获取最理想的结果,因此该融合方式无较大实际意义。
2、在Kaldi中基于Lattice的融合。Kaldi是目前语音识别领域最热门的开源工具,Lattice是Kaldi工具中基于WFST结构的解码图,保存了解码后的前N个最优路径。该融合方式是语音识别系统在解码后,会先生成一个Lattice结构的结果图,然后用维特比算法搜索其中最好的识别结果。可见,上述融合方式是在多个语音识别模型的解码图上找最优结果,其基本思路是先裁剪所有解码图,保留前M个最优解码结果,然后对这M个结果进行voting或average,获得最终结果,由于Lattice中含有的结果路径较为丰富,该类方法在融合后通常可以获得更好的结果。但是,上述融合方式只适用于Kaldi工具下的模型,其它声学模型并无Lattice结构故而无法实施上述融合方式;并且,Kaldi中一般只对离线解码保存Lattice,在线解码时如果保存Lattice会大大增加时耗,影响系统实时性能,因此上述融合方式的可扩展性并不强,且仅能适用于Kaldi工具下的离线解码。
3、基于Hypothesis file的融合。Hypothesis file可以理解为语音识别系统的最后输出结果。该方法先对模型的识别结果做对齐,然后通过voting或average的进行融合。该方法扩展性强,能适用于不同结构的模型,融合效果取决于融合策略。但是由于多维文本的对齐过于复杂,目前只能对两个模型做融合且常用的融合策略过于简单,该方法最终提升效果并不明显。
为了解决上述相关技术中存在的缺陷,本申请提供了一种文本输出系统,通过多文本对齐算法对不同ASR系统的识别结果进行对齐,再通过重打分策略来选取最佳的识别结果,最终达到提高系统识别率的目的。图1是根据本申请实施例的文本输出系统的一种可选的结构示意图,如图1所示,本申请实施例提供的文本输出系统至少包括:依次连接的自动语音识别ASR模型组、文本对齐模型和重打分模型;其中,
ASR模型组中包括多个ASR模型,每个ASR模型配置为将输入的音频数据分别转换为对应的第一文本;
文本对齐模型,配置为对多个第一文本进行对齐处理,得到多个目标文本,其中,多个目标文本的长度均相等;
重打分模型,配置为对多个目标文本的每个对齐位置上的字/词进行打分,获取每个对齐位置上得分最高的字/词作为目标字/词,将目标字/词按照对应的对齐位置确定为输出文本。
需要说明的是,本申请实施例中提供的多个ASR模型之间的结构可以全部相同或者部分相同,也可以全部不同,本申请实施例对此不做限定。
在一实施例中,ASR模型组中包括多个根据不同的建模方法训练的模型,和/或,同种框架下不同网络结构或不同超参数训练的模型,和/或,同种框架下同种网络结构训练的模型在测试时设置不同的解码参数。
本申请实施例中提供的文本输出系统可应用于所有适用语音识别的场景,包括但不限于普通话识别、方言识别以及其它各语种下的语音识别。
本申请的另一实施例中,还提供了一种文本输出方法,应用于上述文本输出系统。图2是根据本申请实施例文本输出方法一种可选的流程图,如图2所示,所述方法包括:
步骤S202,通过ASR模型组将输入的音频数据转换为第一文本,其中,ASR模型组包括多个ASR模型;
步骤S204,通过文本对齐模型对多个第一文本进行对齐处理,得到多个目标文本,其中,多个目标文本的长度均相等;
步骤S206,通过重打分模型对多个目标文本的每个对齐位置上的字/词进行打分,获取每个对齐位置上得分最高的字/词作为目标字/词,将目标字/词按照对应的对齐位置确定为输出文本。
需要说明的是,多个ASR模型可以是不同建模方法训练出来的模型,例如基于RNNT的端到端模型、基于transformer框架的端到端模型、基于WFST的语音模型,也可以是同种框架下不同网络结构或不同超参数训练出来的模型,例如WFST下基于TDNNF的chain模型、WFST下基于CNN+TDNNF+ATTENTION的chain模型,还可以是同种框架下同种网络结构训练的模型在测试时设置不同的解码参数,例如基于WFST的系统解码时设置不同的声学规模或解码宽度(beam)大小或端点检测(vad)阈值等。上述这些ASR模型因为不同的配置,相互间会具有一定的互补性。
在上述步骤S202之前,所述方法还包括:向系统输入预设格式(预设格式为符合ASR模型要求的格式,本申请实施例对此不作限定)的音频文件或音频流,音频流进入至多个ASR模型中。然后多个ASR模型分别对音频流进行识别并输出文本,输出的文本被送入到文本对齐模型。
在一实施例中,上述步骤S204可以通过以下步骤实现:
S1,将第一参照文本依次与其他的第一文本进行对齐,得到多个第二文本,其中,第一参照文本为多个第一文本中长度最长的文本,第二文本中缺少字/词的对齐位置使用预设字符进行填充;
S2,在多个第二文本的长度均相等的情况下,确定多个第二文本为目标文本;在多个第二文本的长度不等的情况下,将多个第二文本中长度最长的文本确定为第二参照文本,将第二参照文本依次与其他的第二文本进行对齐,得到多个目标文本,其中,目标文本中缺少字/词的对齐位置使用预设字符进行填充。
需要说明的是,文本对齐模型用于将多个ASR模型对应输出的文本按照字或词进行对齐,缺少部分用符号填充。相关技术中,文本对齐常用的方式是基于编辑距离(editDistance)算法来回溯路径,获得两个输入文本的对齐。但上述方式无法对齐多个文本(两个以上的文本),具体原因为,多个文本是多维矩阵,其计算相当复杂,是否能计算出相应结果是未知,即使能够计算,其时耗也无法想象,因而上述方式对于多个文本的对齐是无法实现的。因此,本申请实施例提出的多文本对齐方式,通过二次对齐的方式,可以有效实现多个文本的对齐。
在一实施例中,将第一参照文本依次与其他的第一文本进行对齐得到多个第二文本包括:
S1,同时计算m-1个第一文本中的第i个第一文本相对于第一参照文本的编辑距离以及所述第一参照文本相对于所述第i个第一文本的编辑距离,以获取第i个第一文本与第一参照文本对齐后的两个第二文本,其中,m为所述第一文本的数量,m-1个第一文本中不包含第一参照文本,i<m-1;
S2,依次获取m-1个第一文本与第一参照文本对齐后的2*(m-1)个第二文本。
在一实施例中,依次获取m-1个第一文本与第一参照文本对齐后的2*(m-1)个第二文本,包括:
S1,指定第i个第一文本与第一参照文本对齐后的两个第二文本中的任一第二文本为判断文本,其中,第i个第一文本与第一参照文本对齐后的两个第二文本的长度相同;
S2,依次比较第i个第一文本对应的判断文本和第i+1个第一文本对应的判断文本的长度,确定m-1个第一文本对应的判断文本中,长度最长的判断文本为目标判断文本。
在一实施例中,在2*(m-1)个第二文本的长度不等的情况下,将目标判断文本确定为第二参照文本。
需要说明的是,上述为本申请实施例提供的第一种对齐方式,下面通过一个示例来解释上述第一种文本对齐过程。图3是根据本申请实施例的一种文本对齐方法流程图,如图3所示,本申请实施例中提供的文本对齐方法包括:
步骤S302,对输入的文本按文本长度进行排序,将其中最长的文本定义为参照文本,并固定在第一个参数的位置。
步骤S304,将参照文本依次与所有剩余文本进行对齐,获取相应的对齐结果,所有对齐结果为第一遍对齐结果,此处的对齐结果相当于前述第二文本。
上述步骤S304中的对齐方式具体为,将所有剩余的文本,依次对参照文本计算编辑距离,获取对齐结果,所有对齐结果为第一遍对齐结果。
步骤S306,检查第一遍对齐结果中所有的对齐结果是否相等,如果相等则对齐结束;如果不相等,则取出最长的对齐结果,将第一遍对齐结果中剩余对齐结果依次与上述最长对齐结果计算编辑距离,得到新的对齐结果,此处新的对齐结果相当于前述目标文本。
步骤S308,最终的对齐结果中所有文本长度一致,缺少部分用“**”符号填充。
以下以一示例对上述步骤S302至步骤S308进行说明:
存在三条输入文本,对应为:第一文本:ABC;第二文本:C;第三文本:EFD。
第一遍对齐:
对文本按文本长度进行排序,根据排序结果,第一文本与第三文本长度相等,故随机选取第一文本作为参照文本,并固定在第一个参数的位置。
将参照文本依次与所有剩余文本进行对齐,缺少部分用“**”符号填充,获取相应的对齐结果,所有对齐结果为第一遍对齐结果。
第二文本与第一文本的对齐结果1为:**C;
第一文本与第二文本的对齐结果2为:ABC;
第三文本与第一文本的对齐结果3为:***EFG;
第一文本与第三文本的对齐结果4为:ABC***;
上述对齐结果1至4构成第一遍对齐结果,显然地,第一遍对齐结果所包含的四个对齐结果中,对齐结果1至4之间的长度并不相等,因此,需要重新进行第二遍对齐。
第二遍对齐:
对对齐结果1至4进行排序,根据排序结果,对齐结果3与对齐结果4长度相等,故随机选取对齐结果4作为新的参照文本,并固定在第一个参数的位置。
将参照文本与所有剩余对齐结果进行对齐,缺少部分用“**”符号填充,获取相应的对齐结果,所有对齐结果为第二遍对齐结果。
对齐结果1与对齐结果4:**C***;
对齐结果4与对齐结果1:ABC***;
对齐结果2与对齐结果4:ABC***;
对齐结果4与对齐结果2:ABC***;
对齐结果3与对齐结果4:***EFG;
对齐结果4与对齐结果3:ABC***。
至此,新的对齐结果的长度相等,故可对齐结束并输出。
在一实施例中,还可以使用第二种对齐方式实现多文本的对齐,方法如下:
依次计算n-1个所述第一文本中的第p个第一文本相对于第一参照文本的编辑距离,或第一参照文本相对于所述第p个第一文本的编辑距离,以获取n-1个第二文本,其中,n为第一文本的数量,n-1个第一文本中不包含第一参照文本,p<n-1。
在一实施例中,在获取n-1个第二文本之后,所述方法还包括:
遍历所述n-1个第二文本,在n-1个第二文本的长度不等的情况下,将n-1个第二文本中长度最长的文本确定为第二参照文本。
需要说明的是,第一种对齐方式中,由于上述对齐结果1和2之间,对齐结果3和4之间在理论上的长度是一致的,故仅从最终计算的结果角度考虑,在第一次对齐过程中,仅得到对齐结果1和2之间的任一结果,以及对齐结果3和4之间任一结果,均可实现对齐以及后续的重打分处理。
可见,上述第一种对齐方式(方式一)中,对任意两个对齐对象之间均进行了两次对齐结果的输出,第二种对齐方式(方式二)中,对任意两个对齐对象之间均进行了一次对齐结果的输出。
虽然上述方式一与方式二在最终的对齐结果上并无差异,但是,上述方式一在第一次对齐过程中,对齐结果2与对齐结果4是参照文本(第一文本)分别与第二文本、第三文本的对齐结果,其可在计算过程中标注为参照文本所从属/附属的对齐结果,实际计算过程中,对齐结果1与2可同步完成计算,同时,对于参考文本可生成一判断文本,将对齐结果2作为该判断文本;在后续计算时,对参照文本所从属/附属的对齐结果同样作为判断文本,如若新的判断文本的长度小于或等于原判断文本,则判断文本不变,如若新置入的判断文本的长度大于原判断文本,则判断文本更新为新的判断文本。以此,在完成参照文本与各个文本的对齐后,对应的参照文本即为长度最长的文本,同时,可根据参照文本的更新次数,判断参照文本与各个文本之间的对齐结果是否一致。(该过程的实现依赖于参照文本所从属/附属的对齐结果都是与参照文本相关的,比如ABC,ABC***等)
较于此,上述方式二中,由于参照文本与各个文本之间的对齐结果之间并无上述关联,故需要遍历所有的对齐结果,方可确定多个对齐结果之间是否长度一致,以及哪一个对齐结果最长,以作为下一轮的参照文本。在ASR模型的数量进一步增加,而导致需要对比的文本数量进一步增加的情况下,需要处理的对齐结果数量亦会显著增加,故上述方式一的采用,同时计算m-1个第一文本中的第i个第一文本相对于第一参照文本的编辑距离以及所述第一参照文本相对于所述第i个第一文本的编辑距离,以获取第i个第一文本与第一参照文本对齐后的两个第二文本,没有增加获取第二文本的时间,在依次获取多个第二文本后确定长度最长的一个,不必遍历所有的对齐结果,可显著减少对对齐结果的处理时间,以提高系统整体的识别效率,避免识别时延过长的问题。
此外,由于上述方式一在第二次对齐过程中,选取的是判断文本作为新的参照文本,新的参照文本仍为第一次对齐中参照文本所从属/附属的对齐结果,其在两次对齐过程中的实现逻辑是关联的。如若采用方式二,则第二次对齐过程中选取的新的参照文本与原参照文本之间没有必然的关联性,则会导致两次对齐的实现逻辑是相对随机的。上述区别不仅进一步造成时延的增加,并且,在工程实现的过程中,前后的逻辑性可提高人员编程的便捷性,并有效避免出现系统的操作错误。
在一实施例中,通过重打分模型对多组第二文本的每个对齐位置上的字/词进行打分,获取每个对齐位置上得分最高的字/词作为目标字/词包括:
S1,获取多组第二文本的目标对齐位置上的字/词的词频得分和置信度得分,其中,词频得分由字/词在目标对齐位置上出现的概率确定,置信度得分由每个ASR模型输出的字/词的置信度确定;
S2,将目标对齐位置上的字/词的词频得分和置信度得分相加后得到目标对齐位置上的字/词的目标得分;
S3,将目标对齐位置上的目标得分最高的字/词确定为目标对齐位置的目标字/词。
在一实施例中,获取多组第二文本的目标对齐位置上的字/词的词频得分和置信度得分包括:
S1,将字/词在目标对齐位置上出现的概率与第一权重相乘得到字/词的词频得分;
S2,将每个ASR模型输出的字/词的置信度的均值与第二权重相乘得到字/词的置信度得分,其中,第一权重和第二权重之和为1。
需要说明的是,对齐的文本结果(即前述目标文本)被送入到重打分模型进行重打分。打分公式如下:
其中,α为权重系数,且0<=α<=1,本申请实施例中取经验值0.6,不限定于此。公式前半部分表示词w的词频得分,N(w)表示当前位置上该字/词出现的次数,NS表示输入文本的总个数,即ASR模型个数,N(w)/NS表示词w在当前位置出现的概率,所有词在当前位置出现的概率之和应当为1,用出现概率乘以α系数,得到了词w的词频得分。公式后半部分表示词w的置信度得分,Cw,i为第i个句子中词w的置信度,∑Cw,i表示词在各文本当前位置的置信度总和,再除以N(w),得到词w在当前位置的置信度均值,再乘上权系数(1-α),得到词w的置信度得分。上述每一个词w的置信度由相应的ASR模型在语音识别过程中提供。
最终每个词w的得分scores(w)由词频得分与词置信度得分求和得到,即为该词在当前位置的最终得分,依据每个位置所有词的得分,可以得到一个最高分的词,选取为最佳结果,若最终结果为标识符“**”,表示该位置应当空缺。在对齐路径的每个位置上应用此公式,可以得到一条完整的识别结果。
下面通过具体示例与本申请实施例提供的文本输出方法进行描述。
示例性实施例1
本示例性实施例为智能语音外呼场景,客户通过电话终端与智能客服互动。
该示例中共有3个ASR模型,均为Kaldi下网络结构不同的WFST结构,分别为15层的TDNNF层、SpecAugment+TDNNF以及TDNNF+ATTENTION,其它超参按照上述细节部分所述设置。
开始测试时,说话人说了一句:“今天天气的确是不错哈”,该音频数据流通过电话通道传输到部署好的3个ASR系统中,通过解码得到对应的输出信息,识别结果分别为:“今天天气的确四不错哈”、“今天气的确是不错哈”、“今天天气的确是不错啊”,可以看到每个识别结果里面都有不正确的地方,但是3条结果都有共同识别正确的地方,结果具有互补性。接着对齐模型对这3个ASR模型的识别结果进行对齐,对齐过程中的空缺部分会以“**”填充,对齐完成后,多文本对齐结果被送到重打分模型,重打分模型根据词频以及置信度选择得分最高的词作为输出,具体对齐及打分结果见图4。最终输出结果是“今天天气的确是不错哈”。
示例性实施例2
本示例性实施例为智能语音交互场景,话者通过麦克风与客户端进行交互对话。因为实时交互场景比较复杂,实例中共部署有5个ASR系统,分别为15层的TDNNF结构、SpecAugment TDNNF结构、TDNNF+ATTENTION结构、CNN+TDNNF结构、CNN+TDNNF+ATTENTION结构。其它超参按照上述细节部分所述设置。
开始测试时,说话人说了一句:“灭活疫苗与mRNA疫苗有什么区别”。该音频数据通过麦克风拾音后,被传输到5个部署好的ASR系统中,通过解码得到对应的输出信息,识别结果分别为:“没有哦疫苗与恩RNA疫苗有什么区别”、“灭活疫苗雨mRNA疫苗有什么区别”、“灭活一秒与mRNA一秒有什么区别”、“没活疫苗与恩RNA疫苗有什么区别”、“灭活疫苗与mRNA疫苗有甚区别”,可以看出,每个单条识别结果与正确结果差距都比较大,但是识别结果之间还是有很多共同的地方,具有互补性。接着对齐模型对这5个ASR模型的识别结果进行对齐,对齐过程中的空缺部分会以“**”填充,对齐完成后,多文本对齐结果被送到重打分模型,重打分模型根据词频以及置信度选择得分最高的词作为输出。具体结果见图5。最终输出结果是“灭活疫苗**与mRNA疫苗有什么区别”。
本申请实施例适用于所有可应用语音识别项目的产品,包括但不限于智能外呼系统、智能语音音响、智慧语音遥控、智能语音大屏等其它智能语音交互终端。本申请实施例提出的文本输出方法,所提出的多文本对齐算法可以在不增加明显时耗的基础上同时对齐多个文本,所提出的重打分策略可以同时融合词频和置信度信息,提升融合效果,经过融合后模型可以得到较为稳定的提升。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (14)
1.一种文本输出系统,其特征在于,所述系统至少包括依次连接的自动语音识别ASR模型组、文本对齐模型和重打分模型;其中,
所述ASR模型组中包括多个ASR模型,每个所述ASR模型配置为将输入的音频数据分别转换为对应的第一文本;
所述文本对齐模型,配置为对多个所述第一文本进行对齐处理,得到多个目标文本,其中,多个所述目标文本的长度均相等;
所述重打分模型,配置为对多个所述目标文本的每个对齐位置上的字/词进行打分,获取每个所述对齐位置上得分最高的字/词作为目标字/词,将所述目标字/词按照对应的所述对齐位置确定为输出文本。
2.根据权利要求1所述的语音识别神经网络模型,其特征在于,所述ASR模型组中包括多个根据不同的建模方法训练的模型,和/或,同种框架下不同网络结构或不同超参数训练的模型,和/或,同种框架下同种网络结构训练的模型在测试时设置不同的解码参数。
3.一种文本输出方法,其特征在于,包括:
通过ASR模型组将输入的音频数据转换为第一文本,其中,所述ASR模型组包括多个ASR模型;
通过所述文本对齐模型对多个所述第一文本进行对齐处理,得到多个目标文本,其中,多个所述目标文本的长度均相等;
通过重打分模型对多个所述目标文本的每个对齐位置上的字/词进行打分,获取每个所述对齐位置上得分最高的字/词作为目标字/词,将所述目标字/词按照对应的所述对齐位置确定为输出文本。
4.根据权利要求3所述的方法,其特征在于,所述通过所述文本对齐模型对多个所述第一文本进行对齐处理,得到多个目标文本包括:
将第一参照文本依次与其他的所述第一文本进行对齐,得到多个第二文本,其中,所述第一参照文本为多个所述第一文本中长度最长的文本,所述第二文本中缺少字/词的对齐位置使用预设字符进行填充;
在多个所述第二文本的长度均相等的情况下,确定多个所述第二文本为所述目标文本;在多个所述第二文本的长度不等的情况下,将多个所述第二文本中长度最长的文本确定为第二参照文本,将所述第二参照文本依次与其他的所述第二文本进行对齐,得到多个所述目标文本,其中,所述目标文本中缺少字/词的对齐位置使用所述预设字符进行填充。
5.根据权利要求4所述的方法,其特征在于,所述将所述第一参照文本依次与其他的所述第一文本进行对齐得到多个第二文本包括:
同时计算m-1个所述第一文本中的第i个第一文本相对于所述第一参照文本的编辑距离以及所述第一参照文本相对于所述第i个第一文本的编辑距离,以获取所述第i个第一文本与所述第一参照文本对齐后的两个第二文本,其中,m为所述第一文本的数量,m-1个所述第一文本中不包含所述第一参照文本,i<m-1;
依次获取所述m-1个第一文本与所述第一参照文本对齐后的2*(m-1)个所述第二文本。
6.根据权利要求5所述的方法,其特征在于,所述依次获取所述m-1个第一文本与所述第一参照文本对齐后的2*(m-1)个所述第二文本,包括:
指定所述第i个第一文本与所述第一参照文本对齐后的所述两个第二文本中的任一第二文本为判断文本,其中,所述第i个第一文本与所述第一参照文本对齐后的所述两个第二文本的长度相同;
依次比较所述第i个第一文本对应的判断文本和第i+1个第一文本对应的判断文本的长度,确定所述m-1个第一文本对应的判断文本中,长度最长的判断文本为目标判断文本。
7.根据权利要求6所述的方法,其特征在于,在确定所述m-1个第一文本对应的判断文本中,长度最长的判断文本为目标判断文本以后,所述方法还包括:
在2*(m-1)个所述第二文本的长度不等的情况下,将所述目标判断文本确定为所述第二参照文本。
8.根据权利要求4所述的方法,其特征在于,所述将所述第一参照文本依次与其他的所述第一文本进行对齐得到多个第二文本包括:
依次计算n-1个所述第一文本中的第p个第一文本相对于所述第一参照文本的编辑距离,或所述第一参照文本相对于所述第p个第一文本的编辑距离,以获取n-1个所述第二文本,其中,n为所述第一文本的数量,n-1个所述第一文本中不包含所述第一参照文本,p<n-1。
9.根据权利要求8所述的方法,其特征在于,在获取n-1个所述第二文本之后,所述方法还包括:
遍历所述n-1个所述第二文本,在所述n-1个所述第二文本的长度不等的情况下,将所述n-1个所述第二文本中长度最长的文本确定为所述第二参照文本。
10.根据权利要求3所述的方法,其特征在于,所述通过重打分模型对多组所述第二文本的每个对齐位置上的字/词进行打分,获取每个所述对齐位置上得分最高的字/词作为目标字/词包括:
获取多组所述第二文本的目标对齐位置上的字/词的词频得分和置信度得分,其中,所述词频得分由所述字/词在所述目标对齐位置上出现的概率确定,所述置信度得分由每个所述ASR模型输出的所述字/词的置信度确定;
将所述目标对齐位置上的字/词的词频得分和置信度得分相加后得到所述目标对齐位置上的字/词的目标得分;
将所述目标对齐位置上的目标得分最高的所述字/词确定为所述目标对齐位置的目标字/词。
11.根据权利要求10所述的方法,其特征在于,所述获取多组所述第二文本的目标对齐位置上的字/词的词频得分和置信度得分包括:
将所述字/词在所述目标对齐位置上出现的概率与第一权重相乘得到所述字/词的词频得分;
将每个所述ASR模型输出的所述字/词的置信度的均值与第二权重相乘得到所述字/词的置信度得分,其中,所述第一权重和所述第二权重之和为1。
12.根据权利要求3至11任一项所述的方法,其特征在于,所述ASR模型组中包括多个根据不同的建模方法训练的模型,和/或,同种框架下不同网络结构或不同超参数训练的模型,和/或,同种框架下同种网络结构训练的模型在测试时设置不同的解码参数。
13.一种计算机可读的存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求3至12任一项中所述的方法。
14.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求3至12任一项中所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110662309.7A CN113314124B (zh) | 2021-06-15 | 2021-06-15 | 文本输出方法及系统、存储介质、电子装置 |
CN202210246648.1A CN114627874A (zh) | 2021-06-15 | 2021-06-15 | 文本对齐方法、存储介质、电子装置 |
US17/915,471 US11651139B2 (en) | 2021-06-15 | 2022-05-25 | Text output method and system, storage medium, and electronic device |
PCT/CN2022/095062 WO2022262542A1 (zh) | 2021-06-15 | 2022-05-25 | 文本输出方法及系统、存储介质、电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110662309.7A CN113314124B (zh) | 2021-06-15 | 2021-06-15 | 文本输出方法及系统、存储介质、电子装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210246648.1A Division CN114627874A (zh) | 2021-06-15 | 2021-06-15 | 文本对齐方法、存储介质、电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113314124A true CN113314124A (zh) | 2021-08-27 |
CN113314124B CN113314124B (zh) | 2022-03-25 |
Family
ID=77378807
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210246648.1A Withdrawn CN114627874A (zh) | 2021-06-15 | 2021-06-15 | 文本对齐方法、存储介质、电子装置 |
CN202110662309.7A Active CN113314124B (zh) | 2021-06-15 | 2021-06-15 | 文本输出方法及系统、存储介质、电子装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210246648.1A Withdrawn CN114627874A (zh) | 2021-06-15 | 2021-06-15 | 文本对齐方法、存储介质、电子装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11651139B2 (zh) |
CN (2) | CN114627874A (zh) |
WO (1) | WO2022262542A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113793604A (zh) * | 2021-09-14 | 2021-12-14 | 思必驰科技股份有限公司 | 语音识别系统优化方法和装置 |
CN113901263A (zh) * | 2021-09-30 | 2022-01-07 | 宿迁硅基智能科技有限公司 | 一种视频素材的标签生成方法及装置 |
CN114495938A (zh) * | 2021-12-04 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 音频识别方法、装置、计算机设备及存储介质 |
CN115394300A (zh) * | 2022-10-28 | 2022-11-25 | 广州小鹏汽车科技有限公司 | 语音交互方法、语音交互装置、车辆和可读存储介质 |
WO2022262542A1 (zh) * | 2021-06-15 | 2022-12-22 | 南京硅基智能科技有限公司 | 文本输出方法及系统、存储介质、电子装置 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7761296B1 (en) * | 1999-04-02 | 2010-07-20 | International Business Machines Corporation | System and method for rescoring N-best hypotheses of an automatic speech recognition system |
CN101996631A (zh) * | 2009-08-28 | 2011-03-30 | 国际商业机器公司 | 用于对齐文本的方法和装置 |
US8170289B1 (en) * | 2005-09-21 | 2012-05-01 | Google Inc. | Hierarchical alignment of character sequences representing text of same source |
CN103474069A (zh) * | 2013-09-12 | 2013-12-25 | 中国科学院计算技术研究所 | 用于融合多个语音识别系统的识别结果的方法及系统 |
US20180081989A1 (en) * | 2016-09-22 | 2018-03-22 | Yahoo Holdings, Inc. | Method and system for providing query suggestions based on personalized spelling correction |
US20180130484A1 (en) * | 2016-11-07 | 2018-05-10 | Axon Enterprise, Inc. | Systems and methods for interrelating text transcript information with video and/or audio information |
CN108538285A (zh) * | 2018-03-05 | 2018-09-14 | 清华大学 | 一种基于多任务神经网络的多样例关键词检测方法 |
CN108962224A (zh) * | 2018-07-19 | 2018-12-07 | 苏州思必驰信息科技有限公司 | 口语理解和语言模型联合建模方法、对话方法及系统 |
CN109101475A (zh) * | 2017-06-20 | 2018-12-28 | 北京嘀嘀无限科技发展有限公司 | 出行语音识别方法、系统和计算机设备 |
CN109215630A (zh) * | 2018-11-14 | 2019-01-15 | 北京羽扇智信息科技有限公司 | 实时语音识别方法、装置、设备及存储介质 |
CN110516248A (zh) * | 2019-08-27 | 2019-11-29 | 出门问问(苏州)信息科技有限公司 | 语音识别结果纠错方法、装置、存储介质和电子设备 |
CN112435656A (zh) * | 2020-12-11 | 2021-03-02 | 平安科技(深圳)有限公司 | 模型训练方法、语音识别方法、装置、设备及存储介质 |
CN112885336A (zh) * | 2021-01-29 | 2021-06-01 | 深圳前海微众银行股份有限公司 | 语音识别系统的训练、识别方法、装置、电子设备 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2986345B2 (ja) * | 1993-10-18 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声記録指標化装置及び方法 |
GB2296846A (en) * | 1995-01-07 | 1996-07-10 | Ibm | Synthesising speech from text |
US6064957A (en) * | 1997-08-15 | 2000-05-16 | General Electric Company | Improving speech recognition through text-based linguistic post-processing |
US7203648B1 (en) * | 2000-11-03 | 2007-04-10 | At&T Corp. | Method for sending multi-media messages with customized audio |
US6975985B2 (en) * | 2000-11-29 | 2005-12-13 | International Business Machines Corporation | Method and system for the automatic amendment of speech recognition vocabularies |
US7668718B2 (en) * | 2001-07-17 | 2010-02-23 | Custom Speech Usa, Inc. | Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile |
WO2005071663A2 (en) * | 2004-01-16 | 2005-08-04 | Scansoft, Inc. | Corpus-based speech synthesis based on segment recombination |
US7693717B2 (en) * | 2006-04-12 | 2010-04-06 | Custom Speech Usa, Inc. | Session file modification with annotation using speech recognition or text to speech |
US7792675B2 (en) * | 2006-04-20 | 2010-09-07 | Vianix Delaware, Llc | System and method for automatic merging of multiple time-stamped transcriptions |
US8286071B1 (en) * | 2006-06-29 | 2012-10-09 | Escription, Inc. | Insertion of standard text in transcriptions |
US8487984B2 (en) * | 2008-01-25 | 2013-07-16 | At&T Intellectual Property I, L.P. | System and method for digital video retrieval involving speech recognition |
US11062615B1 (en) * | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
US10019995B1 (en) * | 2011-03-01 | 2018-07-10 | Alice J. Stiebel | Methods and systems for language learning based on a series of pitch patterns |
US8756064B2 (en) * | 2011-07-28 | 2014-06-17 | Tata Consultancy Services Limited | Method and system for creating frugal speech corpus using internet resources and conventional speech corpus |
CN103077718B (zh) | 2013-01-09 | 2015-11-25 | 华为终端有限公司 | 语音处理方法、系统和终端 |
US9514741B2 (en) * | 2013-03-13 | 2016-12-06 | Nuance Communications, Inc. | Data shredding for speech recognition acoustic model training under data retention restrictions |
US9892115B2 (en) * | 2013-06-11 | 2018-02-13 | Facebook, Inc. | Translation training with cross-lingual multi-media support |
GB2544070B (en) * | 2015-11-04 | 2021-12-29 | The Chancellor Masters And Scholars Of The Univ Of Cambridge | Speech processing system and method |
US9934775B2 (en) * | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
CN106128462A (zh) | 2016-06-21 | 2016-11-16 | 东莞酷派软件技术有限公司 | 语音识别方法及系统 |
US11017761B2 (en) * | 2017-10-19 | 2021-05-25 | Baidu Usa Llc | Parallel neural text-to-speech |
US10796686B2 (en) * | 2017-10-19 | 2020-10-06 | Baidu Usa Llc | Systems and methods for neural text-to-speech using convolutional sequence learning |
US11238843B2 (en) * | 2018-02-09 | 2022-02-01 | Baidu Usa Llc | Systems and methods for neural voice cloning with a few samples |
CN110148416B (zh) | 2019-04-23 | 2024-03-15 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备和存储介质 |
CN110491383B (zh) | 2019-09-25 | 2022-02-18 | 北京声智科技有限公司 | 一种语音交互方法、装置、系统、存储介质及处理器 |
CN112329926A (zh) | 2020-11-30 | 2021-02-05 | 珠海采筑电子商务有限公司 | 智能机器人的质量改善方法及系统 |
CN112765976A (zh) | 2020-12-30 | 2021-05-07 | 北京知因智慧科技有限公司 | 文本相似度计算方法、装置、设备及存储介质 |
KR20230156425A (ko) * | 2021-03-26 | 2023-11-14 | 구글 엘엘씨 | 자체 정렬을 통한 스트리밍 asr 모델 지연 감소 |
CN114627874A (zh) | 2021-06-15 | 2022-06-14 | 宿迁硅基智能科技有限公司 | 文本对齐方法、存储介质、电子装置 |
-
2021
- 2021-06-15 CN CN202210246648.1A patent/CN114627874A/zh not_active Withdrawn
- 2021-06-15 CN CN202110662309.7A patent/CN113314124B/zh active Active
-
2022
- 2022-05-25 US US17/915,471 patent/US11651139B2/en active Active
- 2022-05-25 WO PCT/CN2022/095062 patent/WO2022262542A1/zh unknown
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7761296B1 (en) * | 1999-04-02 | 2010-07-20 | International Business Machines Corporation | System and method for rescoring N-best hypotheses of an automatic speech recognition system |
US8170289B1 (en) * | 2005-09-21 | 2012-05-01 | Google Inc. | Hierarchical alignment of character sequences representing text of same source |
CN101996631A (zh) * | 2009-08-28 | 2011-03-30 | 国际商业机器公司 | 用于对齐文本的方法和装置 |
CN103474069A (zh) * | 2013-09-12 | 2013-12-25 | 中国科学院计算技术研究所 | 用于融合多个语音识别系统的识别结果的方法及系统 |
US20180081989A1 (en) * | 2016-09-22 | 2018-03-22 | Yahoo Holdings, Inc. | Method and system for providing query suggestions based on personalized spelling correction |
US20180130484A1 (en) * | 2016-11-07 | 2018-05-10 | Axon Enterprise, Inc. | Systems and methods for interrelating text transcript information with video and/or audio information |
CN109101475A (zh) * | 2017-06-20 | 2018-12-28 | 北京嘀嘀无限科技发展有限公司 | 出行语音识别方法、系统和计算机设备 |
CN108538285A (zh) * | 2018-03-05 | 2018-09-14 | 清华大学 | 一种基于多任务神经网络的多样例关键词检测方法 |
CN108962224A (zh) * | 2018-07-19 | 2018-12-07 | 苏州思必驰信息科技有限公司 | 口语理解和语言模型联合建模方法、对话方法及系统 |
CN109215630A (zh) * | 2018-11-14 | 2019-01-15 | 北京羽扇智信息科技有限公司 | 实时语音识别方法、装置、设备及存储介质 |
CN110516248A (zh) * | 2019-08-27 | 2019-11-29 | 出门问问(苏州)信息科技有限公司 | 语音识别结果纠错方法、装置、存储介质和电子设备 |
CN112435656A (zh) * | 2020-12-11 | 2021-03-02 | 平安科技(深圳)有限公司 | 模型训练方法、语音识别方法、装置、设备及存储介质 |
CN112885336A (zh) * | 2021-01-29 | 2021-06-01 | 深圳前海微众银行股份有限公司 | 语音识别系统的训练、识别方法、装置、电子设备 |
Non-Patent Citations (2)
Title |
---|
战玉娟等: "《基于科大讯飞开放平台的语音识别技术在背诵检查中的应用研究》", 《中国教育信息化》 * |
方媛等: "《基于"文本对齐"进行短文本过滤算法的研究》", 《信息通信》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022262542A1 (zh) * | 2021-06-15 | 2022-12-22 | 南京硅基智能科技有限公司 | 文本输出方法及系统、存储介质、电子装置 |
US11651139B2 (en) | 2021-06-15 | 2023-05-16 | Nanjing Silicon Intelligence Technology Co., Ltd. | Text output method and system, storage medium, and electronic device |
CN113793604A (zh) * | 2021-09-14 | 2021-12-14 | 思必驰科技股份有限公司 | 语音识别系统优化方法和装置 |
CN113793604B (zh) * | 2021-09-14 | 2024-01-05 | 思必驰科技股份有限公司 | 语音识别系统优化方法和装置 |
CN113901263A (zh) * | 2021-09-30 | 2022-01-07 | 宿迁硅基智能科技有限公司 | 一种视频素材的标签生成方法及装置 |
CN114495938A (zh) * | 2021-12-04 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 音频识别方法、装置、计算机设备及存储介质 |
CN114495938B (zh) * | 2021-12-04 | 2024-03-08 | 腾讯科技(深圳)有限公司 | 音频识别方法、装置、计算机设备及存储介质 |
CN115394300A (zh) * | 2022-10-28 | 2022-11-25 | 广州小鹏汽车科技有限公司 | 语音交互方法、语音交互装置、车辆和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20230121683A1 (en) | 2023-04-20 |
CN114627874A (zh) | 2022-06-14 |
WO2022262542A1 (zh) | 2022-12-22 |
CN113314124B (zh) | 2022-03-25 |
US11651139B2 (en) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113314124B (zh) | 文本输出方法及系统、存储介质、电子装置 | |
CN111429889B (zh) | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 | |
CN111916058A (zh) | 一种基于增量词图重打分的语音识别方法及系统 | |
US11694697B2 (en) | System and method to correct for packet loss in ASR systems | |
CN111640456B (zh) | 叠音检测方法、装置和设备 | |
US11380315B2 (en) | Characterizing accuracy of ensemble models for automatic speech recognition by determining a predetermined number of multiple ASR engines based on their historical performance | |
KR20230086737A (ko) | 단순화된 스트리밍 및 비스트리밍 스피치 인식을 위한 캐스케이드 인코더들 | |
CN112257437A (zh) | 语音识别纠错方法、装置、电子设备和存储介质 | |
CN111639529A (zh) | 基于多层次逻辑的语音话术检测方法、装置及计算机设备 | |
CN112908301A (zh) | 一种语音识别方法、装置、存储介质及设备 | |
CN115457938A (zh) | 识别唤醒词的方法、装置、存储介质及电子装置 | |
CN116206596A (zh) | 一种垂类领域端到端语音识别方法与装置 | |
KR20210141115A (ko) | 발화 시간 추정 방법 및 장치 | |
CN112951211B (zh) | 一种语音唤醒方法及装置 | |
JP2024511176A (ja) | エンドツーエンド自動音声認識コンフィデンスおよび削除推定のためのマルチタスク学習 | |
CN113793599A (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
CN117043856A (zh) | 高效流式非递归设备上的端到端模型 | |
JP2002358097A (ja) | 音声認識装置 | |
CN113345423B (zh) | 语音端点检测方法、装置、电子设备和存储介质 | |
CN112489651B (zh) | 语音识别方法和电子设备、存储装置 | |
CN115273862A (zh) | 语音处理的方法、装置、电子设备和介质 | |
CN112712793A (zh) | 语音交互下基于预训练模型的asr纠错方法及相关设备 | |
CN113077793A (zh) | 一种语音识别方法、装置、设备及存储介质 | |
US20200286487A1 (en) | Characterizing accuracy of ensemble models for automatic speech recognition | |
JP2001013992A (ja) | 音声理解装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |