CN110415679B - 语音纠错方法、装置、设备和存储介质 - Google Patents
语音纠错方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN110415679B CN110415679B CN201910677736.5A CN201910677736A CN110415679B CN 110415679 B CN110415679 B CN 110415679B CN 201910677736 A CN201910677736 A CN 201910677736A CN 110415679 B CN110415679 B CN 110415679B
- Authority
- CN
- China
- Prior art keywords
- voice
- error correction
- query
- user
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Abstract
本发明实施例公开了一种语音纠错方法、装置、设备和存储介质,其中,该方法包括:根据用户的当前查询语音和用户描述信息,确定当前查询语音所属的至少一种语言类型,其中,语言类型包括普通话和至少一种方言;确定每种语言类型各自对应的语音纠错模型;利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果进行语音纠错。本发明实施例可以实现针对不同用户的个性化语音纠错,提高语音纠错准确性。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种语音纠错方法、装置、设备和存储介质。
背景技术
在基于语音的人机交互场景中,准确识别用户语音是确保交互过程顺利进行的重要环节。随着语音交互技术的不断发展,在对用户语音进行识别的过程中,还可以对用户语音自动进行纠错,准确预测用户语义,确保用户的交互体验。
然而,现有的语音纠错方法通常是针对大众普遍适用的一些纠错方式,语音纠错领域中仍然缺乏针对具体用户的差异化语音纠错方法。
发明内容
本发明实施例提供一种语音纠错方法、装置、设备和存储介质,以实现针对不同用户的个性化语音纠错,提高语音纠错准确性。
第一方面,本发明实施例提供了一种语音纠错方法,该方法包括:
根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,其中,所述语言类型包括普通话和至少一种方言;
确定每种语言类型各自对应的语音纠错模型;
利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
第二方面,本发明实施例还提供了一种语音纠错装置,该装置包括:
语言类型确定模块,用于根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,其中,所述语言类型包括普通话和至少一种方言;
语音纠错模型确定模块,用于确定每种语言类型各自对应的语音纠错模型;
语音纠错模块,用于利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
第三方面,本发明实施例还提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的语音纠错方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的语音纠错方法。
本发明实施例通过根据用户当前的查询语音和用户描述信息,预测用户当前查询语音所属的至少一种语言类型,例如用户当前发出的查询语音属于普通话或者方言,然后利用与每种语言类型对应的语音纠错模型对用户当前查询语音进行纠错,实现了针对不同用户的个性化语音纠错,提高了语音纠错的准确性,从而使得在任意的语音查询场景中,可以准确响应用户的查询需求。
附图说明
图1是本发明实施例一提供的语音纠错方法的流程图;
图2是本发明实施例二提供的语音纠错方法的流程图;
图3是本发明实施例三提供的语音纠错装置的结构示意图;
图4是本发明实施例四提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一提供的语音纠错方法的流程图,本实施例可适用于在语音交互场景中,针对具体的用户,结合用户自身的个性化信息,对用户语音进行纠错的情况,该方法可以由语音纠错装置来执行,该装置可以采用软件和/或硬件的方式实现,并可集成在任意的具有计算能力的设备上,包括但不限于服务器等。
如图1所示,本实施例提供的语音纠错方法可以包括:
S110、根据用户的当前查询语音和用户描述信息,确定当前查询语音所属的至少一种语言类型,其中,语言类型包括普通话和至少一种方言。
在语音交互场景中,用户查询语音中携带有用户的查询(query)需求,用户描述信息用于表示与用户相关的个性化信息,可以用于辅助预测用户当前查询语音所属的语言类型。用户描述信息可以包括用户画像特征、当前位置信息和历史查询语音中的至少一种;用户画像特征可以包括但不限于用户历史所在的多个候选地理区域、多个候选语言类型和个人信息等,用户个人信息包括但不限于年龄、职业、教育水平和户籍等信息。
其中,在与位置相关的查询场景中,例如,出行目的地查询或者餐饮服务查询等,考虑用户的当前位置信息,可以用于判断用户当前查询语音是否属于当前所在地的地方语言。用户的历史查询语音是指在预设历史周期内,例如当前时间之前的一个月内,语音查询服务所收集的用户查询语音,考虑用户使用的语言通常不会存在突变性的变化,将用户的历史查询语音作为预测当前语言类型的一个考虑因素,有助于提高语言类型预测的准确性。用户画像特征中包括的多个候选地理区域和多个候选语言类型是指基于用户信息分析统计得到的用户经常出现的地理区域和用户经常使用的语言类型,例如,基于用户使用查询服务的历史语音查询日志分析得到。候选地理区域和候选语言类型可以为语言类型预测提供一个初步的语言预测范围,例如用户经常出现在X市,用户可能使用的语言类型可以包括普通话与X市的方言。用户的个人信息可以是通过语音查询服务中的个人资料获取。用户个人信息与用户习惯使用的语言类型存在直接相关性,例如年轻化的用户使用普通话的概率较高,一些特定职业类型决定了用户使用的语言类型,在户籍地使用当地方言的概率较大等,通过考虑用户个人信息也有助于提高语言类型预测的准确性。
S120、确定每种语言类型各自对应的语音纠错模型。
语音纠错模型用于至少依据用户当前查询语音的发音特点与当前查询语音的语义等信息,对用户当前查询语音中存在歧义或者存在发音错误的语音进行识别与纠正,使得查询服务可以准确响应用户的查询需求。在本实施例中,针对不同的语言类型,会预先利用该语言类型下的语料,基于机器学习方法训练对应的语音纠错模型,例如针对普通话的语音纠错模型,针对不同省市的方言的语音纠错模型等,即语音纠错模型与语言类型存在一一对应的关系。不同语言类型对应不同的发音特点,将语音纠错具体到特定语言类型下实现,可以降低语音纠错的实现难度,缩小语音纠错的语音排查范围,例如每种语言类型下的同音不同字与发音相似等情况可能并不相同,具体到特定语言类型下,便可以降低语音纠错过程中的语音排查比例。并且,当前语言类型基于用户信息确定,利用每种语言类型对应的纠错模型进行纠错时,可以很好的适应用户口音,避免在当前通用的语音纠错方法中因为用户口音问题而导致语音纠错的准确性较低的现象,从而提高个性化语音纠错的准确率。
S130、利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
在利用训练好的语音纠错模型对用户当前查询语音进行纠错过程中,语音纠错模型可以对用户当前查询语音进行逐层的语音分析,语音分析结果包括但不限于当前查询语音的发音特点、语义分析特征、语言模型特征和语音中各词语的纠错概率等,然后依据语音分析结果对用户当前查询语音进行纠错,使得纠错后的查询语音可以准确表示用户当前的查询需求。其中,当前查询语音的语义分析特征包括当前查询语音中的语法成分以及用户的初步查询需求(相当于考虑查询语音的上下文信息);当前查询语音的语言模型特征用于表征当前查询语音的语义通顺程度,如果语义通顺程度较差,需要进行语音纠错的概率越大;语音纠错模型识别出用户当前查询语音中包括的各个词语后,继续分析各个词语在历史语音查询过程中的纠错概率,纠错概率较大的词语在当前语音查询过程中需要进行纠错的概率也大,纠错概率较大的词语与用户自身的说话发音特点有关,可以是用户当前查询语音中的任意词语。
示例性的,利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果对当前查询语音中的查询关键词进行语音纠错。当语音纠错模型确定出用户当前查询语音的语音分析结果后,便可以确定用户查询语句中的查询关键词,直接对查询关键词进行语音纠错,可以提高纠错效率,提高纠错对象的精准性。例如,当用户利用地图应用进行目标兴趣点(Point of Interest,POI)查询过程中,地图应用获取用户当前关于POI的查询语音,利用当前用户语言类型对应的语音纠错模型对当前查询语音中的POI语音片段进行纠正,准确识别用户查询的目标POI,例如,用户利用地图应用搜索湖南小镇,但用户发音将“hu”发音为“fu”,通过语音纠错模型进行纠错,可以将“fu”纠正为“hu”,从而准确识别用户对湖南小镇的查询需求。
当存在多种语音纠错模型对用户当前查询语音进行纠错,得到多个纠错结果,可以通过纠错结果融合,例如基于预设筛选策略进行纠错结果筛选或者基于预设合并策略进行纠错结果合并等,确定出最终的纠错结果。在确保最终的纠错结果的准确性的基础上,关于预设筛选策略与预设合并策略的具体内容本实施例不作具体限定。
在上述技术方案的基础上,进一步的,语音纠错模型的训练过程包括:
针对每种语言类型,利用该语言类型中不同语音之间的语音相似度特征,以及该语言类型下原始查询语音和纠正后的目标查询语音(即原始查询语音被纠正后的语音)之间的分析特征,构建针对每种语言类型的训练集;
利用每种语言的训练集以及机器学习算法,训练得到每种语言类型对应的语音纠错模型;
其中,每种语言类型下原始查询语音和纠正后的目标查询语音之间的分析特征包括但不限于:原始查询语音和纠正后的目标查询语音各自的查询频次特征、各自的满意度特征、各自的语义分析特征和各自的语言模型特征,以及查询语音和纠正后的目标查询语音之间的编辑距离特征,以及原始查询语音和纠正后的目标查询语音在语音纠正位置处各自对应的语音片段的满意度特征和查询频次特征。语音纠错模型训练过程中,用户可以根据具体的模型训练需求增加或修改原始查询语句和纠正后的目标查询语句之间的分析特征。
在上述分析特征中,原始查询语音和纠正后的目标查询语音各自的查询频次特征是指:针对不同的查询用户,在预设历史周期内(该时间值可灵活设置),该原始查询语音整体被用于查询的次数之和;以及将原始查询语音纠正为目标查询语音后,目标查询语音整体被用于查询的次数之和;
原始查询语音和纠正后的目标查询语音各自的满意度特征是指:在预设历史周期内,原始查询语音的满意度统计和目标查询语音的满意度统计;满意度的计算公式为:用户基于原始查询语音或目标查询语音进行查询,用户查询需求被满足的频次与用户查询总频次之间的商,用户查询需求被满足取决于用户基于查询反馈结果是否进一步执行与查询反馈结果相关的操作,例如用户基于语音查询的目标地点发起导航,表示当前的用户查询需求被满足,如果用户更换查询语音或者中断当前语音查询,则表示当前的用户查询需求未被满足;
原始查询语音和纠正后的目标查询语音在语音纠正位置处各自对应的语音片段的查询频次特征是指:针对不同的查询用户,在预设历史周期内,原始查询语音在纠正位置处的原始语音片段被用于查询的次数之和;以及将原始查询语音纠正为目标查询语音后,在相同纠正位置处的纠正语音片段被用于查询的次数之和;
原始查询语音和纠正后的目标查询语音在语音纠正位置处各自对应的语音片段的满意度特征是指:在预设历史周期内原始查询语音在纠正位置处的原始语音片段的满意度统计;以及该原始语音片段对应的纠正语音片段的满意度统计,满意度的计算公式为:查询用户基于原始语音片段或纠正语音片段进行查询,用户查询需求被满足的频次与用户查询总频次之间的商。
在语音纠错模型的训练过程中,可用的机器学习算法包括任意的分类与排序算法,例如,基于回归的学习排序算法(GBRank),梯度提升树算法(Gradient BoostedDecision Trees,GBDT),支持向量机(Support Vector Machine,SVM)分类算法等。
本实施例的技术方案通过根据用户当前的查询语音和用户描述信息,预测用户当前查询语音所属的至少一种语言类型,例如用户当前发出的查询语音属于普通话或者方言,然后利用与每种语言类型对应的语音纠错模型对用户当前查询语音进行纠错,实现了针对不同用户的个性化语音纠错;同时,具体到特定语言类型下进行语音纠错,降低了语音纠错过程中的语音排查比例,还可以适应不同用户的口音,避免了通用的语音纠错方法中因为用户口音问题而导致语音纠错的准确性较低的现象,提高了语音纠错的准确性,从而使得在任意的语音查询场景中,可以准确响应用户的查询需求。
实施例二
图2是本发明实施例二提供的语音纠错方法的流程图,本实施例是在上述实施例的基础上进一步进行优化与扩展。如图2所示,该方法可以包括:
S210、根据用户的当前查询语音和用户描述信息,确定当前查询语音所属的至少一种语言类型,其中,语言类型包括普通话和至少一种方言。
示例性的,可以根据用户的当前查询语音和用户描述信息,利用预先训练的语言类型分析模型,确定当前查询语音所属的至少一种语言类型。语言类型分析模型用于预测用户查询语音所属的语言类型。语言类型分析模型的训练过程包括:将多个样本用户(指其查询语音被用于模型训练的查询用户)的查询语音和用户描述信息作为输入,并将多个样本用户的语音类型标注结果(即该样本用户的具体语言类型)作为输出,利用机器学习训练语言类型分析模型。用户描述信息可以包括用户画像特征、当前位置信息和历史查询语音中的至少一种;用户画像特征可以包括但不限于样本用户历史所在的多个候选地理区域、多个候选语言类型和个人信息等,用户个人信息包括但不限于年龄、职业、教育水平和户籍等信息。
在语言类型分析模型的训练过程中,可用的机器学习算法包括任意的分类与排序算法,例如,基于回归的学习排序算法(GBRank),梯度提升树算法(Gradient BoostedDecision Trees,GBDT),支持向量机(Support Vector Machine,SVM)分类算法等,本实施例不作具体限定。
S220、确定每种语言类型各自对应的语音纠错模型。
S230、根据用户的当前位置信息、历史查询语音的语义和当前查询语音的语义,确定当前查询语音的候选信息纠错范围。
在与位置信息相关的查询场景中,利用用户的历史查询语音的语义,可以确定用户的历史查询需求,例如用户历史查询了哪些目标POI、用户历史查询了哪些餐饮商铺等,从而预测用户的查询偏好或查询倾向;然后结合用户当前查询语音的语义(可以确定出用户的查询需求)和当前查询位置(当前查询需求通常与当前位置信息是相关的),确定用户当前查询语音的候选信息纠错范围,该候选信息纠错范围表示对用户当前查询语音进行纠错后的查询信息可能所属的范围,该候选信息纠错范围可以信息列表的形式实现,从而降低纠错难度,减小语音纠错的语音信息选择范围,避免在海量信息中的盲目排查,从而提高纠错针对性与纠错效率。此外,当确定用户的语言类型属于方言时,在确定候选信息纠错范围时,也可以将该方言所属地作为确定候选信息纠错范围的一个考虑因素,例如用户说A市方言,语音查询A市相关信息的可能性较大。
S240、在候选信息纠错范围内,利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
即在候选信息纠错范围内,利用确定的各种语音纠错模型对当前查询语音进行纠错。示例性的,在地图应用的查询场景中,候选信息纠错范围包括当前查询语音中POI名称的POI候选纠错区域范围或者POI候选纠错列表,用户的查询关键词包括POI名称,则在确定的POI候选纠错区域范围内,利用确定的至少一种语音纠错模型分别对用户的当前查询语音进行语音分析,基于语音分析结果对当前查询语音中的POI名称进行语音纠错。
例如,以用户当前位置信息为A市,用户使用地图应用进行目标POI查询,目标POI为“浦庄镇锦湖小区”,由于用户的发音偏差,基于用户当前查询语音,初步识别用户的当前查询为“浦庄镇锦福小区”为例,对本实施例的语音纠错实现过程进行示例性说明:
1)基于语义理解,可以确定用户当前查询的是“B市吴中区浦庄镇”的一个小区;
2)基于用户的当前查询语音和用户描述信息(包括用户画像特征、当前位置信息和历史查询语音),利用语言类型分析模型确定用户当前查询语音属于“普通话”语言类型;
3)基于用户的当前位置信息、历史查询语音的语义和当前查询语音的语义息,将POI候选纠错区域范围限定为“B市吴中区浦庄镇”,以及“A市”;
4)基于与普通话语言类型对应的语音纠错模型,在“B市吴中区浦庄镇”,以及“A市”确定的地理区域内,对用户当前查询语音中POI名称进行纠错,最终选择出“浦庄镇锦湖小区”是置信度最高的纠错结果。其中,当利用语音纠错模型确定出多个纠错结果时,可以根据每个纠错结果对应的置信度筛选出目标纠错结果。
在上述技术方案的基础上,可选的,该方法还可以包括:
根据每种语音纠错模型的置信度,从各种语音纠错模型对当前查询语音的纠错结果中确定目标纠错结果;或者
将各种语音纠错模型对当前查询语音的纠错结果进行展示,以基于用户的选择操作从展示的纠错结果中确定目标纠错结果。
当预测的用户当前查询语音所属的语言类型是多种时,对应的语音纠错模型也存在多种,利用每种语音纠错模型对用户当前查询语音进行纠错后,可以得到对应多种语音纠错模型的多个纠错结果,可以根据每种语音纠错模型的置信度(该置信度可以用于表示模型纠错的准确性),自动筛选出目标纠错结果;或者将多个纠错结果进行可视化展示,基于用户对多个展示结果的选择,确定出目标纠错结果,从而基于目标纠错结果,进行查询反馈。
本实施例的技术方案通过根据用户当前的查询语音和用户描述信息,预测用户当前查询语音所属的至少一种语言类型,然后利用与每种语言类型对应的语音纠错模型,在确定的候选信息纠错范围内,对用户当前查询语音进行纠错,实现了针对不同用户的个性化语音纠错,减小了语音纠错的语音信息选择范围,提高了纠错针对性与纠错效率;同时,具体到特定语言类型下进行语音纠错,降低了语音纠错过程中的语音排查比例,还可以适应不同用户的口音,避免了通用的语音纠错方法中因为用户口音问题而导致语音纠错的准确性较低的现象,提高了语音纠错的准确性,从而使得在任意的语音查询场景中,可以准确响应用户的查询需求。
实施例三
图3是本发明实施例三提供的语音纠错装置的结构示意图,本实施例可适用于在语音交互场景中,针对具体的用户,结合用户自身的个性化信息,对用户语音进行纠错的情况。本实施例提供的语音纠错装置可以采用软件和/或硬件的方式实现,并可集成在任意的具有计算能力的设备上,包括但不限于服务器等。
如图3所示,本实施例提供的语音纠错装置包括语言类型确定模块310、语音纠错模型确定模块320和语音纠错模块330,其中:
语言类型确定模块310,用于根据用户的当前查询语音和用户描述信息,确定当前查询语音所属的至少一种语言类型,其中,语言类型包括普通话和至少一种方言;
语音纠错模型确定模块320,用于确定每种语言类型各自对应的语音纠错模型;
语音纠错模块330,用于利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
可选的,语音纠错模块330具体用于:
利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果对当前查询语音中的查询关键词进行语音纠错,其中,查询关键词包括POI名称。
可选的,用户描述信息包括用户画像特征、当前位置信息和历史查询语音中的至少一种。
可选的,该装置还包括候选信息纠错范围确定模块,用于:
在语音纠错模块330执行利用确定的各种语音纠错模型分别对当前查询语音进行语音分析,基于语音分析结果进行语音纠错的操作之前,根据用户的当前位置信息、历史查询语音的语义和当前查询语音的语义,确定当前查询语音的候选信息纠错范围,以在候选信息纠错范围内,利用确定的各种语音纠错模型对当前查询语音进行纠错。
可选的,候选信息纠错范围包括当前查询语音中POI名称的POI候选纠错区域范围。
可选的,语言类型确定模块310具体用于:
根据用户的当前查询语音和用户描述信息,利用预先训练的语言类型分析模型,确定当前查询语音所属的至少一种语言类型。
可选的,该装置还包括语言类型分析模型训练模块,用于:
将多个样本用户的查询语音和用户描述信息作为输入,并将多个样本用户的语音类型标注结果作为输出,利用机器学习训练语言类型分析模型。
可选的,该装置还包括语音纠错模型训练模块,用于训练语音纠错模型,该语音纠错模型训练模块包括:
训练集构建单元,用于针对每种语言类型,利用该语言类型中不同语音之间的语音相似度特征,以及该语言类型下原始查询语音和纠正后的目标查询语音之间的分析特征,构建针对每种语言类型的训练集;
模型训练单元,用于利用每种语言的训练集以及机器学习算法,训练得到每种语言类型对应的语音纠错模型;
其中,每种语言类型下原始查询语音和纠正后的目标查询语音之间的分析特征包括:原始查询语音和纠正后的目标查询语音各自的查询频次特征、各自的满意度特征、各自的语义分析特征和各自的语言模型特征,以及查询语音和纠正后的目标查询语音之间的编辑距离特征,以及原始查询语音和纠正后的目标查询语音在语音纠正位置处各自对应的语音片段的满意度特征和查询频次特征。
可选的,在语音纠错模块330中,语音分析结果包括当前查询语音的发音特点、语义分析特征、语言模型特征和语音中各词语的纠错概率。
可选的,该装置还包括:
目标纠错结果确定模块,用于根据每种语音纠错模型的置信度,从各种语音纠错模型对当前查询语音的纠错结果中确定目标纠错结果;或者
纠错结果展示模块,用于将各种语音纠错模型对当前查询语音的纠错结果进行展示,以基于用户的选择操作从展示的纠错结果中确定目标纠错结果。
可选的,用户画像特征包括用户历史所在的多个候选地理区域、多个候选语言类型和个人信息。
本发明实施例所提供的语音纠错装置可执行本发明任意实施例所提供的语音纠错方法,具备执行方法相应的功能模块和有益效果。本实施例中未详尽描述的内容可以参考本发明任意方法实施例中的描述。
实施例四
图4是本发明实施例四提供的一种设备的结构示意图。图4示出了适于用来实现本发明实施方式的示例性设备412的框图。图4显示的设备412仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备412可以是任意的具有计算能力的设备,包括但不限于服务器。
如图4所示,设备412以通用设备的形式表现。设备412的组件可以包括但不限于:一个或者多个处理器416,存储装置428,连接不同系统组件(包括存储装置428和处理器416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry SubversiveAlliance,ISA)总线,微通道体系结构(Micro Channel Architecture,MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
设备412典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备412访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置428可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)430和/或高速缓存存储器432。设备412可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统434可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘,例如只读光盘(Compact Disc Read-Only Memory,CD-ROM),数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线418相连。存储装置428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储装置428中,这样的程序模块442包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本发明所描述的实施例中的功能和/或方法。
设备412也可以与一个或多个外部设备414(例如键盘、指向终端、显示器424等)通信,还可与一个或者多个使得用户能与该设备412交互的终端通信,和/或与使得该设备412能与一个或多个其它计算终端进行通信的任何终端(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口422进行。并且,设备412还可以通过网络适配器420与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图4所示,网络适配器420通过总线418与设备412的其它模块通信。应当明白,尽管图中未示出,可以结合设备412使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of Independent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器416通过运行存储在存储装置428中的程序,从而执行各种功能应用以及数据处理,例如实现本发明任意实施例所提供的语音纠错方法,该方法可以包括:
根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,其中,所述语言类型包括普通话和至少一种方言;
确定每种语言类型各自对应的语音纠错模型;
利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的语音纠错方法,该方法可以包括:
根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,其中,所述语言类型包括普通话和至少一种方言;
确定每种语言类型各自对应的语音纠错模型;
利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (13)
1.一种语音纠错方法,其特征在于,包括:
根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,其中,所述语言类型包括普通话和至少一种方言;
确定每种语言类型各自对应的语音纠错模型;
利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错,包括:利用所述确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于所述语音分析结果对所述当前查询语音中的查询关键词进行语音纠错,其中,所述查询关键词包括兴趣点名称。
2.根据权利要求1所述的方法,其特征在于,所述用户描述信息包括用户画像特征、当前位置信息和历史查询语音中的至少一种。
3.根据权利要求2所述的方法,其特征在于,在所述利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错之前,所述方法还包括:
根据所述用户的当前位置信息、历史查询语音的语义和当前查询语音的语义,确定所述当前查询语音的候选信息纠错范围,以在所述候选信息纠错范围内,利用所述确定的各种语音纠错模型对所述当前查询语音进行纠错。
4.根据权利要求3所述的方法,其特征在于,所述候选信息纠错范围包括所述当前查询语音中兴趣点名称的兴趣点候选纠错区域范围。
5.根据权利要求1所述的方法,其特征在于,所述根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,包括:
根据所述用户的当前查询语音和用户描述信息,利用预先训练的语言类型分析模型,确定所述当前查询语音所属的至少一种语言类型。
6.根据权利要求5所述的方法,其特征在于,所述语言类型分析模型的训练过程包括:
将多个样本用户的查询语音和用户描述信息作为输入,并将所述多个样本用户的语音类型标注结果作为输出,利用机器学习训练所述语言类型分析模型。
7.根据权利要求1所述的方法,其特征在于,所述语音纠错模型的训练过程包括:
针对每种语言类型,利用该语言类型中不同语音之间的语音相似度特征,以及该语言类型下原始查询语音和纠正后的目标查询语音之间的分析特征,构建针对所述每种语言类型的训练集;
利用所述每种语言的训练集以及机器学习算法,训练得到所述每种语言类型对应的语音纠错模型;
其中,所述每种语言类型下原始查询语音和纠正后的目标查询语音之间的分析特征包括:所述原始查询语音和纠正后的目标查询语音各自的查询频次特征、各自的满意度特征、各自的语义分析特征和各自的语言模型特征,以及所述查询语音和纠正后的目标查询语音之间的编辑距离特征,以及所述原始查询语音和纠正后的目标查询语音在语音纠正位置处各自对应的语音片段的满意度特征和查询频次特征。
8.根据权利要求1所述的方法,其特征在于,所述语音分析结果包括所述当前查询语音的发音特点、语义分析特征、语言模型特征和语音中各词语的纠错概率。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据每种语音纠错模型的置信度,从所述各种语音纠错模型对所述当前查询语音的纠错结果中确定目标纠错结果;或者
将所述各种语音纠错模型对所述当前查询语音的纠错结果进行展示,以基于用户的选择操作从所述展示的纠错结果中确定目标纠错结果。
10.根据权利要求2所述的方法,其特征在于,所述用户画像特征包括用户历史所在的多个候选地理区域、多个候选语言类型和个人信息。
11.一种语音纠错装置,其特征在于,包括:
语言类型确定模块,用于根据用户的当前查询语音和用户描述信息,确定所述当前查询语音所属的至少一种语言类型,其中,所述语言类型包括普通话和至少一种方言;
语音纠错模型确定模块,用于确定每种语言类型各自对应的语音纠错模型;
语音纠错模块,用于利用确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于语音分析结果进行语音纠错,包括:利用所述确定的各种语音纠错模型分别对所述当前查询语音进行语音分析,基于所述语音分析结果对所述当前查询语音中的查询关键词进行语音纠错,其中,所述查询关键词包括兴趣点名称。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的语音纠错方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一所述的语音纠错方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910677736.5A CN110415679B (zh) | 2019-07-25 | 2019-07-25 | 语音纠错方法、装置、设备和存储介质 |
US16/930,223 US11328708B2 (en) | 2019-07-25 | 2020-07-15 | Speech error-correction method, device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910677736.5A CN110415679B (zh) | 2019-07-25 | 2019-07-25 | 语音纠错方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110415679A CN110415679A (zh) | 2019-11-05 |
CN110415679B true CN110415679B (zh) | 2021-12-17 |
Family
ID=68363245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910677736.5A Active CN110415679B (zh) | 2019-07-25 | 2019-07-25 | 语音纠错方法、装置、设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11328708B2 (zh) |
CN (1) | CN110415679B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11568135B1 (en) * | 2020-09-23 | 2023-01-31 | Amazon Technologies, Inc. | Identifying chat correction pairs for training models to automatically correct chat inputs |
CN112417068B (zh) * | 2020-10-28 | 2022-12-13 | 天津五八到家货运服务有限公司 | 下单地址的推荐方法及系统、电子设备 |
CN112382289B (zh) * | 2020-11-13 | 2024-03-22 | 北京百度网讯科技有限公司 | 语音识别结果的处理方法、装置、电子设备及存储介质 |
CN112700763B (zh) * | 2020-12-26 | 2024-04-16 | 中国科学技术大学 | 语音标注质量评价方法、装置、设备及存储介质 |
CN112767924A (zh) * | 2021-02-26 | 2021-05-07 | 北京百度网讯科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN113781998A (zh) * | 2021-09-10 | 2021-12-10 | 未鲲(上海)科技服务有限公司 | 基于方言纠正模型的语音识别方法、装置、设备及介质 |
CN114120972B (zh) * | 2022-01-28 | 2022-04-12 | 科大讯飞华南有限公司 | 一种基于场景化的语音智能识别方法及系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903611A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种语音信息的识别方法和设备 |
CN103944983A (zh) * | 2014-04-14 | 2014-07-23 | 美的集团股份有限公司 | 语音控制指令纠错方法和系统 |
CN104464736A (zh) * | 2014-12-15 | 2015-03-25 | 北京百度网讯科技有限公司 | 语音识别文本的纠错方法和装置 |
CN105047198A (zh) * | 2015-08-24 | 2015-11-11 | 百度在线网络技术(北京)有限公司 | 语音纠错处理方法及装置 |
CN105469801A (zh) * | 2014-09-11 | 2016-04-06 | 阿里巴巴集团控股有限公司 | 一种修复输入语音的方法及其装置 |
CN106534548A (zh) * | 2016-11-17 | 2017-03-22 | 科大讯飞股份有限公司 | 语音纠错方法和装置 |
CN108053823A (zh) * | 2017-11-28 | 2018-05-18 | 广西职业技术学院 | 一种语音识别系统及方法 |
CN108595412A (zh) * | 2018-03-19 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 纠错处理方法及装置、计算机设备及可读介质 |
CN109346059A (zh) * | 2018-12-20 | 2019-02-15 | 广东小天才科技有限公司 | 一种方言语音的识别方法及电子设备 |
CN109410664A (zh) * | 2018-12-12 | 2019-03-01 | 广东小天才科技有限公司 | 一种发音纠正方法及电子设备 |
CN109461436A (zh) * | 2018-10-23 | 2019-03-12 | 广东小天才科技有限公司 | 一种语音识别发音错误的纠正方法及系统 |
CN109545189A (zh) * | 2018-12-14 | 2019-03-29 | 东华大学 | 一种基于机器学习的口语发音检错与纠正系统 |
CN109545184A (zh) * | 2018-12-17 | 2019-03-29 | 广东小天才科技有限公司 | 一种基于语音校准的背诵检测方法及电子设备 |
CN109922371A (zh) * | 2019-03-11 | 2019-06-21 | 青岛海信电器股份有限公司 | 自然语言处理方法、设备及存储介质 |
CN110021293A (zh) * | 2019-04-08 | 2019-07-16 | 上海汽车集团股份有限公司 | 语音识别方法及装置、可读存储介质 |
CN111369981A (zh) * | 2020-03-02 | 2020-07-03 | 北京远鉴信息技术有限公司 | 一种方言地域识别方法、装置、电子设备及存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7165019B1 (en) * | 1999-11-05 | 2007-01-16 | Microsoft Corporation | Language input architecture for converting one text form to another text form with modeless entry |
US6848080B1 (en) * | 1999-11-05 | 2005-01-25 | Microsoft Corporation | Language input architecture for converting one text form to another text form with tolerance to spelling, typographical, and conversion errors |
US8036893B2 (en) * | 2004-07-22 | 2011-10-11 | Nuance Communications, Inc. | Method and system for identifying and correcting accent-induced speech recognition difficulties |
JP4604178B2 (ja) * | 2004-11-22 | 2010-12-22 | 独立行政法人産業技術総合研究所 | 音声認識装置及び方法ならびにプログラム |
US8112707B2 (en) * | 2005-12-13 | 2012-02-07 | Trigent Software Ltd. | Capturing reading styles |
US8972268B2 (en) * | 2008-04-15 | 2015-03-03 | Facebook, Inc. | Enhanced speech-to-speech translation system and methods for adding a new word |
JP4867654B2 (ja) * | 2006-12-28 | 2012-02-01 | 日産自動車株式会社 | 音声認識装置、および音声認識方法 |
US8352261B2 (en) * | 2008-03-07 | 2013-01-08 | Canyon IP Holdings, LLC | Use of intermediate speech transcription results in editing final speech transcription results |
US8671357B2 (en) * | 2008-11-25 | 2014-03-11 | Jeffrey R. Spetalnick | Methods and systems for improved data input, compression, recognition, correction, and translation through frequency-based language analysis |
US20130035936A1 (en) * | 2011-08-02 | 2013-02-07 | Nexidia Inc. | Language transcription |
US9684641B1 (en) * | 2012-09-21 | 2017-06-20 | Amazon Technologies, Inc. | Presenting content in multiple languages |
US9734819B2 (en) * | 2013-02-21 | 2017-08-15 | Google Technology Holdings LLC | Recognizing accented speech |
EP2973002B1 (en) * | 2013-03-15 | 2019-06-26 | Apple Inc. | User training by intelligent digital assistant |
US10586556B2 (en) * | 2013-06-28 | 2020-03-10 | International Business Machines Corporation | Real-time speech analysis and method using speech recognition and comparison with standard pronunciation |
US9966065B2 (en) * | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
CN106855768A (zh) * | 2015-12-08 | 2017-06-16 | 阿里巴巴集团控股有限公司 | 信息处理方法、装置、系统及终端设备 |
US9437191B1 (en) * | 2015-12-30 | 2016-09-06 | Thunder Power Hong Kong Ltd. | Voice control system with dialect recognition |
US9697824B1 (en) * | 2015-12-30 | 2017-07-04 | Thunder Power New Energy Vehicle Development Company Limited | Voice control system with dialect recognition |
US20180018973A1 (en) * | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
WO2018218034A1 (en) * | 2017-05-25 | 2018-11-29 | J. W. Pepper & Son, Inc. | Sheet music search and discovery system |
US10628668B2 (en) * | 2017-08-09 | 2020-04-21 | Open Text Sa Ulc | Systems and methods for generating and using semantic images in deep learning for classification and data extraction |
US20190147100A1 (en) * | 2017-11-10 | 2019-05-16 | Shanghai Xiaoi Robot Technology Co., Ltd. | Method and apparatus for establishing intelligent question answering repository, and intelligent question answering method |
US10395649B2 (en) * | 2017-12-15 | 2019-08-27 | International Business Machines Corporation | Pronunciation analysis and correction feedback |
US20200364303A1 (en) * | 2019-05-15 | 2020-11-19 | Nvidia Corporation | Grammar transfer using one or more neural networks |
-
2019
- 2019-07-25 CN CN201910677736.5A patent/CN110415679B/zh active Active
-
2020
- 2020-07-15 US US16/930,223 patent/US11328708B2/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903611A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种语音信息的识别方法和设备 |
CN103944983A (zh) * | 2014-04-14 | 2014-07-23 | 美的集团股份有限公司 | 语音控制指令纠错方法和系统 |
CN105469801A (zh) * | 2014-09-11 | 2016-04-06 | 阿里巴巴集团控股有限公司 | 一种修复输入语音的方法及其装置 |
CN104464736A (zh) * | 2014-12-15 | 2015-03-25 | 北京百度网讯科技有限公司 | 语音识别文本的纠错方法和装置 |
CN105047198A (zh) * | 2015-08-24 | 2015-11-11 | 百度在线网络技术(北京)有限公司 | 语音纠错处理方法及装置 |
CN106534548A (zh) * | 2016-11-17 | 2017-03-22 | 科大讯飞股份有限公司 | 语音纠错方法和装置 |
CN108053823A (zh) * | 2017-11-28 | 2018-05-18 | 广西职业技术学院 | 一种语音识别系统及方法 |
CN108595412A (zh) * | 2018-03-19 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 纠错处理方法及装置、计算机设备及可读介质 |
CN109461436A (zh) * | 2018-10-23 | 2019-03-12 | 广东小天才科技有限公司 | 一种语音识别发音错误的纠正方法及系统 |
CN109410664A (zh) * | 2018-12-12 | 2019-03-01 | 广东小天才科技有限公司 | 一种发音纠正方法及电子设备 |
CN109545189A (zh) * | 2018-12-14 | 2019-03-29 | 东华大学 | 一种基于机器学习的口语发音检错与纠正系统 |
CN109545184A (zh) * | 2018-12-17 | 2019-03-29 | 广东小天才科技有限公司 | 一种基于语音校准的背诵检测方法及电子设备 |
CN109346059A (zh) * | 2018-12-20 | 2019-02-15 | 广东小天才科技有限公司 | 一种方言语音的识别方法及电子设备 |
CN109922371A (zh) * | 2019-03-11 | 2019-06-21 | 青岛海信电器股份有限公司 | 自然语言处理方法、设备及存储介质 |
CN110021293A (zh) * | 2019-04-08 | 2019-07-16 | 上海汽车集团股份有限公司 | 语音识别方法及装置、可读存储介质 |
CN111369981A (zh) * | 2020-03-02 | 2020-07-03 | 北京远鉴信息技术有限公司 | 一种方言地域识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110415679A (zh) | 2019-11-05 |
US20210027766A1 (en) | 2021-01-28 |
US11328708B2 (en) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110415679B (zh) | 语音纠错方法、装置、设备和存储介质 | |
CN108091328B (zh) | 基于人工智能的语音识别纠错方法、装置及可读介质 | |
CN109313896B (zh) | 可扩展的动态类语言建模方法、用于生成话语转录的系统、计算机可读介质 | |
JP5901001B1 (ja) | 音響言語モデルトレーニングのための方法およびデバイス | |
WO2019076286A1 (zh) | 一种语句的用户意图识别方法和装置 | |
CN110276023B (zh) | Poi变迁事件发现方法、装置、计算设备和介质 | |
US20190164540A1 (en) | Voice recognition system and voice recognition method for analyzing command having multiple intents | |
US20140316764A1 (en) | Clarifying natural language input using targeted questions | |
US10586528B2 (en) | Domain-specific speech recognizers in a digital medium environment | |
KR20220004224A (ko) | 음성 인식을 위한 컨텍스트 바이어싱 | |
CN107564526B (zh) | 处理方法、装置和机器可读介质 | |
CN114840671A (zh) | 对话生成方法、模型的训练方法、装置、设备及介质 | |
US10049108B2 (en) | Identification and translation of idioms | |
CN111597800B (zh) | 同义句的获取方法及装置、设备及存储介质 | |
CN111143556A (zh) | 软件功能点自动计数方法、装置、介质及电子设备 | |
CN108153875B (zh) | 语料处理方法、装置、智能音箱和存储介质 | |
US11423219B2 (en) | Generation and population of new application document utilizing historical application documents | |
CN111126084B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
US20180165277A1 (en) | Dynamic Translation of Idioms | |
US9747891B1 (en) | Name pronunciation recommendation | |
CN111460117B (zh) | 对话机器人意图语料生成方法、装置、介质及电子设备 | |
CN111930891B (zh) | 基于知识图谱的检索文本扩展方法及相关装置 | |
CN110263135B (zh) | 一种数据交换匹配方法、装置、介质和电子设备 | |
JP2020187282A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20190279623A1 (en) | Method for speech recognition dictation and correction by spelling input, system and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |