CN110853625B - 语音识别模型分词训练方法、系统、移动终端及存储介质 - Google Patents
语音识别模型分词训练方法、系统、移动终端及存储介质 Download PDFInfo
- Publication number
- CN110853625B CN110853625B CN201910878880.5A CN201910878880A CN110853625B CN 110853625 B CN110853625 B CN 110853625B CN 201910878880 A CN201910878880 A CN 201910878880A CN 110853625 B CN110853625 B CN 110853625B
- Authority
- CN
- China
- Prior art keywords
- word
- dictionary
- corpus
- frequency
- occurrence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012549 training Methods 0.000 title claims abstract description 58
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012163 sequencing technique Methods 0.000 claims description 11
- 238000012217 deletion Methods 0.000 claims description 6
- 230000037430 deletion Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 239000013589 supplement Substances 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 abstract description 16
- 238000004422 calculation algorithm Methods 0.000 abstract description 11
- 238000002372 labelling Methods 0.000 abstract description 2
- 238000012360 testing method Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
- G10L2015/0633—Creating reference templates; Clustering using lexical or orthographic knowledge sources
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Character Discrimination (AREA)
Abstract
本发明适用于语音识别技术领域,提供了一种语音识别模型分词训练方法、系统、移动终端及存储介质,该方法包括:收集本地存储的文本语料,设置组词总数,计算每个当前文字与下一文字之间的组合频数;当判断到组合频数大于第一频数阈值时,将当前文字与下一文字进行组词并标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;将组词词典与原始词典进行合并,并根据合并后的词典对文本语料进行分词,以得到分词语料;根据分词语料对语音识别模型进行训练。本发明通过构造组词词典对原始词典进行扩充,使得不需要额外收集用于子串标注学习的训练语料,也不需要事先进行人工分词或者采用其他分词算法进行分词。
Description
技术领域
本发明属于语音识别技术领域,尤其涉及一种语音识别模型分词训练方法、系统、移动终端及存储介质。
背景技术
在中文中,字是最小的单位,但是很多时候,字与字组合成的词具有更强的语义,因此,在大多数应用中,将词看做一个整体是更为合理的,但是中文中并没有像英文中用于语义分割的空格,这就导致了计算机无法区分字与词、词与词之间的边界,因此催生了中文分词这一研究领域。中文分词是目前在中文搜索引擎、中文自然语言处理包括汉语语音识别语言模型建模等领域的必备处理步骤。
中文分词方法可分为基于规则的方法、基于传统统计机器学习的方法、基于语义的方法以及基于理解的方法。基于规则的方法主要是最大匹配方法,最大匹配方法又可进一步细分为正向最大匹配方法和逆向最大匹配方法。基于统计的方法是一种使用传统机器学习中的马尔科夫模型、最大熵模型或者条件随机场模型,本质上是字串或者词串标注学习。基于语义的方法引入了语义分析,主要包括扩充转移网络法、邻接约束法、综合匹配法、后缀分词法、特征词库法、矩阵约束法等。基于理解的方法通过让计算机模拟人对句子的理解达到识别词的的效果,主要分为基于专家系统的分词法和基于神经网络的分词法。
另一方面,因为中文字典规模大,字与字组成词的组合是字典规模的指数级,即使有很多字与字不会组合成词,但规模仍是指数级的,因此,不存在一种方法穷举出所有的词,并且待分词的文本是千变万化的,文本中总会存在词典中没有词(集外词,OOV),这就需要分词算法能够根据文本组合出新词。
目前使用最广泛效果最好的分词方法是基于条件随机场的方法。基于条件随机场的分词方法虽然取得了目前最好的分词效果,也能在一定程度上解决集外词的问题,但是该方法使用过程中,训练文本需要进行分词,若采用人工分词,因为文本量级大,会非常耗时;而若采用已有分词算法,又会将已有分词算法的不足引入到该分词算法中,继而降低了后续语音识别模型的识别效率。
发明内容
本发明实施例要解决的技术问题是如何在不使用外部资源的情况下,尽量减少人工参与,又能提升分词性能从而进一步提升语音识别语言模型的性能。
本发明实施例是这样实现的,一种语音识别模型分词训练方法,所述方法包括:
收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到所述分词语料;
根据所述分词语料对语音识别模型进行训练。
更进一步的,所述分别计算所述文本语料中每个当前文字与下一文字之间的组合频数的步骤之前,所述方法还包括:
对所述文本语料进行特殊字符识别,并根据识别结果进行字符删除;
对所述文本语料进行标点识别,并根据识别结果将识别到的标点符号转为为换行符;
对所述文本语料进行数字识别,并根据识别结果将数字字符串转换为对应的文字字符串。
更进一步的,所述将所述组词词典与本地预存储的原始词典进行合并的步骤包括:
获取所述原始词典的原始格式,并将所述组词词典转换为所述原始格式;
将所述组词词典与所述原始词典进行合并,将合并后的词典进行文字排序,并根据排序结果进行词组去重。
更进一步的,所述根据所述分词语料对语音识别模型进行训练的步骤包括:
在所述语音识别模型中,采用三元文法对所述分词语料进行语言模型训练。
更进一步的,所述方法还包括:
当判断到所述文本语料中的所述组词频数小于第二频数阈值时,发出组词提示,以使用户进行语料补充。
本发明实施例的另一目的在于提供一种语音识别模型分词训练系统,所述系统包括:
频数计算模块,用于收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
组词控制模块,用于当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
词典合并模块,用于将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到所述分词语料;
分词训练模块,用于根据所述分词语料对语音识别模型进行训练。
更进一步的,所述语音识别模型分词训练系统还包括:
语料优化模块,用于对所述文本语料进行特殊字符识别,并根据识别结果进行字符删除;对所述文本语料进行标点识别,并根据识别结果将识别到的标点符号转为为换行符;对所述文本语料进行数字识别,并根据识别结果将数字字符串转换为对应的文字字符串。
更进一步的,所述词典合并模块还用于:
获取所述原始词典的原始格式,并将所述组词词典转换为所述原始格式;
将所述组词词典与所述原始词典进行合并,将合并后的词典进行文字排序,并根据排序结果进行词组去重。
本发明实施例的另一目的在于提供一种移动终端,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端执行上述的语音识别模型分词训练方法。
本发明实施例的另一目的在于提供一种存储介质,其存储有上述的移动终端中所使用的计算机程序,该计算机程序被处理器执行时实现上述的语音识别模型分词训练方法的步骤。
本发明实施例,通过构造所述组词词典对原始词典进行扩充,大大缓解了集外词的问题,避免了识别结果中出现大量无法识别的词,使得最终训练出来的语音识别模型无论是在测试集还是使用测试时均具有识别性能高的优点,且本发明实施例不需要额外收集用于子串标注学习的训练语料,也不需要事先进行人工分词或者采用其他分词算法进行分词,减少了人工和其他分词算法带来的影响。
附图说明
图1是本发明第一实施例提供的语音识别模型分词训练方法的流程图;
图2是本发明第二实施例提供的语音识别模型分词训练方法的流程图;
图3是本发明第三实施例提供的语音识别模型分词训练系统的结构示意图;
图4是本发明第四实施例提供的移动终端的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
现有的分词方法使用过程中,训练文本需要进行分词,若采用人工分词,因为文本量级大,会非常耗时;而若采用已有分词算法,又会将已有分词算法的不足引入到该分词算法中,继而降低了后续语音识别模型的识别效率,因此,本发明的目的在于通过构造所述组词词典对原始词典进行扩充,使得不需要额外收集用于子串标注学习的训练语料,也不需要事先进行人工分词或者采用其他分词算法进行分词,减少了人工和其他分词算法带来的影响。
实施例一
请参阅图1,是本发明第一实施例提供的语音识别模型分词训练方法的流程图,包括步骤:
步骤S10,收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
其中,优选的,由于中文字典字数多,即使是常用字也有4000字以上,这些字组合成的词的数量是指数级增长的,因此,就需要收集大量的、主题覆盖面广的文本语料,以使通过该文本语料训练出来的基于N元文法的语言模型才是可信的,否则会有很大的偏见,泛化能力差,导致最终语音识别效果无法满足要求;
具体的,该步骤中可以通过网络爬虫、收集来源数据集等方式收集文本语料,使用工具可以为python3.6和bash;
步骤S20,当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
其中,该步骤中,通过统计每个字后面出现某个字的频数,该过程是一个递归的过程,对于已经计算过的同时出现的频数足够大的组合,把组合标记为一整体,然后重新计算后面出现某个字或组合出现的频数,因此,最终得到的词的长度是不限的。该步骤中有一原则,即词数最少原则,也即如果若干个组合,组合成的长串频数也够高,则将这些组合进一步合并成一个更长的组合作为新词;
步骤S30,将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到所述分词语料;
其中,可以通过采用分词工具的方式对所述文本语料进行分词,即可以通过使用jieba分词工具,在该工具中使用合并后的词典,对所述文本语料进行分词,以得到所述分词语料;
具体的,该步骤保留了原始经过人工精心采集构建的词典,从而避免了纯数据驱动所构建的词典因为语料覆盖面不够而引入的偏见,从而避免泛化能力差的问题;
步骤S40,根据所述分词语料对语音识别模型进行训练;
其中,可以采用二元文法或三元文法的方式对所述分词语料进行语言模型训练;
本实施例,可以充分利用大量的采集好的用于训练语言模型的语料,采用基于统计的方法,构造另外一套词典,而且只要语料覆盖的主题足够广,甚至可以提取出网络流行语,这对于语音识别是十分有利的。将这两种词典进行合并,则既能保留人工构建的词典的覆盖面广的优点,又可以根据文本语料提取出词典中不可能出现的词,例如网络流行语和领域专有名词,从而无论是通用场景的的语音识别还是特定领域的语音识别都大有裨益,通过构造所述组词词典对原始词典进行扩充,大大缓解了集外词的问题,避免了识别结果中出现大量无法识别的词,使得最终训练出来的语音识别模型无论是在测试集还是使用测试时均具有识别性能高的优点,且本发明实施例不需要额外收集用于子串标注学习的训练语料,也不需要事先进行人工分词或者采用其他分词算法进行分词,减少了人工和其他分词算法带来的影响。
实施例二
请参阅图2,是本发明第二实施例提供的语音识别模型分词训练方法的流程图,包括步骤:
步骤S11,收集本地存储的文本语料,对所述文本语料进行特殊字符识别,并根据识别结果进行字符删除;
其中,收集得到的所述文本语料中可能存储有特征字符,但由于特殊字符在中文语音中一般是没有的,为了后续保障后续字与字之间组合计算的准确性,需要去除特殊字符,因此,在进行后续的组词步骤之前,通过进行特殊字符识别,以使提高所述语音识别模型分词训练方法的准确性;
步骤S21,对所述文本语料进行标点识别,并根据识别结果将识别到的标点符号转为为换行符;
可以理解的,由于标点符号在中文语音中一般是没有的,为了后续保障后续字与字之间组合计算的准确性,需要去除标点符号,以使进一步提高了所述语音识别模型分词训练方法的准确性;
步骤S31,对所述文本语料进行数字识别,并根据识别结果将数字字符串转换为对应的文字字符串;
其中,由于在中文中,2019可以直接读成二零一九,也可以读成两千零一十九和二千零一十九,因此,需要在不同的语境中进行区别对待,将数字字符串转换成对应的汉字字符串是有必要的,进而更进一步的提高了所述语音识别模型分词训练方法的准确性;
步骤S41,分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
步骤S51,当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
其中,由于中文字典字数多,即使是常用字也有4000字以上,这些字组合成的词的数量是指数级增长的,因此,就需要收集大量的、主题覆盖面广的文本语料,以使通过该文本语料训练出来的基于N元文法的语言模型才是可信的,否则会有很大的偏见,泛化能力差,导致最终语音识别效果无法满足要求;
优选的,该步骤中,当判断到所述文本语料中的所述组词频数小于第二频数阈值时,发出组词提示,以使用户进行语料补充,具体的,所述第二频数阈值可以根据用户需求进行参数值的设置,该组词提示可以采用语音提示、短信提示或图像提示的方式以提醒用户;
步骤S61,获取所述原始词典的原始格式,并将所述组词词典转换为所述原始格式;
步骤S71,将所述组词词典与所述原始词典进行合并,将合并后的词典进行文字排序,并根据排序结果进行词组去重;
其中,该词组去重是将所述组词词典与所述原始词典中重读的词进行删除,且该步骤中,通过采用文字排序去重的方式,有效的提高了去重效率;
步骤S81,根据合并后的词典对所述文本语料进行分词,以得到所述分词语料,在所述语音识别模型中,采用三元文法对所述分词语料进行语言模型训练;
具体的,该步骤中,所述采用三元文法对所述分词语料进行语言模型训练的具体步骤为:
(1)统计词典中每个词在语料中出现的频数,除以总词数就是每个词出现的概率;
(2)统计每两个词一起出现的频数,然后除以其中一个词出现的频数,就可以得到在给定这个词的情况下,出现另一个词的概率,这就是二元文法(Bigram);
(3)同理可统计出给定某个词的情况下,同时出现另外两个词的概率,就可得到每个词的三元文法模型;
(4)因为一方面语料不可能无穷大,另一方面语料也不可能完全覆盖所有可能的词,因此常常出现某个词的三元文法概率过低甚至是零的情况,这就需要用到平滑算法,将概率高的“匀”一点概率给概率低的,或者将这些概率低的三元文法模型退化到更低阶的二元文法甚至是一元文法(Unigram)从而避免某些是合理的词组合却不能识别出来的情况;
本实施例,通过构造所述组词词典对原始词典进行扩充,大大缓解了集外词的问题,避免了识别结果中出现大量无法识别的词,使得最终训练出来的语音识别模型无论是在测试集还是使用测试时均具有识别性能高的优点,且本发明实施例不需要额外收集用于子串标注学习的训练语料,也不需要事先进行人工分词或者采用其他分词算法进行分词,减少了人工和其他分词算法带来的影响。
实施例三
请参阅图3,是本发明第三实施例提供的语音识别模型分词训练系统100的结构示意图,包括:频数计算模块10、组词控制模块11、词典合并模块12和分词训练模块13,其中:
频数计算模块10,用于收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
组词控制模块11,用于当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典。
优选的,所述组词控制模块11还用于:当判断到所述文本语料中的所述组词频数小于第二频数阈值时,发出组词提示,以使用户进行语料补充。
词典合并模块12,用于将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到所述分词语料;
其中,所述词典合并模块12还用于:获取所述原始词典的原始格式,并将所述组词词典转换为所述原始格式;将所述组词词典与所述原始词典进行合并,将合并后的词典进行文字排序,并根据排序结果进行词组去重。
分词训练模块13,用于根据所述分词语料对语音识别模型进行训练。
此外,所述分词训练模块13还用于:在所述语音识别模型中,采用三元文法对所述分词语料进行语言模型训练。
本实施例中,所述语音识别模型分词训练系统100还包括:
语料优化模块14,用于对所述文本语料进行特殊字符识别,并根据识别结果进行字符删除;对所述文本语料进行标点识别,并根据识别结果将识别到的标点符号转为为换行符;对所述文本语料进行数字识别,并根据识别结果将数字字符串转换为对应的文字字符串。
优选的,所述语音识别模型分词训练系统100还包括:
阈值调整模块15,用于当当前文字出现频数大于第一频数阈值时,增大第二频数阈值,当当前文字出现频数低于第一频数阈值时,减小第二频数阈值。
本实施例,通过构造所述组词词典对原始词典进行扩充,大大缓解了集外词的问题,避免了识别结果中出现大量无法识别的词,使得最终训练出来的语音识别模型无论是在测试集还是使用测试时均具有识别性能高的优点,且本发明实施例不需要额外收集用于子串标注学习的训练语料,也不需要事先进行人工分词或者采用其他分词算法进行分词,减少了人工和其他分词算法带来的影响。
实施例四
请参阅图4,是本发明第四实施例提供的移动终端101,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端101执行上述的语音识别模型分词训练方法。
本实施例还提供了一种存储介质,其上存储有上述移动终端101中所使用的计算机程序,该程序在执行时,包括如下步骤:
收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到所述分词语料;
根据所述分词语料对语音识别模型进行训练。所述的存储介质,如:ROM/RAM、磁碟、光盘等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元或模块完成,即将存储装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施方式中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。
本领域技术人员可以理解,图3中示出的组成结构并不构成对本发明的语音识别模型分词训练系统的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,而图1-2中的语音识别模型分词训练方法亦采用图3中所示的更多或更少的部件,或者组合某些部件,或者不同的部件布置来实现。本发明所称的单元、模块等是指一种能够被所述目标语音识别模型分词训练系统中的处理器(图未示)所执行并功能够完成特定功能的一系列计算机程序,其均可存储于所述目标语音识别模型分词训练系统的存储设备(图未示)内。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种语音识别模型分词训练方法,其特征在于,所述方法包括:
收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到分词语料;
根据所述合并后的词典中每个词在所述分词语料中出现的频数,确定每个词在所述分词语料中的第一出现概率;
根据每两个词在所述分词语料中一起出现的频数,除以其中一个词出现的频数,确定每个词在所述分词语料中的第二出现概率,所述第二出现概率用于表征在给定一词的情况下,出现另一个词的概率;
根据每三个词在所述分词语料中一起出现的频数,确定每个词在所述分词语料中的第三出现概率,所述第三出现概率用于表征所述三个词中,给定一个词的情况下,同时出现另外两个词的概率;
若任一所述词对应的第三出现概率等于0,则根据所述词的第一出现概率和第二出现概率对第三出现概率进行概率平滑;
根据每个词在所述分词语料中的所述第一出现概率、所述第二出现概率和所述第三出现概率对语音识别模型进行训练。
2.如权利要求1所述的语音识别模型分词训练方法,其特征在于,所述分别计算所述文本语料中每个当前文字与下一文字之间的组合频数的步骤之前,所述方法还包括:
对所述文本语料进行特殊字符识别,并根据识别结果进行字符删除;
对所述文本语料进行标点识别,并根据识别结果将识别到的标点符号转为换行符;
对所述文本语料进行数字识别,并根据识别结果将数字字符串转换为对应的文字字符串。
3.如权利要求1所述的语音识别模型分词训练方法,其特征在于,所述将所述组词词典与本地预存储的原始词典进行合并的步骤包括:
获取所述原始词典的原始格式,并将所述组词词典转换为所述原始格式;
将所述组词词典与所述原始词典进行合并,将合并后的词典进行文字排序,并根据排序结果进行词组去重。
4.如权利要求1所述的语音识别模型分词训练方法,其特征在于,所述方法还包括:
当判断到所述文本语料中的所述组词频数小于第二频数阈值时,发出组词提示,以使用户进行语料补充。
5.一种语音识别模型分词训练系统,其特征在于,所述系统包括:
频数计算模块,用于收集本地存储的文本语料,设置组词总数,并分别计算所述文本语料中每个当前文字与下一文字之间的组合频数;
组词控制模块,用于当判断到所述组合频数大于第一频数阈值时,将所述当前文字与所述下一文字进行组词,并将组词后的词标记为一个整体,直至最长组合频数小于等于第二频数阈值,停止组词,以得到组词词典;
词典合并模块,用于将所述组词词典与本地预存储的原始词典进行合并,并根据合并后的词典对所述文本语料进行分词,以得到分词语料;
分词训练模块,用于根据所述合并后的词典中每个词在所述分词语料中出现的频数,确定每个词在所述分词语料中的第一出现概率;
根据每两个词在所述分词语料中一起出现的频数,除以其中一个词出现的频数,确定每个词在所述分词语料中的第二出现概率,所述第二出现概率用于表征在给定一词的情况下,出现另一个词的概率;
根据每三个词在所述分词语料中一起出现的频数,确定每个词在所述分词语料中的第三出现概率,所述第三出现概率用于表征所述三个词中,给定一个词的情况下,同时出现另外两个词的概率;
若任一所述词对应的第三出现概率等于0,则根据所述词的第一出现概率和第二出现概率对第三出现概率进行概率平滑;
根据每个词在所述分词语料中的所述第一出现概率、所述第二出现概率和所述第三出现概率对语音识别模型进行训练。
6.如权利要求5所述的语音识别模型分词训练系统,其特征在于,所述语音识别模型分词训练系统还包括:
语料优化模块,用于对所述文本语料进行特殊字符识别,并根据识别结果进行字符删除;对所述文本语料进行标点识别,并根据识别结果将识别到的标点符号转为换行符;对所述文本语料进行数字识别,并根据识别结果将数字字符串转换为对应的文字字符串。
7.如权利要求5所述的语音识别模型分词训练系统,其特征在于,所述词典合并模块还用于:
获取所述原始词典的原始格式,并将所述组词词典转换为所述原始格式;
将所述组词词典与所述原始词典进行合并,将合并后的词典进行文字排序,并根据排序结果进行词组去重。
8.一种移动终端,其特征在于,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端执行根据权利要求1至4任一项所述的语音识别模型分词训练方法。
9.一种存储介质,其特征在于,其存储有权利要求8所述的移动终端中所使用的计算机程序,该计算机程序被处理器执行时实现权利要求1至4任一项所述的语音识别模型分词训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910878880.5A CN110853625B (zh) | 2019-09-18 | 2019-09-18 | 语音识别模型分词训练方法、系统、移动终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910878880.5A CN110853625B (zh) | 2019-09-18 | 2019-09-18 | 语音识别模型分词训练方法、系统、移动终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110853625A CN110853625A (zh) | 2020-02-28 |
CN110853625B true CN110853625B (zh) | 2022-05-17 |
Family
ID=69594806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910878880.5A Active CN110853625B (zh) | 2019-09-18 | 2019-09-18 | 语音识别模型分词训练方法、系统、移动终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110853625B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113378562B (zh) * | 2020-03-10 | 2023-09-19 | 中国移动通信集团辽宁有限公司 | 分词处理方法、装置、计算设备及存储介质 |
CN111933116B (zh) * | 2020-06-22 | 2023-02-14 | 厦门快商通科技股份有限公司 | 语音识别模型训练方法、系统、移动终端及存储介质 |
CN112017643B (zh) * | 2020-08-24 | 2023-10-31 | 广州市百果园信息技术有限公司 | 语音识别模型训练方法、语音识别方法及相关装置 |
CN113779990B (zh) * | 2021-09-10 | 2023-10-31 | 中国联合网络通信集团有限公司 | 中文分词方法、装置、设备及存储介质 |
CN114462395A (zh) * | 2022-02-25 | 2022-05-10 | 交叉信息核心技术研究院(西安)有限公司 | 大规模语言模型去偏倚方法、系统、设备及存储介质 |
CN115017335A (zh) * | 2022-06-16 | 2022-09-06 | 特赞(上海)信息科技有限公司 | 知识图谱构建方法和系统 |
CN116386613B (zh) * | 2023-06-05 | 2023-07-25 | 成都启英泰伦科技有限公司 | 一种用于命令词语音增强的模型训练方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082909A (zh) * | 2007-06-28 | 2007-12-05 | 腾讯科技(深圳)有限公司 | 一种识别衍生词的中文分词方法及系统 |
CN107680585A (zh) * | 2017-08-23 | 2018-02-09 | 海信集团有限公司 | 一种中文分词方法、中文分词装置和终端 |
CN108984512A (zh) * | 2017-06-05 | 2018-12-11 | 中移信息技术有限公司 | 一种文本的分词方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2592570A3 (en) * | 2011-11-08 | 2015-04-08 | VeriSign, Inc. | Pronounceable domain names |
-
2019
- 2019-09-18 CN CN201910878880.5A patent/CN110853625B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082909A (zh) * | 2007-06-28 | 2007-12-05 | 腾讯科技(深圳)有限公司 | 一种识别衍生词的中文分词方法及系统 |
CN108984512A (zh) * | 2017-06-05 | 2018-12-11 | 中移信息技术有限公司 | 一种文本的分词方法及装置 |
CN107680585A (zh) * | 2017-08-23 | 2018-02-09 | 海信集团有限公司 | 一种中文分词方法、中文分词装置和终端 |
Also Published As
Publication number | Publication date |
---|---|
CN110853625A (zh) | 2020-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853625B (zh) | 语音识别模型分词训练方法、系统、移动终端及存储介质 | |
US8660834B2 (en) | User input classification | |
CN110413787B (zh) | 文本聚类方法、装置、终端和存储介质 | |
CN111753531A (zh) | 一种基于人工智能的文本纠错方法、装置、计算机设备及存储介质 | |
CN111444330A (zh) | 提取短文本关键词的方法、装置、设备及存储介质 | |
CN107341143B (zh) | 一种句子连贯性判断方法及装置和电子设备 | |
CN116628173B (zh) | 一种基于关键字提取的智能客服信息生成系统及生成方法 | |
CN110413972B (zh) | 一种基于nlp技术的表名字段名智能补全方法 | |
CN113033183B (zh) | 一种基于统计量与相似性的网络新词发现方法及系统 | |
CN113177412A (zh) | 基于bert的命名实体识别方法、系统、电子设备及存储介质 | |
CN111832299A (zh) | 一种中文分词系统 | |
CN110263154A (zh) | 一种网络舆情情感态势量化方法、系统及存储介质 | |
CN111651986A (zh) | 事件关键词提取方法、装置、设备及介质 | |
CN110826298B (zh) | 一种智能辅助定密系统中使用的语句编码方法 | |
CN114860942B (zh) | 文本意图分类方法、装置、设备及存储介质 | |
CN112380866A (zh) | 一种文本话题标签生成方法、终端设备及存储介质 | |
CN114416979A (zh) | 一种文本查询方法、设备和存储介质 | |
CN113221542A (zh) | 一种基于多粒度融合与Bert筛选的中文文本自动校对方法 | |
CN114970514A (zh) | 基于人工智能的中文分词方法、装置、计算机设备及介质 | |
CN112417823A (zh) | 一种中文文本语序调整和量词补全方法及系统 | |
CN112185361A (zh) | 一种语音识别模型训练方法、装置、电子设备及存储介质 | |
CN115759119A (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN114881043A (zh) | 基于深度学习模型的法律文书语义相似度评估方法及系统 | |
CN113065349A (zh) | 基于条件随机场的命名实体识别方法 | |
JP3080066B2 (ja) | 文字認識装置、方法及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |