CN110796092A - 一种文字识别方法及装置 - Google Patents
一种文字识别方法及装置 Download PDFInfo
- Publication number
- CN110796092A CN110796092A CN201911044078.2A CN201911044078A CN110796092A CN 110796092 A CN110796092 A CN 110796092A CN 201911044078 A CN201911044078 A CN 201911044078A CN 110796092 A CN110796092 A CN 110796092A
- Authority
- CN
- China
- Prior art keywords
- character
- probability
- recognition
- character string
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
本申请提供了一种文字识别方法及装置,方法包括:将从作业页面中提取出的文本框图像输入卷积神经网络模型,得到卷积神经网络模型输出的识别概率矩阵;在作业页面中存在答案的情况下,每次分别从各个字符概率集合中获取一个字符概率,并将字符概率对应的字符进行组合,得到字符串,直至各个字符概率集合中的各个字符概率均被获取过K次;利用CTC思想对字符串进行修正,并基于修正后的字符串,确定识别结果;在作业页面不存在答案的情况下,利用N‑gram语法修正模型,对各个字符概率集合中字符概率对应的字符进行修正,并得到识别结果,并利用CTC思想对识别结果进行修正。在本申请中,通过以上方式可以提高答案文字识别的准确性。
Description
技术领域
本申请涉及作业批改技术领域,特别涉及一种文字识别方法及装置。
背景技术
目前,对学生的作业实现自动批改的关键步骤包括:识别出作业图像中所包含的文字信息。
但是,如何准确地识别出作业图像中所包含的文字信息成为问题。
发明内容
为解决上述技术问题,本申请实施例提供一种文字识别方法及装置,以达到提高答案文字识别的准确性的目的,技术方案如下:
一种文字识别方法,包括:
将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵;
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数;
在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串;
将所述第一修正后字符串中的空格符删除,得到第二修正后字符串;
将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果;
若比较结果为一致,则将所述第二修正后字符串作为识别结果。
优选的,所述每次分别从各个所述字符概率集合中获取一个历字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次,包括:
每次分别从各个所述字符概率集合中获取一个字符概率,并对获取到的字符概率进行累加,将累加的结果作为总概率,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
按照从大到小的顺序,从多个所述总概率中选取排列在前N个的总概率,所述N为不小于1的整数;
分别将所述排列在前N个的总概率中各个总概率,对应的参与累加的字符概率对应的字符进行组合,得到字符串。
优选的,所述方法还包括:
若各个所述比较结果均为不一致,则分别从各个所述字符概率集合中获取最大字符概率,并将获取到的最大字符概率对应的字符进行组合,得到组合结果;
若所述组合结果中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后组合结果;
将所述第一修正后组合结果中的空格符删除,得到第二修正后组合结果,并将所述第二修正后组合结果作为识别结果。
优选的,所述方法还包括:
在所述作业页面中不存在答案的情况下,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果;
所述N-gram语法修正模型为预先利用具备标准语法的语料训练样本训练得到。
优选的,所述利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果,包括:
按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历;
若遍历到的字符概率集合对应所述文本框图像中第一个字符位置,则将遍历到的字符概率集合中最大字符概率对应的字符作为输出字符;
若遍历到的字符概率集合对应所述文本框图像中非第一个字符位置,则分别将所述遍历到的字符概率集合中每个字符概率对应的字符,与之前已遍历到的各个字符概率集合对应的输出字符组合,得到目标字符串,将所述目标字符串输入所述N-gram语法修正模型,得到所述N-gram语法修正模型输出的分数;
判断所述识别概率矩阵中是否存在未被遍历的字符概率集合;
若存在,则返回执行所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历的步骤;
若不存在,则将分数最高的目标字符串作为识别结果。
优选的,所述将分数最高的目标字符串作为识别结果,包括:
将所述N-gram语法修正模型输出的分数乘以第一权重,得到第一分数;
分别将所述遍历到的字符概率集合中每个字符概率乘以第二权重,第二分数;
分别将所述第一分数与各个所述第二分数相加,得到第三分数;
从各个所述第三分数中选取最大值,将所述最大值对应的目标字符串作为识别结果。
优选的,所述将分数最高的目标字符串作为识别结果,包括:
若所述分数最高的目标字符串中任意两个相邻字符中第一字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后目标字符串;
将所述第一修正后目标字符串中的空格符删除,得到第二修正后目标字符串,将所述第二修正后目标字符串作为识别结果。
优选的,所述方法还包括:
对所述第一权重及所述第二权重进行调整,直至所述分数最高的目标字符串的准确率达到设定阈值;
将调整后的第一权重替换所述第一权重,将调整后的第二权重替换所述第二权重。
优选的,所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历之前,还包括:
判断所述识别概率矩阵中各个所述字符概率集合中,最大字符概率对应的字符组成的字符串中,是否包含汉字及运算符;
若包含汉字且不包含运算符,则按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历。
一种文字识别装置,包括:
第一识别模块,用于将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵;
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数;
第二识别模块,用于:
在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串;
将所述第一修正后字符串中的空格符删除,得到第二修正后字符串;
将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果;
若比较结果为一致,则将所述第二修正后字符串作为识别结果。
优选的,所述第二识别模块,具体用于:
每次分别从各个所述字符概率集合中获取一个字符概率,并对获取到的字符概率进行累加,将累加的结果作为总概率,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
按照从大到小的顺序,从多个所述总概率中选取排列在前N个的总概率,所述N为不小于1的整数;
分别将所述排列在前N个的总概率中各个总概率,对应的参与累加的字符概率对应的字符进行组合,得到字符串。
优选的,所述第二识别模块,还用于:
若各个所述比较结果均为不一致,则分别从各个所述字符概率集合中获取最大字符概率,并将获取到的最大字符概率对应的字符进行组合,得到组合结果;
若所述组合结果中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后组合结果;
将所述第一修正后组合结果中的空格符删除,得到第二修正后组合结果,并将所述第二修正后组合结果作为识别结果。
优选的,所述装置还包括:
第三识别模块,用于在所述作业页面中不存在答案的情况下,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果;
所述N-gram语法修正模型为预先利用具备标准语法的语料训练样本训练得到。
优选的,所述第三识别模块,具体用于:
按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历;
若遍历到的字符概率集合对应所述文本框图像中第一个字符位置,则将遍历到的字符概率集合中最大字符概率对应的字符作为输出字符;
若遍历到的字符概率集合对应所述文本框图像中非第一个字符位置,则分别将所述遍历到的字符概率集合中每个字符概率对应的字符,与之前已遍历到的各个字符概率集合对应的输出字符组合,得到目标字符串,将所述目标字符串输入所述N-gram语法修正模型,得到所述N-gram语法修正模型输出的分数;
判断所述识别概率矩阵中是否存在未被遍历的字符概率集合;
若存在,则返回执行所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历的步骤;
若不存在,则将分数最高的目标字符串作为识别结果。
优选的,所述第三识别模块,具体用于:将所述N-gram语法修正模型输出的分数乘以第一权重,得到第一分数;
分别将所述遍历到的字符概率集合中每个字符概率乘以第二权重,第二分数;
分别将所述第一分数与各个所述第二分数相加,得到第三分数;
从各个所述第三分数中选取最大值,将所述最大值对应的目标字符串作为识别结果。
优选的,所述第三识别模块,具体用于:
若所述分数最高的目标字符串中任意两个相邻字符中第一字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后目标字符串;
将所述第一修正后目标字符串中的空格符删除,得到第二修正后目标字符串,将所述第二修正后目标字符串作为识别结果。
优选的,所述第三识别模块,还用于:
对所述第一权重及所述第二权重进行调整,直至所述分数最高的目标字符串的准确率达到设定阈值;
将调整后的第一权重替换所述第一权重,将调整后的第二权重替换所述第二权重。
优选的,所述第三识别模块,还用于:
在所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历之前,判断所述识别概率矩阵中各个所述字符概率集合中,最大字符概率对应的字符组成的字符串中,是否包含汉字及运算符;
若包含汉字且不包含运算符,则按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历。
与现有技术相比,本申请的有益效果为:
在本申请中,将文本框图像输入预先训练好的卷积神经网络模型之后,得到卷积神经网络模型输出的识别概率矩阵,识别概率矩阵中各个字符概率集合中包括按照从大到小的顺序,排列在前K个的字符概率,当K大于1时,通过执行分别从所述识别概率矩阵中各个字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,可以得到多个字符串,并通过将各个字符串分别与标准答案字符串比较,对卷积神经网络模型输出的识别概率矩阵对应的字符串进行修正,以此提高答案文字识别的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是为本申请提供的一种文字识别方法实施例1的流程图;
图2是为本申请提供的一种文字识别方法实施例2的流程图;
图3是为本申请提供的一种文字识别方法实施例3的流程图;
图4是为本申请提供的一种文字识别方法实施例4的流程图;
图5是为本申请提供的一种文字识别装置的逻辑结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例公开了一种文字识别方法,包括:将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵;所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数;在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;将各个所述字符串分别与标准答案字符串比较,得到比较结果;若比较结果为一致,则将所述字符串作为识别结果。在本申请中,可以提高答案文字识别的准确率。
接下来对本申请实施例公开的文字识别方法进行介绍,如图1所示的,为本申请提供的一种文字识别方法实施例1的流程图,可以包括以下步骤:
步骤S11、将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵。
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数。
可以理解的是,从作业页面中提取出的文本框图像可以包括一个或多个。当包括多个时,需要分别将各个文本框图像输入预先训练好的卷积神经网络模型,卷积神经网络模型分别针对各个文本框图像输出识别概率矩阵。
卷积神经网络模型为预先利用字符训练集训练得到的。字符训练集可以包括但不局限于:6148种常见字符,如,汉字,数字,英文字母,特殊符号。
本实施例中,对卷积神经网络模型的结构并不做限定,其可以是任意一种经典或者改进后的结构。
步骤S12、在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次。
由于识别概率矩阵中各个字符概率集合分别包括K个字符概率,因此在K大于1的情况下,分别从所述识别概率矩阵中各个字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串的步骤需要执行多次。
直至各个所述字符概率集合中的各个字符概率均被获取过所述K次时,得到的字符串的个数为K*K。
步骤S13、若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串。
步骤S14、将所述第一修正后字符串中的空格符删除,得到第二修正后字符串。
步骤S13-S14可以理解为基于CTC思想对字符串进行修正的过程。
步骤S15、将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果。
本实施例中,通过将各个所述第二修正后字符串分别与标准答案字符串比较,来修正卷积神经网络模型输出的识别概率矩阵对应的字符串,提高答案文字识别的准确率。
步骤S16、若比较结果为一致,则将所述第二修正后字符串作为识别结果。
若比较结果为一致,则将比较结果为一致的第二修正后字符串作为识别结果。
在本申请中,将文本框图像输入预先训练好的卷积神经网络模型之后,得到卷积神经网络模型输出的识别概率矩阵,识别概率矩阵中各个字符概率集合中包括按照从大到小的顺序,排列在前K个的字符概率,当K大于1时,通过执行分别从所述识别概率矩阵中各个字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,可以得到多个字符串,并对各个字符串进行修正,得到多个第二修正后字符串,通过将各个第二修正后字符串分别与标准答案字符串比较,对卷积神经网络模型输出的识别概率矩阵对应的字符串进行修正,以此提高答案文字识别的准确性。
作为本申请另一可选实施例,参照图2,为本申请提供的一种文字识别方法实施例2的流程图,本实施例主要是对上述实施例1描述的文字识别方法的细化方案,如图2所示,该方法可以包括但并不局限于以下步骤:
步骤S21、将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵。
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数。
步骤S21的详细过程可以参见实施例1中步骤S11的相关介绍,在此不再赘述。
步骤S22、在作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并对获取到的字符概率进行累加,将累加的结果作为总概率,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次。
步骤S23、按照从大到小的顺序,从多个所述总概率中选取排列在前N个的总概率,所述N为不小于1的整数。
步骤S24、分别将所述排列在前N个的总概率中各个总概率,对应的参与累加的字符概率对应的字符进行组合,得到字符串。
所述排列在前N个的总概率中各个总概率均有K个字符概率累加得到,因此,排列在前N个的总概率中各个总概率分别对应有参与累加的字符概率。
分别将参与累加得到所述排列在前N个的总概率的字符概率对应的字符进行组合,得到字符串,可以减少运算量,在保证准确率的基础上,提高识别效率。
步骤S22-S24为实施例1中步骤S12的一种具体实施过程。
步骤S25、若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串。
步骤S26、将所述第一修正后字符串中的空格符删除,得到第二修正后字符串。
步骤S27、将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果。
步骤S28、若比较结果为一致,则将所述第二修正后字符串作为识别结果。
步骤S25-S28的详细过程可以参见实施例1中步骤S13-S16的相关介绍,在此不再赘述。
作为本申请另一可选实施例,参照图3,为本申请提供的一种文字识别方法实施例3的流程图,本实施例主要是对上述实施例1描述的文字识别方法的扩展方案,如图3所示,该方法可以包括但并不局限于以下步骤:
步骤S31、将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵。
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数。
步骤S32、在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次。
步骤S33、若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串。
步骤S34、将所述第一修正后字符串中的空格符删除,得到第二修正后字符串。
步骤S35、将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果。
步骤S36、若比较结果为一致,则将所述第二修正后字符串作为识别结果。
步骤S31-S36的详细过程可以参见实施例S11-S16的相关介绍,在此不再赘述。
步骤S37、若各个所述比较结果均为不一致,则分别从各个所述字符概率集合中获取最大字符概率,并将获取到的最大字符概率对应的字符进行组合,得到组合结果。
步骤S38、若所述组合结果中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后组合结果。
步骤S39、将所述第一修正后组合结果中的空格符删除,得到第二修正后组合结果,并将所述第二修正后组合结果作为识别结果。
步骤S38-S39可以理解为基于CTC思想对组合结果进行修正的过程。
若各个所述比较结果均为不一致,则分别从各个所述字符概率集合中获取最大字符概率,并将获取到的最大字符概率对应的字符进行组合,并对组合结果进行修正,将修正后的组合结果作为识别结果,以保证文字识别的准确率。
作为本申请另一可选实施例,参照图4,为本申请提供的一种文字识别方法实施例4的流程图,本实施例主要是对上述实施例1描述的文字识别方法的扩展方案,如图4所示,该方法可以包括但并不局限于以下步骤:
步骤S41、将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵。
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数。
步骤S42、在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次。
步骤S43、若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串。
步骤S44、将所述第一修正后字符串中的空格符删除,得到第二修正后字符串。
步骤S45、将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果。
步骤S46、若比较结果为一致,则将所述第二修正后字符串作为识别结果。
步骤S41-S46的详细过程可以参见实施例S11-S16的相关介绍,在此不再赘述。
步骤S47、在所述作业页面中不存在答案的情况下,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果。
所述N-gram语法修正模型为预先利用具备标准语法的语料训练样本训练得到。
在所述作业页面中不存在答案的情况下,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,以得到符合语法规范的识别结果。
本实施例中,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并输出识别结果的具体过程,可以包括:
A11、按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历。
若遍历到的字符概率集合对应所述文本框图像中第一个字符位置,则执行步骤A12;若遍历到的字符概率集合对应所述文本框图像中非第一个字符位置,则执行步骤A13。
A12、将遍历到的字符概率集合中最大字符概率对应的字符作为输出字符。
A13、分别将所述遍历到的字符概率集合中每个字符概率对应的字符,与之前已遍历到的各个字符概率集合对应的输出字符组合,得到目标字符串,将所述目标字符串输入所述N-gram语法修正模型,得到所述N-gram语法修正模型输出的分数。
若所述遍历到的字符概率集合对应所述文本框图像中第二个字符位置,则之前已遍历到的各个字符概率集合对应的输出字符为步骤A12中的输出字符;若所述遍历到的字符概率集合对应所述文本框图像中第i个字符位置,i为不小于三的整数,则之前已遍历到的各个字符概率集合对应的输出字符可以理解为:通过所述N-gram语法修正模型确定出的分数最高的字符串。
A14、判断所述识别概率矩阵中是否存在未被遍历的字符概率集合。
若存在,则返回执行步骤A11;若不存在,则执行步骤A15。
A15、将分数最高的目标字符串作为识别结果。
本实施例中,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并输出识别结果的具体过程,也可以包括:
A21、判断所述识别概率矩阵中各个所述字符概率集合中,最大字符概率对应的字符组成的字符串中,是否包含汉字及运算符。
若包含汉字且不包含运算符,则执行步骤A22。
判断所述识别概率矩阵中各个所述字符概率集合中,最大字符概率对应的字符组成的字符串中,是否包含汉字及运算符,实现对字符的过滤,减少运算量,提高效率。
A22、按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历。
若遍历到的字符概率集合对应所述文本框图像中第一个字符位置,则执行步骤A23;若遍历到的字符概率集合对应所述文本框图像中非第一个字符位置,则执行步骤A24。
A23、将遍历到的字符概率集合中最大字符概率对应的字符作为输出字符。
A24、分别将所述遍历到的字符概率集合中每个字符概率对应的字符,与之前已遍历到的各个字符概率集合对应的输出字符组合,得到目标字符串,将所述目标字符串输入所述N-gram语法修正模型,得到所述N-gram语法修正模型输出的分数。
A25、判断所述识别概率矩阵中是否存在未被遍历的字符概率集合。
若存在,则返回执行步骤A22;若不存在,则执行步骤A26。
A26、将分数最高的目标字符串作为识别结果。
步骤A22-A26的详细过程可以参见上述步骤A11-A15的相关介绍,在此不再赘述。
优选的,上述将分数最高的目标字符串作为识别结果可以包括:
B11、将所述N-gram语法修正模型输出的分数乘以第一权重,得到第一分数。
B12、分别将所述遍历到的字符概率集合中每个字符概率乘以第二权重,第二分数。
B13、分别将所述第一分数与各个所述第二分数相加,得到第三分数。
B14、从各个所述第三分数中选取最大值,将所述最大值对应的目标字符串作为识别结果。
B11-B14可以使利用N-gram语法修正模型确定的识别结果更加可靠。
当然,本实施例中,还可以对步骤B11-B14的过程进行优化,优化的过程可以包括但不局限于:
对所述第一权重及所述第二权重进行调整,直至所述分数最高的目标字符串的准确率达到设定阈值;将调整后的第一权重替换所述第一权重,将调整后的第二权重替换所述第二权重。
本实施例中,上述将分数最高的目标字符串作为识别结果可以包括:
C11、若所述分数最高的目标字符串中任意两个相邻字符中第一字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后目标字符串。
C12、将所述第一修正后目标字符串中的空格符删除,得到第二修正后目标字符串,将所述第二修正后目标字符串作为识别结果。
步骤C11-C12可以理解为基于CTC思想对目标字符串进行修正的过程。
通过执行步骤C11-C12,可以对分数最高的目标字符串中的空格符及连续重复字符进行处理,进一步修正目标字符串,进一步提高识别结果的准确性。
接下来对本申请提供的文字识别装置进行介绍,下文介绍的文字识别装置与上文介绍的文字识别方法可相互对应参照。
请参见图5,文字识别装置包括:第一识别模块11和第二识别模块12。
第一识别模块11,用于将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵;
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数;
第二识别模块12,用于:
在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串;
将所述第一修正后字符串中的空格符删除,得到第二修正后字符串;
将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果;
若比较结果为一致,则将所述第二修正后字符串作为识别结果。
本实施例中,所述第二识别模块12,具体可以用于:
每次分别从各个所述字符概率集合中获取一个字符概率,并对获取到的字符概率进行累加,将累加的结果作为总概率,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
按照从大到小的顺序,从多个所述总概率中选取排列在前N个的总概率,所述N为不小于1的整数;
分别将所述排列在前N个的总概率中各个总概率,对应的参与累加的字符概率对应的字符进行组合,得到字符串。
本实施例中,所述第二识别模块12,还可以用于:
若各个所述比较结果均为不一致,则分别从各个所述字符概率集合中获取最大字符概率,并将获取到的最大字符概率对应的字符进行组合,得到组合结果;
若所述组合结果中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后组合结果;
将所述第一修正后组合结果中的空格符删除,得到第二修正后组合结果,并将所述第二修正后组合结果作为识别结果。
本实施例中,所述装置还可以包括:
第三识别模块,用于在所述作业页面中不存在答案的情况下,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果;
所述N-gram语法修正模型为预先利用具备标准语法的语料训练样本训练得到。
本实施例中,所述第三识别模块,具体可以用于:
按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历;
若遍历到的字符概率集合对应所述文本框图像中第一个字符位置,则将遍历到的字符概率集合中最大字符概率对应的字符作为输出字符;
若遍历到的字符概率集合对应所述文本框图像中非第一个字符位置,则分别将所述遍历到的字符概率集合中每个字符概率对应的字符,与之前已遍历到的各个字符概率集合对应的输出字符组合,得到目标字符串,将所述目标字符串输入所述N-gram语法修正模型,得到所述N-gram语法修正模型输出的分数;
判断所述识别概率矩阵中是否存在未被遍历的字符概率集合;
若存在,则返回执行所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历的步骤;
若不存在,则将分数最高的目标字符串作为识别结果。
本实施例中,所述第三识别模块,具体可以用于:将所述N-gram语法修正模型输出的分数乘以第一权重,得到第一分数;
分别将所述遍历到的字符概率集合中每个字符概率乘以第二权重,第二分数;
分别将所述第一分数与各个所述第二分数相加,得到第三分数;
从各个所述第三分数中选取最大值,将所述最大值对应的目标字符串作为识别结果。
优选的,所述第三识别模块,具体用于:
若所述分数最高的目标字符串中任意两个相邻字符中第一字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后目标字符串;
将所述第一修正后目标字符串中的空格符删除,得到第二修正后目标字符串,将所述第二修正后目标字符串作为识别结果。
本实施例中,所述第三识别模块,还可以用于:
对所述第一权重及所述第二权重进行调整,直至所述分数最高的目标字符串的准确率达到设定阈值;
将调整后的第一权重替换所述第一权重,将调整后的第二权重替换所述第二权重。
本实施例中,所述第三识别模块,还可以用于:
在所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历之前,判断所述识别概率矩阵中各个所述字符概率集合中,最大字符概率对应的字符组成的字符串中,是否包含汉字及运算符;
若包含汉字且不包含运算符,则按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历。
需要说明的是,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
以上对本申请所提供的一种文字识别方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种文字识别方法,其特征在于,包括:
将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵;
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数;
在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串;
将所述第一修正后字符串中的空格符删除,得到第二修正后字符串;
将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果;
若比较结果为一致,则将所述第二修正后字符串作为识别结果。
2.根据权利要求1所述的方法,其特征在于,所述每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次,包括:
每次分别从各个所述字符概率集合中获取一个字符概率,并对获取到的字符概率进行累加,将累加的结果作为总概率,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
按照从大到小的顺序,从多个所述总概率中选取排列在前N个的总概率,所述N为不小于1的整数;
分别将所述排列在前N个的总概率中各个总概率,对应的参与累加的字符概率对应的字符进行组合,得到字符串。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若各个所述比较结果均为不一致,则分别从各个所述字符概率集合中获取最大字符概率,并将获取到的最大字符概率对应的字符进行组合,得到组合结果;
若所述组合结果中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后组合结果;
将所述第一修正后组合结果中的空格符删除,得到第二修正后组合结果,并将所述第二修正后组合结果作为识别结果。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述作业页面中不存在答案的情况下,利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果;
所述N-gram语法修正模型为预先利用具备标准语法的语料训练样本训练得到。
5.根据权利要求4所述的方法,其特征在于,所述利用预先训练好的N-gram语法修正模型,对各个所述字符概率集合中字符概率对应的字符进行修正,并得到识别结果,包括:
按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历;
若遍历到的字符概率集合对应所述文本框图像中第一个字符位置,则将遍历到的字符概率集合中最大字符概率对应的字符作为输出字符;
若遍历到的字符概率集合对应所述文本框图像中非第一个字符位置,则分别将所述遍历到的字符概率集合中每个字符概率对应的字符,与之前已遍历到的各个字符概率集合对应的输出字符组合,得到目标字符串,将所述目标字符串输入所述N-gram语法修正模型,得到所述N-gram语法修正模型输出的分数;
判断所述识别概率矩阵中是否存在未被遍历的字符概率集合;
若存在,则返回执行所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历的步骤;
若不存在,则将分数最高的目标字符串作为识别结果。
6.根据权利要求5所述的方法,其特征在于,所述将分数最高的目标字符串作为识别结果,包括:
将所述N-gram语法修正模型输出的分数乘以第一权重,得到第一分数;
分别将所述遍历到的字符概率集合中每个字符概率乘以第二权重,第二分数;
分别将所述第一分数与各个所述第二分数相加,得到第三分数;
从各个所述第三分数中选取最大值,将所述最大值对应的目标字符串作为识别结果。
7.根据权利要求5所述的方法,其特征在于,所述将分数最高的目标字符串作为识别结果,包括:
若所述分数最高的目标字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后目标字符串;
将所述第一修正后目标字符串中的空格符删除,得到第二修正后目标字符串,将所述第二修正后目标字符串作为识别结果。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
对所述第一权重及所述第二权重进行调整,直至所述分数最高的目标字符串的准确率达到设定阈值;
将调整后的第一权重替换所述第一权重,将调整后的第二权重替换所述第二权重。
9.根据权利要求5所述的方法,其特征在于,所述按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历之前,还包括:
判断所述识别概率矩阵中各个所述字符概率集合中,最大字符概率对应的字符组成的字符串中,是否包含汉字及运算符;
若包含汉字且不包含运算符,则按照所述文本框图像中字符位置从前到后的排列顺序,对所述识别概率矩阵中未被遍历的字符概率集合进行遍历。
10.一种文字识别装置,其特征在于,包括:
第一识别模块,用于将从作业页面中提取出的文本框图像输入预先训练好的卷积神经网络模型,得到所述卷积神经网络模型输出的识别概率矩阵;
所述识别概率矩阵包括多个字符概率集合,每个字符概率集合分别对应所述文本框图像中的不同字符位置,所述字符概率集合包括:按照从大到小的顺序,排列在前K个的字符概率,所述K为不小于1的整数;
第二识别模块,用于:
在所述作业页面中存在答案的情况下,每次分别从各个所述字符概率集合中获取一个字符概率,并将获取到的字符概率对应的字符进行组合,得到字符串,直至各个所述字符概率集合中的各个字符概率均被获取过所述K次;
若所述字符串中任意两个相邻字符中第一个字符非空格符且所述第一个字符与第二个字符相同,则将所述两个相邻字符中选择一个删除,得到第一修正后字符串;
将所述第一修正后字符串中的空格符删除,得到第二修正后字符串;
将各个所述第二修正后字符串分别与标准答案字符串比较,得到比较结果;
若比较结果为一致,则将所述第二修正后字符串作为识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911044078.2A CN110796092B (zh) | 2019-10-30 | 2019-10-30 | 一种文字识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911044078.2A CN110796092B (zh) | 2019-10-30 | 2019-10-30 | 一种文字识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110796092A true CN110796092A (zh) | 2020-02-14 |
CN110796092B CN110796092B (zh) | 2022-08-19 |
Family
ID=69442156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911044078.2A Active CN110796092B (zh) | 2019-10-30 | 2019-10-30 | 一种文字识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110796092B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783695A (zh) * | 2020-07-06 | 2020-10-16 | 北京易真学思教育科技有限公司 | 文本识别方法、装置、电子设备及存储介质 |
CN112232347A (zh) * | 2020-09-07 | 2021-01-15 | 平安科技(深圳)有限公司 | 基于概率矩阵的字符识别方法、装置、设备及存储介质 |
CN112990181A (zh) * | 2021-04-30 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 文本识别的方法、装置、设备和存储介质 |
WO2022070422A1 (ja) * | 2020-10-02 | 2022-04-07 | 株式会社日立製作所 | 計算機システム及び文字認識方法 |
CN114663878A (zh) * | 2022-05-25 | 2022-06-24 | 成都飞机工业(集团)有限责任公司 | 一种成品软件版本检查方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599900A (zh) * | 2015-10-20 | 2017-04-26 | 华中科技大学 | 一种识别图像中的字符串的方法和装置 |
CN107239733A (zh) * | 2017-04-19 | 2017-10-10 | 上海嵩恒网络科技有限公司 | 连续手写字识别方法及系统 |
US20180089561A1 (en) * | 2016-09-26 | 2018-03-29 | Splunk Inc. | Automatically generating field extraction recommendations |
CN109299717A (zh) * | 2018-09-13 | 2019-02-01 | 网易(杭州)网络有限公司 | 文字识别模型建立及文字识别方法、装置、介质及设备 |
-
2019
- 2019-10-30 CN CN201911044078.2A patent/CN110796092B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599900A (zh) * | 2015-10-20 | 2017-04-26 | 华中科技大学 | 一种识别图像中的字符串的方法和装置 |
US20180089561A1 (en) * | 2016-09-26 | 2018-03-29 | Splunk Inc. | Automatically generating field extraction recommendations |
CN107239733A (zh) * | 2017-04-19 | 2017-10-10 | 上海嵩恒网络科技有限公司 | 连续手写字识别方法及系统 |
CN109299717A (zh) * | 2018-09-13 | 2019-02-01 | 网易(杭州)网络有限公司 | 文字识别模型建立及文字识别方法、装置、介质及设备 |
Non-Patent Citations (2)
Title |
---|
MARTIN SCHALL, ET AL.: "Increasing robustness of handwriting recognition using character n-gram decoding on large lexica", 《2016 12TH IAPR WORKSHOP ON DOCUMENT ANALYSIS SYSTEMS》 * |
MAX JADERBERG,ET AL.: "DEEP STRUCTURED OUTPUT LEARNING FOR UNCONSTRAINED TEXT RECOGNITION", 《ARXIV》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783695A (zh) * | 2020-07-06 | 2020-10-16 | 北京易真学思教育科技有限公司 | 文本识别方法、装置、电子设备及存储介质 |
CN112232347A (zh) * | 2020-09-07 | 2021-01-15 | 平安科技(深圳)有限公司 | 基于概率矩阵的字符识别方法、装置、设备及存储介质 |
CN112232347B (zh) * | 2020-09-07 | 2023-06-20 | 平安科技(深圳)有限公司 | 基于概率矩阵的字符识别方法、装置、设备及存储介质 |
WO2022070422A1 (ja) * | 2020-10-02 | 2022-04-07 | 株式会社日立製作所 | 計算機システム及び文字認識方法 |
JP7430274B2 (ja) | 2020-10-02 | 2024-02-09 | 株式会社日立製作所 | 計算機システム及び文字認識方法 |
CN112990181A (zh) * | 2021-04-30 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 文本识别的方法、装置、设备和存储介质 |
CN114663878A (zh) * | 2022-05-25 | 2022-06-24 | 成都飞机工业(集团)有限责任公司 | 一种成品软件版本检查方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110796092B (zh) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796092B (zh) | 一种文字识别方法及装置 | |
US11106714B2 (en) | Summary generating apparatus, summary generating method and computer program | |
CN111310443B (zh) | 一种文本纠错方法和系统 | |
CN110032641B (zh) | 计算机执行的、利用神经网络进行事件抽取的方法及装置 | |
CN109766538B (zh) | 一种文本纠错方法、装置、电子设备以及存储介质 | |
US8028230B2 (en) | Contextual input method | |
CN111444705A (zh) | 纠错方法、装置、设备及可读存储介质 | |
TWI567569B (zh) | Natural language processing systems, natural language processing methods, and natural language processing programs | |
CN106708799B (zh) | 一种文本纠错方法、装置及终端 | |
Strauß et al. | ICFHR2018 competition on automated text recognition on a READ dataset | |
US9286526B1 (en) | Cohort-based learning from user edits | |
CN111709223B (zh) | 基于bert的句子向量生成方法、装置及电子设备 | |
CN111581367A (zh) | 一种题目录入的方法和系统 | |
CN111444349A (zh) | 信息抽取方法、装置、计算机设备和存储介质 | |
CN110717021A (zh) | 人工智能面试中获取输入文本和相关装置 | |
CN110265019B (zh) | 一种语音识别的方法及语音机器人系统 | |
CN107291730B (zh) | 对查询词提供校正建议的方法、装置、及概率词典构建方法 | |
CN111444906B (zh) | 基于人工智能的图像识别方法和相关装置 | |
CN110765767B (zh) | 局部优化关键词的提取方法、装置、服务器及存储介质 | |
KR102562692B1 (ko) | 문장 구두점 제공 시스템 및 방법 | |
CN115909381A (zh) | 一种文本图像识别方法、系统及相关装置 | |
US11481445B2 (en) | Answer generating device and non-transitory computer readable medium storing program | |
CN112749268A (zh) | 基于混合策略的faq系统排序方法、装置及系统 | |
US7899251B2 (en) | Balancing out-of-dictionary and in-dictionary recognition scores | |
CN116383366B (zh) | 一种应答信息确定方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |