CN113743409A - 一种文本识别方法和装置 - Google Patents
一种文本识别方法和装置 Download PDFInfo
- Publication number
- CN113743409A CN113743409A CN202010884961.9A CN202010884961A CN113743409A CN 113743409 A CN113743409 A CN 113743409A CN 202010884961 A CN202010884961 A CN 202010884961A CN 113743409 A CN113743409 A CN 113743409A
- Authority
- CN
- China
- Prior art keywords
- character
- text
- probability
- preset
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims abstract description 11
- 238000012216 screening Methods 0.000 claims abstract description 9
- 238000012546 transfer Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 abstract description 20
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 238000012015 optical character recognition Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012805 post-processing Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 102100024607 DNA topoisomerase 1 Human genes 0.000 description 4
- 101000830681 Homo sapiens DNA topoisomerase 1 Proteins 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Character Discrimination (AREA)
Abstract
本发明公开了文本识别方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括获取文本图像进行识别,得到候选字符集和对应的字符识别概率;利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本;将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词的共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。从而,本发明的实施方式能够解决现有文本提取准确率低、识别效果差的问题。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种文本识别方法和装置。
背景技术
目前,提取技术一直追求在识别阶段达到高准确率,且在各个领域得到了实际的应用。在现有的文本提取时使用语言模型进行识别,并在识别结果候选列表中进行选择。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
一般来说,为了保证文本均被送入识别框架,在检测阶段会适当牺牲召回率,这使得文本提取的结果中存在大量不正确、不需要的信息。以及语言模型需要结合文本概率和转移概率,通过动态规划计算最高得分的文本串,并未充分利用语义信息。并且,针对特定的应用,构建一套整体框架,其组件化程度降低,定制化困难程度较大。
另外,由于背景的复杂性,在文本提取结果中会有非文本装饰线或纹理被识别为字符,这将会降低识别结果中正确字符的占比。对于某些按行识别的文本提取,对特殊文本(例如竖排文字)并不做特殊处理。还有,无论是英文还是中文文本,大量的形近字使得文本提取技术很难再得到较大的提升。
发明内容
有鉴于此,本发明实施例提供一种文本识别方法和装置,能够解决现有文本提取准确率低、识别效果差的问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种文本识别方法,包括获取文本图像进行识别,得到候选字符集和对应的字符识别概率;
利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本;
将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词的共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
可选地,获取文本图像进行识别之后,包括:
识别得到文本框位置信息,计算文本框中字符识别概率小于预设第二概率阈值的字符的占比,如果所述占比大于预设占比阈值则删除所述文本框。
可选地,得到候选字符集和对应的字符识别概率之后,包括:
如果候选字符集中的第二个字符为第一类目标字符或符号且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符且对应的字符识别概率小于预设第二概率阈值,则删除首字符;或者
如果候选字符集中的第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则将首字符纠正为第三类目标字符中的预设字符;或者
如果候选字符集中的第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则删除首字符;或者
如果候选字符集中的首字符为符号,且不是预设成对符号的左符号或预设特殊符号,则删除首字符。
可选地,得到候选字符集和对应的字符识别概率之后,包括:
如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符且对应的字符识别概率小于预设第一概率阈值,则删除尾字符;或者
如果候选字符集中的尾字倒序第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则将尾字符纠正为第一类目标字符中的预设字符;或者
如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则删除尾字符;或者
如果候选字符集中的尾字符为符号且不是预设成对符号的右符号或预设句子或短句连接符号,则删除尾字符。
可选地,得到候选字符集和对应的字符识别概率之后,包括:
获取候选字符集中存在预设数量的字符且为符号的文本行,如果所述文本行对应的字符识别概率小于预设第三概率阈值,则删除所述文本行。
可选地,利用形近字列表扩展候选字符集,包括:
如果候选字符集中存在字符识别概率小于预设第四概率阈值的字符,则通过TOPN函数或者字符识别概率大于预设第五概率阈值获取候选字符集中的多个字符,以将所述多个字符对应的形近字列表中的所有字符加入到候选字符集中,并将所述多个字符的字符识别概率分别赋值给候选字符集中对应的形近字,进而对所述形近字去重后进行归一化处理。
可选地,还包括:
获取多个文本框位置信息,确定某一方向上存在多个连续候选字符集为一个字符的文本框,进而合并所述多个文本框。
另外,本发明还提供了一种文本识别装置,包括先验规则组件,用于获取文本图像进行识别,得到候选字符集和对应的字符识别概率;
语言模型组件,用于利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本;
语义模型组件,用于将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
上述发明中的一个实施例具有如下优点或有益效果:本发明通过扩大候选字符集空间,且充分利用语义信息,引入词向量特征相似度度量,提高文本提取结果的准确性。并且,考虑了语序对文本提取结果的影响,较好的解决了竖排文本的语序问题。同时,本发明形成了一套高度组件化的文本提取后处理方法,能够针对个性化的应用搭建定制化应用。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明第一实施例的文本识别方法的主要流程的示意图;
图2是根据本发明第二实施例的文本识别方法的主要流程的示意图;
图3是根据本发明第三实施例的文本识别方法的主要流程的示意图;
图4是根据本发明实施例的文本识别装置的主要模块的示意图;
图5是本发明实施例可以应用于其中的示例性系统架构图;
图6是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明第一实施例的文本识别方法的主要流程的示意图,如图1所示,所述文本识别方法包括:
步骤S101,获取文本图像进行识别,得到候选字符集和对应的字符识别概率。
较佳地实施例,可以通过OCR模型对获取的文本图像进行识别,得到文本框位置信息、候选字符集和对应的字符识别概率。其中,OCR(Optical Character Recognition,光学字符识别)是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程。
在一些实施例中,获取文本图像进行识别之后,可以识别得到文本框位置信息、候选字符集和对应的字符识别概率,然后计算文本框中字符识别概率小于预设第二概率阈值的字符的占比,如果所述占比大于预设占比阈值则删除所述文本框。
进一步地实施例,可以去除误检测的文本框,这类文本框中实际上不存在文本,OCR模型输出结果中字符概率一般也会较低。因此,通过设置第二概率阈值判断是否为非法字符,并统计非法字符占比来判定召回的文本框的合法性,统计非法字符占比的公式如下:
其中,xi表示第i个的字符识别概率,其中T1表示第二概率阈值,其与判定合法性的占比阈值均可自定义,优选地第二概率阈值取0.8。
例如:文本框中不含有文字但被召回,然后进行了识别,其识别结果可能是"!~~",对应文字概率为"0.3,0.6,0.3",按T1=0.8,此时按公式计算rate=0,占比阈值设置为0.5,由于rate小于占比阈值,所以将该文本行删除。
在另一些实施例中,得到候选字符集和对应的字符识别概率之后,还可以针对于一些特殊应用场景对文本框进行处理,即实现了对文本识别应用场景的处理。具体地实施过程包括:基于预设的文本特征信息确定图像中文本对应存在应用场景,进而根据文本框位置信息合并相应的文本框。
较佳地实施例,基于预设的文本特征信息(例如古诗类的句子是单独成行的“五言古诗”,即诗歌特有的文本特征),判断图像中的文本是否独立成行,若是则确定图像中文本对应的应用场景,进而根据文本框位置信息合并具有相同应用场景的文本框,即将距离相近的文本行中的内容拼接起来,多行文本变为一段文本。若否则对文本框不做处理。
进一步地实施例,在对图像中文本框针对于应用场景进行合并之后,可以检测成对出现的字符是否合法。具体地实施过程包括:调用先验规则组件中的成对符号检测组件,确定文本框中对应的候选字符集存在预设成对符号的左符号或右符号,进而检测是否存在预设成对符号的右符号或左符号,若存在则不做处理,否则删除确定存在的预设成对符号的左符号或右符号,即成对符号检测组件是将不成对的符号去除。例如:预设的成对符号包括:“”()《》<>等的符号。
作为较佳的实施例,得到候选字符集和对应的字符识别概率之后,具体地包括:
如果候选字符集中的第二个字符为第一类目标字符或符号且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符且对应的字符识别概率小于预设第二概率阈值,则删除首字符。例如:第二个字符是中文字符或符号且字符识别概率大于第一概率阈值0.9,首字符为英文字母且字符识别概率小于阈值第二概率阈值0.6,则删除首字符。
或者,如果候选字符集中的第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则将首字符纠正为第三类目标字符中的预设字符。例如:第二个字符是数字且字符识别概率大于第一概率阈值0.9,首字符为字母”l”或”|”,则将首字符纠正为数字“1”。
或者,如果候选字符集中的第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则删除首字符。例如:第二个字符是中文字符且字符识别概率大于第一概率阈值0.9,首字符为字母”l”或”|”,则删除首字符。
或者,如果候选字符集中的首字符为符号,且不是预设成对符号的左符号或预设特殊符号,则删除首字符。例如:首字符为符号,且不是成对符号的左符号(如“‘"'((《[【{等)或特殊符号(如¥$等),则删除首字符。
举例说明:如图2所示的文本框,OCR模型输出为|THECOREFINCTION,首字符合法性判断组件处理后输出结果为THECOREFINCTION:
其中,[]中表示文本框四角坐标位置和置信度值。
作为较佳的实施例,得到候选字符集和对应的字符识别概率之后,具体地包括:
如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符且对应的字符识别概率小于预设第一概率阈值,则删除尾字符。例如:倒序第二个字符是中文字符且字符识别概率大于第一概率阈值0.9,尾字符为英文字母且字符识别概率小于第一概率阈值0.9,则删除尾字符。
或者,如果候选字符集中的尾字倒序第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则将尾字符纠正为第一类目标字符中的预设字符。例如:倒序第二个字符是数字且字符识别概率大于第一概率阈值0.9,尾字符为字母”l”或”|”,则将尾字符纠正为数字“1”。
或者,如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则删除尾字符。例如:倒序第二个字符是中文字符且字符识别概率大于第一概率阈值0.9,尾字符为字母”l”或”|”,则删除尾字符。
或者,如果候选字符集中的尾字符为符号且不是预设成对符号的右符号或预设句子或短句连接符号,则删除尾字符。例如:尾字符为符号,且不是成对符号的右符号(如”’"'))》】}]等),或句子或短句连接符号(如,。;?!,.?!等),则删除尾字符。
作为本发明的又一些实施例,还可以对英文单词中与数字或符号容易产生混淆的字母的纠错。具体地包括:易混字母纠正组件识别当前字符地前后字符均为字母时,则当前字符依次运行以下规则进行纠错:
1/|=l,8=B,9=g,6=b,0=o,丁=T,¥=Y,$=S
作为较佳的实施例,得到候选字符集和对应的字符识别概率之后,具体地包括:
获取候选字符集中存在预设数量的字符且为符号的文本行,如果所述文本行对应的字符识别概率小于预设第三概率阈值,则删除该文本行。较佳地,合法性二次判断组件可以用于预处理的最后检验。例如:若文本行只剩一个字符且为符号,同时字符识别概率小于第三概率阈值0.8,则删除该文本行。
步骤S102,利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本。
在一些实施例中,利用形近字列表扩展候选字符集,包括:
如果候选字符集中存在字符识别概率小于预设第四概率阈值的字符,则通过TOPN函数或者字符识别概率大于预设第五概率阈值获取候选字符集中的多个字符,以将该多个字符对应的形近字列表中的所有字符加入到候选字符集中,并将该多个字符的字符识别概率分别赋值给候选字符集中对应的形近字,进而对所述形近字去重后进行归一化处理。
可以看出,不仅仅取文本识别输出结果中的TOPN字符作为候选,还利用形近字列表对候选字符集进行扩展。因为,TOPN的字符可能仍然不包含正确的字符,即便后续处理的精确度再高也无法在此基础上得到正确纠错结果,而候选字符集的扩充,能够在一定程度上缓解这个问题。其中,TOPN是指按识别概率值由大到小排序,取前N个,在机器学习领域称为TOPN,其中TOP1指排序后只取第一个,即概率值最大的一个。较佳地,可以调用语言模型组件中的候选字符集组件执行上述过程。
例如:某文本行识别结果中有一个字符为“无”,其识别结果中TOP1字符识别概率为0.4,由于小于第四概率阈值0.99需要取TOPN(N=2)结果(“羌”0.4,“夫”0.3),然后将这两个字符的形近字列表(羌:无;夫:天)中的字符加入候选集,这些形近字的字符识别概率对应各自的原始字符,此时候选集中包括(“羌”0.4,“无”0.4,“夫”0.3,“天”0.3)。需要说明的是,实际上形近字列表中字符数量不止一个,此处仅为示例。候选集中字符概率为(0.4,0.4,0.3,0.3),归一化0.4/(0.4+0.4+0.3+0.3)=0.286,0.3/(0.4+0.4+0.3+0.3)=0.214,则归一化结果为(0.286,0.286,0.214,0.214)。
在进一步地实施例中,通过计算文本行中所有字符识别概率和转移概率的乘积的最大值,来确定最终输出文本。较佳地,语言模型可按需求选择bigram/trigram,动态规划为经典的维特比算法。其中,字符共现矩是通过语料库统计获得,表示某字符出现在另一字符后面的概率,使用时显示数值除以每行总数即可得到概率值)。需要说明的是,追求速度时选用bigram,追求准确度选用trigram。应用时bigram每次计算两个字符,trigram每次计算三个字符。
举例说明:如图3所示提取到的文本框,输入文本结果为“防止电池过功睾放电”,经过语言模型组件的纠错结果输出为“防止电池过功率放电”:
其中,[]中表示文本框四角坐标位置和置信度值。
步骤S103,将所述输出文本通过词向量模型生成语义相似词列表,进而遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词的共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
在一些实施例中,需要利用步骤102输出的结果作为语料进行词向量模型的训练,是基于统计理论的方法,在大量的文本语料中,存在近似或相同的描述。例如:在N个相同或相似的句子中,每个词都有识别正确或错误的情况,根据语义相似度(上下文语境)识别错误的词可以与识别正确的词对应上,利用这种对应关系和其他统计信息,即可对错误识别的情况进行纠错。
进一步地实施例,在执行步骤S103时可以获取基于识别文本的词向量模型,将文本向量化,用于词的语义相似度度量。值得说明的是,必须使用步骤102的输出结果,不可直接使用公开语料库进行训练,否则无法达到纠错的目的。较佳地,使用word2vec模型作为词向量模型,当然根据应用需求也可使用其他表征能力更强的模型进行替换。
然后,确定需要使用语义进行纠错的词,判定的原则是分词结果中字符的TOP1字符识别概率小于第一概率阈值(例如:此处取0.99)。
之后,本发明在语言模型之外,提出了更充分利用语义信息进行文本后处理的算法,根据语义相似度判定是否进行文本纠错处理,从而提高文本提取的准确性。
综上所述,步骤S103利用词向量模型计算待纠错词的TOPN语义相似词列表,利用形近字列表判断是否能够筛选出包括的形近字,若否则继续遍历纠错词序列直至遍历完成停止输出结果,若是则计算原始词和语义相似且形近的词共现概率,如果原始词共现概率大于第一概率阈值则不做纠正输出原始词,如果原始词共现概率小于或等于第一概率阈值则输出共现概率最大的形近词。
其中,利用词向量模型计算待纠错词的TOPN语义相似词列表的时候,包括训练得到词向量模型,然后使用开发工具包加载词向量模型,工具包会提供接口:输入纠错词,返回语义相似度较高的词。当然也可自行开发工具包,计算纠错词和词向量模型中所有词之间的相似性(例如:可使用余弦距离),选择TOPN相似的结果,即为语义相似度较高的词。
举例说明:下面提取到的文本框,输入为“温馨提示:要洗择合话尺码,最好测量自己的衣服尺寸后再讲行比较选购”,处理后结果“温馨提示:要洗择合适尺码,最好测量自己的衣服尺寸后再讲行比较选购”,其中“合话”被纠正为“合适”,但是“洗择”由于某种原因没有纠正。为此,将语言模型组件的输出输入到语义模型组件,其输出结果为“温馨提示:要选择合适尺码,最好测量自己的衣服尺寸后再讲行比较选购”,其中“洗择”纠正为“选择”得到了最终正确的文本提取结果。
语言模型组件输入:
语言模型组件结果:
语义模型组件结果:
作为又一实施例,如果应用中存在大量竖排文本,该组件能够较好的解决输出时的语序问题。具体的实施过程包括:
获取多个文本框位置信息,确定某一方向上存在多个连续候选字符集为一个字符的文本框,进而合并所述多个文本框。
进一步地实施例,处理过程包括:
步骤一:将所有文本框按左上角为原点且左边框为y轴(竖直方向)坐标升序排列,即文本框从上到下排列。其中,文本框左上角为原点,文本框左边框为y轴,文本框上边框为x轴。
步骤二:所有文本框组成一个集合A,记文本框数量为N。
步骤三:选择第一个文本框i=1。
步骤四:判断i是否小于N,若否则进行步骤十,若小于N进行步骤五(即是否有文本行需要合并)。
步骤五:判断识别文本是否为单个字符,若为多字符,i=i+1,转到步骤四;若为单字符,取待合并文本框j=i+1,进行步骤六。
步骤六:判断j是否小于等于N。
步骤七:若否则保存合并后文本行(若无合并则无需保存),然后更新文本框数量N,取i=i+1返回步骤四;若是则进行步骤八。
步骤八:判断识别j文本是否为单个字符,若否则取下一个文本行即j=j+1,返回步骤六;若是则进行步骤九。
步骤九:根据文本框位置信息判断是否满足预设的合并条件,若是则合并文本框后,取下一个文本行j=j+1,返回步骤六,若否则直接取下一个文本行j=j+1,返回步骤六。
其中,预设的合并条件为:
w和h分别指代文本框的宽度和高度。
其中,合并文本框后需更新i文本行坐标并剔除j,更新后i文本行坐标:
左上角:(xi1,yi1)
右下角:(xj4,yj4)
步骤十:输出所有合并后文本框,以及未参与合并的文本行。
通常,未做处理的文本提取的输出结果如下:
经过处理后,文本提取结果如下:
综上所述的各种实施例,本发明所述的文本识别方法,不仅能处理单纯的中文文本,同时还解决了中英文混合文本提取后处理中的难题。并对基于语言模型的后处理方法进行改进,提高结果的准确性。同时,考虑了语序对文本提取结果的影响,形成了一套高度组件化的文本提取后处理方法。
图2是根据本发明第二实施例的文本识别方法的主要流程的示意图,所述文本识别方法可以包括:
步骤S201,获取文本图像进行识别,得到文本框位置信息、候选字符集和对应的字符识别概率。
步骤S202,计算文本框中字符识别概率小于预设第二概率阈值的字符的占比,如果所述占比大于预设占比阈值则删除所述文本框。
步骤S203,获取多个文本框位置信息,确定某一方向上存在多个连续候选字符集为一个字符的文本框,进而合并所述多个文本框。
步骤S204,基于预设的文本特征信息确定图像中文本对应存在应用场景,进而根据文本框位置信息合并相应的文本框。
步骤S205,利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,计算每个文本行中所有字符识别概率与转移概率的乘积,进而将最大乘积对应的文本行作为输出文本。
步骤S206,将所述输出文本通过词向量模型生成语义相似词列表,进而遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
图3是根据本发明实施例的文本识别装置的主要模块的示意图,如图3所示,所述文本识别装置300包括先验规则组件301、语言模型组件302和语义模型组件303。其中,先验规则组件301获取文本图像进行识别,得到候选字符集和对应的字符识别概率;语言模型组件302利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本;语义模型组件303将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
在一些实施例中,先验规则组件301获取文本图像进行识别之后,包括:
识别得到文本框位置信息,调用先验规则组件中的召回判断组件,计算文本框中字符识别概率小于预设第二概率阈值的字符占比,如果所述占比大于预设占比阈值则删除所述文本框。
在一些实施例中,先验规则组件301得到候选字符集和对应的字符识别概率之后,包括:
调用先验规则组件中的首字符合法性判断组件,如果候选字符集中的第二个字符为第一类目标字符或符号且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符且对应的字符识别概率小于预设第二概率阈值,则删除首字符;或者
如果候选字符集中的第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则将首字符纠正为第三类目标字符中的预设字符;或者
如果候选字符集中的第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则删除首字符;或者
如果首字符为符号,且不是预设成对符号的左符号或预设特殊符号,则删除首字符。
在一些实施例中,先验规则组件301得到候选字符集和对应的字符识别概率之后,包括:
调用先验规则组件中的尾字符合法性判断组件,如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符且对应的字符识别概率小于预设第一概率阈值,则删除尾字符;或者
如果候选字符集中的尾字倒序第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则将尾字符纠正为第一类目标字符中的预设字符;或者
如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则删除尾字符;或者
如果候选字符集中的尾字符为符号且不是预设成对符号的右符号或预设句子或短句连接符号,则删除尾字符。
在一些实施例中,先验规则组件301得到候选字符集和对应的字符识别概率之后,包括:
调用先验规则组件中的合法性二次判断组件,获取候选字符集中存在预设数量的字符且为符号的文本行,如果所述文本行对应的字符识别概率小于预设第三概率阈值,则删除所述文本行。
在一些实施例中,语言模型组件302利用形近字列表扩展候选字符集,包括:
如果候选字符集中存在字符识别概率小于预设第四概率阈值的字符,则通过TOPN函数或者字符识别概率大于预设第五概率阈值获取候选字符集中的多个字符,以将所述多个字符对应的形近字列表中的所有字符加入到候选字符集中,并将所述多个字符的字符识别概率分别赋值给候选字符集中对应的形近字,进而对所述形近字去重后进行归一化处理。
在一些实施例中,先验规则组件301,还用于:
获取多个文本框位置信息,确定某一方向上存在多个连续候选字符集为一个字符的文本框,进而合并所述多个文本框。
图4是根据本发明另一实施例的文本识别装置的主要模块示意图,可以包括:
获取包含文本的图像,通过OCR模型获得文本框位置信息、候选字符集和对应的字符识别概率。然后,基于候选字符集和对应的字符识别概率通过先验规则组件中的召回判断组件、首字符合法性判断组件、尾字符合法性判断组件、成对符号检测组件、易混字母纠正组件、合法性二次判定组件执行预处理。之后,将先验规则结果(即预处理后的结果)输入至语言模型组件中,进而依次通过候选字符集选择组件(需要利用形近字列表)、动态规划算法组件(需要利用基于获取的多源语料库生成的字符共现矩阵)得到语音模型结果。
将语音模型结果输入至语义模型组件中进行分词处理,并基于字符识别概率进行预判定,以利用训练好的词向量模型进行相似词筛选得到语义模型结果。
最后,基于获取的文本框位置,调用竖排文本组件对语义模型结果进行文本合并,进而输出最后的结果。
在一些实施例,召回判断组件可以去除误检测的文本框,这类文本框中实际上不存在文本,OCR模型输出结果中字符概率一般也会较低。
在另一些实施例中,先验规则组件得到候选字符集和对应的字符识别概率之后,还可以针对于一些特殊应用场景对文本框进行处理,即实现了对文本识别应用场景的处理。具体地实施过程包括:基于预设的文本特征信息确定图像中文本对应存在应用场景,进而根据文本框位置信息合并相应的文本框。
进一步地实施例,在对图像中文本框针对于应用场景进行合并之后,调用先验规则组件中的成对符号检测组件可以检测成对出现的字符是否合法。
作为本发明的又一些实施例,先验规则组件还用于对英文单词中与数字或符号容易产生混淆的字母的纠错。
在进一步地实施例中,调用语言模型组件中的动态规划算法组件,该组件是在候选字符集选择组件和字符共现矩阵基础上,通过计算文本行中所有字符识别概率和转移概率的乘积的最大值,来确定最终输出文本。
在一些实施例中,语义模型组件需要利用前置组件输出的结果作为语料进行词向量模型的训练,是基于统计理论的方法,在大量的文本语料中,存在近似或相同的描述。
进一步地实施例,调用语义模型组件中的词向量模型算法组件,可以获取基于识别文本的词向量模型,将文本向量化,用于词的语义相似度度量。值得说明的是,必须使用前置组件的输出结果,不可直接使用公开语料库进行训练,否则无法达到纠错的目的。然后,调用语义模型组件中的概率预判定组件,该组件在字符识别概率的基础上进行初步筛选,确定需要使用语义进行纠错的词,判定的原则是分词结果中字符的TOP1字符识别概率小于第一概率阈值(例如:此处取0.99)。之后,调用语义模型组件中的语义相似度判定组件,本发明在语言模型之外,提出了更充分利用语义信息进行文本后处理的算法,根据语义相似度判定是否进行文本纠错处理,从而提高文本提取的准确性。
需要说明的是,在本发明所述文本识别方法和所述文本识别装置在具体实施内容上具有相应关系,故重复内容不再说明。
图5示出了可以应用本发明实施例的文本识别方法或文本识别装置的示例性系统架构500。
如图5所示,系统架构500可以包括终端设备501、502、503,网络504和服务器505。网络504用以在终端设备501、502、503和服务器505之间提供通信链路的介质。网络504可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备501、502、503通过网络504与服务器505交互,以接收或发送消息等。终端设备501、502、503上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备501、502、503可以是具有文本识别屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器505可以是提供各种服务的服务器,例如对用户利用终端设备501、502、503所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息--仅为示例)反馈给终端设备。
需要说明的是,本发明实施例所提供的文本识别方法一般由服务器505执行,相应地,计算装置一般设置于服务器505中。
应该理解,图5中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图6,其示出了适于用来实现本发明实施例的终端设备的计算机系统600的结构示意图。图6示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM603中,还存储有计算机系统600操作所需的各种程序和数据。CPU601、ROM602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶文本识别器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括先验规则组件、语言模型组件和语义模型组件。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括获取文本图像进行识别,得到候选字符集和对应的字符识别概率;利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,计算每个文本行中所有字符识别概率与转移概率的乘积,进而将最大乘积对应的文本行作为输出文本;将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词的共现概率,如果共现概率小于预设第一概率阈值则输出形近词。
根据本发明实施例的技术方案,能够解决现有文本提取准确率低、识别效果差的问题。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种文本识别方法,其特征在于,包括:
获取文本图像进行识别,得到候选字符集和对应的字符识别概率;
利用形近字列表扩展候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本;
将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词的共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
2.根据权利要求1所述的方法,其特征在于,获取文本图像进行识别之后,包括:
识别得到文本框位置信息,计算文本框中字符识别概率小于预设第二概率阈值的字符的占比,如果所述占比大于预设占比阈值则删除所述文本框。
3.根据权利要求1所述的方法,其特征在于,得到候选字符集和对应的字符识别概率之后,包括:
如果候选字符集中的第二个字符为第一类目标字符或符号且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符且对应的字符识别概率小于预设第二概率阈值,则删除首字符;或者
如果候选字符集中的第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则将首字符纠正为第三类目标字符中的预设字符;或者
如果候选字符集中的第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时首字符为第二类目标字符中的预设字符或预设符号,则删除首字符;或者
如果候选字符集中的首字符为符号,且不是预设成对符号的左符号或预设特殊符号,则删除首字符。
4.根据权利要求1所述的方法,其特征在于,得到候选字符集和对应的字符识别概率之后,包括:
如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符且对应的字符识别概率小于预设第一概率阈值,则删除尾字符;或者
如果候选字符集中的尾字倒序第二个字符为第三类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则将尾字符纠正为第一类目标字符中的预设字符;或者
如果候选字符集中的尾字倒序第二个字符为第一类目标字符且对应的字符识别概率大于预设第一概率阈值,同时尾字符为第二类目标字符中的预设字符或预设符号,则删除尾字符;或者
如果候选字符集中的尾字符为符号且不是预设成对符号的右符号或预设句子或短句连接符号,则删除尾字符。
5.根据权利要求1所述的方法,其特征在于,得到候选字符集和对应的字符识别概率之后,包括:
获取候选字符集中存在预设数量的字符且为符号的文本行,如果所述文本行对应的字符识别概率小于预设第三概率阈值,则删除所述文本行。
6.根据权利要求1所述的方法,其特征在于,利用形近字列表扩展候选字符集,包括:
如果候选字符集中存在字符识别概率小于预设第四概率阈值的字符,则通过TOPN函数或者字符识别概率大于预设第五概率阈值获取候选字符集中的多个字符,以将所述多个字符对应的形近字列表中的所有字符加入到候选字符集中,并将所述多个字符的字符识别概率分别赋值给候选字符集中对应的形近字,进而对所述形近字去重后进行归一化处理。
7.根据权利要求1-6任一所述的方法,其特征在于,还包括:
获取多个文本框位置信息,确定某一方向上存在多个连续候选字符集为一个字符的文本框,进而合并所述多个文本框。
8.一种文本识别装置,其特征在于,包括:
先验规则组件,用于获取文本图像进行识别,得到候选字符集和对应的字符识别概率;
语言模型组件,用于利用形近字列表扩展预处理后的候选字符集,以基于字符共现矩阵对扩展后的候选字符集,根据每个文本行中所有字符识别概率和转移概率,得到计算结果集,将计算结果集中最大数值对应的文本行作为输出文本;
语义模型组件,用于将所述输出文本通过词向量模型生成语义相似词列表,遍历所述语义相似词列表,利用形近字列表筛选出包括形近字的词,以计算原始词与语义相似且形近的词共现概率,如果共现概率小于预设第一概率阈值则输出形近词,以得到识别的文本。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010884961.9A CN113743409A (zh) | 2020-08-28 | 2020-08-28 | 一种文本识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010884961.9A CN113743409A (zh) | 2020-08-28 | 2020-08-28 | 一种文本识别方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113743409A true CN113743409A (zh) | 2021-12-03 |
Family
ID=78727996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010884961.9A Pending CN113743409A (zh) | 2020-08-28 | 2020-08-28 | 一种文本识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113743409A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116137149A (zh) * | 2023-04-18 | 2023-05-19 | 杰创智能科技股份有限公司 | 语音识别方法、装置和设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140214419A1 (en) * | 2013-01-29 | 2014-07-31 | Tencent Technology (Shenzhen) Company Limited | Method and system for automatic speech recognition |
WO2014139173A1 (en) * | 2013-03-15 | 2014-09-18 | Google Inc. | Virtual keyboard input for international languages |
CN108228712A (zh) * | 2017-11-30 | 2018-06-29 | 北京三快在线科技有限公司 | 一种实体挖掘方法及装置,电子设备 |
CN110162681A (zh) * | 2018-10-08 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 文本识别、文本处理方法、装置、计算机设备和存储介质 |
JP2019200784A (ja) * | 2018-05-09 | 2019-11-21 | 株式会社アナリティクスデザインラボ | 分析方法、分析装置及び分析プログラム |
CN111368918A (zh) * | 2020-03-04 | 2020-07-03 | 拉扎斯网络科技(上海)有限公司 | 文本纠错方法、装置、电子设备及存储介质 |
-
2020
- 2020-08-28 CN CN202010884961.9A patent/CN113743409A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140214419A1 (en) * | 2013-01-29 | 2014-07-31 | Tencent Technology (Shenzhen) Company Limited | Method and system for automatic speech recognition |
WO2014139173A1 (en) * | 2013-03-15 | 2014-09-18 | Google Inc. | Virtual keyboard input for international languages |
CN108228712A (zh) * | 2017-11-30 | 2018-06-29 | 北京三快在线科技有限公司 | 一种实体挖掘方法及装置,电子设备 |
JP2019200784A (ja) * | 2018-05-09 | 2019-11-21 | 株式会社アナリティクスデザインラボ | 分析方法、分析装置及び分析プログラム |
CN110162681A (zh) * | 2018-10-08 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 文本识别、文本处理方法、装置、计算机设备和存储介质 |
CN111368918A (zh) * | 2020-03-04 | 2020-07-03 | 拉扎斯网络科技(上海)有限公司 | 文本纠错方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
JIANSHU JI 等: "A Nested Attention Neural Hybrid Model for Grammatical Error Correction", COMPUTATION AND LANGUAGE, 10 July 2017 (2017-07-10) * |
石凤贵;: "基于自然语言处理的Word2Vec词向量应用", 黑河学院学报, no. 07, 25 July 2020 (2020-07-25) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116137149A (zh) * | 2023-04-18 | 2023-05-19 | 杰创智能科技股份有限公司 | 语音识别方法、装置和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111309915B (zh) | 联合学习的自然语言训练方法、系统、设备及存储介质 | |
CN109697291B (zh) | 文本的语义段落识别方法和装置 | |
CN110705301B (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
US11341322B2 (en) | Table detection in spreadsheet | |
CN112396049A (zh) | 文本纠错方法、装置、计算机设备及存储介质 | |
CN107341143B (zh) | 一种句子连贯性判断方法及装置和电子设备 | |
US9286526B1 (en) | Cohort-based learning from user edits | |
CN113255331B (zh) | 文本纠错方法、装置及存储介质 | |
CN112613293B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN113673228B (zh) | 文本纠错方法、装置、计算机存储介质及计算机程序产品 | |
CN112464927B (zh) | 一种信息提取方法、装置及系统 | |
JP2022088602A (ja) | テーブル生成方法、装置、電子機器、記憶媒体及びプログラム | |
CN112214576B (zh) | 舆情分析方法、装置、终端设备及计算机可读存储介质 | |
CN112784066A (zh) | 基于知识图谱的信息反馈方法、装置、终端和存储介质 | |
CN115862040A (zh) | 文本纠错方法、装置、计算机设备及可读存储介质 | |
CN114612921A (zh) | 表单识别方法、装置、电子设备和计算机可读介质 | |
CN113743409A (zh) | 一种文本识别方法和装置 | |
CN112949290A (zh) | 文本纠错方法、装置及通信设备 | |
CN117422064A (zh) | 搜索文本纠错方法、装置、计算机设备及存储介质 | |
JP7099254B2 (ja) | 学習方法、学習プログラム及び学習装置 | |
CN111309850B (zh) | 一种数据特征提取方法、装置、终端设备及介质 | |
CN111382322B (zh) | 字符串相似度的确定方法和装置 | |
CN110929749B (zh) | 文本识别方法、装置、介质及电子设备 | |
CN114170451A (zh) | 一种文本识别方法和装置 | |
CN113743093A (zh) | 一种文本校正的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |