CN114241490A - 基于笔画扰动与后处理的手写体识别模型性能的提升方法 - Google Patents

基于笔画扰动与后处理的手写体识别模型性能的提升方法 Download PDF

Info

Publication number
CN114241490A
CN114241490A CN202110002271.0A CN202110002271A CN114241490A CN 114241490 A CN114241490 A CN 114241490A CN 202110002271 A CN202110002271 A CN 202110002271A CN 114241490 A CN114241490 A CN 114241490A
Authority
CN
China
Prior art keywords
word
stroke
list
freq
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110002271.0A
Other languages
English (en)
Inventor
孙羽勃
陈大龙
夏芸
王庆刚
刘清华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Howso Technology Co ltd
Original Assignee
Nanjing Howso Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Howso Technology Co ltd filed Critical Nanjing Howso Technology Co ltd
Priority to CN202110002271.0A priority Critical patent/CN114241490A/zh
Publication of CN114241490A publication Critical patent/CN114241490A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Character Discrimination (AREA)

Abstract

本发明涉及一种基于笔画扰动与后处理的手写文字识别模型性能的提升方法,具体包括以下步骤:S1基于笔画扰动的手写体数据集的制作:首先通过笔画提取,获得笔画像素联通区域,再对连通区域内的笔画进行笔画扰动,从而获得具有多样性的手写体数据集;S2模型训练:将步骤S1中获得的手写体数据集采用文本识别模型进行训练,提取文本图片的特征,并获得模型预测结果;S3后处理:对模型预测结果进行分词,再判断是否存在可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语,从而获得预测结果。该方法有效提升文本行准确率,尤其是对一些较为模糊或尺寸较小的图片,有良好的提升效果。

Description

基于笔画扰动与后处理的手写体识别模型性能的提升方法
技术领域
本发明涉及图像处理与自然语言处理技术领域,尤其涉及一种基于笔画扰动与后处理的手写文字识别模型性能的提升方法。
背景技术
文本识别近年来取得了阶段性的突破。模型的准确性取决于作为输入的图像的质量与模型准确性。而模型准确性取决于模型结构已经训练数据集的多样性。
通常评估一个文字识别模型的准确性分别有平均编辑距离、字符识别准确率、文本行识别准确率。平均编辑距离是指将预测结果转换成真实结果所需的最少的编辑次数。其中编辑方式包括替换字符、插入字符、删除字符。平均编辑距离越小说明识别率越高。字符识别准确率即识别对的字符数占总字符数的比例。文本行识别准确率即识别对的文本行占总文本行的比例。然而,在中文文本行识别的实际应用中面临的一个挑战是:字符识别准确率往往高于文本行识别的准确率。如图1所示(图片来源:A Fast Alignment Scheme forAutomatic OCR Evaluation of Books by Yalniz,Ismet and Manmatha,R.);从图1中可以看出character-level的准确率要远高于word-level的准确率;提高文本行准确性的一种方法是使用NLP(自然语言处理)技术将不正确的单词替换为正确的单词。
目前手写中文识别模型的性能远低于印刷体识别模型的性能,这是因为手写中文具有极高的多样性,不仅个体之间存在书写习惯的差异,个人书写同一个字也存在着一定的笔画差异。
因此,本发明提出了一种基于笔画扰动与后处理的手写文字识别模型性能的提升方法,利用后处理来提升文本行识别的准确率,同时除了利用后处理来提升模型的准确性,还利用笔画干扰来提高数据集的多样性。
发明内容
本发明要解决的技术问题是,提供一种基于笔画扰动与后处理的手写文字识别模型性能的提升方法,利用后处理来提升文本行识别的准确率,同时除了利用后处理来提升模型的准确性,还利用笔画干扰来提高数据集的多样性。
为了解决上述技术问题,本发明采用的技术方案是:该基于笔画扰动与后处理的手写文字识别模型性能的提升方法,具体包括以下步骤:
S1基于笔画扰动的手写体数据集的制作:首先通过笔画提取,获得笔画像素联通区域,再对连通区域内的笔画进行笔画扰动,从而获得具有多样性的手写体数据集;
S2模型训练:将步骤S1中获得的手写体数据集采用文本识别模型进行训练,提取文本图片的特征,并获得模型预测结果;
S3后处理:对模型预测结果进行分词,再判断是否存在可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语,从而获得预测结果。
采用上述技术方案,通过笔画扰动提升数据集的多样性,再进行模型训练,再通过后处理方法,可以有效提升文本行准确率,尤其是对一些较为模糊或尺寸较小的图片,有良好的提升效果。
作为本发明的优选技术方案,所述步骤S1具体包括以下步骤:
S11笔画提取:首先找到文本行的外接矩形框,其次从外接矩形框的第一个像素点开始分别向上、下、左、右四个方向进行遍历,寻找像素点的联通像素点,从而获得笔画像素联通区域;
S12笔画扰动:在获得笔画像素联通区域后,对笔画像素联通区域内的字体笔画进行笔画扰动,扰动方法包括旋转、畸变和位置偏移,获得多样性的手写字体,并存入手写字体数据集。
作为本发明的优选技术方案,所述步骤S2模型训练采用卷积循环神经网络CRNN,所述卷积循环神经网络的结构包括卷积层、循环网络层和转录层;所述卷积层采用VGG16的结构,对输入的图片进行特征图的提取;所述循环网络层采用三层BiLSTM;所述转录层采用CTC算法,将RNN模型预测出的标签转换成预测结果,从而获得模型预测结果。RNN模型多用于自然语言处理(NLP),它被广泛应用于建立语言模型和语音识别任务中,其输入的值通常为语音特征。而在CRNN模型中,RNN模型的输入则为图像特征;CNN模型与RNN模型的结合,使得网络既提取了文本图片的鲁棒特征,又结合了序列识别,极大程度上解决了传统算法在做文字识别时需要对字符串先进行单字符切割的难题。
作为本发明的优选技术方案,所述步骤S3后处理的具体步骤包括:
S31对模型预测结果进行分词:首先对所述步骤S2中的模型预测结果根据词性采用分词算法进行分词,获得列表L;
S32判断可疑词语:所述步骤S31中获得的列表L中的每个元素为一个词或一个字符,通过遍历列表L中的每个元素来判断是否存可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语。
作为本发明的优选技术方案,所述步骤S31采用分词算法进行分词的具体步骤为:
S311:基于trie树,生成句子中所有词可构成的DAG,DAG是有向无环图;在建立好trie树之后,进行查词操作,即可对待分词的句子找出全部可能的句子进行切分,生成DAG;其中,生成的DAG的健为起始字符的位置,值为一个列表,列表中的每个元素都代表结束词的位置,表示以健起,以列表中的元素X结束的词是词典中存在的词语;
S312:动态规划求出最大概率的分词路径;在得到所有可能的切分方式构成的有向无环图后,能够发现从起点到终点存在多条路径,即存在多种分词结果;因此采用动态规划计算最大概率路径;首先初始化路径route,从句子最右侧开始,加入当前词语,判断当前词语是否使分词路径的概率p变大,若变大,则把该词语和p加入到路径route中,故在计算最大概率路径时每到达一个节点,该节点前面的节点到终点的最大路径概率则已经计算出。其中采用动态规划计算最大概率路径的具体过程是:
S3121:初始化参数;
route={};
N=len(sentence);
route[N]=(0,0);
Logtotal=0;
S3122:从句子最右侧开始计算;
elements=DAG[当前字符的位置];
max=-INF;
maxelement=None;
for element in elements:
通过route计算从当前字符到element的路径概率p:
p=log(frequence(当前字符到element构成的词))-logtotal+route[element的下一个位置][0]
If p>max:max=p,maxelement=element;
route[当前字符的位置]=(max,maxelement)。
作为本发明的优选技术方案,所述步骤S32中通过遍历列表L中的每个元素来判断是否存可疑词语具体步骤为:
S321:创建一个词频字典freq,字典的键为词或字符,freq对应的值为该词/字符出现的频率;
S322:从左至右遍历列表L中的每个元素,若存在可疑词语,则用候选字符进行替换并更正可疑词语;
S3221:若该元素为一个字符,则判断其是否符合判断条件中的任一条,若符合判断条件,则将该字符与下一个元素和下一个元素之后的下一元素分别进行临时合并形成临时词组,查找合并后的临时词组是否出现在词频字典freq中,若临时词组存在词频字典freq中,则在预测结果中添加频率高的组合,并将列表L更新为临时合并的结果;若临时词组不存在词频字典freq中,则根据候选词更正组合形成更正词组,再次判断更正组合词是否出现在词频字典freq中,若更正词组存在词频字典freq中,存在则在预测结果中添加频率高的组合;若更正词组不存在词频字典freq中,则拆分临时合并的临时词组并在结果中添加该字符;
S3222:若该元素不是一个字符;则判断其是否出在词频字典freq中;若词频字典freq中存在该元素,则在结果中添加频率高的组合;若词频字典freq中不存在该元素,则根据候选词更正组合,再次判断更正组合是否出现在词频字典中,若存在则在预测结果中添加频率高的组合;若词频字典freq中不存在该元素,在预测结果中添加该元素。
作为本发明的优选技术方案,所述步骤S3221中的所述判断条件包括:不在词频字典freq中、在词频字典freq中但频率低和该字符的词性不为数词。
作为本发明的优选技术方案,所述步骤S322中根据候选词更正组合时通过模型预测结果进行候选词筛选,具体过程为:一张图片经过模型处理后预测出了M个序列,其中每个序列有N个值,N=字符种类;每个值代表该序列预测为字符k的概率,在这些概率中筛选出前n个概率最高的值,记录这n个概率值对应的字符,作为该序列的全部候选字符。
作为本发明的优选技术方案,所述步骤S11笔画提取具体包括以下步骤:
S111外接矩形框坐标提取:首先通过行列信息提取与外接矩形框定位对文本行的外接矩形框进行定位;
S1111行列信息提取:遍历图像每一行,记录该行是否95%的像素点均为黑色背景,若是,记录改行信息为True,否则为False;遍历图像每一列,记录该行是否为95%的像素点均为黑色背景,若是,记录改列信息为True,否则为False;
S1112外接矩形框定位:通过步骤S1111取得图像所有行列信息后,对行列信息进行分析,获取外接矩形框坐标;即最右边界为列信息第一个为False的列;最左边界为列信息最后一个为False的列;最上边界为行信息第一个为False的行;最下边界为行信息最后一个为False的行,从而获得外接矩形框;
S112笔画粗提取:获得外接矩形框后,从框内左上角第一个像素点开始逐点遍历,对于某待遍历点,将其加入一个新的联通像素点列表中,循环遍历联通像素点列表,对于列表中的每个点p,查看p点上下左右四个相邻点,若相邻点不是像素值为(0,0,0)的黑色背景点,则将该相邻点加入联通像素点列表中,p点四个相邻点检查完毕后,删除联通像素列表中的p点,继续循环联通像素点列表,直至列表未空,从而获得笔画像素联通区域;其中笔画粗提取的流程为:
for x in range(left,right):
for y in range(top,low):
联通像素列表=[(x,y),]
联通像素列表copy=[]
While联通像素列表不为空:
向联通像素列表copy中添加(x,y)
联通像素列表删除(x,y)
检查(x,y)点上下左右方向的四个点,将非背景点添加至联通像素列表返回联通像素列表copy。
与现有技术相比,本发明具有的有益效果是:该基于笔画扰动与后处理的手写文字识别模型性能的提升方法通过笔画扰动提升数据集的多样性,再进行模型训练,再通过后处理方法,可以有效提升文本行准确率,尤其是对一些较为模糊或尺寸较小的图片,有良好的提升效果。
附图说明
下面结合附图进一步描述本发明的技术方案:
图1是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法的现有技术中关于字符识别准确率往往高于文本行识别的准确率的示意图;
图2是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法的流程图;
图3是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S11中的外接矩形框坐标提取方法的流程图;
图4是采用图3中的外接矩形框坐标提取方法进行外接矩形框提取的效果图;其中(a)为原始手写字体图片,(b)为外接矩形框提取的效果图;
图5是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S12中获得像素联通区域的效果图;
图6是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S12进行笔画扰动的效果图;图(a)为未做数据增强的数据集,图(b)为已做数据增强的数据集;
图7是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S2中模型结构图;
图8是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S31中的词性标注示意图;
图9是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S31中trie树示意图;
图10是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S31中DAG结果的效果图;
图11是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的步骤S32中进行候选词筛选时的列表示意图;
图12是本发明的基于笔画扰动与后处理的手写文字识别模型性能的提升方法中的预测结果展示图。
具体实施方式
为了加深对本发明的理解,下面将结合附图和实施例对本发明做进一步详细描述,该实施例仅用于解释本发明,并不对本发明的保护范围构成限定。
实施例:如图2所示,该基于笔画扰动与后处理的手写文字识别模型性能的提升方法,具体包括以下步骤:
S1基于笔画扰动的手写体数据集的制作:首先通过笔画提取,获得笔画像素联通区域,再对连通区域内的笔画进行笔画扰动,从而获得具有多样性的手写体数据集;所述步骤S1具体包括以下步骤:
S11笔画提取:首先找到文本行的外接矩形框,其次从外接矩形框的第一个像素点开始分别向上、下、左、右四个方向进行遍历,寻找像素点的联通像素点,从而获得笔画像素联通区域;所述步骤S11笔画提取具体包括以下步骤:
S111外接矩形框坐标提取:首先通过行列信息提取与外接矩形框定位对文本行的外接矩形框进行定位;以黑纸白字的文本行为例,在RGB图像三通道中,像素点的值均为0,则为黑色背景,否则为白色字迹;具体流程如图3所示,
S1111行列信息提取:遍历图像每一行,记录该行是否95%的像素点均为黑色背景,若是,记录改行信息为True,否则为False;遍历图像每一列,记录该行是否为95%的像素点均为黑色背景,若是,记录改列信息为True,否则为False;
S1112外接矩形框定位:通过步骤S1111取得图像所有行列信息后,对行列信息进行分析,获取外接矩形框坐标;即最右边界为列信息第一个为False的列;最左边界为列信息最后一个为False的列;最上边界为行信息第一个为False的行;最下边界为行信息最后一个为False的行,从而获得外接矩形框,如图4所示,图(b)中的白色框为外接矩形框;
S112笔画粗提取:获得外接矩形框后,从框内左上角第一个像素点开始逐点遍历,对于某待遍历点,将其加入一个新的联通像素点列表中,循环遍历联通像素点列表,对于列表中的每个点p,查看p点上下左右四个相邻点,若相邻点不是像素值为(0,0,0)的黑色背景点,则将该相邻点加入联通像素点列表中,p点四个相邻点检查完毕后,删除联通像素列表中的p点,继续循环联通像素点列表,直至列表未空,从而获得笔画像素联通区域,如图5所示;‘旧’被分为两个像素连通区域,同一颜色代表在同一个像素联通区域:
其中笔画粗提取的流程为:
for x in range(left,right):
for y in range(top,low):
联通像素列表=[(x,y),]
联通像素列表copy=[]
While联通像素列表不为空:
向联通像素列表copy中添加(x,y)
联通像素列表删除(x,y)
检查(x,y)点上下左右方向的四个点,将非背景点添加至联通像素列表返回联通像素列表copy;
S12笔画扰动:在获得笔画像素联通区域后,对笔画像素联通区域内的字体笔画进行笔画扰动,扰动方法包括旋转、畸变和位置偏移,获得多样性的手写字体,并存入手写字体数据集;其中扰动的角度不易过大,否则会出现笔画重叠严重的问题,导致字迹不易被辨别;如图6所示,其中图(a)为未做数据增强的数据集,图(b)为已做数据增强的数据集;图(b)由于扰动角度过大,导致有些字迹较难辨认;以框中的‘败’为例,做过干扰后,图b中的‘败’的部首已经出现严重的变形;
S2模型训练:将步骤S1中获得的手写体数据集采用文本识别模型(如图7所示)进行训练,提取文本图片的特征,并获得模型预测结果;所述步骤S2模型训练采用卷积循环神经网络CRNN,所述卷积循环神经网络的结构包括卷积层、循环网络层和转录层;所述卷积层采用VGG16的结构,对输入的图片进行特征图的提取;所述循环网络层采用三层BiLSTM;所述转录层采用CTC算法,将RNN模型预测出的标签转换成预测结果,从而获得模型预测结果;RNN模型多用于自然语言处理(NLP),它被广泛应用于建立语言模型和语音识别任务中,其输入的值通常为语音特征。而在CRNN中,RNN的输入则为图像特征;CNN与RNN的结合,使得网络既提取了文本图片的鲁棒特征,又结合了序列识别,极大程度上解决了传统算法在做文字识别时需要对字符串先进行单字符切割的难题;
S3后处理:对模型预测结果进行分词,再判断是否存在可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语,从而获得预测结果;所述步骤S3后处理的具体步骤包括:
S31对模型预测结果进行分词:首先对所述步骤S2中的模型预测结果根据词性采用分词算法进行分词,获得列表L;中文分词指的是将一个汉字序列切分成一个一个单独的词;分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。词是语义完整的最小语言单位,词性标注如图8所示;
S32判断可疑词语:所述步骤S31中获得的列表L中的每个元素为一个词或一个字符,通过遍历列表L中的每个元素来判断是否存可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语;
所述步骤S31采用分词算法进行分词的具体步骤为:
S311:基于trie树,trie是前缀树,也叫单词查找树。几个词语如果前面的几个字相同就是具有相同的前缀;将词典中的词条放入trie树中,即可利用字符串的公共前缀来减少查询时间,最大限度地减少无谓的字符串比较,查询效率比哈希表高;以北京,北京大学,北航,大连,大连理工这几个词为例,构造的trie树的结构如图9所示;生成句子中所有词可构成的DAG,DAG是有向无环图;在建立好trie树之后,进行查词操作,即可对待分词的句子找出全部可能的句子进行切分,生成DAG;其中,生成的DAG的健为起始字符的位置,值为一个列表,列表中的每个元素都代表结束词的位置,表示以健起,以列表中的元素X结束的词是词典中存在的词语;以句子“小明去北京大学读书”为例,这句话对应生成的DAG结果为:{0:[0],1:[1],2:[2],3:[3,4,6],4:[4],5:[5,6],6:[6],7:[7,8],8:[8]},如图10所示;
其中,‘3:[3,4,6]’表示:以句子中第三位‘北’为起始词,针对这句话,字典中出现了如下可以匹配的词语:‘北’,‘北京’,‘北京大学’。而对于句子中第0位的‘小’,没有前缀,只有一种划分方式。
S312:动态规划求出最大概率的分词路径;在得到所有可能的切分方式构成的有向无环图后,能够发现从起点到终点存在多条路径,即存在多种分词结果;需要注意的是,在汉语中,从右向左计算得到的结果通常比从左向右计算的到的结果好;这是因为汉语的重心往往偏向后面;因此采用动态规划计算最大概率路径;首先初始化路径route,从句子最右侧开始,加入当前词语,判断当前词语是否使分词路径的概率p变大,若变大,则把该词语和p加入到路径route中,故在计算最大概率路径时每到达一个节点,该节点前面的节点到终点的最大路径概率则已经计算出,从而获得一个分词列表L;其中采用动态规划计算最大概率路径的具体过程是:
S3121:初始化参数;
route={};
N=len(sentence);
route[N]=(0,0);
Logtotal=0;
S3122:从句子最右侧开始计算;
elements=DAG[当前字符的位置];
max=-INF;
maxelement=None;
for element in elements:
通过route计算从当前字符到element的路径概率p:
p=log(frequence(当前字符到element构成的词))-logtotal+route[element的下一个位置][0]
If p>max:max=p,maxelement=element;
route[当前字符的位置]=(max,maxelement);
所述步骤S32中通过遍历列表L中的每个元素来判断是否存可疑词语具体步骤为:
S321:创建一个词频字典freq,字典的键为词或字符,freq对应的值为该词/字符出现的频率;如:freq[‘北京大学’]=2507;
S322:从左至右遍历列表L中的每个元素,若存在可疑词语,则用候选字符进行替换并更正可疑词语;
S3221:若该元素为一个字符,则判断其是否符合判断条件中的任一条,若符合判断条件,则将该字符与下一个元素和下一个元素之后的下一元素分别进行临时合并形成临时词组,查找合并后的临时词组是否出现在词频字典freq中,若临时词组存在词频字典freq中,则在预测结果中添加频率高的组合,并将列表L更新为临时合并的结果;若临时词组不存在词频字典freq中,则根据候选词更正组合形成更正词组,再次判断更正组合词是否出现在词频字典freq中,若更正词组存在词频字典freq中,存在则在预测结果中添加频率高的组合;若更正词组不存在词频字典freq中,则拆分临时合并的临时词组并在结果中添加该字符;所述步骤S3221中的所述判断条件包括:不在词频字典freq中、在词频字典freq中但频率低和该字符的词性不为数词;
S3222:若该元素不是一个字符;则判断其是否出在词频字典freq中;若词频字典freq中存在该元素,则在结果中添加频率高的组合;若词频字典freq中不存在该元素,则根据候选词更正组合,再次判断更正组合是否出现在词频字典中,若存在则在预测结果中添加频率高的组合;若词频字典freq中不存在该元素,在预测结果中添加该元素;所述步骤S322中根据候选词更正组合时通过模型预测结果进行候选词筛选,具体过程为:一张图片经过模型处理后预测出了M个序列,其中每个序列有N个值,N=字符种类;每个值代表该序列预测为字符k的概率,在这些概率中筛选出前n个概率最高的值,记录这n个概率值对应的字符,作为该序列的全部候选字符;对于可以词可根据候选词来进行更正,候选词的选择与常用的通过平均编辑距离筛选的方式有所不同。平均编辑距离是指将预测结果转换成真实结果所需的最少的编辑次数;其中编辑方式包括替换字符、插入字符、删除字符,但从海量的词典中筛选出平均编辑距离较近的候选词是十分耗时的,因此本发明选择方法可以节省时间,从而提高效率。如图11所示;该图片经过模型预测的结果为‘北京影讯通物流有限公可’,b步骤判断出的可疑词为‘公可’。通过第9,10两个列表的排列组合,筛选出的候选词有:['公可','公肓','公司','公育','公百','企可','企肓','企司','企育','企百','岔可','岔肓','岔司','岔育','岔百','.可','.肓','.司','.育','.百','么可','么肓','么司','么育','么百']。经过筛选,词频最高的为‘公司’,将可疑此替换后,最终的预测结果为:‘北京影讯通物流有限公司’。
如图12所示,从该基于笔画扰动与后处理的手写文字识别模型性能的提升方法的效果展示图中可以看出,该方法有效提升文本行准确率,尤其是对一些较为模糊或尺寸较小的图片,有良好的提升效果。
对于本领域的普通技术人员而言,具体实施例只是对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。

Claims (9)

1.一种基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,具体包括以下步骤:
S1基于笔画扰动的手写体数据集的制作:首先通过笔画提取,获得笔画像素联通区域,再对连通区域内的笔画进行笔画扰动,从而获得具有多样性的手写体数据集;
S2模型训练:将步骤S1中获得的手写体数据集采用文本识别模型进行训练,提取文本图片的特征,并获得模型预测结果;
S3后处理:对模型预测结果进行分词,再判断是否存在可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语,从而获得预测结果。
2.根据权利要求1所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S1具体包括以下步骤:
S11笔画提取:首先找到文本行的外接矩形框,其次从外接矩形框的第一个像素点开始分别向上、下、左、右四个方向进行遍历,寻找像素点的联通像素点,从而获得笔画像素联通区域;
S12笔画扰动:在获得笔画像素联通区域后,对笔画像素联通区域内的字体笔画进行笔画扰动,扰动方法包括旋转、畸变和位置偏移,获得多样性的手写字体,并存入手写字体数据集。
3.根据权利要求1所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S2模型训练采用卷积循环神经网络CRNN,所述卷积循环神经网络的结构包括卷积层、循环网络层和转录层;所述卷积层采用VGG16的结构,对输入的图片进行特征图的提取;所述循环网络层采用三层BiLSTM;所述转录层采用CTC算法,将RNN模型预测出的标签转换成预测结果,从而获得模型预测结果。
4.根据权利要求3所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S3后处理的具体步骤包括:
S31对模型预测结果进行分词:首先对所述步骤S2中的模型预测结果根据词性采用分词算法进行分词,获得列表L;
S32判断可疑词语:所述步骤S31中获得的列表L中的每个元素为一个词或一个字符,通过遍历列表L中的每个元素来判断是否存可疑词语,若存在可疑词语,则用候选字符进行替换并更正可疑词语。
5.根据权利要求4所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S31采用分词算法进行分词的具体步骤为:
S311:基于trie树,生成句子中所有词可构成的DAG,DAG是有向无环图;在建立好trie树之后,进行查词操作,即可对待分词的句子找出全部可能的句子进行切分,生成DAG;其中,生成的DAG的健为起始字符的位置,值为一个列表,列表中的每个元素都代表结束词的位置,表示以健起,以列表中的元素X结束的词是词典中存在的词语;
S312:动态规划求出最大概率的分词路径;在得到所有可能的切分方式构成的有向无环图后,能够发现从起点到终点存在多条路径,即存在多种分词结果;因此采用动态规划计算最大概率路径;首先初始化路径route,从句子最右侧开始,加入当前词语,判断当前词语是否使分词路径的概率p变大,若变大,则把该词语和p加入到路径route中,故在计算最大概率路径时每到达一个节点,该节点前面的节点到终点的最大路径概率则已经计算出。
6.根据权利要求4所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S32中通过遍历列表L中的每个元素来判断是否存可疑词语具体步骤为:
S321:创建一个词频字典freq,字典的键为词或字符,freq对应的值为该词/字符出现的频率;
S322:从左至右遍历列表L中的每个元素,若存在可疑词语,则用候选字符进行替换并更正可疑词语;
S3221:若该元素为一个字符,则判断其是否符合判断条件中的任一条,若符合判断条件,则将该字符与下一个元素和下一个元素之后的下一元素分别进行临时合并形成临时词组,查找合并后的临时词组是否出现在词频字典freq中,若临时词组存在词频字典freq中,则在预测结果中添加频率高的组合,并将列表L更新为临时合并的结果;若临时词组不存在词频字典freq中,则根据候选词更正组合形成更正词组,再次判断更正组合词是否出现在词频字典freq中,若更正词组存在词频字典freq中,存在则在预测结果中添加频率高的组合;若更正词组不存在词频字典freq中,则拆分临时合并的临时词组并在结果中添加该字符;
S3222:若该元素不是一个字符;则判断其是否出在词频字典freq中;若词频字典freq中存在该元素,则在结果中添加频率高的组合;若词频字典freq中不存在该元素,则根据候选词更正组合,再次判断更正组合是否出现在词频字典中,若存在则在预测结果中添加频率高的组合;若词频字典freq中不存在该元素,在预测结果中添加该元素。
7.根据权利要求6所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S3221中的所述判断条件包括:不在词频字典freq中、在词频字典freq中但频率低和该字符的词性不为数词。
8.根据权利要求6所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S322中根据候选词更正组合时通过模型预测结果进行候选词筛选,具体过程为:一张图片经过模型处理后预测出了M个序列,其中每个序列有N个值,N=字符种类;每个值代表该序列预测为字符k的概率,在这些概率中筛选出前n个概率最高的值,记录这n个概率值对应的字符,作为该序列的全部候选字符。
9.根据权利要求2所述的基于笔画扰动与后处理的手写文字识别模型性能的提升方法,其特征在于,所述步骤S11笔画提取具体包括以下步骤:
S111外接矩形框坐标提取:首先通过行列信息提取与外接矩形框定位对文本行的外接矩形框进行定位;
S1111行列信息提取:遍历图像每一行,记录该行是否95%的像素点均为黑色背景,若是,记录改行信息为True,否则为False;遍历图像每一列,记录该行是否为95%的像素点均为黑色背景,若是,记录改列信息为True,否则为False;
S1112外接矩形框定位:通过步骤S1111取得图像所有行列信息后,对行列信息进行分析,获取外接矩形框坐标;即最右边界为列信息第一个为False的列;最左边界为列信息最后一个为False的列;最上边界为行信息第一个为False的行;最下边界为行信息最后一个为False的行,从而获得外接矩形框;
S112笔画粗提取:获得外接矩形框后,从框内左上角第一个像素点开始逐点遍历,对于某待遍历点,将其加入一个新的联通像素点列表中,循环遍历联通像素点列表,对于列表中的每个点p,查看p点上下左右四个相邻点,若相邻点不是像素值为(0,0,0)的黑色背景点,则将该相邻点加入联通像素点列表中,p点四个相邻点检查完毕后,删除联通像素列表中的p点,继续循环联通像素点列表,直至列表未空,从而获得笔画像素联通区域。
CN202110002271.0A 2021-01-04 2021-01-04 基于笔画扰动与后处理的手写体识别模型性能的提升方法 Pending CN114241490A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110002271.0A CN114241490A (zh) 2021-01-04 2021-01-04 基于笔画扰动与后处理的手写体识别模型性能的提升方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110002271.0A CN114241490A (zh) 2021-01-04 2021-01-04 基于笔画扰动与后处理的手写体识别模型性能的提升方法

Publications (1)

Publication Number Publication Date
CN114241490A true CN114241490A (zh) 2022-03-25

Family

ID=80742935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110002271.0A Pending CN114241490A (zh) 2021-01-04 2021-01-04 基于笔画扰动与后处理的手写体识别模型性能的提升方法

Country Status (1)

Country Link
CN (1) CN114241490A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116524529A (zh) * 2023-07-04 2023-08-01 青岛海信信息科技股份有限公司 一种基于图形嵌套关系的图层识别新方法
WO2024011590A1 (en) * 2022-07-15 2024-01-18 Nvidia Corporation A deep learning based system for optical character detection and recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024011590A1 (en) * 2022-07-15 2024-01-18 Nvidia Corporation A deep learning based system for optical character detection and recognition
CN116524529A (zh) * 2023-07-04 2023-08-01 青岛海信信息科技股份有限公司 一种基于图形嵌套关系的图层识别新方法
CN116524529B (zh) * 2023-07-04 2023-10-27 青岛海信信息科技股份有限公司 一种基于图形嵌套关系的图层识别新方法

Similar Documents

Publication Publication Date Title
CN111325203B (zh) 一种基于图像校正的美式车牌识别方法及系统
JP3822277B2 (ja) 文字テンプレートセット学習マシン動作方法
CN110178139B (zh) 使用具有注意力机制的全卷积神经网络的字符识别的系统和方法
CN110969129A (zh) 一种端到端税务票据文本检测与识别方法
CN109886978B (zh) 一种基于深度学习的端到端告警信息识别方法
CN103577818A (zh) 一种图像文字识别的方法和装置
CN113158977B (zh) 改进FANnet生成网络的图像字符编辑方法
Ma et al. Segmentation and recognition for historical Tibetan document images
WO2017088479A1 (zh) 台标识别方法及装置
CN109190630A (zh) 字符识别方法
CN112818951A (zh) 一种票证识别的方法
CN108710882A (zh) 一种基于卷积神经网络的屏幕渲染文本识别方法
CN114241490A (zh) 基于笔画扰动与后处理的手写体识别模型性能的提升方法
CN113537227B (zh) 一种结构化文本识别方法及系统
CN105260428A (zh) 图片处理方法和装置
US11915465B2 (en) Apparatus and methods for converting lineless tables into lined tables using generative adversarial networks
CN110598581B (zh) 基于卷积神经网络的光学乐谱识别方法
CN114596566A (zh) 文本识别方法及相关装置
CN111340032A (zh) 一种基于金融领域应用场景的字符识别方法
CN114187595A (zh) 基于视觉特征和语义特征融合的文档布局识别方法及系统
CN111626145A (zh) 一种简捷有效的残缺表格识别及跨页拼接方法
CN113657407A (zh) 高查全率的大幅图片文字精准定位方法
CN117496521A (zh) 一种表格关键信息抽取方法、系统、装置及可读存储介质
CN111832497A (zh) 一种基于几何特征的文本检测后处理方法
CN114241495B (zh) 一种用于脱机手写文本识别的数据增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination