CN113469148A - 一种文本擦除方法及模型的训练方法、装置、存储介质 - Google Patents

一种文本擦除方法及模型的训练方法、装置、存储介质 Download PDF

Info

Publication number
CN113469148A
CN113469148A CN202111023930.5A CN202111023930A CN113469148A CN 113469148 A CN113469148 A CN 113469148A CN 202111023930 A CN202111023930 A CN 202111023930A CN 113469148 A CN113469148 A CN 113469148A
Authority
CN
China
Prior art keywords
training
model
central point
erasure
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111023930.5A
Other languages
English (en)
Other versions
CN113469148B (zh
Inventor
秦勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Century TAL Education Technology Co Ltd
Original Assignee
Beijing Century TAL Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Century TAL Education Technology Co Ltd filed Critical Beijing Century TAL Education Technology Co Ltd
Priority to CN202111023930.5A priority Critical patent/CN113469148B/zh
Publication of CN113469148A publication Critical patent/CN113469148A/zh
Application granted granted Critical
Publication of CN113469148B publication Critical patent/CN113469148B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Character Input (AREA)

Abstract

本公开提供一种文本擦除方法及其模型的训练方法、装置、存储介质。本公开实施例中提供的一个或多个技术方案,获取第一训练样本的集合;根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;串联所述第一训练样本和空白图像,生成第二训练样本的集合;根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型,实现图像的精确擦除。

Description

一种文本擦除方法及模型的训练方法、装置、存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种文本擦除方法及其模型的训练方法、装置、存储介质。
背景技术
文本擦除技术从原理上来讲是对指定位置的像素点值进行修改,从而达到所谓“擦除”的目的。例如智能教育场景下,经常需要对学生的错误回答进行擦除后搜集,以及对一些手写的试卷进行拍照回收等等,具有广泛的应用前景。常规的文本擦除模型中较为重视整体文本区域信息,而较少关注书写的笔画信息,从而使得擦除不够精确。
基于此,需要一种更为精确的文本擦除方案。
发明内容
有鉴于此,本公开实施例提供一种更为精确的文本擦除方案,以至少部分的解决上述问题。
根据本公开的一方面,提供了一种文本擦除模型的训练方法,包括:获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;串联所述第一训练样本和空白图像,生成第二训练样本的集合;根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。
根据本公开的第二方面,提供了一种文本擦除方法,包括:
确定图像上要擦除的目标文本;
根据如第一方面方法得到的文本擦除模型,从所述图像上擦除所述目标文本,得到擦除了所述目标文本的图像。
根据本公开的第三方面,提供了一种文本擦除模型的训练装置,包括:第一样本获取模块,获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;第一阶段训练模块,根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;第二阶段训练模块,根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;第二样本获取模块,串联所述第一训练样本和空白图像,生成第二训练样本的集合;第三阶段训练模块,根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。
根据本公开的第四方面,提供了一种电子设备,包括:处理器;以及存储程序的存储器,其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行如第一方面所述的方法。
根据本公开的第五方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如第一方面所述的方法。
本公开实施例中提供的一个或多个技术方案,获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;串联所述第一训练样本和空白图像,生成第二训练样本的集合;根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。由于矩形框的外接圆的半径为R1,内切圆半径为R2均是基于字符的笔画信息所产生的矩形框所决定的,因此,在模型训练中可以基于R1和R2而更多的提取得到文字的笔画信息,由于笔画信息相对于整体的文字区域更加精确,从而实现图像的精确擦除。
附图说明
在下面结合附图对于示例性实施例的描述中,本公开的更多细节、特征和优点被公开,在附图中:
图1为本公开实施例所提供的一种文本擦除模型的训练方法的流程示意图;
图2为本公开实施例所提供的一种第一训练样本的示意图;
图3为本公开实施例所提供的一种中心点特征映射生成方式的示意图;
图4为本公开实施例所提供的一种文本擦除模型的训练装置的结构示意图;
图5示出了能够用于实现本公开的实施例的示例性电子设备的结构框图;
图6为本公开实施例所提供的一种文本擦除方法的流程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
在本公开实施例的第一方面,提供了一种文本擦除模型的训练方法,如图1所述,图1为本公开实施例所提供的一种文本擦除模型的训练方法的流程示意图,包括:
S101,获取第一训练样本的集合。
第一训练样本是为包含手写文字区域的第一图像构成,同时,第一训练样本以不包含所述手写文字区域的第二图像为标签。
例如,可以收集大量未作答的文本图像数据的高清大图作为第二图像,接着将未作答的第二图像进行进行作答,得到随机作答过的文本图像(即第一图像),然后将每张图像调整至同样大小,同时简单统计每张图像中文字(包括手写文字和印刷文字)的大小范围(即宽和高,一般来说,手写文字的大小跟所在页的印刷文字的差距不大),最后对所有数据取加权平均值,而得到一矩形框,对于这个宽高的长方形,求出其内切圆和外接圆的半径,分别记为外接圆的半径为R1,内切圆半径为R2。
在一种实施例中,还可以对得到的作答后的原始图像进行等大小的裁剪,例如,按照3*4的格子进行裁剪,即每张原始图像被均匀的裁剪为12份第一图像(相应的,将未作答的原始图像也等大小的进行裁剪,从而生成对应大小的作为标签的第二图像),从而得到的第一训练样本的集合。
进一步地,还可以对第一图像中的和第二图像中的字符位置通过矩形框标注,并确定各矩形框的中心点,从而在训练样本的集合中得到关系中心点位置信息的标注。如图2所示,图2为本公开实施例所提供的一种第一训练样本的示意图。在该示意图中,以为作答的对应的第二图像作为了其对应的标签(即训练目标),对于第一图像中的字符均通过矩形字符框给出了相应的字符位置的标注,从该图上可以容易看出,矩形框的中心点位置以及大小(即可以由R1和R2所表征)可以表征一个字符的相关笔画信息。
S103,根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型。
采用所述初始的中心点预测模型可以基于第一训练样本的集合预先训练得到的可用模型,也可以是基于其它方式所已经训练好的中心点预测模型。中心点预测模型以第一训练样本输入,可以输出与第一训练模型等大小的中心点得分图。中心点得分图上的值为0到1之间的概率值,每个概率值表征了对应的第一训练样本中的像素点是中心点的概率,通常可以认为若概率值大于某个阈值(例如,0.8),则认为该值对应的像素点为某个字符的中心点。
这个阶段可以称为第一训练阶段。原始擦除模型可以采用诸如编解码结构,例如可以是包含N层卷积神经网络的编码器和N层反卷积神经网络的解码器构成(例如,N=8),所述解码器对所述解码器中所产生的特征映射跨层串联(例如,解码器前7层每一层均对编码器中同样大小的特征映射做跨层串联),通过解码器最终输出擦除了部分区域的第一预测图像,从而可以以第二图像为标签,根据第一预测图像和第二图像的差异计算损失值,对原始擦除模型进行即模型训练。在这个阶段可以使用L1损失函数进行训练。
具体而言,针对任一的第一训练样本,可以通过解码器初始的中心点预测模型得到对应的一个中心点得分图,并找出每个字符的中心点,进而即可以基于中心点和矩形框的外接圆的半径R1对中心点周围的字符的像素值进行调整(对距离中心点距离在R1之外的则不做调整),从而得到调整后的训练样本。显然,调整后的训练样本中就包含了字符的笔画信息,因此,通过该方式可以完成第一阶段的模型训练,此时得到的第一擦除模型已经可以基于笔画信息以及R1进行部分的擦除。
S105,根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型。
这个阶段可以称为第二训练阶段。第二训练阶段即需要对第一训练阶段所产生的第一擦除模型进行再次的训练。具体而言,即针对任一的第一训练样本,仍然采用前述的中心点预测模型得到字符中心点,并根据以及R1对对应的中心点附近的像素点的像素值进行调整,从而得到第一文字区域得分图,以及根据R2对对应的中心点附近的像素点的像素值进行调整,而得到第二文字区域得分图。第一文字区域得分图和第二文字区域得分图中仍然是以0至1之间的概率值一一对应的表征了对应的像素点的概率值。
进而即可以根据第一文字区域得分图和第一训练样本生成第一擦除模型的输入,在经过第一擦除模型的编码器进行特征提取之后,即可以得到相应的特征映射,并将提取得到的特征映射和第二文字区域得分图进行特征融合,从而生成融合了字符中心点、以及字符中心点附近的R1和R2的特征,并将将特征输入第一擦除模型的解码器,从而生成第二预测擦除图像,并仍以第二图像为标签,进行第二阶段的模型训练,而生成第二擦除模型。在这个阶段可以采用L1损失函数和内容一致性损失函数(统计第二预测擦除图像和第二图像有多少个像素点的值不一样)进行训练。
S107, 串联所述第一训练样本和空白图像,生成第二训练样本的集合。
S109,根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。
这个阶段即可以认为是第三训练阶段。在该阶段中,第二训练样本同时经过二擦除模型和所述初始的中心点预测模型络。初始的中心点预测模型络仍然可以得到对应于第二训练样本的中心点得分图,并基于内切圆半径R2调整第二训练样本中各点的像素值而得到第二文字区域得分图。第二擦除模型的编码器则提取第二训练样本的特征,并将提取得到的特征与第二文字区域得分图相乘,然后进入第二擦除模型的解码器,解码器通过对编码器中的特征进行跨层串联以及对应的融合,并解码生成对应的第三擦除图像。
基于生成的第三擦除图像与第二图像的差异对第二擦除模型和所述初始的中心点预测模型进行训练,从而同时调整初始的中心点预测模型和第二擦除模型中的参数,而生成最终的中心点预测模型和第三擦除模型,此时最终的中心点预测模型和第三擦除模型即构成了目标擦除模型。在这个阶段中,损失函数可以使用L1损失函数、内容一致性损失函数以及(1-感受野损失函数函数),感受野函数的计算方式为:对于输入的第二训练样本图像,经过每个块得到一组预测特征映射,同时对应的第二图像,经过每个块得到一组标签特征映射,然后每个对应块得到的预测特征映射和标签特征映射逐通道逐点求差,并整体加和表示感受野损失,感受野损失越小,说明输入越接近。而在本公开中取反,则表明需要让感受野损失不断变大,因为作为标签的第二图像并没有文字需要预测中心点,所以中心点预测的越准,两者差距越大。
在这个阶段中,由于在第二阶段中训练得到的第二擦除模型已经可以较为准确的提取得到文字中与R1和R2相关的信息,因此,通过基于R2所提取得到的笔画信息同时调整初始的中心点预测模型和第二擦除模型,可以优化训练得到的目标整体模型对于文字的中心点、以及中心点的R1和R2信息的识别,相当于在识别得到手写字符的中心点的同时,还可以准确识别得到手写字符的笔画大小的范围。
本公开实施例中提供的一个或多个技术方案,获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;串联所述第一训练样本和空白图像,生成第二训练样本的集合;根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。由于矩形框的外接圆的半径为R1,内切圆半径为R2均是基于字符的笔画信息所产生的矩形框所决定的,因此,在模型训练中可以基于R1和R2而更多的提取得到文字的笔画信息,由于笔画信息相对于整体的文字区域更加精确,从而实现图像的精确擦除。
在一种实施例中,第一阶段中根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练时,可以采用如下方式:针对任一第一训练样本,采用所述初始的中心点预测模型生成该第一训练样本的文字中心点得分图;根据所述文字中心点得分图确定该第一训练样本的预测中心点;根据预测中心点的像素值S0,对该第一训练样本中距离所述预测中心点的距离不超过R1的其它像素点的像素值进行调整,生成第一文字区域得分图;将所述第一文字区域得分图串联该第一训练样本,对所述原始擦除模型进行阶段训练。通过该方式可以在训练样本中融合进字符中心点的字符的外接圆的信息,从而可以使得将一个字符的中心点的外接圆内的其它像素调整与中心点相关,从而可以使得秀徐的训练和擦除更为准确。
在一种实施例中,对于对该第一训练样本中距离所述预测中心点的距离不超过R2的其它像素点的像素值进行调整,可以采用如下方式:确定所述其它像素点距离所述预测中心点的距离D,根据所述S0和D,采用高斯分布函数确定所述其它像素点的像素值Si,其中,D越小,Si和S0的差越小,i为自然数。即越靠近中心点的像素点,其像素值也越靠近中心点的像素值。而对于外接圆以外的像素点的像素值则不作调整。通过该方式,可以使得在同一个字符框的外接圆内的像素点的像素值调整为较接近,从而有利于后续的字符识别和擦除。
在一种实施例中,在第二阶段中根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练时,可以采用如下方式:
针对任一第一训练样本,采用所述初始的中心点预测模型确定该第一训练样本的预测中心点;根据预测中心点的像素值S0,对该第一训练样本中距离所述预测中心点的距离不超过R1的其它像素点的像素值进行调整,生成第一文字区域得分图;根据预测中心点的像素值S0,对该训练样本中距离所述预测中心点的距离不超过R2的其它像素点的像素值进行调整,生成第二文字区域得分图;将所述第一文字区域得分图串联该第一训练样本,作为所述第一擦除模型的输入,生成第一特征映射;将所述第一特征映射与所述第二文字区域得分图进行逐点相乘,生成第二特征映射,根据所述第二特征映射对所述第一擦除模型进行训练。
即首先如第一阶段类似的,采用所述初始的中心点预测模型对预测得到的中心点的外接圆内的像素点的像素值进行调整,生成第一文字区域得分图;并采用类似的方式,对预测得到的中心点的内切圆内的像素点的像素值进行调整,生成第二文字区域得分图。从而第一文字区域得分图串联该第一训练样本输入解码器,将得到的第一特征映射与第二文字区域得分图进行逐通道逐点相乘,生成第二特征映射,并将第二特征映射输入解码器,基于解码器而生成第二预测擦除图像,从而基于第二预测擦除图像和第二图像的差异进行第二阶段的模型训练。通过该方式,在模型训练的过程中进一步的加入了字符中心点的内切圆范围内的笔画信息,从而可以实现更精确的范围预测和擦除。
在这个过程中,根据预测中心点的像素值S0,对该训练样本中距离所述预测中心点的距离不超过R2的其它像素点的像素值进行调整,生成第二文字区域得分图时,可以类似于生成第二文字区域得分图时的方式,即基于预测中心点的像素值S0以及其它点相对于中心点的距离,采用高斯分布函数确定其它点的像素值,从而生成对应于第一训练样本的第二文字区域得分图。
在一种实施例中,在第三阶段的训练过程中,根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,可以采用如下方式:针对任一第二训练样本,采用所述初始的中心点预测模型和所述R2生成该第二训练样本的第二文字区域得分图;采用所述第二擦除模型生成该第二训练样本的第三特征映射;将所述第三特征映射与所述第二文字区域得分图逐点相乘,根据相乘的结果对所述第二擦除模型和所述初始的中心点预测模型进行训练。
不同于第一阶段和第二阶段的输入均为第一训练样本叠加了第一区域得分图,即在过程中,输入为第一训练样本叠加了一份空白图像,即通过空白图像模拟了第一区域得分图,以保持输入的一致性。进而基于已经训练好的第二擦除模型的编码器提取第三特征映射,并将提取得到的第三映射与中心点预测模型所得到的第二文字区域得分图(得到的方式参考前述说明)逐点相乘,然后进入解码器而生成第三预测图像,并基于第三预测图像和第二图像的差异计算损失值,对第二擦除模型和所述初始的中心点预测模型同步进行参数调整,以使得训练得到的中心点预测模型可以更准确的预测得到中心点,同时训练得到的第三擦除模型可以更准确的提取得到中心点周围R1和R2范围内的字符笔画信息,从而实现可以基于中心点、R1和R2所表征的笔画信息进行精确的擦除。
需要说明的是,在本公开实施例中,第一阶段、第二阶段和第三阶段的三个训练阶段是相互独立的,即在进行第一阶段训练时,第二阶段和第三阶段不会发生。只有在前一阶段的训练完成后,才会进行后续的阶段模型训练。
在经过第三阶段的训练得到目标擦除模型之后,即可以获取待擦除的图像,并将所述待擦除的图像串联相同大小的空白图像,作为所述目标擦除模型的输入,从而直接生成擦除后的图像。在这个过程中,模型处理的过程即如前述的第三阶段所示(即目标擦除模型的输入需要叠加空白图像,以保持和第三阶段的输入一致),而与第一阶段和第二阶段的模型训练无关。
进一步地,还可以对于输入的图像进行等大小的切分,而得到切分后的多份和第二训练样本相同大小的待擦除的子图像。进一步地,将所述待擦除的子图像串联相同大小的空白图像,作为所述目标擦除模型的输入,从而可以生成多份擦除后的子图像,并对生成的擦除后的子图像拼接,生成擦除后的图像。通过该方式,将待擦除的图像进行切分,可以按块擦除之后重新拼接的方式实现更精细化的文本擦除,即更加重视局部信息(即基于中心点和R1、R2所表征的文字笔画信息),而忽略全局信息,实现更精确的擦除。
在一种实施例中,对于初始的中心点预测模型采用如下方式预先训练得到:针对任一第一训练样本,采用包含多个串联的块的检测模型获取对应的多个图像中心点子特征,串联所述多个图像中心点子特征生成中心点特征映射;对所述中心点特征映射进行等宽卷积,生成与第一训练样本的像素点存在对应关系的中心点得分预测图,其中,所述中心点得分预测图中的每个分值表征了第一训练样本中对应的像素点是中心点的概率;根据所述中心点得分预测图与所述第一训练样本中的矩形框标注对所述检测模型进行训练,生成初始的中心点预测模型。
例如,可以采用Resnet18网络模型作为基础结构,Resnet18网络由N(N为自然数,例如,N=4)个块(block)串联构建,每个块包括若干层卷积操作,第一个块输出的特征映射大小为第一训练样本的1/4,第二个为第一训练样本的1/8,第三个为第一训练样本的1/16,第四个为第一训练样本1/32,以此类推,每一个块的输出是后一块的输入,将得到的4组128通道特征映射全部通过插值的方式缩放至第一训练样本的1/4大小,然后进行两次卷积和三次反卷积操作,得到与第一训练样本的大小一致的1通道的中心点特征映射,并对所述中心点特征映射进行等宽卷积,生成与第一训练样本的像素点存在对应关系的中心点得分预测图,其实中心点得分预测图的值表示这个像素点是否是中心点的概率;根据所述中心点得分预测图与所述第一训练样本中的矩形框标注对所述检测模型进行训练,从而生成初始的中心点预测模型,在这个过程中,可以使用Focal Loss作为损失函数。通过该方式,可以通过多个块提取得到更为丰富的初始的图像信息,实现准确的中心点的预测。如图3所示,图3为本公开实施例所提供的一种中心点特征映射生成方式的示意图。
在本公开实施例的第二方面,还提供了一种文本擦除模型的训练装置,如图4所示,图4为本公开实施例所提供的一种文本擦除模型的训练装置的结构示意图,包括:
第一样本获取模块401,获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;
第一阶段训练模块403,根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;
第二阶段训练模块405,根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;
第二样本获取模块407,串联所述第一训练样本和空白图像,生成第二训练样本的集合;
第三阶段训练模块409,根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。
在本公开实施例的第三方面,本公开示例性实施例还提供一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器。所述存储器存储有能够被所述至少一个处理器执行的计算机程序,所述计算机程序在被所述至少一个处理器执行时用于使所述电子设备执行根据本公开实施例的方法。
本公开示例性实施例还提供一种存储有计算机程序的非瞬时计算机可读存储介质,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的方法。
本公开示例性实施例还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的方法。
参考图5,现将描述可以作为本公开的服务器或客户端的电子设备800的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806、输出单元807、存储单元808以及通信单元809。输入单元806可以是能向电子设备800输入信息的任何类型的设备,输入单元806可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入。输出单元807可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元804可以包括但不限于磁盘、光盘。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理。例如,在一些实施例中,如第一方面的文本擦除模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。在一些实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行如第一方面的文本擦除模型的训练方法。
如图6所示,图6为本公开实施例所提供的一种文本擦除方法的流程示意图,其包括:
S601、确定图像上要擦除的目标文本;
S603、根据如第一方面方法得到的文本擦除模型,从所述图像上擦除所述目标文本,得到擦除了所述目标文本的图像。
本实施例中,所述图像可以为任意试卷或者可供用户作答的打印体题目图像,目标文本可以为打印体题目图像上用户作答的文本,通过将用户作答过的文本抹去,第一遍答题之后,可以找出错题,重点学习之后,去除其上的手写体,将试卷复原,针对错误问题重新练习,以巩固学习效果;而对于拍照判题应用的提供者来说,用户需要批改的题目,题库中如果没有,那么便可以去除用户作答痕迹,将这道题收录,同时引入人工答案,从而有效扩充题库。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
如本公开使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

Claims (13)

1.一种文本擦除模型的训练方法,包括:
获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;
根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;
根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;
串联所述第一训练样本和空白图像,生成第二训练样本的集合;
根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。
2.如权利要求1所述的方法,其中,根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,包括:
针对任一第一训练样本,采用所述初始的中心点预测模型生成该第一训练样本的文字中心点得分图;
根据所述文字中心点得分图确定该第一训练样本的预测中心点;
根据预测中心点的像素值S0,对该第一训练样本中距离所述预测中心点的距离不超过R1的其它像素点的像素值进行调整,生成第一文字区域得分图;
将所述第一文字区域得分图串联该第一训练样本,对所述原始擦除模型进行阶段训练。
3.如权利要求2所述的方法,其中,对该第一训练样本中距离所述预测中心点的距离不超过R2的其它像素点的像素值进行调整,包括:
确定所述其它像素点距离所述预测中心点的距离D,
根据所述S0和D,采用高斯分布函数确定所述其它像素点的像素值Si,其中,D越小,Si和S0的差越小。
4.如权利要求1所述的方法,根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,包括:
针对任一第一训练样本,采用所述初始的中心点预测模型确定该第一训练样本的预测中心点;
根据预测中心点的像素值S0,对该第一训练样本中距离所述预测中心点的距离不超过R1的其它像素点的像素值进行调整,生成第一文字区域得分图;
根据预测中心点的像素值S0,对该训练样本中距离所述预测中心点的距离不超过R2的其它像素点的像素值进行调整,生成第二文字区域得分图;
将所述第一文字区域得分图串联该第一训练样本,作为所述第一擦除模型的输入,生成第一特征映射;
将所述第一特征映射与所述第二文字区域得分图进行逐点相乘,生成第二特征映射,根据所述第二特征映射对所述第一擦除模型进行训练。
5.如权利要求1所述的方法,其中,根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,包括:
针对任一第二训练样本,采用所述初始的中心点预测模型和所述R2生成该第二训练样本的第二文字区域得分图;
采用所述第二擦除模型生成该第二训练样本的第三特征映射;
将所述第三特征映射与所述第二文字区域得分图逐点相乘,根据相乘的结果对所述第二擦除模型和所述初始的中心点预测模型进行训练。
6.如权利要求1所述的方法,所述方法还包括:
获取待擦除的图像;
将所述待擦除的图像串联相同大小的空白图像,作为所述目标擦除模型的输入,生成擦除后的图像。
7.如权利要求6所述的方法,其中,获取待擦除的图像,包括:获取切分后的待擦除的子图像;
相应的,将所述待擦除的图像串联相同大小的空白图像,作为所述目标擦除模型的输入,包括:将所述待擦除的子图像串联相同大小的空白图像,作为所述目标擦除模型的输入;
相应的,生成擦除后的图像,包括:将生成的擦除后的子图像拼接,生成擦除后的图像。
8.如权利要求1所述的方法,其中,所述原始擦除模型为包含N层卷积神经网络的编码器和N层反卷积神经网络的解码器构成,所述解码器对所述解码器中所产生的特征映射跨层串联。
9.如权利要求1所述的方法,其中,所述初始的中心点预测模型采用如下方式预先训练得到:
针对任一第一训练样本,采用包含多个串联的块的检测模型获取对应的多个图像中心点子特征,串联所述多个图像中心点子特征生成中心点特征映射;
对所述中心点特征映射进行等宽卷积,生成与第一训练样本的像素点存在对应关系的中心点得分预测图,其中,所述中心点得分预测图中的每个分值表征了第一训练样本中对应的像素点是中心点的概率;
根据所述中心点得分预测图与所述第一训练样本中的矩形框标注对所述检测模型进行训练,生成初始的中心点预测模型。
10.一种文本擦除方法,包括:
确定图像上要擦除的目标文本;
根据权利要求1-9任一项所述方法训练得到的文本擦除模型,从所述图像上擦除所述目标文本,得到擦除了所述目标文本的图像。
11.一种文本擦除模型的训练装置,包括:
第一样本获取模块,获取第一训练样本的集合,其中,所述第一训练样本为包含手写文字区域的第一图像,第一训练样本以不包含所述手写文字区域的第二图像为标签,所述第一图像和第二图像中的字符位置通过矩形框标注,所述矩形框的外接圆的半径为R1,内切圆半径为R2;
第一阶段训练模块,根据所述第一训练样本的集合、R1和初始的中心点预测模型对原始擦除模型进行训练,生成第一擦除模型,其中,所述初始的中心点预测模型根据所述第一训练样本的集合预先训练得到;
第二阶段训练模块,根据所述第一训练样本的集合、R1、R2和初始的中心点预测模型对所述第一擦除模型进行训练,生成第二擦除模型;
第二样本获取模块,串联所述第一训练样本和空白图像,生成第二训练样本的集合;
第三阶段训练模块,根据所述第二训练样本的集合和R2对所述第二擦除模型和所述初始的中心点预测模型进行训练,生成目标擦除模型。
12.一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据权利要求1-9中任一项所述的方法。
13.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
CN202111023930.5A 2021-09-02 2021-09-02 一种文本擦除方法及模型的训练方法、装置、存储介质 Active CN113469148B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111023930.5A CN113469148B (zh) 2021-09-02 2021-09-02 一种文本擦除方法及模型的训练方法、装置、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111023930.5A CN113469148B (zh) 2021-09-02 2021-09-02 一种文本擦除方法及模型的训练方法、装置、存储介质

Publications (2)

Publication Number Publication Date
CN113469148A true CN113469148A (zh) 2021-10-01
CN113469148B CN113469148B (zh) 2021-11-12

Family

ID=77867362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111023930.5A Active CN113469148B (zh) 2021-09-02 2021-09-02 一种文本擦除方法及模型的训练方法、装置、存储介质

Country Status (1)

Country Link
CN (1) CN113469148B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688809A (zh) * 2021-10-26 2021-11-23 北京世纪好未来教育科技有限公司 一种模型训练方法、文本去除方法及相关装置
CN113722466A (zh) * 2021-11-03 2021-11-30 北京世纪好未来教育科技有限公司 批改模型训练方法、批改方法、装置、电子设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003158B1 (en) * 2002-02-14 2006-02-21 Microsoft Corporation Handwriting recognition with mixtures of Bayesian networks
CN108139825A (zh) * 2015-09-30 2018-06-08 株式会社理光 电子黑板、存储介质和信息显示方法
CN112580623A (zh) * 2020-12-25 2021-03-30 北京百度网讯科技有限公司 图像生成方法、模型训练方法、相关装置及电子设备
CN112883942A (zh) * 2021-04-28 2021-06-01 北京世纪好未来教育科技有限公司 手写字符的评价方法、装置、电子设备和计算机存储介质
CN112949661A (zh) * 2021-05-13 2021-06-11 北京世纪好未来教育科技有限公司 检测框自适应外扩方法、装置、电子设备及存储介质
CN113159035A (zh) * 2021-05-10 2021-07-23 北京世纪好未来教育科技有限公司 图像处理方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003158B1 (en) * 2002-02-14 2006-02-21 Microsoft Corporation Handwriting recognition with mixtures of Bayesian networks
CN108139825A (zh) * 2015-09-30 2018-06-08 株式会社理光 电子黑板、存储介质和信息显示方法
CN112580623A (zh) * 2020-12-25 2021-03-30 北京百度网讯科技有限公司 图像生成方法、模型训练方法、相关装置及电子设备
CN112883942A (zh) * 2021-04-28 2021-06-01 北京世纪好未来教育科技有限公司 手写字符的评价方法、装置、电子设备和计算机存储介质
CN113159035A (zh) * 2021-05-10 2021-07-23 北京世纪好未来教育科技有限公司 图像处理方法、装置、设备及存储介质
CN112949661A (zh) * 2021-05-13 2021-06-11 北京世纪好未来教育科技有限公司 检测框自适应外扩方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张帅涛: "基于深度学习的自然场景文本擦除", 《中国优秀博硕士学位论文全文数据库(硕士)-信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688809A (zh) * 2021-10-26 2021-11-23 北京世纪好未来教育科技有限公司 一种模型训练方法、文本去除方法及相关装置
CN113688809B (zh) * 2021-10-26 2022-02-18 北京世纪好未来教育科技有限公司 一种模型训练方法、文本去除方法及相关装置
CN113722466A (zh) * 2021-11-03 2021-11-30 北京世纪好未来教育科技有限公司 批改模型训练方法、批改方法、装置、电子设备和介质

Also Published As

Publication number Publication date
CN113469148B (zh) 2021-11-12

Similar Documents

Publication Publication Date Title
JP7425147B2 (ja) 画像処理方法、テキスト認識方法及び装置
CN113469148B (zh) 一种文本擦除方法及模型的训练方法、装置、存储介质
CN111291629A (zh) 图像中文本的识别方法、装置、计算机设备及计算机存储介质
CN113313083B (zh) 文本检测方法及装置
CN112686243A (zh) 智能识别图片文字的方法、装置、计算机设备及存储介质
CN113763249A (zh) 文本图像超分辨率重建方法及其相关设备
CN113850238B (zh) 文档检测方法、装置、电子设备及存储介质
CN110443235B (zh) 一种智能纸质试卷总分识别方法及系统
CN112070040A (zh) 一种用于视频字幕的文本行检测方法
CN111275051A (zh) 字符识别方法、装置、计算机设备和计算机可读存储介质
CN113420763A (zh) 文本图像处理方法、装置、电子设备及可读存储介质
CN112380978A (zh) 基于关键点定位的多人脸检测方法、系统及存储介质
CN114022887A (zh) 文本识别模型训练及文本识别方法、装置、电子设备
CN115132201A (zh) 唇语识别方法、计算机设备及存储介质
CN114005019B (zh) 一种翻拍图像识别方法及其相关设备
CN115270184A (zh) 视频脱敏、车辆的视频脱敏方法、车载处理系统
CN113269280B (zh) 文本检测方法、装置、电子设备及计算机可读存储介质
CN111274863A (zh) 一种基于文本山峰概率密度的文本预测方法
CN112651399B (zh) 检测倾斜图像中同行文字的方法及其相关设备
CN113516697A (zh) 图像配准的方法、装置、电子设备及计算机可读存储介质
CN113837157B (zh) 题目类型识别方法、系统和存储介质
CN113850239B (zh) 多文档检测方法、装置、电子设备及存储介质
CN115273057A (zh) 文本识别方法、装置和听写批改方法、装置及电子设备
CN113469878B (zh) 一种文本擦除方法及其模型的训练方法、装置、存储介质
CN113052156A (zh) 光学字符识别方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant