CN115331237A - 文本识别模型的训练方法、文本识别方法、装置及设备 - Google Patents
文本识别模型的训练方法、文本识别方法、装置及设备 Download PDFInfo
- Publication number
- CN115331237A CN115331237A CN202210729166.1A CN202210729166A CN115331237A CN 115331237 A CN115331237 A CN 115331237A CN 202210729166 A CN202210729166 A CN 202210729166A CN 115331237 A CN115331237 A CN 115331237A
- Authority
- CN
- China
- Prior art keywords
- text recognition
- recognition model
- training
- module
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 230
- 238000000034 method Methods 0.000 title claims abstract description 113
- 230000008569 process Effects 0.000 claims abstract description 36
- 238000004590 computer program Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 12
- 238000013138 pruning Methods 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 19
- 238000005457 optimization Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 6
- 125000004122 cyclic group Chemical group 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了文本识别模型的训练方法、文本识别方法、装置及设备。该文本识别模型训练方法包括:获取第一文本识别模型;对第一文本识别模型进行训练,在第一文本识别模型的训练过程达到第一训练条件的情况下,将解码模块中的网络层减少至目标数量,得到第二文本识别模型;对第二文本识别模型进行训练,在第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换第二文本识别模型中的编码模块,得到第三文本识别模型;对第三文本识别模型进行训练,在第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。本发明对文本识别模型进行多次调整和训练,兼顾模型准确率和大小,提高模型的适用范围。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及文本识别模型的训练方法、文本识别方法、装置及设备。
背景技术
近年来,深度学习技术在很多方面都取得了巨大的成功,尤其是计算机视觉领域。
OCR文本识别任务作为计算机视觉领域的核心问题之一,在现实世界中具有庞大的应用基础,但是由于现有的深度神经网络模型复杂度高、参数量大,限制了其在一些场景和设备上进行部署,无法在确保模型准确率的同时兼顾模型大小。
发明内容
本发明提供了文本识别模型的训练方法、文本识别方法、装置及设备,以解决现有文本识别模型无法在确保模型准确率的同时兼顾模型大小的问题。
根据本发明的一方面,提供了一种文本识别模型的训练方法,其特征在于,包括:
获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块;
对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型;
对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数;
对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
根据本发明的另一方面,提供了一种文本识别方法,其特征在于,包括:
接收待识别图像;
将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于本发明任一实施例所述的文本识别模型训练方法训练得到。
根据本发明的另一方面,提供了一种文本识别模型的训练装置,其特征在于,包括:
第一文本识别模型获取模块用于获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块;
第二文本识别模型获取模块用于对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型;
第三文本识别模型获取模块用于对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数;
文本识别模型获取模块用于对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
根据本发明的另一方面,提供了一种文本识别装置,其特征在于,包括:
图像接收模块用于接收待识别图像;
文本识别模块用于将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于本发明任一实施例所述的文本识别模型训练方法训练得到。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的文本识别模型训练方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的文本识别模型训练方法。
本发明实施例的技术方案,通过对文本识别模型进行多阶段的调整和训练,在确保模型准确率的同时使模型更小,解决了现有文本识别模型无法在确保模型准确率的同时兼顾模型大小的问题,降低了文本识别模型在一些场景和设备上部署的限制,提高文本识别模型的适用范围。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种文本识别模型训练方法的流程图;
图2是本发明实施例一提供的一种文本识别模型的结构示意图;
图3是本发明实施例一提供的一种轻量级文本识别模型的结构示意图;
图4是本发明实施例二提供的一种文本识别方法的流程图;
图5是本发明实施例三提供的一种文本识别模型的训练装置的结构示意图;
图6是本发明实施例四提供的一种文本识别装置的结构示意图;
图7是本发明实施例五提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一文本识别模型”、“第二文本识别模型”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1是本发明实施例一提供的一种文本识别模型训练方法的流程图,本实施例可适用于文本识别模型轻量化的情况,该方法可以由文本识别模型训练装置来执行,该文本识别模型训练装置可以采用硬件和/或软件的形式实现,该文本识别模型训练装置可配置于本发明实施例提供的电子设备中。如图1所示,该方法包括:
S110、获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块。
其中,第一文本识别模型可以是预先构建的文本识别模型,可选的,第一文本识别模型包括编码模块和解码模块,编码模块例如可以是编码器,用于对输入图像进行编码,得到解码模块可以识别的编码特征序列,示例性的,编码模块可以是但不限于resnet18网络等的网络结构,对此不做限定。解码模块例如可以是解码器,用于解码编码模块输出的编码特征,从而实现识别输入图像中的文本信息,示例性的,编码模块可以是但不限于Transformer模型。可选的,编码模块中网络层数大于第一预设值,解码模块中的网络层数大于第二预设值,该第一预设值和第二预设值可根据用户需求设置。本实施例中,获取预先构建第一文本识别模型,用于在第一文本识别模型的基础上,进行网络层的轻量化处理,实现文本识别模型的轻量化。
S120、对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型。
其中,第一训练条件可以是第一文本识别模型的预设训练次数,示例性的,第一文本识别模型的预设训练次数可以是3000个epoch(即使用训练集的全部训练样本在神经网络中进行了一次正向传播和一次反向传播),由本领域技术人员的根据经验或者训练要求设定,这里不做限定。本实施例中,对第一文本识别模型进行训练,在第一文本识别模型的训练过程中第一本识别模型的训练次数达到预设训练次数的情况下,将解码模块中的网络层减少至目标数量,得到第二文本识别模型。可选的,第一训练条件还可以是第一文本识别模型的预设识别准确率,其中,第一文本识别模型的预设识别准确率由本领域技术人员基于任务需求设定,这里不做限定。本实施例中,对第一文本识别模型进行训练,在第一文本识别模型的训练过程中第一本识别模型的准确率达到预设准确率的情况下,将解码模块中的网络层减少至目标数量,得到第二文本识别模型。其中,目标数量是指解码模块中的网络层减少后的数量,也可以理解为解码模块中保留的网络层的数量,可选的,目标数量由本领域技术人员根据对模型大小的需要设定,示例性的,目标数量可以设置为2层,对此不做限定。本实施例中,通过减少解码模块的网络层数,来降低模型的复杂度和参数量,进而压缩文本识别模型的大小,扩大文本识别模型的适用范围。
在上述实施例的基础上,可选的,在对所述第一文本识别模型进行训练之前,所述方法还包括:获取初始训练样本集,其中,所述初始训练样本包括样本图像和文本标签形成的训练数据,所述样本图像为包括文本信息的图像;对所述初始训练样本集中的样本图像进行增强处理,得到各样本图像的增强图像,将所述增强图像与所述样本图像的文本标签形成训练数据,添加到初始训练样本集中,得到增强训练样本集,其中,所述增强训练样本集用于对所述第一文本识别模型。
本实施例中,初始训练样本集是指对文本识别模型进行训练的样本集,初始训练样本集包括样本图像和文本标签形成的训练数据,其中,样本图像是包括文本信息的图像,即携带有字符序列的图像;文本标签形成的训练数据是指样本图像中经文本标签标注过的字符,示例性的,例如中文字符、英文字符、斜体中文字符,带有下划线的字符等。在实际应用中,可以直接获取网络共享的样本图像和文本标签形成的训练数据,例如开源的自然场景中文图片;也可以自行收集样本图像,对样本图像进行统一处理(诸如将收集的样本图像的尺寸都统一缩放至指定大小),得到样本图像样本集。
对初始训练样本集中的样本图像进行增强处理得到对应的增强图像,将增强图像与样本图像的文本标签形成训练数据添加到初始训练样本集中,得到更新的训练样本集,将更新的训练样本集作为增强训练样本集,其中,增强处理可以是颜色变换、降噪、旋转、剪切等图像增强操作,对此不做限定。本实施例中,将增强训练样本集按照第一预设比例分为增强训练集和增强验证集,用增强训练集对第一文本识别模型进行训练,用增强验证集对第一文本识别模型进行验证,其中,第一预设比例根据实际训练环境设定,这里不做限定,示例性的,将增强训练样本集中90%的训练样本作为增强训练集,剩余10%作为增强验证集。
在上述实施例的基础上,可选的,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型,包括:在所述解码模块中随机确定目标数量的网络层,并保持所述目标数量的网络层的网络参数,组成新的解码模块。
其中,新的解码模块是指第一文本识别模型的解码模块中网络层减少至目标数量形成的解码模块,本实施例中,在第一文本识别模型的解码模块中随机确定目标数量的网络层,保持确定的各网络层中的网络参数不变,以目标数量的网络层组成新的解码模块,以新的解码模块替换第一文本识别模型中的解码模块得到第二文本识别模型。
可选的,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型,本实施例中包括:根据所述解码模块中各网络层对应的网络参数,确定各网络层的重要性,根据各网络层的重要性从所述解码模块中各网络层中确定目标数量的网络层,组成新的解码模块。
本实施例中,根据解码模块中各网络层对应的网络参数确定网络层的重要性,可选的,可以获取各网络层对应的权重,基于各网络层的权重确定各网络层的重要性,根据各网络层的重要性从解码模块的网络层中确定目标数量的网络层。可以基于各网络层的权重对各网络层进行重要性排序,将各网络层中重要性靠前的目标数量的网络层确定为新的解码模块的网络层,以目标数量的网络层组成新的解码模块,以新的解码模块替换第一文本识别模型中的解码模块得到第二文本识别模型。本实施例中,根据各网络层的重要性确定目标数量的网络层,进而组成新的解码模块,通过减少解码模块中网络层数,能够降低模型的复杂度和参数量,压缩文本识别模型大小,在扩大文本识别模型的适用范围的同时在一定程度上保证模型识别的准确性。
S130、对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数。
其中,第二训练条件可以是第二文本识别模型的预设训练次数,示例性的,第二文本识别模型的预设训练次数可以是1000个epoch,由本领域技术人员根据经验或者训练要求设定,这里不做限定。本实施例中,基于增强训练样本集对第二文本识别模型进行训练,其中,增强训练样本集与上述第一文本识别模型所用增强训练样本集相同,这里不再赘述。本实施例中,第二文本识别模型中包括已训练完成的编码模块和待训练的解码模块,在对第二文本识别模型的训练过程中,已训练完成的编码模块可得到准确的编码特征,便于对待训练的解码模块进行调节。
在第二文本识别模型的训练次数达到第二文本识别模型的预设训练次数的情况下,用轻量化编码模块替换第二文本识别模型中的编码模块,得到第三文本识别模块,其中,轻量化编码模块可以是基于mobilenetV3、SqueezeNet等轻量化网络的自动编码器,对此不做限定。通过基于轻量化编码模块替换所述第二文本识别模型中的编码模块,可减少编码模块中的网络层数,进一步降低模型的复杂度和参数量,压缩文本识别模型大小。
可选的,第二训练条件还可以是第二文本识别模型的预设识别准确率,其中,第二文本识别模型的预设识别准确率由本领域技术人员基于任务需求设定,这里不做限定。本实施例中,基于初始训练样本集对第二文本识别模型进行训练,在第二文本识别模型的识别准确率达到第二文本识别模型的预设识别准确率的情况下,用轻量化编码模块替换第二文本识别模型中的编码模块,得到第三文本识别模块。本实施例中,通过对第二文本识别模型进行训练,使第二文本识别模型在解码模块网络层数减少的情况下,保证模型识别的准确性。
S140、对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
第三文本识别模型中包括待训练的轻量级编码模块和已训练完成的轻量级解码模块。其中,第三训练条件可以是第三文本识别模型在第二阶段的训练次数,示例性的,第三训练条件可以是500个迭代过程epoch,由本领域技术人员根据经验或者训练要求设定,这里不做限定。可选的,第三训练条件还可以是第三文本识别模型在第二阶段的训练过程中模型识别的准确率。本实施例中,基于增强训练样本集对第三文本识别模型进行第一阶段的训练,其中,增强训练样本集与上述第一文本识别模型、第二文本识别模型所用增强训练样本集相同,这里不再赘述。在第三文本识别模型的训练过程达到第一阶段的训练条件的情况下,用初始学习率小于第三文本识别模型学习率的优化算法替换第三文本识别模型的优化算法,并基于初始训练样本集以及替换后的优化算法对第三文本识别模型进行第二阶段的训练,在新优化算法对应的第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。其中,第一阶段的训练条件可以是第三文本识别模型在第一阶段的训练次数,示例性的,第一阶段的训练次数可以是500个epoch,由本领域技术人员根据经验或者训练要求设定,这里不做限定。本实施例中,将初始训练样本集按照第二预设比例分为初始训练集和初始验证集,用初始训练集对第三文本识别模型进行第二阶段的训练,用初始验证集对第三文本识别模型进行验证,其中,第二预设比例根据实际训练环境设定,这里不做限定,示例性的,将初始训练样本集中90%的训练样本作为初始训练集,剩余10%作为初始验证集。
在上述实施例的基础上,可选的,所述第一文本识别模型和所述第二文本识别模型基于第一学习率进行训练,所述第三文本识别模型基于所述第一学习率和第二学习率分别进行不同阶段的训练,其中,所述第二学习率小于所述第一学习率。
本实施例中,基于优化算法对第一文本识别模型、第二文本识别模型以及第三文本识别模型的不同阶段进行优化训练,可选的,优化算法可以是adadelta、adam、RMSProp等优化算法,对此不做限定。其中,第一文本识别模型、第二文本识别模型以及第三文本识别模型的第一阶段都是以第一学习率为优化算法的固定学习率进行优化训练,第三文本识别模型的第二阶段以第二学习率为优化算法的初始学习率进行优化训练,其中,第二学习率小于第一学习率。示例性的,以adadelta为优化算法,固定学习率为0.001对第一文本识别模型、第二文本识别模型以及第三文本识别模型的第一阶段进行优化训练;以adam为优化算法,初始学习率为0.0001对第三文本识别模型的第二阶段进行优化训练。
在上述实施例的基础上,可选的,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,所述方法还包括:对训练后的第三文本识别模型中各网络层的卷积通道进行剪枝处理。
本实施例中,将训练后的第三文本识别模型中各网络层的卷积通道中各节点的权重的绝对值与预设剪枝阈值比较,在节点的权重绝对值小于预设剪枝阈值的情况下,修剪该节点,并对剪枝后的第三文本识别模型进行权重微调,使第三文本识别模型恢复。其中,预设剪枝阈值是预先设定的判断卷积通道中各节点进行剪枝处理的阈值,可以根据对模型大小的需求设定,这里不做限定。本实施例中,通过剪枝处理,进一步压缩压缩了文本识别模型的大小。
在上述实施例的基础上,可选的,所述文本识别模型中还包括循环网络模块和线性网络模块,其中,循环网络模块设置在所述编码模块和所述解码模块之间,所述线性网络模块设置在所述解码模块之后。
本实施例中,如图2所示,文本识别模型中将初始训练样本集或者增强训练样本集输入编码模块,以编码模块的输出作为循环网络门口的输入,以循环网络模块的输出作为解码模块的输入,以解码模块的输出作为线性网络模块的输入,最后以线性网络模块的输出作为文本识别模型的输出结果。其中,循环网络模块用于根据编码模块输出的特征序列得到特征向量标签分布,示例性的,循环网络模块可以是双向长短词记忆模型(Bi-directional Long Short-Term Memory,Bi-LSTM);线性网络模块用于基于解码模块的输出得到文本识别模型的识别结果。示例性的,图3是本发明实施例一提供的一种轻量级文本识别模型的结构示意图。如图3所示,该轻量级文本识别模型中将待识别图像输入mobile-v3网络进行处理并输出处理结果,将mobile-v3网络的处理结果输入Bi-LSTM模型中进行进一步处理并输出Bi-LSTM模型的处理结果,将Bi-LSTM模型的处理结果输入有2个解码块的Transformer模型中进行解码处理并输出解码结果,然后将解码结果输入2层的线性网络做进一步处理并输出线性网络的处理结果,最后将线性网络的处理结果输入转录层,经转录层得到待识别图像的文本信息。
本实施例的技术方案,通过对文本识别模型中的编码模块和解码模块分步调整和训练,在确保模型识别准确率的同时压缩模型大小,解决了现有文本识别模型无法在确保模型准确率的同时兼顾模型大小的问题,降低了文本识别模型在一些场景和设备上部署的限制,扩大文本识别模型的适用范围。
实施例二
图4是本发明实施例二提供的一种文本识别方法的流程图,本实施例基于本发明任意实施例所提供的文本识别模型的训练方法训练得到的文本识别模型进行文本识别。如图4所示,该方法包括:
S210、接收待识别图像。
S220、将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于本发明任意实施例所述的文本识别模型训练方法训练得到。
其中,待识别图像的文本信息是指进行文本识别的图像中的字符信息,例如单个中文字符、单个英文字符、中文字符串等。本实施例中,将接收的待识别图像输入基于本发明任意实施例提供的文本识别模型训练方法预先训练得到的文本识别模型中,得到待识别图像的文本信息。需要说明的是,本发明实施例中文本识别模型的训练方法参考上述实施例,这里不再赘述。
本实施例的技术方案,通过预先训练的轻量化文本识别模型识别图像,降低了文本识别模型在场景和设备上的限制,提高了文本识别模型适配性。
实施例三
图5是本发明实施例三提供的一种文本识别模型的训练装置的结构示意图。如图5所示,该装置包括:
第一文本识别模型获取模块310用于获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块;
第二文本识别模型获取模块320用于对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型;
第三文本识别模型获取模块330用于对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数;
文本识别模型获取模块340用于对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
在上述实施例的基础上,可选的,在对所述第一文本识别模型进行训练之前,该装置还包括:
初始训练样本集获取模块用于获取初始训练样本集,其中,所述初始训练样本包括样本图像和文本标签形成的训练数据,所述样本图像为包括文本信息的图像;
增强训练样本集获取模块用于对所述初始训练样本集中的样本图像进行增强处理,得到各样本图像的增强图像,将所述增强图像与所述样本图像的文本标签形成训练数据,添加到初始训练样本集中,得到增强训练样本集,其中,所述增强训练样本集用于对所述第一文本识别模型和所述第二文本识别模型进行训练,所述初始训练样本集用于对所述第三文本识别模型进行训练。
在上述实施例的基础上,可选的,第二文本识别模型获取模块320用于在所述解码模块中随机确定目标数量的网络层,并保持所述目标数量的网络层的网络参数,组成新的解码模块。
可选的,第二文本识别模型获取模块320用于据所述解码模块中各网络层对应的网络参数,确定各网络层的重要性,根据各网络层的重要性从所述解码模块中各网络层中确定目标数量的网络层,组成新的解码模块。
在上述实施例的基础上,可选的,所述第一文本识别模型和所述第二文本识别模型基于第一学习率进行训练,所述第三文本识别模型基于所述第一学习率和第二学习率分别进行不同阶段的训练,其中,所述第二学习率小于所述第一学习率。
在上述实施例的基础上,可选的,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,文本识别模型获取模块340还用于对训练后的第三文本识别模型中各网络层的卷积通道进行剪枝处理。
在上述实施例的基础上,可选的,所述文本识别模型中还包括循环网络模块和线性网络模块,其中,循环网络模块设置在所述编码模块和所述解码模块之间,所述线性网络模块设置在所述解码模块之后。
本发明实施例所提供的文本识别模型的训练装置可执行本发明任意实施例所提供的文本识别模型的训练方法,具备执行方法相应的功能模块和有益效果。
实施例四
图6是本发明实施例四提供的一种文本识别装置的结构示意图。如图6所示,该装置包括:
图像接收模块410用于接收待识别图像;
文本识别模块420用于将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于本发明任意实施例所述的文本识别模型训练方法训练得到。
本发明实施例所提供的文本识别装置可执行本发明任意实施例所提供的文本识别方法,具备执行方法相应的功能模块和有益效果。
实施例五
图7是本发明实施例五提供的一种电子设备的结构示意图。电子设备10旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图7所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如文本识别模型的训练方法和/或文本识别方法。
在一些实施例中,文本识别模型的训练方法和/或文本识别方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的文本识别模型的训练方法和/或文本识别方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行文本识别模型的训练方法和/或文本识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的文本识别模型的训练方法和/或文本识别方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
实施例六
本发明实施例六还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机指令,计算机指令用于使处理器执行文本识别模型训练方法,该方法包括:
获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块;对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型;对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数;对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
和/或,执行本发明实施例提供的文本识别方法,该方法包括:
接收待识别图像;将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于本发明任一实施例所述的文本识别模型训练方法训练得到。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种文本识别模型的训练方法,其特征在于,包括:
获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块;
对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型;
对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数;
对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
2.根据权利要求1所述的方法,其特征在于,在对所述第一文本识别模型进行训练之前,所述方法还包括:
获取初始训练样本集,其中,所述初始训练样本包括样本图像和文本标签形成的训练数据,所述样本图像为包括文本信息的图像;
对所述初始训练样本集中的样本图像进行增强处理,得到各样本图像的增强图像,将所述增强图像与所述样本图像的文本标签形成训练数据,添加到初始训练样本集中,得到增强训练样本集,其中,所述增强训练样本集用于对所述第一文本识别模型和所述第二文本识别模型进行训练,所述初始训练样本集用于对所述第三文本识别模型进行训练。
3.根据权利要求1所述的方法,其特征在于,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型,包括:
在所述解码模块中随机确定目标数量的网络层,并保持所述目标数量的网络层的网络参数,组成新的解码模块。
4.根据权利要求1所述的方法,其特征在于,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型,包括:
根据所述解码模块中各网络层对应的网络参数,确定各网络层的重要性,根据各网络层的重要性从所述解码模块中各网络层中确定目标数量的网络层,组成新的解码模块。
5.根据权利要求1所述的方法,其特征在于,所述第一文本识别模型和所述第二文本识别模型基于第一学习率进行训练,所述第三文本识别模型基于所述第一学习率和第二学习率分别进行不同阶段的训练,其中,所述第二学习率小于所述第一学习率。
6.根据权利要求1所述的方法,其特征在于,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,所述方法还包括:
对训练后的第三文本识别模型中各网络层的卷积通道进行剪枝处理。
7.根据权利要求1所述的方法,其特征在于,所述文本识别模型中还包括循环网络模块和线性网络模块,其中,循环网络模块设置在所述编码模块和所述解码模块之间,所述线性网络模块设置在所述解码模块之后。
8.一种文本识别方法,其特征在于,包括:
接收待识别图像;
将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于所述权利要求1-7任一所述的文本识别模型训练方法训练得到。
9.一种文本识别模型的训练装置,其特征在于,包括:
第一文本识别模型获取模块用于获取第一文本识别模型,其中,所述第一文本识别模型中包括编码模块和解码模块;
第二文本识别模型获取模块用于对所述第一文本识别模型进行训练,在所述第一文本识别模型的训练过程达到第一训练条件的情况下,将所述解码模块中的网络层减少至目标数量,得到第二文本识别模型;
第三文本识别模型获取模块用于对所述第二文本识别模型进行训练,在所述第二文本识别模型的训练过程达到第二训练条件的情况下,基于轻量化编码模块替换所述第二文本识别模型中的编码模块,得到第三文本识别模型,其中,所述轻量化编码模块的网络层数小于所述第二文本识别模型中的编码模块的网络层数;
文本识别模型获取模块用于对所述第三文本识别模型进行训练,在所述第三文本识别模型的训练过程达到第三训练条件的情况下,得到训练完成的文本识别模型。
10.一种文本识别装置,其特征在于,包括:
图像接收模块用于接收待识别图像;
文本识别模块用于将所述待识别图像输入至预先训练的文本识别模型中,得到所述待识别图像中的文本信息,其中,所述文本识别模型基于所述权利要求1-7任一所述的文本识别模型训练方法训练得到。
11.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的文本识别模型的训练方法和/或权利要求8所述的文本识别方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的文本识别模型的训练方法和/或权利要求8所述的文本识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210729166.1A CN115331237A (zh) | 2022-06-24 | 2022-06-24 | 文本识别模型的训练方法、文本识别方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210729166.1A CN115331237A (zh) | 2022-06-24 | 2022-06-24 | 文本识别模型的训练方法、文本识别方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115331237A true CN115331237A (zh) | 2022-11-11 |
Family
ID=83916345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210729166.1A Pending CN115331237A (zh) | 2022-06-24 | 2022-06-24 | 文本识别模型的训练方法、文本识别方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115331237A (zh) |
-
2022
- 2022-06-24 CN CN202210729166.1A patent/CN115331237A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113326764B (zh) | 训练图像识别模型和图像识别的方法和装置 | |
CN113313022B (zh) | 文字识别模型的训练方法和识别图像中文字的方法 | |
CN113129870B (zh) | 语音识别模型的训练方法、装置、设备和存储介质 | |
CN113011420B (zh) | 字符识别方法、模型训练方法、相关装置及电子设备 | |
CN113392253B (zh) | 视觉问答模型训练及视觉问答方法、装置、设备及介质 | |
CN112861825B (zh) | 模型训练方法、行人再识别方法、装置和电子设备 | |
CN113889076B (zh) | 语音识别及编解码方法、装置、电子设备及存储介质 | |
CN114445831A (zh) | 一种图文预训练方法、装置、设备以及存储介质 | |
CN114863437B (zh) | 文本识别方法、装置、电子设备和存储介质 | |
CN113792855A (zh) | 一种模型训练及字库建立方法、装置、设备和存储介质 | |
CN113963359B (zh) | 文本识别模型训练方法、文本识别方法、装置及电子设备 | |
CN112559885A (zh) | 地图兴趣点的训练模型确定方法、装置及电子设备 | |
CN116152833B (zh) | 基于图像的表格还原模型的训练方法及表格还原方法 | |
CN115293149A (zh) | 一种实体关系识别方法、装置、设备及存储介质 | |
CN112632227A (zh) | 简历匹配方法、装置、电子设备、存储介质和程序产品 | |
CN115457329A (zh) | 图像分类模型的训练方法、图像分类方法和装置 | |
CN114863182A (zh) | 图像分类方法、图像分类模型的训练方法及装置 | |
CN114549904A (zh) | 视觉处理及模型训练方法、设备、存储介质及程序产品 | |
CN113378921A (zh) | 数据筛选方法、装置及电子设备 | |
CN112651449A (zh) | 确定视频的内容特征的方法、装置、电子设备及存储介质 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN115496916A (zh) | 图像识别模型的训练方法、图像识别方法以及相关装置 | |
CN115631502A (zh) | 文字识别方法、装置、模型训练方法、电子设备及介质 | |
CN115481285A (zh) | 跨模态的视频文本匹配方法、装置、电子设备及存储介质 | |
CN115331237A (zh) | 文本识别模型的训练方法、文本识别方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |