CN113887535A - 模型训练方法、文本识别方法、装置、设备和介质 - Google Patents

模型训练方法、文本识别方法、装置、设备和介质 Download PDF

Info

Publication number
CN113887535A
CN113887535A CN202111464610.3A CN202111464610A CN113887535A CN 113887535 A CN113887535 A CN 113887535A CN 202111464610 A CN202111464610 A CN 202111464610A CN 113887535 A CN113887535 A CN 113887535A
Authority
CN
China
Prior art keywords
text
candidate
image
branch
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111464610.3A
Other languages
English (en)
Other versions
CN113887535B (zh
Inventor
秦勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Century TAL Education Technology Co Ltd
Original Assignee
Beijing Century TAL Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Century TAL Education Technology Co Ltd filed Critical Beijing Century TAL Education Technology Co Ltd
Priority to CN202111464610.3A priority Critical patent/CN113887535B/zh
Publication of CN113887535A publication Critical patent/CN113887535A/zh
Application granted granted Critical
Publication of CN113887535B publication Critical patent/CN113887535B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本公开涉及模型训练方法、文本识别方法、装置、设备和介质,包括:利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,第二候选分支采用循环神经网络;基于训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练第二候选模型得到文本识别模型,第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,第三候选分支采用图神经网络,实现快速准确的文本识别。

Description

模型训练方法、文本识别方法、装置、设备和介质
技术领域
本公开涉及文本识别技术领域,尤其涉及模型训练方法、文本识别方法、装置、设备和介质。
背景技术
当前文本识别技术应用范围广泛,是很多计算机视觉任务的前置步骤,例如图像识别、文字识别、身份识别等,文本识别的主要目的是定位文本行或字符在图像中的位置。相较于通用第二识别而言,文本具有多方向、不规则形状、极端长宽比、字体、颜色、背景多样等特点,因此对文本的精准定位既十分重要又具有挑战性。
目前常见的文本检测方法大致包括两类,一类方案是基于自底向上的策略,将识别问题拆分为字符检测、字符识别和字符组合,逐个解决,该方法的优点是识别结果准确,缺点是需要字符级别的标注,即每个字符在输入图像上的位置、以及信息都需要标注,需要耗费大量的人工成本;另一类方案是基于整体分析的策略,即序列到序列的方法,先将图像编码,然后进行序列解码直接得出整个字符串,该方法的优点是标注简单,只需要转录字符串即可,缺点是存在识别结果多识别字符或漏识别字符的情况。
现有的文本识别方法,难以满足实际应用场景的速度需求和精度要求。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种模型训练方法、文本识别方法、装置、设备和介质。
第一方面,本公开提供了文本识别模型训练方法,包括:
利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,所述第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,所述第二候选分支采用循环神经网络;
基于所述训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练所述第二候选模型得到所述文本识别模型,所述第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,所述第三候选分支采用图神经网络。
第二方面,本公开提供了一种文本识别方法,所述方法包括:
获取待识别的文本图像;
将所述待识别的文本图像输入文本识别模型中,并根据所述文本识别模型的输出结果确定所述待识别的文本图像的文本信息;
其中,所述文本识别模型基于如第一方面任一项所述的方法训练得到。
第三方面,本公开提供了一种文本识别模型训练装置,包括:
第一目标分支和第二目标分支确定模块,用于利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支和第二目标分支,所述第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,所述第二候选分支采用循环神经网络;
文本识别模块确定模块,用于基于所述训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练所述第二候选模型得到所述文本识别模型,所述第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,所述第三候选分支采用图神经网络。
第四方面,本公开实施例提供一种文本识别装置,包括:
文本图像获取模块,用于获取待识别的文本图像;
文本信息获取模块,用于将所述待识别的文本图像输入文本识别模型中,并根据所述文本识别模型的输出结果确定所述待识别的文本图像的文本信息;其中,所述文本识别模型基于如第一方面任一项所述的方法训练得到。
第五方面,本公开还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面中任一项所述的模型训练方法,或者执行第二方面中所述的文本识别方法。
第六方面,本公开还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面中任一项所述的模型训练方法,或者执行第二方面中所述的识别方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例提供的文本识别模型训练方法、文本识别方法、装置、设备和介质,利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,第二候选分支采用循环神经网络;基于训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练第二候选模型得到文本识别模型,第二候选分支采用循环神经网络。由于循环神经网络对具有序列特性的数据,能挖掘数据中的时序信息以及语义信息,因此在文本识别上其识别精度较好,但也因为其可以解决序列问题,即当前输出不仅由当前时刻输入层决定,还由上一输出决定,是一个串行处理过程,因此在处理速度上不占优势,而图神经网络在处理速度上更有利,因此将第一候选分支与循环神经网络结合进行训练以调整第一候选分支的参数获得的第一目标分支,将有较好的识别精度,再基于第一目标分支和采用图神经网络的第三候选分支构建第二候选模型来进行训练得到的文本识别模型,既能保证识别精度,也能保证识别速度。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本公开实施例提供的一种文本识别模型训练方法的流程示意图;
图2是本公开实施例提供的另一种文本识别模型训练方法的流程示意图;
图3是本公开实施例提供的又一种文本识别模型训练方法的流程示意图;
图4是本公开实施例提供的又一种文本识别模型训练方法的流程示意图;
图5是本公开实施例提供的又一种文本识别模型训练方法的流程示意图;
图6是本公开实施例提供的又一种文本识别模型训练方法的流程示意图;
图7是本公开实施例提供的又一种文本识别模型训练方法的流程示意图;
图8是本公开实施例提供的一种文本识别方法的流程示意图;
图9是本公开实施例提供的一种文本识别模型训练装置的结构示意图;
图10是本公开实施例提供的一种文本识别装置的结构示意图;
图11是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
下面参照附图描述本公开的方案。
图1是本公开实施例提供的一种文本识别模型训练方法的流程示意图。本实施例方法可由文本识别模型训练装置来执行,该装置可采用硬件/或软件的方式来实现,并可配置于电子设备中。可实现本申请任意实施例所述的文本识别模型训练方法。如图1所示,该方法具体包括如下:
S10、利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支。
其中,第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,第二候选分支采用循环神经网络。
此外,利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支以外,还包括第二目标分支,第一目标分支为第一候选分支训练后对应的分支,第二目标分支为第二候选分支训练后对应的分支。
第一训练样本为样本集中的文本图像,其中文本图像中的文本包括直文本、倾斜文本和弯曲文本等,通过对第一训练样本中的文本图像进行标注得到与第一文本图像对应的文本字符。
需要说明的是,上述实施例提供的第一训练样本中,各文本图像的尺寸大小一致。
S20、基于训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练所述第二候选模型得到文本识别模型。
其中,第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,第三候选分支采用图神经网络。
需要说明的是,上述实施例中,对第一候选模型进行训练的过程中,采用第一预设损失函数更新第一候选分支和第二候选分支的参数梯度,而将训练后的第一目标分支和第三候选分支构成第二候选模型后,第二候选模型进行训练的过程中,第二预设损失函数负责更新第三候选分支的参数梯度。
本公开实施例提供的文本识别模型训练方法,利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,第二候选分支采用循环神经网络;基于训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练第二候选模型得到文本识别模型,第二候选分支采用循环神经网络。由于循环神经网络对具有序列特性的数据,能挖掘数据中的时序信息以及语义信息,因此在文本识别上其识别精度较好,但也因为其可以解决序列问题,即当前输出不仅由当前时刻输入层决定,还由上一输出决定,是一个串行处理过程,因此在处理速度上不占优势,而图神经网络在处理速度上更有利,因此将第一候选分支与循环神经网络结合进行训练以调整第一候选分支的参数获得的第一目标分支,将有较好的识别精度,再基于第一目标分支和采用图神经网络的第三候选分支构建第二候选模型来进行训练得到的文本识别模型,既能保证识别精度,也能保证识别速度。
在本申请的一些实施例中,如图2所示,步骤S10包括:
S11、将第一训练样本中的第一文本图像输入第一候选模型,得到第一预测结果。
其中,第一候选模型包括级联的第一候选分支和第二候选分支,第一候选模型可独立处理不同数据获得文本识别结果。
在本申请的一些实施例中,第一候选分支包括残差网络,第二候选分支包括两层双向长短期记忆网络(Long Short-Term Memory,LSTM)、一层自注意力层和一层门控循环网络(Gated Recurrent Unit networks,GRU)。
S12、基于第一预设损失函数,根据第一预测结果和第一训练样本中的与第一文本图像对应的文本字符,对第一候选模型中的第一候选分支和第二候选分支进行训练,获得第一候选分支经训练后对应的第一目标分支。
具体的,可将第一候选模型输出的第一预测结果与第一样本中的与第一文本图像对应的文本字符进行验证,当第一预设损失函数的损失值满足要求时,获得第一候选分支经训练后对应的第一目标分支。
第一预设损失函数可使用多分类交叉熵损失函数;通过第一预设损失函数使第一候选模型达到收敛状态,减少第一候选模型预测值的误差。
在本申请的一些实施例中,如图3所示,步骤S11的具体实现方式包括:
S110、通过第一候选模型中的第一候选分支对第一文本图像进行第一特征提取,得到第一文本图像对应的第一图像特征。
其中,第一候选分支包括残差网络,残差网络包括依次串联的N个残差块,其中,N为大于1的正整数,第一图像特征为经过残差网络提取的特征映射图。
具体的,通过第一候选模型中的第一候选分支对第一文本图像进行第一特征提取,得到第一文本图像对应的第一图像特征,包括:
拼接前N-1个残差块输出的特征映射,获得拼接特征映射;将拼接特征映射与第N个残差块提取的特征映射进行逐点相加,得到第一图像特征。
示例性的,残差网络包括依次串联的4个残差块,将第一训练样本中的第一文本图像输入第一候选模型后,依次获取4个残差块输出的特征映射,例如获取第一个残差块输出的特征映射通道数为X的特征映射,第二残差块输出的特征映射通道数为X的特征映射,第三残差块输出的特征映射通道数为2X的特征映射,以及第四残差块输出的特征映射通道数为4X的特征映射。
将第一个残差块、第二个残差块和第三个残差块输出的特征映射进行拼接后,与第四个残差块提取的特征映射进行逐点相加,得到第一图像特征。
其中,每个残差块由若干卷积层、归一化和池化层组成,可提取图像的高级语义特征,且残差块提取的特征映射通道数越多,从输入的文本图像中提取的图像特征越多。
需要说明的是,上述实施例中,当残差网络为Resnet18网络时,第一残差块输出特征映射通道数为128的特征映射,对应的,第二残差块输出特征映射通道数为128的特征映射,第三残差块输出特征映射通道数为256的特征映射,第四残差块输出特征映射通道数为512的特征映射。
S111、通过第一候选模型的第二候选分支对第一图像特征进行第二特征提取,得到第二图像特征,并对第二图像特征进行解码转录,得到第一预测文本字符。
其中,第二候选分支包括双向长短期记忆网络、自注意力层和门控循环网络,第二图像特征为经过双向长短期记忆神经网络提取的特征映射图。
具体的,通过第二候选模型的第二候选分支对第一图像特征进行第二特征提取,得到第二图像特征,并对第二图像特征进行解码转录,得到第一预测文本字符,包括:
通过第二候选分支的双向长短期记忆网络对第一图像特征进行第二特征提取,得到与第一图像特征对应的第二图像特征。
第一候选模型的第二候选分支的第一个子部分为常规的两层双向LSTM,它的输入为第一部分输出的第一图像特征,设定其时间步长度为H*W,对每个像素点位置处的第一图像特征做一次特征变换,然后将其输出重新组成(H*W)*512通道的第二图像特征。
其中,H为第一训练样本中第一文本图像对应的高度,W为第一训练样本中第一文本图像对应的宽度。
通过第二候选分支的自注意力层和门控循环网络对第二图像特征进行解码转录,得到第一预测文本字符。
第一候选模型的第二候选分支的第二个子部分使用一个注意力层和一个门控循环网络,其输入接双向长短期记忆网络的输出,对双向长短期记忆网络的输出的第二图像特征进行解码转录,得到第一预测文本字符。
其中,上述实施例中,第一图像特征和第二图像特征可为能够表征第一文本图像的具体语义信息的高维抽象向量。
在本申请的一些实施例中,如图4所示,步骤S12的一种具体可实现方式包括:
S120、基于第一预设损失函数,根据第一预测结果和第一训练样本中与第一文本图像对应的文本字符,确定第一损失值。
第一训练样本中与第一文本图像对应的文本字符为当对训练样本中的第一文本图像进行标注,得到第一标注文本图像后,从第一标注文本图像中获取与当前第一标注文本图像对应的文本字符。
当将训练样本中的第一文本图像输入第一候选模型得到第一预测结果后,判断第一预测结果与第一训练样本中与第一文本图像的文本字符之间的相似度,即基于第一预设损失函数计算第一预测结果和第一训练样本中与第一文本图像对应的文本字符之间的第一损失值。
S121、根据第一损失值调整第一候选模型中的第一候选分支的参数和第二候选分支的参数,直至第一候选模型收敛,获得第一目标分支。
根据确定的第一损失值,调整第一候选模型中的第一候选分支的参数和第二候选分支的参数,直至第一候选模型收敛的具体过程为,通过第一预设损失函数计算第一预测结果与第一文本图像对应的文本字符之间的相似性,当第一预测结果与第一文本图像对应的文本字符之间的相似性满足预设阈值时,则表明第一候选模型收敛,此时第一候选模型收敛时对应的第一候选分支为第一目标分支。
通过第一预设损失值调整第一候选模型的参数,直至模型收敛,提高识别精度。
在本申请的一些实施例中,如图5所示,步骤S20的一种可实现方式包括:
S21、将第二训练样本中的第二文本图像输入第二候选模型,得到第二预测结果。
第二候选模型由第一目标分支和第三候选分支组成。
其中,第三候选分支包括一层图神经网络模块和一层字符转录模块。
利用第一候选模型收敛时得到的第一目标分支与第三候选分支构成第二候选模型,将第二训练样本中的第二文本图像输入第二候选模型,得到第二预测结果。
其中,第二训练样本可以为与第一训练样本相同的样本集,也可以为不同的样本集,本公开实施例不对此进行具体限定。
S22、基于第二预设损失函数,根据第二预测结果和第二训练样本中的与第二文本图像对应的文本字符,对第二候选模型中的第三候选分支进行训练,获得训练后的第三目标分支。
由于采用第一候选模型识别结果准确率较好,但识别速率较慢,为实现识别准确率的基础上提高识别效率。本申请中当利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支得到第一目标分支后,将第一候选模型收敛时得到的第一目标分支与第三候选分支构建第二候选模型,对第二候选模型中的第三候选分支进行训练,获得训练后的第三目标分支。
其中,对第二候选模型进行训练时保持第二候选模型中的第一目标分支参数不变。
第二预设损失函数为第二候选模型是否训练合格的衡量标准,从而,有效保证训练得到的文本识别模型在满足识别精度的同时识别速度。
可将第二候选模型输出的第二预测结果和第二训练样本中的与第二文本图像对应的文本字符进行验证,当第二预设损失函数的损失值满足要求时,得到训练后的第三目标分支。
第二预设损失函数可使用CTC损失函数;通过第二预设损失函数使第二候选模型达到收敛状态,减少第二候选模型预测值的误差。
S23、基于第一目标分支和第三目标分支,生成文本识别模型。
此时,生成的文本识别模型由第一目标分支和第三目标分支组成。
图6是本公开实施例提供的又一种文本识别模型训练方法的流程示意图,本公开实施例是在图5对应的实施例的基础上,如图6所示,步骤S21的具体可实现方式包括:
S210、通过第二候选模型的第一目标分支对第二文本图像进行第三特征提取,得到与第二文本图像对应的第三图像特征。
其中,第三图像特征为经过残差网络提取的特征映射图。
具体的,通过第二候选模型的第一目标分支对第二文本图像进行第三特征提取的过程与通过第一候选模型的第一候选分支对第一文本图像进行第一特征提取的过程相同,此处不再一一赘述。
S211、通过第二候选模型的第三候选分支对第三图像特征进行第四特征提取,得到第四图像特征,并对第四图像特征进行解码转录,得到第二预测文本字符。
其中,第三候选分支包括图神经网络模块和字符转录模块,第四图像特征为经过图神经网络模块提取的特征映射图。
具体的,通过第二候选模型的第三候选分支对第三图像特征进行第四特征提取,得到第四图像特征,并对第四图像特征进行解码转录,得到第二预测文本字符,包括:
通过第三候选分支的图神经网络模块对第三图像特征进行第四特征提取,得到与第三图像特征对应的第四图像特征;通过第三候选分支的字符转录模块对第四图像特征进行解码转录,得到第二预测文本字符。
具体的,通过对第三图像特征中的每个像素点求取该像素点相对其它所有像素点的余弦特征相似度得到相似度矩阵,对特征相似度矩阵进行图卷积处理,得到第四图像特征。
将第三图像特征中每个位置作为一个像素点,每个像素点对应的特征为一个512维的向量,每个像素点与其它像素点对应的特征向量计算一次余弦相似度,得到一个相似度值,最终得到一个(H*W)*(H*W)大小的相似度矩阵,然后将这个矩阵作为拉普拉斯矩阵,进行两次图卷积操作,具体的图卷积操作公式为:h1=sigmoid(L*h0*w0),L指拉普拉斯矩阵,h0指原始的第三图像特征,w0指权重参数,得到一组仍是512通道的特征映射,然后将其拉平为(H*W)*512通道的特征映射,即第四图像特征。
通过第三候选分支的字符转录模块对第四图像特征进行解码转录,得到第二预测文本字符。
在本申请的一些实施例中,如图7所示,步骤S22的具体可实现方式包括:
S220、基于第二预设损失函数,根据第二预测结果和第二训练样本中的与第二文本图像对应的文本字符,确定第二损失值。
第二训练样本中与第二文本图像对应的文本字符为当对训练样本中的第二文本图像进行标注,得到第二标注文本图像后,从第二标注文本图像中获取与当前第二标注文本图像对应的文本字符。
当将训练样本中的第二文本图像输入第二候选模型得到第二预测结果后,判断第二预测结果与第二训练样本中与第二文本图像的文本字符之间的相似度,即基于第二预设损失函数计算第二预测结果和第二训练样本中与第二文本图像对应的文本字符之间的第二损失值。
S221、根据第二损失值调整第二候选模型中的第三候选分支的参数,直至第二候选模型收敛,获得训练后的第三目标分支。
根据确定的第二损失值,调整第二候选模型中的第三候选分支的参数,直至第二候选模型收敛的具体过程为,通过第二预设损失函数计算第二预测结果与第二文本图像对应的文本字符之间的相似性,当第二预测结果与第二文本图像对应的文本字符之间的相似性满足预设阈值时,则表明第二候选模型收敛,此时第二候选模型收敛时对应的第一候选分支为第三目标分支。
通过第二预设损失值调整第二候选模型中第三候选分支的参数,以训练出识别速度快的第三目标分支。
图8是本公开实施例提供的一种文本识别方法的流程示意图。本实施例方法可由文本识别装置来执行,该装置可采用硬件/或软件的方式来实现,并可配置于电子设备中。可实现本申请任意实施例所述的文本识别方法。如图8所示,该方法具体包括如下:
S100、获取待识别的文本图像。
S200、将待识别的文本图像输入文本识别模型中,并根据文本识别模型的输出结果确定待识别的文本图像的文本信息,其中,文本识别模型是由图1到图7任一所示方法训练得到。
本公开实施例提供的文本识别方法,能够快速准确的实现文本识别。
图9是本公开实施例提供的一种文本识别模型训练装置的结构示意图,文本识别模型训练装置包括:
第一目标分支确定模块001,用于利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,第二候选分支采用循环神经网络;
文本识别模块确定模块002,用于基于训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练所述第二候选模型得到文本识别模型,第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,第三候选分支采用图神经网络。
可选的,第一目标分支确定模块包括:
第一预测结果获取单元,用于将第一训练样本中的第一文本图像输入第一候选模型,得到第一预测结果;
第一目标分支确定单元,用于基于第一预设损失函数,根据第一预测结果和第一训练样本中的与第一文本图像对应的文本字符,对第一候选模型中的第一候选分支和第二候选分支进行训练,获得第一候选分支经训练后对应的第一目标分支。
可选的,第一预测结果获取单元包括:
第一图像特征提取单元,用于通过第一候选模型中的第一候选分支对所述第一文本图像进行第一特征提取,得到第一文本图像对应的第一图像特征,其中,第一图像特征为经过残差网络提取的特征映射图;
第一预测文本字符获取单元,用于通过第一候选模型的第二候选分支对第一图像特征进行第二特征提取,得到第二图像特征,并对第二图像特征进行解码转录,得到第一预测文本字符,其中,第二图像特征为经过双向长短期记忆神经网络提取的特征映射图。
可选的,第一图像特征提取单元具体用于:
拼接前N-1个残差块输出的特征映射,获得拼接特征映射;
将拼接特征映射与第N个残差块提取的特征映射进行逐点相加,得到第一图像特征。
可选的,第一预测文本字符获取单元具体用于:
通过第二候选分支的双向长短期记忆网络对所述第一图像特征进行第二特征提取,得到与第一图像特征对应的第二图像特征;
通过第二候选分支的自注意力层和门控循环网络对第二图像特征进行解码转录,得到第一预测文本字符。
可选的,第一目标分支确定单元包括:
第一损失值确定单元,用于基于第一预设损失函数,根据第一预测结果和第一训练样本中与第一文本图像对应的文本字符,确定第一损失值;
第一目标分支获取单元,用于根据第一损失值调整第一候选模型中的第一候选分支的参数和第二候选分支的参数,直至第一候选模型收敛,获得第一目标分支。
可选的,文本识别模型确定模块包括:
第二预测结果获取单元,用于将第二训练样本中的第二文本图像输入第二候选模型,得到第二预测结果;
第三目标分支获取单元,用于基于第二预设损失函数,根据第二预测结果和第二训练样本中的与第二文本图像对应的文本字符,对第二候选模型中的第三候选分支进行训练,获得训练后的第三目标分支;
文本识别模型生成单元,用于基于第一目标分支和第三目标分支,生成文本识别模型。
可选的,第二预测结果获取单元包括:
第三图像特征提取单元,用于通过第二候选模型的第一目标分支对第二文本图像进行第三特征提取,得到与第二文本图像对应的第三图像特征,其中,第三图像特征为经过残差网络提取的特征映射图;
第二预测文本字符获取单元,用于通过第二候选模型的第三候选分支对第三图像特征进行第四特征提取,得到第四图像特征,并对第四图像特征进行解码转录,得到第二预测文本字符,其中,第四图像特征为经过图神经网络提取的特征映射图。
可选的,第二预测文本字符获取单元具体用于:
通过第三候选分支的图神经网络模块对第三图像特征进行第四特征提取,得到与第三图像特征对应的第四图像特征;
通过第三候选分支的字符转录模块对第四图像特征进行解码转录,得到第二预测文本字符。
可选的,通过第三候选分支的图神经网络模块对第三图像特征进行第四特征提取,得到与第三图像特征对应的第四图像特征的具体过程包括:
利用图神经网络模块针对第三图像特征中的每个像素点,求取该像素点相对其它所有像素点的余弦特征相似度,得到相似度矩阵;
对相似度矩阵进行图卷积处理,得到第四图像特征。
可选的,第三目标分支获取单元具体用于:
基于第二预设损失函数,根据第二预测结果和所述第二训练样本中的与第二文本图像对应的文本字符,确定第二损失值;
根据第二损失值调整所述第二候选模型中的第三候选分支的参数,直至第二候选模型收敛,获得训练后的第三目标分支。
本发明实施例所提供的模型训练装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果。
图10是本公开实施例提供的一种文本识别装置的结构示意图,如图10所示,文本识别装置包括:
文本图像获取模块003,用于获取待识别的文本图像;
文本信息获取模块004,用于将待识别的文本图像输入文本识别模型中,并根据文本识别模型的输出结果确定待识别的文本图像的文本信息。
通过本发明实施例的文本识别装置,一方面保证文本识别的识别精度,另一方面保证文本识别的识别效率。
本发明实施例所提供的文本识别装置可执行本发明任意实施例所提供的文本识别方法,具备执行方法相应的功能模块和有益效果。
本公开示例性实施例还提供一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器。所述存储器存储有能够被所述至少一个处理器执行的计算机程序,所述计算机程序在被所述至少一个处理器执行时用于使所述电子设备执行根据本公开实施例的方法。
本公开示例性实施例还提供一种存储有计算机程序的非瞬时计算机可读存储介质,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的方法。
本公开示例性实施例还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的方法。
参考图11,现将描述可以作为本公开的服务器或客户端的电子设备600的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,电子设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
电子设备600中的多个部件连接至I/O接口605,包括:输入单元606、输出单元607、存储单元608以及通信单元609。输入单元606可以是能向电子设备600输入信息的任何类型的设备,输入单元606可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入。输出单元607可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元604可以包括但不限于磁盘、光盘。通信单元609允许电子设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理。例如,在一些实施例中,文本识别模型训练方法或者文本识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到电子设备600上。在一些实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法文本识别模型训练方法或者文本识别方法。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
如本公开使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

Claims (17)

1.一种文本识别模型训练方法,其特征在于,包括:
利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,所述第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,所述第二候选分支采用循环神经网络;
基于所述训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练所述第二候选模型得到所述文本识别模型,所述第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,所述第三候选分支采用图神经网络。
2.根据权利要求1所述的方法,其特征在于,所述利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,包括:
将所述第一训练样本中的第一文本图像输入所述第一候选模型,得到第一预测结果;
基于第一预设损失函数,根据所述第一预测结果和所述第一训练样本中的与所述第一文本图像对应的文本字符,对所述第一候选模型中的第一候选分支和第二候选分支进行训练,获得第一候选分支经训练后对应的第一目标分支。
3.根据权利要求2所述的方法,其特征在于,所述将所述第一训练样本中的第一文本图像输入所述第一候选模型,得到第一预测结果,包括:
通过所述第一候选模型中的第一候选分支对所述第一文本图像进行第一特征提取,得到第一文本图像对应的第一图像特征,其中,所述第一图像特征为经过残差网络提取的特征映射图;
通过所述第一候选模型的第二候选分支对所述第一图像特征进行第二特征提取,得到第二图像特征,并对所述第二图像特征进行解码转录,得到第一预测文本字符,其中,所述第二图像特征为经过双向长短期记忆神经网络提取的特征映射图。
4.根据权利要求3所述的方法,其特征在于,所述第一候选分支包括残差网络,所述残差网络包括依次串联的N个残差块,其中,N为大于1的正整数;
所述通过所述第一候选模型中的第一候选分支对所述第一文本图像进行第一特征提取,得到第一文本图像对应的第一图像特征,包括:
拼接前N-1个残差块输出的特征映射,获得拼接特征映射;
将所述拼接特征映射与第N个残差块提取的特征映射进行逐点相加,得到所述第一图像特征。
5.根据权利要求3所述的方法,其特征在于,所述第二候选分支包括双向长短期记忆网络、自注意力层和门控循环网络;
所述通过所述第一候选模型的第二候选分支对所述第一图像特征进行第二特征提取,得到第二图像特征,并对所述第二图像特征进行解码转录,得到第一预测文本字符,包括:
通过所述第二候选分支的双向长短期记忆网络对所述第一图像特征进行第二特征提取,得到与所述第一图像特征对应的第二图像特征;
通过所述第二候选分支的自注意力层和门控循环网络对所述第二图像特征进行解码转录,得到第一预测文本字符。
6.根据权利要求2所述的方法,其特征在于,所述基于第一预设损失函数,根据所述第一预测结果和所述第一训练样本中的与所述第一文本图像对应的文本字符,对所述第一候选模型中的第一候选分支和第二候选分支进行训练,获得第一候选分支经训练后对应的第一目标分支,包括:
基于第一预设损失函数,根据所述第一预测结果和所述第一训练样本中与所述第一文本图像对应的文本字符,确定第一损失值;
根据所述第一损失值调整所述第一候选模型中的第一候选分支的参数和所述第二候选分支的参数,直至第一候选模型收敛,获得所述第一目标分支。
7.根据权利要求1所述的方法,其特征在于,所述利用第二训练样本训练所述第二候选模型得到所述文本识别模型,包括:
将所述第二训练样本中的第二文本图像输入第二候选模型,得到第二预测结果;
基于第二预设损失函数,根据所述第二预测结果和所述第二训练样本中的与所述第二文本图像对应的文本字符,对所述第二候选模型中的第三候选分支进行训练,获得训练后的第三目标分支;
基于所述第一目标分支和所述第三目标分支,生成所述文本识别模型。
8.根据权利要求7所述的方法,其特征在于,所述将所述第二训练样本中的第二文本图像输入第二候选模型,得到第二预测结果,包括:
通过所述第二候选模型的第一目标分支对所述第二文本图像进行第三特征提取,得到与所述第二文本图像对应的第三图像特征,其中,所述第三图像特征为经过残差网络提取的特征映射图;
通过所述第二候选模型的第三候选分支对所述第三图像特征进行第四特征提取,得到第四图像特征,并对所述第四图像特征进行解码转录,得到第二预测文本字符,其中,所述第四图像特征为经过图神经网络提取的特征映射图。
9.根据权利要求8所述的方法,其特征在于,所述第三候选分支还包括字符转录模块;
所述通过所述第二候选模型的第三候选分支对所述第三图像特征进行第四特征提取,得到第四图像特征,并对所述第四图像特征进行解码转录,得到第二预测文本字符,包括:
通过所述第三候选分支的图神经网络模块对所述第三图像特征进行第四特征提取,得到与所述第三图像特征对应的第四图像特征;
通过所述第三候选分支的字符转录模块对所述第四图像特征进行解码转录,得到第二预测文本字符。
10.根据权利要求9所述的方法,其特征在于,所述通过所述第三候选分支的图神经网络模块对所述第三图像特征进行第四特征提取,得到与所述第三图像特征对应的第四图像特征,包括:
利用所述图神经网络模块针对所述第三图像特征中的每个像素点,求取每一个像素点相对其它所有像素点的余弦特征相似度,得到相似度矩阵;
对所述相似度矩阵进行图卷积处理,得到第四图像特征。
11.根据权利要求7所述的方法,其特征在于,所述基于第二预设损失函数,根据所述第二预测结果和所述第二训练样本中的与所述第二文本图像对应的文本字符,对所述第二候选模型中的第三候选分支进行训练,获得训练后的第三目标分支,包括:
基于第二预设损失函数,根据所述第二预测结果和所述第二训练样本中的与所述第二文本图像对应的文本字符,确定第二损失值;
根据所述第二损失值调整所述第二候选模型中的第三候选分支的参数,直至第二候选模型收敛,获得训练后的第三目标分支。
12.根据权利要求1所述的方法,其特征在于,利用第二训练样本训练所述第二候选模型时保持所述第一目标分支的参数不变。
13.一种文本识别方法,其特征在于,所述方法包括:
获取待识别的文本图像;
将所述待识别的文本图像输入文本识别模型中,并根据所述文本识别模型的输出结果确定所述待识别的文本图像的文本信息;
其中,所述文本识别模型基于如权利要求1至12任一项所述的方法训练得到。
14.一种文本识别模型训练装置,其特征在于,包括:
第一目标分支确定模块,用于利用第一训练样本训练第一候选模型中的第一候选分支和第二候选分支,得到训练后的第一目标分支,所述第一训练样本包括第一文本图像以及第一文本图像对应的文本字符,所述第二候选分支采用循环神经网络;
文本识别模块确定模块,用于基于所述训练后的第一目标分支和第三候选分支构建第二候选模型,并利用第二训练样本训练所述第二候选模型得到所述文本识别模型,所述第二训练样本包括第二文本图像以及第二文本图像对应的文本字符,所述第三候选分支采用图神经网络。
15.一种文本识别装置,其特征在于,包括:
文本图像获取模块,用于获取待识别的文本图像;
文本信息获取模块,用于将所述待识别的文本图像输入文本识别模型中,并根据所述文本识别模型的输出结果确定所述待识别的文本图像的文本信息;其中,所述文本识别模型基于如权利要求1至12任一项所述的方法训练得到。
16.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-12中任一项所述的模型训练方法,或者执行权利要求13中所述的文本识别方法。
17.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-12中任一项所述的模型训练方法,或者执行权利要求13中所述的文本识别方法。
CN202111464610.3A 2021-12-03 2021-12-03 模型训练方法、文本识别方法、装置、设备和介质 Active CN113887535B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111464610.3A CN113887535B (zh) 2021-12-03 2021-12-03 模型训练方法、文本识别方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111464610.3A CN113887535B (zh) 2021-12-03 2021-12-03 模型训练方法、文本识别方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN113887535A true CN113887535A (zh) 2022-01-04
CN113887535B CN113887535B (zh) 2022-04-12

Family

ID=79016385

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111464610.3A Active CN113887535B (zh) 2021-12-03 2021-12-03 模型训练方法、文本识别方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN113887535B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114937267A (zh) * 2022-04-20 2022-08-23 北京世纪好未来教育科技有限公司 文本识别模型的训练方法、装置和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598573A (zh) * 2019-08-21 2019-12-20 中山大学 一种基于多域异质图引导的视觉问题常识推理模型及方法
US20200012876A1 (en) * 2017-09-25 2020-01-09 Tencent Technology (Shenzhen) Company Limited Text detection method, storage medium, and computer device
CN110796133A (zh) * 2018-08-01 2020-02-14 北京京东尚科信息技术有限公司 文案区域识别方法和装置
CN112801095A (zh) * 2021-02-05 2021-05-14 广东工业大学 一种基于注意力机制的图神经网络集装箱文本识别方法
US20210192201A1 (en) * 2019-12-23 2021-06-24 Insurance Services Office, Inc. Computer Vision Systems and Methods for Information Extraction from Text Images Using Evidence Grounding Techniques
CN113704546A (zh) * 2021-08-23 2021-11-26 西安电子科技大学 基于空间时序特征的视频自然语言文本检索方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200012876A1 (en) * 2017-09-25 2020-01-09 Tencent Technology (Shenzhen) Company Limited Text detection method, storage medium, and computer device
CN110796133A (zh) * 2018-08-01 2020-02-14 北京京东尚科信息技术有限公司 文案区域识别方法和装置
CN110598573A (zh) * 2019-08-21 2019-12-20 中山大学 一种基于多域异质图引导的视觉问题常识推理模型及方法
US20210192201A1 (en) * 2019-12-23 2021-06-24 Insurance Services Office, Inc. Computer Vision Systems and Methods for Information Extraction from Text Images Using Evidence Grounding Techniques
CN112801095A (zh) * 2021-02-05 2021-05-14 广东工业大学 一种基于注意力机制的图神经网络集装箱文本识别方法
CN113704546A (zh) * 2021-08-23 2021-11-26 西安电子科技大学 基于空间时序特征的视频自然语言文本检索方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114937267A (zh) * 2022-04-20 2022-08-23 北京世纪好未来教育科技有限公司 文本识别模型的训练方法、装置和电子设备
CN114937267B (zh) * 2022-04-20 2024-04-02 北京世纪好未来教育科技有限公司 文本识别模型的训练方法、装置和电子设备

Also Published As

Publication number Publication date
CN113887535B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
CN111488985A (zh) 深度神经网络模型压缩训练方法、装置、设备、介质
CN114186632B (zh) 关键点检测模型的训练方法、装置、设备、存储介质
CN115063875B (zh) 模型训练方法、图像处理方法、装置和电子设备
CN113627536B (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN113705628B (zh) 预训练模型的确定方法、装置、电子设备以及存储介质
CN113657483A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
CN112966744A (zh) 模型训练方法、图像处理方法、装置和电子设备
CN115631381A (zh) 分类模型训练方法、图像分类方法、装置及电子设备
CN112949818A (zh) 模型蒸馏方法、装置、设备以及存储介质
CN114022887B (zh) 文本识别模型训练及文本识别方法、装置、电子设备
CN113887535B (zh) 模型训练方法、文本识别方法、装置、设备和介质
CN115100659A (zh) 文本识别方法、装置、电子设备和存储介质
CN113688955B (zh) 文本识别方法、装置、设备及介质
CN115222845A (zh) 样式字体图片生成方法、装置、电子设备和介质
CN115147680A (zh) 目标检测模型的预训练方法、装置以及设备
CN114639096A (zh) 文本识别方法、装置、电子设备和存储介质
CN114495101A (zh) 文本检测方法、文本检测网络的训练方法及装置
CN112966592A (zh) 手部关键点检测方法、装置、设备和介质
CN115273148B (zh) 行人重识别模型训练方法、装置、电子设备及存储介质
CN113361621B (zh) 用于训练模型的方法和装置
CN113361575B (zh) 模型训练方法、装置和电子设备
CN113537309B (zh) 一种对象识别方法、装置及电子设备
CN114758331A (zh) 文本识别方法、装置、电子设备和存储介质
CN114330576A (zh) 模型处理方法、装置、图像识别方法及装置
CN112749707A (zh) 利用神经网络进行目标分割的方法、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant