CN109902678A - 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质 - Google Patents

模型训练方法、文字识别方法、装置、电子设备及计算机可读介质 Download PDF

Info

Publication number
CN109902678A
CN109902678A CN201910111764.0A CN201910111764A CN109902678A CN 109902678 A CN109902678 A CN 109902678A CN 201910111764 A CN201910111764 A CN 201910111764A CN 109902678 A CN109902678 A CN 109902678A
Authority
CN
China
Prior art keywords
sample
initial model
model
training
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910111764.0A
Other languages
English (en)
Inventor
吴方印
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN201910111764.0A priority Critical patent/CN109902678A/zh
Publication of CN109902678A publication Critical patent/CN109902678A/zh
Pending legal-status Critical Current

Links

Abstract

本申请实施例公开了模型训练方法、文字识别方法、装置、电子设备及计算机可读介质。该方法的实施例包括:获取样本集;从所述样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型;基于所输入的样本图像的标注序列、初始模型的初始模型输出的信息、初始模型的卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于所述损失值,检测所述初始模型是否训练完成;若是,将训练后的所述初始模型确定为模型。该实施方式能够得到一种可以用于文字识别的模型,该模型有助于提高对中文文字的识别的准确性。

Description

模型训练方法、文字识别方法、装置、电子设备及计算机可读 介质
技术领域
本申请实施例涉及计算机技术领域,具体涉及模型训练方法、文字识别方法、装置、电子设备及计算机可读介质。
背景技术
文字识别(Text recognition),是利用计算机自动识别字符的技术,是人工智能的一个重要领域。人们在生产和生活中,要处理大量的文字。通过文字识别技术,可以减轻人们的劳动,提高处理效率。
相关的文字识别方式,通常使用CTC(Connectionist Temporal Classification,连接时序分类)损失(loss)作为损失函数,利用样本集,对现有的模型结构进行有监督训练,利用训练后的模型进行文字识别。然而,由于中文中的相似文字较多,仅利用CTC loss训练得到的模型不容易识别出相似文字,因而导致识别的准确性较低。
发明内容
本申请实施例提出了模型训练方法、文字识别方法、装置、电子设备及计算机可读介质,以解决现有技术中在对中文文字进行识别时,由于中文中的相似文字较多导致利用CTC loss训练得到的模型识别的准确性较低的技术问题。
第一方面,本申请实施例提供了一种模型训练方法,该方法包括:获取样本集,其中,样本集中的样本包括样本图像和与样本图像中的文字序列对应的标注序列;从样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型,其中,初始模型包括卷积层;基于所输入的样本图像的标注序列、初始模型输出的信息、卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于损失值,检测初始模型是否训练完成;若是,将训练后的初始模型确定为文字识别模型。
在一些实施例中,基于所输入的样本图像的标注序列、初始模型输出的信息、卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值,包括:将初始模型输出的信息和所输入的样本图像的标注序列输入至第一损失函数,得到第一损失值;将卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值;将第一损失值与第二损失值的和作为为所输入的样本的损失值。
在一些实施例中,初始模型通过如下步骤训练得到:将样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型,其中,训练初始模型所使用的损失函数为第一损失函数。
在一些实施例中,在执行训练步骤之后,该方法还包括:响应于确定初始模型未训练完成,基于损失值,更新初始模型中的参数,以及,从样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行训练步骤。
在一些实施例中,第一损失函数为连接时序分类损失函数,第二损失函数为中心损失函数。
在一些实施例中,卷积层通过对Resnet18网络结构改进得到,其中,对Resnet18网络结构的改进包括:对Resnet18网络结构的至少一个卷积层中卷积核的滑动步长进行重新设定、对至少一个卷积层的图像边沿填充方式进行重新设定。
第二方面,本申请实施例提供了一种模型训练装置,该装置包括:获取单元,被配置成获取样本集,其中,样本集中的样本包括样本图像和与样本图像中的文字序列对应的标注序列;训练单元,被配置成从样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型,其中,初始模型包括卷积层;基于所输入的样本图像的标注序列、初始模型输出的信息、卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于损失值,确定初始模型是否训练完成;若是,将训练后的初始模型确定为文字识别模型。
在一些实施例中,训练单元,进一步被配置成:将初始模型输出的信息和所输入的样本图像的标注序列输入至第一损失函数,得到第一损失值;将卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值;将第一损失值与第二损失值的和确定为所输入的样本的损失值。
在一些实施例中,初始模型通过如下步骤训练得到:将样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型,其中,训练初始模型所使用的损失函数为第一损失函数。
在一些实施例中,该装置还包括:执行单元,被配置成响应于确定初始模型未训练完成,基于损失值,更新初始模型中的参数,以及,从样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行训练步骤。
在一些实施例中,第一损失函数为连接时序分类损失函数,第二损失函数为中心损失函数。
在一些实施例中,卷积层通过对Resnet18网络结构改进得到,其中,对Resnet18网络结构的改进包括:对Resnet18网络结构的至少一个卷积层中卷积核的滑动步长进行重新设定、对至少一个卷积层的图像边沿填充方式进行重新设定。
第三方面,本申请实施例提供了一种文字识别方法,包括:接收待进行文字识别的目标图像;将目标图像输入至采用如上述第一方面中的实施例所描述的方法生成的文字识别模型,得到文字识别结果。
第四方面,本申请实施例提供了一种文字识别装置,包括:接收单元,被配置成接收待进行文字识别的目标图像;识别单元,被配置成将目标图像输入至采用如上述第一方面中的实施例所描述的方法生成的文字识别模型,得到文字识别结果。
第五方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述第一方面和第三方面中任一实施例的方法。
第六方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面和第三方面中任一实施例的方法。
本申请实施例提供的模型训练方法、文字识别方法、装置、电子设备及计算机可读介质,通过获取样本集,可以从中提取样本以对初始模型进行训练。其中,样本集中的样本包括样本图像和与样本图像中的文字序列对应的标注序列。这样,将提取的样本输入至初始模型,便可以得到初始模型的初始模型输出的信息和卷积层提取的特征信息序列。然后,基于所输入的样本图像的标注序列、所得到的信息和特征信息序列、预设的第一损失函数和第二损失函数,即可确定损失值。然后,可以基于损失值,确定初始模型是否训练完成。如果初始模型训练完成,就可以将训练后的初始模型确定为文字识别模型。从而,能够得到一种可以用于文字识别的模型。由于在损失值的确定过程中,使用到了两个损失函数,因此,相较于仅使用单一的损失函数,能够结合更多的信息,因而能够提高模型的性能。同时,在损失值的确定过程中,不仅考虑了模型的输出,还结合了卷积层所提取的特征,由于不同的文字具有不同的特征,相似的文字仍具有不同的特征,因此,可以使模型学习到局部特征(即各不同的文字的特征)。当出现相似的文字时,也能够进行准确识别。因此,提高了对中文文字的识别的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是根据本申请的模型训练方法的一个实施例的流程图;
图2是根据本申请的模型训练方法的又一个实施例的流程图;
图3是本申请结合第一损失函数和第二损失函数训练文字识别模型的示意图;
图4是根据本申请的模型训练装置的一个实施例的结构示意图;
图5是根据本申请的文字识别方法的一个实施例的流程图;
图6是根据本申请的文字识别装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,其示出了根据本申请的模型训练方法的一个实施例的流程100。该模型训练方法,包括以下步骤:
步骤101,获取样本集。
在本实施例中,模型训练方法的执行主体(例如服务器等电子设备)可以通过多种方式来获取样本集。例如,执行主体可以通过有线连接方式或无线连接方式,从用于存储样本的另一服务器(例如数据库服务器)中获取存储于其中的现有的样本集。再例如,用户可以通过终端设备(例如图1所示的终端设备101、102、103)来收集样本。这样,上述执行主体可以接收终端所收集的样本,并将这些样本存储在本地,从而生成样本集。
此处,样本集中可以包括大量的样本。其中,样本可以包括样本图像和与样本图像中的文字序列对应的标注序列。需要说明的是,样本图像中的文字序列中可以包含多个文字。其中,文字可以是中文文字(例如汉字、粤语字等)。文字序列中的字数、文字的字体,此处均不作限定。需要指出的是,上述标注序列中的标注可以与文字序列中的文字一一对应。标注可以用于指示和区分文字。
此处,还需要指出的是,样本图像的高度是可以是相同的(例如高度均为32像素),以减少数据的运算量,提高模型训练速度。由于样本图像中的文字序列的文字数量不作限定,因此,样本图像的长度可以是不同的。
步骤102,从样本集中提取样本。
在本实施例中,执行主体可以从步骤101中获取的样本集中提取样本,以及执行步骤103至步骤106的训练步骤。其中,样本的提取方式和提取数量在本申请中并不限制。例如,可以是随机提取至少一个样本,也可以是根据需求,从样本集中筛选出所需要的样本图像,如提取样本图像的清晰度较好(即样本图像的像素较高)的样本。
步骤103,将所提取的样本中的样本图像输入至预先训练的初始模型。
在本实施例中,上述执行主体可以将所提取的样本中的样本图像输入至预先训练的初始模型。其中,上述初始模型可以包括卷积层。
实践中,卷积层可以用于提取图像特征以及将所提取的图像特征汇总为特征信息序列。此处,特征信息可以用向量的形式来表示。特征信息序列中的每一个特征信息可以是从所输入的样本图像中的一个矩形区域中提取的。
具体地,由于样本图像的高度是相同的,因此,初始模型的卷积层对样本图像提取特征,可以是按照样本图像的高度和预设长度、按照从左到右的顺序依次对样本图像中的矩形区域进行特征提取。实践中,所依次进行特征提取的矩形区域可以部分重叠。作为示例,某样本图像的高度为32像素,长度为128像素。则初始模型的卷积层对该样本图像提取特征时,可以以高度32像素、预设长度的矩形区域为单位,从左到右依次对该样本图像中的33矩形区域进行特征提取,得到33个矩形区域的特征信息,最终汇总为特征信息序列。
需要说明的是,上述初始模型除包含上述卷积层外,还可以包含全连接层。实践中,全连接层可以用于将所得到的特征信息序列中的各特征信息进行分类,以确定各特征信息对应的文字。从而,可以确定卷积层从样本图像中所提取的特征信息序列对应的文字序列。此处,全连接层可以是上述初始模型的最后一层。全连接层输出的信息即为上述初始模型所输出的信息。该信息可以是初始模型所预测出的文字序列。
需要说明的是,上述初始模型的卷积层可以通过对Resnet18网络结构(一种常用的卷积神经网络结构)改进得到,其中,对上述Resnet18网络结构的改进可以包括:对Resnet18网络结构的至少一个卷积层(例如第3-5层卷积层)中卷积核的滑动步长进行重新设定、对至少一个卷积层的图像边沿填充方式进行重新设定。具体地,可以将ResNet18网络结构中的第3-5层卷积层的水平滑动步长由1更改为2。即,更改滑动步长后,卷积核在横向滑动时,每隔一列素进行一次卷积计算。此外,还可以将padding的值由0更改为1,以将图像边沿填充一定数量的像素,从而能够对位于图像边界的像素点进行卷积计算。需要说明的是,上述对Resnet18网络结构的改进,可以根据需要进行设定或更改,此处不作限定。此处,通过对ResNet18网络结构进行上述改进,可以使该结构更适应中文文字的特征提取。
在本实施例的一些可选的实现方式中,上述初始模型通过如下步骤训练得到:将上述样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型。这里,训练上述初始模型所使用的损失函数为第一损失函数。
可选的,上述第一损失函数可以使用CTC(Connectionist TemporalClassification,连接时序分类)loss,即连接时序分类损失函数。CTC loss通常可以解决神经网络的标注序列和输出的序列不对齐的问题,因此,训练初始模型时使用CTC loss作为第一损失函数,可以使训练得到的初始模型预测出的文字序列中的文字与标注序列中的标注在位置上对齐。同时,也可以使初始模型具备一定程度的文字识别能力。
步骤104,基于所输入的样本图像的标注序列、初始模型输出的信息、卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值。
在本实施例中,在将所提取的样本中的样本图像输入至上述初始模型之后,上述执行主体可以得到初始模型的初始模型输出的信息和卷积层所提取的特征信息序列。此处,初始模型输出的信息可以是预测出的文字序列。实践中,上述卷积层可以包含一层或多层卷积结构。当上述卷积层包含多层结构时,通常可以将最后一个层卷积结构所提取的特征信息序列作为所述卷积层所提取的特征信息序列。
接着,上述执行主体可以基于所输入的样本图像的标注序列、初始模型输出的信息、卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值。实践中,损失函数(loss function)可以用于衡量损失和错误程度的函数。损失函数是一个非负实值函数。一般情况下,损失函数的值(损失值)越小,模型的鲁棒性就越好。
此处,损失函数的设置可以考虑两部分的损失(例如可以设定为两部分损失之和,或者两部分损失的加权结果)。即,其中一部分损失可以用于估量初始模型预测出的文字序列与标注序列的差异程度。这部分损失可以使用上述第一损失函数确定。实践中,对于所输入的样本,将初始模型输出的信息与该样本的标注序列输入到损失第一损失函数,即可得到这一部分的损失值。另一部分损失可以用于估量同一种汉字特征的差异程度。这部分损失可以使用上述第二损失函数确定。实践中,将上述卷积层提取的特征信息序列输入到上述第二损失函数,即可确定这部分的损失值。
在本实施例的一些可选的实现方式中,上述第一损失函数可以是连接时序分类损失函数(即CTC loss),上述第二损失函数可以是中心损失函数(即Center loss)。需要说明的是,第一损失函数和第二损失函数可以根据实际需求来设置,还可以使用其他形式的损失函数,此处不作限定。
步骤105,基于损失值,检测初始模型是否训练完成。
在本实施例中,上述执行主体可以基于所确定损失值,检测初始模型是否训练完成。作为示例,可以检测损失值是否已收敛。当确定损失值收敛时,则可以确定此时的初始模型已训练完成。例如,可以通过如下方式确定损失值是否收敛:首先将损失值与目标值进行比较。响应于确定损失值小于或等于目标值,可以统计最近的预设数量次(例如近100次)训练步骤所确定的损失值中,小于或等于上述目标值的损失值的数量占该预设数量的比例。在该比例大于或等于预设比例(例如95%)时,可以确定损失值收敛,并认为初始模型训练完成。当上述比例小于上述预设比例时,可以确定损失值未收敛,并认为初始模型未训练完成。需要指出的是,确定损失值是否收敛的方式不限于上述示例,还可以采用其他方式确定损失值是否已收敛。需要指出的是,目标值一般可以用于表示预测值与真实值之间的不一致程度的理想情况。也就是说,当损失值小于或等于目标值时,可以认为预测值接近或近似真实值。目标值可以根据实际需求来设置。
需要说明的是,响应于确定初始模型已训练完成,则可以继续执行步骤106。响应于确定初始模型未训练完成,可以基于所确定的损失值,更新初始模型中的参数,从上述样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行上述训练步骤。此处,可以利用反向传播算法求得损失值相对于模型参数的梯度,而后利用梯度下降算法基于梯度更新模型参数。实践中,反向传播算法(Backpropagation algorithm,BP)是适合于多层神经元网络的一种学习算法。在反向传播过程中,可以逐层求出损失函数对各神经元权值的偏导数,构成目标函数对权值向量的梯度,作为修改权值的依据。梯度下降(Gradient Descent)算法是机器学习领域中常用的求解模型参数的方法。在求解损失函数的最小值时,可以通过梯度下降算法来一步步的迭代求解,得到最小化的损失函数和模型参数值。需要说明的是,上述反向传播算法、梯度下降算法以及机器学习方法是目前广泛研究和应用的公知技术,在此不再赘述。需要指出的是,这里的样本提取方式在本申请中也不限制。例如,在样本集中有大量样本的情况下,执行主体可以从中提取未被提取过的样本。
步骤106,响应于确定初始模型训练完成,将训练后的初始模型确定为文字识别模型。
在本实施例中,响应于确定初始模型训练完成,上述执行主体可以将训练后的初始模型确定为文本识别模型。该文本识别模型可以识别图像中的文本。
本申请的上述实施例提供的方法,通过获取样本集,可以从中提取样本以对初始模型进行训练。其中,样本集中的样本包括样本图像和与样本图像中的文字序列对应的标注序列。这样,将提取的样本输入至初始模型,便可以得到初始模型的初始模型输出的信息和卷积层提取的特征信息序列。然后,基于所输入的样本图像的标注序列、所得到的信息和特征信息序列、预设的第一损失函数和第二损失函数,即可确定损失值。然后,可以基于损失值,确定初始模型是否训练完成。如果初始模型训练完成,就可以将训练后的初始模型确定为文字识别模型。从而,能够得到一种可以用于文字识别的模型,在损失值的确定过程中,使用到了两个损失函数,因此,相较于仅使用单一的损失函数,能够结合更多的信息,因而能够提高模型的性能。同时,在损失值的确定过程中,不仅考虑了模型的输出,还结合了卷积层所提取的特征,由于不同的文字具有不同的特征,相似的文字仍具有不同的特征,因此,可以使模型学习到局部特征(即各不同的文字的特征)。当出现相似的文字时,也能够进行准确识别。因此,提高了对中文文字的识别的准确性。
进一步参考图2,其示出了模型训练方法的又一个实施例的流程200。该模型训练方法的流程200,包括以下步骤:
步骤201,获取样本集。
在本实施例中,模型训练方法的执行主体(例如服务器等电子设备)可以获取样本集。其中,样本可以包括样本图像和与样本图像中的文字序列对应的标注序列。需要说明的是,样本图像中的文字序列中的文字可以是中文文字。文字序列中的字数、文字的字体等不作限定。此处,样本图像的高度是相同的。由于样本图像中的文字序列的文字数量不作限定,因此,样本图像的长度可以是不同的。
步骤202,从样本集中提取样本。
在本实施例中,执行主体可以从步骤201中获取的样本集中提取样本,以及执行步骤203至步骤208的训练步骤。其中,样本的提取方式和提取数量在本申请中并不限制。例如,可以是随机提取至少一个样本,也可以是从中提取样本图像的清晰度较好(即样本图像的像素较高)的样本。
步骤203,将所提取的样本中的样本图像输入至预先训练的初始模型。
在本实施例中,上述执行主体可以将所提取的样本中的样本图像输入至预先训练的初始模型。在将所提取的样本中的样本图像输入上述初始模型后,可以得到上述初始模型输出的信息。该信息可以是初始模型所预测出的文字序列。此处,上述初始模型可以包括卷积层。卷积层可以用于提取图像特征以及将所提取的图像特征汇总为特征信息序列。因此,在输入样本图像后,还可以得到上述多个卷积层中的各卷积层所提取的特征信息序列。
在本实施例中,上述初始模型通过如下步骤训练得到:将上述样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型。这里,训练上述初始模型所使用的损失函数为第一损失函数。此处,上述第一损失函数可以使用CTC loss。CTC loss通常可以解决神经网络的标注序列和输出的序列(即特征信息序列)不对齐的问题,因此,训练初始模型时使用CTCloss作为第一损失函数,可以使训练得到的初始模型预测出的文字序列中的文字与标注序列中的标注在位置上相对应。
此处,上述初始模型的卷积层(即上述待训练模型的卷积层)通过对Resnet18网络结构(一种常用的卷积神经网络结构)改进得到,其中,对上述Resnet18网络结构的改进可以包括:对Resnet18网络结构的至少一个卷积层(例如第3-5层卷积层)中卷积核的滑动步长进行重新设定、对至少一个卷积层的图像边沿填充方式进行重新设定。具体地,可以将ResNet18网络结构中的第3-5层卷积层的水平滑动步长由1更改为2。即,更改滑动步长后,卷积核在横向滑动时,每隔一列素进行一次卷积计算。此外,还可以将padding的值由0更改为1,以将图像边沿填充一定数量的像素,从而能够对位于图像边界的像素点进行卷积计算。需要说明的是,上述对Resnet18网络结构的改进,可以根据需要进行设定或更改,此处不作限定。此处,通过对ResNet18网络结构进行上述改进,可以使该结构更适应中文文字的特征提取。
步骤204,将初始模型输出的信息和所输入的样本图像的标注序列输入至第一损失函数,得到第一损失值。
在本实施例中,在将所提取的样本中的样本图像输入至上述初始模型之后,上述执行主体可以得到初始模型的初始模型输出的信息和卷积层所提取的特征信息序列。上述初始模型输出的信息即为初始模型所预测出的文字序列。此处,上述卷积层可以包含多层卷积结构(例如5层卷积结构)。上述卷积层所提取的特征信息序列可以是最后一层卷积结构所提取的特征信息序列。
接着,上述执行主体可以将初始模型输出的信息和所输入的样本图像的标注序列输入至第一损失函数,得到第一损失值。上述第一损失函数可以用于估量初始模型预测出的文字序列与标注序列的差异程度。第一损失函数的值越大,则初始模型预测出的文字序列与标注序列的差异越大。这里,上述第一损失函数可以是连接时序分类损失函数(即CTCloss)
步骤205,将卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值。
在本实施例中,上述执行主体可以将上述多个卷积层中的卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值。其中,上述第二损失值可以用于估量同一种汉字特征的差异程度。这里,上述第二损失函数可以是中心损失函数(即Centerloss)。
实践中,Center loss可以保证类内的特征距离最小,更接近于类中心。此处,相同的文字可以视为一类。使用Center loss,能够使模型针对不同的文字所提取的特征具有更大差异,针对相同的文字所提取的特征更相似,因此,可以使模型对相同文字所提取的特征更接近。从而,可以识别出相似的字(例如“天”和“夭”)。Center loss的函数式如下:
其中,Lcenter为第二损失值。i为不小于1的整数。m为对每一批次(batch)所输入的样本图像进行特征提取所规划的矩形区域的总数。例如,某一批次输入8张样本图像,对每张样本图像,卷积层按照33个矩形区域分别进行特征提取,则m的值为264。xi为从第i个矩形区域中所提取的特征信息。yi为第i个矩形区域对应的标注所指示的文字。cyi为yi指示的文字的特征信息聚类中心,该特征信息聚类中心可以在初始模型训练过程中由模型自动学习和更新。
步骤206,将第一损失值与第二损失值的和确定为所输入的样本的损失值。
在本实施例中,上述执行主体可以将第一损失值与第二损失值的和确定为所输入的样本的损失值。
步骤207,基于损失值,检测初始模型是否训练完成。
在本实施例中,上述执行主体可以基于所确定损失值,确定初始模型是否训练完成。作为示例,可以确定损失值是否已收敛。当确定损失值收敛时,则可以确定此时的初始模型已训练完成。
需要说明的是,响应于确定初始模型已训练完成,则可以继续执行步骤208。响应于确定初始模型未训练完成,可以基于所确定的损失值,更新初始模型中的参数,从上述样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行上述训练步骤。此处,可以利用反向传播算法求得损失值相对于模型参数的梯度,而后利用梯度下降算法基于梯度更新模型参数。实践中,反向传播算法(Backpropagation algorithm,BP)是适合于多层神经元网络的一种学习算法。在反向传播过程中,可以逐层求出损失函数对各神经元权值的偏导数,构成目标函数对权值向量的梯度,作为修改权值的依据。梯度下降(Gradient Descent)算法是机器学习领域中常用的求解模型参数的方法。在求解损失函数的最小值时,可以通过梯度下降算法来一步步的迭代求解,得到最小化的损失函数和模型参数值。需要指出的是,这里的样本提取方式在本申请中也不限制。例如,在样本集中有大量样本的情况下,执行主体可以从中提取未被提取过的样本。
作为示例,进一步参见图3。图3是结合第一损失函数(此处可以是CTC loss)和第二损失函数(此处可以是Center loss)训练文字识别模型的训练过程的示意图。在图3中,样本图像在输入到模型(模型的卷积层可以通过对Resnet18网络结构改进得到,此处可称为“类Resnet18”网络)之后,模型的卷积层可以对该样本图像提取特征。将模型输出的信息和样本图像的标注序列输入至所述第一损失函数,即可得到损失值。通过该损失值,可以更新模型参数。在逐步将大量的样本图像输入后,模型即可逐步实现特征信息序列与标注序列的对齐。在模型进行初步训练后,继续输入样本图像,将模型输出的信息和样本图像的标注序列输入至所述第一损失函数,同时,将所述卷积层提取的特征信息序列输入至预设的第二损失函数。将两个损失函数的损失值结合之后,通过结合后的损失值更新模型参数,能够使模型在训练过程中针对不同的文字所提取的特征具有更大差异,针对相同的文字所提取的特征更相似。从而,训练完成后的模型,能够使模型减少对相似的中文文字识别错误的概率,提高识别的准确率。
步骤208,响应于确定初始模型训练完成,将训练后的初始模型确定为文字识别模型。
在本实施例中,响应于确定初始模型训练完成,上述执行主体可以将训练后的初始模型确定为文本识别模型。该文本识别模型可以识别图像中的文本。
从图2中可以看出,与图1对应的实施例相比,本实施例中的模型训练方法的流程200涉及了利用CTC loss作为待训练模型的损失函数,训练得到初始模型的步骤。由此,可以使初始模型预测出的文字序列中的文字与标注序列中的标注在位置上对齐。同时,也可以使初始模型具备一定程度的文字识别能力。另外,还涉及了利用CTC loss和Center loss作为初始模型的损失函数,训练得到文字识别模型的步骤。由此,可以使文字识别模型对相同文字的所提取的特征更相近,从而能够对相似的文字加以区分,以及,能够识别出更多、更复杂的中文文字(例如繁体字)。由于中文文字中包含大量相似的字,因此,利用这种方式训练得到的文字识别模型可以减少对相似的中文文字识别错误的概率,提高识别的准确率。
进一步参考图4,作为对上述各图所示方法的实现,本申请提供了一种模型训练装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的模型训练装置400包括:获取单元401,被配置成获取样本集,其中,上述样本集中的样本包括样本图像和与上述样本图像中的文字序列对应的标注序列;训练单元402,被配置成从上述样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型,其中,上述初始模型包括卷积层;基于所输入的样本图像的标注序列、上述初始模型输出的信息、上述卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于上述损失值,确定上述初始模型是否训练完成;若是,将训练后的上述初始模型确定为文字识别模型。
在本实施例的一些可选的实现方式中,上述训练单元402可以进一步被配置成:将上述初始模型输出的信息和所输入的样本图像的标注序列输入至上述第一损失函数,得到第一损失值;将上述卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值;将上述第一损失值与上述第二损失值的和确定为所输入的样本的损失值。
在本实施例的一些可选的实现方式中,上述初始模型可以通过如下步骤训练得到:将上述样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型,其中,训练上述初始模型所使用的损失函数为上述第一损失函数。
在本实施例的一些可选的实现方式中,该装置还包括执行单元(图中未示出)。其中,上述执行单元可以被配置成响应于确定上述初始模型未训练完成,基于上述损失值,更新上述初始模型中的参数,以及,从上述样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行上述训练步骤。
在本实施例的一些可选的实现方式中,上述第一损失函数可以是连接时序分类损失函数,上述第二损失函数可以是中心损失函数。
在本实施例的一些可选的实现方式中,上述卷积层通过对Resnet18网络结构改进得到,其中,对上述Resnet18网络结构的改进包括:对上述Resnet18网络结构的至少一个卷积层中卷积核的滑动步长进行重新设定、对上述至少一个卷积层的图像边沿填充方式进行重新设定。
本申请的上述实施例提供的装置,通过获取单元401获取样本集后,可以从中提取样本以对初始模型进行训练。其中,样本集中的样本包括样本图像和与样本图像中的文字序列对应的标注序列。这样,将训练单元402提取的样本输入至初始模型,便可以得到初始模型的初始模型输出的信息和卷积层提取的特征信息序列。然后,基于所输入的样本图像的标注序列、所得到的信息和特征信息序列、预设的第一损失函数和第二损失函数,即可确定损失值。然后,可以基于损失值,确定初始模型是否训练完成。如果初始模型训练完成,就可以将训练后的初始模型确定为文字识别模型。从而,能够得到一种可以用于文字识别的模型,由于在该模型的训练过程中,损失值通过两个损失函数确定,不仅考虑了初始模型的输出,还考虑了卷积层所提取的特征,因而,在对中文文字识别时,能够准确地提取特征,提高了对中文文字的识别的准确性。
请参见图5,其示出了本申请提供的文字识别方法的一个实施例的流程500。该文字识别方法可以包括以下步骤:
步骤501,接收待进行文字识别的目标图像。
在本实施例中,文字识别方法的执行主体(例如服务器、终端设备等电子设备)可以接收待进行文字识别的目标图像。
步骤502,将目标图像输入至文字识别模型,得到文字识别结果。
在本实施例中,上述执行主体可以将上述目标图像输入至文字识别模型,得到文字识别结果。其中,上述文字识别结果可以包括上述目标图像中的文字序列。上述文字识别模型可以是采用如上述图1实施例或图2实施例所描述的文字识别模型训练方法所训练生成的。具体生成过程可以参见图1实施例或图2实施例的相关描述,此处不再赘述。
需要说明的是,本实施例的文字识别方法可以用于测试上述各实施例所生成的文字识别模型。进而根据测试结果可以不断地优化文字识别模型。该方法也可以是上述各实施例所生成的文字识别模型的实际应用方法。采用上述各实施例所生成的文字识别模型,来进行文字识别,有助于提高文字识别模型的性能。同时,利用上述文字识别模型进行文字识别,提升了文字识别的准确性。
继续参见图6,作为对上述图5所示方法的实现,本申请提供了一种文字识别装置的一个实施例。该装置实施例与图5所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例所述的文字识别装置600包括:接收单元601,被配置成接收待进行文字识别的目标图像;识别单元602,被配置成将上述目标图像输入至文字识别模型,得到文字识别结果。
可以理解的是,该装置600中记载的诸单元与参考图5描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备的计算机系统700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元和训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:从所述样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型;基于所输入的样本图像的标注序列、初始模型的初始模型输出的信息、初始模型的卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于所述损失值,确定所述初始模型是否训练完成;若是,将训练后的所述初始模型确定为文字识别模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种模型训练方法,其特征在于,所述方法包括:
获取样本集,其中,所述样本集中的样本包括样本图像和与所述样本图像中的文字序列对应的标注序列;
从所述样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型,其中,所述初始模型包括卷积层;基于所输入的样本图像的标注序列、所述初始模型输出的信息、所述卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于所述损失值,检测所述初始模型是否训练完成;若是,将训练后的所述初始模型确定为文字识别模型。
2.根据权利要求1所述的模型训练方法,其特征在于,所述基于所输入的样本图像的标注序列、所述初始模型输出的信息、所述卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值,包括:
将所述初始模型输出的信息和所输入的样本图像的标注序列输入至所述第一损失函数,得到第一损失值;
将所述卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值;
将所述第一损失值与所述第二损失值的和作为所输入的样本的损失值。
3.根据权利要求1所述的模型训练方法,其特征在于,所述初始模型通过如下步骤训练得到:
将所述样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型,其中,训练所述初始模型所使用的损失函数为所述第一损失函数。
4.根据权利要求1所述的模型训练方法,其特征在于,在执行所述训练步骤之后,所述方法还包括:
响应于确定所述初始模型未训练完成,基于所述损失值,更新所述初始模型中的参数,以及,从所述样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行所述训练步骤。
5.根据权利要求1所述的模型训练方法,其特征在于,所述第一损失函数为连接时序分类损失函数,所述第二损失函数为中心损失函数。
6.根据权利要求1所述的模型训练方法,其特征在于,所述卷积层通过对Resnet18网络结构改进得到,其中,对所述Resnet18网络结构的改进包括:对所述Resnet18网络结构的至少一个卷积层中卷积核的滑动步长进行重新设定、对所述至少一个卷积层的图像边沿填充方式进行重新设定。
7.一种模型训练装置,其特征在于,所述装置包括:
获取单元,被配置成获取样本集,其中,所述样本集中的样本包括样本图像和与所述样本图像中的文字序列对应的标注序列;
训练单元,被配置成从所述样本集中提取样本,执行如下训练步骤:将所提取的样本中的样本图像输入至预先训练的初始模型,其中,所述初始模型包括卷积层;基于所输入的样本图像的标注序列、所述初始模型输出的信息、所述卷积层提取的特征信息序列、预设的第一损失函数和第二损失函数,确定损失值;基于所述损失值,检测所述初始模型是否训练完成;若是,将训练后的所述初始模型确定为文字识别模型。
8.根据权利要求7所述的模型训练装置,其特征在于,所述训练单元,进一步被配置成:
将所述初始模型输出的信息和所输入的样本图像的标注序列输入至所述第一损失函数,得到第一损失值;
将所述卷积层提取的特征信息序列输入至预设的第二损失函数,得到第二损失值;
将所述第一损失值与所述第二损失值的和作为所输入的样本的损失值。
9.根据权利要求7所述的模型训练装置,其特征在于,所述初始模型通过如下步骤训练得到:
将所述样本集中的样本图像作为输入,将所输入的样本图像对应的标注序列作为输出,利用机器学习方法对预先建立的待训练模型进行训练,得到初始模型,其中,训练所述初始模型所使用的损失函数为所述第一损失函数。
10.根据权利要求7所述的模型训练装置,其特征在于,所述装置还包括:
执行单元,被配置成响应于确定所述初始模型未训练完成,基于所述损失值,更新所述初始模型中的参数,以及,从所述样本集中重新提取样本,使用更新参数后的初始模型作为初始模型,继续执行所述训练步骤。
11.根据权利要求7所述的模型训练装置,其特征在于,所述第一损失函数为连接时序分类损失函数,所述第二损失函数为中心损失函数。
12.根据权利要求7所述的模型训练装置,其特征在于,所述卷积层通过对Resnet18网络结构改进得到,其中,对所述Resnet18网络结构的改进包括:对所述Resnet18网络结构的至少一个卷积层中卷积核的滑动步长进行重新设定、对所述至少一个卷积层的图像边沿填充方式进行重新设定。
13.一种文字识别方法,其特征在于,所述方法包括:
接收待进行文字识别的目标图像;
将所述目标图像输入至采用如权利要求1-6之一所述的方法生成的文字识别模型,得到文字识别结果。
14.一种文字识别装置,其特征在于,所述装置包括:
接收单元,被配置成接收待进行文字识别的目标图像;
识别单元,被配置成将所述目标图像输入至采用如权利要求1-6之一所述的方法生成的文字识别模型,得到文字识别结果。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6、13中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6、13中任一所述的方法。
CN201910111764.0A 2019-02-12 2019-02-12 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质 Pending CN109902678A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910111764.0A CN109902678A (zh) 2019-02-12 2019-02-12 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910111764.0A CN109902678A (zh) 2019-02-12 2019-02-12 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质

Publications (1)

Publication Number Publication Date
CN109902678A true CN109902678A (zh) 2019-06-18

Family

ID=66944769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910111764.0A Pending CN109902678A (zh) 2019-02-12 2019-02-12 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质

Country Status (1)

Country Link
CN (1) CN109902678A (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349147A (zh) * 2019-07-11 2019-10-18 腾讯医疗健康(深圳)有限公司 模型的训练方法、眼底黄斑区病变识别方法、装置及设备
CN110378400A (zh) * 2019-07-08 2019-10-25 北京三快在线科技有限公司 一种用于图像识别的模型训练方法及装置
CN110413812A (zh) * 2019-08-06 2019-11-05 北京字节跳动网络技术有限公司 神经网络模型的训练方法、装置、电子设备及存储介质
CN110472673A (zh) * 2019-07-26 2019-11-19 腾讯医疗健康(深圳)有限公司 参数调整方法、眼底图像处理方法、装置、介质及设备
CN111046784A (zh) * 2019-12-09 2020-04-21 科大讯飞股份有限公司 文档版面分析识别方法、装置、电子设备和存储介质
CN111046027A (zh) * 2019-11-25 2020-04-21 北京百度网讯科技有限公司 时间序列数据的缺失值填充方法和装置
CN111429501A (zh) * 2020-03-25 2020-07-17 贝壳技术有限公司 深度图预测模型生成方法和装置、深度图预测方法和装置
CN111489803A (zh) * 2020-03-31 2020-08-04 重庆金域医学检验所有限公司 基于自回归模型的报告单编码模型生成方法、系统和设备
CN111626383A (zh) * 2020-05-29 2020-09-04 Oppo广东移动通信有限公司 字体识别方法及装置、电子设备、存储介质
CN111626124A (zh) * 2020-04-24 2020-09-04 平安国际智慧城市科技股份有限公司 Ocr图像样本生成、印刷体验证方法、装置、设备及介质
CN111639591A (zh) * 2020-05-28 2020-09-08 深圳地平线机器人科技有限公司 轨迹预测模型生成方法、装置、可读存储介质及电子设备
CN111814906A (zh) * 2020-07-23 2020-10-23 上海东普信息科技有限公司 快递面单识别模型移植方法、装置、设备及存储介质
CN111832290A (zh) * 2020-05-25 2020-10-27 北京三快在线科技有限公司 用于确定文本相关度的模型训练方法、装置、电子设备及可读存储介质
CN112132169A (zh) * 2019-06-25 2020-12-25 富士通株式会社 信息处理装置和信息处理方法
CN112200218A (zh) * 2020-09-10 2021-01-08 浙江大华技术股份有限公司 一种模型训练方法、装置及电子设备
CN112215774A (zh) * 2020-10-13 2021-01-12 北京字节跳动网络技术有限公司 模型训练和图像去雾方法、装置、设备和计算机可读介质
CN112419159A (zh) * 2020-12-07 2021-02-26 上海互联网软件集团有限公司 文字图像超分辨率重建系统及方法
CN112434619A (zh) * 2020-11-26 2021-03-02 新智数字科技有限公司 病例信息提取方法、装置、设备和计算机可读介质
CN112434620A (zh) * 2020-11-26 2021-03-02 新智数字科技有限公司 场景文字识别方法、装置、设备和计算机可读介质
CN112651445A (zh) * 2020-12-29 2021-04-13 广州中医药大学(广州中医药研究院) 基于深度网络多模态信息融合的生物信息识别方法和装置
CN112712121A (zh) * 2020-12-30 2021-04-27 浙江智慧视频安防创新中心有限公司 一种基于深度神经网络的图像识别模型训练方法、装置及存储介质
CN112766051A (zh) * 2020-12-29 2021-05-07 有米科技股份有限公司 基于Attention的图像文字识别方法及装置
CN112818809A (zh) * 2021-01-25 2021-05-18 清华大学 一种检测图像信息的方法、装置和存储介质
CN112819078A (zh) * 2021-02-04 2021-05-18 上海明略人工智能(集团)有限公司 一种识别模型的迭代方法和装置
CN113239807A (zh) * 2021-05-14 2021-08-10 北京百度网讯科技有限公司 训练票据识别模型和票据识别的方法和装置
CN113326833A (zh) * 2021-08-04 2021-08-31 浩鲸云计算科技股份有限公司 一种基于中心损失的文字识别改进训练方法
CN113472791A (zh) * 2021-06-30 2021-10-01 深信服科技股份有限公司 一种攻击检测方法、装置、电子设备及可读存储介质
CN113537123A (zh) * 2021-07-28 2021-10-22 上海高德威智能交通系统有限公司 手势识别方法、装置、电子设备及可读存储介质
CN113609965A (zh) * 2021-08-03 2021-11-05 同盾科技有限公司 文字识别模型的训练方法及装置、存储介质、电子设备
CN113657596A (zh) * 2021-08-27 2021-11-16 京东科技信息技术有限公司 训练模型和图像识别的方法和装置
CN114140603A (zh) * 2021-12-08 2022-03-04 北京百度网讯科技有限公司 虚拟形象生成模型的训练方法和虚拟形象生成方法
CN116363663A (zh) * 2023-04-03 2023-06-30 北京百度网讯科技有限公司 图像处理方法、图像识别方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239733A (zh) * 2017-04-19 2017-10-10 上海嵩恒网络科技有限公司 连续手写字识别方法及系统
CN108229435A (zh) * 2018-02-01 2018-06-29 北方工业大学 一种用于行人识别的方法
CN108427953A (zh) * 2018-02-26 2018-08-21 北京易达图灵科技有限公司 一种文字识别方法及装置
CN108710866A (zh) * 2018-06-04 2018-10-26 平安科技(深圳)有限公司 汉字模型训练方法、汉字识别方法、装置、设备及介质
CN109063706A (zh) * 2018-06-04 2018-12-21 平安科技(深圳)有限公司 文字模型训练方法、文字识别方法、装置、设备及介质
CN109102037A (zh) * 2018-06-04 2018-12-28 平安科技(深圳)有限公司 中文模型训练、中文图像识别方法、装置、设备及介质
CN109146061A (zh) * 2018-08-09 2019-01-04 北京航空航天大学 神经网络模型的处理方法和装置
CN109191453A (zh) * 2018-09-14 2019-01-11 北京字节跳动网络技术有限公司 用于生成图像类别检测模型的方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239733A (zh) * 2017-04-19 2017-10-10 上海嵩恒网络科技有限公司 连续手写字识别方法及系统
CN108229435A (zh) * 2018-02-01 2018-06-29 北方工业大学 一种用于行人识别的方法
CN108427953A (zh) * 2018-02-26 2018-08-21 北京易达图灵科技有限公司 一种文字识别方法及装置
CN108710866A (zh) * 2018-06-04 2018-10-26 平安科技(深圳)有限公司 汉字模型训练方法、汉字识别方法、装置、设备及介质
CN109063706A (zh) * 2018-06-04 2018-12-21 平安科技(深圳)有限公司 文字模型训练方法、文字识别方法、装置、设备及介质
CN109102037A (zh) * 2018-06-04 2018-12-28 平安科技(深圳)有限公司 中文模型训练、中文图像识别方法、装置、设备及介质
CN109146061A (zh) * 2018-08-09 2019-01-04 北京航空航天大学 神经网络模型的处理方法和装置
CN109191453A (zh) * 2018-09-14 2019-01-11 北京字节跳动网络技术有限公司 用于生成图像类别检测模型的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HE K等: "《Deep Residual Learning for Image Recognition》", 《COMPUTER VISION AND PATTERN RECOGNITION》 *
余成波等: "《中心损失与Softmax损失联合监督下的人脸识别》", 《重庆大学学报》 *

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132169B (zh) * 2019-06-25 2023-08-04 富士通株式会社 信息处理装置和信息处理方法
CN112132169A (zh) * 2019-06-25 2020-12-25 富士通株式会社 信息处理装置和信息处理方法
CN110378400A (zh) * 2019-07-08 2019-10-25 北京三快在线科技有限公司 一种用于图像识别的模型训练方法及装置
CN110349147B (zh) * 2019-07-11 2024-02-02 腾讯医疗健康(深圳)有限公司 模型的训练方法、眼底黄斑区病变识别方法、装置及设备
CN110349147A (zh) * 2019-07-11 2019-10-18 腾讯医疗健康(深圳)有限公司 模型的训练方法、眼底黄斑区病变识别方法、装置及设备
CN110472673A (zh) * 2019-07-26 2019-11-19 腾讯医疗健康(深圳)有限公司 参数调整方法、眼底图像处理方法、装置、介质及设备
CN110472673B (zh) * 2019-07-26 2024-04-12 腾讯医疗健康(深圳)有限公司 参数调整方法、眼底图像处理方法、装置、介质及设备
CN110413812B (zh) * 2019-08-06 2022-04-26 北京字节跳动网络技术有限公司 神经网络模型的训练方法、装置、电子设备及存储介质
CN110413812A (zh) * 2019-08-06 2019-11-05 北京字节跳动网络技术有限公司 神经网络模型的训练方法、装置、电子设备及存储介质
CN111046027B (zh) * 2019-11-25 2023-07-25 北京百度网讯科技有限公司 时间序列数据的缺失值填充方法和装置
CN111046027A (zh) * 2019-11-25 2020-04-21 北京百度网讯科技有限公司 时间序列数据的缺失值填充方法和装置
CN111046784A (zh) * 2019-12-09 2020-04-21 科大讯飞股份有限公司 文档版面分析识别方法、装置、电子设备和存储介质
CN111046784B (zh) * 2019-12-09 2024-02-20 科大讯飞股份有限公司 文档版面分析识别方法、装置、电子设备和存储介质
CN111429501A (zh) * 2020-03-25 2020-07-17 贝壳技术有限公司 深度图预测模型生成方法和装置、深度图预测方法和装置
CN111489803A (zh) * 2020-03-31 2020-08-04 重庆金域医学检验所有限公司 基于自回归模型的报告单编码模型生成方法、系统和设备
CN111626124A (zh) * 2020-04-24 2020-09-04 平安国际智慧城市科技股份有限公司 Ocr图像样本生成、印刷体验证方法、装置、设备及介质
CN111832290A (zh) * 2020-05-25 2020-10-27 北京三快在线科技有限公司 用于确定文本相关度的模型训练方法、装置、电子设备及可读存储介质
CN111832290B (zh) * 2020-05-25 2024-04-02 北京三快在线科技有限公司 用于确定文本相关度的模型训练方法、装置、电子设备及可读存储介质
CN111639591A (zh) * 2020-05-28 2020-09-08 深圳地平线机器人科技有限公司 轨迹预测模型生成方法、装置、可读存储介质及电子设备
CN111639591B (zh) * 2020-05-28 2023-06-30 深圳地平线机器人科技有限公司 轨迹预测模型生成方法、装置、可读存储介质及电子设备
CN111626383B (zh) * 2020-05-29 2023-11-07 Oppo广东移动通信有限公司 字体识别方法及装置、电子设备、存储介质
CN111626383A (zh) * 2020-05-29 2020-09-04 Oppo广东移动通信有限公司 字体识别方法及装置、电子设备、存储介质
CN111814906A (zh) * 2020-07-23 2020-10-23 上海东普信息科技有限公司 快递面单识别模型移植方法、装置、设备及存储介质
CN111814906B (zh) * 2020-07-23 2023-07-11 上海东普信息科技有限公司 快递面单识别模型移植方法、装置、设备及存储介质
CN112200218A (zh) * 2020-09-10 2021-01-08 浙江大华技术股份有限公司 一种模型训练方法、装置及电子设备
CN112200218B (zh) * 2020-09-10 2023-06-20 浙江大华技术股份有限公司 一种模型训练方法、装置及电子设备
CN112215774B (zh) * 2020-10-13 2023-09-29 抖音视界有限公司 模型训练和图像去雾方法、装置、设备和计算机可读介质
CN112215774A (zh) * 2020-10-13 2021-01-12 北京字节跳动网络技术有限公司 模型训练和图像去雾方法、装置、设备和计算机可读介质
CN112434619B (zh) * 2020-11-26 2024-03-26 新奥新智科技有限公司 病例信息提取方法、装置、设备和计算机可读介质
CN112434620A (zh) * 2020-11-26 2021-03-02 新智数字科技有限公司 场景文字识别方法、装置、设备和计算机可读介质
CN112434620B (zh) * 2020-11-26 2024-03-01 新奥新智科技有限公司 场景文字识别方法、装置、设备和计算机可读介质
CN112434619A (zh) * 2020-11-26 2021-03-02 新智数字科技有限公司 病例信息提取方法、装置、设备和计算机可读介质
CN112419159A (zh) * 2020-12-07 2021-02-26 上海互联网软件集团有限公司 文字图像超分辨率重建系统及方法
CN112651445A (zh) * 2020-12-29 2021-04-13 广州中医药大学(广州中医药研究院) 基于深度网络多模态信息融合的生物信息识别方法和装置
CN112766051A (zh) * 2020-12-29 2021-05-07 有米科技股份有限公司 基于Attention的图像文字识别方法及装置
CN112712121B (zh) * 2020-12-30 2023-12-05 浙江智慧视频安防创新中心有限公司 一种图像识别模型训练方法、装置及存储介质
CN112712121A (zh) * 2020-12-30 2021-04-27 浙江智慧视频安防创新中心有限公司 一种基于深度神经网络的图像识别模型训练方法、装置及存储介质
CN112818809B (zh) * 2021-01-25 2022-10-11 清华大学 一种检测图像信息的方法、装置和存储介质
CN112818809A (zh) * 2021-01-25 2021-05-18 清华大学 一种检测图像信息的方法、装置和存储介质
CN112819078B (zh) * 2021-02-04 2023-12-15 上海明略人工智能(集团)有限公司 一种图片识别模型的迭代方法和装置
CN112819078A (zh) * 2021-02-04 2021-05-18 上海明略人工智能(集团)有限公司 一种识别模型的迭代方法和装置
CN113239807A (zh) * 2021-05-14 2021-08-10 北京百度网讯科技有限公司 训练票据识别模型和票据识别的方法和装置
CN113239807B (zh) * 2021-05-14 2024-04-02 北京百度网讯科技有限公司 训练票据识别模型和票据识别的方法和装置
CN113472791A (zh) * 2021-06-30 2021-10-01 深信服科技股份有限公司 一种攻击检测方法、装置、电子设备及可读存储介质
CN113537123A (zh) * 2021-07-28 2021-10-22 上海高德威智能交通系统有限公司 手势识别方法、装置、电子设备及可读存储介质
CN113609965B (zh) * 2021-08-03 2024-02-13 同盾科技有限公司 文字识别模型的训练方法及装置、存储介质、电子设备
CN113609965A (zh) * 2021-08-03 2021-11-05 同盾科技有限公司 文字识别模型的训练方法及装置、存储介质、电子设备
CN113326833A (zh) * 2021-08-04 2021-08-31 浩鲸云计算科技股份有限公司 一种基于中心损失的文字识别改进训练方法
CN113657596B (zh) * 2021-08-27 2023-11-03 京东科技信息技术有限公司 训练模型和图像识别的方法和装置
CN113657596A (zh) * 2021-08-27 2021-11-16 京东科技信息技术有限公司 训练模型和图像识别的方法和装置
CN114140603A (zh) * 2021-12-08 2022-03-04 北京百度网讯科技有限公司 虚拟形象生成模型的训练方法和虚拟形象生成方法
CN116363663A (zh) * 2023-04-03 2023-06-30 北京百度网讯科技有限公司 图像处理方法、图像识别方法及装置

Similar Documents

Publication Publication Date Title
CN109902678A (zh) 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质
CN109214343A (zh) 用于生成人脸关键点检测模型的方法和装置
CN109344908A (zh) 用于生成模型的方法和装置
US20190102603A1 (en) Method and apparatus for determining image quality
CN109325541A (zh) 用于训练模型的方法和装置
CN107578017A (zh) 用于生成图像的方法和装置
CN108038469A (zh) 用于检测人体的方法和装置
CN109299716A (zh) 神经网络的训练方法、图像分割方法、装置、设备及介质
CN106951825A (zh) 一种人脸图像质量评估系统以及实现方法
CN108229303A (zh) 检测识别和检测识别网络的训练方法及装置、设备、介质
CN107908789A (zh) 用于生成信息的方法和装置
CN108229341A (zh) 分类方法和装置、电子设备、计算机存储介质、程序
CN106415594A (zh) 用于面部验证的方法和系统
CN109376267A (zh) 用于生成模型的方法和装置
CN108280477A (zh) 用于聚类图像的方法和装置
CN106503742A (zh) 一种可见光图像绝缘子识别方法
CN109145828A (zh) 用于生成视频类别检测模型的方法和装置
CN109214280A (zh) 基于街景的店铺识别方法、装置、电子设备及存储介质
CN111542841A (zh) 一种内容识别的系统和方法
CN110363220A (zh) 行为类别检测方法、装置、电子设备和计算机可读介质
CN109086834A (zh) 字符识别方法、装置、电子设备及存储介质
CN109242043A (zh) 用于生成信息预测模型的方法和装置
CN110084609B (zh) 一种基于表征学习的交易欺诈行为深度检测方法
CN109598671A (zh) 图像生成方法、装置、设备及介质
CN104616005A (zh) 一种领域自适应的人脸表情分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190618

RJ01 Rejection of invention patent application after publication