CN113011410A - 字符识别模型的训练方法、字符识别方法及装置 - Google Patents

字符识别模型的训练方法、字符识别方法及装置 Download PDF

Info

Publication number
CN113011410A
CN113011410A CN202110369780.7A CN202110369780A CN113011410A CN 113011410 A CN113011410 A CN 113011410A CN 202110369780 A CN202110369780 A CN 202110369780A CN 113011410 A CN113011410 A CN 113011410A
Authority
CN
China
Prior art keywords
character recognition
training
data set
sample data
training sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110369780.7A
Other languages
English (en)
Inventor
史晓东
白杰
施耀一
张赵晨子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202110369780.7A priority Critical patent/CN113011410A/zh
Publication of CN113011410A publication Critical patent/CN113011410A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)

Abstract

本公开提供了一种字符识别模型的训练方法,应用于人工智能领域、金融领域或其他领域。字符识别模型的训练方法包括获取训练样本数据集,其中,训练样本数据集中的训练样本包括卡图像以及卡图像的标签信息,其中,卡图像包括字符;以及利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型,待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。本公开还提供了一种字符识别方法、字符识别装置、字符识别模型的训练装置、电子设备、计算机可读存储介质及计算机程序产品。

Description

字符识别模型的训练方法、字符识别方法及装置
技术领域
本公开涉及人工智能领域、金融领域或其他领域,更具体地,涉及一种字符识别模型的训练方法、字符识别方法及装置、电子设备、计算机可读存储介质以及计算机程序产品。
背景技术
随着电子商务的兴起,银行卡的使用人群越来越广,而在银行业务中,对银行卡号的录入场景十分常见,然而繁琐的录入银行卡号容易出错,而且效率低,用户体验感很差,因此基于图像识别的银行卡识别技术很有业务价值。
在实现本公开构思的过程中,发明人发现相关技术中存在识别准确率低的问题。
发明内容
有鉴于此,本公开提供了一种字符识别模型的训练方法、字符识别方法及装置。
本公开的一个方面提供了一种字符识别模型的训练方法,包括:
取训练样本数据集,其中,上述训练样本数据集中的训练样本包括卡图像以及上述卡图像的标签信息,其中,上述卡图像包括字符;以及
利用上述训练样本数据集训练待训练的字符识别模型,得到字符识别模型,上述待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。
根据本公开的实施例,上述待训练的字符识别模型通过以下方法构建得到:
将第一注意力模块与卷积神经网络的输出层连接,形成基于注意力模块的卷积神经网络;
将第二注意力模块设置于循环神经网络的隐藏层和输出层之间,形成基于注意力模块的循环神经网络;以及
将上述卷积神经网络、上述第一注意力模块、上述循环神经网络以及上述第二注意力模块依次级联,构成上述待训练的字符识别模型。
根据本公开的实施例,上述第二注意力模块包括多个一维卷积,上述多个一维卷积通过全连接的形式分别与上述隐藏层连接。
根据本公开的实施例,上述利用上述训练样本数据集训练待训练的字符识别模型,得到字符识别模型,包括:
将上述训练样本数据集输入至上述卷积神经网络,输出图像中间特征序列;
将上述图像中间特征序列输入至上述第一注意力模块,输出注意力特征序列;
将上述注意力特征序列输入至上述基于注意力模块的循环神经网络模型,输出预测结果;
将上述预测结果与上述标签信息输入至上述待训练字符识别模型的损失函数,得到损失结果;
根据上述损失结果调整上述基于注意力模块的卷积神经网络的网络参数以及上述基于注意力模块的循环神经网络的网络参数,直至上述损失函数收敛;以及
将上述损失函数收敛时得到的模型作为字符识别模型。
根据本公开的实施例,上述基于注意力模块的循环神经网络包括:第一网络部分和第二网络部分,其中,上述第一网络部分包括输入层与隐藏层;上述第二网络部分包括上述第二注意力模块和输出层;
上述将上述注意力特征序列输入上述基于注意力模块的循环神经网络模型,输出预测结果包括:
将上述注意力特征序列输入至基于注意力模块的循环神经网络的上述第一网络部分,输出第一特征序列;以及
将上述第一特征序列输入至基于注意力模块的循环神经网络的上述第二网络部分,输出预测结果。
根据本公开的实施例,上述获取训练样本数据集包括:
获取初始训练样本数据集,其中上述初始训练样本数据集中包括初始训练样本;
将上述初始训练样本数据集输入至生成对抗网络,输出经扩充后的中间训练样本数据集;
按照预设条件,对上述中间训练样本数据集中的中间训练样本进行筛选处理,得到扩充训练样本数据集,其中,上述扩充训练样本数据集中的扩充训练样本的数量多于上述初始训练样本数据集中的初始训练样本的数量;
对上述扩充训练样本数据集中的扩充训练样本进行二值化处理,以生成灰度训练样本数据集;
对上述灰度训练样本数据集中的灰度训练样本进行去噪及矫正,生成优化训练样本数据集;以及
将上述优化训练样本数据集中的优化训练样本缩放至预设大小,得到训练样本,其中,上述训练样本数据集由上述训练样本组成。
根据本公开的实施例,上述第一注意力模块包括多个卷积核大小为1x1的卷积层。
根据本公开的实施例,上述训练样本为包括银行卡号的卡图像。
本公开的另一个方面提供了一种字符识别方法,包括:
获取待识别的卡图像;以及
利用字符识别模型对上述待识别的卡图像进行识别,得到识别结果,其中,上述字符识别模型通过上述字符识别模型的训练方法训练得到。
本公开的另一个方面提供了一种字符识别装置,包括:
获取模块,用于获取待识别的卡图像;以及
字符识别模块,用于利用字符识别模型对上述待识别的卡图像进行识别,得到识别结果,其中,上述字符识别模型通过上述字符识别模型的训练方法训练得到。
本公开的另一个方面提供了一种字符识别模型的训练装置,包括:
样本获取模块,用于获取训练样本数据集,其中,上述训练样本数据集中的训练样本包括卡图像以及上述卡图像的标签信息,其中,上述卡图像包括字符;以及
训练模块,用于利用上述训练样本数据集训练待训练的字符识别模型,得到字符识别模型,上述待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。
本公开的另一方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个指令,其中,当上述一个或多个指令被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如上所述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,上述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序产品,上述计算机程序产品包括计算机可执行指令,上述指令在被执行时用于实现如上所述的方法。
根据本公开的实施例,将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到字符识别模型,通过对待训练字符识别模型进行训练,训练得到的字符识别模型对银行卡等卡片具有识别准确度高的特点,所以至少部分地克服了相关技术中存在的识别准确度低技术问题,进而达到了提高识别准确度的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了可以应用本公开的用于字符识别模型的训练方法、字符识别方法及装置的示例性系统架构;
图2示意性示出了根据本公开实施例的字符识别模型的训练方法流程图;
图3示意性示出了根据本公开实施例的待训练的字符识别模型的构建方法的流程图;
图4示意性示出了根据本公开实施例的第二注意力模块与循环神经网络的隐藏层的连接关系示意图;
图5示意性示出了根据本公开实施例的利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型的流程图;
图6示意性示出了根据本公开实施例的利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型的示意图;
图7示意性示出了根据本公开实施例的将图像中间特征序列输入至第一注意力模块,输出注意力特征序列的示意图;
图8示意性示出了根据本公开实施例的将注意力特征序列输入基于注意力模块的循环神经网络模型,输出预测结果的流程图;
图9示意性示出了根据本公开实施例的获取训练样本数据集的流程图;
图10示意性示出了根据本公开实施例的字符识别方法的流程图;
图11示意性示出了根据本公开实施例的识别装置的框图;
图12示意性示出了根据本公开实施例的字符识别模型训练装置的框图;以及
图13示意性示出了根据本公开实施例的适于实现上文描述的方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在实现本公开的过程中发现,相关技术中的图像识别方法一般是基于深度学习的光学字符识别技术(OCR)。例如,基于CRNN的识别算法是将输入图像经过卷积神经网络和循环神经网络后输出字符序列,然而这种识别方法存在准确率低的问题。
本公开提供了一种字符识别模型的训练方法,可以应用于金融领域,也可以用于除金融领域之外的任意领域,本公开实施例对应用领域不作限定。字符识别模型的训练方法包括获取训练样本数据集,其中,训练样本数据集中的训练样本包括卡图像以及卡图像的标签信息,其中,卡图像包括字符;以及利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型,待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。本公开还提供了一种字符识别方法、字符识别装置、字符识别模型的训练装置、电子设备、计算机可读存储介质及计算机程序产品。
图1示意性示出了根据本公开实施例的可以应用字符识别模型的训练方法、字符识别方法及装置的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的字符识别模型的训练方法一般可以由服务器105执行。相应地,本公开实施例所提供的字符识别模型的训练装置一般可以设置于服务器105中。本公开实施例所提供的字符识别模型的训练方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的字符识别模型的训练装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。或者,本公开实施例所提供的字符识别模型的训练方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本公开实施例所提供的字符识别模型的训练装置也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。
例如,待处理卡图像可以原本存储在终端没备101、102、或103中的任意一个(例如,终端设备101,但不限于此)之中,或者存储在外部存储设备上并可以导入到终端设备101中。然后,终端设备101可以在本地执行本公开实施例所提供的字符识别模型的训练方法,或者将待处理卡图像发送到其他终端设备、服务器、或服务器集群,并由接收该待处理卡图像的其他终端设备、服务器、或服务器集群来执行本公开实施例所提供的字符识别模型的训练方法。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的字符识别模型的训练方法的流程图。
需要说明的是,本公开实施例中的流程图所示的操作除非明确说明不同操作之间存在执行的先后顺序,或者不同操作在技术实现上存在执行的先后顺序,否则,多个操作之间的执行顺序可以不分先后,多个操作也可以同时执行。
如图2所示,该方法包括操作S201~S202。
在操作S201,获取训练样本数据集,其中,训练样本数据集中的训练样本包括卡图像以及卡图像的标签信息,其中,卡图像包括字符。
根据本公开的实施例,卡图像中的字符区域占整个卡图像面积的比例可以超过预设比例,预设比例可以根据实际需要灵活设置,本公开的实施例对此不做限制。
根据本公开的实施例,预设比例例如可以是百分之八十五,但不限于此,还可以是百分之八十,或者百分之九十。随着预设比例的增大,卡图像中的噪声将会变少,但是预设比例较大时对卡图像的要求较高,训练样本数据集的获取较为困难。
根据本公开的实施例,在获取卡图像的同时,还可以获取与卡图像同一名称不同后缀的标注文件,该标注文件中存储有卡图像中对应的字符的内容,即卡图像的标签信息。
在操作S202,利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型,待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。
根据本公开的实施例,可以将训练样本数据集中的训练样本输入至待训练的字符识别模型中,以对待训练的字符识别模型进行训练。
根据本公开的实施例,卡图像例如可以是银行卡图像,也可以是其他任何包括字符的卡图像,例如,可以是包括数字编号的会员卡图像等。
本公开的实施例提供了一种字符识别模型的训练方法,通过在卷积神经网络中引入注意力模块,从而卡图像中的字符区域会得到更大的权重,避免噪声的干扰,进而提升了字符识别模型的特征提取能力;此外,在循环神经网络中引入了注意力模块,从而提高了字符识别模型的记忆能力,提升了前后字符的联结能力,进而提高了字符识别的准确率。
下面参考图3~图8,结合具体实施例对图2所示的方法做进一步说明。
图3示意性示出了根据本公开实施例的待训练的字符识别模型的构建方法。
如图3所示,该方法包括操作S301~S303。
在操作S301,将第一注意力模块与卷积神经网络的输出层连接,形成基于注意力模块的卷积神经网络。
在操作S303,将第二注意力模块设置于循环神经网络的隐藏层和输出层之间,形成基于注意力模块的循环神经网络。
在操作S303,将卷积神经网络、第一注意力模块、循环神经网络以及第二注意力模块依次级联,构成待训练的字符识别模型。
根据本公开的实施例,第二注意力模块可以包括多个一维卷积,多个一维卷积通过全连接的形式分别与隐藏层连接。
图4示意性示出了第二注意力模块与循环神经网络的隐藏层的连接关系示意图。其中,a1、a2、a3和a4可以分别表示循环神经网络的最后一层隐藏层的输出神经元,b1、b2和b3可以分别表示第二注意力模块的第一卷积、第二卷积和第三卷积。需要说明的是,图4示出的循环神经网络的隐藏层的神经元个数以及第二注意力模块的一维卷积的个数均仅作为示例,而非用于对本公开做任何限制。
根据本公开的实施例,第一卷积b1可以与输出神经元a1、a2、a3和a4分别连接;第二卷积b2可以与输出神经元a1、a2、a3和a4分别连接;第三卷积b3可以与输出神经元a1、a2、a3和a4分别连接。从而,第二注意力模块的多个一维卷积与循环神经网络的隐藏层分别通过全连接的形式连接。
根据本公开的实施例,第二注意力模块还可以包括隐藏层,第二注意力模块的多个一维卷积可以分别与第二注意力模块的隐藏层通过全连接的形式连接。
根据本公开的实施例,由于第二注意力模块包括隐藏层,因此当数据输入第二注意力模块后,将会在第二注意力模块的隐藏层生成一个权重矩阵,这个权重矩阵与循环神经网络的最后一层隐藏层的参数相叠加,从而影响循环神经网络的输出。
根据本公开的实施例,通过将第二注意力模块引入循环神经网络中,从而提高了模型的记忆能力,提升了前后字符的联结能力,进而提高了字符识别的准确率。
根据本公开的实施例,第一注意力模块包括多个卷积核大小为1x1的卷积层。
根据本公开的实施例,通过在第一注意力模块中设置多个卷积核大小为1x1的卷积层,可以过滤掉卷积神经网络在进行特征提取时提取到的噪声,提升了字符识别模型的特征提取能力。
根据本公开的实施例,本公开并未对第一注意力模块的通道数以及第二注意力模块的通道数和神经元数量做任何限制。通过调整第一注意力模块的通道数和第二注意力模块的通道数和神经元数量,本公开实施例提供的第一注意力模块和第二注意力模块可以适用于任何卷积神经网络和循环神经网络。
图5示意性示出了根据本公开的实施例的利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型的流程图。
图6示意性示出了根据本公开实施例的利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型的示意图。
如图5所示,并参照图6,该方法包括操作S501~S506。
在操作S501,将训练样本数据集输入至卷积神经网络,输出图像中间特征序列。
根据本公开的实施例,利用卷积神经网络对训练样本数据集中的训练样本进行特征提取,将卡图像转换为图像中间特征序列。
根据本公开的实施例,利用卷积神经网络对训练样本数据集中的训练样本进行特征提取后得到的图像中间特征序列中,包括较多的噪声,例如卡图像中的空白区域。若将图像中间特征序列直接输入至循环神经网络进行识别,则会造成识别准确率较低的问题,因此,可以将图像中间特征序列输入至第一注意力模块,进行进一步的特征提取。
在操作S502,将图像中间特征序列输入至第一注意力模块,输出注意力特征序列。
图7示意性示出了将图像中间特征序列输入至第一注意力模块,输出注意力特征序列的示意图。其中,c1可以为图像中间特征序列;d1、d2和d3可以为第四卷积、第五卷积和第六卷积;e可以为注意力特征图。需要说明的是,图7示出的图像中间特征序列的个数以及第一注意力模块的卷积的个数以及注意力特征图的个数均仅作为示例,而非用于对本公开做任何限制。
参照图7,将训练样本数据集输入至卷积神经网络后,输出图像中间特征序列;图像中间特征序列分别经过第四卷积和第五卷积处理后,将分别经过第四卷积和第五卷积处理后的图像中间特征序列进行矩阵乘运算,得到待处理特征序列;图像中间特征序列经过第五卷积处理后,将经过第五卷积处理的图像中间特征序列与待处理特征序列进行矩阵乘运算,最终得到注意力特征序列。
利用第一注意力模块对图像中间特征序列进行处理之后,卡图像中的字符区域将会获得更大的权重,避免了其它干扰,从而提高了字符识别模型的特征提取能力。
在操作S503,将注意力特征序列输入至基于注意力模块的循环神经网络模型,输出预测结果。
在操作S504,将预测结果与标签信息输入至待训练字符识别模型的损失函数,得到损失结果。
根据本公开的实施例,损失函数可以包括如下等式(1)。
Loss=-∑x[logp(y|f(x))]; (1)
其中,y表示标签信息,x表示训练样本,f(·)表示字符预测模型。
在操作S505,根据损失结果调整基于注意力模块的卷积神经网络的网络参数以及基于注意力模块的循环神经网络的网络参数,直至损失函数收敛。
根据本公开的实施例,字符识别模型可以根据损失结果,通过反向传播机制来调整基于注意力模块的卷积神经网络的网络参数以及基于注意力模块的循环神经网络的网络参数,直至损失函数收敛。
在操作S506,将损失函数收敛时得到的模型作为字符识别模型。
根据本公开实施例,基于注意力模块的循环神经网络包括:第一网络部分和第二网络部分,其中,第一网络部分包括输入层与隐藏层;第二网络部分包括第二注意力模块和输出层。
图8示意性示出了根据本公开的实施例的将注意力特征序列输入基于注意力模块的循环神经网络模型,输出预测结果的流程图。
如图8所示,该方法包括操作S801~S802。
在操作S801,将注意力特征序列输入至基于注意力模块的循环神经网络的第一网络部分,输出第一特征序列。
在操作S802,将第一特征序列输入至基于注意力模块的循环神经网络的第二网络部分,输出预测结果。
根据本公开的实施例,将基于注意力模块的循环神经网络的第一网络部分输出的第一特征序列,进一步输入到包括第二注意力模块的第二网络部分,从而提高了循环神经网络的记忆能力,同时提升了前后字符的联结能力,增加了字符预测的准确率。
图9示意性示出了根据本公开的实施例的获取训练样本数据集的流程图。
如图9所示,该方法包括操作S901~S906。
在操作S901,获取初始训练样本数据集,其中初始训练样本数据集中包括初始训练样本。
根据本公开的实施例,初始训练样本数据集中可以包括初始训练样本,还可以包括初始训练样本的标签信息。
在操作S902,将初始训练样本数据集输入至生成对抗网络,输出经扩充后的中间训练样本数据集。
根据本公开的实施例,由于训练一个识别效果良好的字符识别模型需要大量的训练样本,同时为了提升字符识别模型的鲁棒性,本公开创新使用生成对抗网络,对初始训练样本数据集进行图像增强。
根据本公开的实施例,可以先用初始训练样本数据集中的部分初始训练样本来训练生成对抗网络,然后利用训练好的生成对抗网络来生成更多的训练样本。但不限于此,还可以直接使用现有的生成对抗网络,用于生成更多的训练样本。
根据本公开的实施例,生成对抗网络可以包括BigGAN模型。
在操作S903,按照预设条件,对中间训练样本数据集中的中间训练样本进行筛选处理,得到扩充训练样本数据集,其中,扩充训练样本数据集中的扩充训练样本的数量多于初始训练样本数据集中的初始训练样本的数量。
根据本公开的实施例,扩充训练样本数据集中的扩充训练样本的数量可以为初始训练样本数据集中的初始训练样本的数量的五倍。
根据本公开的实施例,通过利用生成对抗网络对初始训练样本数据集进行图像增强,可以增加用于训练待训练字符识别模型的训练样本的数量,提高字符识别模型的训练质量,增强了字符识别模型的鲁棒性。
根据本公开的实施例,可以根据分辨率对中间训练样本数据集中的中间训练样本进行筛选处理。例如,确定初始训练样本的分辨率为r,将中间训练样本数据集中的分辨率小于r的百分之八十五的中间训练样本进行清洗,从而可以剔除分辨率质量较差的中间训练样本。
在操作S904,对扩充训练样本数据集中的扩充训练样本进行二值化处理,以生成灰度训练样本数据集。
在操作S905,对灰度训练样本数据集中的灰度训练样本进行去噪及矫正,生成优化训练样本数据集。
在操作S906,将优化训练样本数据集中的优化训练样本缩放至预设大小,得到训练样本,其中,训练样本数据集由训练样本组成。
根据本公开的实施例,得到扩充训练样本数据集后,可以对扩充训练样本数据集中的扩充训练样本进行二值化处理、去噪以及矫正,但不限于此,还可以对扩充训练样本数据集中的扩充训练样本进行翻转、平移、调整RGB各通道权重以及旋转中的任意一种或多种。
根据本公开的实施例,可以将优化训练样本缩放至预设大小,例如100*32像素,以适应后续使用的卷积神经网络。
根据本公开的实施例,训练样本为包括银行卡号的卡图像。
图10示意性示出了根据本公开的实施例的字符识别方法的流程图。
如图10所示,该方法包括操作S1001~S1002。
在操作S1001,获取待识别的卡图像。
在操作S1002,利用字符识别模型对待识别的卡图像进行识别,得到识别结果,其中,字符识别模型通过本公开实施例提供的字符识别模型的训练方法训练得到。
根据本公开的实施例,获取待识别的卡图像可以包括获取初始待时别的卡图像,以及对初始待时别的卡图像进行预处理,得到待识别的卡图像。
根据本公开的实施例,对初始待识别的卡图像进行预处理可以包括二值化、去噪、矫正、翻转、平移、缩放至预设大小以及旋转中的任意一种或多种。
图11示意性示出了根据本公开的实施例的识别装置1100的框图。
如图11所示,识别装置包括获取模块1101和字符识别模块1102。
获取模块1101,用于获取待识别的卡图像。
字符识别模块1102,用于利用字符识别模型对所述待识别的卡图像进行识别,得到识别结果,其中,字符识别模型通过本公开实施例提供的字符识别模型的训练方法训练得到。图12示意性示出了根据本公开的实施例的字符识别模型的训练装置1200的框图。
如图12所示,字符识别模型的训练装置包括样本获取模块1201和训练模块1202。
样本获取模块1201,用于获取训练样本数据集,其中,训练样本数据集中的训练样本包括卡图像以及所述卡图像的标签信息,其中,卡图像包括字符。
训练模块1202,用于利用训练样本数据集训练待训练的字符识别模型,得到字符识别模型,待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。
根据本公开的实施例,待训练的字符识别模型还包括第一连接模块、第二连接模块和级联模块。
第一连接模块,用于将第一注意力模块与卷积神经网络的输出层连接,形成基于注意力模块的卷积神经网络。
第二连接模块,用于将第二注意力模块设置于循环神经网络的隐藏层和输出层之间,形成基于注意力模块的循环神经网络。以及
级联模块,用于将第一注意力模块、卷积神经网络、循环神经网络以及第二注意力模块依次级联,构成待训练的字符识别模型。
根据本公开的实施例,第二注意力模块包括多个一维卷积,多个一维卷积通过全连接的形式分别与隐藏层连接。
根据本公开的实施例,训练模块1202包括第一处理单元、第二处理单元、结果输出单元、损失计算单元、调整单元以及确定单元。
第一处理单元,用于将训练样本数据集输入至卷积神经网络,输出图像中间特征序列。第二处理单元,用于将图像中间特征序列输入至第一注意力模块,输出注意力特征序列。
结果输出单元,用于将注意力特征序列输入至基于注意力模块的循环神经网络模型,输出预测结果。
损失计算单元,用于将预测结果与标签信息输入至待训练字符识别模型的损失函数,得到损失结果。
调整单元,用于根据损失结果调整基于注意力模块的卷积神经网络的网络参数以及基于注意力模块的循环神经网络的网络参数,直至损失函数收敛。
确定单元,用于将损失函数收敛时得到的模型作为字符识别模型。根据本公开的实施例,基于注意力模块的循环神经网络包括:第一网络部分和第二网络部分,其中,第一网络部分包括输入层与隐藏层;第二网络部分包括第二注意力模块和输出层。
根据本公开的实施例,结果输出模块包括第三处理单元和第四处理单元。
第三处理单元,用于将注意力特征序列输入至基于注意力模块的循环神经网络的第一网络部分,输出第一特征序列。
第四处理单元,用于将第一特征序列输入至基于注意力模块的循环神经网络的第二网络部分,输出预测结果。
根据本发明的实施例,样本获取模块1201包括第一获取单元、扩充单元、筛选单元、第五处理单元、第六处理单元、缩放单元。
第一获取单元,用于获取初始训练样本数据集,其中初始训练样本数据集中包括初始训练样本。
扩充单元,用于将初始训练样本数据集输入至生成对抗网络,输出经扩充后的中间训练样本数据集。
筛选单元,用于按照预设条件,对中间训练样本数据集中的中间训练样本进行筛选处理,得到扩充训练样本数据集,其中,扩充训练样本数据集中的扩充训练样本的数量多于初始训练样本数据集中的初始训练样本的数量。
第五处理单元,用于对扩充训练样本数据集中的扩充训练样本进行二值化处理,以生成灰度训练样本数据集。
第六处理单元,用于对灰度训练样本数据集中的灰度训练样本进行去噪及矫正,生成优化训练样本数据集。
缩放单元,用于将优化训练样本数据集中的优化训练样本缩放至预设大小,得到训练样本,其中,训练样本数据集由训练样本组成。
根据本公开的实施例,第一注意力模块包括多个卷积核大小为1x1的卷积层。
根据本公开的实施例,训练样本为包括银行卡号的卡图像。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,样本获取模块1201、训练模块1202、获取模块1101、以及字符识别模块1102中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,样本获取模块1201、训练模块1202、获取模块1101、以及字符识别模块1102中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,样本获取模块1201、训练模块1202、获取模块1101、以及字符识别模块1102中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中字符识别模型的训练装置部分与本公开的实施例中字符识别模型的训练方法部分是相对应的,字符识别模型的训练装置部分的描述具体参考字符识别模型的训练方法部分,在此不再赘述;本公开的实施例中字符识别装置部分与本公开的实施例中字符识别方法部分是相对应的,字符识别装置部分的描述具体参考字符识别方法部分,在此不再赘述。
图13示意性示出了根据本公开实施例的适于实现上文描述的方法的电子设备的框图。图13示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图13所示,根据本公开实施例的电子设备1300包括处理器1301,其可以根据存储在只读存储器(ROM)1302中的程序或者从存储部分1308加载到随机访问存储器(RAM)1303中的程序而执行各种适当的动作和处理。处理器1301例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1301还可以包括用于缓存用途的板载存储器。处理器1301可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1303中,存储有电子设备1300操作所需的各种程序和数据。处理器1301、ROM 1302以及RAM 1303通过总线1304彼此相连。处理器1301通过执行ROM 1302和/或RAM1303中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1302和RAM 1303以外的一个或多个存储器中。处理器1301也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1300还可以包括输入/输出(I/O)接口1305,输入/输出(I/O)接口305也连接至总线1304。电子设备1300还可以包括连接至I/O接口1305的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1306;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1307;包括硬盘等的存储部分1308;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1309。通信部分1309经由诸如因特网的网络执行通信处理。驱动器1310也根据需要连接至I/O接口1305。可拆卸介质1311,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1310上,以便于从其上读出的计算机程序根据需要被安装入存储部分1308。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1309从网络上被下载和安装,和/或从可拆卸介质1311被安装。在该计算机程序被处理器1301执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1302和/或RAM 1303和/或ROM 1302和RAM 1303以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的字符识别模型的训练方法和字符识别方法。
在该计算机程序被处理器1301执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1309被下载和安装,和/或从可拆卸介质1311被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (14)

1.一种字符识别模型的训练方法,包括:
获取训练样本数据集,其中,所述训练样本数据集中的训练样本包括卡图像以及所述卡图像的标签信息,其中,所述卡图像包括字符;以及
利用所述训练样本数据集训练待训练的字符识别模型,得到字符识别模型,所述待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。
2.根据权利要求1所述的方法,其中,所述待训练的字符识别模型通过以下方法构建得到:
将第一注意力模块与卷积神经网络的输出层连接,形成基于注意力模块的卷积神经网络;
将第二注意力模块设置于循环神经网络的隐藏层和输出层之间,形成基于注意力模块的循环神经网络;以及
将所述卷积神经网络、所述第一注意力模块、所述循环神经网络以及所述第二注意力模块依次级联,构成所述待训练的字符识别模型。
3.根据权利要求2所述的方法,所述第二注意力模块包括多个一维卷积,所述多个一维卷积通过全连接的形式分别与所述隐藏层连接。
4.根据权利要求2所述的方法,其中,所述利用所述训练样本数据集训练待训练的字符识别模型,得到字符识别模型,包括:
将所述训练样本数据集输入至所述卷积神经网络,输出图像中间特征序列;
将所述图像中间特征序列输入至所述第一注意力模块,输出注意力特征序列;
将所述注意力特征序列输入至所述基于注意力模块的循环神经网络模型,输出预测结果;
将所述预测结果与所述标签信息输入至所述待训练字符识别模型的损失函数,得到损失结果;
根据所述损失结果调整所述基于注意力模块的卷积神经网络的网络参数以及所述基于注意力模块的循环神经网络的网络参数,直至所述损失函数收敛;以及
将所述损失函数收敛时得到的模型作为字符识别模型。
5.根据权利要求4所述的方法,所述基于注意力模块的循环神经网络包括:第一网络部分和第二网络部分,其中,所述第一网络部分包括输入层与隐藏层;所述第二网络部分包括所述第二注意力模块和输出层;
所述将所述注意力特征序列输入所述基于注意力模块的循环神经网络模型,输出预测结果包括:
将所述注意力特征序列输入至基于注意力模块的循环神经网络的所述第一网络部分,输出第一特征序列;以及
将所述第一特征序列输入至基于注意力模块的循环神经网络的所述第二网络部分,输出预测结果。
6.根据权利要求1所述的方法,所述获取训练样本数据集包括:
获取初始训练样本数据集,其中所述初始训练样本数据集中包括初始训练样本;
将所述初始训练样本数据集输入至生成对抗网络,输出经扩充后的中间训练样本数据集;
按照预设条件,对所述中间训练样本数据集中的中间训练样本进行筛选处理,得到扩充训练样本数据集,其中,所述扩充训练样本数据集中的扩充训练样本的数量多于所述初始训练样本数据集中的初始训练样本的数量;
对所述扩充训练样本数据集中的扩充训练样本进行二值化处理,以生成灰度训练样本数据集;
对所述灰度训练样本数据集中的灰度训练样本进行去噪及矫正,生成优化训练样本数据集;以及
将所述优化训练样本数据集中的优化训练样本缩放至预设大小,得到训练样本,其中,所述训练样本数据集由所述训练样本组成。
7.根据权利要求4所述的方法,所述第一注意力模块包括多个卷积核大小为1x1的卷积层。
8.根据权利要求1至7任一项所述的方法,所述训练样本为包括银行卡号的卡图像。
9.一种字符识别方法,包括,
获取待识别的卡图像;以及
利用字符识别模型对所述待识别的卡图像进行识别,得到识别结果,其中,所述字符识别模型通过权利要求1至8中任一项所述的训练方法得到。
10.一种字符识别装置,包括,
获取模块,用于获取待识别的卡图像;以及
字符识别模块,用于利用字符识别模型对所述待识别的卡图像进行识别,得到识别结果,其中,所述字符识别模型通过权利要求1至8中任一项所述的训练方法得到。
11.一种字符识别模型的训练装置,包括,
样本获取模块,用于获取训练样本数据集,其中,所述训练样本数据集中的训练样本包括卡图像以及所述卡图像的标签信息,其中,所述卡图像包括字符;以及
训练模块,用于利用所述训练样本数据集训练待训练的字符识别模型,得到字符识别模型,所述待训练的字符识别模型是通过将基于注意力模块的卷积神经网络以及基于注意力模块的循环神经网络依次级联而构建得到的。
12.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个指令,
其中,当所述一个或多个指令被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至9中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至9中任一项所述的方法。
14.一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,所述指令在被执行时用于实现权利要求1至9中任一项所述的方法。
CN202110369780.7A 2021-04-06 2021-04-06 字符识别模型的训练方法、字符识别方法及装置 Pending CN113011410A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110369780.7A CN113011410A (zh) 2021-04-06 2021-04-06 字符识别模型的训练方法、字符识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110369780.7A CN113011410A (zh) 2021-04-06 2021-04-06 字符识别模型的训练方法、字符识别方法及装置

Publications (1)

Publication Number Publication Date
CN113011410A true CN113011410A (zh) 2021-06-22

Family

ID=76387884

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110369780.7A Pending CN113011410A (zh) 2021-04-06 2021-04-06 字符识别模型的训练方法、字符识别方法及装置

Country Status (1)

Country Link
CN (1) CN113011410A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361522A (zh) * 2021-06-23 2021-09-07 北京百度网讯科技有限公司 确定字符序列的方法、装置和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361522A (zh) * 2021-06-23 2021-09-07 北京百度网讯科技有限公司 确定字符序列的方法、装置和电子设备
CN113361522B (zh) * 2021-06-23 2022-05-17 北京百度网讯科技有限公司 用于确定字符序列的方法、装置和电子设备

Similar Documents

Publication Publication Date Title
US11734572B2 (en) Spatial transformer modules
US10943145B2 (en) Image processing methods and apparatus, and electronic devices
US11538244B2 (en) Extraction of spatial-temporal feature representation
US11062453B2 (en) Method and system for scene parsing and storage medium
US11734797B2 (en) Iterative multiscale image generation using neural networks
US20190385054A1 (en) Text field detection using neural networks
US10891476B2 (en) Method, system, and neural network for identifying direction of a document
WO2019129032A1 (zh) 遥感图像识别方法、装置、存储介质以及电子设备
CN111615702B (zh) 一种从图像中提取结构化数据的方法、装置和设备
CN108230346B (zh) 用于分割图像语义特征的方法和装置、电子设备
CN111279362A (zh) 胶囊神经网络
CN113785314A (zh) 使用标签猜测对机器学习模型进行半监督训练
CN114612688B (zh) 对抗样本生成方法、模型训练方法、处理方法及电子设备
CN113569740A (zh) 视频识别模型训练方法与装置、视频识别方法与装置
US20220004849A1 (en) Image processing neural networks with dynamic filter activation
CN113507419B (zh) 流量分发模型的训练方法、流量分发方法及装置
CN114648675A (zh) 对抗训练方法、图像处理方法、装置、设备和介质
CN113920296A (zh) 一种基于对比学习的文本识别方法与系统
CN113011410A (zh) 字符识别模型的训练方法、字符识别方法及装置
US11416775B2 (en) Training robust machine learning models
Xiao et al. CTNet: hybrid architecture based on CNN and transformer for image inpainting detection
Takeuchi et al. A character art generator using the local exhaustive search, with GPU acceleration
US20230244706A1 (en) Model globalization for long document summarization
CN111626283B (zh) 文字提取方法、装置和电子设备
CN113989812A (zh) 图像生成模型的训练方法、图像生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination