CN109214386A - 用于生成图像识别模型的方法和装置 - Google Patents

用于生成图像识别模型的方法和装置 Download PDF

Info

Publication number
CN109214386A
CN109214386A CN201811072105.2A CN201811072105A CN109214386A CN 109214386 A CN109214386 A CN 109214386A CN 201811072105 A CN201811072105 A CN 201811072105A CN 109214386 A CN109214386 A CN 109214386A
Authority
CN
China
Prior art keywords
character
image
text
picture
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811072105.2A
Other languages
English (en)
Other versions
CN109214386B (zh
Inventor
郁昌存
王德鑫
安耀祖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JD Digital Technology Holdings Co Ltd
Jingdong Technology Holding Co Ltd
Original Assignee
Beijing Jingdong Financial Technology Holding Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Financial Technology Holding Co Ltd filed Critical Beijing Jingdong Financial Technology Holding Co Ltd
Priority to CN201811072105.2A priority Critical patent/CN109214386B/zh
Publication of CN109214386A publication Critical patent/CN109214386A/zh
Application granted granted Critical
Publication of CN109214386B publication Critical patent/CN109214386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了用于生成图像识别模型的方法和装置。该方法的一具体实施方式包括:获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;基于初始神经网络和第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络;获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;基于预训练的初始神经网络和第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络作为图像识别模型。该实施方式能够节省训练样本的人工标注成本。

Description

用于生成图像识别模型的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于生成图像识别模型的方法和装置。
背景技术
在互联网的冲击下,智能化办公已经成了企业提升工作效率和行业竞争力的重要手段。文字识别技术的发展为提高工作效率、无纸化/智能化办公提供了技术支持。伴随着近几年深度学习的迅猛发展,深度学习技术不断在各个场景下落地,基于深度学习的OCR(OpticalCharacter Recognition,光学字符识别)技术也发展到了一个全新的高度。
相关的OCR技术多采用模板匹配的方式进行文字识别。作为示例,可以通过设计字符的分类特征,提取每个字符的特征,与模板字符进行匹配,从而满足特定场景下的文本识别。
基于深度学习的OCR技术可以通过海量标注样本数据以及大规模GPU(GraphicsProcessing Unit,图形处理器)集群的计算训练让机器自动学习特征和模型参数,以满足不同场景的文本识别。
发明内容
本申请实施例提出了用于生成图像识别模型的方法和装置。
第一方面,本申请实施例提供了一种用于生成图像识别模型的方法,该方法包括:获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;基于初始神经网络和第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值;获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;基于预训练的初始神经网络和第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,将二次训练后的初始神经网络作为图像识别模型。
在一些实施例中,第一样本通过如下步骤生成:创建随机文字;将随机文字转换为文字图像;将文字图像与预设的背景图像融合,得到融合后的文字图像;基于随机文字和融合后的图像生成第一样本。
在一些实施例中,第二样本集合中第二样本的数量小于第一样本集合中第一样本的数量,二次训练的学习率小于预训练的学习率。
在一些实施例中,初始神经网络为卷积循环神经网络。
第二方面,本申请实施例提供了一种用于识别图像的方法,该方法包括:将待识别图像输入采用如上述第一方面中任一实现方式描述的方法生成的图像识别模型中,生成待识别图像的第一识别结果,待识别图像包括至少一个字符图像,第一识别结果包括对至少一个字符图像中的字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值;对于至少一个字符图像中的字符图像,确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值基于确定的候选文字组合,生成待识别图像的第二识别结果。
在一些实施例中,将待识别图像输入采用如上述第一方面中任一实现方式描述的方法生成的图像识别模型中,生成待识别图像的第一识别结果,包括:将待识别图像输入图像识别模型中,得到初始识别结果,初始识别结果包括对至少一个字符图像中的字符图像识别出的至少一个文字以及字符图像中的文字为识别出的相应文字的概率值;对于至少一个字符图像中的字符图像,从初始识别结果中选取概率值大于或等于预设概率阈值的不超过预设数量个文字作为该字符图像的候选文字。
在一些实施例中,该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,包括:确定该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值;基于该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值以及字符图像中的文字为相应候选文字的概率值,确定该字符图像与相邻字符图像之间的最大组合概率值;将该字符图像和相邻字符图像之间具有最大组合概率值时各自的候选文字确定为该字符图像和相邻字符图像的候选文字组合。
在一些实施例中,在确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合之前,该方法还包括:基于预设的语料库、至少一个字符图像的候选文字,构建n元语言模型,其中,n为自然数,n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值。
在一些实施例中,在确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合之前,该方法还包括:对第一识别结果进行语义分析,确定要构建的n元语言模型的n的值,其中,n为自然数,n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值;基于预设的语料库、至少一个字符图像的候选文字,构建n元语言模型。
第三方面,本申请实施例提供了一种用于生成图像识别模型的装置,该装置包括:第一样本获取单元,被配置成获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;预训练单元,被配置成基于初始神经网络和第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值;第二样本获取单元,被配置成获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;二次训练单元,被配置成基于预训练的初始神经网络和第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,将二次训练后的初始神经网络作为图像识别模型。
在一些实施例中,第一样本通过如下步骤生成:创建随机文字;将随机文字转换为文字图像;将文字图像与预设的背景图像融合,得到融合后的文字图像;基于随机文字和融合后的图像生成第一样本。
在一些实施例中,第二样本集合中第二样本的数量小于第一样本集合中第一样本的数量,二次训练的学习率小于预训练的学习率。
在一些实施例中,初始神经网络为卷积循环神经网络。
第四方面,本申请实施例提供了一种用于识别图像的装置,该装置包括:第一识别结果生成单元,被配置成将待识别图像输入采用如上述第一方面中任一实现方式描述的方法生成的图像识别模型中,生成待识别图像的第一识别结果,待识别图像包括至少一个字符图像,第一识别结果包括对至少一个字符图像中的字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值;候选文字组合确定单元,被配置成对于至少一个字符图像中的字符图像,确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值;第二识别结果生成单元,被配置成基于确定的候选文字组合,生成待识别图像的第二识别结果。
在一些实施例中,第一识别结果生成单元包括:初始识别模块,被配置成将待识别图像输入图像识别模型中,得到初始识别结果,初始识别结果包括对至少一个字符图像中的字符图像识别出的至少一个文字以及字符图像中的文字为识别出的相应文字的概率值;候选文字选取模块,被配置成对于至少一个字符图像中的字符图像,从初始识别结果中选取概率值大于或等于预设概率阈值的不超过预设数量个文字作为该字符图像的候选文字。
在一些实施例中,候选文字组合确定单元包括:条件概率确定模块,被配置成确定该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值;最大概率值确定模块,被配置成基于该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值以及字符图像中的文字为相应候选文字的概率值,确定该字符图像与相邻字符图像之间的最大组合概率值;候选文字组合确定模块,被配置成将该字符图像和相邻字符图像之间具有最大组合概率值时各自的候选文字确定为该字符图像和相邻字符图像的候选文字组合。
在一些实施例中,该装置还包括:语言模型构建单元,被配置成基于预设的语料库、至少一个字符图像的候选文字,构建n元语言模型,其中,n为自然数,n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值。
在一些实施例中,该装置还包括:语言模型确定单元,被配置成对第一识别结果进行语义分析,确定要构建的n元语言模型的n的值,其中,n为自然数,n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值;语言模型构建单元,被配置成基于预设的语料库、至少一个字符图像的候选文字,构建n元语言模型。
第五方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法或实现如第二方面中任一实现方式描述的方法。
第六方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法或实现如第二方面中任一实现方式描述的方法。
本申请实施例提供的用于生成图像识别模型的方法和装置,通过获取由包括随机文字和利用随机文字生成的文字图像的第一样本组成的第一样本集合,之后基于初始神经网络和第一样本集合训练得到预训练的初始神经网络,然后获取由包括文字图像和与文字图像对应的标注信息的第二样本组成的第二样本集合,最后基于预训练的初始神经网络和第二样本集合训练得到二次训练的初始神经网络模型作为图像识别模型,从而能够节省训练样本的人工标注成本。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于生成图像识别模型的方法的一个实施例的流程图;
图3是根据本申请的用于识别图像的方法的一个实施例的流程图;
图4和图5是根据本申请的用于识别图像的方法的一个应用场景的示意图;
图6是根据本申请的用于生成图像识别模型的装置的一个实施例的结构示意图;
图7是根据本申请的用于识别图像的装置的一个实施例的结构示意图;
图8是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于生成图像识别模型的方法、用于识别图像的方法、用于生成图像识别模型的装置或用于识别图像的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像识别类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持图像识别的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如存储训练样本的数据服务器。数据服务器可以存储有第一样本集合和第二样本集合。第一样本可以是服务器105或其他计算设备随机生成的预训练样本。第一样本可以包括随机文字和利用随机文字生成的文字图像。第二样本可以是预先标注的二次训练样本。第二样本可以包括文字图像和与文字图像对应的标注信息。
服务器106可以是提供各种服务的服务器,例如对终端设备101、102、103上的图像识别类应用提供支持的后台服务器。后台服务器可以利用数据服务器105中存储的第一样本集合对待训练模型进行预训练,以及利用数据服务器105中存储的第二样本集合对预训练模型进行二次训练,得到图像识别模型(例如,二次训练的模型)。后台服务器还可以将终端设备提交的待识别图像输入到图像识别模型中生成第一识别结果,以及对第一识别结果进行字段级别的优化生成第二识别结果,并将处理结果(例如第二识别结果)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于生成图像识别模型的方法或用于识别图像的方法一般由服务器106执行,相应地,用于生成图像识别模型的装置或用于识别图像的装置一般设置于服务器106中。
需要说明的是,服务器105、106可以是硬件,也可以是软件。当服务器105、106为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要指出的是,服务器106的本地也可以直接存储训练样本集合,服务器106可以直接获取本地的训练样本集合。此时,示例性系统架构100可以不包括服务器105。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意合适数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于生成图像识别模型的方法的一个实施例的流程200。该用于生成图像识别模型的方法,可以包括以下步骤:
步骤201,获取第一样本集合。
在本实施例中,用于生成图像识别模型的方法的执行主体(例如,图1所示的服务器106)可以从本地或远程获取第一样本集合。其中,第一样本可以包括随机文字和利用随机文字生成的文字图像。这里,第一样本也可以被称为模拟样本(即,通过计算设备生成的样本,而不是对采集的文字图像进行标注获取的样本)。
在本实施例的一些可选的实现方式中,第一样本可以通过如下样本生成步骤获得:
第一步,利用预设的字库创建随机文字。这里,预设的字库可以是采用特定计算机编码的字符集,例如,汉字编码字符集。随机文字可以包括中文文字、英文文字等。本申请中以中文文字为例进行说明。随机文字可以是单个汉字(例如,“农”、“商”、“银”、“行”),也可以是两个以上的汉字组成的词语(例如,“农商”、“银行”),还可以是由两个以上汉字和/或词语组成的语句(例如,“我想去农商银行”)。
第二步,将随机文字转换为文字图像。作为示例,可以通过字体引擎(例如,FreeType,一个开源的字体引擎)将随机文字“银行”由文字形式转换为图像形式(例如,银行)。这里,文字图像可以指包含可识别文字的图像。
第三步,将文字图像与预设的背景图像融合,得到融合后的文字图像。这里,预设的背景图像可以是指与本实现方式的应用场景相关联的背景图像。例如,当应用场景为银行的电子票据时,则预设的背景图像可以是电子票据的背景图文字图像银行与背景图融合后的文字图像为
第四步,基于创建的随机文字和融合后的文字图像生成第一样本。通过将文字图像与预设的背景图像相融合得到第一样本的文字图像,可以提高图像识别模型的准确率。
在本实现方式中,样本生成步骤的执行主体可以与用于生成图像识别模型的方法的执行主体相同或者不同。如果相同,则样本生成步骤的执行主体可以在生成第一样本集合之后将第一样本集合存储在本地。如果不同,则样本生成步骤的执行主体可以在生成第一样本集合之后将第一样本集合发送到用于生成图像识别模型的方法的执行主体。
需要说明的是,创建的随机文字可以具有不同的字体、不同的大小等,从而可以进一步丰富第一样本集合。
步骤202,基于初始神经网络和第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络。
在本实施例中,用于生成图像识别模型的方法的执行主体(例如,图1所示的服务器106)可以利用机器学习的方法,使用第一样本集合训练初始神经网络,得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值。例如,将使用随机文字“常”生成的文字图像常输入预训练后的初始神经网络得到识别结果{常(90%),赏(73%),尝(61%)},其中随机文字“常”的概率大于80%(或随机文字“常”的概率最高)。这里,初始神经网络可以是能够根据文字图像得到文字识别结果的各种神经网络,例如,卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、深度神经网络(Deep Neural Network,DNN)等等。
在本实施例的一些可选的实现方式中,步骤202具体可以包括:
步骤S11,将第一样本集合中的至少一个第一样本的文字图像分别输入至初始神经网络,得到上述至少一个第一样本中的每个第一样本对应的文字识别结果。其中,第一样本的文字图像可以包括至少一个字符图像,文字识别结果可以包括对文字图像中的每个字符图像识别出的候选文字以及每个字符图像为相应候选文字的概率值。
步骤S12,将上述至少一个第一样本中的每个第一样本对应的文字识别结果与对应的第一样本的随机文字进行比较,并根据比较结果确定上述初始神经网络是否达到预设的优化目标。作为示例,将一个第一样本对应的文字识别结果中与每个字符图像对应的具有最高概率值的候选文字进行组合,当组合的文字与该第一样本的随机文字之间的差异小于预设差异阈值时,可以认为该文字识别结果准确。此时,上述优化目标可以是指上述初始神经网络生成的文字识别结果的准确率大于或等于预设的准确率阈值。
步骤S13,响应于确定出上述初始神经网络达到上述优化目标,将上述初始神经网络作为预训练的初始神经网络。
对应于该实现方式,步骤202还可以包括:
步骤S14,响应于确定出上述初始神经网络未达到上述优化目标,可以调整上述初始神经网络的网络参数,以及从第一样本集合中重新选取未使用的至少一个第一样本,将调整后的初始神经网络作为初始神经网络,继续执行步骤S12至步骤S13。作为示例,可以采用反向传播算法(Back Propgation Algorithm,BP算法)和梯度下降法(例如小批量梯度下降算法)对上述初始神经网络的网络参数进行调整。
需要说明的是,反向传播算法和梯度下降法是目前广泛研究和应用的公知技术,在此不再赘述。
该实现方式实现了采用批量输入、整体调整模型参数的方式训练得到预训练的初始神经网络,但是本申请并不限于此。
在本实施例的一些可选的实现方式中,步骤202具体可以包括:
步骤S21,从第一样本集合中选取第一样本,以及执行以下步骤S22至步骤S24。例如,可以从第一样本集合中随机选取一个第一样本。
步骤S22,将选取的第一样本的文字图像输入初始神经网络,得到选取的第一样本对应的文字识别结果。其中,第一样本的文字图像可以包括至少一个字符图像,文字识别结果可以包括对文字图像中的每个字符图像识别出的候选文字以及每个字符图像为相应候选文字的概率值。
步骤S23,将得到的文字识别结果与选取的第一样本的随机文字进行比较,根据比较结果确定上述初始神经网络是否达到预设的优化目标。
步骤S24,响应于确定出上述初始神经网络达到上述优化目标,将上述初始神经网络作为预训练的初始神经网络。
对应于该实现方式,步骤202还可以包括:
步骤S25,响应于确定出上述初始神经网络未达到预设的优化目标,可以调整上述初始神经网络的网络参数,以及从第一样本集合中重新选取未使用的第一样本,将调整后的初始神经网络作为初始神经网络,继续执行步骤S22至步骤S24。
该实现方式实现了采用单个输入、单个调整的方式训练得到预训练的初始神经网络。
在本实施例的一些可选的实现方式中,初始神经网络可以是卷积循环神经网络(Convolutional Recurrent Neural Network,CRNN)。CRNN的网络架构可以包括卷积层、循环层和转录层三部分。其中,卷积层可以从输入图像中提取特征序列,循环层可以预测每一帧的标签分布,转录层可以将每一帧的预测变为最终的标签序列。CRNN可以由不同类型的网络架构组成。例如,CRNN可以是由CNN和RNN的组合,CRNN也可以是CNN、LSTM(Long Short-Term Memory,长短时记忆)网络和CTC(Connectionist Temporal Classification,一种时序分类算法)网络的组合。与其他神经网络相比,CRNN在文本识别上可以获得更好或更具竞争力的表现。
步骤203,获取第二样本集合。
在本实施例中,用于生成图像识别模型的方法的执行主体(例如,图1所示的服务器106)可以从本地或远程获取第二样本集合。其中,第二样本可以包括文字图像和与文字图像对应的标注信息。标注信息可以用于指示文字图像中包含的可识别文字。
在本实施例的一些可选的实现方式中,第二样本可以通过如下步骤获得:
首先,采集文字图像。例如,通过扫描、拍照等方式采集文字图像。这里,文字图像可以指包含可识别文字的图像。
然后,对采集的文字图像中的可识别文字进行标注(例如,人工标注),将标注后的文字图像作为第二样本。
步骤204,基于预训练的初始神经网络和第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,作为图像识别模型。
在本实施例中,用于生成图像识别模型的方法的执行主体(例如,图1所示的服务器106)可以使用第二样本集合对预训练的初始神经网络进行二次训练(或者,也可以称为微调训练),得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,然后将二次训练后的初始神经网络作为图像识别模型。
在本实施例中,使用第二样本集合对预训练的初始神经网络进行二次训练的步骤与使用第一样本集合对初始神经网络进行预训练的步骤基本相同,因此将省略其具体描述。
通常,一个识别率良好的OCR模型需要数以十万计、百万计的样本数据进行训练。在本实施例中,通过先使用第一样本集合进行模型的预训练,而后使用第二样本集合进行模型的二次训练得到图像识别模型。并且由于第一样本集合中的第一样本是利用随机文字生成的(不需要标注,可以在较短的时间内生成大量的第一样本),因此,仅需要标注少量的第二样本就可以训练得到图像识别模型。例如,在需要10万个训练样本训练得到图像识别模型的情况下,可以随机生成9万个(或更多数量)第一样本对初始神经网络进行预训练,而后标注1万个(或更少数量)第二样本对预训练的初始神经网络进行二次训练得到图像识别模型。与标注10万个训练样本相比,本实施例的生成图像识别模型的方法能够大大减少了需要人工标注的训练样本的数量,进而节省了训练样本的人工标注成本。
在本实施例的一些可选的实现方式中,第二样本集合中第二样本的数量小于第一样本集合中第一样本的数量。例如,第二样本集合中第二样本的数量可以是第一样本中第一样本数量的五分之一、十分之一或更少。
在本实施例的一些可选的实现方式中,二次训练的学习率小于预训练的学习率。这里,学习率可以是指神经网络的超参数(即,在开始学习过程之前需要设置值的参数)。学习率可以控制基于损失梯度调整神经网络权值的速度。一般而言,学习率越大,沿着损失梯度下降的速度越快,而学习率越小,沿着损失梯度下降的速度越慢。
在本实现方式中,使用第一样本集合以相对大的学习率进行预训练,可以提高网络参数的优化效率;而使用第二样本集合以相对小的学习率进行二次训练,可以避免网络参数移动到最优值的速度过快而错过最优值。
本申请的上述实施例提供的用于生成图像识别模型的方法,通过获取由包括随机文字和利用随机文字生成的文字图像的第一样本组成的第一样本集合,之后基于初始神经网络和第一样本集合训练得到预训练的初始神经网络,然后获取由包括文字图像和与文字图像对应的标注信息的第二样本组成的第二样本集合,最后基于预训练的初始神经网络和第二样本集合训练得到二次训练的初始神经网络模型作为图像识别模型,从而能够节省训练样本的人工标注成本。
进一步参考图3,其示出了根据本申请的用于识别图像的方法的一个实施例的流程300。该用于识别图像的方法,可以包括以下步骤:
步骤301,将待识别图像输入图像识别模型中,生成待识别图像的第一识别结果。
在本实施例中,用于识别图像的方法的执行主体(例如,图1所示的服务器106)可以将待识别图像输入图像识别模型中,生成待识别图像的第一识别结果。其中,待识别图像可以包括至少一个字符图像,待识别图像可以是上述执行主体从其他电子设备(例如,图1所示的终端设备101、102、103)获取或接收的。图像识别模型可以是采用图1的实施例所描述的方法生成的。第一识别结果可以包括对上述至少一个字符图像中的每个字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值。
作为一个示例,待识别图像常熟X商银行可以是包含可识别文字“常熟X商银行”的文字图像。在该示例中,待识别图像可以包括如下字符图像:常、熟、……、商、银、行。第一识别结果可以包括{常(90%),赏(73%),尝(61%);孰(86%),熟(84%);……}。其中,文字“常”、“赏”、“尝”可以是字符图像常的候选文字,文字“孰”、“熟”可以是字符图像熟的候选文字,……。“90%”可以表示字符图像常中的文字为候选文字“常”的概率值P(常),“73%”可以表示字符图像常中的文字为候选文字“赏”的概率值P(赏),……。
在本实施例的一些可选的实现方式中,步骤301具体可以包括:
首先,将待识别图像输入预先训练的图像识别模型中,得到初始识别结果。其中,初始识别结果可以包括对待识别图像的每个字符图像识别出的至少一个文字以及字符图像中的文字为识别出的相应文字的概率值。
然后,对于至少一个字符图像中的每个字符图像,从初始识别结果中选取概率值大于或等于预设概率阈值(例如,60%)的不超过预设数量个(例如,5个)文字作为该字符图像的候选文字。其中,预设概率阈值可以是预先设定的概率值,用于过滤识别率较低的候选文字。作为示例,初始识别结果中可以包括对字符图像常识别出的4个文字{常(90%)、赏(73%)、尝(61%)、帘(54%)},若预设概率阈值为60%并且预设数量为5,则可以选取{常(90%)、赏(73%)、尝(61%)}三个文字作为字符图像常的候选文字。
步骤302,对于至少一个字符图像中的字符图像,确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合。
在本实施例中,对于待识别图像的每个字符图像,用于识别图像的方法的执行主体(例如,图1所示的服务器106)可以确定该字符图像与相邻字符图像之间的组合概率值,然后选取该字符图像与相邻字符图像之间具有最大组合概率值时对应的候选文字组合。其中,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值。作为示例,字符图像常(其候选文字为“常”、“赏”、“尝”)与字符图像熟(其候选文字为“孰”、“熟”)之间的组合概率值可以包括:“常”与“孰”一起出现的概率值0.00774,“常”与“熟”一起出现的概率值0.1512,“赏”与“孰”一起出现的概率值0.0000006278,“赏”与“熟”一起出现的概率值0.0000006132,“尝”与“孰”一起出现的概率值0.0000005246,“尝”与“熟”一起出现的概率值0.0000005124。从而可以确定字符图像常与字符图像熟之间具有最大组合概率值时对应的候选文字组合为“常熟”。
在本实施例的一些可选的实现方式中,步骤302具体可以包括如下步骤:
第一步,对于待识别图像中的每个字符图像,确定该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值。作为示例,对于字符图像熟(候选文字为“孰”、“熟”)以及与之相邻的字符图像常(候选文字为“常”、“赏”、“尝”),可以确定“孰”在“常”条件下的条件概率P(孰|常)、“孰”在“赏”条件下的条件概率P(孰|赏)、“孰”在“尝”条件下的条件概率P(孰|尝)、“熟”在“常”条件下的条件概率P(熟|常)、……等等。例如,P(孰|常)为0.01,P(孰|赏)为MIN、P(孰|尝)为MIN,P(熟|常)为0.2,……。这里,MIN可以为大于0的极小值(例如,0.000001),在条件概率为0时可以作为平滑概率值。
第二步,对于待识别图像中的每个字符图像,基于该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值以及字符图像中的文字为相应候选文字的概率值,确定该字符图像与相邻字符图像之间的最大组合概率值。由前述示例可知,字符图像熟与字符图像常之间的最大组合概率值为0.1512(即,P(常)×P(熟|常)×P(熟))。
第三步,对于待识别图像中的每个字符图像,将该字符图像和相邻字符图像之间具有最大组合概率值时各自的候选文字确定为该字符图像和相邻字符图像的候选文字组合。在上述示例中,字符图像熟与字符图像常之间的最大组合概率值为0.1512,则可以将字符图像熟与字符图像常的候选文字组合确定为“常熟”。
在本实现方式中,可以采用任意合适的方法确定一个候选文字与另一候选文字之间的条件概率,例如,n-gram模型(也称为n元语言模型)。n-gram模型是一种统计语言模型,用于确定文字之间的条件概率值。其中,n为自然数。一般来讲,可以使用大规模文本或音频语料库生成n-gram模型。
可选地,在确定字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值之前(即,上述实现方式的第一步之前),步骤302还可以包括:基于预设的语料库、待识别图像的每个字符图像的候选文字,构建n元语言模型。这里,n的值可以预先设置的值,例如,2、3等。在n元语言模型被构建之后,可以利用所构建的n元语言模型确定相邻的字符图像的候选文字之间的条件概率值。
可选地,在确定字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值之前(即,上述实现方式的第一步之前),步骤302还可以包括:首先,对第一识别结果进行语义分析,确定要构建的n元语言模型的n的值;然后,基于预设的语料库、待识别图像的每个字符图像的候选文字,构建n元语言模型。作为示例,对于前述示例的第一识别结果,结合先验知识,可以确定第一识别结果中的主要为银行名称字段,根据银行名称字段的固定语义规则可以确定n的值为2(即,各个名称字段主要有2个字组成)。在n元语言模型被构建之后,可以利用所构建的n元语言模型确定相邻的字符图像的候选文字之间的条件概率值。
步骤303,基于确定的候选文字组合,生成待识别图像的第二识别结果。
在本实施例中,用于识别图像的方法的执行主体(例如,图1所示的服务器106)可以使用步骤302确定的候选文字组合生成待识别图像的第二识别结果,作为待识别图像的最终识别结果。
作为示例,待识别图像常熟X商银行包括字符图像常、熟、……、商、银、行,其中步骤302中已经确定字符图像熟与常的候选文字组合为“常熟”,……,字符图像银与商的候选文字组合为“商银”,字符图像行与银的候选文字组合为“银行”,因此,可以生成第二识别结果“常熟X商银行”。
如果仅使用预先训练的图像识别模型,选取最大概率值的文字作为待识别图像的识别结果,则可能存在个别文字识别不准确,例如,将待识别图像常熟X商银行输入图像识别模型,得到识别结果“常孰X商银行”。而本实施例提供的用于识别图像的方法,通过对图像识别模型的第一识别结果进行后处理,得到第二识别结果,能够提高文本识别的准确率。例如,将待识别图像常熟X商银行输入图像识别模型,得到第一识别结果,之后对第一识别结果进行后处理之后得到第二识别结果“常熟X商银行”。
继续参考图4和图5,其示出了根据本申请的用于识别图像的方法的一个应用场景的示意图。如图4所示,将待识别图像401输入到预先训练的图像识别模型402中,选取概率值大于60%且不超过五个文字作为每个字符图像的候选文字,生成第一识别结果403。在第一识别结果403中,每一行表示一个字符图像的识别结果,文字后面的数值表示字符图像中的文字为该文字的概率值。之后,结合先验知识,可以确定出待识别图像401中的字段为银行名称字段,根据银行名称的固定语义规则,确定要建立的n-gram语言模型的n值为2。然后,可以使用预先搜集的银行名称语料和第一识别结果403来构建2-gram语言模型,得到字符图像的候选文字在前一个相邻字符图像的候选文字条件下的条件概率。部分条件概率值如表一所示:
表一字符图像的候选文字在前一个相邻字符图像的候选文字条件下的条件概率表
文字A在文字B条件下的条件概率P(B|A) 概率值
P(孰|常) 0.01
P(孰|赏) MIN
P(孰|尝) MIN
P(熟|常) 0.2
P(熟|赏) MIN
P(熟|尝) MIN
…… ……
P(行|银) 0.97
…… ……
随后,如图5所示,建立第一识别结果403的概率矩阵,并计算相邻两列之间的最优路径(即,具有最大组合概率值的文字节点路径)。以第一列到第二列为例,“常”到“孰”的路径距离可以表示为:90%×0.01×0.86=0.00774,“常”到“熟”的路径距离可以表示为:90%×0.2×0.84=0.1512,……,以此类推。从而可以确定从第一列的文字节点到第六列的文字节点的最优路径为:“常”→“熟”→……→“商”→“银”→“行”(如图5中实线箭头所示的路径)。因此可以确定第二识别结果为“常熟X商银行”。
本申请的上述实施例提供的用于识别图像的方法,通过将待识别图像输入图像识别模型得到第一识别结果,之后确定相邻的字符图像之间具有最大组合概率值时对应的候选文字组合,最后利用候选文字组合生成第二识别结果,从而能够提升文本识别的准确率。
进一步参考图6,作为对图2所示方法的实现,本申请提供了一种用于生成图像识别模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于服务器中。
如图6所示,本实施例的用于生成图像识别模型的装置600可以包括第一样本获取单元601、预训练单元602、第二样本获取单元603和二次训练单元604。其中,第一样本获取单元601被配置成获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;预训练单元602被配置成基于初始神经网络和第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值;第二样本获取单元603被配置成获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;而二次训练单元604被配置成基于预训练的初始神经网络和第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,将二次训练后的初始神经网络作为图像识别模型。
在本实施例中,用于生成图像识别模型的装置600的上述第一样本获取单元601可以从本地或远程获取第一样本集合。其中,第一样本可以包括随机文字和利用随机文字生成的文字图像。这里,第一样本也可以被称为模拟样本(即,通过计算设备生成的样本,而不是对采集的文字图像进行标注获取的样本)。
在本实施例的一些可选的实现方式中,第一样本可以通过如下步骤生成:创建随机文字;将随机文字转换为文字图像;将文字图像与预设的背景图像融合,得到融合后的文字图像;基于随机文字和融合后的图像生成第一样本。
在本实施例中,上述预训练单元602可以利用机器学习的方法,使用第一样本集合训练初始神经网络,得到预训练的初始神经网络。,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值。例如,将使用随机文字“常”生成的文字图像常输入预训练后的初始神经网络得到识别结果{常(90%),赏(73%),尝(61%)},其中随机文字“常”的概率大于80%(或随机文字“常”的概率最高)。这里,初始神经网络可以是能够根据文字图像得到文字识别结果的各种神经网络,例如,卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(RecurrentNeural Network,RNN)、深度神经网络(Deep Neural Network,DNN)等等。
在本实施例的一些可选的实现方式中,初始神经网络可以是卷积循环神经网络(Convolutional Recurrent Neural Network,CRNN)。
在本实施例中,上述第二样本获取单元603可以从本地或远程获取第二样本集合。其中,第二样本可以包括文字图像和与文字图像对应的标注信息。标注信息可以用于指示文字图像中包含的可识别文字。
在本实施例中,上述二次训练单元604可以使用第二样本集合对预训练的初始神经网络进行二次训练(或者,也可以称为微调训练),得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,然后将二次训练后的初始神经网络作为图像识别模型。
在本实施例的一些可选的实现方式中,第二样本集合中第二样本的数量小于第一样本集合中第一样本的数量。
在本实施例的一些可选的实现方式中,二次训练的学习率小于预训练的学习率。
本申请的上述实施例提供的用于生成图像识别模型的装置,通过获取由包括随机文字和利用随机文字生成的文字图像的第一样本组成的第一样本集合,之后基于初始神经网络和第一样本集合训练得到预训练的初始神经网络,然后获取由包括文字图像和与文字图像对应的标注信息的第二样本组成的第二样本集合,最后基于预训练的初始神经网络和第二样本集合训练得到二次训练的初始神经网络模型作为图像识别模型,从而能够节省训练样本的人工标注成本。
进一步参考图7,作为对图3所示方法的实现,本申请提供了一种用于识别图像的装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于服务器中。
如图7所示,本实施例的用于识别图像的装置700可以包括第一识别结果生成单元701、候选文字组合确定单元702和第二识别结果生成单元703。其中,第一识别结果生成单元701被配置成将待识别图像输入采用如上述第一方面中任一实施例所描述的方法生成的图像识别模型中,生成待识别图像的第一识别结果,待识别图像包括至少一个字符图像,第一识别结果包括对至少一个字符图像中的字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值;候选文字组合确定单元702被配置成对于至少一个字符图像中的字符图像,确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值;第二识别结果生成单元703被配置成基于确定的候选文字组合,生成待识别图像的第二识别结果。
在本实施例中,用于识别图像的装置700的上述第一识别结果生成单元701可以将待识别图像输入图像识别模型中,生成待识别图像的第一识别结果。其中,待识别图像可以包括至少一个字符图像,待识别图像可以是上述执行主体从其他电子设备(例如,图1所示的终端设备101、102、103)获取或接收的。图像识别模型可以是采用图1的实施例所描述的方法生成的。第一识别结果可以包括对上述至少一个字符图像中的每个字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值。
在本实施例的一些可选的实现方式中,上述第一识别结果生成单元701可以包括初始识别模块和候选文字选取模块。其中,初始识别模块被配置成将待识别图像输入图像识别模型中,得到初始识别结果,初始识别结果包括对至少一个字符图像中的字符图像识别出的至少一个文字以及字符图像中的文字为识别出的相应文字的概率值;而候选文字选取模块被配置成对于至少一个字符图像中的字符图像,从初始识别结果中选取概率值大于或等于预设概率阈值的不超过预设数量个文字作为该字符图像的候选文字。
在本实施例中,对于待识别图像的每个字符图像,上述候选文字组合确定单元702可以分别确定与该字符图像相邻的字符图像与该字符图像的组合概率值,然后选取具有最大组合概率值时对应的候选文字组合。其中,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值。
在本实施例的一些可选的实现方式中,候选文字组合确定单元包括条件概率确定模块、最大概率值确定模块和候选文字组合确定模块。其中,条件概率确定模块被配置成确定该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值;最大概率值确定模块被配置成基于该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值以及字符图像中的文字为相应候选文字的概率值,确定该字符图像与相邻字符图像之间的最大组合概率值;而候选文字组合确定模块被配置成将该字符图像和相邻字符图像之间具有最大组合概率值时各自的候选文字确定为该字符图像和相邻字符图像的候选文字组合。
在本实施例中,上述第二识别结果生成单元703可以使用步骤302确定的候选文字组合生成待识别图像的第二识别结果,作为待识别图像的最终识别结果。
在本实施例的一些可选的实现方式中,用于识别图像的装置700还可以包括语言模型构建单元。其中,语言模型构建单元被配置成基于预设的语料库、至少一个字符图像的候选文字,构建n元语言模型。其中,n为自然数,n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值。
在本实施例的一些可选的实现方式中,用于识别图像的装置700还可以包括语言模型确定单元和语言模型构建单元。其中,语言模型确定单元被配置成对第一识别结果进行语义分析,确定要构建的n元语言模型的n的值,其中,n为自然数,n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值;而语言模型构建单元被配置成基于预设的语料库、至少一个字符图像的候选文字,构建n元语言模型。
本申请的上述实施例提供的用于识别图像的装置,通过将待识别图像输入图像识别模型得到第一识别结果,之后确定相邻的字符图像之间具有最大组合概率值时对应的候选文字组合,最后利用候选文字组合生成第二识别结果,从而能够提升文本识别的准确率。
下面参考图8,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器106)的计算机系统800的结构示意图。图8示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统800包括一个或多个中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如有机发光二极管(OLED)显示器、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一样本获取单元、预训练单元、第二样本获取单元和二次训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一样本获取单元还可以被描述为“获取第一样本集合的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;基于初始神经网络和第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值;获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;基于预训练的初始神经网络和第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,将二次训练后的初始神经网络作为图像识别模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (20)

1.一种用于生成图像识别模型的方法,包括:
获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;
基于初始神经网络和所述第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值;
获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;
基于预训练的初始神经网络和所述第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,将二次训练后的初始神经网络作为图像识别模型。
2.根据权利要求1所述的方法,其中,第一样本通过如下步骤生成:
创建随机文字;
将所述随机文字转换为文字图像;
将所述文字图像与预设的背景图像融合,得到融合后的文字图像;
基于所述随机文字和融合后的图像生成第一样本。
3.根据权利要求1所述的方法,其中,所述第二样本集合中第二样本的数量小于所述第一样本集合中第一样本的数量,二次训练的学习率小于预训练的学习率。
4.根据权利要求1所述的方法,其中,初始神经网络为卷积循环神经网络。
5.一种用于识别图像的方法,包括:
将待识别图像输入采用如权利要求1-4之一所述的方法生成的图像识别模型中,生成所述待识别图像的第一识别结果,所述待识别图像包括至少一个字符图像,所述第一识别结果包括对所述至少一个字符图像中的字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值;
对于所述至少一个字符图像中的字符图像,确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值;
基于确定的候选文字组合,生成所述待识别图像的第二识别结果。
6.根据权利要求5所述的方法,其中,所述将待识别图像输入采用如权利要求1-4之一所述的方法生成的图像识别模型中,生成所述待识别图像的第一识别结果,包括:
将所述待识别图像输入所述图像识别模型中,得到初始识别结果,所述初始识别结果包括对所述至少一个字符图像中的字符图像识别出的至少一个文字以及字符图像中的文字为识别出的相应文字的概率值;
对于所述至少一个字符图像中的字符图像,从所述初始识别结果中选取概率值大于或等于预设概率阈值的不超过预设数量个文字作为该字符图像的候选文字。
7.根据权利要求6所述的方法,其中,所述该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,包括:
确定该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值;
基于该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值以及字符图像中的文字为相应候选文字的概率值,确定该字符图像与相邻字符图像之间的最大组合概率值;
将该字符图像和相邻字符图像之间具有最大组合概率值时各自的候选文字确定为该字符图像和相邻字符图像的候选文字组合。
8.根据权利要求7所述的方法,其中,在确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合之前,所述方法还包括:
基于预设的语料库、所述至少一个字符图像的候选文字,构建n元语言模型,其中,n为自然数,所述n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值。
9.根据权利要求7所述的方法,其中,在确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合之前,所述方法还包括:
对所述第一识别结果进行语义分析,确定要构建的n元语言模型的n的值,其中,n为自然数,所述n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值;
基于预设的语料库、所述至少一个字符图像的候选文字,构建所述n元语言模型。
10.一种用于生成图像识别模型的装置,包括:
第一样本获取单元,被配置成获取第一样本集合,第一样本包括随机文字和利用随机文字生成的文字图像;
预训练单元,被配置成基于初始神经网络和所述第一样本集合,利用机器学习的方法训练得到预训练的初始神经网络,使得将第一样本的文字图像输入到预训练后的初始神经网络得到的识别结果中相应随机文字的概率值大于或等于预设概率值;
第二样本获取单元,被配置成获取第二样本集合,第二样本包括文字图像和与文字图像对应的标注信息,标注信息用于指示文字图像中包含的文字;
二次训练单元,被配置成基于预训练的初始神经网络和所述第二样本集合,利用机器学习的方法训练得到二次训练的初始神经网络,使得将第二样本的文字图像输入到二次训练后的初始神经网络得到的识别结果中相应标注信息中的文字的概率值大于或等于预设概率值,将二次训练后的初始神经网络作为图像识别模型。
11.根据权利要求10所述的装置,其中,第一样本通过如下步骤生成:
创建随机文字;
将所述随机文字转换为文字图像;
将所述文字图像与预设的背景图像融合,得到融合后的文字图像;
基于所述随机文字和融合后的图像生成第一样本。
12.根据权利要求10所述的装置,其中,所述第二样本集合中第二样本的数量小于所述第一样本集合中第一样本的数量,二次训练的学习率小于预训练的学习率。
13.根据权利要求10所述的装置,其中,初始神经网络为卷积循环神经网络。
14.一种用于识别图像的装置,包括:
第一识别结果生成单元,被配置成将待识别图像输入采用如权利要求1-4之一所述的方法生成的图像识别模型中,生成所述待识别图像的第一识别结果,所述待识别图像包括至少一个字符图像,所述第一识别结果包括对所述至少一个字符图像中的字符图像识别出的至少一个候选文字以及字符图像中的文字为相应候选文字的概率值;
候选文字组合确定单元,被配置成对于所述至少一个字符图像中的字符图像,确定该字符图像与相邻字符图像具有最大组合概率值时对应的候选文字组合,字符图像之间的组合概率值用于表示字符图像的候选文字之间一起出现的概率值;
第二识别结果生成单元,被配置成基于确定的候选文字组合,生成所述待识别图像的第二识别结果。
15.根据权利要求14所述的装置,其中,所述第一识别结果生成单元包括:
初始识别模块,被配置成将所述待识别图像输入所述图像识别模型中,得到初始识别结果,所述初始识别结果包括对所述至少一个字符图像中的字符图像识别出的至少一个文字以及字符图像中的文字为识别出的相应文字的概率值;
候选文字选取模块,被配置成对于所述至少一个字符图像中的字符图像,从所述初始识别结果中选取概率值大于或等于预设概率阈值的不超过预设数量个文字作为该字符图像的候选文字。
16.根据权利要求15所述的装置,其中,所述候选文字组合确定单元包括:
条件概率确定模块,被配置成确定该字符图像的候选文字相邻字符图像的候选文字条件下的条件概率值;
最大概率值确定模块,被配置成基于该字符图像的候选文字在相邻字符图像的候选文字条件下的条件概率值以及字符图像中的文字为相应候选文字的概率值,确定该字符图像与相邻字符图像之间的最大组合概率值;
候选文字组合确定模块,被配置成将该字符图像和相邻字符图像之间具有最大组合概率值时各自的候选文字确定为该字符图像和相邻字符图像的候选文字组合。
17.根据权利要求16所述的装置,其中,所述装置还包括:
语言模型构建单元,被配置成基于预设的语料库、所述至少一个字符图像的候选文字,构建n元语言模型,其中,n为自然数,所述n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值。
18.根据权利要求16所述的装置,其中,所述装置还包括:
语言模型确定单元,被配置成对所述第一识别结果进行语义分析,确定要构建的n元语言模型的n的值,其中,n为自然数,所述n元语言模型用于确定相邻的字符图像的候选文字之间的条件概率值;
语言模型构建单元,被配置成基于预设的语料库、所述至少一个字符图像的候选文字,构建所述n元语言模型。
19.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法或如权利要求5-9中任一所述的方法。
20.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法或如权利要求5-9中任一所述的方法。
CN201811072105.2A 2018-09-14 2018-09-14 用于生成图像识别模型的方法和装置 Active CN109214386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811072105.2A CN109214386B (zh) 2018-09-14 2018-09-14 用于生成图像识别模型的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811072105.2A CN109214386B (zh) 2018-09-14 2018-09-14 用于生成图像识别模型的方法和装置

Publications (2)

Publication Number Publication Date
CN109214386A true CN109214386A (zh) 2019-01-15
CN109214386B CN109214386B (zh) 2020-11-24

Family

ID=64983972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811072105.2A Active CN109214386B (zh) 2018-09-14 2018-09-14 用于生成图像识别模型的方法和装置

Country Status (1)

Country Link
CN (1) CN109214386B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009623A (zh) * 2019-04-10 2019-07-12 腾讯科技(深圳)有限公司 一种图像识别模型训练及图像识别方法、装置及系统
CN110032716A (zh) * 2019-04-17 2019-07-19 北京地平线机器人技术研发有限公司 文字编码方法和装置、可读存储介质及电子设备
CN110059628A (zh) * 2019-04-18 2019-07-26 广东小天才科技有限公司 图像识别方法、装置、设备及存储介质
CN110175648A (zh) * 2019-05-28 2019-08-27 东莞德福得精密五金制品有限公司 应用人工智能云计算对设备进行非侵入性的信息连通方法
CN110231939A (zh) * 2019-05-16 2019-09-13 平安科技(深圳)有限公司 模型生成方法、系统、计算机设备和存储介质
CN110532968A (zh) * 2019-09-02 2019-12-03 苏州美能华智能科技有限公司 表格识别方法、装置和存储介质
CN110647622A (zh) * 2019-09-29 2020-01-03 北京金山安全软件有限公司 交互数据有效性识别方法和装置
CN111242024A (zh) * 2020-01-11 2020-06-05 北京中科辅龙科技股份有限公司 基于机器学习识别图纸内图例及文字的方法及系统
CN111325117A (zh) * 2020-02-05 2020-06-23 北京字节跳动网络技术有限公司 目标对象识别模型的训练方法、装置和电子设备
CN111652232A (zh) * 2020-05-29 2020-09-11 泰康保险集团股份有限公司 票据识别方法及装置、电子设备和计算机可读存储介质
CN112200188A (zh) * 2020-10-16 2021-01-08 北京市商汤科技开发有限公司 文字识别方法及装置、存储介质
CN112800972A (zh) * 2021-01-29 2021-05-14 北京市商汤科技开发有限公司 文字识别方法及装置、存储介质
CN112966712A (zh) * 2021-02-01 2021-06-15 北京三快在线科技有限公司 语言模型训练方法、装置、电子设备和计算机可读介质
CN113033542A (zh) * 2021-04-25 2021-06-25 中国电子系统技术有限公司 一种文本识别模型的生成方法以及装置
CN113177479A (zh) * 2021-04-29 2021-07-27 联仁健康医疗大数据科技股份有限公司 图像分类方法、装置、电子设备及存储介质
CN113362088A (zh) * 2021-08-10 2021-09-07 中博信息技术研究院有限公司 一种基于crnn的电信行业智能客服图像识别的方法及其系统
CN113590858A (zh) * 2021-06-30 2021-11-02 北京百度网讯科技有限公司 目标对象的生成方法、装置、电子设备以及存储介质
CN113591513A (zh) * 2020-04-30 2021-11-02 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN114139729A (zh) * 2022-01-29 2022-03-04 北京易真学思教育科技有限公司 机器学习模型训练方法和装置、文本识别方法和装置
CN115004247A (zh) * 2019-12-02 2022-09-02 尤帕斯公司 训练用于机器人过程自动化的光学字符检测和识别模型

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2682207B1 (fr) * 1991-10-04 1998-07-31 Thomson Csf Procede de reconnaissance automatique de caracteres alphanumeriques manuscrits dans une image et dispositif destine a sa mise en oeuvre
CN102968637A (zh) * 2012-12-20 2013-03-13 山东科技大学 一种复杂背景图像文字分割方法
CN102968663A (zh) * 2012-11-29 2013-03-13 河海大学 基于无标记样本的神经网络构建方法及其装置
CN103077389A (zh) * 2013-01-07 2013-05-01 华中科技大学 一种结合字符级分类和字符串级分类的文本检测和识别方法
CN103077384A (zh) * 2013-01-10 2013-05-01 北京万集科技股份有限公司 一种车标定位识别的方法与系统
CN104504441A (zh) * 2014-12-09 2015-04-08 河海大学 基于敏感性的madaline神经网络构建方法及其装置
CN104573688A (zh) * 2015-01-19 2015-04-29 电子科技大学 基于深度学习的移动平台烟草激光码智能识别方法及装置
CN104778470A (zh) * 2015-03-12 2015-07-15 浙江大学 基于组件树和霍夫森林的文字检测和识别方法
CN104866869A (zh) * 2015-05-29 2015-08-26 武汉大学 基于分布差异与增量学习的时序sar图像分类方法
CN105654129A (zh) * 2015-12-30 2016-06-08 成都数联铭品科技有限公司 一种光学文字序列识别方法
CN105654127A (zh) * 2015-12-30 2016-06-08 成都数联铭品科技有限公司 基于端到端的图片文字序列连续识别方法
CN106203625A (zh) * 2016-06-29 2016-12-07 中国电子科技集团公司第二十八研究所 一种基于多重预训练的深层神经网络训练方法
CN106295584A (zh) * 2016-08-16 2017-01-04 深圳云天励飞技术有限公司 深度迁移学习在人群属性的识别方法
CN106529525A (zh) * 2016-10-14 2017-03-22 上海新同惠自动化系统有限公司 一种中日文手写字符的识别方法
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
CN107194336A (zh) * 2017-05-11 2017-09-22 西安电子科技大学 基于半监督深度距离度量网络的极化sar图像分类方法
CN107944442A (zh) * 2017-11-09 2018-04-20 北京智芯原动科技有限公司 基于改进卷积神经网络的对象检测装置及方法
CN107977665A (zh) * 2017-12-15 2018-05-01 北京科摩仕捷科技有限公司 一种发票中关键信息的识别方法及计算设备
CN108009543A (zh) * 2017-11-29 2018-05-08 深圳市华尊科技股份有限公司 一种车牌识别方法及装置
CN108027738A (zh) * 2015-05-27 2018-05-11 苹果公司 用于在触敏设备上主动识别和显示相关内容的系统和方法
CN108022589A (zh) * 2017-10-31 2018-05-11 努比亚技术有限公司 目标域分类器训练方法、样本识别方法、终端及存储介质
CN108182437A (zh) * 2017-12-29 2018-06-19 北京金堤科技有限公司 一种点选验证码识别方法、装置和用户终端
JP6517681B2 (ja) * 2015-12-17 2019-05-22 日本電信電話株式会社 映像パターン学習装置、方法、及びプログラム

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2682207B1 (fr) * 1991-10-04 1998-07-31 Thomson Csf Procede de reconnaissance automatique de caracteres alphanumeriques manuscrits dans une image et dispositif destine a sa mise en oeuvre
CN102968663A (zh) * 2012-11-29 2013-03-13 河海大学 基于无标记样本的神经网络构建方法及其装置
CN102968637A (zh) * 2012-12-20 2013-03-13 山东科技大学 一种复杂背景图像文字分割方法
CN103077389A (zh) * 2013-01-07 2013-05-01 华中科技大学 一种结合字符级分类和字符串级分类的文本检测和识别方法
CN103077384A (zh) * 2013-01-10 2013-05-01 北京万集科技股份有限公司 一种车标定位识别的方法与系统
CN104504441A (zh) * 2014-12-09 2015-04-08 河海大学 基于敏感性的madaline神经网络构建方法及其装置
CN104573688A (zh) * 2015-01-19 2015-04-29 电子科技大学 基于深度学习的移动平台烟草激光码智能识别方法及装置
CN104778470A (zh) * 2015-03-12 2015-07-15 浙江大学 基于组件树和霍夫森林的文字检测和识别方法
CN108027738A (zh) * 2015-05-27 2018-05-11 苹果公司 用于在触敏设备上主动识别和显示相关内容的系统和方法
CN104866869A (zh) * 2015-05-29 2015-08-26 武汉大学 基于分布差异与增量学习的时序sar图像分类方法
JP6517681B2 (ja) * 2015-12-17 2019-05-22 日本電信電話株式会社 映像パターン学習装置、方法、及びプログラム
CN105654127A (zh) * 2015-12-30 2016-06-08 成都数联铭品科技有限公司 基于端到端的图片文字序列连续识别方法
CN105654129A (zh) * 2015-12-30 2016-06-08 成都数联铭品科技有限公司 一种光学文字序列识别方法
CN106203625A (zh) * 2016-06-29 2016-12-07 中国电子科技集团公司第二十八研究所 一种基于多重预训练的深层神经网络训练方法
CN106295584A (zh) * 2016-08-16 2017-01-04 深圳云天励飞技术有限公司 深度迁移学习在人群属性的识别方法
CN106529525A (zh) * 2016-10-14 2017-03-22 上海新同惠自动化系统有限公司 一种中日文手写字符的识别方法
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
CN107194336A (zh) * 2017-05-11 2017-09-22 西安电子科技大学 基于半监督深度距离度量网络的极化sar图像分类方法
CN108022589A (zh) * 2017-10-31 2018-05-11 努比亚技术有限公司 目标域分类器训练方法、样本识别方法、终端及存储介质
CN107944442A (zh) * 2017-11-09 2018-04-20 北京智芯原动科技有限公司 基于改进卷积神经网络的对象检测装置及方法
CN108009543A (zh) * 2017-11-29 2018-05-08 深圳市华尊科技股份有限公司 一种车牌识别方法及装置
CN107977665A (zh) * 2017-12-15 2018-05-01 北京科摩仕捷科技有限公司 一种发票中关键信息的识别方法及计算设备
CN108182437A (zh) * 2017-12-29 2018-06-19 北京金堤科技有限公司 一种点选验证码识别方法、装置和用户终端

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11967414B2 (en) 2019-04-10 2024-04-23 Tencent Technology (Shenzhen) Company Limited Image recognition model training method and apparatus, and image recognition method, apparatus, and system
CN110009623A (zh) * 2019-04-10 2019-07-12 腾讯科技(深圳)有限公司 一种图像识别模型训练及图像识别方法、装置及系统
CN110032716A (zh) * 2019-04-17 2019-07-19 北京地平线机器人技术研发有限公司 文字编码方法和装置、可读存储介质及电子设备
CN110059628A (zh) * 2019-04-18 2019-07-26 广东小天才科技有限公司 图像识别方法、装置、设备及存储介质
CN110231939B (zh) * 2019-05-16 2024-05-28 平安科技(深圳)有限公司 模型生成方法、系统、计算机设备和存储介质
CN110231939A (zh) * 2019-05-16 2019-09-13 平安科技(深圳)有限公司 模型生成方法、系统、计算机设备和存储介质
CN110175648A (zh) * 2019-05-28 2019-08-27 东莞德福得精密五金制品有限公司 应用人工智能云计算对设备进行非侵入性的信息连通方法
CN110175648B (zh) * 2019-05-28 2024-01-05 东莞德福得精密五金制品有限公司 应用人工智能云计算对设备进行非侵入性的信息连通方法
CN110532968A (zh) * 2019-09-02 2019-12-03 苏州美能华智能科技有限公司 表格识别方法、装置和存储介质
CN110532968B (zh) * 2019-09-02 2023-05-23 苏州美能华智能科技有限公司 表格识别方法、装置和存储介质
CN110647622A (zh) * 2019-09-29 2020-01-03 北京金山安全软件有限公司 交互数据有效性识别方法和装置
CN115004247A (zh) * 2019-12-02 2022-09-02 尤帕斯公司 训练用于机器人过程自动化的光学字符检测和识别模型
CN111242024A (zh) * 2020-01-11 2020-06-05 北京中科辅龙科技股份有限公司 基于机器学习识别图纸内图例及文字的方法及系统
CN111325117B (zh) * 2020-02-05 2024-01-26 北京字节跳动网络技术有限公司 目标对象识别模型的训练方法、装置和电子设备
CN111325117A (zh) * 2020-02-05 2020-06-23 北京字节跳动网络技术有限公司 目标对象识别模型的训练方法、装置和电子设备
CN113591513B (zh) * 2020-04-30 2024-03-29 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN113591513A (zh) * 2020-04-30 2021-11-02 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN111652232A (zh) * 2020-05-29 2020-09-11 泰康保险集团股份有限公司 票据识别方法及装置、电子设备和计算机可读存储介质
CN111652232B (zh) * 2020-05-29 2023-08-22 泰康保险集团股份有限公司 票据识别方法及装置、电子设备和计算机可读存储介质
CN112200188A (zh) * 2020-10-16 2021-01-08 北京市商汤科技开发有限公司 文字识别方法及装置、存储介质
CN112200188B (zh) * 2020-10-16 2023-09-12 北京市商汤科技开发有限公司 文字识别方法及装置、存储介质
CN112800972A (zh) * 2021-01-29 2021-05-14 北京市商汤科技开发有限公司 文字识别方法及装置、存储介质
CN112966712B (zh) * 2021-02-01 2023-01-20 北京三快在线科技有限公司 语言模型训练方法、装置、电子设备和计算机可读介质
CN112966712A (zh) * 2021-02-01 2021-06-15 北京三快在线科技有限公司 语言模型训练方法、装置、电子设备和计算机可读介质
CN113033542A (zh) * 2021-04-25 2021-06-25 中国电子系统技术有限公司 一种文本识别模型的生成方法以及装置
CN113033542B (zh) * 2021-04-25 2024-03-01 中国电子系统技术有限公司 一种文本识别模型的生成方法以及装置
CN113177479B (zh) * 2021-04-29 2024-05-03 联仁健康医疗大数据科技股份有限公司 图像分类方法、装置、电子设备及存储介质
CN113177479A (zh) * 2021-04-29 2021-07-27 联仁健康医疗大数据科技股份有限公司 图像分类方法、装置、电子设备及存储介质
CN113590858A (zh) * 2021-06-30 2021-11-02 北京百度网讯科技有限公司 目标对象的生成方法、装置、电子设备以及存储介质
CN113590858B (zh) * 2021-06-30 2023-10-03 北京百度网讯科技有限公司 目标对象的生成方法、装置、电子设备以及存储介质
CN113362088A (zh) * 2021-08-10 2021-09-07 中博信息技术研究院有限公司 一种基于crnn的电信行业智能客服图像识别的方法及其系统
CN114139729A (zh) * 2022-01-29 2022-03-04 北京易真学思教育科技有限公司 机器学习模型训练方法和装置、文本识别方法和装置

Also Published As

Publication number Publication date
CN109214386B (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN109214386A (zh) 用于生成图像识别模型的方法和装置
US11501182B2 (en) Method and apparatus for generating model
CN110287479B (zh) 命名实体识别方法、电子装置及存储介质
CN111191078B (zh) 基于视频信息处理模型的视频信息处理方法及装置
CN110232183B (zh) 关键词提取模型训练方法、关键词提取方法、装置及存储介质
US9892414B1 (en) Method, medium, and system for responding to customer requests with state tracking
CN107680579B (zh) 文本正则化模型训练方法和装置、文本正则化方法和装置
US10055391B2 (en) Method and apparatus for forming a structured document from unstructured information
Singh et al. Full page handwriting recognition via image to sequence extraction
CN107491534A (zh) 信息处理方法和装置
CN108345692A (zh) 一种自动问答方法和系统
CN111753551B (zh) 基于词向量生成模型的信息生成方法和装置
CN109635103A (zh) 摘要生成方法和装置
CN111414561B (zh) 用于呈现信息的方法和装置
CN108268450B (zh) 用于生成信息的方法和装置
CN108628830A (zh) 一种语义识别的方法和装置
CN110968725B (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN109582788A (zh) 垃圾评论训练、识别方法、装置、设备及可读存储介质
CN110263147A (zh) 推送信息的生成方法及装置
CN109933217A (zh) 用于推送语句的方法和装置
CN114065750A (zh) 商品信息匹配、发布方法及其装置、设备、介质、产品
CN112906380A (zh) 文本中角色的识别方法、装置、可读介质和电子设备
WO2023129255A1 (en) Intelligent character correction and search in documents
CN115906835A (zh) 一种基于聚类和对比学习的中文问句文本表示学习的方法
CN112287159B (zh) 检索方法、电子设备及计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Applicant after: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address before: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Applicant before: BEIJING JINGDONG FINANCIAL TECHNOLOGY HOLDING Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Patentee after: Jingdong Technology Holding Co.,Ltd.

Address before: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Patentee before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Patentee after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: Room 221, 2nd floor, Block C, 18 Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing, 100176

Patentee before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

CP01 Change in the name or title of a patent holder