CN111144345A - 字符识别方法、装置、设备及存储介质 - Google Patents
字符识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111144345A CN111144345A CN201911397683.8A CN201911397683A CN111144345A CN 111144345 A CN111144345 A CN 111144345A CN 201911397683 A CN201911397683 A CN 201911397683A CN 111144345 A CN111144345 A CN 111144345A
- Authority
- CN
- China
- Prior art keywords
- recognition
- character
- characters
- dictionary
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000002372 labelling Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/418—Document matching, e.g. of document images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Character Discrimination (AREA)
Abstract
本发明公开一种字符识别方法、装置、设备及存储介质。该方法包括:通过已经过训练的第一识别模型,对包含字符的待识别字符图片进行识别,以获得第一识别结果;以及当所述待识别字符被识别为第一识别结果包含所述第一识别模型的字典中的通用字符时,从所述待识别图片中分割出包含所述通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对所述待识别字符字符图片进行识别,以获得所述待识别字符的第二识别结果。该方法可以缩短模型训练时间,减少模型存储空间,降低识别时延。
Description
技术领域
本发明涉及字符识别领域,具体而言,涉及一种字符识别方法、装置、设备及存储介质。
背景技术
现有的OCR(Optical Character Recognition,光学字符识别)技术首先检测出文本框在被识别图像中的位置,然后通过CRNN深度学习算法对被检测出的文本框进行识别,得到相应的字符。由于CRNN用到的字典非常庞大(常用字有7000个左右,共有汉字90000多个,此外还包括字母、数字和其他符号),加上受到光照、拍摄角度、以及噪声的影响,需要训练的CRNN模型参数数量很大,得到较高识别率模型所需的训练时间较长,而且模型所占存储空间大,计算量大,识别时延长,不利于实际业务应用。
在所述背景技术部分公开的上述信息仅用于加强对本发明的背景的理解,因此它可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明提供一种字符识别方法、装置、设备及存储介质,能够缩短模型训练时间,减少模型存储空间,降低识别时延。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
根据本发明的一方面,提供一种字符识别方法,包括:通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果;以及当所述第一识别结果包含所述第一识别模型的字典中的通用字符时,从所述待识别图片中分割出包含所述通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对所述字符图片进行识别,以获得第二识别结果。
根据本发明的一实施方式,通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果包括:基于所述第一识别模型,将所述待识别图片中无法识别出的字符识别为所述通用字符。
根据本发明的一实施方式,在获得所述第二识别结果之后,所述方法还包括:用所述第二识别结果替换所述第一识别结果中的所述通用字符,以获得最终识别结果。
根据本发明的一实施方式,在通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别之前,所述方法还包括:根据第一训练样本,对所述第一识别模型进行训练,将所述第一训练样本中对应标签不在所述第一识别模型的字典中的字符的所述对应标签重新标记为所述通用字符。
根据本发明的一实施方式,所述第一识别模型的字典包括:第一汉字字符集合及所述通用字符;所述第二识别模型的字典包括:第二汉字字符集合;所述第一汉字字符集合中的汉字的被使用频率大于所述第二汉字字符集合中的汉字的被使用频率。
根据本发明的一实施方式,所述第一识别模型的字典还包括:第一符号字符集合;所述第二识别模型的字典还包括:第二符号字符集合;所述第一符号字符集合中的符号的被使用频率大于所述第二符号字符集合中的符号的被使用频率。
根据本发明的一实施方式,所述第一识别模型的字典中字符的数量小于所述第二识别模型的字典中字符的数量。
根据本发明的另一方面,提供一种字符识别装置,包括:第一识别模块,用于通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果;以及第二识别模块,用于当所述第一识别结果包含所述第一识别模型的字典中的通用字符时,从所述待识别图片中分割出包含所述通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对所述字符图片进行识别,以获得第二识别结果。
根据本发明的再一方面,提供一种电子设备,包括:存储器、处理器及存储在所述存储器中并可在所述处理器中运行的可执行指令,所述处理器执行所述可执行指令时实现如上述任一种方法。
根据本发明的再一方面,提供一种计算机可读存储介质,其上存储有计算机可执行指令,所述可执行指令被处理器执行时实现如上述任一种方法。
根据本发明的字符识别方法,通过对字典中的字符进行分类,分别训练每个类别下的模型,利用训练好的模型依次进行字符识别,获得识别结果。该方法能够缩短模型的训练时间,减少模型的存储空间,提高字符识别的效率,降低识别的时延。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
通过参照附图详细描述其示例实施例,本发明的上述和其它目标、特征及优点将变得更加显而易见。
图1是根据一示例性实施方式示出的一种字符识别方法的流程图。
图2是根据一示例性实施方式示出的另一种字符识别方法的流程图。
图3是根据一示例性实施方式示出的一种字符识别装置的框图。
图4是根据一示例性实施方式示出的一种电子设备的结构示意图。
图5是根据一示例性实施方式示出的一种计算机可读存储介质的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本发明的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现或者操作以避免喧宾夺主而使得本发明的各方面变得模糊。
此外,在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
图1是根据一示例性实施方式示出的一种字符识别方法的流程图。如图1所示,字符识别方法10包括:
在步骤S102中,通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果。
在步骤S104中,当第一识别结果包含第一识别模型的字典中的通用字符时,从待识别图片中分割出包含通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对字符图片进行识别,以获得第二识别结果。
第一识别模型和第二识别模型例如可以是通用的基于监督学习的CNN(Convolutional Neural Network,卷积神经网络)或者CRNN(Convolutional RecurrentNeural Network,卷积循环神经网络)算法模型。
在一些实施例中,第一识别模型的字典例如可以包括:第一汉字字符集合及通用字符;第二识别模型的字典例如可以包括:第二汉字字符集合;其中,第一汉字字符集合中的汉字的被使用频率大于第二汉字字符集合中的汉字的被使用频率。
例如第一识别模型的字典可以包括若干个常用的汉字和通用字符(通用字符例如可以以符号“*”表示),第二识别模型的字典可以包括若干个次常用的汉字。常用的汉字与次常用的汉字例如可以为由权威发布的常用汉字表、次常用汉字表中的汉字确定。
在一些实施例中,第一识别模型的字典还包括:第一符号字符集合;第二识别模型的字典还包括:第二符号字符集合;第一符号字符集合中的符号的被使用频率大于第二符号字符集合中的符号的被使用频率。
例如第一识别模型的字典还可以包括52个字母、10个数字和若干个常用符号,第二识别模型的字典可以包括次常用的符号。
在一些实施例中,第一识别模型的字典中字符的数量小于第二识别模型的字典中字符的数量。从而使得在对常用汉字、常用符合进行识别时,可以极大地减小计算量、快速地给出识别结果。
需要说明的是,本发明包括但不限于将所有需要被识别的字符分成两个字典,本领域技术人员也可以将所有需要被识别的字符分成多个字典,根据上述方法进行字符识别。
本发明实施方式提供的字符识别方法,通过对字典中的字符进行分类,分别训练每个类别下的模型,利用训练好的模型依次进行字符识别,获得识别结果。该方法能够缩短模型的训练时间,减少模型的存储空间,提高字符识别的效率,降低识别的时延。
应清楚地理解,本发明描述了如何形成和使用特定示例,但本发明的原理不限于这些示例的任何细节。相反,基于本发明公开的内容的教导,这些原理能够应用于许多其它实施方式。
图2是根据一示例性实施方式示出的另一种字符识别方法的流程图。如图2所示,字符识别方法20包括:
在步骤S202中,根据第一训练样本,对第一识别模型进行训练,将第一训练样本中对应标签不在第一识别模型的字典中的字符的对应标签重新标记为通用字符。
第一训练样本包含标签为通用字符的字符。通用字符例如可以为“*”。在第一训练样本中,所有对应标签不在第一识别模型字典中的字符的标签均被标记为通用字符“*”。
在步骤S204中,根据第二训练样本,对第二识别模型进行训练。
第二训练样本中所有字符的标签均在第二识别模型的字典中。
第一识别模型和第二识别模型例如可以是通用的基于监督学习的CNN或者CRNN算法模型。
在一些实施例中,第一识别模型的字典例如可以包括:第一汉字字符集合及通用字符;第二识别模型的字典例如可以包括:第二汉字字符集合;第一汉字字符集合中的汉字的被使用频率大于第二汉字字符集合中的汉字的被使用频率。
例如第一识别模型的字典可以包括若干个常用的汉字和通用字符“*”,第二识别模型的字典可以包括若干个次常用的汉字。常用的汉字与次常用的汉字例如可以为由权威发布的常用汉字表、次常用汉字表中的汉字确定。
在一些实施例中,第一识别模型的字典还包括:第一符号字符集合;第二识别模型的字典还包括:第二符号字符集合;第一符号字符集合中的符号的被使用频率大于第二符号字符集合中的符号的被使用频率。
例如第一识别模型的字典还可以包括52个字母、10个数字和若干个常用符号,第二识别模型的字典可以包括次常用的符号。
在一些实施例中,第一识别模型的字典中字符的数量小于第二识别模型的字典中字符的数量。
在步骤S206中,通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果。
以身份证图片识别为例,输入的身份证图片经过通用的文本行定位算法CTPN(Connectionist Text Proposal Network,连接文本提议网络)处理后得到包含姓名、性别、出生、住址、公民身份号码等信息的文本行图片,其中包含姓名的文本行图片的文本内容为“姓名鄢波”。
待识别字符例如可以是“姓”、“名”、“鄢”、“波”,其中,字符“姓”、“名”、“波”的标签包含在第一识别模型的字典中,字符“鄢”的标签不包含在第一识别模型的字典中,该标签包含在第二识别模型的字典中。
如上述,第一训练样本中,所有对应标签不在第一识别模型字典中的字符的标签均可以被标记为通用字符。
通过已经过训练的第一识别模型,对待识别字符“姓”、“名”、“鄢”、“波”进行识别,其中,“姓”、“名”、“波”的识别结果为“姓”、“名”、“波”;“鄢”的识别结果为通用字符“*”,第一识别结果即为“姓名*波”。
在步骤S208中,判断第一识别结果是否包含通用字符,若识别结果不包含通用字符,则该识别结果即为最终的识别结果;若识别结果包含通用字符,则执行步骤S210。
如上述,第一识别结果为“姓名*波”,包含通用字符“*”。。
也即,对于常用汉字,如“姓”、“名”、“波”,可以基于第一识别模型快速地识别出结果,由于第一识别模型的字典规模小,因此在识别过程中的计算量小且识别速度快。
在步骤S210中,从待识别图片中分割出包含通用字符对应区域的字符图片。
仍以上述身份证图片识别为例,从待识别图片中分割出包含通用字符“*”对应区域的字符图片,即“鄢”字所在区域的字符图片。
在步骤S212中,通过已经过训练的第二识别模型,对字符图片进行识别,以获得第二识别结果。
字符“鄢”的标签包含在第二识别模型的字典中,通过已经过训练的第二识别模型,对“鄢”字所在区域的字符图片进行识别,得到第二识别结果“鄢”。
在步骤S214中,用第二识别结果替换第一识别结果中的通用字符。
用第二识别结果“鄢”替换第一识别结果中的通用字符“*”。
在步骤S212中,得出识别结果。
通过上述步骤,最终得出识别结果“姓名鄢波”。
在本实施例中,可以看出,当待识别字符的标签包含在第一识别模型的字典中时,只需通过第一识别模型对待识别字符进行识别,因此可以提高字符识别速度;当待识别字符的标签包含在第二识别模型的字典中时,通过第一识别模型将其标记为通用字符,然后通过第二识别模型进行字符识别,可以提高字符识别的准确率。第一识别模型的字典和第二识别模型的字典都只包含部分字符,可以缩短模型的训练时间,减少模型的存储空间,降低模型的复杂程度。
需要说明的是,本发明包括但不限于将所有需要被识别的字符分成两个字典,本领域技术人员也可以将所有需要被识别的字符分成多个字典,根据上述方法进行字符识别。
此外,本发明对第一识别模型和第二识别模型所采用的训练方法、识别算法等均不做限制,本领域技术人员应理解的是,该方法可以采用任何可用于对字符进行识别的识别模型来进行字符识别。
本发明实施方式提供的字符识别方法,通过对字典中的字符进行分类,分别训练每个类别下的模型,利用训练好的模型依次进行字符识别,获得识别结果。该方法能够缩短模型的训练时间,减少模型的存储空间,提高字符识别的效率,降低识别的时延。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由CPU执行的计算机程序。在该计算机程序被CPU执行时,执行本发明提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本发明示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。
图3是根据一示例性实施方式示出的一种字符识别装置的框图。如图3所示,装置30包括:第一识别模块302及第二识别模块304。
第一识别模块302用于通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果;以及
第二识别模块304用于当第一识别结果包含第一识别模型的字典中的通用字符时,从待识别图片中分割出包含通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对字符图片进行识别,以获得第二识别结果。
在一些实施例中,第一识别模型的字典包括:第一汉字字符集合及通用字符;第二识别模型的字典包括:第二汉字字符集合;第一汉字字符集合中的汉字的被使用频率大于第二汉字字符集合中的汉字的被使用频率。
在一些实施例中,第一识别模型的字典还包括:第一符号字符集合;第二识别模型的字典还包括:第二符号字符集合;第一符号字符集合中的符号的被使用频率大于第二符号字符集合中的符号的被使用频率。
在一些实施例中,第一识别模型的字典中字符的数量小于第二识别模型的字典中字符的数量。
在一些实施例中,装置30还包括:第一训练模块,用于根据第一训练样本,对第一识别模型进行训练,将第一训练样本中对应标签不在第一识别模型的字典中的字符的对应标签重新标记为通用字符。
在一些实施例中,装置30还包括:第二训练模块,根据第二训练样本,对第二识别模型进行训练;其中,第二训练样本中所有字符的标签均在第二识别模型的字典中。
本发明实施方式提供的字符识别装置,通过对字典中的字符进行分类,分别训练每个类别下的模型,利用训练好的模型依次进行字符识别,获得识别结果。该装置能够缩短模型的训练时间,减少模型的存储空间,提高字符识别的效率,降低识别的时延。
需要注意的是,上述附图中所示的框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图4是根据一示例性实施方式示出的一种电子设备的结构示意图。需要说明的是,图4示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备800以通用计算机设备的形式表现。电子设备800的组件包括:至少一个中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序代码或者从至少一个存储单元808加载到随机访问存储器(RAM)803中的程序代码而执行各种适当的动作和处理。
特别地,根据本发明的实施例,所述程序代码可以被中央处理单元801执行,使得中央处理单元801执行本说明书上述方法实施例部分中描述的根据本发明各种示例性实施方式的步骤。例如,中央处理单元801可以执行如图1或图2中所示的步骤。
在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。CPU 801、ROM802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入单元806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出单元807;包括硬盘等的存储单元808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信单元809。通信单元809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储单元808。
图5是根据一示例性实施方式示出的一种计算机可读存储介质的示意图。
参考图5所示,描述了根据本发明的实施方式的设置为实现上述方法的程序产品900,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现如图1或图2中所示的功能。
以上具体地示出和描述了本发明的示例性实施方式。应可理解的是,本发明不限于这里描述的详细结构、设置方式或实现方法;相反,本发明意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。
Claims (10)
1.一种字符识别方法,其特征在于,包括:
通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果;以及
当所述第一识别结果包含所述第一识别模型的字典中的通用字符时,从所述待识别图片中分割出包含所述通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对所述字符图片进行识别,以获得第二识别结果。
2.根据权利要求1所述的方法,其特征在于,通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果包括:基于所述第一识别模型,将所述待识别图片中无法识别出的字符识别为所述通用字符。
3.根据权利要求1所述的方法,其特征在于,在获得所述第二识别结果之后,所述方法还包括:用所述第二识别结果替换所述第一识别结果中的所述通用字符,以获得最终识别结果。
4.根据权利要求1所述的方法,其特征在于,在通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别之前,所述方法还包括:根据第一训练样本,对所述第一识别模型进行训练,将所述第一训练样本中对应标签不在所述第一识别模型的字典中的字符的所述对应标签重新标记为所述通用字符。
5.根据权利要求1所述的字符识别方法,其特征在于,所述第一识别模型的字典包括:第一汉字字符集合及所述通用字符;所述第二识别模型的字典包括:第二汉字字符集合;所述第一汉字字符集合中的汉字的被使用频率大于所述第二汉字字符集合中的汉字的被使用频率。
6.根据权利要求5所述的字符识别方法,其特征在于,所述第一识别模型的字典还包括:第一符号字符集合;所述第二识别模型的字典还包括:第二符号字符集合;所述第一符号字符集合中的符号的被使用频率大于所述第二符号字符集合中的符号的被使用频率。
7.根据权利要求1-6任一项所述的字符识别方法,其特征在于,所述第一识别模型的字典中字符的数量小于所述第二识别模型的字典中字符的数量。
8.一种字符识别装置,其特征在于,包括:
第一识别模块,用于通过已经过训练的第一识别模型,对包含字符的待识别图片进行识别,以获得第一识别结果;以及
第二识别模块,用于当所述第一识别结果包含所述第一识别模型的字典中的通用字符时,从所述待识别图片中分割出包含所述通用字符对应区域的字符图片,通过已经过训练的第二识别模型,对所述字符图片进行识别,以获得第二识别结果。
9.一种电子设备,包括:存储器、处理器及存储在所述存储器中并可在所述处理器中运行的可执行指令,其特征在于,所述处理器执行所述可执行指令时实现如权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机可执行指令,其特征在于,所述可执行指令被处理器执行时实现如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911397683.8A CN111144345A (zh) | 2019-12-30 | 2019-12-30 | 字符识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911397683.8A CN111144345A (zh) | 2019-12-30 | 2019-12-30 | 字符识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111144345A true CN111144345A (zh) | 2020-05-12 |
Family
ID=70521980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911397683.8A Pending CN111144345A (zh) | 2019-12-30 | 2019-12-30 | 字符识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144345A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111832564A (zh) * | 2020-07-20 | 2020-10-27 | 浙江诺诺网络科技有限公司 | 一种图像文字识别方法、系统及电子设备和存储介质 |
CN111898424A (zh) * | 2020-06-19 | 2020-11-06 | 贝壳技术有限公司 | 文字识别模型训练方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107403130A (zh) * | 2017-04-19 | 2017-11-28 | 北京粉笔未来科技有限公司 | 一种字符识别方法及字符识别装置 |
CN110032938A (zh) * | 2019-03-12 | 2019-07-19 | 北京汉王数字科技有限公司 | 一种藏文识别方法、装置及电子设备 |
CN110163192A (zh) * | 2018-05-28 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 字符识别方法、装置及可读介质 |
CN110555441A (zh) * | 2019-09-10 | 2019-12-10 | 杭州橙鹰数据技术有限公司 | 一种文字识别方法及装置 |
-
2019
- 2019-12-30 CN CN201911397683.8A patent/CN111144345A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107403130A (zh) * | 2017-04-19 | 2017-11-28 | 北京粉笔未来科技有限公司 | 一种字符识别方法及字符识别装置 |
CN110163192A (zh) * | 2018-05-28 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 字符识别方法、装置及可读介质 |
CN110032938A (zh) * | 2019-03-12 | 2019-07-19 | 北京汉王数字科技有限公司 | 一种藏文识别方法、装置及电子设备 |
CN110555441A (zh) * | 2019-09-10 | 2019-12-10 | 杭州橙鹰数据技术有限公司 | 一种文字识别方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111898424A (zh) * | 2020-06-19 | 2020-11-06 | 贝壳技术有限公司 | 文字识别模型训练方法、装置、电子设备及存储介质 |
CN111898424B (zh) * | 2020-06-19 | 2023-07-21 | 贝壳技术有限公司 | 文字识别模型训练方法、装置、电子设备及存储介质 |
CN111832564A (zh) * | 2020-07-20 | 2020-10-27 | 浙江诺诺网络科技有限公司 | 一种图像文字识别方法、系统及电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019184217A1 (zh) | 热点事件分类方法、装置及存储介质 | |
CN111581976A (zh) | 医学术语的标准化方法、装置、计算机设备及存储介质 | |
CN111460250B (zh) | 用于画像的数据的清洗方法、装置、介质及电子设备 | |
CN111459977B (zh) | 自然语言查询的转换 | |
CN109446521B (zh) | 命名实体识别方法、装置、电子设备、机器可读存储介质 | |
CN111783471B (zh) | 自然语言的语义识别方法、装置、设备及存储介质 | |
CN112559885B (zh) | 地图兴趣点的训练模型确定方法、装置及电子设备 | |
CN113158656B (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN113360699A (zh) | 模型训练方法和装置、图像问答方法和装置 | |
CN112464927B (zh) | 一种信息提取方法、装置及系统 | |
CN109784330B (zh) | 招牌内容识别方法、装置及设备 | |
US20230114673A1 (en) | Method for recognizing token, electronic device and storage medium | |
US20230103728A1 (en) | Method for sample augmentation | |
CN107844531B (zh) | 答案输出方法、装置和计算机设备 | |
CN110750984A (zh) | 命令行字符串处理方法、终端、装置及可读存储介质 | |
CN111144345A (zh) | 字符识别方法、装置、设备及存储介质 | |
CN114387602B (zh) | 医疗ocr数据优化模型训练方法、优化方法及设备 | |
CN114417871B (zh) | 模型训练及命名实体识别方法、装置、电子设备及介质 | |
CN114090792A (zh) | 基于对比学习的文档关系抽取方法及其相关设备 | |
CN112632956A (zh) | 文本匹配方法、装置、终端和存储介质 | |
CN110705308B (zh) | 语音信息的领域识别方法、装置、存储介质及电子设备 | |
CN108021918B (zh) | 文字识别方法及装置 | |
CN111898378A (zh) | 政企客户的行业分类方法和装置、电子设备、存储介质 | |
CN110717029A (zh) | 一种信息处理方法和系统 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200512 |