CN110969154A - 文本识别方法、装置、计算机设备和存储介质 - Google Patents
文本识别方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110969154A CN110969154A CN201911201144.2A CN201911201144A CN110969154A CN 110969154 A CN110969154 A CN 110969154A CN 201911201144 A CN201911201144 A CN 201911201144A CN 110969154 A CN110969154 A CN 110969154A
- Authority
- CN
- China
- Prior art keywords
- text
- text line
- picture
- character
- standard format
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000010606 normalization Methods 0.000 claims abstract description 88
- 238000012549 training Methods 0.000 claims description 123
- 230000006870 function Effects 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 18
- 238000013135 deep learning Methods 0.000 claims description 17
- 238000013145 classification model Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 238000012015 optical character recognition Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Character Input (AREA)
Abstract
本申请涉及一种文本识别方法、装置、计算机设备和存储介质,通过采用训练好的文本归一化模型得到待识别的文本图像中文本行区域对应的归一化后的标准格式的文本行图片,进而根据预设长度在宽度上对标准格式的文本行图片进行切割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置,因此在执行OCR任务时仅需要进行简单的字符分类即可,而不再依赖BLSTM+CTC框架完成,使得硬件资源消耗更少,性能更佳,且网络结构更加简单,从而也具有更高的识别精度。
Description
技术领域
本申请涉及图像识别技术领域,特别是涉及一种文本识别方法、装置、计算机设备和存储介质。
背景技术
随着人工智能技术的发展,越来越多的繁琐工作被机器所取代。OCR(OpticalCharacter Recognition,光学字符识别)任务作为计算机视觉中的一个重要分支,在票据识别、文本自动录入等众多领域应用广泛。但是,通常这类任务的原始文本可能出现于各种复杂背景中,如可能以各种字体、大小等不同样式出现。因此,需要利用计算机视觉相关方法,在从图片中定位到的文本串中识别出对应的字符,以用于下游任务。
而深度学习作为人工智能领域的重要分支,神经网络在各个领域已经取得了巨大的成功。目前,神经网络主要有如下两种:卷积神经网络和循环神经网络,而前者主要用于结构化数据(如图像等),后者主要用序列数据(如语音等)。而将基于深度学习的卷积神经网络应用于OCR任务是目前常用的做法,一般基于BLSTM(Bidirectional Long Short-TermMemory,双向长短期记忆网络)+CTC(Connectionist temporal classification,时序数据分类)的结构实现,现有的模型结构无需考虑文字的对齐问题,虽然能够解决不定长文本的识别,但通常实际输入的文本图片样式复杂,特征多变,从而导致BLSTM网络训练困难,进而影响识别精度。
发明内容
基于此,有必要针对上述传统的网络结构不适用于识别复杂样式的文本图片的问题,提供一种能够识别复杂样式的文本图片的文本识别方法、装置、计算机设备和存储介质。
为了实现上述目的,一方面,本申请实施例提供了一种文本识别方法,所述方法包括:
通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,其中,文本行区域中包括若干个字符,则标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置;
采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本;
根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。
在其中一个实施例中,文本归一化模型的生成方法包括:获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;采用训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在其中一个实施例中,对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片,包括:识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在其中一个实施例中,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,包括:根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在其中一个实施例中,深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;则采用所述训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型,包括:将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在其中一个实施例中,通过文本归一化模型检测待识别的文本图像之前,所述方法还包括:对待识别的文本图像进行文本定位,得到对应的文本行区域;识别文本行区域中的字符数,根据文本行区域中的字符数调整文本行区域的尺寸。
在其中一个实施例中,预设长度为标准格式的文本行图片的高度。
另一方面,本申请实施例提供了一种文本识别装置,所述装置包括:
归一化模块,用于通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,其中,文本行区域中包括若干个字符,则标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
字符分割模块,用于根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置;
字符文本识别模块,用于采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本;
拼接模块,用于根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。
又一方面,本申请实施例提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如上所述方法的步骤。
再一方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述方法的步骤。
上述文本识别方法、装置、计算机设备和存储介质,通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,并根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置,进而采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本,并根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。由于采用训练好的文本归一化模型得到待识别的文本图像中文本行区域对应的归一化后的标准格式的文本行图片,进而对标准格式的文本行图片按字符进行切割,因此在执行OCR任务时仅需要进行简单的字符分类即可,而不再依赖BLSTM+CTC框架完成,使得硬件资源消耗更少,性能更佳,且网络结构更加简单,从而也具有更高的识别精度。
附图说明
图1为一个实施例中文本识别方法的应用环境图;
图2为一个实施例中文本识别方法的流程示意图;
图3为一个实施例中文本归一化模型的生成方法的步骤的流程示意图;
图4为一个实施例中进行归一化处理的步骤的流程示意图;
图5为一个实施例中归一化处理结果的示意图;
图6为一个实施例中生成训练数据集的步骤的流程示意图;
图7为一个实施例中模型训练的步骤的流程示意图;
图8为另一个实施例中文本识别方法的流程示意图;
图9为一个实施例中文本识别装置的结构框图;
图10为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
由于传统的OCR任务通常需要识别各种复杂背景下以不同字体、大小或不同样式出现的字符文本,而传统的基于BLSTM+CTC的网络结构复杂,其通常通过卷积层进行特征提取,得到输入的特征图;然后以特征图在宽度位置的序列视为时序,通过BLSTM网络,提取字符信息;最后通过全连接层,以及CTC损失函数,获取每个位置上是背景还是某一字符的概率。其在面对上述复杂背景下的OCR任务时,导致对BLSTM网络训练困难,进而会影响识别精度。
基于此,本申请提供了一种文本识别方法,其基于文本归一化的思路训练模型,以得到结构简单的文本归一化模型,并利用该文本归一化模型对待识别的文本图像进行归一化处理,以得到归一化后的标准格式的文本行图片,进而对标准格式的文本行图片进行字符分割,因此在执行OCR任务时只需要关注归一化处理后且分割为单个字符的标准图片,从而使得OCR任务更简单,且不再依赖BLSTM+CTC框架完成,则硬件资源消耗更少,性能更佳,且网络结构更加简单,从而也具有更高的识别精度。
本申请提供的文本识别方法,可以应用于如图1所示的应用环境中。其中,终端102与服务器104通过网络进行通信,在本实施例中,终端102可以是各种具有图像采集功能的设备,如可以但不限于各种智能手机、平板电脑、相机和便携式图像采集设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。具体的,终端102用于采集待识别的文本图像,并将采集的待识别的文本图像通过网络发送至服务器104,当然待识别的文本图像也可以预先存储在服务器104中。服务器104则通过文本归一化模型得到待识别的文本图像中文本行区域对应的标准格式的文本行图片,进而将标准格式的文本行图片进行字符分割,通过对分割后的单字符的标准图片进行文本识别,使得进行文本识别的输入具有统一的样式,从而极大的简化了识别任务,并提高了识别精度。
在一个实施例中,如图2所示,提供了一种文本识别方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片。
其中,待识别的文本图像可以是需要进行文本识别的具有任意复杂背景、且包含若干个字符的图片。文本行区域则是对待识别的文本图像进行文本定位后得到的文本区域,由于该文本区域中通常包含若干个字符,因此,在本实施例中定义该文本区域为文本行区域。标准格式的文本行图片是指具有统一整体风格、统一尺寸定义、统一字体类型、统一字符大小以及统一字符位置的图片。文本归一化模型则是预先训练好的,能够将输入的具有任意复杂背景、且包含若干个字符的图片进行归一化处理,从而输出对应的具有归一化样式的标准格式的文本行图片。由于标准格式的文本行图片是对待识别的文本图像中文本行区域进行归一化处理后得到的,因此,标准格式的文本行图片中的字符数与文本行区域中的字符数相同。
步骤204,根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置。
其中,预设长度可以是标准格式的文本行图片定义的高度,由于标准格式的文本行图片具有统一的尺寸定义,如统一的图片高度,而图片的宽度通常为高度与字符数的乘积。因此,在本实施例中,当要对标准格式的文本行图片进行字符分割时,可以根据该预设长度对标准格式的文本行图片进行分割,从而得到对应每一个字符的标准图片及对应的位置。
步骤206,采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本。
其中,字符分类模型可以采用简单的卷积神经网络(Convolutional neuralnetwork,简称CNN)实现,例如具体可以采用Resnet34网络框架实现。其用于根据字符特征对每一个字符的标准图片进行分类,从而得到对应的字符文本。
步骤208,根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。
其中,目标字符串是指对待识别的文本图像执行OCR任务后得到的识别结果。具体的,重复上述步骤对待识别的文本图像对应的标准格式的文本行图片中每一个字符的标准图片进行识别,从而得到对应的字符文本,进而根据每一个字符的标准图片位于标准格式的文本行图片中的位置,对得到的字符文本进行拼接,从而得到与待识别的文本图像中文本行区域对应的目标字符串,即得到对待识别的文本图像进行识别后的目标字符串。
上述文本识别方法,通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,并根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置,进而采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本,并根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。由于采用训练好的文本归一化模型得到待识别的文本图像中文本行区域对应的归一化后的标准格式的文本行图片,进而对标准格式的文本行图片按字符进行切割,因此在执行OCR任务时仅需要进行简单的字符分类即可,而不再依赖BLSTM+CTC框架完成,使得硬件资源消耗更少,性能更佳,且网络结构更加简单,从而也具有更高的识别精度。
在一个实施例中,如图3所示,文本归一化模型的生成方法可以包括如下步骤:
步骤302,获取若干个文本行样本图片。
其中,若干个文本行样本图片是用于后续对模型进行训练的原始数据,其具体可以是具有任意背景、任意风格样式、任意字体以及具有多个字符(即样本字符串)的样本图片。在本实施例中,为了使得模型可以学习到各种输入文本的本质特征,从而获取若干个对模型进行训练用的文本行样本图片。
步骤304,对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片。
其中,标准格式的文本行图片是指具有统一整体风格(如白底黑字、白底蓝字等)、统一尺寸定义(如图片中每个字符所占用的高度和宽度的定义)、统一字体类型、统一字符大小(如字符占据图片尺寸的比例)以及统一字符位置(如按字符数等分,每个字符位于对应等分位置的中心)的图片。归一化则是指对任意背景、任意风格样式以及任意字体的文本行样本图片,将其映射到对应的具有统一整体风格、统一尺寸定义、统一字体类型、统一字符大小以及统一字符位置的标准格式的文本行图片。本实施例通过对文本行样本图片进行归一化处理,从而为每一个文本行样本图片设计具有统一样式的标准格式的文本行图片,使得模型可以更好的学习到各种输入文本的本质特征。
步骤306,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集。
在本实施例中,为了使得模型可以更好的学习到各种输入文本的本质特征,则根据上述步骤获取的若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,进而通过训练数据集对模型进行训练。其中,训练数据集中包括若干个训练样本对,每一训练样本对又包括至少一个文本行样本图片和对应的标准格式的文本行图片。
步骤308,采用训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
其中,深度学习神经网络采用去除了亚像素卷积(sub-pixel convolutionlayers)层的超分辨率残差网络(Super-resolution residual network,简称SRResNet)。具体的,采用上述训练数据集,并利用均方损失函数训练去除了亚像素卷积层的超分辨率残差网络,直到均方损失函数达到最小值时,表示网络已经训练稳定,并学习到字符本质,从而保存模型参数,得到文本归一化模型,以便于后续进行实际的文本识别。
上述文本归一化模型训练方法,由于训练时所使用的训练数据集是由原始数据即文本行样本图片以及通过归一化处理后得到的具有统一样式的标准格式的文本行图片共同组成的,因此,在对模型进行训练的过程中,可以加速模型的训练和收敛,使得模型可以更好的学习到各种输入文本的本质特征,进而在利用模型进行实际识别时,可以得到统一样式的输出,且提高了识别精度。
在一个实施例中,如图4所示,对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片,具体可以包括如下步骤:
步骤402,识别文本行样本图片中样本字符串对应的字符串特征。
其中,字符串特征可以是指字符串本身的特征,如表示数据和信息的字母、数字、文字或其他符号等组成的字符串。由于文本行样本图片中一般包括多个字符,即样本字符串,因此,通过对文本行样本图片中的样本字符串进行识别,从而得到对应的字符串特征。
步骤404,根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
具体的,根据上述对文本行样本图片进行识别而得到对应的字符串特征,进而根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理。举例来说,整体风格的归一化可以是对标准格式的文本行图片的整体格式的归一化,如归一化为白底黑字、白底蓝字等,即标准格式的文本行图片的背景色均归一化为白色,而标准格式的文本行图片中对应字符串特征则均归一化为黑色或蓝色等;尺寸定义的归一化可以是对标准格式的文本行图片的尺寸的归一化,如归一化标准格式的文本行图片的高度,归一化标准格式的文本行图片的宽度为高度与字符数的乘积;字体类型的归一化可以是对标准格式的文本行图片中对应字符串特征的字体类型进行的归一化,如将所有标准格式的文本行图片中对应字符串特征的字体类型均归一化为宋体或其他字体类型等;字符大小的归一化则是对标准格式的文本行图片中对应每一个字符占据该标准格式的文本行图片尺寸的比例进行的归一化,如可以归一化标准格式的文本行图片中每个字符的高度和宽度相等,且占据该标准格式的文本行图片高度的90%;字符位置的归一化则是对标准格式的文本行图片中对应字符串特征位于该标准格式的文本行图片中具体位置进行的归一化,如对图片在宽度上按字符数进行等分,则每个字符归一化为位于对应等分位置的中心等。
因此,对于每一个文本行样本图片,都可以通过上述归一化处理方法,而得到一个与之对应的归一化后的具有统一样式的标准格式的文本行图片,且对于多个文本行样本图片中的字符串特征相同的情况下,其归一化后的结果对应相同的标准格式的文本行图片。举例来说,如图5所示,左侧为文本行样本图片,其右侧为对应的标准格式的文本行图片,如字符串“丁国祥”;且具有相同字符特征的多个文本行样本图片,其对应的归一化后的标准格式的文本行图片为同一个,如对于不同输入风格的“临”字(如图5左侧所示),对应的该标准格式的文本行图片为具有统一样式的“临”字(如图5右侧所示)。
在一个实施例中,如图6所示,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,具体可以包括如下步骤:
步骤602,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对。
其中,第一个训练样本对包括文本行样本图片和对应的标准格式的文本行图片。因此,根据若干个文本行样本图片和与之一一对应的标准格式的文本行图片可以得到若干个训练样本对,通过训练样本对的形式对模型进行训练可以使得模型可以学习到各种输入文本的本质特征。
步骤604,对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对。
具体的,为了精简模型的训练过程,并提高模型的训练和收敛速度,在本实施例中,可以对待进行训练的训练样本对中文本行样本图片的尺寸进行归一化调整,即将文本行样本图片的尺寸调整为固定尺寸,或将文本行样本图片的尺寸调整为与标准格式的文本行图片相同,从而得到尺寸归一化后的训练样本对。
步骤606,将尺寸调整后的若干个训练样本对作为训练数据集。
具体的,通过将上述步骤得到的尺寸归一化后的若干个训练样本对作为训练数据集,由于训练数据集中每一个训练样本对中文本行样本图片与标准格式的文本行图片具有相同大小,且标准格式的文本行图片具有统一的样式,因此,在对模型进行训练时,可以驱使模型忽略不同输入的风格,而只关注字符串特征本身,从而达到学习各种输入文本的本质特征,实现对不同风格的文本归一化的目的。
在一个实施例中,如图7所示,采用训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型,具体包括如下步骤:
步骤702,将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播。
其中,训练数据集中的数据以训练样本对(x_i,y_i)表示,其中,x表示文本行样本图片,y表示该图片对应的归一化后的标准格式的文本行图片,i表示第i个训练样本对。在实际训练中,由于各训练样本对中文本行样本图片的样本字符串的长度可能会有所不同,则对应图片的尺寸也不同,因此,在对模型进行训练时,每次输入一个训练样本对,并进行前向传播。且由于训练样本对中的数据经过了上述预处理,使得一个样本对中文本行样本图片和对应的标准格式的文本行图片的尺寸相同,因此,用于训练的深度学习神经网络可以采用去除了亚像素卷积层的超分辨率残差网络,从而精简了网络结构。
步骤704,采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比。
步骤706,通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
具体的,当向去除了亚像素卷积层的超分辨率残差网络输入一个训练样本对后,通过前向推理,采用均方损失函数(Mean Square Error,简称MSE)计算网络的输出与该训练样本对中对应标准格式的文本行图片的像素级误差,同时根据该误差计算对应的峰值信噪比(Peak signal-to-noise ratio,简称PSNR)。然后继续输入训练数据集中的其他训练样本对,直到累积到批量大小(batch size)的训练样本对,再使用累计平均梯度进行反向传播,进而采用梯度下降法对均方损失函数进行优化,使得参数更新更加平滑。即通过迭代多个批量的训练数据集,执行上述流程,并更新模型参数。当误差值达到最小值时,即误差值不再降低且峰值信噪比达到最大值时终止训练,此时模型参数收敛,保存模型参数,从而得到文本归一化模型。
在一个实施例中,如图8所示,在通过文本归一化模型检测待识别的文本图像之前,上述方法还包括如下步骤:
步骤802,对待识别的文本图像进行文本定位,得到对应的文本行区域。
在本实施例中,为了简化OCR的识别任务,在通过文本归一化模型检测待识别的文本图像之前,首先需要对待识别的文本图像进行文本定位,从而得到待识别文本图像中对应的文本行区域。
步骤804,识别文本行区域中的字符数,根据文本行区域中的字符数调整文本行区域的尺寸。
具体的,可以根据标准格式的文本行图片的尺寸定义对待识别的文本图像中文本行区域的尺寸进行调整,即将待识别的文本行区域的高度调整为定义的标准格式的文本行图片的高度,进而根据文本行区域中的字符数,将文本行区域的宽度调整为其高度与字符数的乘积,从而使得文本归一化模型的输入与输出尺寸相同,以提高后续文本识别的精度。
为了更加清楚的描述本申请所提出的文本识别方法的具体过程,下面以一个具体的实施例来描述本申请的方法,具体以待识别的文本图像中包括“我很好”的字符串为例进行明,其流程如下:
1)首先对待识别的文本图像进行文本定位,得到对应的文本行区域。
即通过文本定位将待识别文本图像中除包含“我很好”的字符串区域之外的其他区域切割掉,从而得到对应的文本行区域,也即字符串区域。
2)识别文本行区域中的字符数,根据文本行区域中的字符数调整文本行区域的尺寸。
具体的,将待识别的文本行区域的高度调整为定义的标准格式的文本行图片的高度,进而根据文本行区域中的字符数,将文本行区域的宽度调整为其高度与字符数的乘积,从而得到尺寸调整后的文本行区域。
3)将尺寸调整后的文本行区域输入上述训练好的文本归一化模型,从而得到归一化后的具有标准格式的文本行图片。
根据上述归一化样式可知,归一化后的图片的宽度为高度的3倍(即3个字符),每个字符均匀分布,且具有上述归一化的样式。
4)根据预设长度在宽度上对标准格式的文本行图片进行分割。
其预设长度可以是定义的标准格式的文本行图片中每一字符的宽度,由于本实施例中定义的字符所占用的空间其高度和宽度相等,因此可以按照高度在宽度上对标准格式的文本行图片进行分割,从而得到对应每一个字符的标准图片及对应的位置。具体的,通过分割后,得到裁剪为3份的单字符的标准图片,每一份对应一个汉字字符。
5)按顺序依次将上述单字符图片输入字符分类模型,即可得到对应的汉字字符(即文本字符串)。
6)将所有字符组合即为目标字符串:“我很好”。从而完成了OCR任务。
这种方式下,完全不需要任何传统技术中的BLSTM和CTC结构,只需要简单的分类网络,即可完成OCR任务。因此,任务得到了最大限度的简化,整体网络更小,结构更简单,训练更容易,收敛更快,硬件资源消耗更少,性能更好。同时,这种方式可以完全可以避免漏识别和多识别等问题,极大的提高了识别精度。
应该理解的是,虽然图1-8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图9所示,提供了一种文本识别装置,包括:归一化模块901、字符分割模块902、字符文本识别模块903和拼接模块904,其中:
归一化模块901,用于通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,其中,文本行区域中包括若干个字符,则标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
字符分割模块902,用于根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置;
字符文本识别模块903,用于采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本;
拼接模块904,用于根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。
在一个实施例中,文本归一化模型具体包括:文本行样本图片获取单元,用于获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;归一化处理单元,用于对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;训练数据集生成单元,用于根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;网络训练单元,用于采用训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在一个实施例中,归一化处理单元具体用于,识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在一个实施例中,训练数据集生成单元具体用于,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在一个实施例中,网络训练单元具体用于,将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在一个实施例中,还包括文本定位模块,用于对待识别的文本图像进行文本定位,得到对应的文本行区域;尺寸调整模块,用于识别文本行区域中的字符数,根据文本行区域中的字符数调整文本行区域的尺寸。
在其中一个实施例中,预设长度为标准格式的文本行图片的高度。
关于文本识别装置的具体限定可以参见上文中对于文本识别方法的限定,在此不再赘述。上述文本识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储训练数据集和待识别的文本图像。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种文本识别方法。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,其中,文本行区域中包括若干个字符,则标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置;
采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本;
根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;采用训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在一个实施例中,深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;则处理器执行计算机程序时还实现以下步骤:将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:在通过文本归一化模型检测待识别的文本图像之前,对待识别的文本图像进行文本定位,得到对应的文本行区域;识别文本行区域中的字符数,根据文本行区域中的字符数调整文本行区域的尺寸。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
通过文本归一化模型检测待识别的文本图像,得到与待识别的文本图像中文本行区域对应的标准格式的文本行图片,其中,文本行区域中包括若干个字符,则标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
根据预设长度在宽度上对标准格式的文本行图片进行分割,得到标准格式的文本行图片中每一个字符的标准图片及对应的位置;
采用字符分类模型识别每一个字符的标准图片,得到对应的字符文本;
根据每一个字符的标准图片的位置对字符文本进行拼接,得到与待识别的文本图像中文本行区域对应的目标字符串。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;采用训练数据集,利用均方损失函数训练深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在一个实施例中,深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;则计算机程序被处理器执行时还实现以下步骤:将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:在通过文本归一化模型检测待识别的文本图像之前,对待识别的文本图像进行文本定位,得到对应的文本行区域;识别文本行区域中的字符数,根据文本行区域中的字符数调整文本行区域的尺寸。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种文本识别方法,其特征在于,所述方法包括:
通过文本归一化模型检测待识别的文本图像,得到与所述待识别的文本图像中文本行区域对应的标准格式的文本行图片,所述文本行区域中包括若干个字符,所述标准格式的文本行图片中的字符数与所述文本行区域中的字符数相同;
根据预设长度在宽度上对所述标准格式的文本行图片进行分割,得到所述标准格式的文本行图片中每一个字符的标准图片及对应的位置;
采用字符分类模型识别所述每一个字符的标准图片,得到对应的字符文本;
根据每一个字符的标准图片的位置对所述字符文本进行拼接,得到与所述待识别的文本图像中文本行区域对应的目标字符串。
2.根据权利要求1所述的文本识别方法,其特征在于,所述文本归一化模型的生成方法包括:
获取若干个文本行样本图片,所述文本行样本图片中包括样本字符串;
对所述文本行样本图片进行归一化处理,得到与所述文本行样本图片对应的标准格式的文本行图片;
根据所述若干个文本行样本图片和与所述若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;
采用所述训练数据集,利用均方损失函数训练深度学习神经网络,直到所述均方损失函数达到最小值时,得到文本归一化模型。
3.根据权利要求2所述的文本识别方法,其特征在于,所述对所述文本行样本图片进行归一化处理,得到与所述文本行样本图片对应的标准格式的文本行图片,包括:
识别所述文本行样本图片中样本字符串对应的字符串特征;
根据所述字符串特征对所述文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
4.根据权利要求2所述的文本识别方法,其特征在于,所述根据所述若干个文本行样本图片和与所述若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,包括:
根据所述若干个文本行样本图片和与所述若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,所述训练样本对包括文本行样本图片和对应的标准格式的文本行图片;
对所述训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;
将尺寸调整后的若干个训练样本对作为所述训练数据集。
5.根据权利要求2所述的文本识别方法,其特征在于,所述深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;所述采用所述训练数据集,利用均方损失函数训练深度学习神经网络,直到所述均方损失函数达到最小值时,得到文本归一化模型,包括:
将所述训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;
采用所述均方损失函数计算所述网络的输出与所述训练数据集中对应标准格式的文本行图片的像素级误差,根据所述误差确定峰值信噪比;
通过梯度下降法对所述均方损失函数进行优化,直到所述误差达到最小值且所述峰值信噪比达到最大值时,保存模型参数,得到所述文本归一化模型。
6.根据权利要求1所述的文本识别方法,其特征在于,所述通过文本归一化模型检测待识别的文本图像之前,所述方法还包括:
对所述待识别的文本图像进行文本定位,得到对应的文本行区域;
识别所述文本行区域中的字符数,根据所述文本行区域中的字符数调整所述文本行区域的尺寸。
7.根据权利要求1所述的文本识别方法,其特征在于,所述预设长度为所述标准格式的文本行图片的高度。
8.一种文本识别装置,其特征在于,所述装置包括:
归一化模块,用于通过文本归一化模型检测待识别的文本图像,得到与所述待识别的文本图像中文本行区域对应的标准格式的文本行图片,所述文本行区域中包括若干个字符,所述标准格式的文本行图片中的字符数与所述文本行区域中的字符数相同;
字符分割模块,用于根据预设长度在宽度上对所述标准格式的文本行图片进行分割,得到所述标准格式的文本行图片中每一个字符的标准图片及对应的位置;
字符文本识别模块,用于采用字符分类模型识别所述每一个字符的标准图片,得到对应的字符文本;
拼接模块,用于根据每一个字符的标准图片的位置对所述字符文本进行拼接,得到与所述待识别的文本图像中文本行区域对应的目标字符串。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911201144.2A CN110969154A (zh) | 2019-11-29 | 2019-11-29 | 文本识别方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911201144.2A CN110969154A (zh) | 2019-11-29 | 2019-11-29 | 文本识别方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110969154A true CN110969154A (zh) | 2020-04-07 |
Family
ID=70032179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911201144.2A Pending CN110969154A (zh) | 2019-11-29 | 2019-11-29 | 文本识别方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110969154A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783781A (zh) * | 2020-05-22 | 2020-10-16 | 平安国际智慧城市科技股份有限公司 | 基于产品协议字符识别的恶意条款识别方法、装置、设备 |
CN112541505A (zh) * | 2020-12-11 | 2021-03-23 | 上海云从企业发展有限公司 | 文本识别方法、装置以及计算机可读存储介质 |
CN112686243A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 智能识别图片文字的方法、装置、计算机设备及存储介质 |
CN112926565A (zh) * | 2021-02-25 | 2021-06-08 | 中国平安人寿保险股份有限公司 | 图片文本的识别方法、系统、设备和存储介质 |
CN113408507A (zh) * | 2021-08-20 | 2021-09-17 | 北京国电通网络技术有限公司 | 基于履历文件的命名实体识别方法、装置和电子设备 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427241A (zh) * | 2015-12-07 | 2016-03-23 | 中国航空工业集团公司洛阳电光设备研究所 | 一种大视场显示设备的畸变校正方法 |
CN106056114A (zh) * | 2016-05-24 | 2016-10-26 | 腾讯科技(深圳)有限公司 | 名片内容识别方法和装置 |
CN106778732A (zh) * | 2017-01-16 | 2017-05-31 | 哈尔滨理工大学 | 基于Gabor滤波器的文字信息特征提取与识别方法 |
CN107391015A (zh) * | 2017-07-19 | 2017-11-24 | 广州视源电子科技股份有限公司 | 一种智能平板的控制方法、装置、设备及存储介质 |
CN107516330A (zh) * | 2017-08-31 | 2017-12-26 | 上海联影医疗科技有限公司 | 模型生成方法、图像处理方法及医学成像设备 |
CN108537146A (zh) * | 2018-03-22 | 2018-09-14 | 五邑大学 | 一种印刷体与手写体混合文本行提取系统 |
CN109697440A (zh) * | 2018-12-10 | 2019-04-30 | 浙江工业大学 | 一种身份证信息提取方法 |
CN109753962A (zh) * | 2019-01-13 | 2019-05-14 | 南京邮电大学盐城大数据研究院有限公司 | 基于混合网络的自然场景图像中文本区域的处理方法 |
CN109993698A (zh) * | 2019-03-29 | 2019-07-09 | 西安工程大学 | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 |
US10423852B1 (en) * | 2018-03-20 | 2019-09-24 | Konica Minolta Laboratory U.S.A., Inc. | Text image processing using word spacing equalization for ICR system employing artificial neural network |
CN110378249A (zh) * | 2019-06-27 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 文本图像倾斜角度识别方法、装置及设备 |
CN110399845A (zh) * | 2019-07-29 | 2019-11-01 | 上海海事大学 | 一种图像中连续成段文本检测与识别方法 |
CN110427938A (zh) * | 2019-07-26 | 2019-11-08 | 中科视语(北京)科技有限公司 | 一种基于深度学习的不规则文字识别装置和方法 |
-
2019
- 2019-11-29 CN CN201911201144.2A patent/CN110969154A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427241A (zh) * | 2015-12-07 | 2016-03-23 | 中国航空工业集团公司洛阳电光设备研究所 | 一种大视场显示设备的畸变校正方法 |
CN106056114A (zh) * | 2016-05-24 | 2016-10-26 | 腾讯科技(深圳)有限公司 | 名片内容识别方法和装置 |
CN106778732A (zh) * | 2017-01-16 | 2017-05-31 | 哈尔滨理工大学 | 基于Gabor滤波器的文字信息特征提取与识别方法 |
CN107391015A (zh) * | 2017-07-19 | 2017-11-24 | 广州视源电子科技股份有限公司 | 一种智能平板的控制方法、装置、设备及存储介质 |
CN107516330A (zh) * | 2017-08-31 | 2017-12-26 | 上海联影医疗科技有限公司 | 模型生成方法、图像处理方法及医学成像设备 |
US10423852B1 (en) * | 2018-03-20 | 2019-09-24 | Konica Minolta Laboratory U.S.A., Inc. | Text image processing using word spacing equalization for ICR system employing artificial neural network |
CN108537146A (zh) * | 2018-03-22 | 2018-09-14 | 五邑大学 | 一种印刷体与手写体混合文本行提取系统 |
CN109697440A (zh) * | 2018-12-10 | 2019-04-30 | 浙江工业大学 | 一种身份证信息提取方法 |
CN109753962A (zh) * | 2019-01-13 | 2019-05-14 | 南京邮电大学盐城大数据研究院有限公司 | 基于混合网络的自然场景图像中文本区域的处理方法 |
CN109993698A (zh) * | 2019-03-29 | 2019-07-09 | 西安工程大学 | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 |
CN110378249A (zh) * | 2019-06-27 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 文本图像倾斜角度识别方法、装置及设备 |
CN110427938A (zh) * | 2019-07-26 | 2019-11-08 | 中科视语(北京)科技有限公司 | 一种基于深度学习的不规则文字识别装置和方法 |
CN110399845A (zh) * | 2019-07-29 | 2019-11-01 | 上海海事大学 | 一种图像中连续成段文本检测与识别方法 |
Non-Patent Citations (2)
Title |
---|
B SHI ER AL.: "ASTER:an attention scene text recognizer with flexible rectification", 《CVPR》, 31 December 2016 (2016-12-31), pages 1 - 10 * |
李少辉;周军;刘波;钱俞好;吴闽仪;: "基于机器视觉和神经网络的低质量文本识别研究", 机电工程, no. 09, 20 September 2018 (2018-09-20), pages 110 - 114 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783781A (zh) * | 2020-05-22 | 2020-10-16 | 平安国际智慧城市科技股份有限公司 | 基于产品协议字符识别的恶意条款识别方法、装置、设备 |
CN112541505A (zh) * | 2020-12-11 | 2021-03-23 | 上海云从企业发展有限公司 | 文本识别方法、装置以及计算机可读存储介质 |
CN112541505B (zh) * | 2020-12-11 | 2021-07-23 | 上海云从企业发展有限公司 | 文本识别方法、装置以及计算机可读存储介质 |
CN112686243A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 智能识别图片文字的方法、装置、计算机设备及存储介质 |
CN112926565A (zh) * | 2021-02-25 | 2021-06-08 | 中国平安人寿保险股份有限公司 | 图片文本的识别方法、系统、设备和存储介质 |
CN112926565B (zh) * | 2021-02-25 | 2024-02-06 | 中国平安人寿保险股份有限公司 | 图片文本的识别方法、系统、设备和存储介质 |
CN113408507A (zh) * | 2021-08-20 | 2021-09-17 | 北京国电通网络技术有限公司 | 基于履历文件的命名实体识别方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492643B (zh) | 基于ocr的证件识别方法、装置、计算机设备及存储介质 | |
CN110969154A (zh) | 文本识别方法、装置、计算机设备和存储介质 | |
CN110569341B (zh) | 配置聊天机器人的方法、装置、计算机设备和存储介质 | |
CN110705233B (zh) | 基于文字识别技术的笔记生成方法、装置和计算机设备 | |
CN110942067A (zh) | 文本识别方法、装置、计算机设备和存储介质 | |
KR20200145827A (ko) | 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체 | |
CN110516541B (zh) | 文本定位方法、装置、计算机可读存储介质和计算机设备 | |
JP2022532177A (ja) | 偽造された顔の認識方法、装置、および非一時的コンピュータ可読記憶媒体 | |
CN111368758A (zh) | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 | |
CN110751500B (zh) | 分享图片的处理方法、装置、计算机设备及存储介质 | |
WO2019223068A1 (zh) | 虹膜图像局部增强方法、装置、设备及存储介质 | |
CN113592807B (zh) | 一种训练方法、图像质量确定方法及装置、电子设备 | |
CN113034514A (zh) | 天空区域分割方法、装置、计算机设备和存储介质 | |
CN111275051A (zh) | 字符识别方法、装置、计算机设备和计算机可读存储介质 | |
US20230245483A1 (en) | Handwriting recognition method and apparatus, and electronic device and storage medium | |
CN116110100A (zh) | 一种人脸识别方法、装置、计算机设备及存储介质 | |
CN112232336A (zh) | 一种证件识别方法、装置、设备及存储介质 | |
CN110956133A (zh) | 单字符文本归一化模型训练方法、文本识别方法及装置 | |
CN111178310A (zh) | 手掌特征识别方法、装置、计算机设备和存储介质 | |
CN113537184A (zh) | Ocr模型训练方法、装置、计算机设备、存储介质 | |
CN106663212A (zh) | 文字识别装置、文字识别方法以及程序 | |
CN111209922B (zh) | 基于svm和opencv的图像色系风格标记方法、装置、设备及介质 | |
CN112861836B (zh) | 文本图像处理方法、文本及卡证图像质量评价方法和装置 | |
CN113409278A (zh) | 图像质量检测方法、装置、设备及介质 | |
CN111405194A (zh) | 图像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |