CN110956167B - 一种基于定位字符的分类判别强化分离的方法 - Google Patents
一种基于定位字符的分类判别强化分离的方法 Download PDFInfo
- Publication number
- CN110956167B CN110956167B CN201911253572.XA CN201911253572A CN110956167B CN 110956167 B CN110956167 B CN 110956167B CN 201911253572 A CN201911253572 A CN 201911253572A CN 110956167 B CN110956167 B CN 110956167B
- Authority
- CN
- China
- Prior art keywords
- characters
- character
- text
- pixel
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
- G06V30/244—Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
- G06V30/2455—Discrimination between machine-print, hand-print and cursive writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Character Input (AREA)
Abstract
本发明公开了一种基于定位字符的分类判别强化分离的方法,具体步骤包括:(1)字符定位:通过字符连通域算法或目标识别检测YoLo v3算法对文本图片中的文本字符进行定位处理;(2)字符分类:采用DenseNet网络进行文本字符的多特征提取,并用于文本字符的分类,再对分类后的文本字符进行样本收集和标注;(3)特征提取:根据步骤(2)获得的样本,进行像素级特征提取;(4)强化分离:利用分类器分类得到的重叠混合字符再做强化分离,得到像素级的分类结果,并结合分类器已有的分类结果;直接从步骤(1)中的文本图像中对定位的印刷体字符从像素层面将其灰度值全部设置为白色,实现去除印刷体字符只保留手写体字符。
Description
技术领域
本发明属于文本图像处理技术领域,尤其是涉及一种基于定位字符的分类判别强化分离的方法。
背景技术
随着人工智能信息化时代的发展,图像识别技术逐渐兴起并已深入至各个行业,彻底改变了人类的生产和生活方式。然而技术的不断迭代更新,在传统图像识别领域,原本难以完成的图像处理任务,现阶段可通过人工智能方法实现图像处理的任务需求,弥补传统方法存在的不足。
随着科技的发展,随着人工智能的到来,新的一轮技术革命已然开始;计算机已逐步取代了人工的繁重工作。例如,在文本识别领域,由于大量文本信息待处理,传统的人工审阅方式已然无法满足需求;或者学生考试使用的部分自动批阅系统,以及票据、凭据等的识别录入系统,这些不仅节省了由人工参与而浪费的大量时间,同时提高了工作效率。但作为文本识别系统,对其识别的精度一直以来都有很高的要求,也是目前研究的重点;文本识别主要分为手写体识别和印刷体识别两种,考虑到手写体书写的随意性和复杂性等特点,混合识别变的非常有难度,大多数的识别系统都是将其分开进行识别;伴随智能化识别系统的发展,开始逐渐打破了旧的格局,开辟新的天地;文本识别的前提是先对文本进行定位,实际识别应用中文本大多为印刷体和手写体字符的混合,而手写体通常为识别的重点目标,故需提前对待识别的手写体做出精确定位变得至关重要。
机器视觉发展至今,已取得了辉煌成就。但有关它的研究仍在继续深入,而在当今多元化的社会,随着信息化和智能化技术的逐步展开,开启了一种时代新模式。目前,采用机器视觉技术可以完成各类人工难以实现的复杂任务,为了能够充分利用技术带来的便利,各类产品应运而生。在教育应用领域,存在着众多智能化的批阅产品,这些产品不仅在使用过程中能够增加用户的体验感,同时在行为互动上也增强了用户的参与感。
智能化批阅系统的核心离不开图像中文本字符的识别技术,而识别的前提依赖于强大的学习模型。研究表明,任何一种模型若过于复杂,都将导致其过拟合,使它在预测未知数据时的泛化能力较差。因此,为了提高模型的预测能力,针对复杂情况下的数据识别,模型大多采用分类机制。在图像的文本识别方面,字符种类大致可分为:数字、符号、中文、英文四种,其中除了印刷体字符较为统一规整外,其他的手写体字符则形态万千,因人而异。考虑到手写字符识别的困难性和混合模型学习的复杂性,采取印刷体字符和手写体字符的分类将变得十分必要。
因此,有必要开发一种基于定位字符的分类判别强化分离方法,它采用字符多特征分类的方法并结合其像素级的局部特征进行字符二分类以解决两类字符难以分离的问题,达到字符的强化分离目的。
发明内容
本发明要解决的技术问题是,提供一种基于定位字符的分类判别强化分离方法,它采用字符多特征分类的方法并结合其像素级的局部特征进行字符二分类以解决两类字符难以分离的问题,达到字符的强化分离目的。
为解决上述技术问题,本发明采用的技术方案是:该基于定位字符的分类判别强化分离的方法,具体包括以下步骤:
(1)字符定位:通过字符连通域算法或目标识别检测YoLo v3算法对文本图片中的文本字符进行定位处理,获取所述文本字符的定位坐标;
(2)字符分类:采用DenseNet网络进行文本字符的多特征提取,并用于文本字符的分类,再对分类后的文本字符进行样本收集和标注;
(3)特征提取:根据步骤(2)获得的样本,进行像素级特征提取;
(4)强化分离:利用手写印刷的字符分类器对输入的字符图片进行多特征提取和分类,将分类得到的重叠混合字符再做强化分离,得到像素级的分类结果,并结合所述分类器已有的分类结果;直接从所述步骤(1)中的文本图像中对定位的印刷体字符从像素层面将其灰度值全部设置为白色,将印刷体字符去除,只保留手写体字符,强化分离手写体字符和印刷体字符。
采用上述技方案,通过多种算法对图片中文本字符进行定位,再通过提取文本字符的特征,进行分类;对分类后的样本进行像素级特征提取,再将重叠混合字符做强化分离,从而获得手写体字符和印刷体字符的强化分离;该基于定位字符的分类判别强化分离的方法无需模板,便可达到手写印刷字符完全分离的目的,进而提取出手写体字符;该基于定位字符的分类判别强化分离的方法属于无模板分离技术;可实现复杂图像文本字符情形下对三种字符的分类,并有针对性的解决了印刷手写重叠字符问题,达到手写印刷字符强化分离的目的。
作为本发明的优选技术方案,所述步骤(2)中的将文本字符分成三种类别:印刷体字符、手写体字符和重叠混合字符。为了能够对印刷体和手写体字符做出精准分离,将图片中的文本字符分成三种类别。
作为本发明的优选技术方案,所述步骤(1)中采用目标识别检测YoLo v3算法对图片中的文本字符进行定位处理的具体步骤为:
S1-1:对图片中的每个文本字符进行标注;
S1-2:通过DarkNet53网络对每个文本字符进行特征提取;并采用不同尺度的特征图对提取的特征进行目标检测;
S1-3:将DarkNet53网络产出的不同尺度的所述特征图作为输入,以FPN(featurepyramid networks)算法作为参考,通过卷积层和上采样对不同尺度的特征图进行融合,从而实现快速的对图片中的每个字符进行定位和检测。
作为本发明的优选技术方案,所述步骤(1)中采用所述字符连通域算法对图片中的文本字符进行定位处理的具体步骤为:
S11:按行和列遍历图片中第一个有像素值的点P(x,y),并赋予其一个标注label,然后将与像素点相邻的所有前景像素都压入栈中;
S12:弹出栈顶像素,赋予其相同的标注label,然后再将与所述栈顶像素相邻的所有前景像素都压入栈中,重复此步骤,直至栈为空,便得到了图片中的某一个连通区域;
S13:重复步骤S11和步骤S12,完成整张图片的遍历,最终可得到所有文本字符的连通区域,从而实现文本字符的定位。
作为本发明的优选技术方案,所述步骤(2)具体步骤为:
S21:采用DenseNet网络进行文本字符的多特征提取,并将提取到的文本字符根据特征分成印刷体字符、手写体字符和重叠混合字符;
S22:对所述步骤S21中的所述印刷体字符、手写体字符和重叠混合字符分别进行样本收集和标注,其中重叠混合字符则采用图片合成技术生成其样本。
作为本发明的优选技术方案,所述步骤S22中所述重叠混合字符则采用图片合成技术生成其样本的具体步骤为:
S221:将手写体文本字符图片和印刷体文本字符图片的大小调整为相同大小;
S222:对步骤S221中调整大小后的图片做二值化处理,再对处理后的图片做“或”运算保留其有效像素位;
S223:根据二值化处理后的合成图,筛选出有效像素位,再从文本字符的原始图的对应位置选取合成图像素值,从而得到重叠混合的文本字符图。
作为本发明的优选技术方案,所述步骤(3)中使用深度学习神经网络FCN进行多层卷积后,提取到所述印刷体字符和所述手写体字符的像素级特征。
作为本发明的优选技术方案,所述步骤S222中的二值化处理具体过程为:设定全局阈值128,将大于128的像素群像素值设定为白色,将小于128的像素群像素值设定为黑色。
作为本发明的优选技术方案,将输入的文本字符图片的大小调整为统一的固定大小32*32。
作为本发明的优选技术方案,所述步骤(4)中先通过上采样处理将提取到的文本字符的特征图片放大至输入图片的大小,保证特征图片的每个像素位与原图对齐,再对字符像素特征进行分类处理。由于字符的像素级分类和字符的分类不同,像素级分类要求的特征更加精确,因此先将图片放大至输入图片大小。
作为本发明的优选技术方案,所述步骤(4)中将判断为印刷体的字符像素的灰度值设置为255。
相比现有技术,该技术方案具有的有益效果是:通过多种算法对图片中文本字符进行定位,再通过提取文本字符的特征,进行分类;对分类后的样本进行像素级特征提取,再将重叠混合字符做强化分离,从而获得手写体字符和印刷体字符的强化分离;该基于定位字符的分类判别强化分离的方法无需模板,便可达到手写印刷字符完全分离的目的,进而提取出手写体字符;该基于定位字符的分类判别强化分离的方法属于无模板分离技术;可实现复杂图像文本字符情形下对三种字符的分类,并有针对性的解决了印刷手写重叠字符问题,达到手写印刷字符强化分离的目的。
附图说明
下面结合附图和本发明的实施方式进一步详细说明:
图1是本发明的基于定位字符的分类判别强化分离的方法的流程图;
图2是本发明的基于定位字符的分类判别强化分离的方法的步骤(1)的文本字符定位结果图;
图3是本发明的基于定位字符的分类判别强化分离的方法的步骤(2)中的三种字符分类的效果图;
图4是本发明的基于定位字符的分类判别强化分离的方法的步骤(2)中手写字符提取的结果图;
图5是本发明的基于定位字符的分类判别强化分离的方法的重叠混合字符分离的效果图;
具体实施方式
实施例:如图1~5所示,该基于定位字符的分类判别强化分离的方法,具体包括以下步骤:
(1)字符定位:通过字符连通域算法或目标识别检测YoLo v3算法对文本图片中的文本字符进行定位处理,获取所述文本字符的定位坐标,定位效果如图2所示;
所述步骤(1)中采用目标识别检测YoLo v3算法对图片中的文本字符进行定位处理的具体步骤为:
S1-1:对图片中的每个文本字符进行标注;
S1-2:通过DarkNet53网络对每个文本字符进行特征提取;并采用不同尺度的特征图对提取的特征进行目标检测;
S1-3:将DarkNet53网络产出的不同尺度的所述特征图作为输入,以FPN(featurepyramid networks)算法作为参考,通过卷积层和上采样对不同尺度的特征图进行融合,从而实现快速的对图片中的每个字符进行定位和检测;
(2)字符分类:采用DenseNet网络进行文本字符的多特征提取,并用于文本字符的分类,为了能够对印刷体和手写体字符做出精准分离,将图片中的文本字符分成三种类别:印刷体字符、手写体字符和重叠混合字符,如图3所示;再对分类后的文本字符进行样本收集和标注;
所述步骤(2)具体步骤为:
S21:采用DenseNet网络进行文本字符的多特征提取,并将提取到的文本字符根据特征分成印刷体字符、手写体字符和重叠混合字符;
S22:对所述步骤S21中的所述印刷体字符、手写体字符和重叠混合字符分别进行样本收集和标注,其中重叠混合字符则采用图片合成技术生成其样本;
所述步骤S22中所述重叠混合字符则采用图片合成技术生成其样本的具体步骤为:
S221:将手写体文本字符图片和印刷体文本字符图片的大小调整为相同大小;
S222:对步骤S221中调整大小后的图片做二值化处理,再对处理后的图片做“或”运算保留其有效像素位;
所述步骤S222中的二值化处理具体过程为:设定全局阈值128,将大于128的像素群像素值设定为白色,将小于128的像素群像素值设定为黑色;
S223:根据二值化处理后的合成图,筛选出有效像素位,再从文本字符的原图的对应位置选取像素较大的值作为最终的合成图像素值,从而得到重叠混合的文本字符图,如图4所示;
(3)特征提取:根据步骤(2)获得的样本,进行像素级特征提取;
所述步骤(3)中使用深度学习神经网络FCN进行多层卷积后,提取到所述印刷体字符和所述手写体字符的像素级特征;
(4)强化分离:利用手写印刷的字符分类器对输入的字符图片进行多特征提取和分类,将分类得到的重叠混合字符再做强化分离,得到像素级的分类结果,并结合所述分类器已有的分类结果;直接从所述步骤(1)中的文本图像中对定位的印刷体字符从像素层面将其灰度值全部设置为255(白色),将印刷体字符去除,只保留手写体字符,强化分离手写体字符和印刷体字符,如图5所示。
实施例2:该基于定位字符的分类判别强化分离的方法,具体包括以下步骤:
(1)字符定位:通过字符连通域算法或目标识别检测YoLo v3算法对文本图片中的文本字符进行定位处理,获取所述文本字符的定位坐标;
所述步骤(1)中采用所述字符连通域算法对图片中的文本字符进行定位处理的具体步骤为:
S11:按行和列遍历图片中第一个有像素值的点P(x,y),并赋予其一个标注label,然后将与像素点相邻的所有前景像素都压入栈中;
S12:弹出栈顶像素,赋予其相同的标注label,然后再将与所述栈顶像素相邻的所有前景像素都压入栈中,重复此步骤,直至栈为空,便得到了图片中的某一个连通区域;
S13:重复步骤S11和步骤S12,完成整张图片的遍历,最终可得到所有文本字符的连通区域,从而实现文本字符的定位;
(2)字符分类:采用DenseNet网络进行文本字符的多特征提取,并用于文本字符的分类,为了能够对印刷体和手写体字符做出精准分离,将图片中的文本字符分成三种类别:印刷体字符、手写体字符和重叠混合字符;再对分类后的文本字符进行样本收集和标注;
所述步骤(2)具体步骤为:
S21:采用DenseNet网络进行文本字符的多特征提取,并将提取到的文本字符根据特征分成印刷体字符、手写体字符和重叠混合字符;
S22:对所述步骤S21中的所述印刷体字符、手写体字符和重叠混合字符分别进行样本收集和标注,其中重叠混合字符则采用图片合成技术生成其样本;
所述步骤S22中所述重叠混合字符则采用图片合成技术生成其样本的具体步骤为:
S221:将手写体文本字符图片和印刷体文本字符图片的大小调整为相同大小32*32;
S222:对步骤S221中调整大小后的图片做二值化处理,再对处理后的图片做“或”运算保留其有效像素位;
所述步骤S222中的二值化处理具体过程为:设定全局阈值128,将大于128的像素群像素值设定为白色,将小于128的像素群像素值设定为黑色;
S223:根据二值化处理后的合成图,筛选出有效像素位,再从文本字符的原图的对应位置选取像素较大的值作为最终的合成图像素值,从而得到重叠混合的文本字符图;
(3)特征提取:根据步骤(2)获得的样本,进行像素级特征提取;
所述步骤(3)中使用深度学习神经网络FCN进行多层卷积后,提取到所述印刷体字符和所述手写体字符的像素级特征;
(4)强化分离:先通过上采样处理将提取到的文本字符的特征图片放大至输入图片的大小,保证特征图片的每个像素位与原图对齐,再对字符像素特征进行分类处理;利用手写印刷的字符分类器对输入的字符图片进行多特征提取和分类,将分类得到的重叠混合字符再做强化分离,得到像素级的分类结果,并结合所述分类器已有的分类结果;直接从所述步骤(1)中的文本图像中对定位的印刷体字符从像素层面将其灰度值全部设置为255(白色),以达到去除印刷体字符只保留手写体字符的目的,最终实现手写体字符和印刷体字符的强化分离。
上面结合附图对本发明的实施方式作了详细的说明,但是本发明不限于上述实施方式,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (6)
1.一种基于定位字符的分类判别强化分离的方法,其特征在于,具体包括以下步骤:
(1)字符定位:通过字符连通域算法或目标识别检测YoLo v3算法对文本图片中的文本字符进行定位处理,获取所述文本字符的定位坐标;
(2)字符分类:采用DenseNet网络进行文本字符的多特征提取,再对提取到文本字符特征用于文本字符的分类,最后对分类的文本字符进行样本收集和标注;
(3)特征提取:根据步骤(2)获得的样本,进行像素级特征提取;
(4)强化分离:利用手写印刷的字符分类器对输入的字符图片进行多特征提取和分类,将分类得到的重叠混合字符再做强化分离,得到像素级的分类结果,并结合所述分类器已有的分类结果;直接从所述步骤(1)中的文本图像中对定位的印刷体字符从像素层面将其灰度值全部设置为白色,将印刷体字符去除,只保留手写体字符,强化分离手写体字符和印刷体字符;
所述步骤(1)中采用目标识别检测YoLo v3算法对图片中的文本字符进行定位处理的具体步骤为:
S1-1:对图片中的每个文本字符进行标注;
S1-2:通过DarkNet53网络对每个文本字符进行特征提取;并采用不同尺度的特征图对提取的特征进行目标检测;
S1-3:将DarkNet53网络产出的不同尺度的所述特征图作为输入,以FPN(featurepyramid networks)算法作为参考,通过卷积层和上采样对不同尺度的特征图进行融合,从而实现快速的对图片中的每个字符进行定位和检测;
所述步骤(1)中采用所述字符连通域算法对图片中的文本字符进行定位处理的具体步骤为:
S11:按行和列遍历图片中第一个有像素值的点P(x,y),并赋予其一个标注label,然后将与像素点相邻的所有前景像素都压入栈中;
S12:弹出栈顶像素,赋予其相同的标注label,然后再将与所述栈顶像素相邻的所有前景像素都压入栈中,重复此步骤,直至栈为空,便得到了图片中的某一个连通区域;
S13:重复步骤S11和步骤S12,完成整张图片的遍历,最终可得到所有文本字符的连通区域,从而实现文本字符的定位。
2.根据权利要求1所述的基于定位字符的分类判别强化分离的方法,其特征在于,所述步骤(2)中的将文本字符分成三种类别:印刷体字符、手写体字符和重叠混合字符。
3.根据权利要求2所述的基于定位字符的分类判别强化分离的方法,其特征在于,所述步骤(2)具体步骤为:
S21:采用DenseNet网络进行文本字符的多特征提取,网络提取特征使用了3个densblock,特征图层的增长率k设置为3,每个dens block均采用3*3的卷积核进行卷积,且每个dens block前又添加了一层1*1的卷积操作,并将提取到的文本字符根据特征分成印刷体字符、手写体字符和重叠混合字符;
S22:对所述步骤S21中的所述印刷体字符、手写体字符和重叠混合字符分别进行样本收集和标注,其中重叠混合字符则采用图片合成技术生成其样本。
4.根据权利要求3所述的基于定位字符的分类判别强化分离的方法,其特征在于,所述步骤S22中所述重叠混合字符则采用图片合成技术生成其样本的具体步骤为:
S221:将手写体文本字符图片和印刷体文本字符图片的大小调整为相同大小;
S222:对步骤S221中调整大小后的图片做二值化处理,再对处理后的图片做“或”运算保留其有效像素位;
S223:根据二值化处理后的合成图,筛选出有效像素位,再从文本字符的原始图的对应位置选取合成图像素值,从而得到重叠混合的文本字符图。
5.根据权利要求4所述的基于定位字符的分类判别强化分离的方法,其特征在于,所述步骤(3)中使用深度学习神经网络FCN进行多层卷积后,提取到所述印刷体字符和所述手写体字符的像素级特征。
6.根据权利要求4所述的基于定位字符的分类判别强化分离的方法,其特征在于,所述步骤S222中的二值化处理具体过程为:设定全局阈值128,将大于128的像素群像素值设定为白色,将小于128的像素群像素值设定为黑色。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911253572.XA CN110956167B (zh) | 2019-12-09 | 2019-12-09 | 一种基于定位字符的分类判别强化分离的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911253572.XA CN110956167B (zh) | 2019-12-09 | 2019-12-09 | 一种基于定位字符的分类判别强化分离的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110956167A CN110956167A (zh) | 2020-04-03 |
CN110956167B true CN110956167B (zh) | 2023-04-28 |
Family
ID=69980540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911253572.XA Active CN110956167B (zh) | 2019-12-09 | 2019-12-09 | 一种基于定位字符的分类判别强化分离的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110956167B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582273B (zh) * | 2020-05-09 | 2023-10-10 | 中国工商银行股份有限公司 | 图像文本识别方法及装置 |
CN111881906A (zh) * | 2020-06-18 | 2020-11-03 | 广州万维创新科技有限公司 | 一种基于注意力机制图像检索的logo识别方法 |
CN111737478B (zh) * | 2020-08-07 | 2021-06-01 | 北京易真学思教育科技有限公司 | 文本检测方法、电子设备及计算机可读介质 |
CN112308058B (zh) * | 2020-10-25 | 2023-10-24 | 北京信息科技大学 | 一种手写字符的识别方法 |
CN113688927B (zh) * | 2021-08-31 | 2024-10-18 | 中国平安人寿保险股份有限公司 | 一种图片样本生成方法、装置、计算机设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537146B (zh) * | 2018-03-22 | 2023-03-31 | 五邑大学 | 一种印刷体与手写体混合文本行提取系统 |
CN108898137B (zh) * | 2018-05-25 | 2022-04-12 | 黄凯 | 一种基于深度神经网络的自然图像字符识别方法及系统 |
CN109871525A (zh) * | 2019-02-18 | 2019-06-11 | 南京红松信息技术有限公司 | 一种易于ocr识别的印刷排版的批阅系统及实现方法 |
CN110378310B (zh) * | 2019-07-25 | 2023-10-10 | 南京红松信息技术有限公司 | 一种基于答案库的手写样本集的自动生成方法 |
-
2019
- 2019-12-09 CN CN201911253572.XA patent/CN110956167B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110956167A (zh) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956167B (zh) | 一种基于定位字符的分类判别强化分离的方法 | |
CN110991439B (zh) | 一种基于像素级多特征联合分类的手写体字符的提取方法 | |
Preethi et al. | Region-based convolutional neural network for segmenting text in epigraphical images | |
CN102332096B (zh) | 一种视频字幕文本提取和识别的方法 | |
Zheng et al. | An algorithm for accuracy enhancement of license plate recognition | |
JP5379085B2 (ja) | スキャンされた文書画像内の前景画素群の連結グループをマーキング種類に基づき分類する方法及びシステム | |
EP2275973B1 (en) | System and method for segmenting text lines in documents | |
CN103093240A (zh) | 书法字识别方法 | |
CN104408449A (zh) | 智能移动终端场景文字处理方法 | |
CN112183639B (zh) | 一种矿物图像识别与分类方法 | |
CN112069900A (zh) | 基于卷积神经网络的票据文字识别方法及系统 | |
CN112446259A (zh) | 图像处理方法、装置、终端和计算机可读存储介质 | |
CN109685065A (zh) | 试卷内容自动分类的版面分析方法、系统 | |
CN105117741A (zh) | 一种书法字风格的识别方法 | |
CN113901952A (zh) | 一种基于深度学习的印刷体与手写体分开文字识别方法 | |
Sudarsan et al. | Digitalization of malayalam palmleaf manuscripts based on contrast-based adaptive binarization and convolutional neural networks | |
Sarkar et al. | Suppression of non-text components in handwritten document images | |
Chen et al. | A knowledge-based system for extracting text-lines from mixed and overlapping text/graphics compound document images | |
Jena et al. | Odia characters and numerals recognition using hopfield neural network based on zoning feature | |
CN110046618B (zh) | 基于机器学习和最大极值稳定区域的车牌识别方法 | |
Al-Shemarry et al. | Identifying License Plates in Distorted Vehicle Images: Detecting Distorted Vehicle Licence Plates Using a Novel Preprocessing Methods With Hybrid Feature Descriptors | |
Seuret et al. | Pixel level handwritten and printed content discrimination in scanned documents | |
CN111062375B (zh) | 一种基于上下文关系的题号缺失补全方法 | |
CN112633287A (zh) | 一种面向矿井多源异构图文信息的文本识别方法及装置 | |
Tofani et al. | Segmentation of text from color map images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |