CN104794479B - 基于局部笔画宽度变换的自然场景图片中文本检测方法 - Google Patents

基于局部笔画宽度变换的自然场景图片中文本检测方法 Download PDF

Info

Publication number
CN104794479B
CN104794479B CN201410026091.6A CN201410026091A CN104794479B CN 104794479 B CN104794479 B CN 104794479B CN 201410026091 A CN201410026091 A CN 201410026091A CN 104794479 B CN104794479 B CN 104794479B
Authority
CN
China
Prior art keywords
value
gray
text
pixel
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410026091.6A
Other languages
English (en)
Other versions
CN104794479A (zh
Inventor
董文妍
连宙辉
唐英敏
肖建国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201410026091.6A priority Critical patent/CN104794479B/zh
Publication of CN104794479A publication Critical patent/CN104794479A/zh
Application granted granted Critical
Publication of CN104794479B publication Critical patent/CN104794479B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于局部笔画宽度变换的自然场景图片中文本检测方法,其步骤包括:1)对待检测的自然场景图片进行预先处理以得到灰度图,然后求出灰度图的边缘图;2)根据边缘图与灰度图,采用二值化方法生成相应的二值图;3)根据二值图将含有相同值的相邻像素集合成候选部件;4)对候选部件进行笔画宽度计算,得出每个像素点所在文字笔画的宽度值;5)根据计算出的笔画宽度值使用滤波器对候选部件进行过滤,筛选出文本部件;6)将筛选出的文本部件连接成文本行,并显示最后结果。本发明方法是一种计算成本低、高效直观的文本检测方法,可以有效提高自然场景图片中的文本检测的准确性和精确度。

Description

基于局部笔画宽度变换的自然场景图片中文本检测方法
技术领域
本发明属于人工智能中模式识别技术领域,具体涉及一种基于局部笔画宽度变换的自然场景图片中文本检测方法。
背景技术
自然场景中的图片,是指由各种拍摄设备如照相机、手机等,没有特定限制的条件下,直接对生活中真实存在的场景拍摄下来的图片。在自然场景图像中寻找文字区域很有必要,这些文字数据承载着人们日常生活中的非常有用和重要的信息,如街道牌、广告牌、交通指示牌等,对于辅助人们获取场景信息很有帮助。文字的出现主要是为了提示人们注意一些有用信息,用我们身边的便携设备提取、识别并记录,乃至上网搜索相关内容,可以大大方便我们的生活。文字是我们生活中最直接最明确的信息载体,文字检测识别对于科研和生活都有很大的应用价值。在自然场景有文本有它自己独有的特点,如语言、字体、颜色、大小、方向等方面。因此自然场景中的文字检测识别需要与自身特点相适应的研究方法。并保证一定的提取成功率,在实际应用中将有很好的前景。
在现有技术中主要有三个基本方法:根据颜色相关性的连通域方法、运用机器学习进行图像纹理分析方法、根据图像文字与背景对比度的检测边缘方法以及它们的综合应用。基于连通域的方法原理比较直观,只适合处理背景较为简单的图像;基于纹理分析方法的基本思想是将文字区域作为一种特殊的纹理对象来考虑,其检测精度高但需要对整幅图像进行扫描和纹理分割,事先进行大量训练,计算代价比较高,检测效果也与训练样本有关;基于边缘的方法容易产生较高的虚警,因此如何有效滤除背景边缘需要较多的后续处理。
发明内容
针对现有技术中存在的缺陷,本发明的目的是提出一种计算成本低、高效直观的基于局部笔画宽度变换的文本检测方法,从而提高了场景图片中的文本检测精准度。
为达到以上目的,本发明采用的技术方案是:
一种基于局部笔画宽度变换的自然场景图片中文本检测方法,包括以下步骤:
1)对待检测的自然场景图片进行预先处理以得到灰度图,然后求出灰度图的边缘图;
2)根据边缘图与灰度图采用二值化方法生成相应的二值图;
3)根据二值图,将含有相同值1的相邻像素集合成候选部件;
4)对候选部件进行笔画宽度计算,得出每个像素点所在文字笔画的宽度值;
5)根据计算出的笔画宽度值使用滤波器对候选部件进行过滤,筛选出文本部件;
6)将筛选出的文本部件连接成文本行,并显示最后结果。
进一步地,步骤1)所述预先处理的步骤依次包括图像大小调整(保持长宽比,缩小到不大于1600*1200)、图像平滑(高斯模糊)和图像灰度化处理。
进一步地,步骤1)使用Canny算子求出灰度图的边缘图。
进一步地,步骤2)所述二值化方法为自适应的二值化方法,其具体步骤包括:
2-1)对原图像的灰度图矩阵Gg与原图像的边缘图矩阵Ge计算点乘,保留灰度图上是边缘点像素的数值:
Gs(i,j)=Gg(i.j)Ge(i,j)
其中(i,j)表示第i行第j列的元素,同时保留灰度图上下左右四边界像素值,其它位置值为零,即生成骨架图Gs
2-2)对骨架图Gs使用下面公式,在骨架图Gs中非边缘非边界的位置计算出相应的加权值填充,即生成新图Gp
其中,x1x2,y1和y2为当前点与在水平方向和垂直方向的正反向的最近的4个边缘或边界点距离,x1p,x2p,y1p和y2p为四个最近点在灰度图上的数值;
2-3)将新图Gp与灰度图Gg相减得到差图Gd
Gd=Gp-Gg
在新生成的二值图上,如果相应点在差图Gd上的像素值大于正阈值的则标记为1,其余为0,或者将小于负阈值的位置标记为1,其余为0,
其中,pt为正阈值,nt为负阈值,二者皆为正整数。所述阈值pt和nt根据边缘点的数量不同取1或9。
进一步地,步骤2)生成两幅Gb二值图,以便找出前景比背景亮的文字与背景相对亮的文字,步骤3)在两幅二值图中分别聚集四连通且值为1的像素,生成各个候选部件,得出各自的候选部件图。
进一步地,步骤4)进行笔画宽度计算的方法是:在每个部件的边缘图上,沿着当前边缘像素点梯度方向射线找到所在笔画另一端的对应边缘点,这个对应的边缘点与当前像素点的梯度方向相反。初始化建立全零的笔画宽度图,将这个图上两对应点连线之间的所有像素分别置为两点距离的数值。若当前像素有多个笔画宽度的连线经过,则将各连线距离的最小值作为当前像素的笔画宽度值。
进一步地,步骤5)计算每个候选部件的特征值向量,该特征向量包括包围矩形的长宽及中心坐标,笔画宽度值的均值、方差、中值,然后使用启发式规则设置滤波器,所述启发式规则是:如果候选部件有一个或多个特征不符合要求即被去除;进行评判的属性值包括:文本部件的像素数目与包围矩形像素数目比、包围矩形对角线值与笔画中值比、部件标准差与均值的比。
进一步地,步骤5)使用滤波器对候选部件进行过滤时,检测每个部件的SIFT关键点的数目。使用每个部件的像素占有比及包围矩形的长、宽作为特征训练出一个支持向量机,用来判别部件是否属于特殊字符。删除没有SIFT关键点且不属于特殊字符的部件。
进一步地,步骤5)通过滤波器得到常规的文字后,将所有满足包围矩形的中心距离小于两部件中较大宽度的两倍的两两部件组合成部件对,记下所有可能的组合,并根据两部件的包围矩形的中心位置计算出每对组合的方向向量;之后将所有方向相近、含有相同部件的部件对整合成字符串,直到没有可以继续整合的字符串为止;之后对属于多个方向的文本行的部件进行判断,使其归入行间距最小文本行中;之后寻找文本行中间距过大的位置,切割出各个单词。
本发明的基于局部笔画宽度变换的自然场景图片中文本检测方法,结合文字自身的特点,首先使用自适应二值化方法将原图处理成二值图像,然后将各个连通区域作为候选部件,并计算笔画宽度值图,然后通过一系列滤波器之后将留存的部件连接成文本行。本发明方法是一种计算成本低、高效直观的文本检测方法,可以有效提高自然场景图片中的文本检测的准确性和精确度。
附图说明
图1是实施例中的原始输入图像;
图2是本发明的基于局部笔画宽度变换的文本检测方法的流程示意图;
图3是实施例中输入原图像的灰度图矩阵Gg;
图4是实施例中输入原图像的边缘图矩阵Ge;
图5是实施例中二值化过程中的骨架图Gs;
图6是实施例中二值化过程中的差图Gd;
图7是实施例中自适应二值化后的图像;
图8是实施例中候选部件示意图;
图9是实施例中笔画宽度值计算示意图;
图10是实施例中笔画宽度值图像;
图11是实施例中候选部件过滤后的图像;
图12是实施例中输出以文本行显示的检测结果。
具体实施方式
下面结合实施例和附图对本发明作进一步详细的描述。
图1是本实施例的原始输入图像,对其采用本发明的方法进行文本检测的流程如图2所示。以下提到的每个图都是二维矩阵,即使用二维矩阵存储每个像素点的数值构成图片,像素值为矩阵各位置的数值。
第一步,首先对图像进行预先处理,预处理的步骤依次包括图像大小调整(保持长宽比,缩小到不大于1600*1200)、图像平滑(高斯模糊)、图像灰度化处理,然后生成边缘图。
本实施例中,对像素过高的图像进行降采样,然后平滑图像,再使用一个尽量保持高对比的灰度化方法产生灰度图(M.Grundland,N.Dodgson,Decolorize:fast,contrastenhancing,color to grayscale conversion.Pattern Recogn.40,11(2007),2891–2896.),灰度值取值范围为0到255。之后在灰度图上使用边缘检测算子提取到文字边缘,生成边缘图。边缘图上边缘像素点的值为1,其余非边缘点为0。其中边缘检测算子优选采用Canny算子,其它还可以是Roberts算子、Sobel算子、Prewitt算子、Krisch算子、高斯-拉普拉斯算子等。
第二步,使用本发明新提出的自适应二值化方法得到二值图,方法如下:
2-1)对原图像的灰度图矩阵Gg(见图3)与原图像的边缘图矩阵Ge(见图4)计算点乘,保留灰度图上是边缘点像素的数值:
Gs(i,j)=Gg(i.j)Ge(i,j),其中(i,j)表示第i行第j列的元素,
同时也保留灰度图上下左右四边界像素值,其它位置值为零,即生成骨架图Gs(见图5)。
2-2)然后对于骨架图Gs使用下面公式,在骨架图Gs中非边缘非边界的位置计算出相应的加权值填充,即生成新图Gp
在公式中,x1x2,y1和y2为当前点与在水平方向和垂直方向的正反向的最近的4个边缘或边界点距离,x1p,x2p,y1p和y2p为四个最近点在灰度图上的数值。
2-3)新图Gp与灰度图Gg相减得到差图Gd(见图6):
Gd=Gp-Gg
在新生成的二值图上,如果相应点在差图Gd上的像素值大于正阈值的则标记为1,其余为0,或者将小于负阈值的位置标记为1,其余为0,
其中,pt为正阈值,nt为负阈值,二者皆为正整数。pt和nt根据边缘点的数量不同取1或9。
由上式生成两张Gb二值图,以便找出前景比背景亮的文字与背景相对亮的文字。之后流程分别应用于这两个图像。下边只显示包含文字的图(详见图7)。
第三步,在两幅二值图中分别聚集四连通且值为1的像素,生成各个候选部件,得出各自的候选部件图。计算每个候选部件的包围矩形,并将一些像素占有比、包围矩形长宽比不合要求的候选部件删除(详见图8),生成两个候选部件图。
第四步,在两个候选部件图中的每个候选部件内分别计算所有像素点所在笔画的笔画宽度值(参考并改进自B.Epshtein,E.Ofek,Y.Wexler,Detecting text in naturalscenes with stroke width transform.In Proc.CVPR,2010.)。具体方法如下:在每个部件的边缘图上,沿着当前边缘像素点梯度方向射线找到所在笔画另一端的对应边缘点,这个对应的边缘点与当前像素点的梯度方向相反(方向差大于90度)。初始化建立全零的笔画宽度图,将这个图上两对应点连线之间的所有像素分别置为两点距离的数值。若当前像素有多个笔画宽度的连线经过,则将各连线距离的最小值作为笔画的宽度值。图9是笔画宽度值计算示意图,其中(a)中的黑色像素部分表示文字的笔画部分,(b)表示当前边缘点沿着梯度方向寻找对应的边缘点,(c)表示两点连线的笔画宽度。图10是生成原图像的笔画宽度示意图(灰度越深表示宽度值越大)。
第五步,计算每个候选部件的特征值向量,该特征向量包括包围矩形的长宽及中心坐标,笔画宽度值的均值、方差、中值。使用下述启发式规则设置一个滤波器,来筛选出文本部件,如图11所示。
启发式规则是:如果候选部件有一个或多个特征不符合要求即被去除。评判的属性值包括文本部件的像素数目与包围矩形像素数目比、包围矩形对角线值与笔画中值比、部件标准差与均值的比、最终文字部件保留比例。检测每个部件的SIFT(Scale-invariantfeature transform,尺度不变特征转换)关键点的数目。使用每个部件的像素占有比及包围矩形的长、宽作为特征训练出一个SVM(Support Vector Machine,支持向量机),用来判别部件是否属于特殊字符“I”,“l”,“i”,属于的部件标记为1,不属于的标记为0。删除掉没有SIFT关键点且不属于特殊字符的部件。
第六步,在第五步中通过滤波器得到了常规的文字,需要首先将所有满足包围矩形的中心距离小于两部件中较大宽度的2倍的两两部件组合成部件对,记下所有可能的组合,并根据两部件的包围矩形的中心位置计算出每对组合的方向向量。配对的两字符部件需要满足其包围矩形的宽度比小于特定值。之后将所有方向相近、含有相同部件的部件对整合成字符串,直到没有可以继续整合的字符串为止。之后对属于多个方向相差很大的文本行的部件进行判断,使其归入行间距更小字符行中。寻找文本行中间距过大的位置,切割出各个单词。最终合并两图中的文本行,显示结果,见图12。
为了检验基于笔画宽度变换的文本检测方法的有效性,以ICDAR2013竞赛提供的数据集为测试平台来进行文本检测实验,Recall(召回率)、Precision(准确率)及F-measure作为评价指标,其定义如下:
Precision=|TP|/|E|,
Recall=|TP|/|T|,
F=2×Precision×Recall/(Precision+Recall).
TP是检测正确矩形的集合,T和E分别为真实矩形集合和估计矩形集合.
下表是我们的结果与ICDAR2013文本阅读竞赛结果相比较,可以看出我们的方法的F-measure达到76.05%,Precision达到67.82%,在现有的方法中是最高的。结果对比如表1所示。
表1.文本阅读结果比较
Precision Recall F-measure
本发明的方法 67.82% 86.56% 76.05%
USTB_TexStar 66.45% 88.47% 75.89%
CASIA_NLPR 68.24% 78.89% 73.18%
Text_detector_CASIA 62.85% 84.70% 72.16%
Epshtein et al. 57.70% 57.31% 57.50%
Baseline 34.74% 60.76% 44.21%
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求所述为准。

Claims (9)

1.一种基于局部笔画宽度变换的自然场景图片中文本检测方法,其步骤包括:
1)对待检测的自然场景图片进行预先处理以得到灰度图,然后求出灰度图的边缘图;
2)根据边缘图与灰度图,采用二值化方法生成相应的二值图;所述二值化方法的步骤包括:
2-1)对原图像的灰度图矩阵Gg与原图像的边缘图矩阵Ge计算点乘,保留灰度图上是边缘点像素的数值:
Gs(i,j)=Gg(i,j)Ge(i,j)
其中(i,j)表示第i行第j列的元素,同时保留灰度图上下左右四边界像素值,其它位置值为零,即生成骨架图Gs
2-2)对骨架图Gs使用下面公式,在骨架图Gs中非边缘非边界的位置计算出相应的加权值填充,即生成新图Gp
其中,x1,x2,y1和y2为当前点与在水平方向和垂直方向的正向和反向的最近的4个边缘或边界点距离,x1p,x2p,y1p和y2p为四个最近点在灰度图上的数值;
2-3)将新图Gp与灰度图Gg相减得到差图Gd
Gd=Gp-Gg
在新生成的二值图上,如果相应点在差图Gd上的像素值大于正阈值的则标记为1,其余为0,或者将小于负阈值的位置标记为1,其余为0,
其中,pt为正阈值,nt为负阈值,二者皆为正整数;
3)根据二值图将含有相同值的相邻像素集合成候选部件;
4)对候选部件进行笔画宽度计算,得出每个像素点所在文字笔画的宽度值;
5)根据计算出的笔画宽度值使用滤波器对候选部件进行过滤,筛选出文本部件;
6)将筛选出的文本部件连接成文本行,并显示最后结果。
2.如权利要求1所述的方法,其特征在于,步骤1)所述预先处理包括:图像大小调整、图像平滑和图像灰度化处理。
3.如权利要求1所述的方法,其特征在于,步骤1)使用Canny算子求出灰度图的边缘图。
4.如权利要求1所述的方法,其特征在于:所述阈值pt和nt根据边缘点的数量不同取1或9。
5.如权利要求1所述的方法,其特征在于:步骤2)生成两幅Gb二值图,以便找出前景比背景亮的文字与背景相对亮的文字,步骤3)在两幅二值图中分别聚集四连通且值为1的像素,生成各个候选部件,得出各自的候选部件图。
6.如权利要求1所述的方法,其特征在于:步骤4)进行笔画宽度计算的方法是:在每个部件的边缘图上,沿着当前边缘像素点的梯度方向射线找到所在笔画另一端的对应边缘点,这个对应的边缘点与当前像素点的梯度方向相反;初始化建立全零的笔画宽度图,将这个图上两对应点连线之间的所有像素分别置为两点距离的数值,若当前像素有多个笔画宽度的连线经过,则将各连线距离的最小值作为当前像素的笔画宽度值。
7.如权利要求1所述的方法,其特征在于:步骤5)计算每个候选部件的特征值向量,该特征向量包括包围矩形的长宽及中心坐标,笔画宽度值的均值、方差、中值,然后使用启发式规则设置滤波器,所述启发式规则是:如果候选部件有一个或多个特征不符合要求即被去除;进行评判的属性值包括:文本部件的像素数目与包围矩形像素数目比、包围矩形对角线值与笔画中值比、部件标准差与均值的比。
8.如权利要求7所述的方法,其特征在于:步骤5)使用滤波器对候选部件进行过滤时,检测每个部件的SIFT关键点的数目;使用每个部件的像素占有比及包围矩形的长、宽作为特征训练出一个支持向量机,用来判别部件是否属于特殊字符;删除没有SIFT关键点且不属于特殊字符的部件。
9.如权利要求7所述的方法,其特征在于:步骤5)通过滤波器得到常规的文字后,将所有满足包围矩形的中心距离小于两部件中较大宽度的两倍的两两部件组合成部件对,记下所有可能的组合,并根据两部件的包围矩形的中心位置计算出每对组合的方向向量;之后将所有方向相近、含有相同部件的部件对整合成字符串,直到没有可以继续整合的字符串为止;之后对属于多个方向的文本行的部件进行判断,使其归入行间距最小文本行中;之后寻找文本行中间距过大的位置,切割出各个单词。
CN201410026091.6A 2014-01-20 2014-01-20 基于局部笔画宽度变换的自然场景图片中文本检测方法 Expired - Fee Related CN104794479B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410026091.6A CN104794479B (zh) 2014-01-20 2014-01-20 基于局部笔画宽度变换的自然场景图片中文本检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410026091.6A CN104794479B (zh) 2014-01-20 2014-01-20 基于局部笔画宽度变换的自然场景图片中文本检测方法

Publications (2)

Publication Number Publication Date
CN104794479A CN104794479A (zh) 2015-07-22
CN104794479B true CN104794479B (zh) 2018-06-29

Family

ID=53559266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410026091.6A Expired - Fee Related CN104794479B (zh) 2014-01-20 2014-01-20 基于局部笔画宽度变换的自然场景图片中文本检测方法

Country Status (1)

Country Link
CN (1) CN104794479B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426846A (zh) * 2015-11-20 2016-03-23 江南大学 一种基于图割模型的场景图像中文本的定位方法
CN105528603B (zh) * 2015-12-16 2018-07-27 西安交通大学 一种利用笔画对比和边缘密度特征滤除非文字边缘的方法
CN105787479B (zh) * 2016-02-19 2018-12-25 新智认知数据服务有限公司 基于字符笔画结构的车牌二值化以及车牌字符提取方法
CN107784316A (zh) * 2016-08-26 2018-03-09 阿里巴巴集团控股有限公司 一种图像识别方法、装置、系统和计算设备
CN106485710A (zh) * 2016-10-18 2017-03-08 广州视源电子科技股份有限公司 一种元件错件检测方法和装置
CN108573251B (zh) * 2017-03-15 2021-09-07 北京京东尚科信息技术有限公司 文字区域定位方法和装置
CN108805126B (zh) * 2017-04-28 2021-09-10 上海斯睿德信息技术有限公司 一种文本图像的长干扰线去除方法
CN107045634B (zh) * 2017-05-02 2020-07-21 电子科技大学 一种基于最大稳定极值区域与笔画宽度的文本定位方法
CN108038481A (zh) * 2017-12-11 2018-05-15 江苏科技大学 一种结合最大极值稳定区域和笔画宽度变化的文本定位方法
CN109472221A (zh) * 2018-10-25 2019-03-15 辽宁工业大学 一种基于笔画宽度变换的图像文本检测方法
CN110889403A (zh) * 2019-11-05 2020-03-17 浙江大华技术股份有限公司 文本检测方法以及相关装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593276A (zh) * 2008-05-29 2009-12-02 汉王科技股份有限公司 一种视频ocr图文分离方法及系统
CN103093228A (zh) * 2013-01-17 2013-05-08 上海交通大学 一种在自然场景图像中基于连通域的中文检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8837830B2 (en) * 2012-06-12 2014-09-16 Xerox Corporation Finding text in natural scenes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593276A (zh) * 2008-05-29 2009-12-02 汉王科技股份有限公司 一种视频ocr图文分离方法及系统
CN103093228A (zh) * 2013-01-17 2013-05-08 上海交通大学 一种在自然场景图像中基于连通域的中文检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
自然场景图像中的文本检测与定位;郑华强;《中国优秀硕士学位论文全文数据库 信息科技辑》;20131215;I138-1495 *

Also Published As

Publication number Publication date
CN104794479A (zh) 2015-07-22

Similar Documents

Publication Publication Date Title
CN104794479B (zh) 基于局部笔画宽度变换的自然场景图片中文本检测方法
CN106446952B (zh) 一种乐谱图像识别方法及装置
Shivakumara et al. Accurate video text detection through classification of low and high contrast images
CN111291629A (zh) 图像中文本的识别方法、装置、计算机设备及计算机存储介质
CN110598610A (zh) 一种基于神经选择注意的目标显著性检测方法
CN106296638A (zh) 显著性信息取得装置以及显著性信息取得方法
CN106874826A (zh) 人脸关键点跟踪方法和装置
CN108564120B (zh) 基于深度神经网络的特征点提取方法
CN101689300A (zh) 图像分割和增强
CN106203237A (zh) 集装箱拖车编号的识别方法和装置
CN108537787B (zh) 一种人脸图像的质量判定方法
Roy et al. Fractional poisson enhancement model for text detection and recognition in video frames
Lu et al. Learning attention map from images
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
CN110390228A (zh) 基于神经网络的交通标志图片识别方法、装置及存储介质
CN106297755A (zh) 一种用于乐谱图像识别的电子设备及识别方法
CN102147867A (zh) 一种基于主体的国画图像和书法图像的识别方法
CN104123554A (zh) 基于mmtd的sift图像特征提取方法
Tabassum et al. Text detection using MSER and stroke width transform
Kobchaisawat et al. Thai text localization in natural scene images using convolutional neural network
CN109460767A (zh) 基于规则的凸印银行卡卡号分割与识别方法
CN105844605B (zh) 基于自适应表示的人脸画像合成方法
CN117037049B (zh) 基于YOLOv5深度学习的图像内容检测方法及系统
Chang Intelligent text detection and extraction from natural scene images
CN103295238A (zh) 安卓平台上基于roi运动检测的视频实时定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180629

Termination date: 20210120

CF01 Termination of patent right due to non-payment of annual fee