CN104573685A - 一种基于线性结构提取的自然场景文本检测方法 - Google Patents

一种基于线性结构提取的自然场景文本检测方法 Download PDF

Info

Publication number
CN104573685A
CN104573685A CN201510046301.2A CN201510046301A CN104573685A CN 104573685 A CN104573685 A CN 104573685A CN 201510046301 A CN201510046301 A CN 201510046301A CN 104573685 A CN104573685 A CN 104573685A
Authority
CN
China
Prior art keywords
color
linear structure
pixel
text
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510046301.2A
Other languages
English (en)
Other versions
CN104573685B (zh
Inventor
邹北骥
吴慧
陈再良
赵于前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201510046301.2A priority Critical patent/CN104573685B/zh
Publication of CN104573685A publication Critical patent/CN104573685A/zh
Application granted granted Critical
Publication of CN104573685B publication Critical patent/CN104573685B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种基于线性结构提取的文检测方法,将文连通区域看作是不同形状的线性结构的组合;通过提取线性结构,粗略定位文区域;然后通过色彩聚类和基于色彩距离的区域生长,从初始文区域中得到完整的文连通域。进一步分析连通区域的几何和空间位置特征,得到候选文字符串。其中,线性结构的提取采用多尺度Hessian矩阵滤波方法,分别对原始彩色图像的R、G和B三个通道上操作,使得方法在一定程度上,克服光照对图像的影响;通过高斯混合模型色彩聚类和基于色彩距离的区域生长,两步色彩分析方法,使得方法对不同大小、笔画宽度文的检测性都较好,进一步提高方法的鲁棒性。

Description

一种基于线性结构提取的自然场景文本检测方法
技术领域
本发明属于模式识别技术领域,涉及一种基于线性结构提取的自然场景文本检测方法。
背景技术
随着数码相机、摄像头、超高速扫描仪等图像获取设备的广泛应用,自然场景文本图像得到广泛的关注。这些图像通常提供了大量有用信息,其中,文本信息显得尤为重要。这是因为文本信息易于识别和理解,并能广泛应用于相关系统和设备,如盲人视觉辅助系统、旅行翻译系统、信息检索系统、机器人视觉导航等。因此,从自然场景图像中提取文本是计算机视觉领域中的重要课题。为了识别自然场景图像中的文本,专家设计了许多OCR字符识别系统,这些系统对文档中的文本通常有较好的检测效果,对于场景图像中的文本检测效果较差。这是因为场景图像文本的通常变化多样,并且图像背景也相对复杂,很难直接通过OCR软件识别。ICDAR2003数据库是第一个文本检测的公共数据库,它将文本检测和识别问题划分为几个子任务:1)文本定位;2)字符识别;3)单词识别;4)文本阅读。从中可以看出,文本定位是理解场景图像文本的首要步骤。
目前的场景文本检测方法可以分为两类:基于滑动窗口和基于连通域的方法。基于滑动窗口的检测方法又可称为基于区域的检测方法。该方法首先获得原始图像不同尺寸的变换图,然后用滑动窗口扫描这些变换图像。对通过滑动窗口得到的子区域,提取其纹理特征,例如:小波变换、梯度方向直方图等。将这些特征输入训练好的分类器,对候选文本区域分类,得到最终检测结果。该方法主要利用纹理信息检测文本,由于场景图像文本的多样性和图像背景的复杂性,该方法仅仅利用纹理特征检测文本,效果不佳。除此之外,该方法通过对原始图像变换得到的多尺寸图像进行操作,得到文本区域,使得该方法检测速度较慢。基于连通域的文本检测方法,主要是将图像中的文本字符视为连通区域,通过提取这些连通区域定位文本。该方法通常包含三个主要步骤:提取连通区域,构建文本字符串,验证字符串。其中,提取连通区域主要利用同一字符串中的文本字符,在颜色、笔画宽度等方面具有相似性,通过提取特征相似的像素点,组成连通区域。字符串通常包含多个文本字符,因此,可以通过提取连通区域的几何和空间位置特征,组成文本字符串。得到的文本字符串中通常包含一些错误检测的非文本字符,因此,通过文本验证提高文本检测的正确率。基于连通区域的方法,计算时间短,检测效果较好。
由于场景文本的多样性和背景的复杂性,从自然场景图像中提取文本是具有挑战性的课题。针对目前检测结果较好的基于连通区域的方法,如何从复杂背景图像中提取不同颜色、大小、样式的字符连通区域是影响检测结果的关键步骤。
发明内容
本发明提供了一种基于线性结构提取的自然场景文本检测方法,为了克服上述现有技术中存在的问题,本方法将场景图像中的文本看作是不同形状的线性结构的组合,通过提取这些线性结构,定位场景文本区域。
一种基于线性结构提取的自然场景文本检测方法,该方法包括以下步骤:
步骤1:获取待进行文本检测的原始图像的R、G、B色彩通道图像;
步骤2:分别计算步骤1中获得的R、G、B色彩通道图像中每个像素点的Hessian矩阵,并计算对应Hessian矩阵的两个特征值λ1和λ2,其中,|λ2|≤|λ1|;
步骤3:基于每个像素点的Hessian矩阵,提取色彩通道图像中的线性结构;
利用高斯核函数按照以下公式依次对R、G、B色彩通道图像中每个像素点的Hessian矩阵进行卷积滤波操作,获得每个色彩通道图像中每个像素点的较亮滤波结果和较暗滤波结果,从而得到每个色彩通道图像的较亮滤波图像和较暗滤波图像并从中提取出文本字符所在区域对应的线性结构;
F δ 1 ( x , y ) = 0 , if λ 2 > 0 e - R B 2 2 β 2 ( 1 - e - S 2 2 c 2 ) , otherwise
F δ 2 ( x , y ) = 0 , if λ 2 > 0 e - R B 2 2 β 2 ( 1 - e - S 2 2 c 2 ) , otherwise
其中,δ表示高斯核函数中的尺度,δ∈[1,4];对于每个像素点的Hessian矩阵变换,RB表示特征值比率,RB=λ12,S表示特征值模长,c表示每个色彩通道中所有像素点中模长的最大值的二分之一,c=max(S)/2,β是常量,β∈[0,1];
【对于每个像素点都可以计算Hessian矩阵,然后得到两个特征值,并计算特征值的模长,则不同像素点有不同的模长,取其中最大的模长的一半作为c的值;】
步骤4:对线性结构进行定位;
对每个色彩通道图像的较亮滤波图像和较暗滤波图像按照设定的二值化阈值进行二值化操作,将灰度大于二值化阈值的像素点置为1,灰度小于二值化阈值的像素点置为0,提取文本像素点的位置,对线性结构进行定位,获得每个色彩通道图像对应的两幅线性结构定位图;
步骤5:将三个色彩通道图像对应的两幅线性结构定位图分别对应合并,得到两幅线性结构定位合并图;
步骤6:提取线性结构定位合并图中的连通域,将连通域合并,获得文本字符串;
从两幅线性结构定位合并图中分别提取连通区域,计算每个连通区域的几何和空间位置特征,利用相邻连通区域的高度、笔画宽度、垂直重复率和水平距离在设定范围内的连通区域进行合并,获得文本字符串及其所在图像中的位置;
所述连通区域的几何特征包括连通区域的高度、笔画宽度,空间位置特征包括连通域之间的垂直重复率、水平距离。
所述步骤3中高斯核函数的尺度δ依次取值为1、2、3及4,从四个尺度中选取响应最大的滤波结果,从而得到每个色彩通道图像的较亮滤波增强图像和较暗滤波增强图像。
所述步骤6中连通域的合并过程,具体如下:
步骤6.1:对待进行字符合并的图像进行连通域搜索,获取每个连通域的最大外接矩形的高度h,并根据所述最大外接矩形几何中心水平坐标位置,按照从左到右、从上到下的顺序,依次采用标签标记连通域;
每个连通域的标签即为对应连通域的最大外接矩形几何中心水平坐标,最大外接矩形几何中心水平坐标以图像的左上角为原点;
步骤6.2:利用现有的连通域笔画宽度计算方法,计算步骤6.1获得的连通域中每个像素点的笔画宽度,并将每个连通域中所有像素点的笔画宽度的平均值,作为该连通域的笔画宽度sw;
步骤6.3:将标签最小的连通域记为cF,并加入文本字符串,标签大于cF的标签的连通域记为候选邻域字符cL,依次将cF和每个cL视为字符对,提取每对字符对的高度比Rh、笔画宽度比Rsw,垂直重复率Rvol和水平距离D,计算公式分别如下:
R h = max ( h L , h mean ) min ( h L , h mean )
R sw = max ( sw L , sw mean ) min ( sw L , sw mean )
R vol = v FL ( h F + h L ) / 2
D = d FL ( h F + h L ) / 2
其中,hL、swL分别表示候选邻域字符cL的高度和笔画宽度;hmean、swmean分别表示字符串中所有字符高度和笔画宽度的平均值;vFL、dFL分别表示字符cF与候选邻域字符cL的外接矩形的垂直重复率和水平距离;
步骤6.3:将同时满足Rh≤T1,Rsw≤T2,Rvol≥T3,D≤T4四个条件的所有cL加入文本字符串,其中,T1、T2、T3和T4分别表示字符对高度比、笔画宽度比、垂直重复率和水平距离的阈值,取值范围为T1∈[1,2.5],T2∈[1,2.5],T3∈[0.5,1],T4∈[0,3];
步骤6.4:将新加入的连通区域中标签最大的字符作为新的CF,重复步骤6.3-6.5找到所有满足条件的连通区域,得到某一完整字符串;
步骤6.5:对步骤5得到的两幅线性结构定位合并图,重复步骤6.1-6.5,找到所有文本字符串,得到最终的文本检测结果。
对两幅线性结构定位图进行色彩分析获得更加完整的字符串,具体过程如下:
步骤7.1:基于高斯混合模型对两幅线性结构定位图进行色彩聚类,获得色彩层信息,按照色彩层信息,对两幅线性结构定位图中的每个像素点按照色彩层信息获得对应的色彩聚类结果图;
步骤7.2:对每幅色彩聚类结果图中的像素点作为初始种子点,采用基于色彩距离的区域生长方法,填充色彩聚类结果图中的离散线性结构,得到每幅色彩聚类结果图中的完整的连通域,用于字符合并。
用训练好的卷积神经网络,对步骤6获得的文本字符串进行得分计算,保留满足设定条件的文本字符串,作为最终的检测结果。
【采用2012年第21届国际模式识别会论文集第3304-3308页中构建的卷积神经网络,对候选文本字符串分类,保留得分大于1的文本字符串,移除得分小于1的字符串,得到最终文本检测结果。】
所述步骤5的线性结构定位图的合并规则具体如下:
M 1 ′ = I r 1 ∪ I g 1 , if sum ( I r 1 ∩ I g 1 ) > sum ( I r 1 ∩ I g 2 ) I r 1 ∪ I g 1 , otherwise
M 1 = M 1 ′ ∪ I b 1 , if sum ( M 1 ′ ∩ I b 1 ) > sum ( M 1 ′ ∩ I b 2 ) M 1 ′ ∪ I b 2 , otherwise
M 2 ′ = I r 2 ∪ I g 2 , if sum ( I r 2 ∩ I g 2 ) > sum ( I r 2 ∩ I g 1 ) I r 2 ∪ I g 1 , otherwise
M 2 = M 2 ′ ∪ I b 2 , if sum ( M 2 ′ ∩ I b 2 ) > sum ( M 2 ′ ∩ I b 1 ) M 2 ′ ∪ I b 1 , otherwise
其中,Ir1、Ig1和Ib1分别表示R、G和B色彩通道较亮线性结构定位结果,Ir2、Ig2和Ib2分别表示R、G和B色彩通道较暗线性结构定位结果;M1'和M1分别为以Ir1为初始合并对象得到的中间合并结果和最终合并结果;M2'和M2分别为以Ir2为初始合并对象得到的中间合并结果和最终合并结果。
所述步骤5的线性结构定位图的合并是将三个色彩通道图像的较暗滤波图像对应的线性结构定位图合并,将三个色彩通道图像的较亮滤波图像对应的线性结构定位图合并。
所述步骤4中的对线性结构进行定位,是根据色彩通道图像的滤波图像中像素点的灰度值,使用K均值聚类方法,对像素点分类,得到线性结构定位结果图。
所述步骤7.1的具体步骤如下:
使用高斯混合模型,对两幅线性结构结果图中的像素点进行色彩聚类,得到色彩层。进一步包括以下步骤:
步骤A1:对线性结构定位图中的像素点,提取其在R、G和B通道上的值作为色彩特征;
步骤B1:用K均值方法,根据步骤A1获取的色彩特征,将像素点分成K类,K取值为3~5之间的整数,计算每个类的聚类中心μi(1≤i≤K)和标准差σi(1≤i≤K),利用聚类中心和标准差初始化高斯混合模型P(x|μ,σ):
P ( x | μ , σ ) = Σ i = 1 K ω i P i ( x | μ i , σ i )
其中,x表示被分类的像素点,ωi、μi和σi分别表示第i个高斯混合模型的权重、均值和标准差;
步骤C1:用最大期望算法,迭代优化高斯混合模型中的参数,直到收敛,计算公式如下:
ω i t + 1 = 1 N Σ j = 1 K P i ( x j | μ i t , σ i t )
μ i t + 1 = Σ j = 1 N P i ( x j | μ i t , σ i t ) x j Σ j = 1 N P i ( x j | μ i t , σ i t )
σ i t + 1 = Σ j = 1 N P i ( x j | μ i t , σ i t ) ( x j - μ i t + 1 ) 2 Σ j = 1 N P i ( x j | μ i t , σ i t )
其中,xj表示第j个像素点,表示第i个高斯模型在第t次迭代步骤下的均值和方差,表示在第t次迭代步骤下,xj像素点在第i个高斯模型下的概率,表示第t+1次迭代步骤下,第i个高斯模型的权重、均值和方差;N表示线性结构定位图中像素点的个数,t表示第t次迭代步骤;
步骤D1:对于某一像素点,将其归类到概率值最大的高斯模型中;对图像中所有像素点分类,得到K个色彩层;对两幅线性结构定位图中的每个像素点按照色彩层信息获得对应的色彩聚类结果图。
所述步骤7.2的具体过程如下:
步骤A2:将色彩聚类结果图中的像素点,作为初始种子点,加入集合Ci中,将对应色彩中心(μi(r),μi(g),μi(b)),作为初始的色彩中心,其中,i表示第i个色彩层;
步骤B2:获取所有初始种子点的8邻域像素点,对于不在集合Ci中的邻域像素点,计算其RGB色彩值((p(r),p(g),p(b)))与色彩中心的距离,计算公式如下:
D c = ( p ( r ) - μ i t ( r ) ) 2 + ( p ( g ) - μ i t ( g ) ) 2 + ( p ( b ) - μ i t ( b ) ) 2
其中,t表示第t次迭代,第t次迭代色彩层Ci的色彩中心;
步骤C2:将满足条件Dc<48的邻域像素点加入集合Ci,按照下面的公式,更新色彩中心,完成此步区域生长:
&mu; i t + 1 ( r ) = 1 N &Sigma; j = 1 N x j r , &mu; i t + 1 ( g ) = 1 N &Sigma; j = 1 N x j g , &mu; i t + 1 ( b ) = 1 N &Sigma; j = 1 N x j b
步骤D2:将上步骤中得到区域生长结果图中的像素点,作为新的种子点,重复步骤B2-C2,直到没有满足条件的像素点加入Ci,得到该色彩层最终的区域生长结果;
步骤E2:对于所有色彩聚类结果图,分别进行步骤A2-D2所述区域生长过程,得到对应图像的区域生长结果图,用于提取字符连通域。
有益效果
本发明提出了一种基于线性结构提取的文本检测方法,将文本连通区域看作是不同形状的线性结构的组合;通过提取线性结构,粗略定位文本区域;然后通过色彩聚类和基于色彩距离的区域生长,从初始文本区域中得到完整的文本连通域。进一步分析连通区域的几何和空间位置特征,得到候选文本字符串。最后,用训练好的卷积神经网络,计算候选字符串的得分,保留满足条件的字符串,得到最终文本检测结果。其中,线性结构的提取采用多尺度Hessian矩阵滤波方法,分别对原始彩色图像的R、G和B三个通道上操作,使得本方法在一定程度上,克服光照对图像的影响;通过高斯混合模型色彩聚类和基于色彩距离的区域生长,两步色彩分析方法,使得本方法对不同大小、笔画宽度文本的检测性都较好,进一步提高本方法的鲁棒性;通过设定的字符合并规则,将候选邻域字符与文本字符串中字符性质的均值相比较,进行字符合并,在一定程度上能克服字符性质突变带来的影响。
附图说明
图1为本发明所述方法的流程示意图;
图2为待检测的图像及对应的色彩通道图像,其中,(a)为待检测的彩色图像,(b)为R色彩通道图像,(b)为G色彩通道图像,(c)为B色彩通道图像;
图3为线性结构增强图像,其中,(a)为图2(b)的较暗线性结构增强结果图,(b)为图2(b)的较亮线性结构增强结果图,(c)为图2(c)的较暗线性结构增强结果图,(d)为图2(c)的较亮线性结构增强结果图,(e)为图2(d)的较暗线性结构增强结果图,(f)为图2(d)的较亮线性结构增强结果图;
图4为线性结构定位图,其中,(a)为图3(a)对应的线性结构定位图,(b)为图3(b)对应的线性结构定位图,(c)为图3(c)对应的线性结构定位图,(d)为图3(d)对应的线性结构定位图,(e)为图3(e)对应的线性结构定位图,(f)为图3(f)对应的线性结构定位图;
图5为线性结构定位合并图和对应的彩色图像,其中,(a)为Ir1为初始合并对象得到的最终合并结果,(b)为以Ir2为初始合并对象得到最终合并结果,(c)为图5(a)的彩色图像,(d)为图5(b)的彩色图像;
图6为色彩聚类结果图,其中,(a)、(b)及(c)分别为图5(c)的三个色彩聚类结果图像,(d)、(e)及(f)分别为图5(d)的三个色彩聚类结果图像;
图7为对色彩聚类结果图的区域生长结果图,其中,(a)、(b)、(c)、(d)、(e)及(f)分别为对图6(a)、(b)、(c)、(d)、(e)及(f)进行区域生长得到的结果图;
图8为相邻字符对性质比较示意图;
图9为字符合并过程示意图,其中,数字标号1、2、3及4依次表示蓝色、红色、绿色及黄色标记区域,(a)红色标记区域表示获取图像第一个连通域,蓝色标记区域表示获取标签比红色连通域大的候选连通域;(b)图中绿色标记区域表示图9(a)蓝色标记区域候选连通域中,满足字符合并条件的连通域;(c)图中黄色标记区域表示第一步字符合并结果;(d)图中红色标记区域表示新的起始连通域,蓝色标记区域表示标签比红色连通域大的候选连通域;(e)图中绿色标记区域表示图9(d)蓝色标记区域候选连通域中,满足字符合并条件的连通域;(f)图中黄色标记区域表示第二步字符合并结果;(g)图中表示第一个字符串合并结果;(h)表示第二个字符串合并结果;(i)表示字符合并最终结果图;
图10为最终检测结果示意图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
如图1所示,为本发明所述方法的流程示意图,以对图2(a)进行文本检测为例,具体步骤如下:
步骤1,输入原始彩色图像,如图2(a)所示,获取其R、G和B色彩通道,如图2(b-d)所示;
步骤2,分别计算不同色彩通道中每个像素点的Hessian矩阵变换结果:
H ( x , y ) = | &PartialD; 2 I &PartialD; 2 x 2 ( x , y ) &PartialD; 2 I &PartialD; x &PartialD; y ( x , y ) &PartialD; 2 I &PartialD; y &PartialD; x ( x , y ) &PartialD; 2 I &PartialD; 2 y 2 ( x , y ) | - - - ( 1 )
其中,图像I表示某一色彩通道的灰度图像,H(x,y)表示像素点(x,y)的Hessian矩阵变换结果;
步骤3,使用尺度为δ(δ∈[1,4],步长为1)的高斯核函数,对Hessian矩阵变换结果进行卷积操作,并计算特征值λ1和λ2(|λ2|≤|λ1|)。由于场景图像中文本与背景的灰度值没有固定的大小关系,有的图像中,文本比背景亮,有的图像中,文本比背景暗。因此,对每个色彩通道得到的Hessian矩阵变换结果,分别用公式(2)滤波得到较亮的像素点和公式(3)滤波
得到较暗的像素点。 F &delta; 1 ( x , y ) = 0 , if &lambda; 2 > 0 e - R B 2 2 &beta; 2 ( 1 - e - S 2 2 c 2 ) , otherwise - - - ( 2 )
F &delta; 2 ( x , y ) = 0 , if &lambda; 2 > 0 e - R B 2 2 &beta; 2 ( 1 - e - S 2 2 c 2 ) , otherwise - - - ( 3 )
其中,RB=λ12c=max{S}/2,β是常量。
因此,对某个色彩通道得到的Hessian矩阵变换图,分别用公式(2)和(3),计算得到较亮和较暗的像素点滤波结果,得到两幅滤波图像;
步骤4,对于某个像素点,将其在δ∈[1,4]的四个尺度下,分别滤波,得到四个较亮的滤波结果和四个较暗的滤波结果。
对于较亮滤波结果图像中的像素点,分别比较其在四个不同尺度下的响应,将响应最大的值作为该像素滤波的最终结果,得到多尺度Hessian滤波下的较亮线性结构增强结果。同理,对于较暗滤波结果图像中的像素点,做相同操作,得到较暗线性结构增强结果。
分别对RGB三个色彩通道进行上述操作,得到六幅线性结构增强图像。图3(a-b)分别是R色彩通道(图2(b)所示)较暗和较亮线性结构增强结果图;图3(c-d)分别是G色彩通道(图2(c)所示)较暗和较亮线性结构增强结果图;图3(e-f)分别是B色彩通道(图2(d)所示)较暗和较亮线性结构增强结果图;
步骤5,使用K均值聚类方法,以像素点的灰度值为特征,分别对六幅线性结构增强图像(图3(a-f)所示)中的像素点分两类,保留聚类中心较大的类,作为线性结构定位结果,如图4(a-f)所示。
步骤6,通过合并规则,如公式(4-7)所示,合并不同色彩通道得到六幅的线性结构定位结果,得到两幅最终线性结构图像;
M 1 &prime; = I r 1 &cup; I g 1 , if sum ( I r 1 &cap; I g 1 ) > sum ( I r 1 &cap; I g 2 ) I r 1 &cup; I g 1 , otherwise - - - - ( 4 )
M 1 = M 1 &prime; &cup; I b 1 , if sum ( M 1 &prime; &cap; I b 1 ) > sum ( M 1 &prime; &cap; I b 2 ) M 1 &prime; &cup; I b 2 , otherwise - - - ( 5 )
M 2 &prime; = I r 2 &cup; I g 2 , if sum ( I r 2 &cap; I g 2 ) > sum ( I r 2 &cap; I g 1 ) I r 2 &cup; I g 1 , otherwise - - - ( 6 )
M 2 = M 2 &prime; &cup; I b 2 , if sum ( M 2 &prime; &cap; I b 2 ) > sum ( M 2 &prime; &cap; I b 1 ) M 2 &prime; &cup; I b 1 , otherwise - - - ( 7 )
其中,Ir1、Ig1和Ib1分别表示R、G和B色彩通道较亮线性结构定位结果,Ir2、Ig2和Ib2分别表示R、G和B色彩通道较暗线性结构定位结果;M1'和M1分别为以Ir1为初始合并对象得到的中间合并结果和最终合并结果;M2'和M2分别为以Ir2为初始合并对象得到的中间合并结果和最终合并结果。
通过合并规则,将六幅线性结构定位结果图(图4(a-f)所示),合并得到两幅图像,作为最终线性结构提取结果,如图5(a-b)所示;图5(c-d)为图5(a-b)对应的彩色图像。
步骤7,使用高斯混合模型,以像素点的RGB色彩值为特征,分别对两幅合并得到的线性结构图像中的像素点分3类,共得到6幅色彩聚类结果图像。进一步包括以下步骤:
步骤7.1:基于高斯混合模型对两幅线性结构定位图进行色彩聚类,获得色彩层信息,按照色彩层信息,对两幅线性结构定位图中的每个像素点按照色彩层信息获得对应的色彩聚类结果图;
步骤7.2:对每幅色彩聚类结果图中的像素点作为初始种子点,采用基于色彩距离的区域生长方法,填充色彩聚类结果图中的离散线性结构,得到每幅色彩聚类结果图中的完整的连通域,用于字符合并。
所述步骤7.1的具体步骤如下:
使用高斯混合模型,对两幅线性结构结果图中的像素点进行色彩聚类,得到色彩层。进一步包括以下步骤:
步骤A1:对线性结构定位图中的像素点,提取其在R、G和B通道上的值作为色彩特征;
步骤B1:用K均值方法,根据步骤A1获取的色彩特征,将像素点分成K类,K取值为3~5之间的整数,计算每个类的聚类中心μi(1≤i≤K)和标准差σi(1≤i≤K),利用聚类中心和标准差初始化高斯混合模型P(x|μ,σ):
P ( x | &mu; , &sigma; ) = &Sigma; i = 1 K &omega; i P i ( x | &mu; i , &sigma; i )
其中,x表示被分类的像素点,ωi、μi和σi分别表示第i个高斯混合模型的权重、均值和标准差;
步骤C1:用最大期望算法,迭代优化高斯混合模型中的参数,直到收敛,计算公式如下:
&omega; i t + 1 = 1 N &Sigma; j = 1 K P i ( x j | &mu; i t , &sigma; i t )
&mu; i t + 1 = &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t ) x j &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t )
&sigma; i t + 1 = &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t ) ( x j - &mu; i t + 1 ) 2 &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t )
其中,xj表示第j个像素点,表示第i个高斯模型在第t次迭代步骤下的均值和方差,表示在第t次迭代步骤下,xj像素点在第i个高斯模型下的概率,表示第t+1次迭代步骤下,第i个高斯模型的权重、均值和方差;N表示线性结构定位图中像素点的个数,t表示第t次迭代步骤;
步骤D1:对于某一像素点,将其归类到概率值最大的高斯模型中;对图像中所有像素点分类,得到K个色彩层;对两幅线性结构定位图中的每个像素点按照色彩层信息获得对应的色彩聚类结果图。
对图5(c-d)所示才线性结构结果图对应的彩色图像进行上述色彩分类,得到六幅色彩聚类结果图,如图6(a-f)所示。其中,图6(a-c)为图5(c)的三个色彩聚类结果图像,图6(d-f)为图5(d)的三个色彩聚类结果图像。
所述步骤7.2的具体过程如下:
步骤A2:将色彩聚类结果图中的像素点,作为初始种子点,加入集合Ci中,将对应色彩中心(μi(r),μi(g),μi(b)),作为初始的色彩中心,其中,i表示第i个色彩层;
步骤B2:获取所有初始种子点的8邻域像素点,对于不在集合Ci中的邻域像素点,计算其RGB色彩值((p(r),p(g),p(b)))与色彩中心的距离,计算公式如下:
D c = ( p ( r ) - &mu; i t ( r ) ) 2 + ( p ( g ) - &mu; i t ( g ) ) 2 + ( p ( b ) - &mu; i t ( b ) ) 2
其中,t表示第t次迭代,第t次迭代色彩层Ci的色彩中心;
步骤C2:将满足条件Dc<48的邻域像素点加入集合Ci,按照下面的公式,更新色彩中心,完成此步区域生长:
&mu; i t + 1 ( r ) = 1 N &Sigma; j = 1 N x j r , &mu; i t + 1 ( g ) = 1 N &Sigma; j = 1 N x j g , &mu; i t + 1 ( b ) = 1 N &Sigma; j = 1 N x j b
步骤D2:将上步骤中得到区域生长结果图中的像素点,作为新的种子点,重复步骤B2-C2,直到没有满足条件的像素点加入Ci,得到该色彩层最终的区域生长结果;
步骤E2:对于所有色彩聚类结果图,分别进行步骤A2-D2所述区域生长过程,得到对应图像的区域生长结果图,用于提取字符连通域。
对图6(a-f)所示的六幅色彩聚类结果图像进行区域生长,得到结果如图7(a-f)所示。
步骤8:提取线性结构定位合并图中的连通域,将连通域合并,获得文本字符串;
从两幅线性结构定位合并图中分别提取连通区域,计算每个连通区域的几何和空间位置特征,利用相邻连通区域的垂直重复率和水平距离在设定范围内的连通区域进行合并,获得文本字符串及其所在图像中的位置;
所述连通区域的几何和空间位置特征包括连通区域的高度、笔画宽度。
所述连通域的合并过程,具体如下:
步骤8.1:对待进行字符合并的图像进行连通域搜索,获取每个连通域的最大外接矩形的高度h,并根据所述最大外接矩形几何中心水平坐标位置,按照从左到右、从上到下的顺序,依次采用标签标记连通域;
每个连通域的标签即为对应连通域的最大外接矩形几何中心水平坐标,最大外接矩形几何中心水平坐标以图像的左上角为原点;
步骤8.2:利用现有的连通域笔画宽度计算方法,计算步骤6.1获得的连通域中每个像素点的笔画宽度,并将每个连通域中所有像素点的笔画宽度的平均值,作为该连通域的笔画宽度sw;
步骤8.3:将标签最小的连通域记为cF,并加入文本字符串,标签大于cF的标签的连通域记为候选邻域字符cL,依次将cF和每个cL视为字符对,提取每对字符对的高度比Rh、笔画宽度比Rsw,垂直重复率Rvol和水平距离D,计算公式分别如下:
R h = max ( h L , h mean ) min ( h L , h mean )
R sw = max ( sw L , sw mean ) min ( sw L , sw mean )
R vol = v FL ( h F + h L ) / 2
D = d FL ( h F + h L ) / 2
其中,hL、swL分别表示候选邻域字符cL的高度和笔画宽度;hmean、swmean分别表示字符串中所有字符高度和笔画宽度的平均值;vFL、dFL分别表示字符cF与候选邻域字符cL的外接矩形的垂直重复率和水平距离;
步骤8.3:将同时满足Rh≤T1,Rsw≤T2,Rvol≥T3,D≤T4四个条件的所有cL加入文本字符串,其中,T1、T2、T3和T4分别表示字符对高度比、笔画宽度比、垂直重复率和水平距离的阈值,取值范围为T1∈[1,2.5],T2∈[1,2.5],T3∈[0.5,1],T4∈[0,3];
步骤8.4:将新加入的连通区域中标签最大的字符作为新的CF,重复步骤6.3-6.5找到所有满足条件的连通区域,得到某一完整字符串;
步骤8.5:对六幅区域生长结果图,重复步骤6.1-6.5,找到所有文本字符串,得到最终的文本检测结果。
其中,连通区域几何和空间位置特征计算如图8所示,字符合并过程如图9(a-i)所示。图9(a-c)表示第一个字符串合并过程。其中,图9(a)表示将红色矩形区域中的连通字符作为初始的cF,将蓝色区域中的连通字符作为候选邻域字符cL;图9(b)表示选取满足条件Rh≤1.7;Rsw≤1.7;Rvol≥0.5;D≤2.5的邻域字符,用绿色矩形框标记;图9(c)表示将满足条件的邻域字符加入文本字符串,用黄色矩形框标记。图9(d)表示,将新加入的标签最大的连通区域作为新的cF,用红色矩形框标记,并找出标签大于cF的连通区域,用蓝色矩形框标记;图9(e)表示找出蓝色矩形框中,满足条件Rh≤1.7;Rsw≤1.7;Rvol≥0.5;D≤2.5的邻域字符,用绿色矩形框标记;图9(f)表示将满足条件的邻域字符加入文本字符串,用黄色矩形框标记。同理,找到所有满足条件的连通区域,得到最终文本字符串合并结果,如图9(g)所示。同理,找出候选文本图像中的其他文本字符串,如图9(h)所示。最终文本字符串检测结果如图9(i)所示。
步骤9,选取ICDAR2011数据库训练集中的图像作为训练样本,训练卷积神经网络,用训练好的网络,计算测试集中候选文本字符串的得分,保留得分大于1的文本字符串,得到最终检测结果。对图2(a)所示的自然场景文本图像的最终检测结果,如图10枚红色矩形标记区域所示。
为了说明本文算法的有效性,将本文算法与现有文本检测方法进行定量比较。采用2011年第11届国际文本分析与识别会提供的公共数据库和Wolf等人在国际文本分析杂志2006年第8期4卷,第280页到296页提出的评价标准,比较文本检测结果,如表1所示。表中,F系数=2*(正确率*召回率)/(正确率+召回率)。表中列举的不同方法的文本检测结果,均来自2011年第11届国际文本分析与识别会论文集第1491-1496页中,文本检测方法结果统计。
从表1可以得出本发明所述方法(ours)在最终综合指标F系数上,均优于现有技术中的检测方法。
表1

Claims (10)

1.一种基于线性结构提取的自然场景文本检测方法,其特征在于,该方法包括以下步骤:
步骤1:获取待进行文本检测的原始图像的R、G、B色彩通道图像;
步骤2:分别计算步骤1中获得的R、G、B色彩通道图像中每个像素点的Hessian矩阵,并计算对应Hessian矩阵的两个特征值λ1和λ2,其中,|λ2|≤|λ1|;
步骤3:基于每个像素点的Hessian矩阵,提取色彩通道图像中的线性结构;
利用高斯核函数按照以下公式依次对R、G、B色彩通道图像中每个像素点的Hessian矩阵进行卷积滤波操作,获得每个色彩通道图像中每个像素点的较亮滤波结果和较暗滤波结果,从而得到每个色彩通道图像的较亮滤波图像和较暗滤波图像并从中提取出文本字符所在区域对应的线性结构;
F &delta; 1 ( x , y ) = 0 , if &lambda; 2 > 0 e - R B 2 2 &beta; 2 ( 1 - e - S 2 2 c 2 ) , otherwise
F &delta; 2 ( x , y ) = 0 , if &lambda; 2 < 0 e - R B 2 2 &beta; 2 ( 1 - e - S 2 2 c 2 ) , otherwise
其中,δ表示高斯核函数中的尺度,δ∈[1,4];对于每个像素点的Hessian矩阵变换,RB表示特征值比率,RB=λ12,S表示特征值模长,c表示每个色彩通道中所有像素点中模长的最大值的二分之一,c=max(S)/2,β是常量,β∈[0,1];
步骤4:对线性结构进行定位;
对每个色彩通道图像的较亮滤波图像和较暗滤波图像按照设定的二值化阈值进行二值化操作,将灰度大于二值化阈值的像素点置为1,灰度小于二值化阈值的像素点置为0,提取文本像素点的位置,对线性结构进行定位,获得每个色彩通道图像对应的两幅线性结构定位图;
步骤5:将三个色彩通道图像对应的两幅线性结构定位图分别对应合并,得到两幅线性结构定位合并图;
步骤6:提取线性结构定位合并图中的连通域,将连通域合并,获得文本字符串;
从两幅线性结构定位合并图中分别提取连通区域,计算每个连通区域的几何和空间位置特征,利用相邻连通区域的高度、笔画宽度、垂直重复率和水平距离在设定范围内的连通区域进行合并,获得文本字符串及其所在图像中的位置;
所述连通区域的几何特征包括连通区域的高度、笔画宽度,空间位置特征包括连通域之间的垂直重复率、水平距离。
2.根据权利要求1所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤3中高斯核函数的尺度δ依次取值为1、2、3及4,从四个尺度中选取响应最大的滤波结果,从而得到每个色彩通道图像的较亮滤波增强图像和较暗滤波增强图像。
3.根据权利要求1所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤6中连通域的合并过程,具体如下:
步骤6.1:对待进行字符合并的图像进行连通域搜索,获取每个连通域的最大外接矩形的高度h,并根据所述最大外接矩形几何中心水平坐标位置,按照从左到右、从上到下的顺序,依次采用标签标记连通域;
每个连通域的标签即为对应连通域的最大外接矩形几何中心水平坐标,最大外接矩形几何中心水平坐标以图像的左上角为原点;
步骤6.2:利用现有的连通域笔画宽度计算方法,计算步骤6.1获得的连通域中每个像素点的笔画宽度,并将每个连通域中所有像素点的笔画宽度的平均值,作为该连通域的笔画宽度sw;
步骤6.3:将标签最小的连通域记为cF,并加入文本字符串,标签大于cF的标签的连通域记为候选邻域字符cL,依次将cF和每个cL视为字符对,提取每对字符对的高度比Rh、笔画宽度比Rsw,垂直重复率Rvol和水平距离D,计算公式分别如下:
R h = max ( h L , h mean ) min ( h L , h mean )
R sw = max ( sw L , sw mean ) min ( sw L , sw mean )
R vol = v FL ( h F + h L ) / 2
D = d FL ( h F + h L ) / 2
其中,hL、swL分别表示候选邻域字符cL的高度和笔画宽度;hmean、swmean分别表示字符串中所有字符高度和笔画宽度的平均值;vFL、dFL分别表示字符cF与候选邻域字符cL的外接矩形的垂直重复率和水平距离;
步骤6.3:将同时满足Rh≤T1,Rsw≤T2,Rvol≥T3,D≤T4四个条件的所有cL加入文本字符串,其中,T1、T2、T3和T4分别表示字符对高度比、笔画宽度比、垂直重复率和水平距离的阈值,取值范围为T1∈[1,2.5],T2∈[1,2.5],T3∈[0.5,1],T4∈[0,3];
步骤6.4:将新加入的连通区域中标签最大的字符作为新的CF,重复步骤6.3-6.5找到所有满足条件的连通区域,得到某一完整字符串;
步骤6.5:对步骤5得到的两幅线性结构定位合并图,重复步骤6.1-6.5,找到所有文本字符串,得到最终的文本检测结果。
4.根据权利要求1-3任一项所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,对两幅线性结构定位图进行色彩分析获得更加完整的字符串,具体过程如下:
步骤7.1:基于高斯混合模型对两幅线性结构定位图进行色彩聚类,获得色彩层信息,按照色彩层信息,对两幅线性结构定位图中的每个像素点按照色彩层信息获得对应的色彩聚类结果图;
步骤7.2:对每幅色彩聚类结果图中的像素点作为初始种子点,采用基于色彩距离的区域生长方法,填充色彩聚类结果图中的离散线性结构,得到每幅色彩聚类结果图中的完整的连通域,用于字符合并。
5.根据权利要求1所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,用训练好的卷积神经网络,对步骤6获得的文本字符串进行得分计算,保留满足设定条件的文本字符串,作为最终的检测结果。
6.根据权利要求1所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤5的线性结构定位图的合并规则具体如下:
M 1 &prime; = I r 1 &cup; I g 1 , if sum ( I r 1 &cap; I g 1 ) > sum ( I r 1 &cap; I g 2 ) I r 1 &cup; I g 1 , otherwise
M 1 = M 1 &prime; &cup; I b 1 , if sum ( M 1 &prime; &cap; I b 1 ) > sum ( M 1 &prime; &cap; I b 2 ) M 1 &prime; &cup; I b 2 , otherwise
M 2 &prime; = I r 2 &cup; I g 2 , if sum ( I r 2 &cap; I g 2 ) > sum ( I r 2 &cap; I g 1 ) I r 2 &cup; I g 1 , otherwise
M 2 = M 2 &prime; &cup; I b 2 , if sum ( M 2 &prime; &cap; I b 2 ) > sum ( M 2 &prime; &cap; I b 1 ) M 2 &prime; &cup; I b 1 , otherwise
其中,Ir1、Ig1和Ib1分别表示R、G和B色彩通道较亮线性结构定位结果,Ir2、Ig2和Ib2分别表示R、G和B色彩通道较暗线性结构定位结果;M1'和M1分别为以Ir1为初始合并对象得到的中间合并结果和最终合并结果;M2'和M2分别为以Ir2为初始合并对象得到的中间合并结果和最终合并结果。
7.根据权利要求1所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤5的线性结构定位图的合并是将三个色彩通道图像的较暗滤波图像对应的线性结构定位图合并,将三个色彩通道图像的较亮滤波图像对应的线性结构定位图合并。
8.根据权利要求1所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤4中的对线性结构进行定位,是根据色彩通道图像的滤波图像中像素点的灰度值,使用K均值聚类方法,对像素点分类,得到线性结构定位结果图。
9.根据权利要求4所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤7.1的具体步骤如下:
使用高斯混合模型,对两幅线性结构结果图中的像素点进行色彩聚类,得到色彩层。进一步包括以下步骤:
步骤A1:对线性结构定位图中的像素点,提取其在R、G和B通道上的值作为色彩特征;
步骤B1:用K均值方法,根据步骤A1获取的色彩特征,将像素点分成K类,K取值为3~5之间的整数,计算每个类的聚类中心μi(1≤i≤K)和标准差σi(1≤i≤K),利用聚类中心和标准差初始化高斯混合模型P(x|μ,σ):
P ( x | &mu; , &sigma; ) = &Sigma; i = 1 K &omega; i P i ( x | &mu; i , &sigma; i )
其中,x表示被分类的像素点,ωi、μi和σi分别表示第i个高斯混合模型的权重、均值和标准差;
步骤C1:用最大期望算法,迭代优化高斯混合模型中的参数,直到收敛,计算公式如下:
&omega; i t + 1 = 1 N &Sigma; j = 1 K P i ( x j | &mu; i t , &sigma; i t )
&mu; i t + 1 = &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t ) x j &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t )
&sigma; i t + 1 = &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t ) ( x j - &mu; i t + 1 ) 2 &Sigma; j = 1 N P i ( x j | &mu; i t , &sigma; i t )
其中,xj表示第j个像素点,表示第i个高斯模型在第t次迭代步骤下的均值和方差,表示在第t次迭代步骤下,xj像素点在第i个高斯模型下的概率,表示第t+1次迭代步骤下,第i个高斯模型的权重、均值和方差;N表示线性结构定位图中像素点的个数,t表示第t次迭代步骤;
步骤D1:对于某一像素点,将其归类到概率值最大的高斯模型中;对图像中所有像素点分类,得到K个色彩层;对两幅线性结构定位图中的每个像素点按照色彩层信息获得对应的色彩聚类结果图。
10.根据权利要求9所述的一种基于线性结构提取的自然场景文本检测方法,其特征在于,所述步骤7.2的具体过程如下:
步骤A2:将色彩聚类结果图中的像素点,作为初始种子点,加入集合Ci中,将对应色彩中心(μi(r),μi(g),μi(b)),作为初始的色彩中心,其中,i表示第i个色彩层;
步骤B2:获取所有初始种子点的8邻域像素点,对于不在集合Ci中的邻域像素点,计算其RGB色彩值((p(r),p(g),p(b)))与色彩中心的距离,计算公式如下:
D c = ( p ( r ) - &mu; i t ( r ) ) 2 + ( p ( g ) - &mu; i t ( g ) ) 2 + ( p ( b ) - &mu; i t ( b ) ) 2
其中,t表示第t次迭代,第t次迭代色彩层Ci的色彩中心;
步骤C2:将满足条件Dc<48的邻域像素点加入集合Ci,按照下面的公式,更新色彩中心,完成此步区域生长:
&mu; i t + 1 ( r ) = 1 N &Sigma; j = 1 N x j r , &mu; i t + 1 ( g ) = 1 N &Sigma; j = 1 N x j g , &mu; i t + 1 ( b ) = 1 N &Sigma; j = 1 N x j b
步骤D2:将上步骤中得到区域生长结果图中的像素点,作为新的种子点,重复步骤B2-C2,直到没有满足条件的像素点加入Ci,得到该色彩层最终的区域生长结果;
步骤E2:对于所有色彩聚类结果图,分别进行步骤A2-D2所述区域生长过程,得到对应图像的区域生长结果图,用于提取字符连通域。
CN201510046301.2A 2015-01-29 2015-01-29 一种基于线性结构提取的自然场景文本检测方法 Expired - Fee Related CN104573685B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510046301.2A CN104573685B (zh) 2015-01-29 2015-01-29 一种基于线性结构提取的自然场景文本检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510046301.2A CN104573685B (zh) 2015-01-29 2015-01-29 一种基于线性结构提取的自然场景文本检测方法

Publications (2)

Publication Number Publication Date
CN104573685A true CN104573685A (zh) 2015-04-29
CN104573685B CN104573685B (zh) 2017-11-21

Family

ID=53089707

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510046301.2A Expired - Fee Related CN104573685B (zh) 2015-01-29 2015-01-29 一种基于线性结构提取的自然场景文本检测方法

Country Status (1)

Country Link
CN (1) CN104573685B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809481A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于自适应色彩聚类的自然场景文本检测的方法
CN104866850A (zh) * 2015-05-13 2015-08-26 湘潭大学 一种文本图像二值化的优化方法
CN106415605A (zh) * 2014-04-29 2017-02-15 谷歌公司 用于分布式光学字符识别和分布式机器语言翻译的技术
CN106778757A (zh) * 2016-12-12 2017-05-31 哈尔滨工业大学 基于文本显著性的场景文本检测方法
CN107220657A (zh) * 2017-05-10 2017-09-29 中国地质大学(武汉) 一种面向小数据集的高分辨率遥感影像场景分类的方法
CN107229932A (zh) * 2016-03-25 2017-10-03 阿里巴巴集团控股有限公司 一种图像文本的识别方法和装置
CN107977593A (zh) * 2016-10-21 2018-05-01 富士通株式会社 图像处理装置和图像处理方法
CN108288061A (zh) * 2018-03-02 2018-07-17 哈尔滨理工大学 一种基于mser快速在自然场景中定位倾斜文本的方法
CN108304835A (zh) * 2018-01-30 2018-07-20 百度在线网络技术(北京)有限公司 文字检测方法和装置
CN109325655A (zh) * 2018-08-13 2019-02-12 平安科技(深圳)有限公司 人群绩效特征预测中的缺失特征处理方法及装置
CN109886330A (zh) * 2019-02-18 2019-06-14 腾讯科技(深圳)有限公司 文本检测方法、装置、计算机可读存储介质和计算机设备
CN110188764A (zh) * 2019-05-31 2019-08-30 浙江口碑网络技术有限公司 字符颜色识别处理方法及装置
CN111259764A (zh) * 2020-01-10 2020-06-09 中国科学技术大学 文本检测方法、装置、电子设备及存储装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266654A (zh) * 2007-03-14 2008-09-17 中国科学院自动化研究所 基于连通分量和支持向量机的图像文本定位方法和装置
US20100303348A1 (en) * 2009-05-26 2010-12-02 Tandent Vision Science, Inc. Multi-resolution analysis in image segregation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266654A (zh) * 2007-03-14 2008-09-17 中国科学院自动化研究所 基于连通分量和支持向量机的图像文本定位方法和装置
US20100303348A1 (en) * 2009-05-26 2010-12-02 Tandent Vision Science, Inc. Multi-resolution analysis in image segregation

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106415605A (zh) * 2014-04-29 2017-02-15 谷歌公司 用于分布式光学字符识别和分布式机器语言翻译的技术
CN106415605B (zh) * 2014-04-29 2019-10-22 谷歌有限责任公司 用于分布式光学字符识别和分布式机器语言翻译的技术
CN104866850A (zh) * 2015-05-13 2015-08-26 湘潭大学 一种文本图像二值化的优化方法
CN104866850B (zh) * 2015-05-13 2018-11-02 湘潭大学 一种文本图像二值化的优化方法
CN104809481B (zh) * 2015-05-21 2017-10-20 中南大学 一种基于自适应色彩聚类的自然场景文本检测方法
CN104809481A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于自适应色彩聚类的自然场景文本检测的方法
CN107229932B (zh) * 2016-03-25 2021-05-28 阿里巴巴集团控股有限公司 一种图像文本的识别方法和装置
CN107229932A (zh) * 2016-03-25 2017-10-03 阿里巴巴集团控股有限公司 一种图像文本的识别方法和装置
CN107977593A (zh) * 2016-10-21 2018-05-01 富士通株式会社 图像处理装置和图像处理方法
CN106778757B (zh) * 2016-12-12 2019-06-04 哈尔滨工业大学 基于文本显著性的场景文本检测方法
CN106778757A (zh) * 2016-12-12 2017-05-31 哈尔滨工业大学 基于文本显著性的场景文本检测方法
CN107220657B (zh) * 2017-05-10 2018-05-18 中国地质大学(武汉) 一种面向小数据集的高分辨率遥感影像场景分类的方法
CN107220657A (zh) * 2017-05-10 2017-09-29 中国地质大学(武汉) 一种面向小数据集的高分辨率遥感影像场景分类的方法
CN108304835A (zh) * 2018-01-30 2018-07-20 百度在线网络技术(北京)有限公司 文字检测方法和装置
CN108288061A (zh) * 2018-03-02 2018-07-17 哈尔滨理工大学 一种基于mser快速在自然场景中定位倾斜文本的方法
CN109325655A (zh) * 2018-08-13 2019-02-12 平安科技(深圳)有限公司 人群绩效特征预测中的缺失特征处理方法及装置
WO2020034593A1 (zh) * 2018-08-13 2020-02-20 平安科技(深圳)有限公司 人群绩效特征预测中的缺失特征处理方法及装置
CN109886330A (zh) * 2019-02-18 2019-06-14 腾讯科技(深圳)有限公司 文本检测方法、装置、计算机可读存储介质和计算机设备
CN109886330B (zh) * 2019-02-18 2020-11-27 腾讯科技(深圳)有限公司 文本检测方法、装置、计算机可读存储介质和计算机设备
CN110188764A (zh) * 2019-05-31 2019-08-30 浙江口碑网络技术有限公司 字符颜色识别处理方法及装置
CN111259764A (zh) * 2020-01-10 2020-06-09 中国科学技术大学 文本检测方法、装置、电子设备及存储装置

Also Published As

Publication number Publication date
CN104573685B (zh) 2017-11-21

Similar Documents

Publication Publication Date Title
CN104573685A (zh) 一种基于线性结构提取的自然场景文本检测方法
CN104809481B (zh) 一种基于自适应色彩聚类的自然场景文本检测方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN100565559C (zh) 基于连通分量和支持向量机的图像文本定位方法和装置
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN103034863B (zh) 一种结合核Fisher与多尺度提取的遥感影像道路获取方法
CN110175576A (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
CN104598885B (zh) 街景图像中的文字标牌检测与定位方法
CN109508710A (zh) 基于改进YOLOv3网络的无人车夜间环境感知方法
CN103034848B (zh) 一种表单类型的识别方法
CN105574534A (zh) 基于稀疏子空间聚类和低秩表示的显著性目标检测方法
CN105005989B (zh) 一种弱对比度下的车辆目标分割方法
CN104778721A (zh) 一种双目图像中显著性目标的距离测量方法
CN103400151A (zh) 一体化的光学遥感影像与gis自动配准与水体提取方法
CN106529532A (zh) 一种基于积分特征通道与灰度投影的车牌识别系统
CN105574063A (zh) 基于视觉显著性的图像检索方法
CN108921120B (zh) 一种适应广泛零售场景下的香烟识别方法
CN104240256A (zh) 一种基于层次化稀疏建模的图像显著性检测方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN106971397B (zh) 基于改进jseg算法的城市高分辨率遥感影像分割方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN104182985A (zh) 遥感图像变化检测方法
CN105069774A (zh) 基于多示例学习与图割优化的目标分割方法
CN103984963B (zh) 一种高分辨率遥感图像场景分类方法
CN103198482B (zh) 基于差异图模糊隶属度融合的遥感图像变化检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171121

Termination date: 20190129