CN107563377A - 一种利用边缘和文字区域的证件关键区域检测定位方法 - Google Patents
一种利用边缘和文字区域的证件关键区域检测定位方法 Download PDFInfo
- Publication number
- CN107563377A CN107563377A CN201710759360.3A CN201710759360A CN107563377A CN 107563377 A CN107563377 A CN 107563377A CN 201710759360 A CN201710759360 A CN 201710759360A CN 107563377 A CN107563377 A CN 107563377A
- Authority
- CN
- China
- Prior art keywords
- area
- image
- character
- certificate
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Input (AREA)
Abstract
本发明涉及模式识别与计算机视觉技术领域,特别是一种利用边缘和文字区域的证件关键区域检测定位方法,通过对证件图像进行预处理,得到证件图像的灰度图,并获取证件区域图像,利用最大稳定极值区域算法从证件区域图像中提取候选区域,并对候选区域进行过滤,保留文字区域,将过滤后的文字区域组合成文字块,比较文字块的相对位置,确定文字块所代表的字段内容,从而对各类证件上的信息都能有效提取,具有较好的通用性和实用性,能广泛应用于不同场合、不同载体的图像识别,识别度更高,效率更快,能快速鲁棒。
Description
技术领域
本发明涉及模式识别与计算机视觉技术领域,特别是一种利用边缘和文字区域的证件关键区域检测定位方法。
背景技术
如今越来越多的行业,如通信行业、酒店、网吧等,都需要对身份证件信息进行采集和登记,以进行实名制,传统的证件识别分类器不仅费时费力,效率低下,且对于大多数的行业的证件采集过程中,在对第二代居民身份证进行采集的基础上,还需要对护照、驾驶证、行驶证等有效证件上的信息进行采集,所以单纯的二代身份证读卡器,已经远远不能满足证件采集的需求,在如今在互联网大数据背景下,利用现代信息技术开展高效快捷便民服务工作,已是大势所趋,也正是在这种大背景下,各类证件识别软件应运而生。
证件识别软件是基于模式识别的基础对证件素材进行加工处理,属于计算机视觉的范畴,而证件识别软件多是通过各种证件识别方法以达到证件识别的目的,证件的识别方法是各类证件识别软件的基础,因此,提供一种可靠、准确的证件的关键区域的定位和检测方法,是整个证件识别技术中的重中之重。
发明内容
本发明的目的在于提供一种利用边缘和文字区域的证件关键区域检测定位方法,该方法能够快速、准确地提取证件图像中的关键区域。
为了实现上述目的,本发明采用的技术方案是:一种利用边缘和文字区域的证件关键区域检测定位方法,包括以下步骤:
S1.对证件图像进行预处理,得到证件图像的灰度图;
S2.对步骤S1得到的灰度图进行处理,获得证件图像的边缘,利用证件图像的边缘信息进行透视变换,获取证件区域图像;
S3.通过最大稳定极值区域算法从证件区域图像中提取候选区域,并对候选区域进行过滤,保留文字区域;
S4.将过滤后的文字区域组合成文字块;
S5.通过比较文字块的相对位置,确定文字块所代表的字段内容。
进一步地,在所述步骤S1中,按如下步骤对证件图像进行预处理:
S11.使用双线性插值对证件图像进行缩放,使证件图像的尺寸标准化,具体方法为:对于一个目的像素设置坐标,通过反向变换得到浮点坐标(i+u,j+v),其中i、j分别为浮点坐标的整数部分,u、v分别为浮点坐标的小数部分,是取值[0,1)区间的浮点数,则这个像素的值为:
f(i+u,j+v)=(1-u)(1-v)f(i,j)+(1-u)vf(i,j+1)+u(1-v)f(i+1,j)+uvf(i+1,j+1);
其中f(i,j)表示源图像(i,j)处的像素值;
S12.对步骤S11处理后的标准化的证件图像使用灰度世界法进行自动白平衡处理,具体方法为:取图像的RGB通道分别计算出三通道各自的平均值avgR、avgG、avgB,然后通过下式计算得到灰度平均值avgGray:
通过下式计算三通道各自的增益系数Kr、Kg、Kb:
通过下式调整每个像素的RGB分量R’、G’、B’:
S13.将三通道的RGB图转化为单通道的灰度图,按下式对RGB三分量进行加权平均得到灰度图像:
Y=0.299R+0.587G+0.114B;
其中,Y为灰度图像素值,R为源图像RGB中R通道的像素值,G为源图像RGB中G通道的像素值,B为源图像RGB中B通道的像素值。
进一步地,在所述步骤S2中,按如下步骤获取证件区域图像:
S21.对步骤S1得到的灰度图使用高斯滤波器平滑图像,采用二维高斯分布公式算出归一化的高斯模版h,其中x0、y0分别为核中心坐标,σ为标准差,在对高斯模版进行归一化后使用以下公式进行卷积得到平滑图像:
其中p、q分别为平滑图像的横、纵坐标,k为高斯滤波器的核大小,c为核中心坐标偏移量,m、n为高斯模版的横、纵坐标;
S22.使用一阶有限差分计算偏导数的两个阵列P与Q:
通过下式计算梯度幅值M和方位角θ:
S23.在各方位角上的梯度幅值进行非极大值抑制,搜索局部极大值;
S24.使用双阈值算法检测并连接边缘,对每个像素点首先判断该点是否超过高阈值,然后在该点的邻域点中寻找满足超过低阈值的点,再根据超过低阈值的点收集新的边缘,直到整个图像边缘闭合,在整个图像中查找完边缘后,将非边缘点剔除,即灰度值置为0;
S25.在边缘图像中寻找所有轮廓,并对寻找到的边缘轮廓进行多边形逼近,获取最大面积的四边形边缘的四个顶点;
S26.通过检测到的四边形边缘的四个顶点和目标图像的四个顶点按下式子得到透视矩阵T:
其中,aef表示透视矩阵T中第e行f列的元素,x、y分别表示变换前的横、纵坐标,x’、y’分别表示变换后的横、纵坐标;
利用下式的透视矩阵获取证件区域图像:
其中x’、y’、z’为源图像坐标,x、y、z为目标图像坐标。
进一步地,在所述步骤S3中,通过最大稳定极值区域算法从证件区域图像中提取候选区域的具体方法为:对证件区域图像取阈值,进行二值化处理,阈值从0到255依次递增,在得到的所有二值图像中,将连通区域变化最小的区域定义为最大稳定极值区域,并将所述最大稳定极值区域用公式表示为:
其中表示阈值为时对应的连通域的面积,Δ表示灰度阈值的微小变化量,表示阈值为时的面积变化率,当为局部极小值时则认为该区域为候选区域。
进一步地,在提取候选区域之后,对候选区域进行过滤之前,对候选区域进行Canny边缘检测,按照边缘点应满足的信噪比准则、定位精度准则、单边缘响应准则,提取Canny边缘点:
信噪比准则基于:
其中,f(x)表示边界为[-w w]滤波器的脉冲响应,G(x)表示边缘,no表示高斯噪声的均方根;
定位精度准则基于:
其中,G’(-x)、f’(x)分别表示G(-x)、f(x)的一阶导数;
单边缘响应准则要求f对噪声的响应中两个相邻最大值间距离为xmax(f),f的零交叉点平均距离为xzc,两者关系为:
xmax(f)=2xzc-kw
其中k为小于1的系数,
进一步地,在提取候选区域后,利用Canny边缘点检测单个候选区域的边缘图像,并通过笔画宽度变换和AdaBoost分类器过滤候选区域中的非文字区域。
进一步地,对提取的候选区域中的每一个Canny边缘点做笔画宽度变换的方法为:
假设p为边缘图像上的一个像素点,dp是利用Sobel算子得到的该点的梯度方向,从p点开始沿着dp方向作射线r=p+n·dp,n>0,并对射线进行延长,直到第一次寻找到另一个边缘像素点q,则终止查找,终止点q的梯度方向为dq,若dp和dq方向大致相反,即满足则该射线为有效笔画,记录候选区域中有效笔画的数量,当超过设定的阈值时,则认定该候选区域为候选文字区域。
进一步地,将候选文字区域放入AdaBoost分类器中,AdaBoost分类器基于计算,其中FT(x)为强分类器,T为弱分类器的数量,ft为弱分类器,每一弱分类器分别由特征值f(x)和阈值fθ组成,分类过程如下:
其中,j为弱分类器索引值,hj(x)为分类结果,pj为方向向量,fj(x)为特征值函数;将弱分类器进行级联得到强分类器:
其中at=log[(1-xt)/xt];
其中,H(x)为强分类器分类结果,h(t)为弱分类器分类结果,xt为每个弱分类器的加权错误率;
使用双阈值,分别得到强候选区域和弱候选区域,保留强候选区域为文字区域,对于弱候选区域,将各弱候选区域组成候选区域集合{A1,A2,……An},对于弱候选区域Ai,计算其与其他区域的交并比t,若t大于阈值,则Ai的出现频率加1,得到最终的频率;若弱候选区域的出现频率大,则认为该区域也是文字区域。
进一步地,在所述步骤S4中,按如下步骤将文字区域组合成文字块:
S41.考虑到文字块以水平文字块为主,计算文字区域与其右边相邻的文字区域中心点之间的间距,若最小间距大于阈值,则该文字区域没有与其连接的文字区域,否则选取其相邻区域作为候选连接区域;
S42.遍历所有的文字区域,通过链式连接组合各个文字区域,即对于文字区域A1,找到其候选连接区域A2,再找到A2的候选连接区域A3,……,直到Ai没有候选连接区域,组合A1到Ai文字区域形成文字块;
S43.通过评估算法对定位结果进行评估,使用匹配值来描述定位的准确性,匹配值定义如下:
其中,ma(r1,r2)为矩形框r1和r2的匹配值,a(r)为矩形框r的面积,当两个矩形框不相交时匹配值为0,当两个矩形框完全重合时匹配值为1,采用匹配值描述的准确率为召回率为其中rt表示真实文本框,T是真实文本框集合,|T|为真实文本框的个数,re为算法输出的文本框,E是输出文本框集合,|E|表示输出文本框个数。
进一步地,在所述步骤S5中,按如下步骤确定文字块所代表的字段内容:
S51.统计各个文字块所在位置,初始化各个文字块的标号;
S52.根据证件不同的位置规则,确定首个文字块的位置,再根据相对位置,依次对文字块进行标号,最终得到文字块所表示的字段内容。
相较于现有技术,本发明的有益效果是:
1、本发明在文字定位的基础上,利用边缘和文字区域来检测、定位、提取证件关键区域,从各类图像处理算法中定位分割出证件文字有效区域,对各类证件上的信息都能有效提取,具有较好的通用性和实用性,能广泛应用于不同场合、不同载体的图像识别;
2、本发明先利用证件的边缘信息检测到证件区域的四个顶点,对图像进行使用透视变换后截取纯证件部分,再通过MSER算法提取候选区域,并使用SWT和AdaBoost分类器过滤得到文字区域,最后通过连接文字区域,以获得证件各个字段所在的位置,识别度更高,效率更快,能快速鲁棒。
附图说明
图1是本发明实施例的实现流程图。
具体实施方式
以下结合附图和具体实施例对本发明提出的技术方案进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比率,仅用于方便、明晰地辅助说明本发明实施例的目的。
本发明通过研究不同自动化的文字定位识别过程,提出一种利用边缘和稳定文字区域信息的证件关键区域检测与定位的方法,一方面,本发明是在文字定位这个大方向分离出的创新方法,符合实际需求,并且能落实后期实际识别应用,对各类证件都能准确、高效地提取,通用性好,有较好的实例效果,能得以广泛应用;另一方面,对于关键区域定位上,本方法是在各类图像处理算法定位分割出证件文字有效区域,在证件识别以外,也为文字识别打下了重要的基础。现结合附图和具体实施例对本发明进行具体说明。
图1是本发明实施例的实现流程图。本发明利用边缘和文字区域对证件关键区域进行检测定位的方法,如图1所示,包括以下步骤:
步骤S1.对证件图像进行预处理,得到证件图像的灰度图。预处理主要是通过一系列操作后改善图像数据,抑制不需要的变形,增强某些对于后续处理来说比较重要的图像特征,得到单通道的图像数据,具体步骤如下:
步骤S11.使用双线性插值对证件图像进行缩放,使证件图像的尺寸标准化,具体方法为:对于一个目的像素设置坐标,通过反向变换得到浮点坐标(i+u,j+v),其中i、j分别为浮点坐标的整数部分,u、v分别为浮点坐标的小数部分,是取值[0,1)区间的浮点数,则这个像素的值为:
f(i+u,j+v)=(1-u)(1-v)f(i,j)+(1-u)vf(i,j+1)+u(1-v)f(i+1,j)+uvf(i+1,j+1);
其中f(i,j)表示源图像(i,j)处的像素值;
步骤S12.对步骤S11处理后的标准化的证件图像使用灰度世界法进行自动白平衡处理,具体方法为:取图像的RGB通道分别计算出三通道各自的平均值avgR、avgG、avgB,然后通过下式计算得到灰度平均值avgGray:
通过下式计算三通道各自的增益系数Kr、Kg、Kb:
通过下式调整每个像素的RGB分量R’、G’、B’:
步骤S13.将三通道的RGB图转化为单通道的灰度图,按下式对RGB三分量进行加权平均得到灰度图像:
Y=0.299R+0.587G+0.114B;
其中,Y为灰度图像素值,R为源图像RGB中R通道的像素值,G为源图像RGB中G通道的像素值,B为源图像RGB中B通道的像素值。
步骤S2.对步骤S1得到的灰度图进行处理,获得证件图像的边缘,然后利用证件图像的边缘信息进行透视变换,获取证件区域图像。具体包括如下步骤:
步骤S21.对步骤S1得到的灰度图使用高斯滤波器平滑图像,采用二维高斯分布公式算出归一化的高斯模版h,其中x0、y0分别为核中心坐标,σ为标准差,在对高斯模版进行归一化后使用以下公式进行卷积得到平滑图像:
其中p、q分别为平滑图像的横、纵坐标,k为高斯滤波器的核大小,c为核中心坐标偏移量,m、n为高斯模版的横、纵坐标;
步骤S22.使用一阶有限差分计算偏导数的两个阵列P与Q:
通过下式计算梯度幅值M和方位角θ:
步骤S23.在各方位角上的梯度幅值进行非极大值抑制,搜索局部极大值;
步骤S24.使用双阈值算法检测并连接边缘,对每个像素点首先判断该点是否超过高阈值,然后在该点的邻域点中寻找满足超过低阈值的点,再根据超过低阈值的点收集新的边缘,直到整个图像边缘闭合,在整个图像中查找完边缘后,将非边缘点剔除,即灰度值置为0;
步骤S25.在边缘图像中寻找所有轮廓,并对寻找到的边缘轮廓进行多边形逼近,获取最大面积的四边形边缘的四个顶点;
步骤S26.通过检测到的四边形边缘的四个顶点和目标图像的四个顶点按下式子得到透视矩阵T:
其中,aef表示透视矩阵T中第e行f列的元素,x、y分别表示变换前的横、纵坐标,x’、y’分别表示变换后的横、纵坐标;
利用下式的透视矩阵获取证件区域图像:
其中x’、y’、z’为源图像坐标,x、y、z为目标图像坐标。
在获得证件区域后,需要提取其中的文字区域,即:
步骤S3.通过最大稳定极值区域算法(MSER)从透视变换后的证件区域图像中提取最大稳定极值区域作为候选区域,再通过笔画宽度变换和AdaBoost分类器过滤掉非文字区域,保留文字区域。具体包括以下步骤:
步骤S31.使用最大稳定极值区域算法从图像中提取大量的候选区域,其中,最大稳定极值区域(MSER)基于分水岭,对证件区域图像取阈值,进行二值化处理,阈值从0到255依次递增,在得到的所有二值图像中,有些连通区域变化很小,将连通区域变化最小的区域定义为最大稳定极值区域,并将所述最大稳定极值区域用公式表示为:
其中表示阈值为时对应的连通域的面积,Δ表示灰度阈值的微小变化量,表示阈值为时的面积变化率,当为局部极小值时则认为该区域为候选区域。
步骤S32.对候选区域进行Canny边缘检测,按照边缘点应满足的信噪比准则、定位精度准则、单边缘响应准则,提取Canny边缘点:
信噪比准则基于:
其中,f(x)表示边界为[-w w]滤波器的脉冲响应,G(x)表示边缘,no表示高斯噪声的均方根;
定位精度准则基于:
其中,G’(-x)、f’(x)分别表示G(-x)、f(x)的一阶导数;
单边缘响应准则要求f对噪声的响应中两个相邻最大值间距离为xmax(f),f的零交叉点平均距离为xzc,两者关系为:
xmax(f)=2xzc-kw
其中k为小于1的系数,若满足此准则,就能保证单边缘只有一个响应。
步骤S33.对提取的候选区域中的每一个Canny边缘点做笔画宽度变换(SWT):
假设p为边缘图像上的一个像素点,dp是利用Sobel算子得到的该点的梯度方向,从p点开始沿着dp方向作射线r=p+n·dp,n>0,并对射线进行延长,直到第一次寻找到另一个边缘像素点q,则终止查找,终止点q的梯度方向为dq,若dp和dq方向大致相反,即满足则该射线为有效笔画,记录候选区域中有效笔画的数量,当超过设定的阈值时,则认定该候选区域为候选文字区域。
步骤S34.将候选文字区域放入AdaBoost分类器中,AdaBoost分类器基于计算,其中FT(x)为强分类器,T为弱分类器的数量,ft为弱分类器,每一弱分类器分别由特征值f(x)和阈值fθ组成,分类过程如下:
其中,j为弱分类器索引值,hj(x)为分类结果,pj为方向向量,fj(x)为特征值函数。
将弱分类器进行级联得到强分类器:
其中at=log[(1-xt)/xt];
其中,H(x)为强分类器分类结果,h(t)为弱分类器分类结果,xt为每个弱分类器的加权错误率。
使用双阈值,分别得到强候选区域和弱候选区域,保留强候选区域为文字区域,对于弱候选区域,将各弱候选区域组成候选区域集合{A1,A2,……An},对于弱候选区域Ai,计算其与其他区域的交并比t,若t大于阈值,则Ai的出现频率加1,得到最终的频率;若弱候选区域的出现频率大,则认为该区域也是文字区域。
在提取、过滤文字区域后,需对文本区域进行组合,最终形成文本块,实现证件的关键区域的检测与定位,文字区域处理过程为:
步骤S4.将过滤后的文字区域组合成文字块。具体包括如下步骤:
步骤S41.考虑到文字块以水平文字块为主,计算文字区域与其右边相邻的文字区域中心点之间的间距,若最小间距大于阈值,则该文字区域没有与其连接的文字区域,否则选取其相邻区域作为候选连接区域;
步骤S42.遍历所有的文字区域,通过链式连接组合各个文字区域,即对于文字区域A1,找到其候选连接区域A2,再找到A2的候选连接区域A3,……,直到Ai没有候选连接区域,组合A1到Ai文字区域形成文字块;
步骤S43.通过评估算法对定位结果进行评估,使用匹配值来描述定位的准确性,匹配值定义如下:
其中,ma(r1,r2)为矩形框r1和r2的匹配值,a(r)为矩形框r的面积,当两个矩形框不相交时匹配值为0,当两个矩形框完全重合时匹配值为1,采用匹配值描述的准确率为召回率为其中rt表示真实文本框,T是真实文本框集合,|T|为真实文本框的个数,re为算法输出的文本框,E是输出文本框集合,|E|表示输出文本框个数。
步骤S5.通过比较文字块的相对位置,确定文字块所代表的字段内容。具体包括如下步骤:
步骤S51.统计各个文字块所在位置,初始化各个文字块的标号;
步骤S52.根据证件不同的位置规则,确定首个文字块的位置,再根据相对位置,依次对文字块进行标号,最终得到文字块所表示的字段内容。
通过以上的处理步骤,本发明先利用证件的边缘信息检测到证件区域的四个顶点,对图像进行使用透视变换后截取纯证件部分,再通过MSER算法提取候选区域,并使用SWT和AdaBoost分类器过滤得到文字区域,最后通过连接文字区域,以获得证件各个字段所在的位置,识别度更高,效率更快,能快速鲁棒。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,包括以下步骤:
S1.对证件图像进行预处理,得到证件图像的灰度图;
S2.对步骤S1得到的灰度图进行处理,获得证件图像的边缘,利用证件图像的边缘信息进行透视变换,获取证件区域图像;
S3.通过最大稳定极值区域算法从证件区域图像中提取候选区域,并对候选区域进行过滤,保留文字区域;
S4.将过滤后的文字区域组合成文字块;
S5.通过比较文字块的相对位置,确定文字块所代表的字段内容。
2.根据权利要求1所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在所述步骤S1中,按如下步骤对证件图像进行预处理:
S11.使用双线性插值对证件图像进行缩放,使证件图像的尺寸标准化,具体方法为:对于一个目的像素设置坐标,通过反向变换得到浮点坐标(i+u,j+v),其中i、j分别为浮点坐标的整数部分,u、v分别为浮点坐标的小数部分,是取值[0,1)区间的浮点数,则这个像素的值为:
f(i+u,j+v)=(1-u)(1-v)f(i,j)+(1-u)vf(i,j+1)+u(1-v)f(i+1,j)+uvf(i+1,j+1);
其中f(i,j)表示源图像(i,j)处的像素值;
S12.对步骤S11处理后的标准化的证件图像使用灰度世界法进行自动白平衡处理,具体方法为:取图像的RGB通道分别计算出三通道各自的平均值avgR、avgG、avgB,然后通过下式计算得到灰度平均值avgGray:
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>G</mi>
<mi>r</mi>
<mi>a</mi>
<mi>y</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>R</mi>
<mo>+</mo>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>G</mi>
<mo>+</mo>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>B</mi>
</mrow>
<mn>3</mn>
</mfrac>
</mrow>
通过下式计算三通道各自的增益系数Kr、Kg、Kb:
<mrow>
<mfenced open = "{" close = "}">
<mtable>
<mtr>
<mtd>
<mi>K</mi>
<mi>r</mi>
<mo>=</mo>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mfrac>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>G</mi>
<mi>r</mi>
<mi>a</mi>
<mi>y</mi>
</mrow>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>R</mi>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>K</mi>
<mi>g</mi>
<mo>=</mo>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mfrac>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>G</mi>
<mi>r</mi>
<mi>a</mi>
<mi>y</mi>
</mrow>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>G</mi>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>K</mi>
<mi>b</mi>
<mo>=</mo>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mfrac>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>G</mi>
<mi>r</mi>
<mi>a</mi>
<mi>y</mi>
</mrow>
<mrow>
<mi>a</mi>
<mi>v</mi>
<mi>g</mi>
<mi>B</mi>
</mrow>
</mfrac>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
通过下式调整每个像素的RGB分量R’、G’、B’:
<mrow>
<mfenced open = "{" close = "}">
<mtable>
<mtr>
<mtd>
<msup>
<mi>R</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mi>R</mi>
<mo>*</mo>
<mi>K</mi>
<mi>r</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<msup>
<mi>G</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mi>G</mi>
<mo>*</mo>
<mi>K</mi>
<mi>g</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<msup>
<mi>B</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mi>B</mi>
<mo>*</mo>
<mi>K</mi>
<mi>b</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
S13.将三通道的RGB图转化为单通道的灰度图,按下式对RGB三分量进行加权平均得到灰度图像:
Y=0.299R+0.587G+0.114B;
其中,Y为灰度图像素值,R为源图像RGB中R通道的像素值,G为源图像RGB中G通道的像素值,B为源图像RGB中B通道的像素值。
3.根据权利要求1所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在所述步骤S2中,按如下步骤获取证件区域图像:
S21.对步骤S1得到的灰度图使用高斯滤波器平滑图像,采用二维高斯分布公式算出归一化的高斯模版h,其中x0、y0分别为核中心坐标,σ为标准差,在对高斯模版进行归一化后使用以下公式进行卷积得到平滑图像:
<mrow>
<mfenced open = "{" close = "}">
<mtable>
<mtr>
<mtd>
<mi>I</mi>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
<mo>=</mo>
<mstyle>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
</mstyle>
<mstyle>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
</mstyle>
<mi>f</mi>
<mo>(</mo>
<mi>p</mi>
<mo>-</mo>
<mi>c</mi>
<mo>-</mo>
<mi>m</mi>
<mo>,</mo>
<mi>q</mi>
<mo>-</mo>
<mi>c</mi>
<mo>-</mo>
<mi>n</mi>
<mo>)</mo>
<mi>h</mi>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>c</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
其中p、q分别为平滑图像的横、纵坐标,k为高斯滤波器的核大小,c为核中心坐标偏移量,m、n为高斯模版的横、纵坐标;
S22.使用一阶有限差分计算偏导数的两个阵列P与Q:
<mrow>
<mfenced open = "{" close = "}">
<mtable>
<mtr>
<mtd>
<mi>P</mi>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
<mo>=</mo>
<mfrac>
<mrow>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
</mrow>
<mn>2</mn>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Q</mi>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
<mo>=</mo>
<mfrac>
<mrow>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mn>2</mn>
</mfrac>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
通过下式计算梯度幅值M和方位角θ:
<mrow>
<mfenced open = "{" close = "}">
<mtable>
<mtr>
<mtd>
<mi>M</mi>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
<mo>=</mo>
<msqrt>
<mrow>
<mi>P</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>Q</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>&theta;</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>a</mi>
<mi>r</mi>
<mi>c</mi>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>Q</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
S23.在各方位角上的梯度幅值进行非极大值抑制,搜索局部极大值;
S24.使用双阈值算法检测并连接边缘,对每个像素点首先判断该点是否超过高阈值,然后在该点的邻域点中寻找满足超过低阈值的点,再根据超过低阈值的点收集新的边缘,直到整个图像边缘闭合,在整个图像中查找完边缘后,将非边缘点剔除,即灰度值置为0;
S25.在边缘图像中寻找所有轮廓,并对寻找到的边缘轮廓进行多边形逼近,获取最大面积的四边形边缘的四个顶点;
S26.通过检测到的四边形边缘的四个顶点和目标图像的四个顶点按下式子得到透视矩阵T:
<mrow>
<mfenced open = "{" close = "}">
<mtable>
<mtr>
<mtd>
<mi>T</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>11</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>12</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>13</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>21</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>22</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>23</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>31</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>32</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>33</mn>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>a</mi>
<mn>11</mn>
</msub>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>21</mn>
</msub>
<mi>y</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>31</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>a</mi>
<mn>13</mn>
</msub>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>23</mn>
</msub>
<mi>y</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>33</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>a</mi>
<mn>12</mn>
</msub>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>22</mn>
</msub>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>32</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>a</mi>
<mn>13</mn>
</msub>
<mi>x</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>23</mn>
</msub>
<mi>y</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>33</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
其中,aef表示透视矩阵T中第e行f列的元素,x、y分别表示变换前的横、纵坐标,x’、y’分别表示变换后的横、纵坐标;
利用下式的透视矩阵获取证件区域图像:
<mrow>
<mo>&lsqb;</mo>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>,</mo>
<msup>
<mi>z</mi>
<mo>&prime;</mo>
</msup>
<mo>&rsqb;</mo>
<mo>=</mo>
<mo>&lsqb;</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>z</mi>
<mo>&rsqb;</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>11</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>12</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>13</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>21</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>22</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>23</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>31</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>32</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>a</mi>
<mn>33</mn>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
其中x’、y’、z’为源图像坐标,x、y、z为目标图像坐标。
4.根据权利要求1所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在所述步骤S3中,通过最大稳定极值区域算法从证件区域图像中提取候选区域的具体方法为:对证件区域图像取阈值,进行二值化处理,阈值从0到255依次递增,在得到的所有二值图像中,将连通区域变化最小的区域定义为最大稳定极值区域,并将所述最大稳定极值区域用公式表示为:
其中表示阈值为时对应的连通域的面积,Δ表示灰度阈值的微小变化量,表示阈值为时的面积变化率,当为局部极小值时则认为该区域为候选区域。
5.根据权利要求1或4所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在提取候选区域之后,对候选区域进行过滤之前,对候选区域进行Canny边缘检测,按照边缘点应满足的信噪比准则、定位精度准则、单边缘响应准则,提取Canny边缘点:
信噪比准则基于:
<mrow>
<mi>S</mi>
<mi>N</mi>
<mi>R</mi>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>w</mi>
</mrow>
<mi>w</mi>
</msubsup>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
<mo>|</mo>
</mrow>
<mrow>
<msub>
<mi>n</mi>
<mi>o</mi>
</msub>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>w</mi>
</mrow>
<mi>w</mi>
</msubsup>
<msup>
<mi>f</mi>
<mn>2</mn>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
<mo>&rsqb;</mo>
</mrow>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
</msup>
</mrow>
</mfrac>
</mrow>
其中,f(x)表示边界为[-w w]滤波器的脉冲响应,G(x)表示边缘,no表示高斯噪声的均方根;
定位精度准则基于:
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>c</mi>
<mi>a</mi>
<mi>l</mi>
<mi>i</mi>
<mi>z</mi>
<mi>a</mi>
<mi>t</mi>
<mi>i</mi>
<mi>o</mi>
<mi>n</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>w</mi>
</mrow>
<mrow>
<mo>+</mo>
<mi>w</mi>
</mrow>
</msubsup>
<msup>
<mi>G</mi>
<mo>&prime;</mo>
</msup>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>f</mi>
<mo>&prime;</mo>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
<mo>|</mo>
</mrow>
<mrow>
<msub>
<mi>n</mi>
<mn>0</mn>
</msub>
<mo>&lsqb;</mo>
<msubsup>
<mo>&Integral;</mo>
<mrow>
<mo>-</mo>
<mi>w</mi>
</mrow>
<mrow>
<mo>+</mo>
<mi>w</mi>
</mrow>
</msubsup>
<msup>
<mi>f</mi>
<mrow>
<mo>&prime;</mo>
<mn>2</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mi>d</mi>
<mi>x</mi>
<mo>&rsqb;</mo>
</mrow>
</mfrac>
</mrow>
其中,G’(-x)、f’(x)分别表示G(-x)、f(x)的一阶导数;
单边缘响应准则要求f对噪声的响应中两个相邻最大值间距离为xmax(f),f的零交叉点平均距离为xzc,两者关系为:
xmax(f)=2xzc-kw
其中k为小于1的系数,
6.根据权利要求5所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在提取候选区域后,利用Canny边缘点检测单个候选区域的边缘图像,并通过笔画宽度变换和AdaBoost分类器过滤候选区域中的非文字区域。
7.根据权利要求6所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,对提取的候选区域中的每一个Canny边缘点做笔画宽度变换的方法为:
假设p为边缘图像上的一个像素点,dp是利用Sobel算子得到的该点的梯度方向,从p点开始沿着dp方向作射线r=p+n·dp,n>0,并对射线进行延长,直到第一次寻找到另一个边缘像素点q,则终止查找,终止点q的梯度方向为dq,若dp和dq方向大致相反,即满足则该射线为有效笔画,记录候选区域中有效笔画的数量,当超过设定的阈值时,则认定该候选区域为候选文字区域。
8.根据权利要求7所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,将候选文字区域放入AdaBoost分类器中,AdaBoost分类器基于计算,其中FT(x)为强分类器,T为弱分类器的数量,ft为弱分类器,每一弱分类器分别由特征值f(x)和阈值fθ组成,分类过程如下:
<mrow>
<msub>
<mi>h</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<msub>
<mi>f</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo><</mo>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<msub>
<mi>f</mi>
<mi>&theta;</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>s</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
其中,j为弱分类器索引值,hj(x)为分类结果,pj为方向向量,fj(x)为特征值函数;将弱分类器进行级联得到强分类器:
其中at=log[(1-xt)/xt];
其中,H(x)为强分类器分类结果,h(t)为弱分类器分类结果,xt为每个弱分类器的加权错误率;
使用双阈值,分别得到强候选区域和弱候选区域,保留强候选区域为文字区域,对于弱候选区域,将各弱候选区域组成候选区域集合{A1,A2,……An},对于弱候选区域Ai,计算其与其他区域的交并比t,若t大于阈值,则Ai的出现频率加1,得到最终的频率;若弱候选区域的出现频率大,则认为该区域也是文字区域。
9.根据权利要求1所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在所述步骤S4中,按如下步骤将文字区域组合成文字块:
S41.考虑到文字块以水平文字块为主,计算文字区域与其右边相邻的文字区域中心点之间的间距,若最小间距大于阈值,则该文字区域没有与其连接的文字区域,否则选取其相邻区域作为候选连接区域;
S42.遍历所有的文字区域,通过链式连接组合各个文字区域,即对于文字区域A1,找到其候选连接区域A2,再找到A2的候选连接区域A3,……,直到Ai没有候选连接区域,组合A1到Ai文字区域形成文字块;
S43.通过评估算法对定位结果进行评估,使用匹配值来描述定位的准确性,匹配值定义如下:
<mrow>
<msub>
<mi>m</mi>
<mi>a</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mn>2</mn>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>1</mn>
</msub>
<mo>|</mo>
<msub>
<mi>r</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
其中,ma(r1,r2)为矩形框r1和r2的匹配值,a(r)为矩形框r的面积,当两个矩形框不相交时匹配值为0,当两个矩形框完全重合时匹配值为1,采用匹配值描述的准确率为召回率为其中rt表示真实文本框,T是真实文本框集合,|T|为真实文本框的个数,re为算法输出的文本框,E是输出文本框集合,|E|表示输出文本框个数。
10.根据权利要求1所述的一种利用边缘和文字区域的证件关键区域检测定位方法,其特征在于,在所述步骤S5中,按如下步骤确定文字块所代表的字段内容:
S51.统计各个文字块所在位置,初始化各个文字块的标号;
S52.根据证件不同的位置规则,确定首个文字块的位置,再根据相对位置,依次对文字块进行标号,最终得到文字块所表示的字段内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710759360.3A CN107563377A (zh) | 2017-08-30 | 2017-08-30 | 一种利用边缘和文字区域的证件关键区域检测定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710759360.3A CN107563377A (zh) | 2017-08-30 | 2017-08-30 | 一种利用边缘和文字区域的证件关键区域检测定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107563377A true CN107563377A (zh) | 2018-01-09 |
Family
ID=60977590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710759360.3A Pending CN107563377A (zh) | 2017-08-30 | 2017-08-30 | 一种利用边缘和文字区域的证件关键区域检测定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107563377A (zh) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154144A (zh) * | 2018-01-12 | 2018-06-12 | 江苏省新通智能交通科技发展有限公司 | 一种基于图像的船名字符定位方法及系统 |
CN108256493A (zh) * | 2018-01-26 | 2018-07-06 | 中国电子科技集团公司第三十八研究所 | 一种基于车载视频的交通场景文字识别系统及识别方法 |
CN108388920A (zh) * | 2018-03-01 | 2018-08-10 | 福州大学 | 一种融合hog和lbph特征的身份证复印件检测方法 |
CN108427946A (zh) * | 2018-03-16 | 2018-08-21 | 福州大学 | 复杂场景下基于内特征和文本域布局的驾驶证检测识别方法 |
CN108460420A (zh) * | 2018-03-13 | 2018-08-28 | 江苏实达迪美数据处理有限公司 | 一种对证件图像进行分类的方法 |
CN108564084A (zh) * | 2018-05-08 | 2018-09-21 | 北京市商汤科技开发有限公司 | 文字检测方法、装置、终端及存储介质 |
CN109034165A (zh) * | 2018-07-06 | 2018-12-18 | 北京中安未来科技有限公司 | 一种证件图像的裁切方法、装置、系统及存储介质 |
CN109284750A (zh) * | 2018-08-14 | 2019-01-29 | 北京市商汤科技开发有限公司 | 票据识别方法及装置、电子设备及存储介质 |
CN109409377A (zh) * | 2018-12-03 | 2019-03-01 | 龙马智芯(珠海横琴)科技有限公司 | 图像中文字的检测方法及装置 |
CN109635799A (zh) * | 2018-12-17 | 2019-04-16 | 石家庄科林电气股份有限公司 | 一种燃气表字轮数字的识别方法 |
CN109961064A (zh) * | 2019-03-20 | 2019-07-02 | 深圳市华付信息技术有限公司 | 身份证文本定位方法、装置、计算机设备及存储介质 |
CN110111648A (zh) * | 2019-04-17 | 2019-08-09 | 吉林大学珠海学院 | 一种编程训练系统及方法 |
CN110427909A (zh) * | 2019-08-09 | 2019-11-08 | 杭州有盾网络科技有限公司 | 一种移动端驾驶证检测方法、系统及电子设备和存储介质 |
CN110442521A (zh) * | 2019-08-02 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 控件单元检测方法及装置 |
CN110569848A (zh) * | 2019-08-09 | 2019-12-13 | 吴彦直 | 一种电力设备铭牌的特征提取方法及系统 |
CN110879829A (zh) * | 2019-11-26 | 2020-03-13 | 杭州皓智天诚信息科技有限公司 | 一种知识产权大数据业务智能系统 |
CN110929738A (zh) * | 2019-11-19 | 2020-03-27 | 上海眼控科技股份有限公司 | 证卡边缘检测方法、装置、设备及可读存储介质 |
WO2020082731A1 (zh) * | 2018-10-26 | 2020-04-30 | 平安科技(深圳)有限公司 | 电子装置、证件识别方法及存储介质 |
CN111340078A (zh) * | 2020-02-18 | 2020-06-26 | 平安科技(深圳)有限公司 | 证件信息自动归类的方法、装置、介质及电子设备 |
CN111340023A (zh) * | 2020-02-24 | 2020-06-26 | 创新奇智(上海)科技有限公司 | 文本识别方法及装置、电子设备、存储介质 |
CN111709956A (zh) * | 2020-06-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及可读存储介质 |
CN111967469A (zh) * | 2020-08-13 | 2020-11-20 | 上海明略人工智能(集团)有限公司 | 一种畸形文本矫正方法、系统及文字识别方法 |
CN112085720A (zh) * | 2020-09-07 | 2020-12-15 | 中国石油大学(华东) | 一种缝洞连通域检测与表征方法 |
CN112232348A (zh) * | 2020-09-07 | 2021-01-15 | 华南师范大学 | 一种基于机器视觉的甲骨文识别方法及系统 |
CN112348027A (zh) * | 2020-11-09 | 2021-02-09 | 浙江太美医疗科技股份有限公司 | 药物单的识别方法和识别装置 |
CN112487848A (zh) * | 2019-09-12 | 2021-03-12 | 京东方科技集团股份有限公司 | 文字识别方法和终端设备 |
CN112668572A (zh) * | 2020-12-24 | 2021-04-16 | 成都新希望金融信息有限公司 | 身份证图像标准化方法、装置、电子设备及存储介质 |
CN113239910A (zh) * | 2021-07-12 | 2021-08-10 | 平安普惠企业管理有限公司 | 证件识别方法、装置、设备及存储介质 |
CN113657407A (zh) * | 2021-07-26 | 2021-11-16 | 扆亮海 | 高查全率的大幅图片文字精准定位方法 |
CN114067378A (zh) * | 2021-11-04 | 2022-02-18 | 北京巴塔科技有限公司 | 掌静脉识别系统、识别方法及计算机可读取的存储介质 |
CN115272341A (zh) * | 2022-09-29 | 2022-11-01 | 华联机械集团有限公司 | 一种基于机器视觉的包装机缺陷产品检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200209A (zh) * | 2014-08-29 | 2014-12-10 | 南京烽火星空通信发展有限公司 | 一种图像文字检测方法 |
CN106156767A (zh) * | 2016-03-02 | 2016-11-23 | 平安科技(深圳)有限公司 | 行驶证有效期自动提取方法、服务器及终端 |
CN106815583A (zh) * | 2017-01-16 | 2017-06-09 | 上海理工大学 | 一种基于mser和swt相结合的夜间车辆车牌定位方法 |
-
2017
- 2017-08-30 CN CN201710759360.3A patent/CN107563377A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200209A (zh) * | 2014-08-29 | 2014-12-10 | 南京烽火星空通信发展有限公司 | 一种图像文字检测方法 |
CN106156767A (zh) * | 2016-03-02 | 2016-11-23 | 平安科技(深圳)有限公司 | 行驶证有效期自动提取方法、服务器及终端 |
CN106815583A (zh) * | 2017-01-16 | 2017-06-09 | 上海理工大学 | 一种基于mser和swt相结合的夜间车辆车牌定位方法 |
Non-Patent Citations (1)
Title |
---|
程育恒: "《基于 Tesseract 开源 OCR 引擎的证件识别系统的设计与实现》", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154144A (zh) * | 2018-01-12 | 2018-06-12 | 江苏省新通智能交通科技发展有限公司 | 一种基于图像的船名字符定位方法及系统 |
CN108256493A (zh) * | 2018-01-26 | 2018-07-06 | 中国电子科技集团公司第三十八研究所 | 一种基于车载视频的交通场景文字识别系统及识别方法 |
CN108388920A (zh) * | 2018-03-01 | 2018-08-10 | 福州大学 | 一种融合hog和lbph特征的身份证复印件检测方法 |
CN108460420A (zh) * | 2018-03-13 | 2018-08-28 | 江苏实达迪美数据处理有限公司 | 一种对证件图像进行分类的方法 |
CN108427946A (zh) * | 2018-03-16 | 2018-08-21 | 福州大学 | 复杂场景下基于内特征和文本域布局的驾驶证检测识别方法 |
CN108427946B (zh) * | 2018-03-16 | 2021-11-26 | 福州大学 | 复杂场景下基于内特征和文本域布局的驾驶证检测识别方法 |
CN108564084A (zh) * | 2018-05-08 | 2018-09-21 | 北京市商汤科技开发有限公司 | 文字检测方法、装置、终端及存储介质 |
CN109034165B (zh) * | 2018-07-06 | 2022-03-01 | 北京中安未来科技有限公司 | 一种证件图像的裁切方法、装置、系统及存储介质 |
CN109034165A (zh) * | 2018-07-06 | 2018-12-18 | 北京中安未来科技有限公司 | 一种证件图像的裁切方法、装置、系统及存储介质 |
CN109284750A (zh) * | 2018-08-14 | 2019-01-29 | 北京市商汤科技开发有限公司 | 票据识别方法及装置、电子设备及存储介质 |
WO2020082731A1 (zh) * | 2018-10-26 | 2020-04-30 | 平安科技(深圳)有限公司 | 电子装置、证件识别方法及存储介质 |
CN109409377A (zh) * | 2018-12-03 | 2019-03-01 | 龙马智芯(珠海横琴)科技有限公司 | 图像中文字的检测方法及装置 |
CN109635799A (zh) * | 2018-12-17 | 2019-04-16 | 石家庄科林电气股份有限公司 | 一种燃气表字轮数字的识别方法 |
CN109961064A (zh) * | 2019-03-20 | 2019-07-02 | 深圳市华付信息技术有限公司 | 身份证文本定位方法、装置、计算机设备及存储介质 |
CN110111648A (zh) * | 2019-04-17 | 2019-08-09 | 吉林大学珠海学院 | 一种编程训练系统及方法 |
CN110442521A (zh) * | 2019-08-02 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 控件单元检测方法及装置 |
CN110442521B (zh) * | 2019-08-02 | 2023-06-27 | 腾讯科技(深圳)有限公司 | 控件单元检测方法及装置 |
CN110569848A (zh) * | 2019-08-09 | 2019-12-13 | 吴彦直 | 一种电力设备铭牌的特征提取方法及系统 |
CN110427909A (zh) * | 2019-08-09 | 2019-11-08 | 杭州有盾网络科技有限公司 | 一种移动端驾驶证检测方法、系统及电子设备和存储介质 |
WO2021047484A1 (zh) * | 2019-09-12 | 2021-03-18 | 京东方科技集团股份有限公司 | 文字识别方法和终端设备 |
CN112487848A (zh) * | 2019-09-12 | 2021-03-12 | 京东方科技集团股份有限公司 | 文字识别方法和终端设备 |
CN112487848B (zh) * | 2019-09-12 | 2024-04-26 | 京东方科技集团股份有限公司 | 文字识别方法和终端设备 |
CN110929738A (zh) * | 2019-11-19 | 2020-03-27 | 上海眼控科技股份有限公司 | 证卡边缘检测方法、装置、设备及可读存储介质 |
CN110879829A (zh) * | 2019-11-26 | 2020-03-13 | 杭州皓智天诚信息科技有限公司 | 一种知识产权大数据业务智能系统 |
CN111340078B (zh) * | 2020-02-18 | 2024-03-01 | 平安科技(深圳)有限公司 | 证件信息自动归类的方法、装置、介质及电子设备 |
CN111340078A (zh) * | 2020-02-18 | 2020-06-26 | 平安科技(深圳)有限公司 | 证件信息自动归类的方法、装置、介质及电子设备 |
CN111340023A (zh) * | 2020-02-24 | 2020-06-26 | 创新奇智(上海)科技有限公司 | 文本识别方法及装置、电子设备、存储介质 |
CN111340023B (zh) * | 2020-02-24 | 2022-09-09 | 创新奇智(上海)科技有限公司 | 文本识别方法及装置、电子设备、存储介质 |
CN111709956A (zh) * | 2020-06-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及可读存储介质 |
CN111709956B (zh) * | 2020-06-19 | 2024-01-12 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及可读存储介质 |
CN111967469A (zh) * | 2020-08-13 | 2020-11-20 | 上海明略人工智能(集团)有限公司 | 一种畸形文本矫正方法、系统及文字识别方法 |
CN111967469B (zh) * | 2020-08-13 | 2023-12-15 | 上海明略人工智能(集团)有限公司 | 一种畸形文本矫正方法、系统及文字识别方法 |
CN112085720A (zh) * | 2020-09-07 | 2020-12-15 | 中国石油大学(华东) | 一种缝洞连通域检测与表征方法 |
CN112085720B (zh) * | 2020-09-07 | 2022-05-27 | 中国石油大学(华东) | 一种缝洞连通域检测与表征方法 |
CN112232348B (zh) * | 2020-09-07 | 2021-10-01 | 华南师范大学 | 一种基于机器视觉的甲骨文识别方法及系统 |
CN112232348A (zh) * | 2020-09-07 | 2021-01-15 | 华南师范大学 | 一种基于机器视觉的甲骨文识别方法及系统 |
CN112348027B (zh) * | 2020-11-09 | 2024-01-23 | 浙江太美医疗科技股份有限公司 | 药物单的识别方法和识别装置 |
CN112348027A (zh) * | 2020-11-09 | 2021-02-09 | 浙江太美医疗科技股份有限公司 | 药物单的识别方法和识别装置 |
CN112668572A (zh) * | 2020-12-24 | 2021-04-16 | 成都新希望金融信息有限公司 | 身份证图像标准化方法、装置、电子设备及存储介质 |
CN113239910B (zh) * | 2021-07-12 | 2021-11-09 | 平安普惠企业管理有限公司 | 证件识别方法、装置、设备及存储介质 |
CN113239910A (zh) * | 2021-07-12 | 2021-08-10 | 平安普惠企业管理有限公司 | 证件识别方法、装置、设备及存储介质 |
CN113657407A (zh) * | 2021-07-26 | 2021-11-16 | 扆亮海 | 高查全率的大幅图片文字精准定位方法 |
CN114067378A (zh) * | 2021-11-04 | 2022-02-18 | 北京巴塔科技有限公司 | 掌静脉识别系统、识别方法及计算机可读取的存储介质 |
CN115272341A (zh) * | 2022-09-29 | 2022-11-01 | 华联机械集团有限公司 | 一种基于机器视觉的包装机缺陷产品检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107563377A (zh) | 一种利用边缘和文字区域的证件关键区域检测定位方法 | |
CN107301661B (zh) | 基于边缘点特征的高分辨率遥感图像配准方法 | |
CN108694393A (zh) | 一种基于深度卷积的证件图像文本区域提取方法 | |
CN109919960B (zh) | 一种基于多尺度Gabor滤波器的图像连续边缘检测方法 | |
CN106156684B (zh) | 一种二维码识别方法及装置 | |
CN106407924A (zh) | 基于路面特征的双目道路识别检测方法 | |
CN102426649A (zh) | 一种简单的高准确率的钢印数字自动识别方法 | |
KR20110057536A (ko) | 문자인식장치 및 그 제어방법 | |
US10866984B2 (en) | Sketch-based image searching system using cell-orientation histograms and outline extraction based on medium-level features | |
CN106446894A (zh) | 一种基于轮廓识别球型目标物位置的方法 | |
US20180174328A1 (en) | Turning radius-based corner detection algorithm | |
CN104217221A (zh) | 基于纹理特征的书画作品检测方法 | |
CN112233116B (zh) | 基于邻域决策与灰度共生矩阵描述的凹凸痕视觉检测方法 | |
CN107862708A (zh) | 一种sar与可见光图像配准方法 | |
CN106981077A (zh) | 基于dce和lss的红外图像和可见光图像配准方法 | |
CN102799859A (zh) | 一种交通标志识别方法 | |
CN103870808A (zh) | 一种手指静脉识别方法 | |
CN105809173B (zh) | 一种基于仿生物视觉变换的图像rstn不变属性特征提取及识别方法 | |
CN112308872B (zh) | 基于多尺度Gabor一阶导数的图像边缘检测方法 | |
CN116703895B (zh) | 基于生成对抗网络的小样本3d视觉检测方法及其系统 | |
CN108319961B (zh) | 一种基于局部特征点的图像roi快速检测方法 | |
CN107895166B (zh) | 基于特征描述子的几何哈希法实现目标鲁棒识别的方法 | |
CN103680145B (zh) | 一种基于局部图像特征的人车自动识别方法 | |
CN110633691A (zh) | 一种基于可见光和近红外相机的双目活体检测方法 | |
US10115195B2 (en) | Method and apparatus for processing block to be processed of urine sediment image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180109 |
|
RJ01 | Rejection of invention patent application after publication |