CN103761520B - 基于笔划宽度的文档图像无参二值化方法 - Google Patents
基于笔划宽度的文档图像无参二值化方法 Download PDFInfo
- Publication number
- CN103761520B CN103761520B CN201310654770.3A CN201310654770A CN103761520B CN 103761520 B CN103761520 B CN 103761520B CN 201310654770 A CN201310654770 A CN 201310654770A CN 103761520 B CN103761520 B CN 103761520B
- Authority
- CN
- China
- Prior art keywords
- stroke
- file
- picture
- pixel
- radius
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Abstract
本发明公开了一种基于笔划宽度的文档图像无参二值化方法,属于图像处理技术领域。该方法首先对输入的文档图像进行去噪预处理,并通过图像的灰度范围内的各个灰度等级得到一系列的二值化结果,然后通过给定的笔划宽度生成该笔划宽度下的最优二值化结果,最后通过厚笔划像素在目标像素中所占的比重变化确定最佳的笔划宽度和最终的二值化结果。实验结果表明,本发明中所给出的二值化算法在不需要设置参数的情况下能够自动的二值化文档图像,且二值化的结果具有较高的鲁棒性和分割精度,对文档的智能化自动处理具有重要意义。
Description
技术领域
本发明涉及一种图像二值化处理的方法,特别是一种基于笔划宽度的文档图像无参全自动二值化方法。
背景技术
文档图像二值化对于文档的自动化分析具有重要的意义,因为二值化效果的好坏将直接决定后续的识别过程。文档图像二值化是一个经典而富有挑战性的问题,目前已出现了很多种不同的方法,其中基于阈值的方法可以分为两类:全局和局部阈值。其中全局阈值方法以Otsu方法为主,包括各种对该方法的改进,如修改判别准则,着重强调目标区域的灰度同质性,而忽略背景区域的多样性等。
笔划作为文档图像中的重要因素,对于文档图像的二值化具有重要影响。如利用笔划宽度的一致性,出现了几种文档图像二值化方法,主要包括:(1)利用形状信息生成全局阈值,(2)利用笔划宽度自适应地生成局部阈值,(3)基于笔划模型从灰度文档图像中抽取字符。
现有的基于笔划宽度的文档图像二值化方法存在如下缺陷:(1)笔划的宽度估计方法不具有旋转不变性,或需要事先人为设定;(2)需要训练,不是无监督的方法;(3)是有参的方法,需要针对不同的图像设置不同的参数。
发明内容
本发明的目的在于提供一种基于笔划宽度的文档图像无参全自动二值化方法。
实现本发明的目的的技术解决方案为:一种基于笔划宽度的文档图像无参二值化方法,包括以下步骤:
步骤1、对文档图像进行采集;
步骤2、采用高斯滤波对采集到的文档图像进行去噪处理;其中高斯滤波的公式为:
式中,g(x,y)为高斯滤波函数,(x,y)为图像坐标,σ为标准偏差。高斯滤波的窗口大小优选为3×3,标准偏差σ优选为1。
步骤3、根据文档图像所在的灰度范围生成二值化结果;具体为:
采用文档图像的阈值区间(Imin,Imax)内的每个灰度值生成对应的二值化结果,其中Imin和Imax分别表示文档图像的灰度最小值和最大值。
步骤4、根据笔划半径选择最佳的二值化结果,所述初始笔划半径为1;具体为:
步骤4-1、确定文本和背景像素的个数,Nt和Nb,具体过程如下:
(1)采用形态学闭运算得到厚目标区域TcOk:
其中和分别表示形态学膨胀和腐蚀操作,Sk表示半径为w+k-1的圆盘形结构元,w为笔划半径,Bi为二值化文档图像;
(2)确定细目标区域TnOk,所用公式为:
文本区域Tr为细目标区域TnO1与厚目标限制区域Mo相连的区域,其中Mo=M∩TnO2={x:x∈M,x∈TnO2},模板
背景区域为 则Nt和Nb分别为文本区域Tr和背景区域Br内的像素个数;
步骤4-2、确定文本和背景像素个数的差异ΔNi,所述公式为:
ΔNi=Nti-Nbi,i的取值为[1,Imax-Imin);
步骤4-3、取最大差异ΔN对应的文档图像作为当前笔划宽度下的二值化结果输出。
步骤5、确定厚笔划像素占目标笔划像素比重的变化量Δr,所述厚笔划是指笔划半径大于当前笔划半径的笔划;具体步骤为:
步骤5-1、确定厚笔划像素在目标像素中所占的比重其中nFtj和nFj分别表示步骤4输出二值化结果中厚笔划像素和目标像素的个数;
步骤5-2、确定厚笔划像素占目标笔划像素比重的变化量Δrj:
Δrj=rj-rj-1,j的取值为[1,wmax)。
步骤6、对当前比划半径进行判断,如果当前笔划半径小于最大笔划半径wmax,则笔划半径加1,然后转到步骤4,否则执行步骤7;
步骤7、取最大变化量Δr所对应的笔划宽度和二值化结果作为最终的输出。
本发明与现有技术相比,其显著优点为:(1)本发明的基于笔划宽度的文档图像无参二值化方法中,笔划宽度的估计具有旋转不变性;(2)本发明给出的方法不需要训练,是无监督的方法;(3)本发明是无参的,不需要设置参数。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于笔划宽度的文档图像无参二值化方法的流程图。
图2是针对给定的笔划半径选择最佳的二值化结果的流程图。
图3是计算厚笔划像素占目标笔划像素比重的变化量的流程图。
图4是一幅实际受污染的文档图像。
图5是采用阈值80得到的二值化结果图。
图6是在给定笔划半径为4时所对应的文本区域。
图7是在给定笔划半径为4时所对应的背景区域。
图8是给定笔划半径为4时文本和背景像素个数差异随阈值的变化曲线图。
图9是厚笔划像素占目标笔划像素比重随给定笔划半径变化的情况图。
具体实施方式
结合图1,本发明的基于HD-OCT视网膜图像的自动脉络膜层分割方法包括以下步骤:
步骤1、对文档图像进行采集;
步骤2、采用高斯滤波对采集到的文档图像进行去噪处理;其中高斯滤波的公式为:
式中,g(x,y)为高斯滤波函数,(x,y)为图像坐标,标准偏差σ为1,高斯滤波的窗口大小为3×3。
步骤3、根据文档图像所在的灰度范围生成二值化结果;具体为:
采用文档图像的阈值区间(Imin,Imax)内的每个灰度值生成对应的二值化结果,其中Imin和Imax分别表示文档图像的灰度最小值和最大值。
步骤4、根据笔划半径选择最佳的二值化结果,所述初始笔划半径为1;具体为:
步骤4-1、确定文本和背景像素的个数,Nt和Nb,具体过程如下:
(1)采用形态学闭运算得到厚目标区域TcOk:
其中和分别表示形态学膨胀和腐蚀操作,Sk表示半径为w+k-1的圆盘形结构元,w为笔划半径,Bi为二值化文档图像;
(2)确定细目标区域TnOk,所用公式为:
文本区域Tr为细目标区域TnO1与厚目标限制区域Mo相连的区域,其中Mo=M∩TnO2={x:x∈M,x∈TnO2},模板
背景区域为 则Nt和Nb分别为文本区域Tr和背景区域Br内的像素个数;
步骤4-2、确定文本和背景像素个数的差异ΔNi,所述公式为:
ΔNi=Nti-Nbi,i的取值为[1,Imax-Imin);
步骤4-3、取最大差异ΔN对应的文档图像作为当前笔划宽度下的二值化结果输出。
步骤5、确定厚笔划像素占目标笔划像素比重的变化量Δr,所述厚笔划是指笔划半径大于当前笔划半径的笔划;具体步骤为:
步骤5-1、确定厚笔划像素在目标像素中所占的比重其中nFtj和nFj分别表示厚笔划像素和目标像素在步骤4输出二值化结果中的个数;
步骤5-2、确定厚笔划像素占目标笔划像素比重的变化量Δrj:
Δrj=rj-rj-1,j的取值为[1,wmax)。
步骤6、对当前比划半径进行判断,如果当前笔划半径小于最大笔划半径wmax,则笔划半径加1,然后转到步骤4,否则执行步骤7;
步骤7、取最大变化量Δr所对应的笔划宽度和二值化结果作为最终的输出。
下面结合实施例对本发明做进一步详细的说明:
本系统发明以文档图像作为输入,采用图像处理手段对输入图像中的文本区域进行自动分割。
本实施例的流程如图1所示,图4给出了一幅实际受污染的文档图像。为了便于后续的处理,首先对输入图像进行去噪处理,然后采用文档图像的阈值区间内的每个灰度值生成对应的二值化结果,图5为采用阈值80得到的二值化结果。针对给定的笔划半径,确定每幅二值化图像中所对应的文本区域和背景区域。如图6和图7分别为图5在给定笔划半径为4时所对应的文本区域和背景区域,通过统计图6和图7中的目标(及黑色)像素个数就得到文本和背景像素的个数,从而可以计算得到文本和背景像素个数的差异。取最大差异ΔN对应的文档图像作为当前给定笔划宽度下的二值化结果输出。图8为当给定笔划半径为4时文本和背景像素个数差异随阈值的变化曲线图,图中给出了7幅不同阈值处(由曲线上的圆圈标记)所对应的二值化结果。从图8可知:对于图4,在给定笔划半径为4时,阈值28所对应的二值化结果能够得到最大的文本和背景像素个数差ΔN,即当前给定笔划半径下的输出二值化结果。然后计算每个给定笔划半径下输出二值化图像中厚笔划(笔划半径大于给定笔划半径)像素占目标笔划像素比重的变化量Δr。图9为厚笔划像素占目标笔划像素比重随给定笔划半径变化的情况图,图中给出了所有9个给定笔划半径下所对应的比重值和最佳的二值化结果图,所述wmax的取值为10。从图9可知:对图4而言,当给定笔划半径为5时,厚笔划像素占目标笔划像素比重最大,即给定笔划半径5所对应的二值化结果为最终的二值化结果输出,同时5也是最终估计得到的文档图像4所对应的最佳笔划半径。最终的二值化结果图中包含了尽可能多的文本像素,同时包含了尽可能少的背景像素。
由上可知,本发明的方法不需要设置参数的情况下能够自动的二值化文档图像,且二值化的结果具有较高的鲁棒性和分割精度,对文档的智能化自动处理具有重要意义。
Claims (4)
1.一种基于笔划宽度的文档图像无参二值化方法,其特征在于,包括以下步骤:
步骤1、对文档图像进行采集;
步骤2、采用高斯滤波对采集到的文档图像进行去噪处理;
步骤3、根据文档图像所在的灰度范围生成二值化结果;采用文档图像的阈值区间(Imin,Imax)内的每个灰度值生成对应的二值化结果,其中Imin和Imax分别表示文档图像的灰度最小值和最大值;
步骤4、根据笔划半径选择最佳的二值化结果,该笔划半径的初始值为1;具体为:
步骤4-1、确定文本和背景像素的个数,Nt和Nb,具体过程如下:
(1)采用形态学闭运算得到厚目标区域TcOk:
其中‘⊕’和‘’分别表示形态学膨胀和腐蚀操作,Sk表示半径为w+k-1的圆盘形结构元,w为笔划半径,Bi为二值化文档图像;
(2)确定细目标区域TnOk,所用公式为:
文本区域Tr为细目标区域TnO1与厚目标限制区域Mo相连的区域,其中Mo=M∩TnO2={q:q∈M,q∈TnO2},模板
背景区域为则Nt和Nb分别为文本区域Tr和背景区域Br内的像素个数;
步骤4-2、确定文本和背景像素个数的差异ΔNi,所用公式为:
ΔNi=Nti-Nbi,i的取值为[1,Imax-Imin);
步骤4-3、取最大差异ΔN对应的文档图像作为当前笔划宽度下的二值化结果输出;
步骤5、确定厚笔划像素占文本区域笔划像素比重的变化量Δr,所述厚笔划是指笔划半径大于当前笔划半径的笔划;
步骤6、对当前笔划半径进行判断,如果当前笔划半径小于最大笔划半径wmax,则笔划半径加1,然后转到步骤4,否则执行步骤7;
步骤7、取最大变化量Δr所对应的笔划宽度和二值化结果作为最终的输出。
2.根据权利要求1所述的基于笔划宽度的文档图像无参二值化方法,其特征在于,步骤2采用高斯滤波对采集到的文档图像进行去噪处理,其中高斯滤波的公式为:
式中,g(x,y)为高斯滤波函数,(x,y)为图像坐标,σ为标准偏差。
3.根据权利要求1所述的基于笔划宽度的文档图像无参二值化方法,其特征在于,步骤5确定厚笔划像素占文本区域笔划像素比重的变化量Δr的具体步骤为:
步骤5-1、确定厚笔划像素在文本区域笔划像素中所占的比重其中nFtj和nFj分别表示步骤4输出二值化结果中厚笔划像素和文本区域笔划像素的个数;
步骤5-2、确定厚笔划像素占文本区域笔划像素比重的变化量Δrj:
Δrj=rj-rj-1,j的取值为[1,wmax)。
4.根据权利要求2所述的基于笔划宽度的文档图像无参二值化方法,其特征在于,高斯滤波的窗口大小为3×3,标准偏差σ为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310654770.3A CN103761520B (zh) | 2013-12-05 | 2013-12-05 | 基于笔划宽度的文档图像无参二值化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310654770.3A CN103761520B (zh) | 2013-12-05 | 2013-12-05 | 基于笔划宽度的文档图像无参二值化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103761520A CN103761520A (zh) | 2014-04-30 |
CN103761520B true CN103761520B (zh) | 2016-09-21 |
Family
ID=50528756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310654770.3A Expired - Fee Related CN103761520B (zh) | 2013-12-05 | 2013-12-05 | 基于笔划宽度的文档图像无参二值化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103761520B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9495343B2 (en) * | 2014-09-30 | 2016-11-15 | Konica Minolta Laboratory U.S.A., Inc. | Horizontal and vertical line detection and removal for document images |
CN105374015A (zh) * | 2015-10-27 | 2016-03-02 | 湖北工业大学 | 基于局部对比度和笔画宽度估计的低质量文档图像二值化方法 |
CN108305284B (zh) * | 2018-02-28 | 2020-09-29 | 北京奇艺世纪科技有限公司 | 一种文字笔画宽度的确定方法及装置 |
CN109035274B (zh) * | 2018-08-23 | 2021-10-22 | 湖北工业大学 | 基于背景估计与u型卷积神经网络的文档图像二值化方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102810155A (zh) * | 2011-05-31 | 2012-12-05 | 富士通株式会社 | 用于从图像中提取文本笔划图像的方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088478A (en) * | 1998-02-13 | 2000-07-11 | Xerox Corporation | Method and apparatus for distinguishing bold face characters |
-
2013
- 2013-12-05 CN CN201310654770.3A patent/CN103761520B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102810155A (zh) * | 2011-05-31 | 2012-12-05 | 富士通株式会社 | 用于从图像中提取文本笔划图像的方法和装置 |
Non-Patent Citations (2)
Title |
---|
A combined approach for the binarization of handwritten document images;K. Ntirogiannis 等;《Pattern Recognition Letters》;20121012;第3-15页 * |
一种改进的文本图像二值化算法;张明 等;《科技信息》;20091231(第27期);第549-450页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103761520A (zh) | 2014-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104299008B (zh) | 基于多特征融合的车型分类方法 | |
CN103886589B (zh) | 面向目标的自动化高精度边缘提取方法 | |
CN102750535B (zh) | 自动提取图像前景的方法和系统 | |
CN104851085B (zh) | 自动获取图像中检测区的方法及系统 | |
CN103699900B (zh) | 卫星影像中建筑物水平矢量轮廓自动批量提取方法 | |
CN101452575A (zh) | 一种基于神经网络的图像自适应增强方法 | |
CN102222226B (zh) | 一种基于先验分析的迭代式车牌字符分割方法 | |
CN104299009B (zh) | 基于多特征融合的车牌字符识别方法 | |
CN108022233A (zh) | 一种基于改进型Canny算子的工件边缘提取方法 | |
CN106296666A (zh) | 一种彩色图像去阴影方法和应用 | |
CN103761520B (zh) | 基于笔划宽度的文档图像无参二值化方法 | |
CN107767387B (zh) | 基于可变感受野尺度全局调制的轮廓检测方法 | |
CN107657606A (zh) | 一种显示装置的亮度缺陷检测方法与装置 | |
CN106780486A (zh) | 一种钢板表面缺陷图像提取方法 | |
CN101216943B (zh) | 一种视频运动目标分割的方法 | |
CN103778613B (zh) | 一种窗口自适应的极化sar影像滤波方法 | |
CN102999886A (zh) | 图像边缘检测器及标尺光栅栅线精度检测系统 | |
CN104580829A (zh) | 一种太赫兹图像增强方法及系统 | |
CN112528868B (zh) | 一种基于改进Canny边缘检测算法的违章压线判别方法 | |
CN102081799B (zh) | 基于邻域相似性及双窗口滤波的sar图像变化检测方法 | |
CN102254163A (zh) | 自适应模板大小的Gabor指纹图像增强方法 | |
CN108647722B (zh) | 一种基于过程尺寸特征的锌矿品位软测量方法 | |
CN107273884A (zh) | 一种基于移动终端摄像头的车辆牌照识别方法 | |
CN103150725B (zh) | 基于非局部均值的susan边缘检测方法及系统 | |
CN103455985A (zh) | 基于Hessian结构分析的道路裂缝增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160921 Termination date: 20181205 |