CN101276461A - 一种利用边缘特征的视频文本增强方法 - Google Patents

一种利用边缘特征的视频文本增强方法 Download PDF

Info

Publication number
CN101276461A
CN101276461A CNA2008101015865A CN200810101586A CN101276461A CN 101276461 A CN101276461 A CN 101276461A CN A2008101015865 A CNA2008101015865 A CN A2008101015865A CN 200810101586 A CN200810101586 A CN 200810101586A CN 101276461 A CN101276461 A CN 101276461A
Authority
CN
China
Prior art keywords
partiald
text
image
color
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008101015865A
Other languages
English (en)
Other versions
CN101276461B (zh
Inventor
朱成军
李超
刘伟
熊璋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Beijing University of Aeronautics and Astronautics
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN2008101015865A priority Critical patent/CN101276461B/zh
Publication of CN101276461A publication Critical patent/CN101276461A/zh
Application granted granted Critical
Publication of CN101276461B publication Critical patent/CN101276461B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

一种基于边缘采样的视频文本增强方法:(1)检测视频帧中出现的文本图像f;(2)对文本图像f进行颜色降维操作;(3)利用彩色空间的梯度算子计算文本图像f的梯度图;(4)将梯度图的相对高频部分作为边缘,将边缘像素对应的图像f的RGB值作为采样点,得到采样点集合P;(5)利用k-均值聚类算法将集合P的元素聚集为5个子类Qj;(6)根据Qj计算子类采样点的均值和方差,作为平均颜色估计uj和分割半径Tj;(7)利用马氏距离度量将文本图像f分割为5个二值图像gi;(8)对分割操作得到的二值图像gi进行连通域分析,从中挑选出包含文本的二值图像,作为文本图像f的文本增强结果。本发明能够较好的估计出文本和背景的颜色分布范围,同时即使在文本颜色不一致,或者背景颜色具有相似色调时,也能很好的将文本和背景分离开来,达到文本增强的目的。

Description

一种利用边缘特征的视频文本增强方法
技术领域
本发明涉及视频中的文本识别,特别是一种利用边缘特征的视频文本增强方法,属于多媒体检索技术和数字图像处理领域。
背景技术
视频中的文本提供了和视频内容高度相关的信息,比如场景地点、事件时间,以及体育比赛中的比分、运动员姓名等信息,但是相对于文档图像中的文本,视频中的文本识别面临以下难点:(1)由于电视制式、视频传输和存储的原因,视频图像分辨率较低;(2)视频中的文本往往叠加在视频场景中。由于大多数商用光学字符识别(OCR,Optical Character Recognition)软件只能处理具有干净背景的二值图像,所以在检测到视频中的文本区域以后,还必须将文本和背景分离开来,得到具有干净背景的文本图像,然后才能进行OCR识别。关于图像二值化,已经有了很多的相关工作,但是这些方法并不适用于视频文本的二值化操作。
在“Victor Wu,Raghavan Manmatha,Edward M.Riseman.TextFinder:an Automatic System toDetect and Recognize Text in Image.IEEE Trans.Pattern anal.Machine Intelllgence,1999,V21(11):1224-1229”中,Wu等人公开了一种利用局部阈值的方法分割图片中的文字的方法,由于灰度图并不能反映彩色图像的边缘信息,且其采用的灰度直方图可能会具有多个波谷,该方法对于稍微复杂的背景效果不理想。
在“C.M Tsai and H.J Lee.Binarization of Color Document Images via Luminance and SaturationColorFeatures.IEEE Trans.on Image Processing,2002,V11(4),2002”中,Tsai等人公开了一种基于阈值的方法对图像中的文本进行分割的方法,其方法中采用了强度和饱和度两种特征,然而接近黑色和白色时,饱和度值跳度较大,而文本像素的颜色大都是白色的,同时由于解压缩的影响,文本像素的颜色往往会具有一定的渐变。所以该方法只是在高质量视频文本的分割中有效,不能适应文本颜色具有较渐变的情况。
在“Qixiang Ye,Wen Gao,Qingming Huang,Automatic text segmentation from complexbackground,IEEE International Conference on Image Processing(ICIP 2004),Singapore,Oct.24-27,2004,pp:2905-2908”中,Ye等人公开了一种基于采样规则获得文字像素并训练建立混合高斯模型,最后使用建立的混合高斯模型和文字笔画的空域连接性综合在一起分割所有文字像素的方法。但是视频中的像素颜色组合具有很多的变化,该混合高斯模型并不能完全预测,对于不同的测试图片集合,还需要对模型进行重新训练。
中国专利申请00807661.8公开了一种“文本增强”的方法,该方法并没有涉及如何将视频中检测到的文本如何从复杂的背景中分离出来。
发明内容
本发明的技术解决问题:本发明能解决视频中的文本存在以下情况时的背景分离问题:(1)文本像素颜色不一致,具有渐变性;(2)背景中存在和文本像素颜色值类似的区域。本发明的思路是事先根据边缘处的颜色信息估计出文本像素颜色的渐变范围以及背景像素的颜色值分布情况,分别统计其平均值和方差作为分割种子点和分割半径,最终将文本从文本图像中分割出来。分割后的文本图像具有干净的背景,能显著提高视频中文本的OCR识别率。
本发明的技术解决方案:一种基于边缘采样的视频文本增强方法,包括以下步骤:
(1)利用文本检测方法检测视频帧中出现的文本区域,记为文本图像f;
(2)对文本图像f进行颜色降维操作,其RGB通道值以8bit的高4位bit来代替;
(3)利用彩色空间的梯度算子计算文本图像f的梯度图;
(4)将梯度图的相对高频部分作为边缘,将边缘像素对应的文本图像f的RGB值作为种子点,得到种子点集合P,对于采样点集合P中的每一个元素pi,pi=(ri,gi,bi)是一个三维矢量;
(5)利用k-均值聚类算法将集合P的元素聚集为5个子类Qj(j=1,2,…,5);
(6)根据Qj计算子类采样点的平均颜色估计uj和分割半径Tj
(7)利用马氏距离度量将马氏(Mahalanobis)距离文本图像f分割为5个二值图像gi(i=1,…,5);
(8)对分割操作得到的二值图像gi进行连通域分析,从中挑选出包含文本的二值图像,作为文本图像f的文本增强结果。
本发明的方法在步骤(2)-(6)中,充分利用了文本和背景具有高对比度的特点对文本和背景的颜色分布进行采样,然后利用了数字图像处理领域中的图像分割技术,分离背景和文本。
本发明与现有技术相比的优点在于:事先根据边缘处的颜色信息估计出文本像素颜色的渐变范围以及背景像素的颜色值分布情况,分别统计其平均值和方差作为分割种子点和分割半径,可以容易的将背景和文本分割开来。解决了文本像素颜色不一致,具有渐变性以及背景中存在和文本像素颜色值类似的区域时,文本和背景的分离问题,能显著提高视频中文本的OCR识别率。
附图说明
图1为本发明方法的流程图;
图2为本发明的基于边缘的采样示例,其中2a为原文本图像;2b为梯度图像;2c为高频边缘图像;2d为边缘点对应的原图像中的像素;
图3为图2a的分割结果示例图,其中3a、3b、3c、3d为包含背景像素的分割结果;3e为包含文本的正确分割结果。
具体实施方式
如图1所示,本发明具体实现方法如下:
1.利用文本检测算法,比如本发明专利申请人在“Chengjun Zhu,Yuanxin Ouyang,Lei Gao,Zhenyong Chen,Zhang Xiong,“An Automatic Video Text Detection,Localization and ExtractionApproach”,the 2th International Conference on Signal-Image Technology & Internet-Based Systems(SITIS 2006),http://www.u-bourgogne.fr/SITIS/06/index.html”中公开的文本检测算法,检测视频中的文本区域,记为文本图像f;
2.对文本图像f进行颜色降维,将RGB通道中8bit中的低4位置为0,也是仅以高4位bit代替该通道的值,该过程其实是一个对图像颜色空间进行重新量化的过程,由于低4位bit的取值范围是0~15,所以其相当于以16为间距量化各通道的值,比如某个像素的R通道二进制值为”11110111”,进行颜色降维后以“11110000”代替。经过降维操作后,图像的在RGB颜色空间的值分布复杂性大大降低,而图像的视觉效果并没有收到影响。
3.计算文本图像f的梯度值
将文本图像看着一个标量函数f(x,y),其梯度是一个在坐标(x,y)处的最大变化率的方向上的向量,令r,g和b是RGB彩色空间沿R,G和B轴的单位向量,定义向量u和v:
u = ∂ R ∂ x r + ∂ G ∂ x g + ∂ B ∂ x b
v = ∂ R ∂ y r + ∂ G ∂ y g + ∂ B ∂ y b
令gxx,gyy和gxy是这些向量的点积,如下所示:
g xx = u · u = u T u = | ∂ R ∂ x | 2 + | ∂ G ∂ x | 2 + | ∂ B ∂ x | 2
g yy = v · v = v T v = | ∂ R ∂ y | 2 + | ∂ G ∂ y | 2 + | ∂ B ∂ y | 2
g xy = u · v = u T v = ∂ R ∂ x ∂ R ∂ y + ∂ G ∂ x ∂ G ∂ y + ∂ B ∂ x ∂ B ∂ y
于是,最大变化率的方向角度可由下式求得:
θ ( x , y ) = 1 2 arctan [ 2 g xy / ( g xx + g yy )
变化率的值,即梯度值在由θ(x,y)的元素给出的方向上由下式给出:
F θ ( x , y ) = { 1 2 [ ( g xx + g yy ) + ( g xx + g yy ) cos 2 θ + 2 g xy sin 2 θ ] } 1 / 2 .
令Mean(Fθ(x,y))为图像f(x,y)的梯度平均值,图像的采样点集合P定义为:
P={p(x,y)|Fθ(x,y)≥Mean(Fθ)}
如图2所示,图2b和2c分别是文本图像2a的梯度图和采样点集合,其对应的原文本图像中的像素点集合如2d所示。
4.利用K-均值聚类计算分割种子点和半径。
对于采样点集合P中的每一个元素pi,pi=(ri,gi,bi)是一个三维矢量,根据其距离的远近,可以聚集为不同的类Qj(j=1,2,…,5),计算类的均值和方差可作为图像分割的种子点和分割半径。K-均值聚类法是常用的将矢量空间划分为K个聚类的方法,在本发明中,设定k=5,具体步骤如下:
(1)设定K个聚类中心的初始值{u1 (0),…,uK (0)};
u 1 ( 0 ) u 2 ( 0 ) u 3 ( 0 ) u 4 ( 0 ) u 5 ( 0 ) = 2.7 2.7 2.7 5.4 5.4 5.4 8.1 8.1 8.1 10.8 10.8 10.8 13.5 13.5 13.5
(2)在第w次迭代时,根据下述准则将每个pi都赋予K类之一(m=1,2,…,K,n=1,2,…,K,m≠n),即:
p i &Element; Q m ( w ) , if | | p i - u m ( w ) | | < | | p i - u n ( w ) | |
即将每个pi赋予离它最近的类。
(3)对j=1,2,…,K,更新类均值uj (w+1)
u j ( w + 1 ) = 1 N j &Sigma; p i &Element; Q j ( w ) p i
(4)如果对所有的j=1,2,…,K,有 u j ( w ) = u j ( w + 1 ) , 则算法收敛,结束。否则退回步骤(2)继续下一次迭代。
5.文本图像分割。
分割的目标是对文本图像中的每一个RGB像素进行归类,最理想的结果是指定的分割种子点和分割半径能包括文本笔画像素所有的颜色范围。通过上一步对采样点集合P进行空间聚类,得到聚类结果Qj(j=1,1,…,5),根据Qj可以计算平均的颜色估计uj,分割半径Tj,其计算公式可以表示为:
u j = 1 | | Q j | | &Sigma; p i &Element; Q j p i , p i = r i g i b i
T j = 1 | | Q j | | - 1 &Sigma; p i &Element; Q j ( p i - u j ) 2
在求得平均的颜色估计uj,分割半径Tj,我们需要指定一个相似性度量来将文本图像的每个像素归类到种子点代表的类别中。最简单的度量是欧几里德距离,令z表示RGB空间的任意点,z和种子点uj的距离由下式给出:
D ( u j , z ) = | | u j - z | | = [ ( u j - m ) T ( u j - m ) ] 1 / 2
= [ ( u jR - m R ) 2 + ( u jG - m G ) 2 + ( u jB - m B ) 2 ] 1 / 2
另外一个在彩色图像分割中常用的距离度量是马氏(Mahalanobis)距离,其距离定义如下:
D ( u j , z ) = [ ( z - u j ) T C j - 1 ( z - u j ) ] 1 / 2
其中Cj采样值表示的协方差矩阵,由下式求得:
C j = 1 | | Q j | | - 1 &Sigma; p i &Element; Q j ( p i - u i ) ( p i - u i ) T
在RGB空间中,满足D(uj,z)<Tj的点在以马氏距离作为相似性度量时,点的轨迹是一个实心三维椭圆体,而以欧式距离作为距离度量时,点的轨迹是一个半径为Tj的实心圆球。所以相对于欧氏距离,马氏距离具有一个重要属性,其主轴取在最大的数据扩展方向上,因此根据聚类结果Qj会产生更为理想的分割结果。
6.连通域分析
由文本图像f会得到分割结果gi(i=1,…,5),由图3可以看出,其中只有一个分割结果图3e包含文本,所以还需要根据文本的笔画结构特点从gi中挑选出正确的分割结果。连通域分析包括以下三个步骤:
第1步:删除过大或者过小的连通域。对gi(i=1,…,5)中的每个连通域,计算其像素数Area和外接矩形宽度Width。Area值应该在一个合理的范围内,太小和太大都可视为原图像中的背景区域,考虑到汉字有笔画“点”,所以Area的最小值取Amin=10,最大值取点阵的3/4,即Amax=1200。对于Width,取字符高度即Wmax=40像素。最终,gi(i=1,…,5)中,删除不满足Amin<Area<Amax或者Width>Wmax的连通域。
第2步:经过以上连通域分析处理后,gi(i=1,…,5)中保留了合理尺寸的连通域。在“张炘中.汉字识别技术.北京:清华大学出版社,1992”中,公开了对6763个汉字的笔画统计数据,在40×40的汉字点阵中,汉字像素总和的均值为424.1(26.5%)像素,均方差为86.9。英文字符的笔画数相对较少,但是为了便于阅读,笔画尺寸一般也较大,其文字像素面积也在点阵的20%以上。根据这个特点,计算前景像素数目和图像大小的比值Ri
R i = &Sigma; g i ( x , y ) count ( g i )
对于Ri<20%的gi,作为背景排除掉。
第3步:由于笔画是连接的,所以文本主要由几个大的连通域构成,反之背景由于被文字笔画分开,形成大量的小连通域。利用这个特点,计算连通域的平均尺寸,平均尺寸较大者即可视为正确的文本分割结果。
通过以上3个连通域分析步骤,最终可以排除掉包含背景的分割结果,如图3a-3d,然后挑选出正确的分割结果图3e。

Claims (8)

1、一种基于边缘采样的视频文本增强方法,其特征在于包括以下步骤:
(1)利用文本检测方法检测视频帧中出现的文本区域,记为文本图像f;
(2)对文本图像f进行颜色降维操作,其RGB通道值以8bit的高4位bit来代替;
(3)利用彩色空间的梯度算子计算文本图像f的梯度图;
(4)将梯度图的相对高频部分作为边缘,将边缘像素对应的文本图像f的RGB值作为采样点,得到采样点集合P,对于采样点集合P中的每一个元素pi,pi=(ri,gi,bi)是一个三维矢量;
(5)利用k-均值聚类算法将集合P的元素聚集为5个子类Qj,j=1,2,…,5;
(6)根据Qj计算子类采样点的平均颜色估计uj和分割半径Tj
(7)利用马氏距离度量将马氏Mahalanobis距离文本图像f分割为5个二值图像gi,i=1,…,5;
(8)对分割操作得到的二值图像gi进行连通域分析,从中挑选出包含文本的二值图像,作为文本图像f的文本增强结果。
2、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(2)的具体实现过程为:对彩色文本图像f的RGB通道值的低4bit设置为0,即以8bit的高4位bit来代替。
3、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(3)利用彩色空间的梯度算子计算文本图像f的梯度图Fθ(x,y)的过程为:
(1)将文本图像看着一个标量函数f(x,y),其梯度是一个在坐标(x,y)处的最大变化率的方向上的向量,令r,g和b是RGB彩色空间沿R,G和B轴的单位向量,定义向量u和v:
u = &PartialD; R &PartialD; x r + &PartialD; G &PartialD; x g + &PartialD; B &PartialD; x b
v = &PartialD; R &PartialD; y r + &PartialD; G &PartialD; y g + &PartialD; B &PartialD; y b
(2)令gxx,gyy和gxy是这些向量的点积,公式如下所示:
g xx = u &CenterDot; u = u T u = | &PartialD; R &PartialD; x | 2 + | &PartialD; G &PartialD; x | 2 + | &PartialD; B &PartialD; x | 2
g yy = v &CenterDot; v = v T v = | &PartialD; R &PartialD; y | 2 + | &PartialD; G &PartialD; y | 2 + | &PartialD; B &PartialD; y | 2
g xy = u &CenterDot; v = u T v = &PartialD; R &PartialD; x &PartialD; R &PartialD; y + &PartialD; G &PartialD; x &PartialD; G &PartialD; y + &PartialD; B &PartialD; x &PartialD; B &PartialD; y
(3)计算最大变化率的方向角度,公式如下:
&theta; ( x , y ) = 1 2 arctan [ 2 g xy / ( g xx + g yy )
(4)在由θ(x,y)的元素给出的方向上由以下公式给出梯度图:
F &theta; ( x , y ) = { 1 2 [ ( g xx + g yy ) + ( g xx + g yy ) cos 2 &theta; + 2 g xy sin 2 &theta; ] } 1 / 2 .
4、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(4)中梯度图的相对高频部分作为边缘,将边缘像素对应的文本图像f的RGB值作为采样点,得到采样点集合P,令Mean(Fθ(x,y))为图像f(x,y)的梯度平均值,图像的采样点集合P定义为:
               P={p(x,y)|Fθ(x,y)≥Mean(Fθ)}
5、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(5)中利用k-均值聚类算法将集合P的元素聚集为5个子类Qj(j=1,2,…,5)的过程为:
(1)设定K个聚类中心的初始值{u1 (0),…,uK (0)},如下:
u 1 ( 0 ) u 2 ( 0 ) u 3 ( 0 ) u 4 ( 0 ) u 5 ( 0 ) = 2.7 2.7 2.7 5.4 5.4 5.4 8.1 8.1 8.1 10.8 10.8 10.8 13.5 13.5 13.5
(2)在第w次迭代时,根据下述准则将每个pi都赋予K类之一(m=1,2,…,K,n=1,2,…,K,m≠n),即:
p i &Element; Q m ( w ) , if | | p i - u m ( w ) | | < | | p i - u n ( w ) | |
(3)对j=1,2,…,K,更新类均值uj (w+1)
u j ( w + 1 ) = 1 N j &Sigma; p i &Element; Q j ( w ) p i
(4)如果对所有的j=1,2,…,K,有uj (w)=uj (w+1),则算法收敛,结束。否则退回(2)继续下一次迭代。
6、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(6)根据Qj计算子类采样点的平均颜色估计uj和分割半径Tj的过程为:计算平均颜色估计uj和分割半径Tj,公式如下:
u j = 1 | | Q j | | &Sigma; p i &Element; Q j p i , p i = r i g i b i
T j = 1 | | Q j | | - 1 &Sigma; p i &Element; Q j ( p i - u j ) 2 .
7、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(7)利用马氏距离度量将马氏Mahalanobis距离文本图像f分割为5个二值图像gi的过程为:
(1)指定马氏(Mahalanobis)距离作为相似性度量来将文本图像的每个像素归类到种子点代表的类别中,距离定义如下:
D ( u j , z ) = [ ( z - u j ) T C j - 1 ( z - u j ) ] 1 / 2
(2)满足D(uj,z)<Tj的点作为分割结果gi
8、根据权利要求1所述的一种基于边缘采样的视频文本增强方法,其特征在于:所述的步骤(8)对分割操作得到的二值图像gi进行连通域分析,从中挑选出包含文本的二值图像,作为文本图像f的文本增强结果的过程为:
(1)删除过大或者过小的连通域,对gi,i=1,…,5中的每个连通域,计算其像素数Area和外接矩形宽度Width。Area值应该在一个合理的范围内,太小和太大都可视为原图像中的背景区域,考虑到汉字有笔画“点”,所以Area的最小值取Amin=10,最大值取点阵的3/4,即Amax=1200。对于Width,取字符高度即Wmax=40像素,最终,gi中,删除不满足Amin<Area<Amax或者Width>Wmax的连通域;
(2)经过以上连通域分析处理后,gi中保留了合理尺寸的连通域。计算前景像素数目和图像大小的比值Ri
R i = &Sigma; g i ( x , y ) count ( g i )
对于Ri<20%的gi,作为背景排除掉;
(3)由于笔画是连接的,文本主要由几个大的连通域构成,反之背景由于被文字笔画分开,形成大量的小连通域,利用这个特点,计算连通域的平均尺寸,平均尺寸较大者即可视为正确的文本分割结果。
CN2008101015865A 2008-03-07 2008-03-07 一种利用边缘特征的视频文本增强方法 Expired - Fee Related CN101276461B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008101015865A CN101276461B (zh) 2008-03-07 2008-03-07 一种利用边缘特征的视频文本增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008101015865A CN101276461B (zh) 2008-03-07 2008-03-07 一种利用边缘特征的视频文本增强方法

Publications (2)

Publication Number Publication Date
CN101276461A true CN101276461A (zh) 2008-10-01
CN101276461B CN101276461B (zh) 2011-11-02

Family

ID=39995876

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008101015865A Expired - Fee Related CN101276461B (zh) 2008-03-07 2008-03-07 一种利用边缘特征的视频文本增强方法

Country Status (1)

Country Link
CN (1) CN101276461B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011009278A1 (zh) * 2009-07-21 2011-01-27 深圳市融创天下科技发展有限公司 一种基于边缘检测的视频质量评价方法和系统
CN102005029B (zh) * 2009-09-01 2013-03-06 致伸科技股份有限公司 图像处理方法及装置
CN104463103A (zh) * 2014-11-10 2015-03-25 小米科技有限责任公司 图像处理方法及装置
CN104598907A (zh) * 2013-10-31 2015-05-06 同济大学 一种基于笔画宽度图的图像中文字数据提取方法
CN105404885A (zh) * 2015-10-28 2016-03-16 北京工业大学 一种二维字符图形验证码复杂背景噪音干扰去除方法
CN105574841A (zh) * 2014-11-05 2016-05-11 Tcl集团股份有限公司 一种基于颜色的图像分割方法及装置
CN106980857A (zh) * 2017-02-24 2017-07-25 浙江工业大学 一种基于碑帖的毛笔字分割识别方法
CN107273898A (zh) * 2017-07-10 2017-10-20 武汉珞珈博研科技有限责任公司 基于字符纹理区域分割的打印文件鉴别方法
CN108020561A (zh) * 2016-11-03 2018-05-11 应用材料以色列公司 用于在检查对象时自适应采样的方法和其系统
CN108038458A (zh) * 2017-12-20 2018-05-15 首都师范大学 基于特征摘要图的视频中的户外场景文本自动获取方法
CN108122196A (zh) * 2016-11-28 2018-06-05 阿里巴巴集团控股有限公司 图片的纹理贴图方法和装置
CN110442736A (zh) * 2019-08-16 2019-11-12 北京工商大学 一种基于二次判别分析的语义增强子空间跨媒体检索方法
CN111784709A (zh) * 2020-07-07 2020-10-16 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN111915541A (zh) * 2020-07-31 2020-11-10 平安科技(深圳)有限公司 基于人工智能的图像增强处理方法、装置、设备及介质
CN112132808A (zh) * 2020-09-23 2020-12-25 沈阳建筑大学 基于常态模型学习的乳腺x线图像病变检测方法和装置
CN112800259A (zh) * 2021-04-07 2021-05-14 武汉市真意境文化科技有限公司 一种基于边缘闭合与共性检测的图像生成方法及系统
CN113298054A (zh) * 2021-07-27 2021-08-24 国际关系学院 一种基于嵌入空间像素聚类的文本区域检测方法
CN116962698A (zh) * 2023-09-20 2023-10-27 江苏游隼微电子有限公司 一种高压缩率的图像压缩及解压缩方法

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011009278A1 (zh) * 2009-07-21 2011-01-27 深圳市融创天下科技发展有限公司 一种基于边缘检测的视频质量评价方法和系统
CN102005029B (zh) * 2009-09-01 2013-03-06 致伸科技股份有限公司 图像处理方法及装置
CN104598907A (zh) * 2013-10-31 2015-05-06 同济大学 一种基于笔画宽度图的图像中文字数据提取方法
CN104598907B (zh) * 2013-10-31 2017-12-05 同济大学 一种基于笔画宽度图的图像中文字数据提取方法
CN105574841A (zh) * 2014-11-05 2016-05-11 Tcl集团股份有限公司 一种基于颜色的图像分割方法及装置
CN105574841B (zh) * 2014-11-05 2018-11-30 深圳市Tcl高新技术开发有限公司 一种基于颜色的图像分割方法及装置
CN104463103B (zh) * 2014-11-10 2018-09-04 小米科技有限责任公司 图像处理方法及装置
CN104463103A (zh) * 2014-11-10 2015-03-25 小米科技有限责任公司 图像处理方法及装置
CN105404885A (zh) * 2015-10-28 2016-03-16 北京工业大学 一种二维字符图形验证码复杂背景噪音干扰去除方法
CN105404885B (zh) * 2015-10-28 2019-03-22 北京工业大学 一种二维字符图形验证码复杂背景噪音干扰去除方法
CN108020561A (zh) * 2016-11-03 2018-05-11 应用材料以色列公司 用于在检查对象时自适应采样的方法和其系统
CN108122196A (zh) * 2016-11-28 2018-06-05 阿里巴巴集团控股有限公司 图片的纹理贴图方法和装置
CN108122196B (zh) * 2016-11-28 2022-07-05 阿里巴巴集团控股有限公司 图片的纹理贴图方法和装置
CN106980857B (zh) * 2017-02-24 2020-05-05 浙江工业大学 一种基于碑帖的毛笔字分割识别方法
CN106980857A (zh) * 2017-02-24 2017-07-25 浙江工业大学 一种基于碑帖的毛笔字分割识别方法
CN107273898A (zh) * 2017-07-10 2017-10-20 武汉珞珈博研科技有限责任公司 基于字符纹理区域分割的打印文件鉴别方法
CN108038458B (zh) * 2017-12-20 2021-04-09 首都师范大学 基于特征摘要图的视频中的户外场景文本自动获取方法
CN108038458A (zh) * 2017-12-20 2018-05-15 首都师范大学 基于特征摘要图的视频中的户外场景文本自动获取方法
CN110442736B (zh) * 2019-08-16 2022-04-26 北京工商大学 一种基于二次判别分析的语义增强子空间跨媒体检索方法
CN110442736A (zh) * 2019-08-16 2019-11-12 北京工商大学 一种基于二次判别分析的语义增强子空间跨媒体检索方法
CN111784709A (zh) * 2020-07-07 2020-10-16 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN111784709B (zh) * 2020-07-07 2023-02-17 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN111915541A (zh) * 2020-07-31 2020-11-10 平安科技(深圳)有限公司 基于人工智能的图像增强处理方法、装置、设备及介质
CN112132808A (zh) * 2020-09-23 2020-12-25 沈阳建筑大学 基于常态模型学习的乳腺x线图像病变检测方法和装置
CN112132808B (zh) * 2020-09-23 2023-11-07 沈阳建筑大学 基于常态模型学习的乳腺x线图像病变检测方法和装置
CN112800259A (zh) * 2021-04-07 2021-05-14 武汉市真意境文化科技有限公司 一种基于边缘闭合与共性检测的图像生成方法及系统
CN113298054A (zh) * 2021-07-27 2021-08-24 国际关系学院 一种基于嵌入空间像素聚类的文本区域检测方法
CN116962698A (zh) * 2023-09-20 2023-10-27 江苏游隼微电子有限公司 一种高压缩率的图像压缩及解压缩方法
CN116962698B (zh) * 2023-09-20 2023-12-08 江苏游隼微电子有限公司 一种高压缩率的图像压缩及解压缩方法

Also Published As

Publication number Publication date
CN101276461B (zh) 2011-11-02

Similar Documents

Publication Publication Date Title
CN101276461B (zh) 一种利用边缘特征的视频文本增强方法
CN105205488B (zh) 基于Harris角点和笔画宽度的文字区域检测方法
US8340420B2 (en) Method for recognizing objects in images
US8326029B1 (en) Background color driven content retrieval
CN107392968B (zh) 融合颜色对比图和颜色空间分布图的图像显著性检测方法
CN103605991A (zh) 一种视频广告的自动检测方法
CN102722891A (zh) 一种图像显著度检测的方法
CN103473551A (zh) 基于sift算子的台标识别方法及系统
EP2259207B1 (en) Method of detection and recognition of logos in a video data stream
CN107992856B (zh) 城市场景下的高分遥感建筑物阴影检测方法
CN112232332B (zh) 一种基于视频序列的非接触式手掌检测方法
Bai et al. Scene text localization using gradient local correlation
CN103049749B (zh) 在栅格遮挡下的人体再识别方法
CN109886168B (zh) 一种基于层阶的地面交通标志识别方法
Ye et al. Automatic text segmentation from complex background
Liu et al. A novel multi-oriented chinese text extraction approach from videos
CN113706584A (zh) 基于计算机视觉的街景流量信息采集方法
Li et al. Optimized automatic seeded region growing algorithm with application to ROI extraction
CN103810487A (zh) 一种海洋航拍图像的目标检测与识别方法及系统
Samal et al. Texture as the basis for individual tree identification
CN107704864B (zh) 基于图像对象性语义检测的显著目标检测方法
Kovacs et al. Orientation based building outline extraction in aerial images
CN106066887A (zh) 一种广告序列图像快速检索和分析方法
CN102129569A (zh) 基于多尺度对比特征的对象检测设备和方法
Tsai et al. A comprehensive motion videotext detection localization and extraction method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111102

Termination date: 20150307

EXPY Termination of patent right or utility model