CN105096347B - 图像处理装置和方法 - Google Patents
图像处理装置和方法 Download PDFInfo
- Publication number
- CN105096347B CN105096347B CN201410169177.4A CN201410169177A CN105096347B CN 105096347 B CN105096347 B CN 105096347B CN 201410169177 A CN201410169177 A CN 201410169177A CN 105096347 B CN105096347 B CN 105096347B
- Authority
- CN
- China
- Prior art keywords
- image
- color
- region
- pixel
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
本公开涉及图像处理装置和方法。图像处理装置包括:获取单元,其获取包含对象图像的图像;计算单元,其基于图像的颜色和边缘特征计算候选对象图像区域;选择单元,其基于预定颜色模型,选择具有与预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,最大相似度大于或等于相似度阈值;确定单元,其基于候选对象图像区域的颜色特征,使用第一对象图像区域将其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;创建单元,其针对第一对象图像区域和第二对象图像区域中的每一个,分别创建自适应颜色模型;以及检测单元,其基于自适应颜色模型,在第一对象图像区域和第二对象图像中的每一个中检测包含对象图像的区域。
Description
技术领域
本公开涉及图像处理的技术领域,具体地涉及用于检测诸如手指图像之类的对象图像的边界的装置和方法。
背景技术
这个部分提供了与本公开有关的背景信息,这不一定是现有技术。
在利用顶置式扫描仪扫描文档图像或者用配置好的照相机/智能手机对文档进行拍照时,用户会用手指按压住文档来完成扫描或拍摄过程。因而,用户的手指会存在于扫描或拍摄图像中。这让扫描/拍摄的文档图像不美观,因而有必要去除图像上的手指区域。为了去除手指图像,通常需要采取两个步骤:首先,检测出手指区域;其次,去除手指区域。
自动手指检测问题可以看作是一个图像分割问题。一些肤色分割方法利用了不同的颜色表示(如RGB、HSV或YCbCr)和分类算法(如贝叶斯分类器和混合高斯模型)来分割肤色区域。但是,预定义的肤色模型不能够有效地刻画在不同环境下的颜色变化。与之相对地,自适应的肤色模型可以更好地表示肤色在不同光照条件下的变化,因而能够取得更好的分割效果。但是,当肤色与背景颜色接近时,仅靠颜色很难将手部区域分割出来。另外,当背景区域中出现与肤色类似的像素时,这些像素会影响所构建肤色模型的表示。
发明内容
这个部分提供了本公开的一般概要,而不是其全部范围或其全部特征的全面披露。
本公开的目的在于提供一种图像处理装置和图像处理方法,其能够提高检测诸如手指图像之类的对象图像的边界的精度,从而便利于从图像中去除对象图像,使得处理后的图像更加美观。
根据本公开的一方面,提供了一种图像处理装置,该装置包括:获取单元,用于获取包含对象图像的图像;计算单元,用于基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域;选择单元,用于基于预定颜色模型,从所述一个或多个候选对象图像区域中选择具有与所述预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,所述最大相似度大于或等于相似度阈值;确定单元,用于基于所述一个或多个候选对象图像区域的颜色特征,使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;创建单元,用于针对所述第一对象图像区域和所述第二对象图像区域中的每一个,分别创建自适应颜色模型;以及检测单元,用于基于所述自适应颜色模型,在所述第一对象图像区域和所述第二对象图像中的所述每一个中检测包含所述对象图像的区域。
根据本公开的另一方面,提供了一种图像处理方法,该方法包括:获取包含对象图像的图像;基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域;基于预定颜色模型,从所述一个或多个候选对象图像区域中选择具有与所述预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,所述最大相似度大于或等于相似度阈值;基于所述一个或多个候选对象图像区域的颜色特征,使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;针对所述第一对象图像区域和所述第二对象图像区域中的每一个,分别创建自适应颜色模型;以及基于所述自适应颜色模型,在所述第一对象图像区域和所述第二对象图像中的所述每一个中检测包含所述对象图像的区域。
根据本公开的另一方面,提供了一种程序产品,该程序产品包括存储在其中的机器可读指令代码,其中,所述指令代码当由计算机读取和执行时,能够使所述计算机执行根据本公开的图像处理方法。
根据本公开的另一方面,提供了一种机器可读存储介质,其上携带有根据本公开的程序产品。
根据本公开的图像处理装置和方法利用边缘和颜色特征来定位候选对象图像区域如候选手指种子区域,然后从候选手指种子区域中选择出与预定义的手指颜色模型最相似的区域。然后,利用选择的种子区域对其余候选手指种子区域进行验证以去掉部分的无效的手指种子区域。最后,对每个保留下的候选手指种子区域构建自适应的肤色模型来提取相应的手指区域。由此,根据本公开的图像处理装置和方法可以提高检测对象图像的边界的精度,从而便利于从图像中去除对象图像,使得处理后的图像更加美观。
从在此提供的描述中,进一步的适用性区域将会变得明显。这个概要中的描述和特定例子只是为了示意的目的,而不旨在限制本公开的范围。
附图说明
在此描述的附图只是为了所选实施例的示意的目的而非全部可能的实施,并且不旨在限制本公开的范围。在附图中:
图1为本公开的技术方案所针对的图像的例子的示意图;
图2为根据本公开的实施例的图像处理装置的框图;
图3为根据本公开的实施例的图像处理装置的应用的例子的示意图;
图4为根据本公开的实施例的图像处理装置中的计算单元的框图;
图5为根据本公开的实施例的图像处理装置的应用的例子的示意图;
图6为根据本公开的实施例的图像处理装置的应用的例子的示意图;
图7为根据本公开的实施例的图像处理装置中的确定单元的框图;
图8为根据本公开的另一个实施例的图像处理装置的框图;
图9为根据本公开的实施例的图像处理装置中的对象图像获得单元的框图;
图10为根据本公开的实施例的图像处理装置的应用的例子的示意图;
图11为根据本公开的实施例的图像处理装置的应用的例子的示意图;
图12为根据本公开的实施例的图像处理方法的流程图;以及
图13为其中可以实现根据本公开的实施例的图像处理装置和方法的通用个人计算机的示例性结构的框图。
虽然本公开容易经受各种修改和替换形式,但是其特定实施例已作为例子在附图中示出,并且在此详细描述。然而应当理解的是,在此对特定实施例的描述并不打算将本公开限制到公开的具体形式,而是相反地,本公开目的是要覆盖落在本公开的精神和范围之内的所有修改、等效和替换。要注意的是,贯穿几个附图,相应的标号指示相应的部件。
具体实施方式
现在参考附图来更加充分地描述本公开的例子。以下描述实质上只是示例性的,而不旨在限制本公开、应用或用途。
提供了示例实施例,以便本公开将会变得详尽,并且将会向本领域技术人员充分地传达其范围。阐述了众多的特定细节如特定部件、装置和方法的例子,以提供对本公开的实施例的详尽理解。对于本领域技术人员而言将会明显的是,不需要使用特定的细节,示例实施例可以用许多不同的形式来实施,它们都不应当被解释为限制本公开的范围。在某些示例实施例中,没有详细地描述众所周知的过程、众所周知的结构和众所周知的技术。
图1示出了本公开的技术方案所针对的图像的例子。当例如使用顶置式扫描仪扫描书本B时,用户会用左手LH和右手RH的手指按住书本的两侧来完成扫描过程,这样一来就会获得如图1左侧的(a)所示的图像。可以使用本领域已知的方法对获得的图像进行校正。例如,可以提取图像的上下边界,然后通过从曲面到平面的变换而得到校正后的图像。在图1右侧的(b)中示出了校正后的图像的例子。如图1右侧的(b)所示,在校正后的书本扫描图像上,手指图像F会出现在书本的两侧边界上,这使得校正后的图像很不美观。因此,有必要去除校正图像上的手指图像F。
为了去除手指图像F,通常需要采取两个步骤:首先,检测出手指区域;其次,去除手指区域。使用本公开的技术方案,可以提高检测出如图1右侧的(b)所示的手指区域的精度,从而便利于去除手指区域,使得校正后的书本扫描图像更加美观。
如图2所示,根据本公开的实施例的图像处理装置200可以包括获取单元210、计算单元220、选择单元230、确定单元240、创建单元250和检测单元260。
获取单元210可以获取包含对象图像的图像。由于手指总是从文档的某一侧进入的,所以可以只考虑靠近文档这一侧的区域。例如,如图3所示,可以将靠近文档某一侧(左侧或右侧)的一部分图像块从输入图像中裁剪下来。将从图像左侧和右侧分别裁剪的图像块记为PL和PR。在下面的部分中,本公开将以左侧图像块PL为例来说明定位手指种子区域的过程。
基于获取单元210获取的图像的颜色和边缘特征,计算单元220可以计算一个或多个候选对象(手指)图像区域。候选手指图像区域也可以被称为候选手指种子区域,从中可以获得最终的手指种子区域。
基于预定颜色模型,选择单元230可以从计算单元220计算的一个或多个候选对象图像区域中选择具有与预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域。该预定颜色模型是根据标注的手指数据计算得到的。如果某个候选对象图像区域具有与预定颜色模型的最大相似度,则表明该候选对象图像区域的特征与标注的手指数据特征最接近,从而可以充当随后进行的比较的参考或标准。这里,与预定颜色模型的最大相似度应当大于或等于相似度阈值。换言之,如果最大相似度小于相似度阈值,则全部的候选对象图像区域都会被撤销,这表明在获取单元210获取的图像中未发现对象图像区域。
接下来,基于计算单元220计算的一个或多个候选对象图像区域的颜色特征,确定单元240可以使用选择单元230选择的第一对象图像区域,将一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域。第一对象图像区域和第二对象图像区域就是获得的手指种子区域。
然后,针对选择单元230选择的第一对象图像区域和确定单元240确定的第二对象图像区域中的每一个,创建单元250可以分别创建自适应颜色模型。
最后,基于创建单元250创建的自适应颜色模型,检测单元260可以在选择单元230选择的第一对象图像区域和确定单元240确定的第二对象图像区域中的每一个中检测包含对象图像的区域。
在根据本公开的实施例的图像处理装置200中,构建了基于区域的自适应肤色模型。首先,利用颜色和边缘信息来检测候选的手指种子区域。然后,从这些种子区域中选择得到与预定义的肤色模型相似的区域。之后,根据选择的种子区域对其余的种子区域进行验证以去除无效的种子区域。最后,对每个保留下来的种子区域,构建自适应的肤色模型来提取相应的手指部分。由此可以提高检测手指区域的边界的精度,从而便利于从图像中去除手指图像,使得处理后的图像更加美观。
为了更好地理解本公开的技术方案,下面针对图2所示的图像处理装置200的相应部件进行更加详细地描述。
图4为根据本公开的实施例的图像处理装置中的计算单元400的框图。图4所示的计算单元400对应于图2所示的计算单元220。
计算单元400可以包括页面颜色计算单元410、距离计算单元420、颜色图像计算单元430、边缘图像计算单元440、融合单元450和连通域分析单元460等。
基于获取单元210(如图1所示)获取的图像(如图5中的(a)所示)中的每个像素的颜色,页面颜色计算单元410可以计算页面颜色。
特别地,关于文档中手指检测问题,一个基本的假设是手指颜色与页面的颜色不相同。在本公开的技术方案中,首先可以估计出页面的颜色(亦即背景颜色),然后保留那些颜色不同于背景颜色的区域。在此可以采用YUV的颜色空间,并只使用U和V分量,而丢掉Y分量。这是因为Y反映了光照强度,易受光照变化的影响。在裁剪的图像块PL中,每个像素的U和V值被量化到不同的槽(bin)中,并且计算相应的二维直方图。在该直方图中,具有最大值的槽被选择出来,并计算属于该槽像素的颜色均值作为页面的颜色,记为(Upage,Vpage)。
在获得页面颜色之后,距离计算单元420可以计算图像中的每个像素的颜色和页面颜色之间的距离以获得距离图。特别地,距离计算单元420可以通过以下公式(1)来计算一幅颜色距离图D:
D(i,j)=|Ui,j-Upage|+|Vi,j-Vpage| (1)
这里,Ui,j和Vi,j分别表示像素(i,j)的U分量和V分量。
基于通过距离计算单元420获得的距离图,颜色图像计算单元430可以计算颜色二值图像。
优选地,如图4所示,颜色图像计算单元430可以包括分类单元431。在通过距离计算单元420获得的距离图中,分类单元431可以将颜色和页面颜色之间的距离大于或等于第一距离阈值的像素分类为前景像素,并且将颜色和页面颜色之间的距离小于第一距离阈值的像素分类为背景像素,从而获得颜色二值图像。
具体地,颜色图像计算单元430可以通过以下公式(2)对通过距离计算单元420获得的距离图D应用全局阈值化方法(如Otsu)得到颜色二值图像Bcolor(如图5中的(b)所示):
其中,T1表示全局阈值(第一距离阈值),“1”表示前景像素值,而“0”则表示背景像素值。
另外,基于获取单元210(如图1所示)获取的图像,边缘图像计算单元440可以计算边缘二值图像。
优选地,如图4所示,边缘图像计算单元440可以包括梯度计算单元441和分类单元442。
基于通过距离计算单元420获得的距离图D或者获取单元210获取的图像的颜色信息或亮度信息,梯度计算单元441可以向图像施加梯度算子以获得梯度图像。计算梯度图像的方法在本领域中是众所周知的,因此本公开在此不再详细描述。
在通过梯度计算单元441获得的梯度图像中,分类单元442可以将梯度大于或等于梯度阈值的像素分类为边缘像素,并且将梯度小于梯度阈值的像素分类为非边缘像素,从而获得边缘二值图像Bedge(如图5中的(c)所示)。
进一步,融合单元450可以将颜色二值图像Bcolor和边缘二值图像Bedge进行融合以获得二值融合图像Bfusion(如图5中的(d)所示)。
优选地,如图4所示,融合单元450可以包括分类单元451。该分类单元451可以将既是前景像素又是非边缘像素的像素分类为对象像素,并且将作为背景像素或边缘像素的像素分类为非对象像素。
具体地,融合单元450可以通过以下公式(3)将颜色二值图像Bcolor和边缘二值图像Bedge进行融合以获得二值融合图像Bfusion:
这里,通过利用图像的边缘信息,将二值图像Bcolor中边缘强度较大的前景像素(“1”)置为背景像素(“0”)。这种处理方法保证了即使手指与文档内容粘连时,也能利用边缘的信息将手指种子区域与页面内容分隔开。
进一步,连通域分析单元460可以对通过融合单元450获得的二值融合图像执行连通域分析(Connected Component Analysis,CCA)算法,以获得二值融合图像中的一个或多个连通域作为一个或多个候选对象图像区域。CCA算法在本领域中是众所周知的,本公开对此不再详细描述。
在二值图像Bfusion中,连通域分析单元460可以通过使用连通域标记方法来将前景像素组合为区域。进一步,既然手指总是从图像块的某一侧进入(如PL的左侧),那些离图像块这一侧(如PL的左侧)比较远的连通域将被去除,从而得到处理后的二值图像Bfusion rev。
换言之,根据本公开的优选实施例,确定单元240可以将一个或多个连通域中的与图像的预定边缘的距离大于预定距离的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
进一步,如图4所示,计算单元400可以进一步包括计数单元470、转换单元480和更新单元490。
针对通过融合单元450获得的二值融合图像中的每一行,计数单元470可以计数作为对象像素的像素之总和(如图5中的(e)所示)。
然后,转换单元480可以将计数单元470计数的总和小于总和阈值的一行上的全部对象像素转换为非对象像素。
进一步,更新单元490可以更新每个连通域的标记信息。
具体地,对图像块Bfusion rev的每一行,计算单元470可以统计该行上前景像素的数目{num1,num2,…,numh}(h表示图像块的高度)。可以预先设定相应的阈值。然后,选择得到numi值小于设定阈值的那些行,转换单元480可以将该行上的前景像素(“1”)全部设置为背景像素(“0”),从而得到新的二值图像Bfusion rev*。在二值图像Bfusion rev*上,更新单元490可以重新利用连通域标记算法得到连通区域,从而更新每个连通域的标记信息。
优选地,确定单元240可以将一个或多个连通域中的面积小于下限面积阈值或大于上限面积阈值的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。这样一来就可以去除明显不可能是对象(手指)图像的连通域,从而减去随后的处理的负担。
至此,可以将剩余的连通域作为候选的手指种子区域(如图5中的(f)所示)。假定候选的手指种子区域共有K个,分别记为R1,R2,…,RK。
下面结合图6来详细地描述根据本公开的实施例的图像处理装置200中的选择单元230所实现的功能。如上所述,基于预定颜色模型,选择单元230可以从计算单元220计算的一个或多个候选对象图像区域(例如K个候选的手指种子区域)中选择具有与预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域。
对位于文档图像中的多个手指而言,假定它们属于同一个人是合理的。因此,这些手指应当具有相似的颜色分布。由于光照强度及成像环境的不同,利用标注的数据得到的颜色分布模型并不能很好地刻画当前输入图像的颜色分布。这里,可以首先根据标注的手指数据来计算得到手指颜色分布模型(预定颜色模型)。具体地,可以同样地采用YUV的颜色空间,并且丢掉Y分量。在这些标注的手指数据上,针对每个手指区域RLabel,i(i=1,2,…,M),可以通过以下公式(4)来计算其归一化的颜色分布直方图:
Hi={hi,1,hi,2,…,hi,d} (4)
其中,d表示颜色直方图的维数。于是,标注数据的颜色分布模型Hmodel({hmodel,1,hmodel,2,…,hmodel,d})可以通过以下公式(5)由这M个区域的颜色直方图的均值计算得到:
对于每个候选手指种子区域Rseed,i(i=1,2,…,K),可以提取其相应的归一化颜色直方图Hi,并且可以通过以下公式(6)来计算该直方图与标注数据的颜色分布模型之间的相似度:
Sim(Hi,Hmodel)=Sumi=1,…,d(min(hi,hmodel,i)) (6)
选择单元230可以从相似度Simi(i=1,2,…,K)中选择得到最大相似度Simmax。如果Simmax小于设定的阈值,则所有的手指种子区域被拒掉,在输入图像中未检测到手指;否则,对应相似度Simmax的区域Rmax可以充当第一对象图像区域用来验证其他种子区域的有效性,并检测其他可能的候选种子区域。
接下来参考图7描述根据本公开的实施例的图像处理装置中的确定单元700。图7所示的确定单元700对应于图2所示的确定单元240。
如图7所示,确定单元700可以包括平均颜色计算单元710、距离计算单元720、分类单元730、比率计算单元740和对象图像确定单元750。
平均颜色计算单元710可以计算通过选择单元230获得的第一对象图像区域中的像素的平均颜色值。
接下来,在其它候选对象图像区域中的一个中,距离计算单元720可以计算每个像素的颜色值和平均颜色计算单元710计算的平均颜色值之间的距离。
接下来,分类单元730可以将距离计算单元720计算的颜色值和平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和平均颜色值之间的距离大于距离阈值的像素分类为非对象像素。
进一步,比率计算单元740可以计算由分类单元730分类的对象像素的数目占整个区域像素的数目的比率。
进而,对象图像确定单元750可以将比率计算单元740计算的比率大于或等于比率阈值的候选对象图像区域确定为第二对象图像区域,并且将比率小于比率阈值的其它候选对象图像区域确定为非对象图像区域。
具体地,利用区域Rmax来验证其他区域有效性的策略可以如下。可以计算区域Rmax内像素的颜色均值coloravg以及该区域内像素颜色值与该颜色均值coloravg的距离。将这些距离值按照从小到大的次序进行排序,并根据设定的百分数选择相应的阈值T2(假如设定的百分数为95%,区域Rmax内包含的像素数目为Nummax,在从小到大排序后的距离度量值中选择位置最接近第(95%*Nummax)的距离度量值作为阈值)。针对位于其余种子区域Ri(i=1,2,…,K且i!=max)中的像素,每个像素可以按照以下公式(7)分类为手指像素或非手指像素:
其中,d(j,coloravg)表示区域Ri中第j个像素的颜色与颜色均值coloravg之间的距离。该区域中手指像素的比例Ratioi可以按照以下公式(8)计算得到:
如果该比例值Ratioi小于设定的阈值T3,则区域Ri被认为是无效的并被去除;否则,该区域被认为是有效的区域而保留。
代替地,也可以根据区域Ri与Rmax的颜色直方图之间的相似性来验证区域Ri的有效性。具体而言,根据从这些区域提取的归一化颜色直方图,可以按照公式(6)计算它们与区域Rmax的颜色直方图之间的相似度。如果该相似度低于设定的阈值,则认为该区域是无效的并去除;否则,则认为该区域是有效的。当然,也可将这两种策略结合起来验证区域的有效性。
接下来参考图8来描述根据本公开的另一个实施例的图像处理装置800。除了图8中的虚线部分之外,图像处理装置800的其余部分与图2所示的图像处理装置200相同,在此不再赘述。
如图8所示,图像处理装置800可以进一步包括对象图像获得单元810。
基于获取单元210获取的图像的除了计算单元220计算的一个或多个候选对象图像区域之外的其它区域的颜色特征,对象图像获得单元810可以使用选择单元230选择的第一对象图像区域从其它区域中获得第三对象图像区域。
进一步,创建单元250可以针对第三对象图像区域创建进一步的自适应颜色模型。
进而,基于创建单元250创建的进一步的自适应颜色模型,检测单元260可以在第三对象图像区域中检测包含对象图像的区域。
如上所述,如图8所示的图像处理装置800可以从候选对象图像区域之外的其它区域中进一步获得第三对象图像区域,从而可以进一步降低漏检率,并且进一步提高了对象图像区域检测的准确性。
接下来参考图9描述根据本公开的实施例的图像处理装置中的对象图像获得单元900。图9所示的对象图像获得单元900对应于图8所示的对象图像获得单元810。
如图9所示,对象图像获得单元900可以包括平均颜色计算单元910、距离计算单元920、分类单元930和连通域分析单元940。
平均颜色计算单元910可以计算选择单元230选择的第一对象图像区域中的像素的平均颜色值。
接下来,在获取单元210获取的图像的除了计算单元220计算的一个或多个候选对象图像区域之外的其它区域中,距离计算单元920可以计算每个像素的颜色值和平均颜色计算单元910计算的平均颜色值之间的距离。
接下来,分类单元930可以将距离计算单元920计算的颜色值和平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和平均颜色值之间的距离大于距离阈值的像素分类为非对象像素,以获得其它区域二值图像。
接下来,连通域分析单元940可以对其它区域二值图像执行CCA算法,以获得其它区域二值图像中的连通域作为第三对象图像区域。
具体地,根据选择的区域Rmax的颜色均值coloravg,在裁剪图像块PL中除上述种子区域(Ri,i=1,2,…,K)之外的区域中,可以通过以下公式(9)将这些区域中的像素分类为前景像素或背景像素:
这里,d(i,coloravg)表示像素i的颜色与区域Rmax平均颜色coloravg之间的距离。在得到的新二值图像上,根据连通域标记算法得到候选连通域,并去除那些尺寸太小/太大以及离图像某一侧边界较远的连通域,如图10所示。在图10左侧的(a)中,区域B和D指示候选对象图像区域,而区域A、C和E则指示除了候选对象图像区域之外的其它区域。通过对象图像获得单元810(900)的处理,可以获得进一步的候选连通域a、c和e,如图10中间的(b)所示。最后,例如在去除那些尺寸太小/太大以及离图像某一侧边界较远的连通域之后,可以获得最终的连通域a作为第三对象图像区域,如图10右侧的(c)所示。这里得到的连通域可以与上面保留下来的区域一起作为手指种子区域进行手指提取。
根据检测得到的手指种子区域,可以从输入图像上裁剪相应的图像块,如图11所示。针对每个裁剪的图像块,可以根据手指种子像素构建多高斯的肤色模型,并且计算图像的边缘图像。然后,可以根据肤色模型和边缘信息对像素进行分类。最终,可以利用后处理操作(如噪声去除、连通域标记及膨胀操作等)来提取手指区域。从手指种子区域中提取手指区域的方法在本领域中存在现有技术,因此本公开在此不再详细描述。
本公开以手指图像为例在上面进行了描述。根据本公开的实施例,在两个阶段使用了自适应颜色模型:在第一个阶段中,对候选手指区域进行定位;并且在第二个阶段中,对手指区域进行提取。尤其是在第一个阶段中,自适应颜色模型首先被选择,然后被用来去除无效的候选区域,并且对其它可能的手指区域进行定位。由此可以提高检测手指区域的边界的精度,从而便利于从图像中去除手指图像,使得处理后的图像更加美观。
下面结合图12来描述根据本公开的实施例的图像处理方法。如图12所示,根据本公开的实施例的图像处理方法开始于步骤S110。在步骤S110中,获取包含对象图像的图像。
接下来,在步骤S120中,基于图像的颜色和边缘特征来计算一个或多个候选对象图像区域。
接下来,在步骤S130中,基于预定颜色模型,从一个或多个候选对象图像区域中选择具有与预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域。其中,这里的最大相似度大于或等于相似度阈值。
接下来,在步骤S140中,基于一个或多个候选对象图像区域的颜色特征,使用第一对象图像区域将一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域。
接下来,在步骤S150中,针对第一对象图像区域和第二对象图像区域中的每一个,分别创建自适应颜色模型。
最后,在步骤S160中,基于自适应颜色模型,在第一对象图像区域和第二对象图像中的每一个中检测包含对象图像的区域。
根据本公开的实施例,在步骤S120中计算一个或多个候选对象图像区域时,可以基于图像中的每个像素的颜色来计算页面颜色。然后,可以计算图像中的每个像素的颜色和页面颜色之间的距离以获得距离图。进一步,可以基于距离图来计算颜色二值图像,并且可以基于图像来计算边缘二值图像。接下来,可以将颜色二值图像和边缘二值图像进行融合以获得二值融合图像。最后,可以对二值融合图像执行连通域分析算法,以获得二值融合图像中的一个或多个连通域作为一个或多个候选对象图像区域。
根据本公开的实施例,在将颜色二值图像和边缘二值图像进行融合以获得二值融合图像时,可以将既是前景像素又是非边缘像素的像素分类为对象像素,并且将作为背景像素或边缘像素的像素分类为非对象像素。
根据本公开的实施例,在基于距离图来计算颜色二值图像时,在距离图中,可以将颜色和页面颜色之间的距离大于或等于第一距离阈值的像素分类为前景像素,并且将颜色和页面颜色之间的距离小于距离阈值的像素分类为背景像素,从而获得颜色二值图像。
根据本公开的实施例,在基于图像来计算边缘二值图像时,可以基于距离图或者图像的颜色信息或亮度信息,向图像施加梯度算子以获得梯度图像。并且,在梯度图像中,可以将梯度大于或等于梯度阈值的像素分类为边缘像素,并且将梯度小于梯度阈值的像素分类为非边缘像素,从而获得边缘二值图像。
根据本公开的实施例,可以将一个或多个连通域中的与图像的预定边缘的距离大于预定距离的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
根据本公开的实施例,在基于图像的颜色和边缘特征来计算一个或多个候选对象图像区域时,针对二值融合图像中的每一行,可以计数作为对象像素的像素之总和。然后,可以将总和小于总和阈值的一行上的全部对象像素转换为非对象像素。接下来,可以更新每个连通域的标记信息。
根据本公开的实施例,可以将一个或多个连通域中的面积小于下限面积阈值或大于上限面积阈值的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
根据本公开的实施例,在步骤S140中使用第一对象图像区域将其它候选对象图像区域确定为非对象图像区域或第二对象图像区域时,可以计算第一对象图像区域中的像素的平均颜色值。然后,在其它候选对象图像区域中的一个中,可以计算每个像素的颜色值和平均颜色值之间的距离。接下来,可以将颜色值和平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和平均颜色值之间的距离大于距离阈值的像素分类为非对象像素。进一步,可以计算对象像素的数目占整个区域像素的数目的比率。进而,可以将比率大于或等于比率阈值的其它候选对象图像区域中的一个确定为第二对象图像区域,并且将比率小于比率阈值的其它候选对象图像区域中的一个确定为非对象图像区域。
根据本公开的实施例,还可以基于图像的除了一个或多个候选对象图像区域之外的其它区域的颜色特征,使用第一对象图像区域从其它区域中获得第三对象图像区域。然后,可以针对第三对象图像区域创建进一步的自适应颜色模型。接下来,基于进一步的自适应颜色模型,可以在第三对象图像区域中检测包含对象图像的区域。
根据本公开的实施例,在使用第一对象图像区域从其它区域中获得第三对象图像区域时,可以计算第一对象图像区域中的像素的平均颜色值。然后,在图像的除了一个或多个候选对象图像区域之外的其它区域中,可以计算每个像素的颜色值和平均颜色值之间的距离。进一步,可以将颜色值和平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和平均颜色值之间的距离大于距离阈值的像素分类为非对象像素,以获得其它区域二值图像。进而,可以对其它区域二值图像执行连通域分析算法,以获得其它区域二值图像中的连通域作为第三对象图像区域。
根据本公开的实施例的图像处理方法的上述步骤的各种具体实施方式前面已经作过详细描述,在此不再重复说明。
显然,根据本公开的图像处理方法的各个操作过程可以以存储在各种机器可读的存储介质中的计算机可执行程序的方式实现。
而且,本公开的目的也可以通过下述方式实现:将存储有上述可执行程序代码的存储介质直接或者间接地提供给系统或设备,并且该系统或设备中的计算机或者中央处理单元(CPU)读出并执行上述程序代码。此时,只要该系统或者设备具有执行程序的功能,则本公开的实施方式不局限于程序,并且该程序也可以是任意的形式,例如,目标程序、解释器执行的程序或者提供给操作系统的脚本程序等。
上述这些机器可读存储介质包括但不限于:各种存储器和存储单元,半导体设备,磁盘单元例如光、磁和磁光盘,以及其它适于存储信息的介质等。
另外,计算机通过连接到因特网上的相应网站,并且将依据本公开的计算机程序代码下载和安装到计算机中然后执行该程序,也可以实现本公开的技术方案。
图13为其中可以实现根据本公开的实施例的图像处理装置和方法的通用个人计算机的示例性结构的框图。
如图13所示,CPU1301根据只读存储器(ROM)1302中存储的程序或从存储部分1308加载到随机存取存储器(RAM)1303的程序执行各种处理。在RAM1303中,也根据需要存储当CPU1301执行各种处理等等时所需的数据。CPU1301、ROM1302和RAM1303经由总线1304彼此连接。输入/输出接口1305也连接到总线1304。
下述部件连接到输入/输出接口1305:输入部分1306(包括键盘、鼠标等等)、输出部分1307(包括显示器,比如阴极射线管(CRT)、液晶显示器(LCD)等,以及扬声器等)、存储部分1308(包括硬盘等)、通信部分1309(包括网络接口卡比如LAN卡、调制解调器等)。通信部分1309经由网络比如因特网执行通信处理。根据需要,驱动器1310也可连接到输入/输出接口1305。可拆卸介质1311比如磁盘、光盘、磁光盘、半导体存储器等等根据需要被安装在驱动器1310上,使得从中读出的计算机程序根据需要被安装到存储部分1308中。
在通过软件实现上述系列处理的情况下,从网络比如因特网或存储介质比如可拆卸介质1311安装构成软件的程序。
本领域的技术人员应当理解,这种存储介质不局限于图13所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质1311。可拆卸介质1311的例子包含磁盘(包含软盘(注册商标))、光盘(包含光盘只读存储器(CD-ROM)和数字通用盘(DVD))、磁光盘(包含迷你盘(MD)(注册商标))和半导体存储器。或者,存储介质可以是ROM1302、存储部分1308中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
在本公开的系统和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
以上虽然结合附图详细描述了本公开的实施例,但是应当明白,上面所描述的实施方式只是用于说明本公开,而并不构成对本公开的限制。对于本领域的技术人员来说,可以对上述实施方式作出各种修改和变更而没有背离本公开的实质和范围。因此,本公开的范围仅由所附的权利要求及其等效含义来限定。
关于包括以上实施例的实施方式,还公开下述的附记:
附记1.一种图像处理装置,包括:
获取单元,用于获取包含对象图像的图像;
计算单元,用于基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域;
选择单元,用于基于预定颜色模型,从所述一个或多个候选对象图像区域中选择具有与所述预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,所述最大相似度大于或等于相似度阈值;
确定单元,用于基于所述一个或多个候选对象图像区域的颜色特征,使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;
创建单元,用于针对所述第一对象图像区域和所述第二对象图像区域中的每一个,分别创建自适应颜色模型;以及
检测单元,用于基于所述自适应颜色模型,在所述第一对象图像区域和所述第二对象图像中的所述每一个中检测包含所述对象图像的区域。
附记2.根据附记1所述的装置,其中,所述计算单元包括:
页面颜色计算单元,用于基于所述图像中的每个像素的颜色来计算页面颜色;
距离计算单元,用于计算所述图像中的每个像素的颜色和所述页面颜色之间的距离以获得距离图;
颜色图像计算单元,用于基于所述距离图来计算颜色二值图像;
边缘图像计算单元,用于基于所述图像来计算边缘二值图像;
融合单元,用于将所述颜色二值图像和所述边缘二值图像进行融合以获得二值融合图像;以及
连通域分析单元,用于对所述二值融合图像执行连通域分析算法,以获得所述二值融合图像中的一个或多个连通域作为所述一个或多个候选对象图像区域。
附记3.根据附记2所述的装置,其中,所述融合单元包括:
分类单元,用于将既是前景像素又是非边缘像素的像素分类为对象像素,并且将作为背景像素或边缘像素的像素分类为非对象像素。
附记4.根据附记2所述的装置,其中,所述颜色图像计算单元包括:
分类单元,用于在所述距离图中,将颜色和所述页面颜色之间的距离大于或等于第一距离阈值的像素分类为前景像素,并且将颜色和所述页面颜色之间的距离小于所述第一距离阈值的像素分类为背景像素,从而获得所述颜色二值图像。
附记5.根据附记2所述的装置,其中,所述边缘图像计算单元包括:
梯度计算单元,用于基于所述距离图或者所述图像的颜色信息或亮度信息,向所述图像施加梯度算子以获得梯度图像;以及
分类单元,用于在所述梯度图像中,将梯度大于或等于梯度阈值的像素分类为边缘像素,并且将梯度小于所述梯度阈值的像素分类为非边缘像素,从而获得所述边缘二值图像。
附记6.根据附记2所述的装置,其中,所述确定单元将所述一个或多个连通域中的与所述图像的预定边缘的距离大于预定距离的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
附记7.根据附记2所述的装置,其中,所述计算单元进一步包括:
计数单元,用于针对所述二值融合图像中的每一行,计数作为对象像素的像素之总和;
转换单元,用于将所述总和小于总和阈值的一行上的全部对象像素转换为非对象像素;以及
更新单元,用于更新每个连通域的标记信息。
附记8.根据附记2所述的装置,其中,所述确定单元将所述一个或多个连通域中的面积小于下限面积阈值或大于上限面积阈值的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
附记9.根据附记1所述的装置,其中,所述确定单元包括:
平均颜色计算单元,用于计算所述第一对象图像区域中的像素的平均颜色值;
距离计算单元,用于在所述其它候选对象图像区域中的一个中,计算每个像素的颜色值和所述平均颜色值之间的距离;
分类单元,用于将颜色值和所述平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和所述平均颜色值之间的距离大于所述距离阈值的像素分类为非对象像素;
比率计算单元,用于计算对象像素的数目占整个区域像素的数目的比率;以及
对象图像确定单元,用于将所述比率大于或等于比率阈值的所述其它候选对象图像区域中的所述一个确定为第二对象图像区域,并且将所述比率小于所述比率阈值的所述其它候选对象图像区域中的所述一个确定为非对象图像区域。
附记10.根据附记1所述的装置,进一步包括:
对象图像获得单元,用于基于所述图像的除了所述一个或多个候选对象图像区域之外的其它区域的颜色特征,使用所述第一对象图像区域从所述其它区域中获得第三对象图像区域,
其中,所述创建单元针对所述第三对象图像区域创建进一步的自适应颜色模型,并且
基于所述进一步的自适应颜色模型,所述检测单元在所述第三对象图像区域中检测包含所述对象图像的区域。
附记11.根据附记10所述的装置,其中,所述对象图像获得单元包括:
平均颜色计算单元,用于计算所述第一对象图像区域中的像素的平均颜色值;
距离计算单元,用于在所述图像的除了所述一个或多个候选对象图像区域之外的其它区域中,计算每个像素的颜色值和所述平均颜色值之间的距离;
分类单元,用于将颜色值和所述平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和所述平均颜色值之间的距离大于所述距离阈值的像素分类为非对象像素,以获得其它区域二值图像;以及
连通域分析单元,用于对所述其它区域二值图像执行连通域分析算法,以获得所述其它区域二值图像中的连通域作为所述第三对象图像区域。
附记12.一种图像处理方法,包括:
获取包含对象图像的图像;
基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域;
基于预定颜色模型,从所述一个或多个候选对象图像区域中选择具有与所述预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,所述最大相似度大于或等于相似度阈值;
基于所述一个或多个候选对象图像区域的颜色特征,使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;
针对所述第一对象图像区域和所述第二对象图像区域中的每一个,分别创建自适应颜色模型;以及
基于所述自适应颜色模型,在所述第一对象图像区域和所述第二对象图像中的所述每一个中检测包含所述对象图像的区域。
附记13.根据附记12所述的方法,其中,基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域的步骤包括:
基于所述图像中的每个像素的颜色来计算页面颜色;
计算所述图像中的每个像素的颜色和所述页面颜色之间的距离以获得距离图;
基于所述距离图来计算颜色二值图像;
基于所述图像来计算边缘二值图像;
将所述颜色二值图像和所述边缘二值图像进行融合以获得二值融合图像;以及
对所述二值融合图像执行连通域分析算法,以获得所述二值融合图像中的一个或多个连通域作为所述一个或多个候选对象图像区域。
附记14.根据附记13所述的方法,其中,基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域的步骤进一步包括:
针对所述二值融合图像中的每一行,计数作为对象像素的像素之总和;
将所述总和小于总和阈值的一行上的全部对象像素转换为非对象像素;以及
更新每个连通域的标记信息。
附记15.根据附记13所述的方法,其中,将所述一个或多个连通域中的面积小于下限面积阈值或大于上限面积阈值的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
附记16.根据附记12所述的方法,其中,基于所述一个或多个候选对象图像区域的颜色特征使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域的步骤包括:
计算所述第一对象图像区域中的像素的平均颜色值;以及
在所述其它候选对象图像区域中的一个中,
计算每个像素的颜色值和所述平均颜色值之间的距离;
将颜色值和所述平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和所述平均颜色值之间的距离大于所述距离阈值的像素分类为非对象像素;
计算对象像素的数目占整个区域像素的数目的比率;以及
将所述比率大于或等于比率阈值的所述其它候选对象图像区域中的所述一个确定为第二对象图像区域,并且将所述比率小于所述比率阈值的所述其它候选对象图像区域中的所述一个确定为非对象图像区域。
附记17.根据附记12所述的方法,进一步包括:
基于所述图像的除了所述一个或多个候选对象图像区域之外的其它区域的颜色特征,使用所述第一对象图像区域从所述其它区域中获得第三对象图像区域;
针对所述第三对象图像区域创建进一步的自适应颜色模型;以及
基于所述进一步的自适应颜色模型,在所述第三对象图像区域中检测包含所述对象图像的区域。
附记18.根据附记17所述的方法,其中,基于所述图像的除了所述一个或多个候选对象图像区域之外的其它区域的颜色特征使用所述第一对象图像区域从所述其它区域中获得第三对象图像区域的步骤包括:
计算所述第一对象图像区域中的像素的平均颜色值;
在所述图像的除了所述一个或多个候选对象图像区域之外的其它区域中,
计算每个像素的颜色值和所述平均颜色值之间的距离;
将颜色值和所述平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和所述平均颜色值之间的距离大于所述距离阈值的像素分类为非对象像素,以获得其它区域二值图像;以及
对所述其它区域二值图像执行连通域分析算法,以获得所述其它区域二值图像中的连通域作为所述第三对象图像区域。
附记19.一种程序产品,包括存储在其中的机器可读指令代码,其中,所述指令代码当由计算机读取和执行时,能够使所述计算机执行根据附记12-18中任何一项所述的方法。
附记20.一种机器可读存储介质,其上携带有根据附记19所述的程序产品。
Claims (10)
1.一种图像处理装置,包括:
获取单元,用于获取包含对象图像的图像;
计算单元,用于基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域;
选择单元,用于基于预定颜色模型,从所述一个或多个候选对象图像区域中选择具有与所述预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,所述最大相似度大于或等于相似度阈值;
确定单元,用于基于所述一个或多个候选对象图像区域的颜色特征,使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;
创建单元,用于针对所述第一对象图像区域和所述第二对象图像区域中的每一个,分别创建自适应颜色模型;以及
检测单元,用于基于所述自适应颜色模型,在所述第一对象图像区域和所述第二对象图像区域中的所述每一个中检测包含所述对象图像的区域。
2.根据权利要求1所述的装置,其中,所述计算单元包括:
页面颜色计算单元,用于基于所述图像中的每个像素的颜色来计算页面颜色;
距离计算单元,用于计算所述图像中的每个像素的颜色和所述页面颜色之间的距离以获得距离图;
颜色图像计算单元,用于基于所述距离图来计算颜色二值图像;
边缘图像计算单元,用于基于所述图像来计算边缘二值图像;
融合单元,用于将所述颜色二值图像和所述边缘二值图像进行融合以获得二值融合图像;以及
连通域分析单元,用于对所述二值融合图像执行连通域分析算法,以获得所述二值融合图像中的一个或多个连通域作为所述一个或多个候选对象图像区域。
3.根据权利要求2所述的装置,其中,所述边缘图像计算单元包括:
梯度计算单元,用于基于所述距离图或者所述图像的颜色信息或亮度信息,向所述图像施加梯度算子以获得梯度图像;以及
分类单元,用于在所述梯度图像中,将梯度大于或等于梯度阈值的像素分类为边缘像素,并且将梯度小于所述梯度阈值的像素分类为非边缘像素,从而获得所述边缘二值图像。
4.根据权利要求2所述的装置,其中,所述确定单元将所述一个或多个连通域中的与所述图像的预定边缘的距离大于预定距离的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
5.根据权利要求2所述的装置,其中,所述计算单元进一步包括:
计数单元,用于针对所述二值融合图像中的每一行,计数作为对象像素的像素之总和;
转换单元,用于将所述总和小于总和阈值的一行上的全部对象像素转换为非对象像素;以及
更新单元,用于更新每个连通域的标记信息。
6.根据权利要求2所述的装置,其中,所述确定单元将所述一个或多个连通域中的面积小于下限面积阈值或大于上限面积阈值的连通域中的全部像素转换为非对象像素而不作为候选对象图像区域。
7.根据权利要求1所述的装置,其中,所述确定单元包括:
平均颜色计算单元,用于计算所述第一对象图像区域中的像素的平均颜色值;
距离计算单元,用于在所述其它候选对象图像区域中的一个中,计算每个像素的颜色值和所述平均颜色值之间的距离;
分类单元,用于将颜色值和所述平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和所述平均颜色值之间的距离大于所述距离阈值的像素分类为非对象像素;
比率计算单元,用于计算对象像素的数目占整个区域像素的数目的比率;以及
对象图像确定单元,用于将所述比率大于或等于比率阈值的所述其它候选对象图像区域中的所述一个确定为第二对象图像区域,并且将所述比率小于所述比率阈值的所述其它候选对象图像区域中的所述一个确定为非对象图像区域。
8.根据权利要求1所述的装置,进一步包括:
对象图像获得单元,用于基于所述图像的除了所述一个或多个候选对象图像区域之外的其它区域的颜色特征,使用所述第一对象图像区域从所述其它区域中获得第三对象图像区域,
其中,所述创建单元针对所述第三对象图像区域创建进一步的自适应颜色模型,并且
基于所述进一步的自适应颜色模型,所述检测单元在所述第三对象图像区域中检测包含所述对象图像的区域。
9.根据权利要求8所述的装置,其中,所述对象图像获得单元包括:
平均颜色计算单元,用于计算所述第一对象图像区域中的像素的平均颜色值;
距离计算单元,用于在所述图像的除了所述一个或多个候选对象图像区域之外的其它区域中,计算每个像素的颜色值和所述平均颜色值之间的距离;
分类单元,用于将颜色值和所述平均颜色值之间的距离小于或等于距离阈值的像素分类为对象像素,并且将颜色值和所述平均颜色值之间的距离大于所述距离阈值的像素分类为非对象像素,以获得其它区域二值图像;以及
连通域分析单元,用于对所述其它区域二值图像执行连通域分析算法,以获得所述其它区域二值图像中的连通域作为所述第三对象图像区域。
10.一种图像处理方法,包括:
获取包含对象图像的图像;
基于所述图像的颜色和边缘特征来计算一个或多个候选对象图像区域;
基于预定颜色模型,从所述一个或多个候选对象图像区域中选择具有与所述预定颜色模型的最大相似度的候选对象图像区域作为第一对象图像区域,其中,所述最大相似度大于或等于相似度阈值;
基于所述一个或多个候选对象图像区域的颜色特征,使用所述第一对象图像区域将所述一个或多个候选对象图像区域中的其它候选对象图像区域确定为非对象图像区域或第二对象图像区域;
针对所述第一对象图像区域和所述第二对象图像区域中的每一个,分别创建自适应颜色模型;以及
基于所述自适应颜色模型,在所述第一对象图像区域和所述第二对象图像区域中的所述每一个中检测包含所述对象图像的区域。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410169177.4A CN105096347B (zh) | 2014-04-24 | 2014-04-24 | 图像处理装置和方法 |
US14/674,882 US9449222B2 (en) | 2014-04-24 | 2015-03-31 | Image processing device and method |
JP2015086780A JP6547386B2 (ja) | 2014-04-24 | 2015-04-21 | 画像処理装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410169177.4A CN105096347B (zh) | 2014-04-24 | 2014-04-24 | 图像处理装置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105096347A CN105096347A (zh) | 2015-11-25 |
CN105096347B true CN105096347B (zh) | 2017-09-08 |
Family
ID=54335074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410169177.4A Active CN105096347B (zh) | 2014-04-24 | 2014-04-24 | 图像处理装置和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9449222B2 (zh) |
JP (1) | JP6547386B2 (zh) |
CN (1) | CN105096347B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11263432B2 (en) | 2015-02-06 | 2022-03-01 | Veridium Ip Limited | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
US9424458B1 (en) | 2015-02-06 | 2016-08-23 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
US9361507B1 (en) | 2015-02-06 | 2016-06-07 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
CN105868708B (zh) * | 2016-03-28 | 2019-09-20 | 锐捷网络股份有限公司 | 一种图像目标识别方法及装置 |
DE112018001819B4 (de) * | 2017-06-05 | 2023-03-23 | Robert Bosch Gmbh | Messen eines menschenstroms durch türdurchgänge unter verwendung von leicht installierbaren ir-arraysensoren |
CN109389126A (zh) * | 2017-08-10 | 2019-02-26 | 杭州海康威视数字技术股份有限公司 | 一种基于颜色的区域检测方法、装置及电子设备 |
CN107844803B (zh) * | 2017-10-30 | 2021-12-28 | 中国银联股份有限公司 | 一种图片比对的方法和装置 |
CN108416351B (zh) * | 2018-03-16 | 2020-06-05 | 广东诚泰交通科技发展有限公司 | 路面病害区域的确定方法、装置和计算机设备 |
CN111027556B (zh) * | 2019-03-11 | 2023-12-22 | 广东小天才科技有限公司 | 一种基于图像预处理的搜题方法及学习设备 |
CN111783807A (zh) * | 2019-04-28 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 图片提取方法、装置和计算机可读存储介质 |
CN111489374B (zh) * | 2020-04-15 | 2023-06-30 | 深圳市瑞立视多媒体科技有限公司 | 基于图像抠像的像素分类方法、装置、设备及存储介质 |
CN111626249B (zh) * | 2020-06-01 | 2022-05-13 | 北京易真学思教育科技有限公司 | 题目图像中几何图形的识别方法、装置和计算机存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456029A (zh) * | 2013-09-03 | 2013-12-18 | 中国民航大学 | 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336439A (ja) * | 1997-05-28 | 1998-12-18 | Minolta Co Ltd | 画像読取り装置 |
KR100319155B1 (ko) * | 1999-02-01 | 2001-12-29 | 구자홍 | 신뢰도를 이용한 대표칼라 지정방법 |
KR100543706B1 (ko) * | 2003-11-28 | 2006-01-20 | 삼성전자주식회사 | 비젼기반 사람 검출방법 및 장치 |
JP2005217983A (ja) * | 2004-01-30 | 2005-08-11 | Fuji Xerox Co Ltd | 画像処理装置 |
US7542600B2 (en) * | 2004-10-21 | 2009-06-02 | Microsoft Corporation | Video image quality |
US8064639B2 (en) * | 2007-07-19 | 2011-11-22 | Honeywell International Inc. | Multi-pose face tracking using multiple appearance models |
US20100322300A1 (en) * | 2008-03-18 | 2010-12-23 | Zhen Li | Method and apparatus for adaptive feature of interest color model parameters estimation |
JP5219795B2 (ja) * | 2008-12-26 | 2013-06-26 | キヤノン株式会社 | 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム |
JP2010176533A (ja) * | 2009-01-30 | 2010-08-12 | Secom Co Ltd | 取引監視装置 |
JP4945617B2 (ja) * | 2009-09-18 | 2012-06-06 | 株式会社東芝 | 画像処理装置、画像処理方法、画像処理プログラム |
US8718356B2 (en) * | 2010-08-23 | 2014-05-06 | Texas Instruments Incorporated | Method and apparatus for 2D to 3D conversion using scene classification and face detection |
JP5935308B2 (ja) * | 2011-12-13 | 2016-06-15 | 富士通株式会社 | 利用者検知装置、方法及びプログラム |
JP2013247531A (ja) * | 2012-05-25 | 2013-12-09 | Panasonic Corp | 画像処理装置およびこれを備えた原稿読取システム |
BR112015014945A2 (pt) * | 2012-12-21 | 2017-07-11 | Koninklijke Philips Nv | sistema de monitoramento remoto de fotoplestimografia, método de monitoramento remoto de fotoplestimografia, e programa de computador |
CN104298982B (zh) * | 2013-07-16 | 2019-03-08 | 深圳市腾讯计算机系统有限公司 | 一种文字识别方法及装置 |
KR20150051711A (ko) * | 2013-11-05 | 2015-05-13 | 한국전자통신연구원 | 유해 콘텐츠 영상 차단을 위한 피부 영역 추출 장치 및 방법 |
-
2014
- 2014-04-24 CN CN201410169177.4A patent/CN105096347B/zh active Active
-
2015
- 2015-03-31 US US14/674,882 patent/US9449222B2/en active Active
- 2015-04-21 JP JP2015086780A patent/JP6547386B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456029A (zh) * | 2013-09-03 | 2013-12-18 | 中国民航大学 | 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105096347A (zh) | 2015-11-25 |
JP2015211471A (ja) | 2015-11-24 |
US20150310302A1 (en) | 2015-10-29 |
US9449222B2 (en) | 2016-09-20 |
JP6547386B2 (ja) | 2019-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105096347B (zh) | 图像处理装置和方法 | |
EP3455782B1 (en) | System and method for detecting plant diseases | |
US9665789B2 (en) | Device and method for analyzing the correlation between an image and another image or between an image and a video | |
US9483835B2 (en) | Depth value restoration method and system | |
Moghaddam et al. | AdOtsu: An adaptive and parameterless generalization of Otsu's method for document image binarization | |
Achanta et al. | Saliency detection using maximum symmetric surround | |
Mueller et al. | Edge-and region-based segmentation technique for the extraction of large, man-made objects in high-resolution satellite imagery | |
CN111145209B (zh) | 一种医学图像分割方法、装置、设备及存储介质 | |
Xiao et al. | Efficient shadow removal using subregion matching illumination transfer | |
CN107507173A (zh) | 一种全切片图像的无参考清晰度评估方法及系统 | |
US8983199B2 (en) | Apparatus and method for generating image feature data | |
CN103971361B (zh) | 图像处理装置和方法 | |
Oger et al. | A general framework for the segmentation of follicular lymphoma virtual slides | |
Kumar et al. | Automatic image segmentation using wavelets | |
Tangsakul et al. | Single image haze removal using deep cellular automata learning | |
Kuzovkin et al. | Descriptor-based image colorization and regularization | |
Wang | Image matting with transductive inference | |
CN106469432A (zh) | 对象提取方法和对象提取设备 | |
Garg et al. | Color based segmentation using K-mean clustering and watershed segmentation | |
CN112884074B (zh) | 基于决策树的图像设计方法、设备、存储介质及装置 | |
Tafavogh et al. | Segmenting neuroblastoma tumor images and splitting overlapping cells using shortest paths between cell contour convex regions | |
Liu et al. | Interpolation-tuned salient region detection | |
JP2014099027A (ja) | 画像特徴量算出装置、学習装置、識別装置、およびそのプログラム | |
Vijayalakshmi | A new shape feature extraction method for leaf image retrieval | |
Dong et al. | Noise-robust SLIC superpixel for natural images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |