CN104361339A - 掌形图形提取及识别方法 - Google Patents

掌形图形提取及识别方法 Download PDF

Info

Publication number
CN104361339A
CN104361339A CN201410709472.4A CN201410709472A CN104361339A CN 104361339 A CN104361339 A CN 104361339A CN 201410709472 A CN201410709472 A CN 201410709472A CN 104361339 A CN104361339 A CN 104361339A
Authority
CN
China
Prior art keywords
image
mrow
palm
probability
probability density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410709472.4A
Other languages
English (en)
Other versions
CN104361339B (zh
Inventor
曲寒冰
李济朝
李彬
靳薇
王加强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing New Technology Application Research Institute Co ltd
Beijing Whois Technology Co ltd
Original Assignee
BEIJING WHOIS TECHNOLOGY Co Ltd
BEIJING NEW TECHNOLOGY APPLICATION INST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING WHOIS TECHNOLOGY Co Ltd, BEIJING NEW TECHNOLOGY APPLICATION INST filed Critical BEIJING WHOIS TECHNOLOGY Co Ltd
Priority to CN201410709472.4A priority Critical patent/CN104361339B/zh
Publication of CN104361339A publication Critical patent/CN104361339A/zh
Application granted granted Critical
Publication of CN104361339B publication Critical patent/CN104361339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了掌形图形提取方法,包括:根据当前掌形图像提取图像边缘信息的概率密度估计值。获取前景概率密度估计值及背景概率密度估计值。根据前景概率密度估计值及背景概率密度估计值获取当前掌形图像的后验概率图谱。通过图像后验概率图谱获取掌形边缘信息。根据前景图像的后验概率图谱及掌形边缘信息,对当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。解决了现有图像分割技术难以满足针对移动终端的掌纹辨识技术的需要。从而,既保证了切割得准确率也具有较低的计算复杂度,该方法的切割准确率可以达到90%以上,并可在嵌入式移动终端应用,切割速度在500ms以内。

Description

掌形图形提取及识别方法
技术领域
本发明涉及图像识别技术领域,尤其涉及掌形图形提取及识别方法。
背景技术
随着社会和经济的不断发展,人们对身份鉴别的准确性、安全性与实用性提出了越来越高的要求。传统的身份鉴别方法,如钥匙、密码以及智能卡等,存在容易丢失、遗忘、被复制及盗用的隐患。而生物识别技术(biometrics)为身份认证提供了一个方便可靠的解决方案。生物识别技术是指根据人的生理特征(如语音、指纹、掌纹、面部特征、虹膜等)或行为特征(如步态、签名、击键特征等)来进行身份鉴别的技术。生物识别技术以人的生物特征为基础,以信息处理技术为手段,具有安全性、有效性和易用性等特点,因此受到人们越来越多的重视。掌纹识别是近些年来新兴的一种生物识别技术。与其它生物特征识别技术相比,掌纹识别具有很多独特的优势。相比于指纹,掌纹拥有更大的面积以及更为丰富的纹理信息,只需要较低分辨率的采集设备就可以构建高性能的掌纹识别系统;相比于人脸识别,掌纹识别能轻易地区分双胞胎;相比于虹膜,掌纹采集设备的价格更为低廉;相比于签名,掌纹的特征更加稳定可靠。因此,掌纹识别是一种有着广泛应用前景的生物识别方法,近年来得到了研究人员的广泛关注。而手掌图像的分割在掌纹识别方法中是必不可少的步骤,其分割效果直接关系到整个识别系统的性能。然而,由于图像采集条件的变化,例如图像采集时的光照、视角、摄像设备的不确定性都可能影响最终的识别效果。因此如何快速准确的对手掌图像进行分割是掌纹识别中至关重要的一步。
目前,已经存在很多复杂环境下的图像分割技术,但是针对移动设备的、可以实际应用的手掌分割技术还较少。现有的应用于嵌入式的掌纹图像分割技术主要有两种,一种是利用外部遮挡部件简化图像背景,一种是利用特有的传感器设计简化图像内容。这两种技术均不适用于针对通用移动设备(例如,手机,平板电脑等)的掌纹识别技术。而移动设备的计算性能又对手掌切割算法的复杂度提出了较高的要求,要求手掌切割算法既要能够应对各种复杂的环境,又要实现简单,具有较低的计算复杂度,以满足普通用户快速身份识别与认证的需求。例如,目前在计算机领域内应用比较广泛的Level Set,GraphCut,Bag-of-Word等图像分割技术可以针对各种复杂的图像内容获得较好的切割效果,但是这些方法普遍存在计算复杂度高,训练样本高等特点,难以在目前的嵌入式设备中取得良好的应用。而经典的基于高斯混合模型分类,Otsu算法虽然计算简单,但是在面对复杂的图像内容时常常无法获得准确的图像分割结果。
近年来随着理论研究的深入,概率模型方法已经逐渐地深入到了计算机视觉的各个领域,并且取得了很大的成功。与传统的图像分割方法相比,概率模型方法假设模型中的参数均为随机变量,并赋予先验概率分布,然后通过采样或逼近的方法获得参数的后验概率分布。概率模型方法主要有以下几个特点:(1)模型中的参数均被假设为随机变量并被赋予概率分布,从而可以达到对模型的不确定性进行建模的目的,增强了算法的鲁棒性。(2)通过参数和模型的后验概率分布可以对其进行贝叶斯推理,为模型参数的增加与裁剪提供了坚实的理论依据,方便进行模型选择。(3)贝叶斯框架可以方便地引入先验知识,而先验概率分布也使得先验知识以不确定性的方式进入到模型当中,并通过数据加以修正。
由以上分析可以看出,传统的图像切割方法由于适用性的约束,还难以应用于复杂环境下手掌的定位与分割,而近来提出的一些先进的图像分割方法由于计算复杂度的约束也还不能马上在移动设备上获得应用。而近年来在计算机视觉领域的概率模型方法可以在适用性与计算复杂度两方面获得均衡,因此,有必要进一步研究基于概率模型框架的,面向移动终端和复杂背景环境下的手掌图像分割方法,从而扩大掌纹识别技术的应用领域和范围。
发明内容
针对现有图像分割技术难以满足针对移动终端的掌纹辨识技术的需要,本发明的目的是提供掌形图形提取方法,包括:
步骤S101,根据当前掌形图像的混合概率模型提取图像边缘信息的概率密度估计值;
步骤S102,通过混合模型对前景图像的颜色信息进行概率密度估计获取前景概率密度估计值;
步骤S103,通过混合模型对背景图像的颜色信息进行概率密度估计获取背景概率密度估计值;
步骤S104,根据所述前景概率密度估计值及背景概率密度估计值获取所述当前掌形图像的后验概率图谱;
步骤S105,通过所述图像后验概率图谱获取掌形边缘信息;
步骤S106,根据前景图像的后验概率图谱及所述掌形边缘信息,对所述当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。
在本发明的一种实施方式中,所述步骤S101前还包括:
步骤S1001,采集当前掌形图像;
步骤S1002,根据所述当前掌形图建立当前掌形图像的混合概率模型。
在本发明的一种实施方式中,所述步骤S101包括:
步骤S1011,根据当前掌形图像的输入彩色RGB图像I(x,y)及下述公式1获取边缘信息G(x,y);
G ( x , y ) = | ∂ I ( x , y ) ∂ x | + | ∂ I ( x , y ) ∂ y | ,   公式1
步骤S1012,根据高斯混合概率模型对当前掌形图像的边缘梯度G(x,y)进行概率密度估计获取概率密度估计值:
在本发明的一种实施方式中,所述步骤S102包括:
根据前景图像的初选模板提取目标图像的彩色信息,利用混合概率模型对初选目标图像的色彩概率密度进行估计,获取前景图像的色彩空间的条件概率分布;
根据所述条件概率分布获取的前景图像的色彩空间的混合概率密度,计算各个混合分量之间的贝叶斯分类误差;
根据所述贝叶斯分类误差和预估手掌位置处的色彩值合并或去除多余混合分量,获取前景概率密度估计值。
在本发明的一种实施方式中,所述步骤S103包括:
选取背景图像色彩空间中的一个或几个点作为种子点,估计色彩空间的概率分布,将其作为初始步的概率密度;
以初始步的混合分量作为初始分布,以每个混合分量作为种子分布,随机产生2个或2个以上混合分量,更新估计背景图像的条件概率分布;
通过遍历所有设定步的混合分量,更新估计背景图像的概率分布,选取后验概率最大的一组分量作为当前步的混合概率分布,根据该混合概率分布获取背景概率密度估计值;若当前混合分量比例π的后验概率分布p(π),为当前步得到的混合概率分布密度,则不是否保留当前混合分量。
在本发明的一种实施方式中,所述步骤S104包括:
步骤S1041:统计前景图像和背景图像所占图像的比例,分别计算先验概率P(Ωf)和P(Ωb)。
步骤S1042:基于所述前景图像和背景图像的概率分布和先验概率,利用贝叶斯公式计算图像中每个点的后验概率,构成所述当前掌形图像的后验概率图谱:
p ( Ω f | I ( x , y ) ) = p ( I ( x , y ) | Θ f ) P ( Ω f ) p ( I ( x , y ) | Θ f ) P ( Ω f ) + p ( I ( x , y ) | Θ b ) P ( Ω b ) ,
其中,p(I(x,y)|Θf)和p(I(x,y)|Θb)分别为所述前景概率密度估计值及所述背景概率密度估计值。
在本发明的一种实施方式中,所述步骤S105包括,
步骤1051,通过所述图像后验概率图谱获取,前景图像的概率密度图谱梯度及背景图像的概率密度图谱梯度;
步骤1052,根据所述前景图像的概率密度图谱梯度及背景图像的概率密度图谱梯度值获取边缘能量图谱Gp(x,y);
步骤1053,若所述边缘能量图谱Gp(x,y)是否大于设定阈值的幅值,则根据边缘能量图谱Gp(x,y)确定为掌形边缘信息。
在本发明的一种实施方式中,所述步骤S106包括,
步骤S1061,根据前景及背景图像的后验概率图谱,获取前景及背景图像的后验概率;
步骤S1062,根据所述前景及背景图像的后验概率对所述当前掌形图像进行二值化处理:
B(x,y)=max(P(Ωf|I(x,y)),P(Ωb|I(x,y)))
步骤S1063,将所述二值化后的图像B(x,y)与二值化的边缘能量图谱Gp(x,y)进行与操作,对所述当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。
同时本发明还提供了一种掌形图形识别方法,包括,将根据权利要求1所述的掌形图形提取方法所识别出的当前掌形图像,与待识别掌形图像进行匹配,根据匹配结果,对当前掌形图像进行识别。
本发明的的有益效果为,既保证了切割得准确率也具有较低的计算复杂度,该方法的切割准确率可以达到90%以上,并可在嵌入式移动终端应用,切割速度在500ms以内。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种实施方式中,掌形图形提取方法的流程示意图;
图2为本发明另一种实施方式中,掌形图形提取方法的流程示意图。
具体实施方式
下面将结合本发明的附图,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明涉及的一种基于概率模型框架的,结合色彩和边缘信息的手掌定位与分割方法,包括:(1)基于混合概率模型的图像边缘信息的概率密度估计,(2)利于混合模型对前景目标的颜色信息进行概率密度估计,(3)利用混合模型对背景图像的颜色信息进行概率密度估计,(4)基于前景目标和背景的边缘概率密度求取图像的后验概率图谱,(5)基于图像后验概率图谱重新估计目标的边缘信息,(6)结合前景目标的后验概率和图像的概率图谱的边缘信息对手掌目标进行图像分割,提取目标图像。具体实现方式如下:
如图1所示,在本发明的一种实施方式中的掌形图形提取方法,步骤包括:
步骤S101,根据当前掌形图像的混合概率模型提取图像边缘信息的概率密度估计值。
如图2所示,在本步骤前还包括:
步骤S1001,采集当前掌形图像;
步骤S1002,根据当前掌形图建立当前掌形图像的混合概率模型。
在本步骤中包括:
步骤S1011,根据当前掌形图像的输入彩色RGB图像I(x,y)及下述公式1获取边缘信息G(x,y);
G ( x , y ) = | ∂ I ( x , y ) ∂ x | + | ∂ I ( x , y ) ∂ y | ,   公式1
步骤S1012,根据高斯混合概率模型对当前掌形图像的边缘梯度G(x,y)进行概率密度估计获取概率密度估计值。
即(1)基于混合概率模型的图像边缘信息的概率密度估计,包括以下步骤:
步骤1.1:求取输入彩色RGB图像I(x,y)的边缘信息G(x,y),例如梯度信息:
G ( x , y ) = | ∂ I ( x , y ) ∂ x | + | ∂ I ( x , y ) ∂ y | ,
步骤1.2:利用高斯混合概率模型对图像的边缘梯度G(x,y)进行概率密度估计:
注:此处不限于高斯混合模型,亦可为其它混合概率模型形式。
步骤1.3:基于所估计的概率密度p(G(x,y)|Θg),对梯度图像G(x,y)进行分割。基于手掌可能出现位置的先验信息,选择一个连通域作为前景目标的初选模板,该模板可能仍然混杂有背景图像的信息。
步骤S102,通过混合模型对前景图像的颜色信息进行概率密度估计获取前景概率密度估计值。
在本步骤中包括:
步骤S1021,根据前景图像的初选模板提取目标图像的彩色信息,利用混合概率模型对初选目标图像的色彩概率密度进行估计,获取前景图像的色彩空间的条件概率分布;
步骤S1022,根据条件概率分布获取的前景图像的色彩空间的混合概率密度,计算各个混合分量之间的贝叶斯分类误差;
步骤S1023,根据贝叶斯分类误差和预估手掌位置处的色彩值合并或去除多余混合分量,获取前景概率密度估计值。
即,利于混合概率模型对前景目标的颜色信息估计条件概率密度p(If(x,y)|Θf),包括以下步骤:
步骤2.1:基于前景目标的初选模板提取目标图像的彩色信息,利用混合概率模型对初选目标图像的色彩概率密度进行估计,得到目标图像的色彩空间的条件概率分布。
步骤2.2:根据估计得到的目标图像色彩空间的混合概率密度,计算各个混合分量之间的贝叶斯分类误差。根据这些贝叶斯分类误差和手掌可能出现位置处的色彩先验合并或去除多余混合分量,最后得到目标图像的条件概率密度。
方法:假设第k个混合分量为手掌最可能的色彩分量,那么它与分量j的分类误差为:
分类误差越大,说明两个色彩分量就越接近,具有较大可能属于手掌区域,分类误差越小,说明两个色彩分量的差别越大,可能属于背景图像。通过这种贝叶斯推理,可以合并和移除各个色彩分量,基于颜色信息精确确定手掌的位置。
步骤S103,通过混合模型对背景图像的颜色信息进行概率密度估计获取背景概率密度估计值。
在本步骤中包括:
步骤S1031,选取背景图像色彩空间中的一个或几个点作为种子点,估计色彩空间的概率分布,将其作为初始步的概率密度;
步骤S1032,以初始步的混合分量作为初始分布,以每个混合分量作为种子分布,随机产生2个或2个以上混合分量,更新估计背景图像的条件概率分布;
步骤S1033,通过遍历所有设定步的混合分量,更新估计背景图像的概率分布,选取后验概率最大的一组分量作为当前步的混合概率分布,根据该混合概率分布获取背景概率密度估计值;若当前混合分量比例π的后验概率分布p(π),为当前步得到的混合概率分布密度,则不是否保留当前混合分量。
即,利用混合模型对背景图像的颜色信息估计条件概率密度p(Ib(x,y)|Θb),包含以下步骤:
步骤3.1:选取背景图像色彩空间中的一个或几个点作为种子点,估计色彩空间的概率分布,将其作为第L步的概率密度。
步骤3.2:Birth过程:以第L步的混合分量作为初始分布,以每个混合分量作为种子分布,随机产生2个混合分量,重新估计背景图像的条件概率分布。通过遍历所有第L步的混合分量,重复估计背景图像的概率分布,选取后验概率最大的一组分量作为第L+1步的混合概率分布。
步骤3.3:Death过程:基于第L+1步得到的混合概率密度,通过判断混合分量比例π的后验概率分布p(π),决定是否保留某个混合分量。具体的实现过程如下:
步骤S104,根据前景概率密度估计值及背景概率密度估计值获取当前掌形图像的后验概率图谱。
在本步骤中包括:
步骤S1041:统计前景图像和背景图像所占图像的比例,分别计算先验概率P(Ωf)和P(Ωb)。
步骤S1042:基于前景图像和背景图像的概率分布和先验概率,利用贝叶斯公式计算图像中每个点的后验概率,构成当前掌形图像的后验概率图谱:
p ( Ω f | I ( x , y ) ) = p ( I ( x , y ) | Θ f ) P ( Ω f ) p ( I ( x , y ) | Θ f ) P ( Ω f ) + p ( I ( x , y ) | Θ b ) P ( Ω b ) ,
其中,p(I(x,y)|Θf)和p(I(x,y)|Θb)分别为前景概率密度估计值及背景概率密度估计值。
即,基于前景目标和背景的条件概率密度求取图像的后验概率图谱,包含以下步骤:
步骤4.1:统计前景目标和背景图像所占图像的比例,分别计算先验概率P(Ωf)和P(Ωb)。
步骤4.2:基于前景目标和背景的概率分布和先验概率,利用贝叶斯公式计算图像中每个点的后验概率,构成图像的后验概率图谱:
p ( Ω f | I ( x , y ) ) = p ( I ( x , y ) | Θ f ) P ( Ω f ) p ( I ( x , y ) | Θ f ) P ( Ω f ) + p ( I ( x , y ) | Θ b ) P ( Ω b ) ,
其中,p(I(x,y)|Θf)和p(I(x,y)|Θb)分别为图像相对于前景混合模型和背景混合模型的条件概率。
步骤S105,通过图像后验概率图谱获取掌形边缘信息。
在本步骤中包括:
步骤1051,通过图像后验概率图谱获取,前景图像的概率密度图谱梯度及背景图像的概率密度图谱梯度;
步骤1052,根据前景图像的概率密度图谱梯度及背景图像的概率密度图谱梯度值获取边缘能量图谱Gp(x,y);
步骤1053,若边缘能量图谱Gp(x,y)是否大于设定阈值的幅值,则根据边缘能量图谱Gp(x,y)确定为掌形边缘信息。
即,基于图像后验概率图谱重新估计目标的边缘信息,包含步骤如下:
步骤5.1:分别求取前景目标和背景图像概率密度图谱的梯度。
步骤5.2:将两个图谱的梯度值相加得到边缘能量图谱Gp(x,y),大于某个阈值的幅值认为是图像的边缘,小于该阈值的幅值认为不是边缘。
步骤S106,根据前景图像的后验概率图谱及掌形边缘信息,对当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。
在本步骤中包括:
步骤S1061,根据前景及背景图像的后验概率图谱,获取前景及背景图像的后验概率;
步骤S1062,根据前景及背景图像的后验概率对当前掌形图像进行二值化处理:
B(x,y)=max(P(Ωf|I(x,y)),P(Ωb|I(x,y)))
步骤S1063,将二值化后的图像B(x,y)与二值化的边缘能量图谱Gp(x,y)进行与操作,对当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。
即,结合目标和背景的后验概率和图像的边缘能量图谱Gp(x,y)对手掌目标进行图像分割,提取目标图像,包含步骤如下:
步骤6.1:基于目标和背景的后验概率对图像进行二值化:
B(x,y)=max(P(Ωf|I(x,y)),P(Ωb|I(x,y)))
步骤6.2:将二值化的图像B(x,y)与二值化的边缘能量图谱Gp(x,y)进行与操作,从而将图像的边缘信息与色彩信息相结合,实现对复杂环境背景下,手掌图像的可靠分割。
上述技术方案中:
步骤1.1:提取的边缘信息不仅限于梯度信息,也包括其它滤波器获得的关于图像的边缘特征。
步骤2.2:对边缘特征图像的概率密度函数不仅限于高斯混合模型,也包括其它类型的混合概率模型。
在本发明的另一种实施方式中,具体实现方式如下:
(一)基于混合概率模型的图像边缘信息的概率密度估计
[1.1]求取输入彩色RGB图像I(x,y)的边缘信息G(x,y),例如梯度信息:
G ( x , y ) = | ∂ I ( x , y ) ∂ x | + | ∂ I ( x , y ) ∂ y | - - - ( 1 )
对于RGB空间彩色图像,可以定义r,g,b为沿R,G,B三个方向的单位向量,从而有向量:
u = ∂ R ∂ x r + ∂ R ∂ x g + ∂ B ∂ x b - - - ( 2 )
v = ∂ R ∂ y r + ∂ R ∂ y g + ∂ B ∂ y b - - - ( 3 )
然后,定义gxx,gyy,gxy为u和v之间的点积,有下面的公式:
g xx = u T u = | ∂ R ∂ x | 2 + | ∂ G ∂ x | 2 + | ∂ B ∂ x | 2 - - - ( 4 )
g yy = v T v = | ∂ R ∂ y | 2 + | ∂ G ∂ y | 2 + | ∂ B ∂ y | 2 - - - ( 5 )
g xy = u T v = ∂ R ∂ x ∂ R ∂ y + ∂ G ∂ x ∂ G ∂ y + ∂ B ∂ x ∂ B ∂ y - - - ( 6 )
最后,可以通过下面的公式得到彩色图像I(x,y)的边缘信息:
G ( x , y ) = 1 2 g xx + g yy + g xx 2 + g yy 2 - 2 g xx g yy + 4 g xy 2 - - - ( 7 )
上述公式中,可以通过R,G,B三个通道分别进行Sobel变换获得彩色图像对x轴和y轴的梯度信息
利用公式(2)~(7)可以得到该彩色图像的边缘幅值图。
[1.2]利用高斯混合概率模型对图像的边缘梯度G(x,y)进行概率密度估计。
高斯混合模型(Gaussian Mixture Model)是一种常用的概率密度估计工具,它通过多个高斯分布的加权组合,可以有效地估计一维数据的双峰或多峰分布和多维数据的双簇或多簇分布。对于高斯混合模型来说,已经存在很多种经典的模型参数估计方法,但是本文将采用变分逼近(Variational Approximation)的方法对模型参数进行估计。这是因为变分贝叶斯方法(Variational Bayesian)具有以下特点:(1)对模型和参数的不确定性进行建模,并以确定性逼近的方式估计模型和参数的后验概率密度,方便对模型进行推理,(2)贝叶斯框架可以很容易地引入先验知识,并且这些先验知识可以随着数据的引入自动更新,(3)贝叶斯模型可以很好地保护小样本数据,并且自动地避免“数据塌陷”现象,而这在对图像边缘信息进行概率密度估计时,很容易出现这类现象的。高斯混合模型的形式可以用下面的公式表示:
其中,为观测数据,为隐藏变量。隐藏变量具有指示作用,即每一个观测数据xn对应一个指示变量zn,而zn是一个含有K个元素znk的1-of-K二值向量。隐藏变量的分布可以表示为混合参数(mixing coefficients)π的条件概率形式:
其中,混合参数π的先验分布假设为具有先验参数α0的Dirichlet分布。而高斯函数的均值μ={μk},精度矩阵Λ={Λk},并且(μk,Λk}的联合先验分布服从Gaussian-Wishart分布,具有先验参数m0,β0,W0和v0
经过推导,可以得到一系列类似EM迭代的变分逼近公式,主要有:
Step-1:计算每个观测对各个高斯分量的响应(E-Step):
r nk ∝ π ~ k Λ ~ k 1 2 exp { - D 2 β k - v k 2 ( x n - m k ) T W k ( x n - m k ) } - - - ( 10 )
其中,
ln Λ ~ k = Σ i = 1 D ψ ( v k + 1 + i 2 ) + D ln 2 + ln | | W k | | - - - ( 11 )
ln π ~ k = ψ ( α k ) - ψ ( α ^ ) - - - ( 12 )
Step-2:计算观测数据的统计量:
N k = Σ n = 1 N r nk - - - ( 13 )
x ‾ k = 1 N k Σ n = 1 N r nk x n - - - ( 14 )
S k = 1 N k Σ n = 1 N r nk ( x n - x ‾ k ) ( x n - x ‾ k ) T - - - ( 15 )
Step-3:更新各个变量的后验概率分布参数(M-Step):
αk=α0+Nk  (16)
βk=β0+Nk  (17)
m k = 1 β k ( β 0 m 0 + N k x ‾ k ) - - - ( 18 )
W k - 1 = W 0 - 1 + N k S k + β 0 N k β 0 + N k ( x ‾ k - m 0 ) ( x ‾ k - m 0 ) T - - - ( 19 )
vk=v0+Nk  (20)
基于变分贝叶斯框架的混合模型参数估计在本文中起着重要的作用,它对观测数据的概率分布的估计为贝叶斯决策与推理提供了可能。利用上述公式(10)~(20),可以得到边缘幅值图的概率分布信息。
基于边缘信息还无法正确地确定手掌在图像中的位置,如果背景颜色与手掌颜色比较接近时,算法无法提供正确的边缘信息。
[1.3]基于所估计的后验概率密度p(G(x,y)),对梯度图像G(x,y)进行分割。基于手掌可能出现位置的先验信息,选择一个连通域作为前景目标的初选模板,该模板可能仍然混杂有背景图像的信息。
(二)利于混合概率模型对前景目标的颜色信息估计条件概率密度
[2.1]基于前景目标的初选模板提取目标图像的彩色信息,利用混合概率模型对初选目标图像的色彩概率密度进行估计,得到目标图像的色彩空间的条件概率分布。前景目标的条件概率分布可以表示为:
利用变分逼近的方法,可以很容易估计出前景目标的色彩的概率分布。
经过概率密度估计以后,可以得到一个基于色彩信息的分割结果,高斯混合模型将初选目标图像中混杂的环境信息聚成了一类。这样,就可以继续根据某种先验知识和后验概率分布对目标图像进行进一步的筛选。
[2.2]根据估计得到的目标图像色彩空间的混合概率密度,计算各个混合分量之间的贝叶斯分类误差。根据这些贝叶斯分类误差和手掌可能出现位置处的色彩先验合并或去除多余的混合分量,最后得到目标图像的条件概率密度。
筛选方法是:首先假设第k个混合分量为手掌最可能的色彩分量,那么它与分量j的分类误差为:
两组像素的分类误差越大,说明这两个色彩分量就越接近,具有较大可能属于手掌区域,分类误差越小,说明两个色彩分量的差别越大,可能属于背景图像。通过这种贝叶斯推理,可以合并和移除各个色彩分量,基于颜色信息精确确定手掌的位置。
上例中混合模型的三个高斯分量之间的误差矩阵,很显然分量k=3是手掌区域所包含的大部分颜色信息,它与另两个颜色分量之间的误差分别是e(3,1)+e(1,3)=0.05,e(3,2)+e(2,3)=0.25。此处,选择误差之和小于0.05作为阈值来决定是否保留相应的分量,也就是说两个分量之间95%的区域不相交。这个阈值可以根据使用情况进行修改,在掌纹识别应用中可以将这个阈值进行进一步的放大。此例中,去除掉分量1,保留分量2和分量3作为手掌区域的色彩数据。
(三)利用混合模型对背景图像的颜色信息估计条件概率密度
基于高斯混合模型背景图像的条件概率密度可以写为:
背景图像通常具有比较复杂的图像内容,存在多个聚类中心。为了避免人为对混合模型分量个数进行设定,更好地估计背景图像的分布,采用Birth-and-death逼近过程对背景图像数据的概率密度进行估计,具体步骤如下:
[3.1]选取背景图像色彩空间中的一个或几个点作为种子点,估计色彩空间的概率分布,将其作为第L层的概率密度。
[3.2]Birth过程:以第L层的混合分量作为初始分布,以每个混合分量作为种子分布,随机产生2个混合分量,重新估计背景图像的条件概率分布。通过遍历所有第L层的混合分量,重复估计背景图像的概率分布,选取后验概率最大的分量作为第L+1层的混合概率分布。
[3.3]Death过程:基于第L+1层得到的混合概率密度,通过判断混合分量比例π的后验概率分布p(π),决定是否保留某个混合分量。(四)基于前景目标和背景的条件概率密度求取图像的后验概率图谱
[4.1]统计前景目标和背景图像所占图像的比例,分别计算先验概率P(Ωf)和P(Ωb)。
[4.2]基于前景目标和背景图像的概率分布和先验概率,利用贝叶斯公式计算图像中每个点的后验概率,构成图像的后验概率图谱:
p ( Ω f | I ( x , y ) ) = p ( I ( x , y ) | Θ f ) P ( Ω f ) p ( I ( x , y ) | Θ f ) P ( Ω f ) + p ( I ( x , y ) | Θ b ) P ( Ω b ) - - - ( 24 )
其中,p(I(x,y)|Θf)和p(I(x,y)|Θb)分别为基于色彩空间的,图像I(x,y)相对于前景目标概率分布和背景图像概率分布的概率。
(五)基于图像后验概率图谱重新估计目标的边缘信息
[5.1]分别求取前景目标和背景图像概率密度图谱的梯度。
[5.2]将两个图谱的梯度值相加得到边缘能量图谱Gp(x,y),大于某个阈值的幅值认为是图像的边缘,小于该阈值的幅值认为不是边缘。
基于图像后验概率图谱所估计得到的边缘能量图谱和基于该图谱的一个二值分割。
(六)结合目标和背景的后验概率和图像的边缘能量图谱Gp(x,y)对手掌目标进行图像分割,提取目标图像。
[6.1]基于目标和背景的后验概率对图像进行二值化:
B(x,y)=max(P(Ωf|I(x,y)),P(Ωb|I(x,y)))  (25)
[6.2]将二值化的图像B(x,y)与二值化的边缘能量图谱Gp(x,y)进行与操作,从而将图像的边缘信息与色彩信息相结合,实现对手掌的分割。
同时,本发明还提供了掌形图形识别方法,包括,上述实施例中的掌形图形提取方法所识别出的当前掌形图像,与待识别掌形图像进行匹配,根据匹配结果,对当前掌形图像进行识别。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (9)

1.掌形图形提取方法,其特征在于,包括: 
步骤S101,根据当前掌形图像的混合概率模型提取图像边缘信息的概率密度估计值; 
步骤S102,通过混合模型对前景图像的颜色信息进行概率密度估计获取前景概率密度估计值; 
步骤S103,通过混合模型对背景图像的颜色信息进行概率密度估计获取背景概率密度估计值; 
步骤S104,根据所述前景概率密度估计值及背景概率密度估计值获取所述当前掌形图像的后验概率图谱; 
步骤S105,通过所述图像后验概率图谱获取掌形边缘信息; 
步骤S106,根据前景图像的后验概率图谱及所述掌形边缘信息,对所述当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。 
2.根据权利要求1所述的掌形图形提取方法,其特征在于,所述步骤S101前还包括: 
步骤S1001,采集当前掌形图像; 
步骤S1002,根据所述当前掌形图建立当前掌形图像的混合概率模型。 
3.根据权利要求1或2所述的掌形图形提取方法,其特征在于,所述步骤S101包括: 
步骤S1011,根据当前掌形图像的输入彩色RGB图像I(x,y)及下述公式1获取边缘信息G(x,y); 
  公式1 
步骤S1012,根据高斯混合概率模型对当前掌形图像的边缘梯度G(x,y)进行概率密度估计获取概率密度估计值: 
4.根据权利要求1所述的掌形图形提取方法,其特征在于,所述步骤S102包括: 
根据前景图像的初选模板提取目标图像的彩色信息,利用混合概率模型对初选目标图像的色彩概率密度进行估计,获取前景图像的色彩空间的条件概率分布; 
根据所述条件概率分布获取的前景图像的色彩空间的混合概率密度,计算各个混合分量之间的贝叶斯分类误差; 
根据所述贝叶斯分类误差和预估手掌位置处的色彩值合并或去除多余混合分量,获取前景概率密度估计值。 
5.根据权利要求1所述的掌形图形提取方法,其特征在于,所述步骤S103包括: 
选取背景图像色彩空间中的一个或几个点作为种子点,估计色彩空间的概率分布,将其作为初始步的概率密度; 
以初始步的混合分量作为初始分布,以每个混合分量作为种子分布,随机产生2个或2个以上混合分量,更新估计背景图像的条件概率分布; 
通过遍历所有设定步的混合分量,更新估计背景图像的概率分布,选取后验概率最大的一组分量作为当前步的混合概率分布,根据该混合概率分布获取背景概率密度估计值;若当前混合分量比例π的后验概率分布p(π),为当前步得到的混合概率分布密度,则不是否保留当前混合分量。 
6.根据权利要求1所述的掌形图形提取方法,其特征在于,所述步骤S104包括: 
步骤S1041:统计前景图像和背景图像所占图像的比例,分别计算先验概率P(Ωf)和P(Ωb)。 
步骤S1042:基于所述前景图像和背景图像的概率分布和先验概率,利用贝叶斯公式计算图像中每个点的后验概率,构成所述当前掌形图像的后验概率图谱: 
其中,p(I(x,y)|Θf)和p(I(x,y)|Θb)分别为所述前景概率密度估计值及所述背景概率密度估计值。 
7.根据权利要求1所述的掌形图形提取方法,其特征在于,所述步骤S105包括, 
步骤1051,通过所述图像后验概率图谱获取,前景图像的概率密度图谱梯度及背景图像的概率密度图谱梯度; 
步骤1052,根据所述前景图像的概率密度图谱梯度及背景图像的概率密度图谱梯度值获取边缘能量图谱Gp(x,y); 
步骤1053,若所述边缘能量图谱Gp(x,y)是否大于设定阈值的幅值,则根据边缘能量图谱Gp(x,y)确定为掌形边缘信息。 
8.根据权利要求1所述的掌形图形提取方法,其特征在于,所述步骤S106包括, 
步骤S1061,根据前景及背景图像的后验概率图谱,获取前景及背景图像的后验概率; 
步骤S1062,根据所述前景及背景图像的后验概率对所述当前掌形图像进行二值化处理: 
B(x,y)=max(P(Ωf|I(x,y)),P(Ωb|I(x,y))) 
步骤S1063,将所述二值化后的图像B(x,y)与二值化的边缘能量图谱Gp(x,y)进行与操作,对所述当前掌形图像中的掌形区域进行图像分割,提取当前掌形图像。 
9.掌形图形识别方法,其特征在于,将根据权利要求1所述的掌形图形提取方法所识别出的当前掌形图像,与待识别掌形图像进行匹配,根据匹配结果,对当前掌形图像进行识别。 
CN201410709472.4A 2014-11-27 2014-11-27 掌形图形提取及识别方法 Active CN104361339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410709472.4A CN104361339B (zh) 2014-11-27 2014-11-27 掌形图形提取及识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410709472.4A CN104361339B (zh) 2014-11-27 2014-11-27 掌形图形提取及识别方法

Publications (2)

Publication Number Publication Date
CN104361339A true CN104361339A (zh) 2015-02-18
CN104361339B CN104361339B (zh) 2018-08-07

Family

ID=52528597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410709472.4A Active CN104361339B (zh) 2014-11-27 2014-11-27 掌形图形提取及识别方法

Country Status (1)

Country Link
CN (1) CN104361339B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766065A (zh) * 2015-04-14 2015-07-08 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
CN107944356A (zh) * 2017-11-13 2018-04-20 湖南商学院 综合多类型特征的层次主题模型掌纹图像识别的身份认证方法
CN109903266A (zh) * 2019-01-21 2019-06-18 深圳市华成工业控制有限公司 一种基于样本窗的双核密度估计实时背景建模方法及装置
CN110490212A (zh) * 2019-02-26 2019-11-22 腾讯科技(深圳)有限公司 钼靶影像处理设备、方法和装置
CN113887277A (zh) * 2021-08-23 2022-01-04 福建数博讯信息科技有限公司 一种手持身份证阅读器及基于该装置信息采集与签到方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050119829A1 (en) * 2003-11-28 2005-06-02 Bishop Christopher M. Robust bayesian mixture modeling
CN103714324A (zh) * 2013-12-27 2014-04-09 北京市新技术应用研究所 一种基于散列算法的快速掌纹辨识方法
CN104063876A (zh) * 2014-01-10 2014-09-24 北京理工大学 一种交互式图像分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050119829A1 (en) * 2003-11-28 2005-06-02 Bishop Christopher M. Robust bayesian mixture modeling
CN103714324A (zh) * 2013-12-27 2014-04-09 北京市新技术应用研究所 一种基于散列算法的快速掌纹辨识方法
CN104063876A (zh) * 2014-01-10 2014-09-24 北京理工大学 一种交互式图像分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DIMITRIS G.TZIKAS等: "The Variational Approximation for Bayesian Inference", 《IEEE SIGNAL PROCESSING MAGAZINE》 *
HAN-BING QU等: "Variational Bayesian level set for image segmentation", 《RESEARCHGATE》 *
LINGMING SUN等: "A Hand Shape Recognition Method research based on Gaussian Mixture Model", 《2010 INTERNATIONAL CONFERENCE ON OPTOELECTRONICS AND IMAGE PROCESSING》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766065A (zh) * 2015-04-14 2015-07-08 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
CN104766065B (zh) * 2015-04-14 2018-04-27 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
CN107944356A (zh) * 2017-11-13 2018-04-20 湖南商学院 综合多类型特征的层次主题模型掌纹图像识别的身份认证方法
CN109903266A (zh) * 2019-01-21 2019-06-18 深圳市华成工业控制有限公司 一种基于样本窗的双核密度估计实时背景建模方法及装置
CN109903266B (zh) * 2019-01-21 2022-10-28 深圳市华成工业控制股份有限公司 一种基于样本窗的双核密度估计实时背景建模方法及装置
CN110490212A (zh) * 2019-02-26 2019-11-22 腾讯科技(深圳)有限公司 钼靶影像处理设备、方法和装置
CN110490212B (zh) * 2019-02-26 2022-11-08 腾讯科技(深圳)有限公司 钼靶影像处理设备、方法和装置
CN113887277A (zh) * 2021-08-23 2022-01-04 福建数博讯信息科技有限公司 一种手持身份证阅读器及基于该装置信息采集与签到方法
CN113887277B (zh) * 2021-08-23 2024-01-02 福建数博讯信息科技有限公司 一种手持身份证阅读器及基于该装置信息采集与签到方法

Also Published As

Publication number Publication date
CN104361339B (zh) 2018-08-07

Similar Documents

Publication Publication Date Title
Feng et al. Orientation field estimation for latent fingerprint enhancement
Sankaran et al. Adaptive latent fingerprint segmentation using feature selection and random decision forest classification
Kumar et al. Text extraction and document image segmentation using matched wavelets and MRF model
Chang et al. Multi-modal gray-level histogram modeling and decomposition
Zhao et al. Model based separation of overlapping latent fingerprints
Feng et al. Robust and efficient algorithms for separating latent overlapped fingerprints
Cheng et al. Fingerprint enhancement with dyadic scale-space
CN104361339B (zh) 掌形图形提取及识别方法
CN103336960A (zh) 一种基于流形学习的人脸识别方法
CN108564040B (zh) 一种基于深度卷积特征的指纹活性检测方法
EP2360619A1 (en) Fast fingerprint searching method and fast fingerprint searching system
CN112949570B (zh) 一种基于残差注意力机制的指静脉识别方法
CN102938055A (zh) 一种手骨身份识别系统
CN106228151A (zh) 指掌静脉融合特征识别方法
Haji et al. Real time face recognition system (RTFRS)
Stojanović et al. Latent overlapped fingerprint separation: a review
Qin et al. Finger-vein quality assessment based on deep features from grayscale and binary images
Maring et al. Recognition of cheising iyek/eeyek-manipuri digits using support vector machines
CN102592142A (zh) 一种基于计算机系统的手写签名稳定性评估方法
Nagaty On learning to estimate the block directional image of a fingerprint using a hierarchical neural network
Oblak et al. Fingermark quality assessment framework with classic and deep learning ensemble models
CN114373212A (zh) 人脸识别模型构建方法、人脸识别方法及相关设备
Li et al. A novel approach for vehicle detection using an AND–OR-graph-based multiscale model
Kumar et al. FPR using machine learning with multi‐feature method
Kumar et al. An empirical evaluation of rotation invariance of LDP feature for fingerprint matching using neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 100035 No. 16 South Main Street, Xicheng District, Beijing, Xizhimen

Patentee after: Beijing New Technology Application Research Institute Co.,Ltd.

Country or region after: China

Patentee after: BEIJING WHOIS TECHNOLOGY Co.,Ltd.

Address before: 100035 No. 16 South Main Street, Xicheng District, Beijing, Xizhimen

Patentee before: BEIJING INSTITUTE OF NEW TECHNOLOGY APPLICATIONS

Country or region before: China

Patentee before: BEIJING WHOIS TECHNOLOGY Co.,Ltd.

CP03 Change of name, title or address