CN104392455B - 基于方向检测的在线掌纹有效区域快速分割方法 - Google Patents

基于方向检测的在线掌纹有效区域快速分割方法 Download PDF

Info

Publication number
CN104392455B
CN104392455B CN201410751230.1A CN201410751230A CN104392455B CN 104392455 B CN104392455 B CN 104392455B CN 201410751230 A CN201410751230 A CN 201410751230A CN 104392455 B CN104392455 B CN 104392455B
Authority
CN
China
Prior art keywords
image
point
palmprint
valley point
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410751230.1A
Other languages
English (en)
Other versions
CN104392455A (zh
Inventor
庞辽军
赵伟强
褚万星
曹凯
刘而云
田捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201410751230.1A priority Critical patent/CN104392455B/zh
Publication of CN104392455A publication Critical patent/CN104392455A/zh
Application granted granted Critical
Publication of CN104392455B publication Critical patent/CN104392455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于方向检测的在线掌纹有效区域快速分割方法。主要解决现有的在线掌纹分割技术时间复杂度高、实时性差的不足。其实现步骤是:1.输入掌纹图像,利用轮廓梯度计算手掌方向;2.校正掌纹图像,利用校正后轮廓的梯度方向选取备选点;3.对备选点进行层次聚类,聚到三类为止,再利用这三类中心的位置关系确定谷点的位置;4.以谷点为参照点完成掌纹分割。本发明利用手掌轮廓点的梯度方向与手掌方向的关系,提高了在线掌纹有效区域分割的速度,可用于移动设备中的身份验证。

Description

基于方向检测的在线掌纹有效区域快速分割方法
技术领域
本发明属于图像处理技术领域,涉及在线掌纹有效区域的提取,可用于移动设备中的身份验证。
背景技术
在线掌纹有效区域的提取是在线掌纹识别领域一个非常重要的步骤,涉及到在线掌纹识别的识别效果,不准确的提取可能会导致匹配错误。在实际的应用系统中,正确高效的掌纹分割方法有利于提高掌纹识别系统的速度和精确度。因此,效果良好的在线掌纹有效区域提取技术有利于改善在线掌纹识别系统其他阶段的性能。现存的在线掌纹分割算法可大致分为基于肤色比例、基于手掌结构这两类。
基于肤色比例的分割方法,是利用肤色模型确定手掌轮廓,对轮廓线上的点进行采样分析。基本原理是遍历手掌轮廓点,对每一个点画圆,按照圆中的皮肤所占的比例进行判断。这种方法有一个重大的问题,手掌的摆放姿势不会严格的满足上述要求。
基于手掌结构的分割方法,是利用手掌的轮廓结构以及该结构的切线方向进行谷点确定和分割。沿着手掌的轮廓线做切线,如果遇到切线过另外一条轮廓点,则检测另一个轮廓点的切线,如果该轮廓点的切线恰好也过该点则认为这两个点就是谷点,然后依据这两个点再分割。这种方法的问题是轮廓上的每个点都要进行复杂的几何运算,因此实现起来比较慢。
发明内容
本发明的目的是针对上述已有技术的不足,提出一种基于方向检测的有效区域提取技术,以提高在线掌纹识别系统的分割效果,避免复杂的几何运算,进而大幅提高了在线掌纹识别系统的速度。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)输入大小为M×L的掌纹图像I(x,y),其中(x,y)表示掌纹图像的像素点坐标,M表示掌纹图像的长度,L表示掌纹图像的宽度;
(2)对掌纹图像I(x,y)进行阈值分割,得到掌纹二值化图像IB(x,y),对掌纹二值化图像IB(x,y)进行腐蚀操作,得到腐蚀后的掌纹图像IE(x,y),进而得到手掌轮廓图像Edg(x,y):
Edg(x,y)=IB(x,y)-IE(x,y);
(3)利用手掌轮廓图像Edg(x,y),计算方向图像D(x,y)和方向角图像θ(x,y);
(4)计算掌纹图像I(x,y)的手掌方向θp
(4a)对方向角图像θ(x,y)像素值的分布进行统计,求得θ(x,y)中分布最多的像素值θmax
(4a1)把[0°,360°)等分成36段角度区间,每段角度区间的大小为10°,将方向角图像θ(x,y)在第i段角度区间内的像素点数表示为Li,并初始化Li为0,i=1,2,...,36;当10(i-1)≤θ(x,y)<10i且Edg(x,y)>0时,给第i段角度区间对应的像素点数Li值加1;
(4a2)找出Li的最大值,将该最大值对应的i记作imax,计算方向角图像θ(x,y)中分布最多的像素值θmax
(4b)利用方向角图像θ(x,y)中分布最多的像素值θmax,计算手掌方向:θp=θmax-90°;
(5)对掌纹图像I(x,y)进行方向校正,得到梯度校正图像D′(x,y)和角度校正图像θ′(x,y):
(5a)对掌纹图像I(x,y)以-θp为旋转角度进行逆时针旋转,得到手掌校正图像I′(x,y);
(5b)将手掌校正图像I′(x,y)作为输入图像,重复步骤(1)到步骤(3),得到的方向图像记作梯度校正图像D′(x,y),得到的方向角图像记作角度校正图像θ′(x,y);
(6)利用手掌轮廓图像Edg(x,y)和角度校正图像θ′(x,y),确定备选点集C:若像素点坐标(x,y)满足Edg(x,y)=255且165°≤θ′(x,y)≤195°,则将该像素点加入到备选点集C中;
(7)利用备选点集C,计算手掌校正图像I′(x,y)中上谷点vu和下谷点vd的位置:
(7a)对备选点集C中的点进行层次聚类,聚到3类为止,分别记为第一类CL1、第二类CL2、第三类CL3,并将这三类的聚类中心分别记为c1、c2、c3
(7b)遍历第一类CL1中的点,计算这些点到该类聚类中心c1的距离,并将距离c1最近的点记为v1
(7c)遍历第二类CL2中的点,计算这些点到该类聚类中心c2的距离,并将距离c2最近的点记为v2
(7d)遍历第三类CL3中的点,计算这些点到该类聚类中心c3的距离,并将距离c3最近的点记为v3
(7e)将上述得到三个点v1、v2、v3中横坐标最小的点的位置记为I′(x,y)中上谷点vu的位置,把v1、v2、v3中横坐标最大的点的位置记为I′(x,y)中下谷点vd的位置;
(8)以手掌校正图像I′(x,y)中上谷点vu的位置和下谷点vd的位置为参照点,分割出掌纹有效区域图像R(x,y)。
本发明的优点
1.本发明由于利用了手掌方向和轮廓梯度方向的关系进行在线掌纹有效区域分割,所以能够快速找到谷点位置,大幅提高了掌纹有效区域分割的速度;
2.本发明先找出了备选谷点的位置,然后利用简单的层次聚类,能准确地找到谷点位置,从而避免了选择错误的谷点位置。
附图说明
图1是本发明的实现总流程图;
图2是本发明实验使用原图像;
图3是用本发明方法对图3进行分割的仿真结果图;
图4是本发明所使用的上谷点和下谷点的位置图。
具体实施方式
下面结合图1对本发明的技术内容及效果作进一步详细描述。
参照图1,本发明的实现步骤包括如下:
步骤一,输入掌纹图像I(x,y)。
从图像数据库中获取大小为M×L的掌纹图像I(x,y),其中(x,y)表示掌纹图像的像素点坐标,M表示掌纹图像的长度,L表示掌纹图像的宽度。
步骤二,获取掌纹图像的手掌轮廓图像Edg(x,y)。
(2a)对掌纹图像I(x,y)进行阈值分割,得到掌纹二值化图像IB(x,y):
其中,Th表示灰度阈值,取值为20;
(2b)对掌纹二值化图像IB(x,y)进行腐蚀操作,得到腐蚀后的掌纹图像IE(x,y),进而得到手掌轮廓图像Edg(x,y):
Edg(x,y)=IB(x,y)-IE(x,y)。
步骤三,计算掌纹图像I(x,y)的方向图像D(x,y)和方向角图像θ(x,y)。
(3a)根据手掌轮廓图像Edg(x,y),分别计算纵向梯度图像GradX(x,y)和横向梯度图像GradY(x,y):
其中,*表示卷积,Sobel_x(x,y)表示纵向索贝尔算子,取值为:
Sobel_y(x,y)表示横向索贝尔算子,取值为:
(3b)利用纵向梯度图像GradX(x,y)和横向梯度图像GradY(x,y),得到轮廓梯度图像Grad(x,y):
Grad(x,y)=(GradX(x,y),GradY(x,y));
(3c)利用轮廓梯度图像Grad(x,y),计算方向图像D(x,y)和方向角图像θ(x,y):
θ(x,y)=arctan2(GradX(x,y),GradY(x,y)),
其中,arctan2是值域为[0°360°)的反正切函数。
步骤四,计算掌纹图像I(x,y)的手掌方向θp
(4a)对方向角图像θ(x,y)像素值的分布进行统计,求得θ(x,y)中分布最多的像素值θmax
(4a1)把[0°,360°)等分成36段角度区间,每段角度区间的大小为10°,将方向角图像θ(x,y)在第i段角度区间内的像素点数表示为Li,并初始化Li为0,i=1,2,...,36;当10(i-1)≤θ(x,y)≤10i且Edg(x,y)>0时给第i段角度区间对应的像素点数Li值加1;
(4a2)找出Li的最大值,将该最大值对应的i记作imax,计算方向角图像θ(x,y)中分布最多的像素值θmax
(4b)利用θ(x,y)中分布最多的像素值θmax,计算手掌方向θp
θp=θmax-90°。
步骤五,对掌纹图像I(x,y)进行方向校正,得到梯度校正图像D′(x,y)和角度校正图像θ′(x,y):
(5a)对掌纹图像I(x,y)以-θp为旋转角度进行逆时针旋转,得到手掌校正图像I′(x,y);
(5b)将手掌校正图像I′(x,y)作为输入图像,重复步骤(1)到步骤(3),得到的方向图像记作梯度校正图像D′(x,y),得到的方向角图像记作角度校正图像θ′(x,y);
步骤六,利用手掌轮廓图像Edg(x,y)和角度校正图像θ′(x,y),确定备选点集C,若点(x,y)满足Edg(x,y)=255且165°≤θ′(x,y)≤195°,则将该点加入到备选点集C中。
步骤七,利用备选点集C,计算手掌校正图像I′(x,y)中上谷点vu和下谷点vd的位置。
(7a)对备选点集C中的点进行层次聚类,聚到3类为止,分别记为第一类CL1、第二类CL2、第三类CL3,并将这三类的聚类中心分别记为c1、c2、c3
(7b)遍历第一类CL1中的点,计算这些点到该类聚类中心c1的距离,并将距离c1最近的点记为v1
(7c)遍历第二类CL2中的点,计算这些点到该类聚类中心c2的距离,并将距离c2最近的点记为v2
(7d)遍历第三类CL3中的点,计算这些点到该类聚类中心c3的距离,并将距离c3最近的点记为v3
(7e)将上述得到三个点v1、v2、v3中横坐标最小的点的位置记为I′(x,y)中上谷点vu的位置,把v1、v2、v3中横坐标最大的点的位置记为I′(x,y)中下谷点vd的位置,上谷点vu和下谷点vd在手掌中的位置如图4所示,其中左上角的圆圈处表示上谷点vu的位置,左下角圆圈处表示下谷点vd的位置。
步骤八,在手掌校正图像I′(x,y)中,分割出掌纹有效区域图像R(x,y)。
(8a)利用下式计算谷点规正角度θv
其中,xvu和yvu分别表示手掌校正图像I′(x,y)中上谷点vu的横坐标和纵坐标,xvd和yvd分别表示表示I′(x,y)中下谷点vd的横坐标和纵坐标,arctan是值域为[0°,180°)的反正切的函数;
(8b)以θv-90°为旋转角度对手掌校正图像I′(x,y)进行逆时针旋转,得到谷点规正图像Gv(x,y);
(8c)把上谷点vu的位置(xvu,yvu)映射到谷点规正图像Gv(x,y)上,得到Gv(x,y)中规正上谷点vu′的位置(x′vu,y′vu):
x′vu=xvu×cos(90°-θv)-yvu×sin(90°-θv)+x0-x0×cos(90°-θv)+y0×cos(90°-θv),
y′vu=xvu×sin(90°-θv)+yvu×cos(90°-θv)+y0-x0×sin(90°-θv)-y0×sin(90°-θv),其中,x′vu和y′vu分别表示规正上谷点vu′的横坐标和纵坐标,x0和y0表示手掌校正图像I′(x,y)中心点的横坐标和纵坐标;
(8d)把I′(x,y)中下谷点vd的位置(xvd,yvd)映射到谷点规正图像Gv(x,y)上,得到规正下谷点v′d的位置(x′vd,y′vd):
x′vd=xvd×cos(90°-θv)-yvd×sin(90°-θv)+x0-x0×cos(90°-θv)+y0×cos(90°-θv),
y′vd=xvd×sin(90°-θv)+yvd×cos(90°-θv)+y0-x0×sin(90°-θv)-y0×sin(90°-θv),
其中,x′vd和y′vd分别表示规正下谷点v′d的横坐标和纵坐标;
(8e)计算规正上谷点vu′和规正下谷点v′d两点的距离dud
dud=x′vd-x′vu
(8f)在谷点规正图像Gv(x,y)中,确定掌纹有效区域中心c的位置(xc,yc):
xc=(x′vu+x′vd)/2,
yc=y′vu-1.2×dud
(8g)在谷点规正图像Gv(x,y)中,截取待测掌纹有效区域图像R(x,y):
R(x,y)=Gv(x+xc-dud/2,y+yc-dud/2),
其中,x的取值范围为[0,dud],y的取值范围为[0,dud]。
本发明的效果可通过以下仿真进一步说明:
1仿真条件
在PC机的VS2010环境下进行仿真,PC机配置Core I7处理器,主频为3.4-GHz。仿真图像来自实验室环境下用Iphone5手机拍摄的在线掌纹数据库,如图3所示,该数据库包含了来自100个手掌的500幅掌纹图像,图像大小为3264×2448。
2仿真内容与分析
用本发明对图2所述的一组数据库中的掌纹图像进行分割,结果如图3所示。其中,图2(a)的分割结果如图3(a)所示,图2(b)的分割结果如图3(b)所示,图2(c)的分割结果如图3(c)所示。
通过图2与图3的对比可以发现,本发明能够准确的提取出掌纹有效区域。本发明最显著的特点是简单快速,无需复杂的几何运算。
本发明所述的基于方向检测的在线掌纹分割方法,并不仅限于说明书中的描述。凡在本发明的精神和原则之内,所做的任何修改、同等替换、改进等,均包含在本发明的权利要求范围之内。

Claims (4)

1.一种基于方向检测的在线掌纹有效区域快速分割方法,包括如下步骤:
(1)输入大小为M×L的掌纹图像I(x,y),其中(x,y)表示掌纹图像的像素点坐标,M表示掌纹图像的长度,L表示掌纹图像的宽度;
(2)对掌纹图像I(x,y)进行阈值分割,得到掌纹二值化图像IB(x,y),对掌纹二值化图像IB(x,y)进行腐蚀操作,得到腐蚀后的掌纹图像IE(x,y),进而得到手掌轮廓图像Edg(x,y):
Edg(x,y)=IB(x,y)-IE(x,y);
(3)利用手掌轮廓图像Edg(x,y),计算方向图像D(x,y)和方向角图像θ(x,y);
(4)计算掌纹图像I(x,y)的手掌方向θp
(4a)对方向角图像θ(x,y)像素值的分布进行统计,求得θ(x,y)中分布最多的像素值θmax
(4a1)把[0°,360°)等分成36段角度区间,每段角度区间的大小为10°,将方向角图像θ(x,y)在第i段角度区间内的像素点数表示为Li,并初始化Li为0,i=1,2,...,36;当10(i-1)≤θ(x,y)<10i且Edg(x,y)>0时,给第i段角度区间对应的像素点数Li值加1;
(4a2)找出Li的最大值,将该最大值对应的i记作imax,计算方向角图像θ(x,y)中分布最多的像素值θmax
&theta; m a x = 10 ( i m a x - 1 ) + 10 &times; i m a x 2 ;
(4b)利用方向角图像θ(x,y)中分布最多的像素值θmax,计算手掌方向:θp=θmax-90°;
(5)对掌纹图像I(x,y)进行方向校正,得到梯度校正图像D′(x,y)和角度校正图像θ′(x,y):
(5a)对掌纹图像I(x,y)以-θp为旋转角度进行逆时针旋转,得到手掌校正图像I′(x,y);
(5b)将手掌校正图像I′(x,y)作为输入图像,重复步骤(1)到步骤(3),得到的方向图像记作梯度校正图像D′(x,y),得到的方向角图像记作角度校正图像θ′(x,y);
(6)利用手掌轮廓图像Edg(x,y)和角度校正图像θ′(x,y),确定备选点集C:若像素点坐标(x,y)满足Edg(x,y)=255且165°≤θ′(x,y)≤195°,则将该像素点加入到备选点集C中;
(7)利用备选点集C,计算手掌校正图像I′(x,y)中上谷点vu和下谷点vd的位置:
(7a)对备选点集C中的点进行层次聚类,聚到3类为止,分别记为第一类CL1、第二类CL2、第三类CL3,并将这三类的聚类中心分别记为c1、c2、c3
(7b)遍历第一类CL1中的点,计算这些点到该类聚类中心c1的距离,并将距离c1最近的点记为v1
(7c)遍历第二类CL2中的点,计算这些点到该类聚类中心c2的距离,并将距离c2最近的点记为v2
(7d)遍历第三类CL3中的点,计算这些点到该类聚类中心c3的距离,并将距离c3最近的点记为v3
(7e)将上述得到三个点v1、v2、v3中横坐标最小的点的位置记为I′(x,y)中上谷点vu的位置,把v1、v2、v3中横坐标最大的点的位置记为I′(x,y)中下谷点vd的位置;
(8)以手掌校正图像I′(x,y)中上谷点vu的位置和下谷点vd的位置为参照点,分割出掌纹有效区域图像R(x,y):
(8a)利用下式计算谷点规正角度θv
&theta; v = a r c t a n ( y v u - y v d x v u - x v d ) ,
其中,xvu和yvu分别表示手掌校正图像I′(x,y)中上谷点vu的横坐标和纵坐标,xvd和yvd分别表示I′(x,y)中下谷点vd的横坐标和纵坐标,arctan是值域为[0°,180°)的反正切的函数;
(8b)以θv-90°为旋转角度对手掌校正图像I′(x,y)进行逆时针旋转,得到谷点规正图像Gv(x,y);
(8c)把手掌校正图像I′(x,y)中上谷点vu的位置(xvu,yvu)映射到谷点规正图像Gv(x,y)上,得到Gv(x,y)的规正上谷点v′u的位置(x′vu,y′vu):
x′vu=xvu×cos(90°-θv)-yvu×sin(90°-θv)+x0-x0×cos(90°-θv)+y0×cos(90°-θv),
y′vu=xvu×sin(90°-θv)+yvu×cos(90°-θv)+y0-x0×sin(90°-θv)-y0×sin(90°-θv),
其中,x′vu和y′vu分别表示规正上谷点v′u的横坐标和纵坐标,x0和y0表示I′(x,y)中心点的横坐标和纵坐标;
(8d)把I′(x,y)中下谷点vd的位置(xvd,yvd)映射到谷点规正图像Gv(x,y)上,得到Gv(x,y)的规正下谷点v′d的位置(x′vd,y′vd),公式如下:
x′vd=xvd×cos(90°-θv)-yvd×sin(90°-θv)+x0-x0×cos(90°-θv)+y0×cos(90°-θv),
y′vd=xvd×sin(90°-θv)+yvd×cos(90°-θv)+y0-x0×sin(90°-θv)-y0×sin(90°-θv),
其中,x′vd和y′vd分别表示规正下谷点v′d的横坐标和纵坐标;
(8e)计算规正上谷点v′u和规正下谷点v′d两点的距离dud
dud=x′vd-x′vu
(8f)在谷点规正图像Gv(x,y)中,确定掌纹有效区域中心c的位置(xc,yc):
xc=(x′vu+x′vd)/2,
yc=y′vu-1.2×dud
(8g)在谷点规正图像Gv(x,y)中,截取待测掌纹有效区域图像R(x,y):
R(x,y)=Gv(x+xc-dud/2,y+yc-dud/2),
其中,x的取值范围为[0,dud],y的取值范围为[0,dud]。
2.根据权利要求1所述的一种基于方向检测的在线掌纹有效区域快速分割方法,其中步骤(2)中所述的对掌纹图像I(x,y)进行阈值分割,得到掌纹二值化图像IB(x,y),按如下公式进行:
其中,Th表示灰度阈值,取值为20。
3.根据权利要求1所述的一种基于方向检测的在线掌纹有效区域快速分割方法,其中,步骤(3)所述的利用手掌轮廓图像Edg(x,y),计算方向图像D(x,y)和方向角图像θ(x,y),按如下步骤进行;
(3a)根据手掌轮廓图像Edg(x,y),分别计算纵向梯度图像GradX(x,y)和横向梯度图像GradY(x,y):
其中,*表示卷积,Sobel_x(x,y)表示纵向索贝尔算子,取值为:
S o b e l _ x ( x , y ) = - 1 - 2 - 1 0 0 0 1 2 1 ,
Sobel_y(x,y)表示横向索贝尔算子,取值为:
S o b e l _ y ( x , y ) = - 1 0 1 - 2 0 2 - 1 0 1 ;
(3b)利用纵向梯度图像GradX(x,y)和横向梯度图像GradY(x,y),得到轮廓梯度图像Grad(x,y):
Grad(x,y)=(GradX(x,y),GradY(x,y));
(3c)利用轮廓梯度图像Grad(x,y),计算方向图像D(x,y)和方向角图像θ(x,y):
D ( x , y ) = ( G r a d X ( x , y ) G r a d X ( x , y ) 2 + G r a d Y ( x , y ) 2 , G r a d Y ( x , y ) G r a d X ( x , y ) 2 + G r a d Y ( x , y ) 2 ) ,
θ(x,y)=arctan2(GradX(x,y),GradY(x,y)),
其中,arctan2是值域为[0°,360°)的反正切函数。
4.根据权利要求1所述的一种基于方向检测的在线掌纹有效区域快速分割方法,其中步骤(7a)中叙述的对备选点集C中的点进行层次聚类,按如下步骤进行:
(7a1)把备选点集C中的每一个点都视作一类;
(7a2)计算备选点集C中每两类之间的距离,选择距离最近的两类合并为一个类;
(7a3)如果备选点集C中类的数量大于3,重复执行步骤(7a2),否则,聚类结束。
CN201410751230.1A 2014-12-09 2014-12-09 基于方向检测的在线掌纹有效区域快速分割方法 Active CN104392455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410751230.1A CN104392455B (zh) 2014-12-09 2014-12-09 基于方向检测的在线掌纹有效区域快速分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410751230.1A CN104392455B (zh) 2014-12-09 2014-12-09 基于方向检测的在线掌纹有效区域快速分割方法

Publications (2)

Publication Number Publication Date
CN104392455A CN104392455A (zh) 2015-03-04
CN104392455B true CN104392455B (zh) 2017-03-29

Family

ID=52610353

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410751230.1A Active CN104392455B (zh) 2014-12-09 2014-12-09 基于方向检测的在线掌纹有效区域快速分割方法

Country Status (1)

Country Link
CN (1) CN104392455B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809446B (zh) * 2015-05-07 2018-05-04 西安电子科技大学 基于校正手掌方向的掌纹感兴趣区域快速提取方法
CN105938549B (zh) * 2016-06-08 2019-02-12 大连民族大学 掌纹识别中的掌纹roi分割方法
CN106127108B (zh) * 2016-06-14 2019-07-16 中国科学院软件研究所 一种基于卷积神经网络的人手图像区域检测方法
CN107492119B (zh) * 2017-06-28 2020-10-09 西安电子科技大学 基于双竞争性相位相关影像金字塔的掌纹roi匹配方法
CN111860533B (zh) * 2019-04-30 2023-12-12 深圳数字生命研究院 图像的识别方法及装置、存储介质和电子装置
CN115359249B (zh) * 2022-10-21 2023-03-24 山东圣点世纪科技有限公司 一种手掌图像roi区域提取方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0780780A3 (en) * 1995-12-18 1997-07-02 Nec Corporation Fingerprint/palmprint image processing apparatus
CN1378175A (zh) * 2001-03-26 2002-11-06 日本电气株式会社 指掌纹图象处理装置和方法
CN102163282A (zh) * 2011-05-05 2011-08-24 汉王科技股份有限公司 掌纹图像感兴趣区域的获取方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4134522B2 (ja) * 2001-03-26 2008-08-20 日本電気株式会社 指掌紋画像処理装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0780780A3 (en) * 1995-12-18 1997-07-02 Nec Corporation Fingerprint/palmprint image processing apparatus
CN1378175A (zh) * 2001-03-26 2002-11-06 日本电气株式会社 指掌纹图象处理装置和方法
CN102163282A (zh) * 2011-05-05 2011-08-24 汉王科技股份有限公司 掌纹图像感兴趣区域的获取方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Matching of palmprint;Duta N等;《Pattern Recognition Letters》;20011231;第23卷(第4期);第477-485页 *
Online palmprint identification;Zhang D等;《IEEE Trans. on Pattern Analysis and Machine Intelligence》;20031231;第25卷(第9期);第1041-1050页 *
一种用于掌纹识别的线特征表示和匹配方法;邬向前等;《软件学报》;20041231;第15卷(第6期);第871-873页 *
基于手形特征和掌纹特征的生物识别算法的研究;赵洋;《中国优秀硕士学位论文全文数据库 信息科技辑》;20081115(第11期);第16-28页 *

Also Published As

Publication number Publication date
CN104392455A (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
CN104392455B (zh) 基于方向检测的在线掌纹有效区域快速分割方法
CN110232311B (zh) 手部图像的分割方法、装置及计算机设备
CN104063059B (zh) 一种基于手指分割的实时手势识别方法
EP3091479B1 (en) Method and apparatus for fingerprint identification
CN103218605B (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN104809446B (zh) 基于校正手掌方向的掌纹感兴趣区域快速提取方法
CN103439348B (zh) 基于差影法的遥控器按键缺陷检测方法
CN104809481A (zh) 一种基于自适应色彩聚类的自然场景文本检测的方法
CN106384355B (zh) 一种投影交互系统中的自动标定方法
US20150347804A1 (en) Method and system for estimating fingerprint pose
CN105574527A (zh) 一种基于局部特征学习的快速物体检测方法
CN105069774B (zh) 基于多示例学习与图割优化的目标分割方法
CN104298990B (zh) 一种基于骨架图的快速图形匹配与识别的方法
CN108509988B (zh) 一种试卷分数自动统计方法、装置、电子设备及存储介质
CN104573685A (zh) 一种基于线性结构提取的自然场景文本检测方法
CN103886619A (zh) 一种融合多尺度超像素的目标跟踪方法
CN114494265B (zh) 识别化妆品生产领域包装印刷质量方法及人工智能系统
CN110223202B (zh) 一种教学道具识别与评分的方法及系统
CN103020614B (zh) 基于时空兴趣点检测的人体运动识别方法
CN104392225B (zh) 基于梯度方向模板的在线掌纹有效区域快速分割方法
CN107895140A (zh) 基于人脸肤色的色情图片识别办法
CN103854278A (zh) 基于连通区域质心形状上下文的印刷电路板图像配准方法
CN104050483A (zh) 一种基于局部正交对齐的特征降维方法
CN102841679A (zh) 一种非接触式人机互动方法与装置
CN106155540A (zh) 电子毛笔笔形处理方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant