CN104951940A - 一种基于掌纹识别的移动支付验证方法 - Google Patents
一种基于掌纹识别的移动支付验证方法 Download PDFInfo
- Publication number
- CN104951940A CN104951940A CN201510309022.0A CN201510309022A CN104951940A CN 104951940 A CN104951940 A CN 104951940A CN 201510309022 A CN201510309022 A CN 201510309022A CN 104951940 A CN104951940 A CN 104951940A
- Authority
- CN
- China
- Prior art keywords
- palm
- mrow
- image
- msub
- palm print
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 149
- 238000012795 verification Methods 0.000 title claims abstract description 63
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000000605 extraction Methods 0.000 claims abstract description 34
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 230000011218 segmentation Effects 0.000 claims description 58
- 238000000354 decomposition reaction Methods 0.000 claims description 23
- 238000003709 image segmentation Methods 0.000 claims description 17
- 238000007476 Maximum Likelihood Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 230000007797 corrosion Effects 0.000 claims description 7
- 238000005260 corrosion Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000000513 principal component analysis Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 244000060701 Kaempferia pandurata Species 0.000 claims description 3
- 235000016390 Uvaria chamae Nutrition 0.000 claims description 3
- 230000003628 erosive effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 abstract 1
- 238000007500 overflow downdraw method Methods 0.000 description 14
- 238000012360 testing method Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 244000062793 Sorghum vulgare Species 0.000 description 3
- 235000019713 millet Nutrition 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/325—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices using wireless networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Multimedia (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Finance (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于掌纹识别的移动支付验证方法,分为注册和识别两个阶段。在注册阶段,通过智能手机自带的后置摄像头采集用户的手掌图像,依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息,将该用户的个人标示信息和掌纹信息通过移动互联网上传到验证服务器,并将该用户的信息储存到验证服务器的数据库中。在验证阶段,通过智能手机自带的后置摄像头采集用户的手掌图像,通过一系列同样算法处理得到用户的掌纹信息,发送到验证服务器,并与数据库中注册阶段储存的掌纹信息进行匹配,进而判断该用户是否可以支付。
Description
技术领域
本发明属于生物特征身份识别技术领域,具体涉及一种基于掌纹识别的移动支付验证方法,尤其适合复杂背景中掌纹识别的移动支付验证方法。
背景技术
随着移动互联网技术的发展,智能手机的功能越来越强大,人们除了可以利用手机收发短信、接打电话以外,还可以上网购物、支付、转账缴费等。当人们享受手机支付所带来的便利的同时,手机支付采用的密码或验证码验证安全使得交易支付存在着极大的安全风险,简单密码或验证码易被破解,复杂密码或验证码难记忆。因此,基于手机支付的密码或验证码验证方式很难满足移动交易支付的安全性需要。
生物特征具有不易遗忘、不易被盗、防伪性能好、随身“携带”和随时随地可用等优点。生物特征识别技术已经成为最具潜力的身份验证技术,结合生物特征识别技术进行手机身份验证已经引起了人们的关注。
手是人与外界接触最频繁、最方便的部分,用手进行身份识别非常方便,从非接触式摄像头采集的低分辨率图像就可以用于掌纹识别。与其他的生物识别相比,掌纹具有很多独特的优势:相比于指纹,掌纹拥有更大的面积以及更为丰富的纹理信息,一般的摄像头或者扫描仪都可以采集到很清晰的图像,可以构建高性能的掌纹识别系统;相比于人脸识别,掌纹识别能轻易地区分双胞胎以及整容人群;相比于虹膜,掌纹采集设备的价格更为低廉,采集方式也更容易让用户接受;相比于签名,掌纹更加稳定可靠。
掌纹具有信息丰富、唯一性、低分辨率、稳定性和可靠性等特点,基于智能手机的掌纹识别符合非接触式、低分辨率等生物特征验证的发展趋势。但是由于智能手机采集的掌纹图像背景往往比较复杂,导致手掌区域不能正确分割,限制了掌纹识别技术在智能手机上的应用推广。此外,针对智能手机的掌纹图像快速定位、最小化快速处理的方法,是智能手机的掌纹验证替代传统移动支付密码或验证码验证的关键技术。
发明内容
本发明的目的是提供一种掌纹识别的移动支付验证方法,使掌纹识别技术能够在智能手机上应用,解决了现有手机在上网交易支付时,采用密码或验证码验证方法的不安全性问题,还解决了智能手机在复杂背景下手掌分割的不完整和掌纹图像快速定位、最小化快速处理的问题。
本发明采用的技术方案是,一种掌纹识别的移动支付验证方法,包括以下步骤:
步骤一、注册阶段
步骤1),录入用户的个人标示信息,并利用手机自带的后置摄像头采集用户的手掌图像。
步骤2),依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息。
步骤3),将用户的掌纹信息和个人标识信息上传储存到验证服务器的数据库中,完成注册。
步骤二、验证阶段
步骤4),利用手机自带的后置摄像头采集用户的手掌图像。
步骤5),依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息。
步骤6),将用户的掌纹信息上传到验证服务器,并与数据库中注册阶段储存的掌纹信息进行匹配,若匹配成功,且与个人标示信息对应,则允许支付;若匹配失败,无论是否与个人标示信息对应,都拒绝支付,同时将结果发送给手机。
步骤2)或步骤5)中的提取用户掌纹信息的四个步骤分别按照以下描述实施。
步骤1,手掌图像分割
手掌图像分割是采用二维大津法和基于YCbCr的肤色分割法并联融合法,或二维大津法和基于YCbCr的肤色分割法串联融合法。
二维大津法和基于YCbCr的肤色分割法并联融合法包括以下步骤:首先利用二维大津法对原始手掌图像进行分割,得到第一幅二值化的手掌图像;再利用基于YCbCr的肤色分割法对原始手掌图像进行分割,得到第二幅二值化的手掌图像。然后对这两幅二值化的手掌图像实现逻辑“与”操作,得到第三幅二值化的手掌图像,对第三幅二值化手掌图像进行形态学处理,获得最终的手掌分割图像。
二维大津法和基于YCbCr的肤色分割法串联融合法包括以下步骤:首先,将原始手掌图像从RGB颜色空间转化到YCbCr颜色空间;然后利用基于YCbCr的肤色分割法对原始手掌图像进行分割,得到原始手掌图像的最大似然图;其次,用二维大津法对最大似然图选取最佳阈值;最后对最大似然图进行二值化处理并进行形态学处理,获得最终的手掌分割图像。
步骤1-1,并联融合法
二维大津法和基于YCbCr的肤色分割法并联融合法具体按照以下步骤实施:
步骤1-1-1,基于二维大津法分割掌纹图像
首先,对原始手掌图像进行灰度化处理。
然后,假设灰度图像中的一个像素点为f(i,j),该点的灰度领域取大小为h×h,g(i,j)为f(i,j)的邻域灰度均值,其邻域灰度均值公式为:
再假设ffinal(i,j)为二值化处理后的值,由二维大津法得到的最佳阈值为(s0,t0),则手掌图像的二值化处理公式为:
其中Color.rgb(255,255,255)在Bitmap类中代表黑色,Color.rgb(0,0,0)代表白色。
最后对通过公式(3)得到的手掌图像二值化处理图像进行腐蚀处理,获得第一幅二值化的手掌图像。
步骤1-1-2,基于YCbCr的肤色分割法分割掌纹图像
首先,对原始手掌图像进行YCbCr颜色空间转换。RGB向YCbCr空间转换的公式为:
然后,根据高斯模型计算出YCbCr空间的手掌图像中每个像素点与肤色的相似度值。其中,高斯模型数学表达式为:
其中,x=(Cb,Cr)T表示YCbCr空间的一个像素点。m表示此空间下的样本均值,C表示相似度的协方差。m和C分别为:
其次,利用公式(5)将每一幅手掌图像的每个像素点与肤色的相似度值计算完毕后,根据手掌图像中的每个像素点与肤色的相似度值的实验统计,确定选取肤色相似度固定阈值是0.4。
最后,根据固定阈值进行手掌的二值化处理,如果阈值小于等于0.4,则把该点的像素设为白色,否则设为黑色。并进行腐蚀处理,得到第二幅二值化的手掌图像。
步骤1-1-3,并联操作
对第一幅二值化的手掌图像和第二幅二值化的手掌图像进行逻辑“与”操作,得到第三幅二值化的手掌图像,并采用16×16模板对第三幅二值化的手掌图像进行膨胀操作,得到最终的手掌分割图像。
步骤1-2,串联融合法
二维大津法和基于YCbCr的肤色分割法串联融合法具体按照以下步骤实施:
步骤1-2-1,依照公式(4)将原始手掌图像转化成YCbCr颜色空间的手掌图像。
步骤1-2-2,基于YCbCr的肤色分割法分割掌纹图像。
依照公式(5)利用高斯模型对转化成YCbCr颜色空间的手掌图像进行肤色统计及肤色建模,根据相似度值的数理统计结果,得出手掌图像的最大似然图。
步骤1-2-3,利用二维大津法对手掌图像的最大似然图选取最佳阈值(s0,t0),依照公式(3),给最佳阈值(s0,t0)一个松弛量Δ=10,将(s0-Δ,t0-Δ)作为是否对手掌图像进行二值化的判定条件,得到二值化的手掌图像。
如果阈值小于或等于(s0-Δ,t0-Δ),则把该点的像素设为白色,否则设为黑色;
步骤1-2-4,形态学处理:先采用16×16模板对二值化的手掌图像进行腐蚀操作,再采用16×16的模板将腐蚀后的图像膨胀,获得最终的手掌分割图像。
步骤2,掌纹预处理
步骤2)或步骤5)中的掌纹预处理包括轮廓提取、关键点定位、手掌图像旋转矫正和感兴趣区域提取,具体包括以下步骤:
步骤2-1,轮廓提取
对由步骤1得到的最终的手掌分割图像进行判定,若该点的四周都是黑色则设置该点为白色,得到手掌轮廓图像;
其中,关键点定位采用改进的直线拟合法,其具体步骤如下:
步骤2-2-1,将轮廓提取后的手掌图像按照从左到右、从上到下的顺序逐行逐个像素点进行扫描,直到横向扫描线与轮廓边界在同一条扫描线上有8个交点,且相邻两个交点纵坐标的差值大于10时,停止扫描,记下其行号为j,分别记录这8个交点的横纵坐标值,并存入数组中。从左到右的一次编号为:A(i1,j)、B(i2,j)、C(i3,j)、D(i4,j)、E(i5,j)、F(i6,j)、G(i7,j)、H(i8,j)。
步骤2-2-2,在B(i2,j)和C(i3,j)两点之间找出一个轮廓点,此轮廓点距离扫描线最远,记为第一个指根点P;从F(i6,j)点和G(i7,j)点两点的中点开始查找另外一个轮廓点,此点同样是距离扫描线最远,记为第二个指根点Q。P和Q即为本次所找的两个关键点。
步骤2-3,手掌图像旋转矫正
根据步骤2-2得到的P和Q两点连线的斜率k,对手掌图像进行旋转矫正,直至斜率k为0;
步骤2-4,感兴趣区域提取
以步骤2-3得到旋转后的P和Q两点连线以及中点O垂线为坐标轴建立坐标系,以点O为相对坐标点,设PQ连线长度为L,距离PQ连线平行下延L/5处,以L为边长截取方形区域,经过缩放归一化裁剪出128×128的感兴趣区域图;
步骤3,掌纹图像最小化处理
步骤2)或步骤5)中的掌纹图像的最小化处理包括小波分解和直方图均衡,具体步骤如下:
步骤3-1,小波分解
对由步骤2-4得到的128×128的感兴趣区域图进行两次高斯金字塔分解,得到32×32的感兴趣区域图像;
步骤3-2,直方图均衡
对由步骤3-1得到的32×32的感兴趣区域图像进行直方图均衡处理,得到对比度清晰的最小化掌纹图像;
其中小波分解具体按照以下步骤实施:
设由步骤2-4得到的128×128的感兴趣区域图为L0,首先是对128×128的感兴趣区域图进行高斯低通滤波、下采样处理,得到第一层掌纹图像;再对第一层掌纹图像用同样的方法进行处理得到第二层图像,以此类推,构成高斯金字塔,最后提取低频部分得到32×32的感兴趣区域图像;其中,高斯金字塔公式为:
其中,Ll(i,j)是图像经过第l次高斯金字塔分解的图像;L0(i,j)是感兴趣区域图;N是总层数;Cl是经过高斯金字塔分解后的第l层的列数;Rl是经过高斯金字塔分解后的第l层的行数;v(m,n)=h(m)×h(n)是一个窗函数,大小为5×5;
步骤4,掌纹特征提取
步骤2)或步骤5)中的掌纹特征提取采用主成分分析PCA方法。具体按照以下步骤实施:
选取M张由步骤3-2得到的最小化掌纹图像作为样本,最小化掌纹图像大小为m×n像素,将每张最小化掌纹图像按列展成(m×n)×1维的列向量ij,j=1,2,…,M,其对应的协方差矩阵为
其中,
选出前k个最大特征值对应的特征向量u1,u2,...,uk构建投影子空间,k≤M,每幅最小化掌纹图像在子空间中都对应一组变换系数;其变换过程为
fj=Upca Tij j=1,2,…,M (11)
其中Upca=[u1,u2,...,uk],fj为ij的k维PCA变换的掌纹特征矩阵,j=1,2,…,M。
步骤3)或步骤6)中的匹配采用最近邻分类法中的欧式距离法,欧式距离为:
其中,P=(p1,p2,...,pn),Q=(q1,q2,…,qn),P为注册阶段的手掌图像经步骤2)得到的掌纹特征矩阵fj,Q为验证阶段的手掌图像经步骤5)得到的掌纹特征矩阵fj,n为特征向量维数。
设定阈值为1700,将得到的d(P,Q)与阈值进行比较,若d(P,Q)≤1700,则匹配成功,否则匹配失败。
本发明的有益效果是:
(1)本发明的基于掌纹识别的移动支付验证方法中,将复杂背景的手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取等过程均在客户端的智能手机上进行,掌纹信息存储在掌纹验证服务器中,掌纹信息的匹配也在服务器端进行,客户端和服务器端通过移动互联网进行通信,用掌纹识别作为电子银行的支付密码或验证码,保证了个人信息和手机支付验证安全性。
(2)本发明的基于掌纹识别的移动支付验证方法尤其适合对复杂背景下的掌纹进行支付验证,通过二维大津法与基于YCbCr肤色模型相结合的方法,对手掌图像进行分割处理,解决了使用智能手机采集手部图像时复杂背景下图像分割不准确问题,具有很强的适应性和通用性。
(3)本发明的基于掌纹识别的移动支付验证方法提出了一种关键点定位法和掌纹图像的最小化处理法,这两种方法在处理能力有限的智能手机上,能进行实时准确的特征提取并有效减少网络传输的数据量。
附图说明
图1是本发明的基于掌纹识别的移动支付验证方法的方法流程图;
图2是本发明的基于掌纹识别的移动支付验证方法的并联融合法的流程图;
图3是本发明的基于掌纹识别的移动支付验证方法的串联融合法的流程图;
图4是本发明的基于掌纹识别的移动支付验证方法的手掌轮廓提取图;
图5(a)是本发明的基于掌纹识别的移动支付验证方法的扫描线示意图;
图5(b)是本发明的基于掌纹识别的移动支付验证方法的关键点定位图;
图6是本发明的基于掌纹识别的移动支付验证方法的旋转矫正图;
图7是本发明的基于掌纹识别的移动支付验证方法的感兴趣区域提取图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供的基于掌纹识别的移动支付验证方法,分为注册和识别两个阶段。在注册阶段,通过智能手机自带的后置摄像头采集用户的手掌图像,依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息,将该用户的个人标示信息和掌纹信息通过移动互联网上传到验证服务器,将该用户的信息储存到验证服务器的数据库中。在验证阶段,通过智能手机自带的后置摄像头采集用户的手掌图像,通过一系列同样算法处理得到的用户的掌纹信息,发送到验证服务器,并与数据库中注册阶段储存的掌纹信息进行匹配,进而判断该用户是否可以支付。具体流程参考图1。
具体步骤如下:
步骤一、注册阶段
步骤1),录入用户的个人标示信息,并利用手机自带的后置摄像头采集用户的手掌图像。
步骤2),依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息。
步骤3),将用户的掌纹信息和个人标识信息上传储存到验证服务器的数据库中,完成注册。
步骤二、验证阶段
步骤4),利用手机自带的后置摄像头采集用户的手掌图像。
步骤5),依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息。
步骤6),将用户的掌纹信息上传到验证服务器,并与数据库中注册阶段储存的掌纹信息进行匹配,若匹配成功,且与个人标示信息对应,则允许支付;若匹配失败,无论是否与个人标示信息对应,都拒绝支付,同时将结果发送给手机。
如果用户已经注册过,则直接进行支付验证;如果用户没有注册过,则先注册再进行支付验证。
步骤1)和步骤4)中,采集用户的手掌图像时,使用非接触式的手机采集照片方法,即将人手自然张开,放在手机自带的后置摄像头前一个可变的范围内,利用手机自带的后置摄像头采集手掌图像,得到原始手掌图像。
步骤2)和步骤5)中,提取用户掌纹信息的四个步骤分别按照以下描述实施。
步骤1,手掌图像分割
采用二维大津法和基于YCbCr的肤色分割法融合的方法,对原始手掌图像进行分割处理,得到手掌分割图像。
二维大津法和基于YCbCr的肤色分割法融合的方法分为二维大津法和基于YCbCr的肤色分割法并联融合法和二维大津法和基于YCbCr的肤色分割法串联融合法。这两种融合方式均可对手掌图像进行分割,既可单独使用,也可两种融合方式同时使用。本发明进一步发现,当手掌图像背景偏暗,更适合采用并联融合法;当手掌图像背景偏亮,更适合采用串联融合法。
并联融合法包括以下步骤:首先利用二维大津法对原始手掌图像进行分割,得到一幅二值化的手掌图像;再利用基于YCbCr的肤色分割法对原始手掌图像进行分割,得到另一幅二值化的手掌图像。然后对这两幅二值化的手掌图像实现逻辑“与”操作,得到第三幅二值化后的手掌图像,最后对第三幅二值化手掌图像进行形态学处理,获得最终的手掌分割图像。具体流程参照图2。
并联融合法具体按照以下步骤实施:
步骤1-1-1,基于二维大津(OTSU)法分割掌纹图像
首先,对原始手掌图像进行灰度化处理,灰度值的计算使用加权公式:
f(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j) (1)
式中,f(i,j)为灰度值;R为红色分量值,G为绿色分量值,B为蓝色分量值。
假设灰度图像中的一个像素点f(i,j),该点的灰度领域取大小为h×h,g(i,j)为f(i,j)的邻域灰度均值。其邻域灰度均值公式为:
再假设ffinal(i,j)为二值化后的值,由二维大津法得到的最佳阈值为(s0,t0),则手掌图像的二值化处理公式为:
其中Color.rgb(255,255,255)在Bitmap类中代表黑色,Color.rgb(0,0,0)代表白色。
最后对通过公式(3)得到的手掌图像二值化处理图像进行腐蚀处理,获得第一幅二值化的手掌图像。
通过这种方法得到一幅二值化的手掌图像,该图像能够清晰的展示出手部的整体轮廓,且手掌内部的空洞极少,但手掌外部(背景部分)也会分割出和手掌肤色相近的噪点,通过腐蚀后噪点消失,获得清晰的手掌轮廓。
步骤1-1-2,基于YCbCr的肤色分割法分割掌纹图像
对原始手掌图像进行YCbCr颜色空间转换,将图像由RGB空间变换到YCbCr空间中,消除光照对肤色的影响,将色度和亮度分离开,RGB向YCbCr空间转换的公式为:
最接近手掌肤色的Cb和Cr值是:
77≤Cb≤127,133≤Cr≤173
然后,根据高斯模型计算出YCbCr空间的手掌图像中每个像素点与肤色的相似度值。其中,高斯模型数学表达式为:
其中x=(Cb,Cr)T表示YCbCr空间的一个像素点。m表示此空间下的样本均值,C表示相似度的协方差。m和C分别为:
将上述参数m和C带入高斯模型公式(5)中,即可计算出每个像素点与肤色的相似度值,然后根据图像中的每个像素点与肤色的相似度值的实验统计,确定选取肤色相似度固定阈值是0.4。然后根据固定阈值进行手掌的二值化处理,如果阈值小于等于0.4,则把该点的像素设为白色,否则设为黑色,并进行腐蚀处理,得到第二幅二值化的手掌图像。
步骤1-1-3,对步骤1-1-1和步骤1-1-2得到的第一幅二值化的手掌图像和第二幅二值化的手掌图像进行逻辑“与”操作,得到第三个二值化的手掌图像,并采用16×16模板对其进行膨胀操作,得到最终的手掌分割图像。
串联融合法包括以下步骤:首先,将原始手掌图像从RGB颜色空间转化到YCbCr颜色空间;然后对YCbCr颜色空间的手掌图像的掌纹肤色进行统计,根据肤色模型计算肤色的相似度值,根据相似度值可以得到原始手掌图像的最大似然图;其次,用二维大津法对最大似然图选取最佳阈值(s0,t0);最后对手掌图像进行二值化。具体流程参照图3。
串联融合法具体按照以下步骤实施:
步骤1-2-1,依照公式(4)将原始手掌图像转化成YCbCr颜色空间的手掌图像。
步骤1-2-2,利用基于YCbCr的肤色分割法对原始手掌图像进行分割,得到原始手掌图像的最大似然图。
依照公式(5)计算出YCbCr空间的手掌图像中每个像素点与肤色的相似度值;然后根据手掌图像中的每个像素点与肤色的相似度值的数理统计结果,得到手掌图像的最大似然图;
步骤1-2-3,利用二维大津法对最大似然图选取最佳阈值(s0,t0),依照公式(3),给最佳阈值(s0,t0)一个松弛量Δ=10,将(s0-Δ,t0-Δ)作为是否对手掌图像进行二值化的判定条件,得到二值化后的手掌图像。手掌图像的二值化处理公式参照公式(3)。
如果阈值小于或等于(s0-Δ,t0-Δ),则把该点的像素设为白色,否则设为黑色;
步骤1-2-4,形态学处理:先采用16×16模板对二值化的手掌图像进行腐蚀操作。腐蚀去除了背景中被误判为手掌的部分,但由于手掌的大体形状遭到腐蚀,因此再采用16×16的模板将腐蚀后的图像膨胀,获得最终的手掌分割图像。
步骤2,掌纹预处理
对步骤1得到的手掌分割图像依次进行轮廓提取、关键点定位、手掌图像旋转矫正和感兴趣区域提取,具体按照以下步骤实施:
步骤2-1,轮廓提取
对步骤1得到的最终的手掌分割图像进行判定,若该点的四周都是黑色则设置该点为白色,得到如图4所示的手掌轮廓图像。
步骤2-2,关键点定位
本发明的关键点定位采用改进的直线拟合法,其具体步骤如下:
步骤2-2-1,将轮廓提取后的手掌图像按照从左到右、从上到下的顺序逐行逐个像素点进行扫描,直到横向扫描线与轮廓边界在同一条扫描线上有8个交点,且相邻两个交点纵坐标的差值大于10(防止两个交点是相邻像素点)时,停止扫描,记下其行号为j,分别记录这8个交点的横纵坐标值,并存入数组中。从左到右的一次编号为:A(i1,j)、B(i2,j)、C(i3,j)、D(i4,j)、E(i5,j)、F(i6,j)、G(i7,j)、H(i8,j),如图5(a)所示。
步骤2-2-2,在B(i2,j)和C(i3,j)两点之间找出一个轮廓点,此轮廓点距离扫描线最远,记为第一个指根点(关键点)P;从F(i6,j)点和G(i7,j)点两点的中点开始查找另外一个轮廓点,此点同样是距离扫描线最远,记为第二个指根点(关键点)Q。P和Q即为本次所找的两个关键点,如图5(b)所示。
步骤2-3,手掌图像旋转矫正
由步骤2-2所得出的关键点P和Q两点,按照公式(7)、(8)、(9)分别计算出中点O、P和Q两点连线的斜率k以及水平方向的夹角θ。其中P点的坐标为(x1,y1),Q点的坐标为(x2,y2),O点的坐标为(x0,y0)。
手掌图像旋转矫正的过程为:当k>0时,将手掌图像以O点为中心按顺时针方向旋转θ角度;当k<0时,将图像以O点为中心按逆时针旋转角度θ;如果斜率k=0,两个关键点处于同一条直线上,无需旋转,如图6所示。
步骤2-4,感兴趣区域提取
以步骤2-3得到旋转后的P和Q两点连线以及中点O垂线为坐标轴建立坐标系,以点O为相对坐标点,设PQ连线长度为L,距离PQ连线平行下延L/5处,以L为边长截取方形区域,经过缩放归一化裁剪出128×128的感兴趣区域(ROI),如图7所示。
步骤3,掌纹图像的最小化处理
对步骤2提取到的感兴趣区域进行最小化处理,其中包括小波分解和直方图均衡。具体按照以下步骤实施:
步骤3-1,小波分解
为满足手机上对掌纹图像特征提取的要求,在不影响掌纹主要特征条件下,尽量减少不必要的冗余信息。本发明利用高斯金字塔对掌纹的感兴趣区域图进行小波分解处理,将其由128×128变为32×32。
高斯金字塔是对图像分别进行高斯平滑滤波及下采样处理,进而获得的小波分解图。对由步骤2-4得到的128×128的感兴趣区域图进行两次高斯金字塔分解,得到32×32的感兴趣区域图像;
设由步骤2-4得到的128×128的感兴趣区域图为L0,首先是对128×128的感兴趣区域图进行高斯低通滤波处理、下采样处理,得到第一层掌纹图像;再对第一层掌纹图像用同样的方法进行处理得到第二层图像,以此类推,构成高斯金字塔,最后提取低频部分得到32×32的感兴趣区域图像;其中,高斯金字塔公式为:
其中,Ll(i,j)是图像经过第l次高斯金字塔分解的图像;L0(i,j)是感兴趣区域图;N是总层数;Cl是经过高斯金字塔分解后的第l层的列数;Rl是经过高斯金字塔分解后的第l层的行数;v(m,n)=h(m)×h(n)是一个窗函数,大小为5×5;
步骤3-2,直方图均衡
直方图均衡的过程就是将灰度图像的直方图分布通过变换转化为灰度均匀分布形式,形成新的灰度图像的过程。由于感兴趣区域图经过小波分解后,图像的有效特征点数明显减少了,有利于加快后期特征点的提取,但是图像的像素也减少了,造成了感兴趣区域图的纹理相对模糊,为了避免对后续的特征提取及识别的影响,对由步骤3-1得到的32×32的感兴趣区域图像进行直方图均衡处理,使掌纹纹线的细节变得清晰,并加强掌纹图像对比度。
步骤4,掌纹特征提取
本发明采用主成分分析PCA方法有效实现降维和特征提取,具体步骤为:
选取M张大小为m×n像素的掌纹图像作为训练样本,将每张图像按列展成(m×n)×1维的列向量ij,j=1,2,…,M,其对应的协方差矩阵为:
其中,
选出前k个最大特征值对应的特征向量u1,u2,...,uk构建投影子空间,k≤M,每幅掌纹图像在子空间中都对应一组变换系数;其变换过程为
fj=Upca Tij j=1,2,…,M (11)
其中Upca=[u1,u2,...,uk],fj为Ij的k维PCA变换的特征矩阵,j=1,2,…,M。
经过以上步骤,用户的掌纹信息即被提取成功。
步骤(6)中,用户进行验证时,提取成功的用户掌纹信息将与数据库中注册阶段储存的掌纹信息进行匹配,匹配采用最近邻分类法中的欧式距离法,欧式距离为:
其中,P=(p1,p2,...,pn),Q=(q1,q2,…,qn),P为由步骤2)或步骤5)所述掌纹特征提取得到的训练样本的掌纹特征矩阵fj,Q为由步骤2)或步骤5)所述掌纹特征提取得到的待识别样本的掌纹特征矩阵fj,n为特征向量维数;
设定阈值为1700,将得到的d(P,Q)与阈值进行比较,若d(P,Q)≤1700,则匹配成功,否则匹配失败。
身份验证是“一对一”的匹配,为了消除掌纹识别的误判,必须确认匹配成功的用户与个人标示信息是否对应,对应则确认支付,否则予以拒绝。同时将结果发送给手机。
实施例
本发明以程序安装的方式运行在小米M1智能手机上,其配置为:Android版本4.0.1,处理器为双核1.5GHz,RAM容量为1GB,ROM容量为4GB,最大支持的分辨率是2448×3264。该手机在现有的Android手机配置中属于最常见的配置,因此以该手机作为本发明的测试环境,具有普遍的代表性。
实验手掌图像为自采集图库,采用小米M1智能手机的后置CMOS摄像头采集,像素为800万。在采集手掌图像时,需被测者将手掌自然张开,大拇指的左边缘与手机屏幕的左边缘尽量重合,小拇指的右边缘尽量与手机屏幕的右边缘重合,采集时手掌与摄像头之间的距离大约为10-15cm。测试图库共包含300张手掌图像,来自30个人的手掌图像,分别采集每个人在不同光照和不同背景下的10张图像,图像大小为640×480。
本实施例分别对室外场景、室内场景及室内开启闪光三种场景下采集的手掌图像进行分割测试。
由于在室外光线较均匀,开启闪光与无闪光采集的手掌图像差距不大,因此选择室内闪光灯下的手掌图像进行了测试。其中,室外采集100幅手掌图像,室内采集100幅手掌图像,室内光线弱的情况下,开启闪光进行采集100幅手掌图像。对这300幅手掌图像分别采用四种方法进行手掌图像分割测试,这四种方法分别为:二维OTSU法、基于YCbCr的肤色分割法、两种方法并联融合法、两种方法串联融合法。
为了能合理的区分出手掌图像分割正确与否,本发明采用文献[马李成,基于手掌的身份认证系统研究[D].西安电子科技大学.2013.]中正确分割的判定依据:将四种场景的手掌图像分割后的二值化手掌图像进行轮廓提取及关键点定位,能准确的定位到两个关键点并提取出ROI区域,则认为此方法能够正确的分割出手掌,否则认为是分割错误。统计四种方法的正确提取数,比较四种方法对手掌图像分割的准确率。四种方法正确提取数的比较见表1。
表1 四种方法正确提取数的比较
针对300幅手掌图像的正确提取数的分析来看,本发明提出的两种融合分割方法比单独使用二维OTSU或基于YCbCr的肤色分割法时正确数目要高,性能更加优越。其中两种方法串联融合的方法在室外的正确分割率为82%,在室内无闪光灯正确分割率为89%,在室内开启闪光灯下正确分割率最高,已达到95%。而并联融合的方法中,在室外的正确分割率80%,在室内无闪光灯的正确分割率为85%,室内开启闪光灯下正确分割率最高,达到94%。由表1可知本发明提出的两种方法总体正确分割率相差不大,都是在室内闪光灯下正确分割率最高。同时,测试中发现二维大津法与基于YCbCr的肤色分割法并联融合的方法,对背景颜色相对偏暗的手掌图像分割正确率更高;而二维大津法与基于YCbCr的肤色分割法串联融合的方法,对背景颜色相对偏亮的手掌图像分割正确率更高。
本实施例将采集的手掌图像进行分类:将光线均匀,且背景偏浅的手掌图像划分为偏亮背景下的手掌图像;将背景较深的手掌图像划分为偏暗背景下的手掌图像,然后从两类手掌图像中各选取50幅手掌图像进行分割验证测试。两类背景下手掌图像正确提取数的比较结果如表2所示。
表2 两种背景下手掌图像正确提取数的比较
由表2可知,并联融合的方法对背景偏暗的手掌图像分割正确率较高;串联融合的方法对背景偏亮手掌图像正确分割率较高。
针对本发明采取的特征提取及识别方法验证实施例,是在小米M1智能手机上进行的测试,采集了30个人的手掌图像进行测试,其中每个人5幅手掌图像,共计150幅手掌图像,对每个人的手掌图像进行编号(名字+编号),选取每个人的任意3张手掌图像进行掌纹的注册,其余两张作为验证测试。注册训练的样本可有10种选取方法。各种训练样本验证时的正确识别率结果见表3。
表3 不同训练样本验证时的正确识别率
从表3可以得知,当训练样本为3时,平均正确识别率为93.75%。在系统的测试中,利用手机摄像头进行手掌实时采集的时间约为120ms,预处理时间平均为2863ms,注册掌纹平均训练时间为217ms,平均识别时间为29ms。均在用户可接受的时间范围内,因此本发明具有很好的实用性。
本发明以上描述只是部分实施例,但是本发明并不局限于上述实施例。上述实施例是示意性的,并不是限制性的。凡是采用本发明的方法,在不脱离本发明宗旨和权利要求所保护的范围情况下,所有具体拓展均属本发明的保护范围之内。
Claims (7)
1.一种掌纹识别的移动支付验证方法,其特征在于,包括以下步骤:
步骤一、注册阶段
步骤1),录入用户的个人标示信息,并利用手机自带的后置摄像头采集用户的原始手掌图像;
步骤2),依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息;
步骤3),将用户的掌纹信息和个人标识信息上传储存到验证服务器的数据库中,完成注册;
步骤二、验证阶段
步骤4),利用手机自带的后置摄像头采集用户的原始手掌图像;
步骤5),依次经过手掌图像分割、掌纹预处理、掌纹图像的最小化处理和掌纹特征提取四个步骤提取用户的掌纹信息;
步骤6),将用户的掌纹信息上传到验证服务器,并与数据库中注册阶段储存的掌纹信息进行匹配,若匹配成功,且与个人标示信息对应,则允许支付;若匹配失败,无论是否与个人标示信息对应,都拒绝支付,同时将结果发送给手机。
2.根据权利要求1所述的掌纹识别的移动支付验证方法,其特征在于,所述步骤2)或步骤5)具体按照以下子步骤实施:
步骤1,手掌图像分割
手掌图像分割采用二维大津法和基于YCbCr的肤色分割法并联融合法,或二维大津法和基于YCbCr的肤色分割法串联融合法;
二维大津法和基于YCbCr的肤色分割法并联融合法包括以下步骤:首先利用二维大津法对原始手掌图像进行分割,得到第一幅二值化的手掌图像;再利用基于YCbCr的肤色分割法对原始手掌图像进行分割,得到第二幅二值化的手掌图像;然后对这两幅二值化的手掌图像实现逻辑“与”操作,得到第三幅二值化的手掌图像,对第三幅二值化手掌图像进行形态学处理,获得最终的手掌分割图像;
二维大津法和基于YCbCr的肤色分割法串联融合法包括以下步骤:首先,将原始手掌图像从RGB颜色空间转化到YCbCr颜色空间;然后利用基于YCbCr的肤色分割法对原始手掌图像进行分割,得到原始手掌图像的最大似然图;其次,用二维大津法对最大似然图选取最佳阈值;最后对最大似然图进行二值化处理并进行形态学处理,获得最终的手掌分割图像;
步骤2,掌纹预处理
掌纹预处理包括轮廓提取、关键点定位、手掌图像旋转矫正和感兴趣区域提取,具体按照以下步骤实施:
步骤2-1,轮廓提取
对由步骤1得到的最终的手掌分割图像进行判定,若该点的四周都是黑色则设置该点为白色,得到手掌轮廓图像;
步骤2-2,关键点定位
关键点定位采用改进的直线拟合法,其具体步骤如下:
步骤2-2-1,将步骤2-1得到的手掌轮廓图像按照从左到右、从上到下的顺序逐行逐个像素点进行扫描,直到横向扫描线与轮廓边界在同一条扫描线上有8个交点,且相邻两个交点纵坐标的差值大于10时,停止扫描,记下其行号为j,分别记录这8个交点的横纵坐标值,并存入数组中;从左到右的一次编号为:A(i1,j)、B(i2,j)、C(i3,j)、D(i4,j)、E(i5,j)、F(i6,j)、G(i7,j)、H(i8,j);
步骤2-2-2,在B(i2,j)和C(i3,j)两点之间找出一个轮廓点,此轮廓点距离扫描线最远,记为第一个指根点P;从F(i6,j)点和G(i7,j)点两点的中点开始查找另外一个轮廓点,此点同样是距离扫描线最远,记为第二个指根点Q;P和Q即为两个关键点;
步骤2-3,手掌图像旋转矫正
根据步骤2-2得到的P和Q两点连线的斜率k,对手掌图像进行旋转矫正,直至斜率k为0;
步骤2-4,感兴趣区域提取
以步骤2-3得到旋转后的P和Q两点连线以及中点O垂线为坐标轴建立坐标系,以点O为相对坐标点,设PQ连线长度为L,距离PQ连线平行下延L/5处,以L为边长截取方形区域,经过缩放归一化裁剪出128×128的感兴趣区域图;
步骤3,掌纹图像的最小化处理
掌纹图像的最小化处理包括小波分解和直方图均衡,具体按照以下步骤实施:
步骤3-1,小波分解
对由步骤2-4得到的128×128的感兴趣区域图进行两次高斯金字塔分解,得到32×32的感兴趣区域图像;
步骤3-2,直方图均衡
对由步骤3-1得到的32×32的感兴趣区域图像进行直方图均衡处理,得到对比度清晰的最小化掌纹图像;
步骤4,掌纹特征提取
采用主成分分析PCA法提取,得到掌纹特征矩阵fj。
3.根据权利要求2所述的掌纹识别的移动支付验证方法,其特征在于,步骤1所述二维大津法和基于YCbCr的肤色分割法并联融合法具体按照以下步骤实施:
步骤1-1-1,基于二维大津法分割掌纹图像
首先,对原始手掌图像进行灰度化处理;
然后,假设灰度图像中的一个像素点为f(i,j),该点的灰度领域取大小为h×h,g(i,j)为f(i,j)的邻域灰度均值;
再假设ffinal(i,j)为二值化处理后的值,由二维大津法得到的最佳阈值为(s0,t0),则手掌图像的二值化处理公式为
其中Color.rgb(255,255,255)在Bitmap类中代表黑色,Color.rgb(0,0,0)代表白色;
最后对通过公式(3)得到的手掌图像二值化处理图像进行腐蚀,获得第一幅二值化的手掌图像;
步骤1-1-2,基于YCbCr的肤色分割法分割掌纹图像
首先,对原始手掌图像进行YCbCr颜色空间转换;RGB向YCbCr空间转换的公式为:
确定最接近手掌肤色的Cb和Cr值是
77≤Cb≤127,133≤Cr≤173
然后,根据高斯模型计算出YCbCr空间的手掌图像中每个像素点与肤色的相似度值;其中,高斯模型数学表达式为
其中,x=(Cb,Cr)T表示YCbCr空间的一个像素点,m表示此空间下的样本均值,C表示相似度的协方差;m和C分别为
m=[110.0857 156.1626]
其次,根据手掌图像中的每个像素点与肤色的相似度值的数理统计结果,确定选取肤色相似度固定阈值是0.4;
最后,根据固定阈值进行手掌图像的二值化处理,如果阈值小于或等于0.4,则把该点的像素设为白色,否则设为黑色;并进行腐蚀处理,得到第二幅二值化的手掌图像;
步骤1-1-3,并联操作
对第一幅二值化的手掌图像和第二幅二值化的手掌图像进行逻辑“与”操作,得到第三幅二值化的手掌图像,并采用16×16模板对第三幅二值化的手掌图像进行膨胀操作,得到最终的手掌分割图像。
4.根据权利要求2所述的掌纹识别的移动支付验证方法,其特征在于,步骤1所述二维大津法和基于YCbCr的肤色分割法串联融合法具体按照以下步骤实施:
步骤1-2-1,将原始手掌图像转化成YCbCr颜色空间的手掌图像;RGB向YCbCr空间转换的公式为:
确定最接近手掌肤色的Cb和Cr值是
77≤Cb≤127,133≤Cr≤173
步骤1-2-2,基于YCbCr的肤色分割法分割掌纹图像
根据高斯模型计算出YCbCr空间的手掌图像中每个像素点与肤色的相似度值;其中,高斯模型数学表达式为
其中,x=(Cb,Cr)T表示YCbCr空间的一个像素点,m表示此空间下的样本均值,C表示相似度的协方差;m和C分别为
m=[110.0857 156.1626]
根据手掌图像中的每个像素点与肤色的相似度值的数理统计结果,得到手掌图像的最大似然图;
步骤1-2-3,利用二维大津法对手掌图像的最大似然图选取最佳阈值(s0,t0),给最佳阈值(s0,t0)一个松弛量Δ=10,将(s0-Δ,t0-Δ)作为是否对手掌图像进行二值化的判定条件,得到二值化的手掌图像;
手掌图像的二值化处理公式为
其中Color.rgb(255,255,255)在Bitmap类中代表黑色,Color.rgb(0,0,0)代表白色;
如果阈值小于或等于(s0-Δ,t0-Δ),则把该点的像素设为白色,否则设为黑色;
步骤1-2-4,形态学处理:先采用16×16模板对二值化的手掌图像进行腐蚀操作,再采用16×16的模板将腐蚀后的图像膨胀,获得最终的手掌分割图像。
5.根据权利要求2所述的掌纹识别的移动支付验证方法,其特征在于,步骤3-1所述的小波分解具体按照以下步骤实施:
设由步骤2-4得到的128×128的感兴趣区域图为L0,首先是对128×128的感兴趣区域图进行高斯低通滤波、下采样处理,得到第一层掌纹图像;再对第一层掌纹图像用同样的方法进行处理得到第二层图像,以此类推,构成高斯金字塔,最后提取低频部分得到32×32的感兴趣区域图像;其中,高斯金字塔公式为:
其中,Ll(i,j)是图像经过第l次高斯金字塔分解的图像;L0(i,j)是感兴趣区域图;N是总层数;Cl是经过高斯金字塔分解后的第l层的列数;Rl是经过高斯金字塔分解后的第l层的行数;v(m,n)=h(m)×h(n)是一个窗函数,大小为5×5。
6.根据权利要求2所述的掌纹识别的移动支付验证方法,其特征在于,步骤4所述掌纹特征提取具体按照以下步骤实施:
选取M张由步骤3-2得到的最小化掌纹图像作为样本,最小化掌纹图像大小为m×n像素,将每张最小化掌纹图像按列展成(m×n)×1维的列向量ij,j=1,2,…,M,其对应的协方差矩阵为:
其中,
选出前k个最大特征值对应的特征向量u1,u2,...,uk构建投影子空间,k≤M,每幅最小化掌纹图像在子空间中都对应一组变换系数;其变换过程为:
fj=Upca Tij j=1,2,…,M (11)
其中Upca=[u1,u2,...,uk],fj为ij的k维PCA变换的掌纹特征矩阵,j=1,2,…,M。
7.根据权利要求1所述的掌纹识别的移动支付验证方法,其特征在于,步骤3)或步骤6)中所述的匹配采用最近邻分类法中的欧式距离法,欧式距离为:
其中,P=(p1,p2,...,pn),Q=(q1,q2,…,qn),P为注册阶段的手掌图像经步骤2)后得到的掌纹特征矩阵fj,Q为验证阶段的手掌图像经步骤5)后得到的掌纹特征矩阵fj,n为特征向量维数;
设定阈值为1700,将得到的d(P,Q)与阈值进行比较,若d(P,Q)≤1700,则匹配成功,否则匹配失败。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510309022.0A CN104951940B (zh) | 2015-06-05 | 2015-06-05 | 一种基于掌纹识别的移动支付验证方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510309022.0A CN104951940B (zh) | 2015-06-05 | 2015-06-05 | 一种基于掌纹识别的移动支付验证方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104951940A true CN104951940A (zh) | 2015-09-30 |
CN104951940B CN104951940B (zh) | 2018-07-03 |
Family
ID=54166576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510309022.0A Active CN104951940B (zh) | 2015-06-05 | 2015-06-05 | 一种基于掌纹识别的移动支付验证方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104951940B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335853A (zh) * | 2015-10-26 | 2016-02-17 | 惠州Tcl移动通信有限公司 | 一种基于掌纹识别的移动终端支付方法、系统及移动终端 |
CN105938549A (zh) * | 2016-06-08 | 2016-09-14 | 大连民族大学 | 掌纹识别中的掌纹roi分割方法 |
CN106096370A (zh) * | 2016-06-18 | 2016-11-09 | 上海市数字证书认证中心有限公司 | 一种双点辅助定位的移动终端掌纹认证方法 |
CN106845388A (zh) * | 2017-01-18 | 2017-06-13 | 北京交通大学 | 基于复杂场景的移动终端掌纹感兴趣区域的提取方法 |
CN108133374A (zh) * | 2018-01-10 | 2018-06-08 | 深圳市鑫汇达机械设计有限公司 | 一种移动支付验证系统 |
WO2018121552A1 (zh) * | 2016-12-29 | 2018-07-05 | 北京奇虎科技有限公司 | 基于掌纹数据的业务处理方法、装置、程序及介质 |
CN108288388A (zh) * | 2018-01-30 | 2018-07-17 | 深圳源广安智能科技有限公司 | 一种智能交通监控系统 |
CN109313709A (zh) * | 2017-12-29 | 2019-02-05 | 深圳配天智能技术研究院有限公司 | 一种相似度的度量方法、装置及存储装置 |
CN110427826A (zh) * | 2019-07-04 | 2019-11-08 | 深兰科技(上海)有限公司 | 一种手掌识别方法、装置、电子设备及存储介质 |
CN111259757A (zh) * | 2020-01-13 | 2020-06-09 | 支付宝实验室(新加坡)有限公司 | 一种基于图像的活体识别方法、装置及设备 |
CN111340815A (zh) * | 2020-03-09 | 2020-06-26 | 电子科技大学 | 一种基于大津法与k均值法的自适应图像分割方法 |
CN111753804A (zh) * | 2020-07-07 | 2020-10-09 | 深兰盛视科技(苏州)有限公司 | 一种识别装置、采集装置、扣费装置及用于公共交通的非接触式生物识别系统 |
CN117037222A (zh) * | 2023-10-08 | 2023-11-10 | 之江实验室 | 基于毫米波雷达的掌纹识别系统及其识别方法 |
CN117350737A (zh) * | 2023-11-29 | 2024-01-05 | 深圳市盛思达通讯技术有限公司 | 一种基于掌纹识别的支付方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0935221A3 (en) * | 1998-02-05 | 2000-02-02 | Mitsubishi Denki Kabushiki Kaisha | Remote authentication system |
CN1971582A (zh) * | 2005-11-24 | 2007-05-30 | 中国科学院自动化研究所 | 一种基于掌纹图像识别的身份鉴别方法 |
CN101819631A (zh) * | 2010-04-16 | 2010-09-01 | 深圳大学 | 一种身份识别方法和身份识别系统 |
CN102385766A (zh) * | 2011-06-23 | 2012-03-21 | 哈尔滨工业大学深圳研究生院 | 基于掌纹的认证开锁方法、终端及系统 |
US8539569B2 (en) * | 2009-12-09 | 2013-09-17 | Ebay Inc. | Systems and methods for facilitating user authentication over a network |
CN103793642A (zh) * | 2014-03-03 | 2014-05-14 | 哈尔滨工业大学 | 移动互联网掌纹身份认证方法 |
-
2015
- 2015-06-05 CN CN201510309022.0A patent/CN104951940B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0935221A3 (en) * | 1998-02-05 | 2000-02-02 | Mitsubishi Denki Kabushiki Kaisha | Remote authentication system |
CN1971582A (zh) * | 2005-11-24 | 2007-05-30 | 中国科学院自动化研究所 | 一种基于掌纹图像识别的身份鉴别方法 |
US8539569B2 (en) * | 2009-12-09 | 2013-09-17 | Ebay Inc. | Systems and methods for facilitating user authentication over a network |
CN101819631A (zh) * | 2010-04-16 | 2010-09-01 | 深圳大学 | 一种身份识别方法和身份识别系统 |
CN102385766A (zh) * | 2011-06-23 | 2012-03-21 | 哈尔滨工业大学深圳研究生院 | 基于掌纹的认证开锁方法、终端及系统 |
CN103793642A (zh) * | 2014-03-03 | 2014-05-14 | 哈尔滨工业大学 | 移动互联网掌纹身份认证方法 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335853A (zh) * | 2015-10-26 | 2016-02-17 | 惠州Tcl移动通信有限公司 | 一种基于掌纹识别的移动终端支付方法、系统及移动终端 |
CN109376708A (zh) * | 2016-06-08 | 2019-02-22 | 大连民族大学 | 提取roi的方法 |
CN109583398A (zh) * | 2016-06-08 | 2019-04-05 | 大连民族大学 | 基于手形和掌纹的多模态生物识别方法 |
CN109376708B (zh) * | 2016-06-08 | 2021-11-26 | 大连民族大学 | 提取roi的方法 |
CN109583398B (zh) * | 2016-06-08 | 2022-11-15 | 大连民族大学 | 基于手形和掌纹的多模态生物识别方法 |
CN109460746A (zh) * | 2016-06-08 | 2019-03-12 | 大连民族大学 | 掌纹roi的分隔方法 |
CN105938549A (zh) * | 2016-06-08 | 2016-09-14 | 大连民族大学 | 掌纹识别中的掌纹roi分割方法 |
CN109460746B (zh) * | 2016-06-08 | 2021-11-26 | 大连民族大学 | 掌纹roi的分隔方法 |
CN105938549B (zh) * | 2016-06-08 | 2019-02-12 | 大连民族大学 | 掌纹识别中的掌纹roi分割方法 |
CN106096370A (zh) * | 2016-06-18 | 2016-11-09 | 上海市数字证书认证中心有限公司 | 一种双点辅助定位的移动终端掌纹认证方法 |
WO2018121552A1 (zh) * | 2016-12-29 | 2018-07-05 | 北京奇虎科技有限公司 | 基于掌纹数据的业务处理方法、装置、程序及介质 |
CN106845388B (zh) * | 2017-01-18 | 2020-04-14 | 北京交通大学 | 基于复杂场景的移动终端掌纹感兴趣区域的提取方法 |
CN106845388A (zh) * | 2017-01-18 | 2017-06-13 | 北京交通大学 | 基于复杂场景的移动终端掌纹感兴趣区域的提取方法 |
CN109313709A (zh) * | 2017-12-29 | 2019-02-05 | 深圳配天智能技术研究院有限公司 | 一种相似度的度量方法、装置及存储装置 |
CN108133374A (zh) * | 2018-01-10 | 2018-06-08 | 深圳市鑫汇达机械设计有限公司 | 一种移动支付验证系统 |
CN108288388A (zh) * | 2018-01-30 | 2018-07-17 | 深圳源广安智能科技有限公司 | 一种智能交通监控系统 |
CN110427826B (zh) * | 2019-07-04 | 2022-03-15 | 深兰科技(上海)有限公司 | 一种手掌识别方法、装置、电子设备及存储介质 |
CN110427826A (zh) * | 2019-07-04 | 2019-11-08 | 深兰科技(上海)有限公司 | 一种手掌识别方法、装置、电子设备及存储介质 |
CN111259757A (zh) * | 2020-01-13 | 2020-06-09 | 支付宝实验室(新加坡)有限公司 | 一种基于图像的活体识别方法、装置及设备 |
CN111259757B (zh) * | 2020-01-13 | 2023-06-20 | 支付宝实验室(新加坡)有限公司 | 一种基于图像的活体识别方法、装置及设备 |
CN111340815A (zh) * | 2020-03-09 | 2020-06-26 | 电子科技大学 | 一种基于大津法与k均值法的自适应图像分割方法 |
CN111753804A (zh) * | 2020-07-07 | 2020-10-09 | 深兰盛视科技(苏州)有限公司 | 一种识别装置、采集装置、扣费装置及用于公共交通的非接触式生物识别系统 |
CN117037222A (zh) * | 2023-10-08 | 2023-11-10 | 之江实验室 | 基于毫米波雷达的掌纹识别系统及其识别方法 |
CN117037222B (zh) * | 2023-10-08 | 2024-01-09 | 之江实验室 | 基于毫米波雷达的掌纹识别系统及其识别方法 |
CN117350737A (zh) * | 2023-11-29 | 2024-01-05 | 深圳市盛思达通讯技术有限公司 | 一种基于掌纹识别的支付方法及系统 |
CN117350737B (zh) * | 2023-11-29 | 2024-05-14 | 深圳市盛思达通讯技术有限公司 | 一种基于掌纹识别的支付方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104951940B (zh) | 2018-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104951940B (zh) | 一种基于掌纹识别的移动支付验证方法 | |
US20220215686A1 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
CN106529468B (zh) | 一种基于卷积神经网络的手指静脉识别方法及系统 | |
AU2017370720B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
AU2016214084B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
Sun et al. | Improving iris recognition accuracy via cascaded classifiers | |
Kumar et al. | Palmprint identification using palmcodes | |
CN111126240B (zh) | 一种三通道特征融合人脸识别方法 | |
Hambalık | Fingerprint recognition system using artificial neural network as feature extractor: design and performance evaluation | |
CN111259756A (zh) | 基于局部高频次特征和混合度量学习的行人重识别方法 | |
Wild et al. | Comparative test of smartphone finger photo vs. touch-based cross-sensor fingerprint recognition | |
CN111339932B (zh) | 一种掌纹图像预处理方法和系统 | |
Paul et al. | Rotation invariant multiview face detection using skin color regressive model and support vector regression | |
Tiwari et al. | A palmprint based recognition system for smartphone | |
El-Naggar et al. | Which dataset is this iris image from? | |
Ribarić et al. | Personal recognition based on the Gabor features of colour palmprint images | |
CN116665254A (zh) | 基于手形语义先验和ViT的非接触式掌纹识别方法 | |
Jin et al. | Fingerprint identification and recognition using backpropagation neural network | |
Xu et al. | A fully automated latent fingerprint matcher with embedded self-learning segmentation module | |
Shukla et al. | Comparison of Face Recognition algorithms & its subsequent impact on side face | |
CN115130082B (zh) | 一种用于加固计算机的智能感知与安全控制方法 | |
Song et al. | A survey of visible iris recognition | |
Talele et al. | Study of local binary pattern for partial fingerprint identification | |
Gundgurti et al. | An Effective Finger-Print Validation and Identification Using A-KAZE and SURF Algorithm. | |
Hrudaya et al. | Image processing based off-line signature recognition and verification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20190305 Address after: 710000 5/F, Building C, Huanpu Industrial Park, 211 Tiangu Eighth Road, Xi'an High-tech Zone, Shaanxi Province Patentee after: XI'AN YIPU COMMUNICATION TECHNOLOGY CO., LTD. Address before: 710048 No. 5 Jinhua South Road, Shaanxi, Xi'an Patentee before: Xi'an University of Technology |