CN105550677B - 一种3d掌纹认证方法 - Google Patents

一种3d掌纹认证方法 Download PDF

Info

Publication number
CN105550677B
CN105550677B CN201610074161.4A CN201610074161A CN105550677B CN 105550677 B CN105550677 B CN 105550677B CN 201610074161 A CN201610074161 A CN 201610074161A CN 105550677 B CN105550677 B CN 105550677B
Authority
CN
China
Prior art keywords
image
class
palmprint
images
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610074161.4A
Other languages
English (en)
Other versions
CN105550677A (zh
Inventor
刘明
苗荣凡
刘秀玲
娄存广
王光磊
刘晓光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University
Original Assignee
Hebei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University filed Critical Hebei University
Priority to CN201610074161.4A priority Critical patent/CN105550677B/zh
Publication of CN105550677A publication Critical patent/CN105550677A/zh
Application granted granted Critical
Publication of CN105550677B publication Critical patent/CN105550677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种3D掌纹认证方法,该方法是先对3D掌纹进行预处理,变为一维图像,然后计算类内图相对和类间图相对的相干系数并作为新样本,使用新样本对堆栈式降噪自动编码机进行训练,提取到新样本特征,并得到训练好的降噪自动编码机;然后基于real adaboost算法和前一步骤提取到的新样本特征训练若干弱分类器,这些弱分类器的组合构成强分类器;然后用户输入一幅新的3D掌纹图像,与样本库预存的该用户的3D掌纹图像进行比对,判断它们属于同类还是异类。本发明方法实现简单、快速,采用相干算法来计算图像间的一致性,判别他们是否为同一用户的数据样本,解决了掌纹图像较小的平移问题及配准算法需要寻找定位信息的难题,具有较好的鲁棒性。

Description

一种3D掌纹认证方法
技术领域
本发明涉及掌纹识别技术,具体的说是一种3D掌纹认证方法。
背景技术
掌纹识别是一种重要的生物特征识别技术,掌纹图像中包含丰富的线特征和纹理特征,使其在身份认证中具有极高的应用价值。但是传统的2D掌纹识别技术存在一些难以妥善解决的问题:(1)2D掌纹容易受到光照变化、皮肤表面涂抹物等因素的干扰。(2)手指姿态变化引起的图像特征的变化。(3)现有的特征提取方法难以充分利用图像中的有用信息。最近,香港理工大学的张大鹏等提出三维掌纹识别技术,能够有效克服光照变化的干扰,但是其他两个问题仍然存在。3D掌纹在识别过程中仍然需要对图像进行配准,然后提取特征并计算被识别样本与数据库中模板的匹配分数。配准算法存在一定的误差,而其后的特征提取和识别过程可能因为配准误差而失败。图像配准是图像处理研究领域中的一个典型问题和技术难点,对于两幅图像,通过寻找一种空间变换把一幅图像映射到另一幅图像,使两图中对应于空间同一位置的点一一对应起来。因此,图像配准计算复杂,实现难度大。现有的三维掌纹识别方法主要包括线特征提取方法和纹理特征提取方法。这些方法在采用Gabor变换等方法增强掌纹的线特征或纹理特征后,将掌纹图像转化为特征图像。由于掌纹图像中一部分线特征和纹理特征是稳定的,可用来进行身份识别。而另一部分线特征和纹理特征是不稳定的,对识别构成干扰,而传统的掌纹识别技术难以区分这两类特征。
发明内容
本发明的目的是提供一种新的3D掌纹的认证方法,以解决目前已有方法难以充分利用掌纹图像中的有用信息进行掌纹认证识别的问题。
本发明的目的是这样实现的:
一种3D掌纹的认证方法,其包括以下步骤:
1)、计算样本库中的每一张3D掌纹图像的均值曲率,获得均值曲率图像,然后对所获得的均值曲率图像进行归一化处理,再进行灰度化,得到灰度图像;
所述样本库采集自300~500个不同的手掌,每个手掌采集图像数为10~20;
另外,以每个手掌为一个用户,对样本库中的每一个用户的任意一张3D掌纹图像另外进行预存;
2)、从所得灰度图像中抽取类内图像对和类间图像对,然后将抽取的类内图像对和类间图像对的所有灰度图像先进行一维变化,再采用幅值平方相干函数计算每个图像对的两个图像信号之间的相干系数并设置类标签,以所得带有标签的相干系数作为新样本;
其中,类内图像对的两个图像信号的相干系数的类标签设置为类内,类间图像对的两个图像信号的相干系数的类标签设置为类间;类内图像对即来自同一手掌的两个图像信号,类间图像对即来自不同手掌的两个图像信号;
3)、使用新样本对堆栈式降噪自动编码机进行训练,提取到新样本特征,形成新的样本集,并得到训练好的降噪自动编码机;
4)、基于real adaboost算法和步骤3)提取到的新样本特征所形成的新的样本集训练若干弱分类器,这些弱分类器的组合构成强分类器;
5)、认证:用户输入一幅新的3D掌纹图像,与预存的该用户的3D掌纹图像进行比对,判断它们属于同类还是异类,具体为:
首先分别计算这两幅3D掌纹图像的均值曲率,获得均值曲率图像,然后进行归一化处理,再进行灰度化,得到两幅灰度图像;然后将所得灰度图像进行一维变化;采用幅值平方相干函数计算进行一维变化后的两幅灰度图像的图像信号的相干系数,然后以该相干系数作为输入,采用步骤3)所得训练好的降噪自动编码机提取特征,然后利用步骤4)训练好的强分类器对提取到的特征进行分类,完成对该用户输入的新的3D掌纹图像的认证。
本发明的技术思路是:身份认证只需要判断两幅图像是否为同一用户的数据,为二分类问题,为此,仅需计算两幅图像的一致性,并在此基础上设计分类器。本发明采用相干算法估计两幅掌纹图像的一致性,然后采用降噪自动编码机提取数据的更深层特征,最后应用real adaboost分类器确定测试的两幅图像是属于同类还是异类。
本发明方法实现简单、快速,没有采用常规的掌纹纹理特征匹配算法,而是采用相干算法来计算图像间的一致性,并在此基础上判别他们是否为同一用户的数据样本,解决了掌纹图像较小的平移问题及配准算法需要寻找定位信息的难题,具有较好的鲁棒性。应用深度学习的降噪自动编码机提取特征和降维,使模型具有处理噪声的能力,进而得到更高的准确率。
附图说明
图1是本发明实现流程图。
图2是第100类掌纹-Ⅰ、100类掌纹-Ⅱ和101类掌纹-Ⅰ的3D掌纹图像。
图3是第100类掌纹-Ⅰ、100类掌纹-Ⅱ和101类掌纹-Ⅰ的3D掌纹图像的灰度图像。
图4是第100类掌纹-Ⅰ和100类掌纹-Ⅱ的相干运算结果。
图5是第100类掌纹-Ⅰ和101类掌纹-Ⅰ的相干运算结果。
图6是第100类掌纹-Ⅰ和100类掌纹-Ⅱ、第100类掌纹-Ⅰ和101类掌纹-Ⅰ的部分相干系数实例。
图7是第100类掌纹-Ⅰ和第100类掌纹-Ⅱ的相干系数经降噪自动编码机提取到的特征。
图8是第100类掌纹-Ⅰ和第101类掌纹-Ⅰ的相干系数经降噪自动编码机提取到的特征。
图9是Real adaboost分类器的ROC曲线。
具体实施方式
下面按照图1所示的流程对本发明进行详细说明。
1)、数据预处理
本实施例所采用的样本库来自于采用香港理工大学,样本库中的样本为4000张3D掌纹图像(200人×2只手/人×10张3D掌纹/只手),以每只手(即一个用户)的3D掌纹图像为1类,则该样本库包含400类共400个用户的3D掌纹图像,如下:
其中,X表示一个3D掌纹图像,其下标表示在同类样本中的排序,其上标表示样本的类别排序。
另外,从上述每一个用户的10张3D掌纹图像中任选一幅,另外进行预存。
1.1)、通过计算曲率特征来实现3D图像平面化:
根据微分几何知识,设曲面S(即3D掌纹图像,如图2)的方程式表达式为X(u,ν)=(u,v,f(u,v))。这里u为三维图像中连续横坐标,v为三维图像中连续纵坐标,f表示深度。
则该3D掌纹图像的均值曲率为:
式中,H表示连续的3D掌纹图像的均值曲率,fu,fv是f(u,v)的一阶偏导,fuv,fuu,fvv是f(u,v)的二阶偏导。实际运算中将H离散化,得到一副离散的均值曲率图像C(i,j),i,j分别为离散图像中横坐标和纵坐标。
本步骤详细计算过程按照现有常规方法进行计算即可,也可参照文献Zhang D,LuG,Li W,et al.Palmprint Recognition Using 3-D Information.[J].IEEETransactions on Systems Man & Cybernetics Part C,2009,39(5):505-519.。
1.2)、对均值曲率图像C(i,j)进行归一化处理,得到归一化处理后的图像
式中,是均值曲率图像C(i,j)的均值,是均值曲率图像C(i,j)的标准差,m,n分别为图像横坐标和纵坐标的最大值。
1.3)、然后将归一化处理后的图像变换为灰度图像G(i,j)(如图3):
所得灰度图像G(i,j)的大小为[128,128]。
2)、抽取类内图像对和类间图像对,进行相干运算,生成新样本
2.1)、按如下规则抽取图像对:
类内图像对(即来自于同一手掌的两幅图像)抽取规则为:
其中,l表示样本类别,l取值为1~400之间的整数;
类间图像对(即来自于不同手掌的两幅图像)抽取规则为:
其中,l和k表示样本类别,l和k取值为1~400间的整数,且l≠k;
按以上规则,可得4000个类内图像对以及1596000个类间图像对,对于所得1596000个类间图相对,随机选取其中4000个图像对进行下一步运算。
2.2)、将步骤2.1)所选取的所有灰度图像通过一维变化为1*16384大小,然后计算每个图像对内的两幅图像信号的相干系数并设置标签,将这个带有标签的相干系数当作新样本,具体为:
本发明中,计算幅值平方相干函数采用韦尔奇方法,并采取50%的重叠和长度为3640的汉明窗,做FFT点数为3640,具体的:
采用幅值平方相干函数(MSCF)计算由步骤2.1)得到的图像对中两幅图像信号间的相干系数。这里x(t)与y(t)分别表示图像对中的两幅图像一维化后得到的信号,1<t<16384为一维离散坐标,Gxy(f)为信号x(t)和y(t)间的互功率谱密度;Gxx(f)和Gyy(f)分别为信号x(t)和y(t)的自功率谱密度。
将类内图像对中两个图像信号进行相干运算所得相干系数设置类标签为类内,将类间图像对中的两个图像信号进行相干运算所得相干系数设置类标签为类间,计算所得每个新样本(即每个图像对的两个图像信号的相干系数)为1821维向量。
经过本步骤的计算,得到包含8000个新样本的新样本库。
相干运算的结果如图4和图5所示。图4为第100类的来自于同一只手掌不同时刻采集的掌纹(第100类掌纹-Ⅰ和第100类掌纹-Ⅱ)的相干谱。图5为第100类和第101类的来自于不同手掌的采集的掌纹(第100类掌纹-Ⅰ和第101类掌纹-Ⅰ)的相干谱。两图对比以及图6所示结果都可以明显可以看出同类掌纹的相干度明显大于不同类。
3)、使用新样本对堆栈式降噪自动编码机进行训练,提取到新样本特征,并得到由新样本训练好的降噪自动编码机,所提取到的新样本特征形成新的样本集。
本步所用堆栈式降噪自动编码机由第一降噪自动编码机和第二降噪自动编码机构成,第一降噪自动编码机和第二降噪自动编码机均分别由输入层、隐藏层和输出层构成(第一降噪自动编码机每层的网络节点数分别为1821、1200、1821;第二降噪自动编码机每层的网络节点数分别为1200、800、1200)。
降噪自动编码机使用过程按照现有常规算法进行计算即可,可参照文献VincentP,Larochelle H,Bengio Y,et al.Extracting and composing robust features withdenoising autoencoders[C],Proceedings of the 25th international conference onMachine learning.ACM,2008:1096-1103.,本发明中具体过程为:
3.1)、对第一降噪自动编码机进行训练:
3.1.1)、以30%的概率随机给第一降噪自动编码机加入噪声(即使其输入层节点的值置0),然后输入信号x(此处输入信号x即为步骤2)所得新样本库中的样本信号),编码过程为:y=f(x)=sigmoid(W1x+b1),其中,W1是输入层到编码层的权重矩阵,b1为偏移向量;
3.1.2)、解码过程为:y′=f′(y)=sigmoid(W1′y+b1′),其中,W1′是编码层到解码层的权重矩阵,b1′为偏移向量;
3.1.3)、误差重构过程是:
设参数θ1={W1,b1},参数θ1′={W1′,b1′},对θ1和θ1′进行优化,其目标函数为:
其中,θ1 *={W1 *,b1 *},θ1*={W1*,b1*}分别为通过误差重构对θ1和θ1′参数进行更新得到的最终参数,L(x,y′)为代价函数。
第一降噪自动编码机训练好后,隐藏层数据作为第二降噪自动编码机的输入,即第二降噪自动编码机输入为:x′=sigmoid(W1 *x+b1 *)。
3.2)、将训练好的第一降噪自动编码机的隐藏层作为第二降噪自动编码机的输入层,对第二降噪自动编码机进行训练:
3.2.1)、以30%的概率随机给第二降噪自动编码机加入噪声(即使其输入层节点的值置0),然后输入x′,编码过程为:z=f(x′)=sigmoid(W2x′+b2),W2是输入层到编码层的权重矩阵,b2为偏移向量;
3.2.2)、解码过程为:z′=f′(z)=sigmoid(W2′z+b2′),W2′是编码层到解码层的权重矩阵,b2′为偏移向量;
3.2.3)、误差重构过程是:
设参数θ2={W2,b2},参数θ2′={W2′,b2′},对θ2和θ2′进行优化,其目标函数为:
其中,θ2 *={W2 *,b2 *},θ2*={W2*,b2*}分别为通过误差重构对θ2和θ2′参数进行优化得到的最终参数,L(x′,z′)为代价函数。
最终保留训练好的第一降噪自动编码机的输入层和隐藏层以及训练好的第二降噪自动编码机的隐藏层,训练好的堆栈式降噪自动编码机为3层,节点数分别为1821、1200、800。
经过步骤3)的训练,提取到新样本特征,如图7和图8所示,所提取到的新样本特征形成新的样本集X,X={(x1,y1),(x2,y2),…,(xN,yN)},其中xi为新样本特征,其特征维数为800,yi为新样本特征的标签,i=1,2,…,N(N为新样本数量),yi={+1,-1},+1和-1分别表示类内和类间。
4)、训练real adaboost分类器
4.1)、初始化样本权值分布
D1表示初始权值分布集合,w1,1,w1,2,…,w1,N表示样本初始权值,w1i表示第i个样本的初始权值,N表示新样本总数。另外,用表示初始特征集合。
4.2)下述步骤迭代M次,m=1,2,…,M:
(1)用新的样本集X={(x1,y1),(x2,y2),…,(xN,yN)}训练弱分类器:
a)根据中每个特征vj和样本分布Dm设计一个弱分类器hm,j(其详细设计的方法参见文献Robert E.Schapire and Yoram Singer.Improved boosting algorithms usingconfidence-rated predictions[J].Machine Learning,1999.);
b)计算每个弱分类器hm,j的加权错误率εm,j:
wm,i为第m次迭代样本权值;
c)选取加权错误率最小的弱分类器并用hm(x)表示;
d)计算hm(x)的系数αm
这里εm表示hm(x)的加权错误率。
(2)更新样本分布
4.3)最终强分类器为
本步骤中,设置迭代次数为100,最终训练得到最强分类器
通过调整阈值b的值,获得ROC曲线,如图9所示,根据ROC曲线可以看出负正类率(false positive rate,FPR)和假负类率(false negative rate,FNR)的变化关系。
5)、认证:用户输入一幅新的3D掌纹图像,与样本库中预存的该用户的3D掌纹图像进行比对,判断它们属于同类还是异类:
将这两幅3D掌纹图像按上述步骤1)进行处理后,按步骤2)进行相干运算,利用步骤3)所得训练好的降噪自动编码机提取待认证特征,然后将所获取的待认证特征利用步骤4)所得的强分类器进行分类,完成对该3D掌纹图像的认证。
通过对测试样本库中的4000幅待认证3D掌纹图像进行认证处理后,结果显示本发明的方法对4000张图像的准确识别率高达99.1%。
本发明方法的独特之处在于:将待测掌纹图像与样本库中的样本图像处理后进行相干运算,得到相干系数,然后采用降噪自动编码提取特征,最后使用步骤4)得到的强分类器进行分类。如果判断为类内则证明测试样本与对比样本属于同类。如果判断为类间则证明测试样本与对比样本不是同一类。

Claims (1)

1.一种3D掌纹认证方法,其特征是,包括以下步骤:
1)、计算样本库中的每一张3D掌纹图像的均值曲率,获得均值曲率图像,然后对所获得的均值曲率图像进行归一化处理,再进行灰度化,得到灰度图像;
所述样本库采集自300~500个不同的手掌,每个手掌采集图像数为10~20;
另外,以每个手掌为一个用户,对样本库中的每一个用户的任意一张3D掌纹图像另外进行预存;
2)、从所得灰度图像中抽取类内图像对和类间图像对,然后将抽取的类内图像对和类间图像对的所有灰度图像先进行一维变化,再采用幅值平方相干函数计算每个图像对的两个图像信号之间的相干系数并设置类标签,以所得带有标签的相干系数作为新样本;
其中,类内图像对的两个图像信号的相干系数的类标签设置为类内,类间图像对的两个图像信号的相干系数的类标签设置为类间;类内图像对即来自同一手掌的两个图像信号,类间图像对即来自不同手掌的两个图像信号;
3)、使用新样本对堆栈式降噪自动编码机进行训练,提取到新样本特征,形成新的样本集,并得到训练好的降噪自动编码机;
4)、基于real adaboost算法和步骤3)提取到的新样本特征所形成的新的样本集训练若干弱分类器,这些弱分类器进行加权求和构成强分类器;
5)、认证:用户输入一幅新的3D掌纹图像,与预存的该用户的3D掌纹图像进行比对,判断它们属于同类还是异类,具体为:
首先分别计算这两幅3D掌纹图像的均值曲率,获得均值曲率图像,然后进行归一化处理,再进行灰度化,得到两幅灰度图像;然后将所得灰度图像进行一维变化;采用幅值平方相干函数计算进行一维变化后的两幅灰度图像的图像信号的相干系数,然后以该相干系数作为输入,采用步骤3)所得训练好的降噪自动编码机提取特征,然后利用步骤4)训练好的强分类器对提取到的特征进行分类,完成对该用户输入的新的3D掌纹图像的认证。
CN201610074161.4A 2016-02-02 2016-02-02 一种3d掌纹认证方法 Active CN105550677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610074161.4A CN105550677B (zh) 2016-02-02 2016-02-02 一种3d掌纹认证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610074161.4A CN105550677B (zh) 2016-02-02 2016-02-02 一种3d掌纹认证方法

Publications (2)

Publication Number Publication Date
CN105550677A CN105550677A (zh) 2016-05-04
CN105550677B true CN105550677B (zh) 2018-08-24

Family

ID=55829860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610074161.4A Active CN105550677B (zh) 2016-02-02 2016-02-02 一种3d掌纹认证方法

Country Status (1)

Country Link
CN (1) CN105550677B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304359B (zh) * 2018-02-06 2019-06-14 中国传媒大学 无监督学习统一特征提取器构建方法
CN108647874B (zh) * 2018-05-04 2020-12-08 科大讯飞股份有限公司 门限阈值确定方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809450A (zh) * 2015-05-14 2015-07-29 郑州大学 基于在线极限学习机的腕部静脉认证系统
CN105184266A (zh) * 2015-09-14 2015-12-23 中国民航大学 一种手指静脉图像识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7848566B2 (en) * 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809450A (zh) * 2015-05-14 2015-07-29 郑州大学 基于在线极限学习机的腕部静脉认证系统
CN105184266A (zh) * 2015-09-14 2015-12-23 中国民航大学 一种手指静脉图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
3D掌纹特征提取和快速匹配算法研究;李丽华;《中国优秀硕士学位论文全文数据库》;20131215(第S2期);全文 *

Also Published As

Publication number Publication date
CN105550677A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
CN106326886B (zh) 基于卷积神经网络的手指静脉图像质量评估方法
CN106228142B (zh) 基于卷积神经网络和贝叶斯决策的人脸验证方法
Khan et al. Iris recognition using image moments and k-means algorithm
Luque-Baena et al. Assessment of geometric features for individual identification and verification in biometric hand systems
Trabelsi et al. Hand vein recognition system with circular difference and statistical directional patterns based on an artificial neural network
Tiwari et al. Designing palmprint based recognition system using local structure tensor and force field transformation for human identification
CN108564040B (zh) 一种基于深度卷积特征的指纹活性检测方法
Dong et al. Feature extraction through contourlet subband clustering for texture classification
Meng et al. Finger vein recognition based on convolutional neural network
Chen et al. Breast cancer image classification based on CNN and bit-plane slicing
CN103714340A (zh) 基于图像分块的自适应特征提取方法
CN105550677B (zh) 一种3d掌纹认证方法
Avraam Static gesture recognition combining graph and appearance features
CN105046286A (zh) 基于自动视图生成和联合l1,2范数最小化的监督多视图特征选择方法
Lv et al. An algorithm of Iris feature-extracting based on 2D Log-Gabor
Laadjel et al. Palmprint recognition based on subspace analysis of Gabor filter bank
Yuan et al. Research on intelligent algorithm of identity authentication based on facial features
Qin et al. Multi-scaling detection of singular points based on fully convolutional networks in fingerprint images
Mustafa et al. Palm print recognition based on harmony search algorithm.
Sanjekar et al. Wavelet based multimodal biometrics with score level fusion using mathematical normalization
Radhika et al. Signature authentication based on subpattern analysis
Karar et al. Palmprint recognition using phase symmetry
Jaswal et al. DeepPalm-A Unified Framework for Personal Human Authentication
Hamoodi et al. Identification of biometrics based on a classical mathematical methods in forensic medicine
Rizwan et al. Online Signature Verification for Forgery Detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant